12月26日消息,國產(chǎn)大模型DeepSeek推出DeepSeek-V3,一個強大的混合專家(Mixture-of-Experts, MoE)語言模型。主要的技術(shù)迭代是671B的MoE,37B的激活參數(shù),在14.8萬億個高質(zhì)量token上進行了預(yù)訓(xùn)練。
AI圈表示,“圣誕節(jié)真的來了”。
翻譯翻譯,首先,從訓(xùn)練時間看,正如DeepSeek在發(fā)布報告中指出的那樣,“盡管其表現(xiàn)出色,DeepSeek-V3的完整訓(xùn)練僅需2.788M H800 GPU小時。”
打個比方,如果對標Llama 3 系列模型,其計算預(yù)算為 3930 萬 H100 GPU Hours——大約可以訓(xùn)練 DeepSeek-V3 十五次。
從成本上看,如果我們假設(shè) H800 GPU 的租金為每 GPU 小時 2 美元,DeepSeek-V3 的總訓(xùn)練成本僅為 557.6萬美元。
不僅如此,在最新發(fā)布的技術(shù)報告里,經(jīng)過與DeepSeek-V2.5、Qwen2.5-72B-Inst、Llama-3.1-405B-Inst、GPT-4o-0513和Claude-3.5-Sonnet-1022幾個模型的跑分, DeepSeek-V3 在多個性能基準測試中表現(xiàn)出色。在MATH500、AIME2024和Codeforces三個維度更是遙遙*,數(shù)學(xué)和編程能力極強,一度超過 GPT-4o 和 Claude 3.5 Sonnet 這兩大*的閉源模型。雖然在某些語言理解和軟件工程任務(wù)中稍有遜色,但也是TOP2尖子選手。
DeepSeek自言,這得益于采用了Multi-head Latent Attention (MLA)和DeepSeek MoE架構(gòu),實現(xiàn)了高效的推理和經(jīng)濟高效的訓(xùn)練。又引入了輔助損失自由負載平衡策略和多token預(yù)測訓(xùn)練目標,提升了模型性能。同時,在14.8萬億個高質(zhì)量token上進行了預(yù)訓(xùn)練時,通過監(jiān)督微調(diào)和強化學(xué)習(xí)階段充分挖掘了其潛力。
綜合評估顯示,DeepSeek-V3優(yōu)于其他開源模型,性能接近*的閉源模型。并且,訓(xùn)練過程非常穩(wěn)定,沒有遇到不可恢復(fù)的損失峰值或回滾。相比之下,在同一天,ChatGPT再次宕機,修復(fù)時間尚未確定。
Meta AI 研究科學(xué)家田淵棟在X上對 DeepSeek-V3 “極有限的預(yù)算”和“強勁的表現(xiàn)”深感驚喜。
曾為 Glean 和 Google Search 的創(chuàng)始團隊成員的 VC Deedy更是將DeepSeek-V3贊為“世界上*的開源大模型”。
DeepSeek-V3的基礎(chǔ)模型以英語和中文為主的多語言語料庫上進行預(yù)訓(xùn)練,因此主要在一系列以英語和中文為主的基準測試上評估其性能,同時也在一個多語言基準測試上進行評估。而基于其內(nèi)部集成的HAI-LLM框架,具體跑分如下:
如上可以看到 V3 在英語、編程、數(shù)學(xué)、中文、多語言幾個維度的表現(xiàn)。
英語(English):DeepSeek-V3 Base 在大多數(shù)測試中表現(xiàn)*,例如在 BBH(EM)、MMLU(EM)、MMLU-Redux(EM)、DROP(F1)、ARC-Easy(EM)、ARC-Challenge(EM)、HellaSwag(EM)、PIQA(EM)、WinoGrande(EM)、TriviaQA(EM) 和 AGIEval(EM) 等測試中。在 Pile-test(BPB) 基準測試中,DeepSeek-V3 Base 的得分為 0.548,也略高于其他模型。
代碼(Code):DeepSeek-V3 Base 在 HumanEval(Pass@1)、MBPP(Pass@1)、LiveCodeBench-Base(Pass@1)、CRUXEval-I(EM) 和 CRUXEval-O(EM) 等測試中表現(xiàn)突出。
數(shù)學(xué)(Math):DeepSeek-V3 Base 在 GSM8K(EM)、MATH(EM)、MGSM(EM) 和 CMath(EM) 等測試中表現(xiàn)優(yōu)異。
中文(Chinese):DeepSeek-V3 Base 在 CLUEWSC(EM)、C-Eval(EM)、CMMLU(EM)、CMRC(EM)、C3(EM) 和 CCPM(EM) 等測試中表現(xiàn)良好。
多語言(Multilingual):DeepSeek-V3 Base 在 MMMLU-non-English(EM) 測試中表現(xiàn)*。
由于DeepSeek“大方”開源,Open AI水靈靈地被網(wǎng)友cue進行橫向?qū)Ρ?,有一種被push的支配感。
不少玩家還在X上分享了自己的使用體驗,認為DeepSeek-V3 很“聰明”,并對Deepseek團隊表示極大的尊重。
DeepSeek 是一家創(chuàng)新型科技公司,長久以來專注于開發(fā)先進的大語言模型(LLM)和相關(guān)技術(shù),由知名私募巨頭幻方量化孕育而生,作為大廠外*一家儲備萬張 A100 芯片的公司,幻方量化為DeepSeek的技術(shù)研發(fā)提供了強大的硬件支持。
早在通過開源大模型如 DeepSeek Coder 等,DeepSeek 就展示了在人工智能技術(shù)領(lǐng)域的實力。DeepSeek V2 模型的發(fā)布,更是提供了一種史無前例的性價比,推動了中國大模型價格戰(zhàn)的發(fā)展,并因其創(chuàng)新的 MLA 架構(gòu)和 DeepSeekMoESparse 結(jié)構(gòu)而受到業(yè)界的廣泛關(guān)注。
DeepSeek 被硅谷譽為“來自東方的神秘力量”,其 V2 模型論文在當(dāng)時即被認為可能是今年*的一篇。半年后,DeepSeek 帶著 V3 再次登場,用行動說明,中國大模型創(chuàng)業(yè)者,也可以加入到這場全球技術(shù)創(chuàng)新的 AI 競賽中。
還沒有評論,來說兩句吧...