AI屆的拼多多來(lái)了!中國(guó)大模型黑馬“異軍突起”,OpenAI再不出GPT-5就完了?
激石Pepperstone(http://xcvvvm.com/)報(bào)道:
開(kāi)源大模型領(lǐng)域新秀再起。
昨天,知名私募巨頭幻方量化旗下的AI公司深度求索(DeepSeek)發(fā)布全新第二代MoE大模型DeepSeek-V2。
這款支持128K上下文窗口的開(kāi)源MoE模型,能憑借低至“谷底”的價(jià)格成為新星嗎?
能力媲美GPT-4,價(jià)格為其百分之一
先看性能。
和當(dāng)前主流大模型相比,DeepSeek-V2毫不遜色。
據(jù)悉,DeepSeek-V2擁有2360億參數(shù),其中每個(gè)token210億個(gè)活躍參數(shù),相對(duì)較少,但仍然達(dá)到了開(kāi)源模型中頂級(jí)的性能,稱得上是最強(qiáng)的開(kāi)源MoE語(yǔ)言模型。
研究團(tuán)隊(duì)構(gòu)建了由8.1T token組成的高質(zhì)量、多源預(yù)訓(xùn)練語(yǔ)料庫(kù)。與DeepSeek 67B使用的語(yǔ)料庫(kù)相比,該語(yǔ)料庫(kù)的數(shù)據(jù)量特別是中文數(shù)據(jù)量更大,數(shù)據(jù)質(zhì)量更高。
據(jù)官網(wǎng)介紹,DeepSeek-V2的中文綜合能力(AlignBench)在眾多開(kāi)源模型中最強(qiáng),超過(guò)GPT-4,與GPT-4-Turbo,文心 4.0等閉源模型在評(píng)測(cè)中處于同一梯隊(duì)。
其次,DeepSeek-V2英文綜合能力(MT-Bench)與最強(qiáng)的開(kāi)源模型LLaMA3-70B處于同一梯隊(duì),超過(guò)最強(qiáng)MoE開(kāi)源模型Mixtral8x22B。
有分析指出,該模型的訓(xùn)練參數(shù)量高達(dá)8.1萬(wàn)億個(gè)token,而DeepSeek V2表現(xiàn)出“難以置信”的訓(xùn)練效率,并且計(jì)算量?jī)H為Meta Llama 3 70B 的1/5。
更直觀地說(shuō),DeepSeek-V2訓(xùn)練所需的運(yùn)算量是GPT-4 的1/20,而性能卻相差不大。
有外國(guó)網(wǎng)友給出了高度評(píng)價(jià):在僅有210億個(gè)活躍參數(shù)的情況下,能達(dá)到如此強(qiáng)的推理能力相當(dāng)驚人。
“如果屬實(shí)的話,那是相當(dāng)驚人的?!?/p>
“原來(lái)是中國(guó)公司?也許這就是‘中國(guó)隊(duì)’在AI領(lǐng)域名列前茅的原因?!?/p>
不過(guò),技術(shù)已經(jīng)不是大模型的唯一宣傳點(diǎn)了。
作為AI技術(shù)的前沿領(lǐng)域,大模型更新?lián)Q代之快有目共睹,再?gòu)?qiáng)的性能也可能在發(fā)布的下一秒就被友商反超。
因此,DeepSeek選擇“卷”價(jià)格。
目前DeepSeek-V2 API的定價(jià)為:每百萬(wàn)token輸入1元、輸出2元(32K上下文)。
和友商相比,僅為GPT-4-Turbo的近百分之一。
DeepSeek表示,采用8xH800 GPU的單節(jié)點(diǎn)峰值吞吐量可達(dá)到每秒50000多個(gè)解碼token。
如果僅按輸出token的API的報(bào)價(jià)計(jì)算,每個(gè)節(jié)點(diǎn)每小時(shí)的收入就是50.4美元,假設(shè)利用率完全充分,按照一個(gè)8xH800節(jié)點(diǎn)的成本為每小時(shí)15美元來(lái)計(jì)算,DeepSeek每臺(tái)服務(wù)器每小時(shí)的收益可達(dá)35.4美元,甚至能實(shí)現(xiàn)70%以上的毛利率。
有分析人士指出,即使服務(wù)器利用率不充分、批處理速度低于峰值能力,DeepSeek也有足夠的盈利空間,同時(shí)顛覆其他大模型的商業(yè)邏輯。
總結(jié)就是,主打一個(gè)“經(jīng)濟(jì)實(shí)惠”。
有網(wǎng)友表示:太便宜了,充50塊能用好幾年。
“日常的任務(wù)都能勝任?!?/p>
“開(kāi)放平臺(tái)送的十塊錢共有500萬(wàn)token。”
全新創(chuàng)新架構(gòu),支持開(kāi)源
價(jià)格是怎么被打下去的?
來(lái)自DeepSeek-V2的全新架構(gòu)。
據(jù)悉,DeepSeek-V2采用Transformer架構(gòu),其中每個(gè)Transformer塊由一個(gè)注意力模塊和一個(gè)前饋網(wǎng)絡(luò)(FFN)組成,并且在注意力機(jī)制和FFN方面,研究團(tuán)隊(duì)設(shè)計(jì)并采用了創(chuàng)新架構(gòu)。?
據(jù)介紹,一方面,該研究設(shè)計(jì)了MLA,利用低秩鍵值聯(lián)合壓縮來(lái)消除推理時(shí)鍵值緩存的瓶頸,從而支持高效推理。
另一方面,對(duì)于FFN,該研究采用高性能MoE架構(gòu) ——DeepSeekMoE,以經(jīng)濟(jì)的成本訓(xùn)練強(qiáng)大的模型。?
DeepSeek-V2基于高效且輕量級(jí)的框架HAI-LLM進(jìn)行訓(xùn)練,采用16-way zero-bubble pipeline并行、8-way專家并行和ZeRO-1數(shù)據(jù)并行。
鑒于DeepSeek-V2的激活參數(shù)相對(duì)較少,并且重新計(jì)算部分算子以節(jié)省激活內(nèi)存,無(wú)需張量并行即可訓(xùn)練,因此DeepSeek-V2減少了通信開(kāi)銷。
并且,DeepSeek-V2完全開(kāi)源(https://huggingface.co/deepseek-ai),可免費(fèi)上用,開(kāi)源模型支持128K上下文,對(duì)話官網(wǎng)/API支持32K上下文(約24000個(gè)token),還兼容OpenAI API接口。
不僅性能好,還這么便宜,甚至直接兼容OpenAI API,DeepSeek-V2這手“王炸”,換誰(shuí)可能都沒(méi)法拒絕。
外國(guó)網(wǎng)友直呼:沒(méi)理由不用!
DeepSeek-V2的性能水平幾乎和與GPT-4一致、提供的API與OpenAI API兼容、可以免費(fèi)使用500個(gè)token、付費(fèi)版本價(jià)格僅為GPT-4的1/100……
“沒(méi)有理由不用它?!?/p>
掃描二維碼推送至手機(jī)訪問(wèn)。
版權(quán)聲明:本文由激石Pepperstone發(fā)布,如需轉(zhuǎn)載請(qǐng)注明出處。