每日經(jīng)濟新聞 2025-02-19 18:50:39
2月18日,DeepSeek和月之暗面幾乎同時發(fā)布了最新的論文,主題均直指算法優(yōu)化,挑戰(zhàn)Transformer架構(gòu)最核心的注意力機制。值得注意的是,兩家公司的技術(shù)派明星創(chuàng)始人梁文鋒和楊植麟都出現(xiàn)在了論文作者之列。談及DeepSeek的最新NSA機制,風投公司RAI Digital聯(lián)合創(chuàng)始人薩義德·戈蘇斯對每經(jīng)記者解釋稱,與馬斯克所追求的“大力出奇跡”不同,DeepSeek的新機制采用了三大主要技術(shù),讓長文處理更高效。
每經(jīng)記者 岳楚鵬 每經(jīng)編輯 蘭素英
梁文鋒 圖片來源:視覺中國
北京時間2月18日,在馬斯克還在慶祝Grok 3模型正式發(fā)布的時候,DeepSeek官方在社交平臺X上發(fā)布了一篇純技術(shù)論文,主要是關(guān)于原生稀疏注意力(Native Sparse Attention,下稱NSA),直指ChatGPT等頂尖大模型背后的Transformer架構(gòu)最核心的注意力機制。
通過這一技術(shù),DeepSeek不僅能將大語言模型處理64k長文本的速度最高提升11.6倍,更在通用基準測試中實現(xiàn)了對傳統(tǒng)全注意力模型(Full Attention models)的性能反超。
值得注意的是,這篇論文是由DeepSeek創(chuàng)始人梁文鋒親自提交的,而且他也是作者之一。而就在DeepSeek發(fā)表這篇技術(shù)論文的同一天,月之暗面創(chuàng)始人楊植麟也“掛帥”發(fā)布了最新論文,主題同樣圍繞長文的算法優(yōu)化。
月之暗面提出的新方法叫塊注意力混合(Mixture of Block Attention,下稱MoBA)。這項方法沒有完全脫離現(xiàn)在最主流的全注意力機制,而是設(shè)計了一套可以自由切換的方式,讓這些模型可以在全注意力和稀疏注意力機制之間切換,給已有的全注意力模型更多的適配空間。
談及DeepSeek的NSA機制,風投公司RAI Digital聯(lián)合創(chuàng)始人薩義德·戈蘇斯對《每日經(jīng)濟新聞》記者解釋稱,與馬斯克所追求的“大力出奇跡”不同,DeepSeek的新技術(shù)更強調(diào)通過算法優(yōu)化來提升長文處理效率。他提到,NSA不會專注每個單詞,而是嘗試通過只關(guān)注重要的單詞來提升效率。
北京時間2月18日,DeepSeek官方在X上發(fā)布新論文,介紹了一種新的算法優(yōu)化方式——原生稀疏注意力(NSA)。
據(jù)DeepSeek介紹,NSA專為長文本訓練與推理設(shè)計,能利用動態(tài)分層稀疏策略等方法,通過針對現(xiàn)代硬件的優(yōu)化設(shè)計,顯著優(yōu)化傳統(tǒng)AI模型在訓練和推理過程中的表現(xiàn),特別是提升長上下文的推理能力,在保證性能的同時提升了推理速度,并有效降低了預訓練成本。
圖片來源:X
通過這一技術(shù),DeepSeek不僅能將大語言模型處理64k長文本的速度最高提升11.6倍,更在通用基準測試中實現(xiàn)了對傳統(tǒng)全注意力模型的性能反超。
圖片來源:DeepSeek的X賬號
值得注意的是,DeepSeek創(chuàng)始人梁文鋒也出現(xiàn)在了論文作者的行列當中,在作者排名中位列倒數(shù)第二,并且也是他親自提交至預印本網(wǎng)站上的。
圖片來源:arXiv
論文的第一作者是DeepSeek的實習生袁景陽,他于2022年在北大獲得了學士學位,目前在北大的Anker Embodied AI實驗室繼續(xù)攻讀研究生學位。他也是DeepSeek-V3報告的主要作者之一,并參與了DeepSeek-R1的研究工作。
無獨有偶,在DeepSeek發(fā)論文的當天,月之暗面創(chuàng)始人楊植麟也親自“掛帥”發(fā)表了一篇論文,同樣直指算法優(yōu)化。
楊植麟 圖片來源:視覺中國
圖片來源:月之暗面
該公司提出的新方法叫塊注意力混合(MoBA)。顧名思義,這一方法也運用了將詞變成塊的方法。不過,該方法沒有完全脫離現(xiàn)在最主流的全注意力機制,而是設(shè)計了一套可以自由切換的方式,讓這些模型可以在全注意力和稀疏注意力機制之間切換,給已有的全注意力模型更多的適配空間。
根據(jù)論文,MoBA的計算復雜度隨著上下文長度增加而優(yōu)勢明顯。在1M token的測試中,MoBA比全注意力快了6.5倍;到10M token時,則提速16倍。而且,它已經(jīng)在Kimi的產(chǎn)品中使用,用來處理日常用戶們的超長上下文的處理需求。
而這也并不是是DeepSeek和月之暗面第一次“撞車”了,上一次是在DeepSeek推理模型R1和月之暗面推理模型Kimi 1.5發(fā)布時。
MoBA論文主要作者章明星教授笑稱,“有種‘掌中,亦一火字’的感覺(不討論誰是孔明,誰說周郎)。”他同時也感慨:“大模型這套架構(gòu)最神奇的一點我感覺就是它似乎自己就指出了前進的路線,讓不同的人從不同的角度得出了相似的前進方向。”
談及DeepSeek的新方法,風投公司RAI Digital聯(lián)合創(chuàng)始人薩義德·戈蘇斯告訴每經(jīng)記者,這是AI模型處理超長文本的新方法,比傳統(tǒng)方法更快、更高效。
像ChatGPT這樣的大型語言模型,都使用一種叫“注意力”(Attention)機制的方法來處理文本,2017年谷歌研究員推出的論文《Attention Is All You Need》被認為是現(xiàn)在所有大模型的基石。
戈蘇斯進一步向每經(jīng)記者解釋道:“想象一下你正在讀一本書。要理解一個句子,你不僅要看當前的單詞,還要回憶起前面句子中的相關(guān)單詞,以理解所有內(nèi)容。AI使用注意力做類似的事情,這有助于它確定哪些詞是重要的,以及它們彼此之間的關(guān)系。傳統(tǒng)注意力機制(全注意力)會查看文本中的每個單詞,并將其與其他每個單詞進行比較。這對于短文本來說很好,但是當文本很長時(比如整本書或一份長的法律文件),這個過程就會變得太慢,而且在計算機上運行成本太高。
而DeepSeek論文中提到的稀疏注意力機制不會專注每個單詞,而是嘗試通過只關(guān)注重要的單詞來提升效率,就像是只讀摘要而不是整本書一樣。
戈蘇斯對每經(jīng)記者介紹說:“為了做好這一點,NSA引入了一種新方法來過濾不重要的單詞,同時仍保留足夠的上下文來理解完整含義。
它使用三種主要技術(shù)來實現(xiàn)這一點:
壓縮:NSA不會查看每個單詞,而是將單詞分組為“塊”,并為每個塊創(chuàng)建摘要。可以將其想象成將一個段落變成一個簡短的摘要。
選擇:模型從文本中挑選出最應(yīng)該關(guān)注的重要單詞。就像在學習時,只突出顯示教科書中的關(guān)鍵句子一樣。
滑動窗口:盡管NSA總結(jié)并選擇了單詞,但它仍然會查看附近的單詞,以確保不會錯過細小但重要的細節(jié)。想象一下閱讀一本書——人們不會只是從一頁跳到下一頁而不瀏覽附近的句子。
DeepSeek認為,三部分策略使NSA速度更快,同時理解含義的能力與傳統(tǒng)方法一樣好(甚至更好)。”
圖片來源:DeepSeek
有網(wǎng)友稱,這是在教會AI學會“聰明的偷懶”,像人類一樣聰明地分配注意力,從而讓長文的處理又快又準,不再是一個“死讀書的呆子”。雖然犧牲了一定的準確率,但是極大提升了效率,人腦就是這么干的。
戈蘇斯還表示,DeepSeek這次不僅是單純的算法進步,它還對現(xiàn)有的計算機硬件進行了優(yōu)化,以便GPU可以實現(xiàn)有效處理。
有科技媒體指出,DeepSeek此次使用了Triton框架,而非英偉達專用庫,這或許暗示了其在模型研發(fā)階段已考慮適配更多類型的計算卡,為未來的開源和廣泛應(yīng)用奠定了基礎(chǔ)。
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP