AI公司集體"抄作業(yè)":白菜價訓練"小模型"時代來了?
3月10日消息,如今開發(fā)人工智能的成本正降至歷史新低。更低廉的人工智能開發(fā)技術的確讓開發(fā)者歡欣鼓舞,但這并非全然利好。隨著成本降至谷底,大科技公司在基礎模型上的高昂投資必須得到合理解釋。
本文引用地址:http://m.ptau.cn/article/202503/467857.htm以下為翻譯內容:
打造一家人工智能公司究竟要花多少錢?隨著大語言模型的研發(fā)成本越來越低,這個數(shù)字每天都在下降。
人工智能算力成本持續(xù)下降,此外用極低成本訓練出優(yōu)質大模型的“模型蒸餾技術”在不斷普及。新型廉價開發(fā)技術令AI開發(fā)者歡欣鼓舞,但這并非全然利好,也讓一些企業(yè)感到寒意。這項歷史悠久的技術正被賦予新價值:對多數(shù)人是福音,對特定群體意味著復雜挑戰(zhàn),而對AI未來則意義深遠。
蒸餾技術解構
人工智能開發(fā)者和專家表示,蒸餾技術的本質在于運用一個模型提升另一個模型。讓一個較大的“教師”模型生成應答與推理路徑,再讓一個較小的“學生”模型模仿其行為模式。
據傳中國公司DeepSeek(深度求索)以約500萬美元成本訓練出與OpenAI抗衡的模型,在業(yè)界引起軒然大波。該消息引發(fā)股市恐慌,因擔憂芯片需求下降,英偉達市值慘跌6000億美元(但此預測尚未成真)。
加州大學伯克利分校的研究團隊則在今年1月份發(fā)布研究,表明他們用不到1000美元的算力成本就訓練出兩個新模型。今年2月份,斯坦福大學、華盛頓大學以及艾倫人工智能研究所的研究人員更進一步,只用更低成本就訓練出一個可用的推理模型。
這些突破都得益于蒸餾技術。
這項技術通常會搭配微調技術(fine-tuning),能以遠低于其他方法的成本在訓練階段提升模型性能。開發(fā)者常用這兩種技術賦予模型特定的專業(yè)知識或技能。例如,可以將Meta開發(fā)的通用基礎模型蒸餾成精通美國稅法的專家系統(tǒng);或者利用DeepSeek的R1推理模型對Llama進行蒸餾,從而增強后者的推理能力,讓Llama在生成答案需要更長時間時,能逐步展示推理過程。
美國知名半導體分析機構SemiAnalysis分析師在今年1月份發(fā)布的報告中寫道:“R1模型中最有意思的部分,或許就在于用推理模型的輸出對一些非推理的小模型進行微調,使它們轉變?yōu)榫邆渫评砟芰Φ哪P??!?/p>
除了價格低廉外,DeepSeek還把R1推理模型作為教師,發(fā)布其他開源模型的蒸餾版本。DeepSeek的全尺寸模型以及Llama的最大版本規(guī)模太過龐大,僅有特定硬件能支持模型運行,而蒸餾技術也有助于解決這一問題。圖靈資本(Touring Capital)合伙人薩米爾·庫馬爾(Samir Kumar)表示:“經過蒸餾的模型體積更小、參數(shù)更少、內存占用更低,甚至可以在手機或邊緣設備上運行?!?/p>
DeepSeek的突破性在于,經過蒸餾的模型性能并未因規(guī)??s減而下降,反而有所提升。
蒸餾技術雖非新生事物,卻已悄然蛻變
蒸餾技術最早出現(xiàn)在2015年,源于谷歌人工智能元老杰夫·迪恩(Jeff Dean)、杰弗里·辛頓(Geoffrey Hinton)以及谷歌DeepMind研究副總裁奧里奧爾·維尼亞爾斯(Oriol Vinyals)共同撰寫的一篇論文中。維尼亞爾斯近期透露,該論文曾被NeurIPS頂會拒稿,理由是該技術“對領域影響有限”。十年后,蒸餾技術卻突然成為AI討論的核心議題。與過去相比,如今蒸餾技術的威力提升源于可用作教師模型的開源模型在數(shù)量與質量上的飛躍。今年1月份,IBM LLM Granite技術管理總監(jiān)凱特·索爾(Kate Soule)在播客中表示:“DeepSeek通過MIT許可開源迄今最強大的模型,實質上正在侵蝕各大廠商守護核心模型的緊閉大門?!?/p>
蒸餾技術的應用邊界索爾提到,互聯(lián)網開源模型庫Hugging Face平臺上充斥著諸如Meta Llama和阿里巴巴Qwen等傳統(tǒng)模型的蒸餾版本。實際上,Hugging Face存儲的約150萬個模型中,有3萬個名稱中帶有“distill”字樣,這通常表明它們經過了蒸餾。但目前尚無蒸餾模型進入Hugging Face的榜單前列。正如實體店里的一元店,蒸餾技術雖具頂尖性價比,但可選范圍有限且存在缺陷:專精某項任務的蒸餾模型在其他領域的表現(xiàn)可能會弱化。
蘋果公司研究人員曾嘗試構建“蒸餾擴展定律”,通過教師模型的規(guī)模、目標模型規(guī)模和算力投入等參數(shù)預測蒸餾效果。他們發(fā)現(xiàn),在特定條件下,當使用高質量的教師模型時,蒸餾效果優(yōu)于傳統(tǒng)的監(jiān)督學習,但當教師模型過大時,性能提升將停滯。
盡管如此,這一技術仍有助于縮短從概念到原型的距離,普遍降低人工智能創(chuàng)業(yè)門檻。但多位人工智能專家強調,這種捷徑并不否定昂貴基礎模型的必要性,但卻是動搖了大模型廠商的盈利前景。
基礎模型還有出路嗎?英偉達首席執(zhí)行官黃仁勛在公司最新財報發(fā)布后接受采訪時表示:“如今全球幾乎所有AI開發(fā)者都在使用DeepSeek的R1來蒸餾新模型?!闭麴s技術帶來了機遇,但對OpenAI和Anthropic等公司耗巨資開發(fā)的專有大模型構成了威脅,有可能遭到對抗。云平臺Hyperbolic聯(lián)合創(chuàng)始人張杰表示:“我認為基礎模型將會越來越趨于同質化。預訓練模型的能力存在天花板,我們正逼近這個極限?!睆埥苷J為,大語言模型巨頭的出路在于打造受歡迎的產品而非模型本身,這或許解釋了Meta選擇部分開源Llama模型的戰(zhàn)略考量。
此外,基礎模型公司還可以采用更激進的策略。匿名谷歌DeepMind研究員表示,具備推理能力的模型可以通過隱藏推理步驟或“痕跡”來防止被蒸餾。雖然OpenAI在大型o1推理模型中隱藏了完整的推理路徑,但新發(fā)布的o3-mini版本則展示了這些信息。特朗普政府人工智能政策顧問戴維·薩克斯(David Sacks)在今年1月份接受采訪時說:“未來幾個月,頭部人工智能公司將圍剿蒸餾技術?!?/p>
不過,在開源人工智能的“狂野西部”,要通過限制蒸餾來遏制技術擴散談何容易。IBM LLM Granite的索爾直言:“Hugging Face充斥著大量GPT模型生成的、未經授權的格式化訓練數(shù)據集。這早已經是公開的秘密?!?/p>
Anthropic和OpenAI均未對此置評。
評論