IBM推全新AI模擬芯片,能效提升14倍!相變存儲器由旺宏供應
8月23日,IBM研究實驗室在《自然》期刊雜志上公布了其最新研究成果,研發(fā)出了一種全新的人工智能(AI)模擬芯片,能效可達傳統(tǒng)數(shù)字計算機芯片的14倍,可大幅降低AI計算的功耗。
該文章摘要顯示,當前擁有數(shù)十億個參數(shù)的 AI 模型可在一系列任務中實現(xiàn)較高精度,但也凸顯出傳統(tǒng)通用處理器(包含圖形處理器、中央處理器等)效能低下的問題。對此,IBM研究團隊提出“模擬內存計算”的方案,通過在自身的存儲器上并行執(zhí)行矩陣-向量乘法,以提供更強的能效。
IBM的研究團隊基于該方案開發(fā)出了一個 14nm 模擬芯片,利用34個大型相變存儲器(PCM)陣列,結合了數(shù)模轉換輸入、模擬外圍電路、模數(shù)轉換輸出和大規(guī)模并行二維網格路由。每個14nm芯片上可編碼3500萬個PCM,在每權重對應2-PCMs的方案中,可容納1700萬個參數(shù)。將這些芯片組合在一起,便能夠像數(shù)字芯片一樣有效地處理真實AI用例的實驗。
在測試環(huán)節(jié)中,IBM研究團隊先后使用谷歌語音檢測和Librispeech語音識別數(shù)據集來分別測試該芯片語言處理能力的效率。
在關鍵詞語音檢測方面,IBM團隊提出了一種卷積神經網絡架構,并在包含12個關鍵字的谷歌語音命令數(shù)據集上進行訓練。團隊采用了架構更簡單的FC(全連接)網絡結構,最終達到了86.14%的識別精度,且提交速度比MLPerf目前最佳情況快7倍。該模型使用硬件感知訓練在GPU上進行訓練,然后部署在團隊的模擬AI芯片上。
在規(guī)模更大的 Librispeech 語音識別數(shù)據集上,利用5個模擬AI芯片組合在一起,運行RNN-T(循環(huán)神經網絡轉換器)模型,以逐個字母地轉錄語音內容。該系統(tǒng)包含5個芯片上1.4億個PCM設備的4500萬個權重,能夠采集人們說話的音頻并以非常接近數(shù)字硬件設置的精度進行轉錄。該實驗最終達到9.258%的單詞錯誤率,能量效率達6.704TOPS/W(萬億次操作每秒/瓦),比MLPerf目前最佳能效提高了14倍。
值得注意的是,IBM的這款AI芯片所搭載的相變存儲器,是由IBM與旺宏共同開發(fā)的。
據了解,旺宏與IBM合作淵源深厚,早在2004年,雙方就已經有策略合作聯(lián)盟關系,并共同投入相變存儲器開發(fā)十余年,雖然初期還有不少同業(yè)者加入,但隨著時間流逝,不少廠商已經退出了共同研發(fā)合作,目前旺宏是IBM相變存儲器唯一合作伙伴,并取得特定AI相關授權。
目前旺宏與IBM的相變存儲器共同開發(fā)計劃,以三年為一期,期滿后雙方視狀況再簽訂新共同開發(fā)合約。雙方早已嗅到AI帶來的商機無窮,將相變存儲器合作方向瞄準AI應用,最近一次合約于2021年10月簽訂,旺宏還特別通過重大信息公布了相關內容。
旺宏當時公告指出,該公司將繼續(xù)參與IBM相變存儲器共同開發(fā)計劃,并取得特定模擬AI技術授權,該次合約從2022年元月22日起至2025年元月21日止,旺宏將有保密義務并分擔研發(fā)費用,同時遵守美國出口管制法令等義務,具體目的為持續(xù)投入先進技術開發(fā),對旺宏技術及競爭力有正面影響。
業(yè)界人士分析,相變存儲器具備速度快、非揮發(fā)性、低功率等特性,讓高密度存儲器可做為儲存應用,填補AI服務器所需的DRAM、NAND當中的價格及性能落差。
對于與IBM合作相變存儲器的最新進展,旺宏于29日表示,持續(xù)順利進行中,鎖定AI等先進應用發(fā)展。
編輯:芯智訊-林子
*博客內容為網友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。