優(yōu)化AI芯片能效 Thinker團隊提供新思路
目前,AI對硬件的計算要求越來越高,這主要在神經網(wǎng)絡研發(fā)上壓縮與簡化則是一個學術界與工程界都在研究討論的重要問題。目前的深度神經網(wǎng)絡普遍較大,無論是在云端還是在終端,都會影響網(wǎng)絡速度,增大功耗。
本文引用地址:http://m.ptau.cn/article/201806/381612.htm
前不久,清華大學微納電子系Thinker團隊在計算結構上設計了Thinker系列AI計算芯片,并且還受到學術界和工業(yè)界的廣泛關注。Thinker團隊此次研究成果,從存儲優(yōu)化和軟硬件協(xié)同設計的角度大幅提升了芯片能量效率,給AI計算芯片的架構演進提供了新思路。

據(jù)了解,在這次AI計算芯片的存儲優(yōu)化新方法中,刷新了神經網(wǎng)絡加速框架,而且可以得到兩個優(yōu)化方向,其一是減少數(shù)據(jù)生存時間,其二就是增大數(shù)據(jù)維持時間。其次,還提出神經網(wǎng)絡分層的混合計算模式,根據(jù)芯片參數(shù)及DNN網(wǎng)絡參數(shù),對網(wǎng)絡的每一層分配一個最優(yōu)的計算模式。
但是,相比于傳統(tǒng)的采用SRAM的AI計算芯片,使用RANA框架的基于eDRAM的計算芯片在面積開銷相同的情況下可以減少41.7%的片外訪存和66.2%的系統(tǒng)能耗,使AI計算系統(tǒng)的能量效率獲得大幅提高。
評論