SK海力士已量產(chǎn)HBM3E,并計劃2026年大規(guī)模量產(chǎn)HBM4
2月3日消息,據(jù)《韓國商報》報道,在近日的“SEMICON 韓國 2024”展會上,SK海力士副總裁Chun-hwan Kim透露,該公司HBM3E內存已經(jīng)量產(chǎn),并計劃在 2026 年開始大規(guī)模生產(chǎn) HBM4。
Chun-hwan Kim表示:“隨著AI計算時代的到來,生成式人工智能(AI)正在迅速發(fā)展,市場預計將以每年35%的速度增長?!倍墒紸I市場的快速增長則需要大量更高性能的AI芯片來支持,這也將進一步推動對于更高帶寬的內存芯片的需求。
早在去年8月21日,SK海力士就宣布其開發(fā)出的HBM3e DRAM已經(jīng)提供給英偉達(NVIDIA)和其他客戶評估,并計劃在2024年上半年量產(chǎn),以鞏固其在 AI 內存市場的領導地位?,F(xiàn)在,Chun-hwan Kim宣布,該公司HBM3E內存已經(jīng)正式量產(chǎn)。
據(jù)介紹,SK海力士的HBM3e在 1024 位接口上擁有9.6 GT/s 的數(shù)據(jù)傳輸速率,單個 HBM3E 內存堆??商峁?1.2 TB/s 的理論峰值帶寬,對于由六個堆棧組成的內存子系統(tǒng)來說,帶寬可高達 7.2 TB/s。不過,該帶寬是理論上的。例如,英偉達(Nvidia)的 H200所集成的HBM3e內存僅提供高達 4.8 TB/s的傳輸速率,可能是出于可靠性和功耗方面的考慮。
隨著人工智能和高性能計算(HPC)行業(yè)的需求持續(xù)增長,因此具有2048位接口的下一代HBM4內存成為各家內存大廠發(fā)力的重點。
Chun-hwan Kim明確表示,SK海力士將在 2026 年開始生產(chǎn)HBM4,并聲稱這將推動人工智能市場的巨大增長。他認為,除了向下一代轉型之外,重要的是要認識到HBM行業(yè)面臨著巨大的需求。因此,創(chuàng)建一個既具有無縫供應又具有創(chuàng)新性的解決方案更為重要。Chun-hwan Kim認為,到 2025 年,HBM 市場預計將增長 40%,SK海力士已盡早定位以充分利用這一市場。
同樣,美光和三星也計劃在2026年量產(chǎn)HBM4。
據(jù)美光介紹,HBM4 將使用 2048 位接口,可以將每個堆棧的理論峰值內存帶寬提高到 1.5 TB/s 以上。為了實現(xiàn)這一目標,HBM4 需要具有約 6 GT/s 的數(shù)據(jù)傳輸速率,這將有助于控制下一代 DRAM 的功耗。同時,2048 位內存接口需要在內插器上進行非常復雜的布線,或者僅將 HBM4 堆棧放置在芯片頂部。在這兩種情況下,HBM4 都會比 HBM3 和 HBM3E 更昂貴。
三星內存執(zhí)行副總裁 Jaejune Kim 在與分析師和投資者舉行的最新財報電話會議上也表示:“HBM4 正在開發(fā)中,預計 2025 年提供樣品,2026 年實現(xiàn)量產(chǎn) 。 ” “在生成式 AI 的推動下,對定制 HBM 的需求不斷增長,因此我們不僅開發(fā)標準產(chǎn)品,而且還通過添加邏輯芯片為每個客戶開發(fā)性能優(yōu)化的定制 HBM。詳細規(guī)格正在與關鍵產(chǎn)品討論顧客?!?/p>
編輯:芯智訊-浪客劍
*博客內容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。