美光、SK海力士今年HBM已售罄
隨著生成式人工智能(AI)市場的爆發(fā),也帶動了 AI 芯片需求的暴漲。AI 芯片龍頭英偉達業(yè)績更是持續(xù)飆升,最新公布的第四財季財報顯示,營收同比暴漲 265% 至 221 億美元,凈利潤同比暴漲 769% 至 122.85 億美元,持續(xù)突破歷史記錄,推動英偉達市值突破 2 萬億美元。
本文引用地址:http://m.ptau.cn/article/202402/455734.htm隨著 AI 芯片需求持續(xù)大漲,作為目前 AI 芯片當中的極為關鍵的器件,HBM(高帶寬內(nèi)存)也是持續(xù)供不應求,存儲大廠積極瞄準 HBM 擴產(chǎn)。
其中,三星電子從 2023 年四季度開始擴大 HBM3 的供應。此前 2023 年四季度三星內(nèi)部消息顯示,已經(jīng)向客戶提供了下一代 HBM3E 的 8 層堆疊樣品,并計劃在今年上半年開始量產(chǎn)。到下半年,其占比預計將達到 90% 左右。負責三星美國半導體業(yè)務的執(zhí)行副總裁 Han Jin-man 則在今年 CES 2024 上表示,三星今年的 HBM 芯片產(chǎn)量將比去年提高 2.5 倍,明年還將繼續(xù)提高 2 倍。
三星官方還透露,公司計劃在今年第四季度之前,將 HBM 的最高產(chǎn)量提高到每月 15 萬至 17 萬件,以此來爭奪 2024 年的 HBM 市場。此前三星電子斥資 105 億韓元收購了三星顯示位于韓國天安市的工廠和設備,以擴大 HBM 產(chǎn)能,同時還計劃投資 7000 億至 1 萬億韓元新建封裝線。
去年 12 月,美光 CEO Sanjay Mehrotra 對外透露,得益于生成式 AI 的火爆,推動了云端高性能 AI 芯片對于高帶寬內(nèi)存的旺盛需求,美光 2024 年的 HBM 產(chǎn)能預計已全部售罄。
美光指出,專為 AI、超級計算機設計的 HBM3E 預計 2024 年初量產(chǎn),有望于 2024 會計年度創(chuàng)造數(shù)億美元的營收。Mehrotra 對分析師表示,「2024 年 1~12 月,美光 HBM 預估全數(shù)售罄」。
美光也相信,終端能執(zhí)行 AI 任務的 PC、移動設備,對內(nèi)存芯片來說蘊藏極大潛質。
Mehrotra 預測,PC 出貨量在連兩年出現(xiàn)雙位數(shù)跌幅后,有望 2024 年成長 1%~5%。他相信,PC 制造商 2024 下半年擴產(chǎn) AI PC,這些 PC 每臺需要額外 4~8Gb DRAM,固態(tài)硬盤(SSD)需求也會上揚。
Mehrotra 還表示,長期而言,許多熱門生成式 AI 程序的主戰(zhàn)場會是智能手機,美光的產(chǎn)品組合有望抓住這次內(nèi)存及儲存市場潛藏的機會。美光計劃增加 2024 會計年度的資本支出,但高層承諾會「極度節(jié)制」(extremely disciplined)。
繼此前美光宣布今年 HBM 產(chǎn)能全部售罄之后,最新的消息顯示,SK 海力士今年的 HBM 產(chǎn)能也已經(jīng)全部售罄。
雖然整個 2023 年全球半導體市場遭遇了「寒流」,特別是存儲芯片市場更是下滑嚴重。但是,受益于生成式 AI 帶來的需求,面向 AI 應用的 DRAM 依然保持了快速的增長。
SK 海力士在 2023 年度財報當中就曾表示,2023 年在 DRAM 方面,公司以引領市場的技術實力積極應對了客戶需求,公司主力產(chǎn)品 DDR5 DRAM 和 HBM3 的營收較 2022 年分別成長 4 倍和 5 倍以上。
近日,SK 海力士副總裁 Kim Ki-tae(金基泰)在一篇博文中表示,今年公司的 HBM 已經(jīng)售罄,已開始為 2025 年做準備。雖然外部不穩(wěn)定因素依然存在,但今年內(nèi)存半導體行業(yè)已開始呈現(xiàn)上升趨勢。全球大型科技客戶對產(chǎn)品的需求正在復蘇,并且隨著人工智能使用領域的擴大,包括配備自己的人工智能的設備,如個人電腦和智能手機,對 DDR5、LPDDR5T 以及 HBM3E 等產(chǎn)品的需求預計會增加。
據(jù)悉,英偉達和 AMD 的下一代人工智能 GPU 預計將主要搭載 HBM3 內(nèi)存。例如,H100 是第一款支持 PCIe 5.0 標準的 GPU,也是第一款采用 HBM3 的 GPU,最多支持六顆 HBM3,帶寬為 3TB/s,是 A100 采用 HBM2E 的 1.5 倍,默認顯存容量為 80GB。
2023 年 11 月英偉達發(fā)布了新一代 AI GPU 芯片 H200,以及搭載這款 GPU 的 AI 服務器平臺 HGX H200 等產(chǎn)品。這款 GPU 是 H100 的升級款,依舊采用 Hopper 架構、臺積電 4nm 制程工藝,根據(jù)英偉達官網(wǎng),H200 的 GPU 芯片沒有升級,核心數(shù)、頻率沒有變化,主要的升級便是首次搭載 HBM3e 顯存,并且容量從 80GB 提升至 141GB。
得益于新升級的 HBM3e 芯片,H200 的顯存帶寬可達 4.8TB/s,比 H100 的 3.35TB/s 提升了 43%。不過這遠沒有達到 HBM3e 的上限,海外分析人士稱英偉達有意降低 HBM3e 的速度,以追求穩(wěn)定。如果與傳統(tǒng) x86 服務器相比,H200 的內(nèi)存性能最高可達 110 倍。
AMD 的 MI300 也搭配 HBM3,其中,MI300A 容量與前一代相同為 128GB,更高端 MI300X 則達 192GB,提升了 50%。AMD 稱,MI300X 提供的 HBM 密度最高是英偉達 AI 芯片 H100 的 2.4 倍,其 HBM 帶寬最高是 H100 的 1.6 倍。這意味著,AMD 的芯片可以運行比英偉達芯片更大的模型。
在 HBM 盛行的當下,沒有一家存儲廠商能夠忍住不分一杯羹。
評論