新型AI加速芯片或助力HBM3和HBM3e主導2024年市場
來源:骨軟筋酥網
時間:2025-11-23 13:35:12
8月2日消息 據市場研究公司 最新報告">TrendForce 最新報告指出,新型芯片2023 年 HBM(高帶寬存儲器)市場的加速主導產品是 HBM2e,該產品由英偉達 A100/A800、或助和上海外圍(高端外圍)外圍模特(電話微信189-4469-7302)一二線城市外圍預約外圍上門外圍女,不收任何定金90分鐘內快速到達AMD MI200 以及大多數云服務提供商的導年自主開發的加速器芯片所采用。
隨著對 AI 加速器芯片需求的市場不斷發展,制造商計劃在 2024 年推出新的新型芯片 HBM3e 產品,預計 HBM3 和 HBM3e 將成為明年市場的加速主流。
HBM 各代之間的或助和區別主要在于速度。在過渡到 HBM3 一代時,導年行業中出現了許多令人困惑的市場命名。TrendForce 明確指出,新型芯片當前市場上所謂的加速 HBM3 應分為兩個速度類別。一個類別是或助和上海外圍(高端外圍)外圍模特(電話微信189-4469-7302)一二線城市外圍預約外圍上門外圍女,不收任何定金90分鐘內快速到達運行速度在 5.6 至 6.4 Gbps 之間的 HBM3,另一個類別是導年 8 Gbps 的 HBM3e,也被稱為 HBM3P、市場HBM3A、HBM3+和 HBM3 Gen2 等多種名稱。
三大主要制造商 SK 海力士、三星和美光在 HBM 的發展狀態上存在差異。SK 海力士和三星從 HBM3 開始著手,該技術被用于英偉達的 H100/H800 和 AMD 的 MI300 系列產品中。預計這兩家制造商還將在 2024 年第一季度開始提供 HBM3e 樣品。與此同時,美光選擇跳過 HBM3,直接開發 HBM3e。
HBM3e 將采用 24Gb 單芯片堆疊,并在 8 層(8Hi)基礎上,單個 HBM3e 的容量將達到 24GB。預計這將應用于英偉達的 GB100,該產品將于 2025 年推出。因此,主要制造商預計將在 2024 年第一季度發布 HBM3e 樣品,并計劃在 2024 年下半年開始大規模生產。
云服務提供商正在開發自己的 AI 芯片,以減少對英偉達和 AMD 的依賴。在 AI 服務器加速器芯片領域,英偉達繼續占據最高市場份額。然而,英偉達的 H100/H800 GPU 價格在每臺 2 萬至 2.5 萬美元之間,再加上 AI 服務器的推薦配置需要 8 張卡,大大增加了總擁有成本。因此,雖然云服務提供商將繼續從英偉達或 AMD 采購服務器 GPU,但同時計劃開發自己的 AI 加速器芯片。
科技巨頭谷歌和亞馬遜 AWS 已在這一領域取得了重大進展,其中谷歌成立了 Tensor 處理單元(TPU),AWS 推出了 Trainium 和 Inferentia 芯片。此外,這兩個行業領導者已經在努力開發下一代 AI 加速器,將采用 HBM3 或 HBM3e 技術。
此外,北美和中國的其他云服務提供商也正在進行相關驗證,預示著未來幾年 AI 加速器芯片市場可能出現激烈競爭。
隨著對 AI 加速器芯片需求的市場不斷發展,制造商計劃在 2024 年推出新的新型芯片 HBM3e 產品,預計 HBM3 和 HBM3e 將成為明年市場的加速主流。
HBM 各代之間的或助和區別主要在于速度。在過渡到 HBM3 一代時,導年行業中出現了許多令人困惑的市場命名。TrendForce 明確指出,新型芯片當前市場上所謂的加速 HBM3 應分為兩個速度類別。一個類別是或助和上海外圍(高端外圍)外圍模特(電話微信189-4469-7302)一二線城市外圍預約外圍上門外圍女,不收任何定金90分鐘內快速到達運行速度在 5.6 至 6.4 Gbps 之間的 HBM3,另一個類別是導年 8 Gbps 的 HBM3e,也被稱為 HBM3P、市場HBM3A、HBM3+和 HBM3 Gen2 等多種名稱。
三大主要制造商 SK 海力士、三星和美光在 HBM 的發展狀態上存在差異。SK 海力士和三星從 HBM3 開始著手,該技術被用于英偉達的 H100/H800 和 AMD 的 MI300 系列產品中。預計這兩家制造商還將在 2024 年第一季度開始提供 HBM3e 樣品。與此同時,美光選擇跳過 HBM3,直接開發 HBM3e。
HBM3e 將采用 24Gb 單芯片堆疊,并在 8 層(8Hi)基礎上,單個 HBM3e 的容量將達到 24GB。預計這將應用于英偉達的 GB100,該產品將于 2025 年推出。因此,主要制造商預計將在 2024 年第一季度發布 HBM3e 樣品,并計劃在 2024 年下半年開始大規模生產。
云服務提供商正在開發自己的 AI 芯片,以減少對英偉達和 AMD 的依賴。在 AI 服務器加速器芯片領域,英偉達繼續占據最高市場份額。然而,英偉達的 H100/H800 GPU 價格在每臺 2 萬至 2.5 萬美元之間,再加上 AI 服務器的推薦配置需要 8 張卡,大大增加了總擁有成本。因此,雖然云服務提供商將繼續從英偉達或 AMD 采購服務器 GPU,但同時計劃開發自己的 AI 加速器芯片。
科技巨頭谷歌和亞馬遜 AWS 已在這一領域取得了重大進展,其中谷歌成立了 Tensor 處理單元(TPU),AWS 推出了 Trainium 和 Inferentia 芯片。此外,這兩個行業領導者已經在努力開發下一代 AI 加速器,將采用 HBM3 或 HBM3e 技術。
此外,北美和中國的其他云服務提供商也正在進行相關驗證,預示著未來幾年 AI 加速器芯片市場可能出現激烈競爭。








