AI 模型復雜度快速提升,拉動算力需求快速增長。AI 模型從最早2012 年(AlexNet)問世以來,深度和廣度一直在逐級擴升。作為目前最大的語言模型之一,2020 年發(fā)布的GPT-3 使用了1750 億個參數(shù),是其前代的100 多倍,微軟和英偉達共同開發(fā)的 Megatron-Turing-NLG 模型參數(shù)量則達5300 億。據(jù)中國信通院撰寫的《中國算力發(fā)展指數(shù)白皮書》,過去10 年用于AI 訓練模型的計算資源激增,AI 訓練的計算復雜度每年猛增10 倍,人工智能計算已成為主流的計算形態(tài),全球智能算力規(guī)模(換算為FP32)將由2021 年232EFlops 快速增長至2030 年的52.5ZFlops,期間CAGR 超過80%。

TrendForce 預計2026 年全球AI 服務器出貨量約20 萬臺。TrendForce 表示,在AIGC、自動駕駛、AloT、邊緣計算等新興應用帶動下,諸多大型云廠商加大AI 相關基礎設施建設,預計搭載GPGPU(GeneraPurpose GPU)的AI 服務器2022 年出貨量僅占整體服務器市場的1%,并有望在2026 年增長至20 萬臺,2022-2026 年CAGR 為10.8%。據(jù)TrendForce 統(tǒng)計,2022 年AI 服務器采購占比以北美四大云廠商為主,微軟、Google、Meta、AWS 合計貢獻66.2%,國內(nèi)則以字節(jié)跳動投入最為積極,占比6.2%。
不同類型的服務器成本結(jié)構(gòu)存在差異,芯片成本占比隨服務器性能提升而升高。
服務器本質(zhì)是計算機,核心硬件包括CPU、以GPU 為代表的加速卡、內(nèi)存、硬盤、網(wǎng)卡、電源、主板等。其中以CPU 和GPU 為代表的算力芯片是服務器主要成本項,占比隨著服務器性能的提高而逐漸上升。綜合華經(jīng)情報網(wǎng)和ARK數(shù)據(jù),芯片成本在普通服務器中約占總成本的32%,而用于機器學習的服務器因通常搭載多卡高性能GPU 導致芯片成本占比迅速提升至83%。
AI 服務器和普通服務器之間的區(qū)別在于其硬件配置和使用方式。AI 服務器用于處理深度學習工作負載的海量數(shù)據(jù),包括需要大內(nèi)存容量、高帶寬和整體系統(tǒng)內(nèi)緩存一致性的訓練和推斷。相較于普通服務器,AI 服務器新增多張高性能加速器(絕大部分為GPU),擁有更高的計算能力、更快的處理速度和更大的存儲空間,以支持高負載和復雜的計算任務。
隨著GPU 向A100 向H100 升級迭代,AI 服務器有望迎來量價齊升。根據(jù)英偉達官網(wǎng),相較于前代A100.H100 綜合計算性能提高6 倍,得益于:1)采用第四代 Tensor Core 和具有 FP8 精度的 Transformer 引擎,持續(xù)優(yōu)化大模型訓練和推理表現(xiàn);2)升級第四代NVLink,提供高達 900 GB/s 的 GPU 與 GPU之間互連;3)更高的顯存帶寬。我們認為,隨著價格更高的H100 在今年陸續(xù)出貨,AI 服務器市場將在今年迎來持續(xù)量價齊升。基于此,我們看好在算力芯片、服務器代工、內(nèi)存等關鍵領域具有卡位優(yōu)勢、產(chǎn)品競爭力較強的公司,建議關注:
1.算力芯片
2.服務器代工
3.存儲:北京君正、兆易創(chuàng)新、瀾起科技等
永芯易小編也提醒大家目前AI大部分公司還在探索階段,如果是投資應該注意投資風險。
詢價列表 ( 件產(chǎn)品)
哦! 它是空的。