8月11日消息,AI這兩年來成為市場(chǎng)熱點(diǎn),并且也成為大國(guó)競(jìng)爭(zhēng)的關(guān)鍵技術(shù)之一,NVIDIA的GPU雖然更強(qiáng)大,但在存儲(chǔ)芯片上也要依賴韓國(guó)廠商,因?yàn)?a class="innerlink" href="http://m.ihrv.cn/tags/HBM" target="_blank">HBM內(nèi)存逐漸卡住AI脖子。
HBM(High Bandwidth Memory)是一種高帶寬內(nèi)存標(biāo)準(zhǔn),主要用于滿足日益增長(zhǎng)的計(jì)算需求。
相比傳統(tǒng)內(nèi)存,HBM可以提供更高的數(shù)據(jù)傳輸速率和更低的延遲。
在這個(gè)領(lǐng)域,率先量產(chǎn)的是SK海力士,美國(guó)也有美光公司開始量產(chǎn),內(nèi)存一哥三星反而是最慢的。
HBM最新標(biāo)準(zhǔn)已經(jīng)到了HBM4,但市場(chǎng)上當(dāng)前的主力還是HBM3E,堆棧層數(shù)正在從8層提升到12層,單顆容量輕松達(dá)到36GB,而SK海力士憑借技術(shù)優(yōu)勢(shì)可以做到16層堆棧,容量48GB,今年就能供貨。
得益于市場(chǎng)優(yōu)勢(shì),SK海力士HBM事業(yè)部高管崔俊龍Choi Joon-yong日前在采訪中表示,來自終端用戶對(duì)AI的需求非常龐大,而且非常穩(wěn)固。
該公司也預(yù)測(cè)到2030年之前,HBM市場(chǎng)將以每年30%的增長(zhǎng)率發(fā)展,市場(chǎng)規(guī)模將達(dá)到數(shù)百億美元。
HBM內(nèi)存也逐漸成為韓國(guó)芯片出口的王牌,去年對(duì)美國(guó)的芯片總出口為107億美元,其中HBM就占了存儲(chǔ)芯片的18%。
NVIDIA、AMD及Intel三家主要的AI芯片巨頭當(dāng)前及下一代的AI芯片也會(huì)進(jìn)一步提升HBM顯存的容量和速度,其中AMD明年的主力產(chǎn)品MI400將使用高達(dá)432GB的HBM4,帶寬19.6TB/s,對(duì)比MI350系列的288GB HEM3E、8TB/s分別增加50%、145%,比競(jìng)爭(zhēng)對(duì)手的產(chǎn)品也高出50%。
值得一提的是,HBM也成為國(guó)內(nèi)AI芯片發(fā)展的關(guān)鍵限制因素之一,國(guó)內(nèi)也有公司在自研HBM芯片,但技術(shù)水平落后SK海力士一兩代,HBM3e、HBM4量產(chǎn)還要等幾年時(shí)間。
不過華為即將在未來兩天公布一項(xiàng)新技術(shù),這項(xiàng)成果或能降低中國(guó)AI推理對(duì)HBM(高帶寬內(nèi)存)技術(shù)的依賴,提升國(guó)內(nèi)AI大模型推理性能,完善中國(guó)AI推理生態(tài)的關(guān)鍵部分。