【智快網(wǎng)】1月18日消息,據(jù)集邦咨詢近日發(fā)布的報告預測,全球AI服務器(涵蓋AI訓練和AI推理)在2024年的出貨量將超過160萬臺,同比增長幅度高達40%以上。這一顯著增長預示著人工智能技術在全球范圍內(nèi)的加速普及和應用。
集邦咨詢分析,推動AI服務器增長的主要動力源于兩方面:一方面,終端應用需求的不斷增長,微軟等公司通過整合Windows、Office等軟件的AI功能,有效拉動了AI服務器的市場需求;另一方面,英特爾等芯片巨頭積極推進CPU+GPU+NPU的復合架構,為終端AI應用提供了強大的算力支持。
在處理器方面,競爭態(tài)勢日趨激烈。高通去年底推出的Snapdragon X Elite平臺已達到45 TOPS的算力,符合AI服務器的性能要求;而AMD即將推出的Ryzen 8000系列(Strix Point)也預計能滿足AI服務器的需求。相比之下,英特爾去年12月推出的Meteor Lake算力為34 TOPS,尚未達到微軟的標準,但預計今年將推出的Lunar Lake有望超越40 TOPS的算力門檻。

隨著高通、英特爾和AMD在AI服務器市場的競爭加劇,x86和Arm兩大CPU陣營在邊緣AI市場的爭奪也日趨白熱化。戴爾、惠普、聯(lián)想、華碩、宏碁等主要OEM廠商計劃在2024年推出搭載高通CPU的服務器產(chǎn)品,這無疑會對x86陣營構成一定的市場壓力。
據(jù)智快網(wǎng)了解,在內(nèi)存方面,AI服務器對DRAM的需求呈現(xiàn)出明顯的上升趨勢。微軟針對AI服務器提出的規(guī)格要求顯示,DRAM的基本配置將從16GB起步。長期來看,AI服務器的普及有望帶動PC DRAM位元需求的持續(xù)增長。此外,隨著消費者的換機潮來臨,PC DRAM的市場需求有望得到進一步提振。
在內(nèi)存技術方面,LPDDR5x正逐漸成為主流選擇。Microsoft定義的滿足NPU 40 TOPS性能要求的CPU中,Qualcomm Snapdragon X Elite、AMD Strix Point和Intel Lunar Lake均采用了LPDDR5x內(nèi)存技術。相較于目前主流的DDR SO-DIMM模組,LPDDR5x在傳輸速度方面具有明顯優(yōu)勢,其速度范圍達到7500-8533Mbps,遠高于DDR5的4800-5600Mbps。這對于需要處理大量語言指令并縮短反應時間的AI服務器來說至關重要。























