服務(wù)器市場(chǎng)、產(chǎn)業(yè)鏈及競(jìng)爭(zhēng)格局(2023)

訊石光通訊網(wǎng) 2023/5/28 20:57:53

  ICC訊 “人工智能之火點(diǎn)燃算力需求,AI服務(wù)器市場(chǎng)拆解”,詳細(xì)介紹了服務(wù)器構(gòu)成及市場(chǎng)情況、AIGC帶來(lái)服務(wù)器變革、訓(xùn)練&推理帶來(lái)服務(wù)器增量需求、AI服務(wù)器市場(chǎng)迎來(lái)高速發(fā)展機(jī)遇、AI服務(wù)器產(chǎn)業(yè)鏈解析、AI服務(wù)器競(jìng)爭(zhēng)格局。

  詳細(xì)技術(shù)內(nèi)容參考“高性能計(jì)算知識(shí)匯總”及“OpenMP編譯原理及實(shí)現(xiàn)”,高性能計(jì)算應(yīng)用特征剖析、深度報(bào)告:GPU研究框架、《高性能計(jì)算和超算專題》。及人工智能之火點(diǎn)燃算力需求,AI服務(wù)器市場(chǎng)拆解。

  服務(wù)器主要硬件包括處理器、內(nèi)存、芯片組、I/O (RAID卡、網(wǎng)卡、HBA卡)、硬盤(pán)、機(jī)箱(電源、風(fēng)扇)。以一臺(tái)普通的服務(wù)器生產(chǎn)成本為例,CPU及芯片組大致占比50%左右,內(nèi)存大致占比15%左右,外部存儲(chǔ)大致占比10%左右,其他硬件占比25%左右。

  服務(wù)器的邏輯架構(gòu)和普通計(jì)算機(jī)類(lèi)似。但是由于需要提供高性能計(jì)算,因此在處理能力、穩(wěn)定性、可靠性、安全性、可擴(kuò)展性、可管理性等方面要求較高。

  邏輯架構(gòu)中,最重要的部分是CPU和內(nèi)存。CPU對(duì)數(shù)據(jù)進(jìn)行邏輯運(yùn)算,內(nèi)存進(jìn)行數(shù)據(jù)存儲(chǔ)管理。

  服務(wù)器的固件主要包括BIOS或UEFI、BMC、CMOS,OS包括32位和64位。

  服務(wù)器市場(chǎng)規(guī)模持續(xù)增長(zhǎng)。根據(jù)Counterpoint的全球服務(wù)器銷(xiāo)售跟蹤報(bào)告,2022年,全球服務(wù)器出貨量將同比增長(zhǎng)6%,達(dá)到1380萬(wàn)臺(tái)。收入將同比增長(zhǎng)17%,達(dá)到1117億美元。根據(jù)IDC、中商產(chǎn)業(yè)研究院,我國(guó)服務(wù)器市場(chǎng)規(guī)模由2019年的182億美元增長(zhǎng)至2022年的273.4億美元,復(fù)合年均增長(zhǎng)率達(dá)14.5%,預(yù)計(jì)2023年我國(guó)服務(wù)器市場(chǎng)規(guī)模將增至308億美元。

  競(jìng)爭(zhēng)格局:根據(jù)IDC發(fā)布的《2022年第四季度中國(guó)服務(wù)器市場(chǎng)跟蹤報(bào)告Prelim》,浪潮份額國(guó)內(nèi)領(lǐng)先,新華三次之,超聚變排行第三,中興通訊進(jìn)入前五。

  目前,AIGC產(chǎn)業(yè)生態(tài)體系的雛形已現(xiàn),呈現(xiàn)為上中下三層架構(gòu):①第一層為上游基礎(chǔ)層,也就是由預(yù)訓(xùn)練模型為基礎(chǔ)搭建的AIGC技術(shù)基礎(chǔ)設(shè)施層。②第二層為中間層,即垂直化、場(chǎng)景化、個(gè)性化的模型和應(yīng)用工具。③第三層為應(yīng)用層,即面向C端用戶的文字、圖片、音視頻等內(nèi)容生成服務(wù)。

  回顧GPT的發(fā)展,GPT家族與BERT模型都是知名的NLP模型,都基于Transformer技術(shù)。GPT,是一種生成式的預(yù)訓(xùn)練模型,由OpenAI團(tuán)隊(duì)最早發(fā)布于2018年,GPT-1只有12個(gè)Transformer層,而到了GPT-3,則增加到96層。其中,GPT-1使用無(wú)監(jiān)督預(yù)訓(xùn)練與有監(jiān)督微調(diào)相結(jié)合的方式,GPT-2與GPT-3則都是純無(wú)監(jiān)督預(yù)訓(xùn)練的方式,GPT-3相比GPT-2的進(jìn)化主要是數(shù)據(jù)量、參數(shù)量的數(shù)量級(jí)提升。

  未來(lái)異構(gòu)計(jì)算或成為主流

  異構(gòu)計(jì)算(Heterogeneous Computing)是指使用不同類(lèi)型指令集和體系架構(gòu)的計(jì)算單元組成系統(tǒng)的計(jì)算方式,目前主要包括GPU云服務(wù)器、FPGA云服務(wù)器和彈性加速計(jì)算實(shí)例EAIS等。讓最適合的專用硬件去服務(wù)最適合的業(yè)務(wù)場(chǎng)景。

  在CPU+GPU的異構(gòu)計(jì)算架構(gòu)中,GPU與CPU通過(guò)PCle總線連接協(xié)同工作,CPU所在位置稱為主機(jī)端(host),而GPU所在位置稱為設(shè)備端(device)?;贑PU+GPU的異構(gòu)計(jì)算平臺(tái)可以優(yōu)勢(shì)互補(bǔ),CPU負(fù)責(zé)處理邏輯復(fù)雜的串行程序,而GPU重點(diǎn)處理數(shù)據(jù)密集型的并行計(jì)算程序,從而發(fā)揮最大功效。

  越來(lái)越多的AI計(jì)算都采用異構(gòu)計(jì)算來(lái)實(shí)現(xiàn)性能加速。

  阿里第一代計(jì)算型GPU實(shí)例,2017年對(duì)外發(fā)布GN4,搭載Nvidia M40加速器.,在萬(wàn)兆網(wǎng)絡(luò)下面向人工智能深度學(xué)習(xí)場(chǎng)景,相比同時(shí)代的CPU服務(wù)器性能有近7倍的提升。

  CPU適用于一系列廣泛的工作負(fù)載,特別是那些對(duì)于延遲和單位內(nèi)核性能要求較高的工作負(fù)載。作為強(qiáng)大的執(zhí)行引擎,CPU將它數(shù)量相對(duì)較少的內(nèi)核集中用于處理單個(gè)任務(wù),并快速將其完成。這使它尤其適合用于處理從串行計(jì)算到數(shù)據(jù)庫(kù)運(yùn)行等類(lèi)型的工作。

  GPU最初是作為專門(mén)用于加速特定3D渲染任務(wù)的ASIC開(kāi)發(fā)而成的。隨著時(shí)間的推移,這些功能固定的引擎變得更加可編程化、更加靈活。盡管圖形處理和當(dāng)下視覺(jué)效果越來(lái)越真實(shí)的頂級(jí)游戲仍是GPU的主要功能,但同時(shí),它也已經(jīng)演化為用途更普遍的并行處理器,能夠處理越來(lái)越多的應(yīng)用程序。

  AI服務(wù)器作為算力基礎(chǔ)設(shè)備持續(xù)增長(zhǎng)

  AI服務(wù)器作為算力基礎(chǔ)設(shè)備,其需求有望受益于AI時(shí)代下對(duì)于算力不斷提升的需求而快速增長(zhǎng)。根據(jù)TrendForce,截至2022年為止,預(yù)估搭載GPGPU(General Purpose GPU)的AI服務(wù)器年出貨量占整體服務(wù)器比重近1%,預(yù)估在ChatBot相關(guān)應(yīng)用加持下,有望再度推動(dòng)AI相關(guān)領(lǐng)域的發(fā)展,預(yù)估出貨量年成長(zhǎng)可達(dá)8%;2022~2026年復(fù)合成長(zhǎng)率將達(dá)10.8%。

  AI服務(wù)器是異構(gòu)服務(wù)器,可以根據(jù)應(yīng)用范圍采用不同的組合方式,如CPU + GPU、CPU + TPU、CPU +其他加速卡等。IDC預(yù)計(jì),中國(guó)AI服務(wù)器2021年的市場(chǎng)規(guī)模為57億美元,同比增長(zhǎng)61.6%,到2025年市場(chǎng)規(guī)模將增長(zhǎng)到109億美元,CAGR為17.5%。

  AI服務(wù)器構(gòu)成及形態(tài)

  AI服務(wù)器主要構(gòu)成:以浪潮NF5688M6 服務(wù)器為例,其采用NVSwitch實(shí)現(xiàn)GPU跨節(jié)點(diǎn)P2P高速通信互聯(lián)。整機(jī)8 顆 NVIDIAAmpere架構(gòu)GPU,通過(guò)NVSwitch實(shí)現(xiàn)GPU跨節(jié)點(diǎn)P2P高速通信互聯(lián)。配置 2顆第三代Intel Xeon可擴(kuò)展處理器(Ice Lake),支持8塊2.5英寸NVMe SSD orSATA/SASSSD以及板載2塊SATA M.2,可選配1張PCIe 4.0 x16 OCP 3.0網(wǎng)卡,速率支持10G/25G/100G;

  可支持10個(gè)PCIe 4.0 x16插槽, 2個(gè)PCIe 4.0 x16插槽(PCIe 4.0 x8速率), 1個(gè)OCP3.0插槽;支持32條DDR4RDIMM/LRDIMM內(nèi)存,速率最高支持3200MT/s,物理結(jié)構(gòu)還包括6塊3000W 80Plus鉑金電源、N+1冗余熱插拔風(fēng)扇、機(jī)箱等。

  目前按照GPU數(shù)量的不同,有4顆GPU(浪潮NF5448A6)、8顆GPU(Nvidia A100 640GB)以及16顆GPU(NVIDIA DGX-2)的AI服務(wù)器。

  AI服務(wù)器核心組件包括GPU(圖形處理器)、DRAM(動(dòng)態(tài)隨機(jī)存取存儲(chǔ)器)、SSD(固態(tài)硬盤(pán))和RAID卡、CPU(中央處理器)、網(wǎng)卡、PCB、高速互聯(lián)芯片(板內(nèi))和散熱模組等。

  CPU主要供貨廠商為Intel、GPU目前領(lǐng)先廠商為國(guó)際巨頭英偉達(dá),以及國(guó)內(nèi)廠商如寒武紀(jì)、海光信息等。

  AI服務(wù)器競(jìng)爭(zhēng)格局

  IDC發(fā)布了《2022年第四季度中國(guó)服務(wù)器市場(chǎng)跟蹤報(bào)告Prelim》。從報(bào)告可以看到,前兩名浪潮與新華三的變化較小,第三名為超聚變,從3.2%份額一躍而至10.1%,增幅遠(yuǎn)超其他服務(wù)器廠商。Top8服務(wù)器廠商中,浪潮、戴爾、聯(lián)想均出現(xiàn)顯著下滑,超聚變和中興則取得明顯增長(zhǎng)。其中,浪潮份額從30.8%下降至28.1%;新華三份額從17.5%下降至17.2%;中興通訊從3.1%提升至5.3%,位居國(guó)內(nèi)第5。

  聯(lián)想降幅最為明顯,從7.5%下降至4.9%。

  據(jù)TrendForce集邦咨詢統(tǒng)計(jì),2022年AI服務(wù)器采購(gòu)占比以北美四大云端業(yè)者Google、AWS、Meta、Microsoft合計(jì)占66.2%為最,而中國(guó)近年來(lái)隨著國(guó)產(chǎn)化力道加劇,AI建設(shè)浪潮隨之增溫,以ByteDance的采購(gòu)力道最為顯著,年采購(gòu)占比達(dá)6.2%,其次緊接在后的則是Tencent、Alibaba與Baidu,分別約為2.3%、1.5%與1.5%。

  國(guó)內(nèi)AI服務(wù)器競(jìng)爭(zhēng)廠商包括:浪潮信息、新華三、超聚變、中興通訊等。

新聞來(lái)源:架構(gòu)師技術(shù)聯(lián)盟

相關(guān)文章