AI人工智能以前所未有的速度在全球科技領域掀起變革浪潮,半導體產(chǎn)業(yè)競爭日趨白熱化。在這場全球科技競賽中,AI強勢推動AI服務器產(chǎn)業(yè)蓬勃興起,并使之逐步成為半導體領域的關鍵戰(zhàn)場,吸引眾多大廠入局。與此同時,隨著技術演進與市場需求變化,AI服務器產(chǎn)業(yè)悄然迎來新一輪改變。
AI服務器是專為運行人工智能算法和模型設計的硬件設備,通過異構計算架構(CPU+GPU/FPGA/ASIC)實現(xiàn)高性能并行處理。受益于AI驅動,AI服務器產(chǎn)業(yè)增長勢頭強勁。
全球市場研究機構TrendForce集邦咨詢最新調(diào)查顯示,2025年AI服務器出貨年增長預計將達24.1%,在整體服務器占比為14.8%。2026年因來自云端服務業(yè)者(CSP)、主權云的需求持續(xù)穩(wěn)健,對GPU、ASIC拉貨動能將有所提升,加上AI推理應用蓬勃發(fā)展,預計全球AI服務器出貨量將年增20%以上,占整體服務器比重上升至17%。
AI服務器產(chǎn)業(yè)鏈包括上游零部件、中游整合組裝與下游應用三大環(huán)節(jié),涉及眾多產(chǎn)業(yè)鏈公司。
上游零部件——包含AI芯片、存儲器以及其他零部件等。
AI芯片指的是專為人工智能算法設計的硬件加速器,其核心是突破傳統(tǒng)CPU的算力瓶頸。按照技術分類,AI芯片主要分為GPU、FPGA、ASIC等。在AI服務器領域,多核CPU負責任務調(diào)度,GPU提供算力核心,F(xiàn)PGA/ASIC支持定制化加速。AI芯片代表廠商包括英偉達、AMD、華為海思、海光、寒武紀、壁仞科技、平頭哥等。

存儲器領域,大容量DDR4/DDR5內(nèi)存和高速SSD滿足數(shù)據(jù)吞吐需求,HBM提升內(nèi)存帶寬、降低功耗、優(yōu)化空間占用,顯著增強了AI服務器的性能與能效,代表廠商包括三星、SK海力士、美光等。
其他零部件包括網(wǎng)絡、PCB、電源、散熱等,其中液冷散熱技術可以解決多GPU高功耗散熱問題,代表廠商包括Cooler Master(酷冷至尊)、AVC(奇鋐科技)、英維克、維諦技術等。
中游整合組裝——將芯片組裝進服務器硬件中,并增加必要的網(wǎng)絡、存儲設備,形成完整的AI服務器解決方案,分為ODM廠商,如廣達、工業(yè)富聯(lián)、英業(yè)達、緯創(chuàng)、Supermicro;以及品牌服務器廠商,如戴爾、HPE、甲骨文、惠普、聯(lián)想、浪潮信息、華為、新華三、超聚變等。

下游應用領域——包括互聯(lián)網(wǎng)廠商、運營商、通信、政府、制造業(yè)、教育、金融與醫(yī)療等。
此前,AI大模型強勢推動之下,AI芯片市場持續(xù)供不應求,引發(fā)晶圓代工、先進封裝廠商持續(xù)擴產(chǎn)。如今,隨著產(chǎn)能陸續(xù)釋放,芯片供應問題得到極大改善,不再是制約AI服務器發(fā)展的因素。與此同時,圍繞ASIC、液冷散熱、Nearline SSD等領域,AI服務器產(chǎn)業(yè)開啟新一輪變革。
ASIC研發(fā)潮來襲
當前全球AI芯片市場由英偉達、AMD等公司推出的GPU產(chǎn)品主導,隨著AI服務器需求快速擴張,全球大型云端服務業(yè)者(CSP)正加速自研AI ASIC。
谷歌是自研芯片布局比例較高的廠商,其針對AI推理用的TPU v6e已于上半年逐步放量并成為主流。此外,谷歌與博通合作TPU v7p(Ironwood),鎖定訓練應用,預計于2026年逐步放量,將接替TPU v6e(Trillium)的核心AI加速平臺。
AWS(亞馬遜云科技)自研芯片目前以Trainium v2為主力平臺,AWS已啟動不同版本的Trainium v3開發(fā),預計于2026年陸續(xù)量產(chǎn)。
Meta成功部署首款自研AI加速器MTIA后,正與Broadcom共同開發(fā)下一代MTIA v2,預計于2025年第四季量產(chǎn)。Microsoft則規(guī)劃由GUC協(xié)助量產(chǎn)Maia v2,預計于2026年上半年啟動。
除了CSP之外,芯片巨頭英特爾近期也正式進軍ASIC芯片領域。英特爾宣布成立“中央工程集團”,整合內(nèi)部設計與制程資源,并啟動ASIC與設計服務業(yè)務。外界普遍認為,這是英特爾繼CPU、GPU與代工之后的新運營支柱,目標在于切入快速成長的客制化芯片市場。
與此同時,華為、昆侖芯、寒武紀、平頭哥等一眾廠商同樣積極布局ASIC市場,ASIC研發(fā)潮不斷興起,未來ASIC市占率有望不斷攀升。
企業(yè)級SSD需求急升
TrendForce集邦咨詢指出,未來兩年AI基礎設施的建置重心將更偏向支持高效能的推理(Inference)服務,在傳統(tǒng)大容量HDD嚴重供不應求的情況下,CSP業(yè)者紛紛轉向NAND Flash供應商尋求解方,催生專為AI推理設計的Nearline SSD,以滿足市場的迫切需求。
各大NAND Flash供應商正加速Nearline QLC NAND Flash產(chǎn)品的驗證與導入。QLC技術能以更低的成本儲存更多資料,成為滿足大容量需求的關鍵。此外,供應商也正擴大QLC SSD的產(chǎn)出,預計2026年將逐步提高產(chǎn)能利用率。隨著Inference AI應用擴張,預計這股需求熱潮將延續(xù)到2027年,因此2026年企業(yè)級SSD的供應將呈吃緊狀態(tài)。
廠商方面,今年10月SK海力士對外展示下一代NAND閃存產(chǎn)品戰(zhàn)略,其中,AIN D(Density)是一款旨在以低功耗、低成本實現(xiàn)海量數(shù)據(jù)存儲的高容量解決方案,特別適用于AI數(shù)據(jù)的存儲。相較于現(xiàn)有基于QLC的TB(太字節(jié))級的SSD,AIN D可將存儲容量提升至最高PB(拍字節(jié))級,同時兼顧SSD的高速性能與HDD的經(jīng)濟性,成為一種中間層存儲產(chǎn)品。
液冷散熱成為AI服務器新選擇
隨著AI大模型發(fā)展,AI芯片性能持續(xù)提升的同時,功耗也在以每代1.5-2倍的速度增長。業(yè)界透露,英偉達B200單顆芯片功耗已經(jīng)上升至1000W,當AI芯片功耗超過700W時,傳統(tǒng)的風冷效果將大幅降低,無法滿足需求,液冷技術憑借高效散熱與節(jié)能優(yōu)勢,逐漸成為AI應用的新選擇。
液冷散熱主要分為直接式和間接式,間接式通過冷板與發(fā)熱部件接觸,液體在冷板內(nèi)流通,進而帶走熱量,是當前主流的液冷散熱技術;直接式是指液體與發(fā)熱部件直接接觸,又可以分為浸沒式和噴淋式。
在今年10月召開的2025年OCP全球峰會上,液冷已成為新AI機架的默認配置,多家廠商展示了新一代液冷技術方案。
緯穎攜手緯創(chuàng)展示了新一代AI服務器以及先進直接液冷(Direct Liquid Cooling)解決方案。緯穎與緯創(chuàng)是首批提供NVIDIA GB300 NVL72系統(tǒng)的合作伙伴之一。該款液冷、機柜級AI系統(tǒng),搭載72顆NVIDIA Blackwell Ultra GPU,并配備NVIDIA ConnectX-8 800Gb/s SuperNICs,為推理模型提供強大的運算性能。
Frore Systems發(fā)布了面向AI數(shù)據(jù)中心的創(chuàng)新方案:LiquidJet™液冷板,具備性能提升與成本優(yōu)化的特點,能降低GPU溫度,每秒處理更多AI令牌,消除熱降頻;同時TCO更低、PUE更優(yōu),將冷卻開銷轉化為競爭優(yōu)勢。
AMD在OCP期間公開展示了其面向人工智能與數(shù)據(jù)中心市場的全新“Helios”機架級平臺,引入了快速斷開式液冷系統(tǒng),可在不拆卸主機組件的情況下進行維護,從而提高數(shù)據(jù)中心的運行效率。
除此之外,在近期舉辦的全球技術大會(GTC 2025)上,英偉達首次曝光了Rubin服務器和交換機液冷架構,與以往架構相比,Rubin架構的液冷設計更加復雜和緊湊,實現(xiàn)了100%的液冷覆蓋。
業(yè)界指出,隨著AI技術不斷發(fā)展,AI服務器液冷需求也將不斷爆發(fā),未來將有更多高效、節(jié)能、智能的液冷解決方案出現(xiàn)。
隨著各大廠商紛紛加大研發(fā)投入、優(yōu)化產(chǎn)品布局,AI服務器市場的競爭將愈發(fā)激烈。在未來市場的風云變幻中,誰能抓住機遇,推動AI服務器以及整個AI產(chǎn)業(yè)持續(xù)發(fā)展?我們拭目以待。