隨著 AI 大模型快速發(fā)展,谷歌(Google)、英偉達(dá)(NVIDIA)、元宇宙平臺(tái)公司(Meta)等科技巨頭紛紛加大 AI 加速器投入。其中谷歌早在 2015 年便啟動(dòng)專屬 AI 芯片研發(fā),通過(guò)自研張量處理單元(TPU)降低對(duì)英偉達(dá)圖形處理單元(GPU)的依賴,強(qiáng)化 AI 算力自主布局。
作為谷歌專為 AI 訓(xùn)練與推理打造的特殊應(yīng)用集成電路(ASIC),TPU 在大型神經(jīng)網(wǎng)絡(luò)訓(xùn)練、生成式 AI 快速推理等場(chǎng)景中表現(xiàn)突出。其矩陣運(yùn)算效率、低功耗特性均優(yōu)于傳統(tǒng) GPU,且已深度整合谷歌云(Google Cloud)與 Gemini 生態(tài),當(dāng)前 Gemini 模型 75% 的運(yùn)算任務(wù)由 TPU 承載。
近期谷歌云推出第七代 TPU “Ironwood”,專為生成式 AI 推理優(yōu)化,支持 9216 顆液冷芯片,效能較前代提升 10 倍,每瓦效能提升近 2 倍。
從供應(yīng)鏈結(jié)構(gòu)來(lái)看,TPU 覆蓋芯片制造、先進(jìn)封裝、服務(wù)器機(jī)柜、PCB 及高速材料等多個(gè)環(huán)節(jié),核心依賴先進(jìn)制程代工與高端封裝技術(shù)。法人分析指出,臺(tái)積電憑借 7 納米、5 納米制程工藝,穩(wěn)居谷歌 TPU 芯片代工龍頭地位;創(chuàng)意電子作為谷歌 Axion CPU 制程設(shè)計(jì)合作伙伴,將在 2026 年迎來(lái)產(chǎn)能放量。
隨著谷歌加速 Gemini 生態(tài)與數(shù)據(jù)中心部署,TPU 需求有望持續(xù)釋放,覆蓋芯片代工、封裝、伺服器代工等領(lǐng)域的相關(guān)供應(yīng)鏈企業(yè),具備長(zhǎng)期發(fā)展?jié)摿Α?/p>