本周,科技巨頭谷歌、Meta、英特爾紛紛推出最新款A(yù)I芯片,全力追趕英偉達,本輪AI競賽愈發(fā)激烈。
4月10日消息,Meta Platforms宣布推出其訓(xùn)練與推理加速器項目(MTIA)的最新版本。據(jù)悉,MTIA是Meta專門為AI工作負載設(shè)計的定制芯片系列,Meta的目標(biāo)是通過一系列產(chǎn)品迭代降低對英偉達等公司的依賴。
據(jù)Meta介紹,新一代AI芯片由臺積電代工,采用5納米工藝制程。MTIA也是該公司更廣泛產(chǎn)品開發(fā)的一部分,針對Meta獨特的工作負載和系統(tǒng)進行了優(yōu)化。與前一個版本相比,新的MTIA在計算能力和內(nèi)存帶寬上都提高了一倍多,有助于強化內(nèi)容排名和推薦廣告模型。
去年10月,Meta表示,將在支持AI的基礎(chǔ)設(shè)施上投入多達350億美元,包括數(shù)據(jù)中心和硬件。首席執(zhí)行官扎克伯格表示,到2024年,AI將成為Meta最大的投資領(lǐng)域。近日Meta表示,該公司不僅要投資于計算芯片,還要投資于內(nèi)存帶寬、網(wǎng)絡(luò)、容量以及其他下一代硬件系統(tǒng)。
4月9日,谷歌谷歌宣布推出了為數(shù)據(jù)中心設(shè)計的、基于Arm架構(gòu)定制的新型CPU“谷歌Axion”,以期降低云計算的運營成本,并表示其性能優(yōu)于x86芯片以及云端通用Arm芯片。
根據(jù)谷歌云內(nèi)部數(shù)據(jù)顯示,與通用Arm芯片相比,Axion提供的實例性能高出了30%;而與當(dāng)代基于x86的同類處理器相比,Axion的性能高出50%,能效高出60%。預(yù)計這款芯片將于今年晚些時候上市。通過推出基于Arm的定制芯片,谷歌也希望能讓其云計算業(yè)務(wù)更加經(jīng)濟適用,以此來和亞馬遜以及微軟競爭。
官方數(shù)據(jù)顯示,谷歌母公司目前Alphabet有四分之三的收入來自廣告,但其云計算部門的增長很快,已占到總收入的11%。
4月9日,英特爾在 Vision 2024 客戶和合作伙伴大會上正式宣布推出最新的芯片產(chǎn)品 Gaudi 3 AI加速卡。
據(jù)悉,Gaudi系列是英特爾在2022年5月面向人工智能應(yīng)用場景專門推出的芯片品牌,用以對標(biāo)英偉達的人工智能計算芯片。英特爾表示,Gaudi 3 芯片的能源效率是英偉達H100型號GPU的兩倍多,而運行速度是H100的1.5倍,預(yù)計該芯片將在今年第三季度推出。
官方資料顯示,英特爾Gaudi 3采用5nm工藝,帶寬是前代Gaudi 2(7nm工藝)的1.5倍,BF16功率是其4倍。Gaudi 3配備最高128GB的HBM2e內(nèi)存,峰值帶寬為 3.7TB/s。
在該活動現(xiàn)場,英特爾還圍繞人工智能面向企業(yè)發(fā)布了處理器Xeon 6以及AI 開發(fā)開放平臺計劃等產(chǎn)品和方案。英特爾一直致力于通過力推AI在個人電腦終端的落地來反向促進自家上游硬件生態(tài)的繁榮。去年9月,英特爾首席執(zhí)行官帕特·基辛格首次提出AI PC這一概念。當(dāng)時,基辛格指出AI將通過云與PC緊密協(xié)作,進而從根本上改變、重塑和重構(gòu)PC體驗,釋放人們的生產(chǎn)力和創(chuàng)造力。
總體來看,目前AI芯片賽道仍以NVIDIA勢頭最猛。3月22日行業(yè)消息顯示,日本日立集團已與英偉達合作,將日立在運營技術(shù)領(lǐng)域的解決方案以及在能源、移動和互聯(lián)系統(tǒng)等關(guān)鍵行業(yè)的領(lǐng)先地位與英偉達在生成式AI方面的專業(yè)知識相結(jié)合,加速社會創(chuàng)新和數(shù)字化轉(zhuǎn)型。通過此次合作,生成式人工智能現(xiàn)在將通過捕獲運營技術(shù)領(lǐng)域(來自各種傳感器、設(shè)備和工業(yè)機器)生成的大量數(shù)據(jù),擴展到工業(yè)領(lǐng)域,并應(yīng)用于簡化性能、獲得見解并允許組織自動執(zhí)行操作。這在以前是不可能實現(xiàn)的。此外,近日黃仁勛發(fā)布了英偉達公司人工智能企業(yè)平臺的第5版,該平臺采用了新技術(shù),英偉達高管將其描述為英偉達推理微服務(wù)(NIM)。
目前,英偉達還在繼續(xù)搭筑技術(shù)護城河,據(jù)TrendForce集邦咨詢觀察NVIDIA GTC趨勢,硬件方面,今年亮點產(chǎn)品為Blackwell AI服務(wù)器架構(gòu)平臺,輔以第二代Transformer引擎與第五代NVLink技術(shù)可支援高達10兆參數(shù)模型之AI訓(xùn)練與實時LLM推理,并以此為基礎(chǔ)推出B100、B200與GB200等AI芯片,為市場AI應(yīng)用預(yù)備。由于NVIDIA產(chǎn)品迭代快速,提升產(chǎn)品成效是關(guān)鍵,在成本與能耗比大幅優(yōu)化的前提下,上述產(chǎn)品有望在2024年底陸續(xù)上市,并于2025年成為市場主流。
此外,TrendForce集邦咨詢表示,從NVIDIA此前發(fā)布的AI產(chǎn)品規(guī)劃來看,B100系列的后繼產(chǎn)品為X100、GX200等產(chǎn)品,雖然信息尚未明朗。然而,根據(jù)其設(shè)計態(tài)勢與對主權(quán)AI(Sovereign AI)的推動,積極發(fā)展NVLink串連更多算力,以及大幅降低相對能耗預(yù)計為考量重點,而后者或?qū)⑹蛊浞e極采用具備高效能特性的HBM。
產(chǎn)業(yè)應(yīng)用方面,NVIDIA GTC 2024產(chǎn)品服務(wù)涉及面向多元,但發(fā)展核心仍以醫(yī)療、制造兩者為重。對于欲打造數(shù)據(jù)即服務(wù)(Data as a Service;DaaS)的NVIDIA而言,能將數(shù)據(jù)應(yīng)用有效轉(zhuǎn)化為高附加價值的解決方案才是優(yōu)先。在此前提下,隨著自駕車、電動車市場逐漸成熟,往智慧載體演化的汽車產(chǎn)業(yè)將有望成為下階段發(fā)展重點。

封面圖片來源:拍信網(wǎng)