11月3日,人工智能新創(chuàng)公司OpenAI宣布,與云端基礎(chǔ)設(shè)施供應商AWS 簽署了一項價值高達380 億美元的重大算力采購協(xié)議。根據(jù)這份協(xié)議,OpenAI 將立即開始透過AWS 提供的算力與基礎(chǔ)設(shè)施進行工作,進一步開始使用位于美國的數(shù)十萬個輝達(NVIDIA) 的GPU。市場預計,這項合作計劃與為OpenAI 提供了在2026 年,甚至是以后擴建基礎(chǔ)設(shè)施的彈性。
根據(jù)CNBC 的報導,長期以來OpenAI一直與微軟保持著獨家的云端運算合作關(guān)系。微軟自2019 年以來已累計對OpenA 投資超過130 億美元。直到2025 年初,微軟才不再是OpenAI 的獨家云端運算供應商。上周,微軟過去根據(jù)重新談判的商業(yè)條款,其所享有的優(yōu)先地位正式期滿,這使得ChatGPT 的創(chuàng)建者OpenAI 能夠更廣泛地與其他超大規(guī)模云端服務供應商合作。
AWS 運算與機器學習服務副總裁Dave Brown 表示,OpenAI 承諾向AWS 購買運算算力,這是一個非常、非常直接的客戶關(guān)系。雖然第一階段慧使用現(xiàn)有的AWS 資料中心,但Amazon 最終將會為OpenAI 建立在這些資料中心之外完全獨立的資料中心算力。 OpenAI 執(zhí)行長Sam Altman 則在聲明中強調(diào),擴展先進AI 基礎(chǔ)設(shè)施需要龐大、可靠的計算能力。因此,他認為與AWS 的合作預計將強化運算生態(tài)系統(tǒng),進一步推動下一個AI 時代的發(fā)展,并將先進AI 服務帶給所有人。
報導指出,這項基礎(chǔ)設(shè)施合作計劃將支持OpenAI 兩大核心需求,那就是用于為ChatGPT 用戶提供即時回應的推理(inference)作業(yè),以及訓練下一代先進模型的訓練(training)作業(yè)所需的龐大算力。而且,當前協(xié)議明確指出,將使用輝達包括兩種流行的Blackwell 架構(gòu)芯片。盡管AWS 擁有其自研的Trainium 的AI 芯片,但目前OpenAI 的協(xié)議中尚未透露使用Trainium 芯片的細節(jié)。