皮衣戰(zhàn)神,又雙叒叕來「砸場子」了!在昨天剛剛過去的 GTC 2025 秋季場,黃仁勛的演講又一次讓英偉達(dá)坐穩(wěn)了芯片第一龍頭的位置,整場發(fā)布會,堪稱火力全開。

英偉達(dá)在大會上釋放出極其強(qiáng)勁的營收信號,再次鞏固了其在全球 AI 計算領(lǐng)域的絕對領(lǐng)先地位。其中,Blackwell 平臺無疑是本次 GTC 的絕對焦點,其大規(guī)模部署速度前所未有。
黃仁勛透露,Blackwell 平臺在開始生產(chǎn)的僅僅五個季度內(nèi),預(yù)計將出貨高達(dá) 600 萬個處理器單元,增長速度是上一代 Hopper 平臺的五倍,標(biāo)志著全球 AI 基礎(chǔ)設(shè)施的部署已進(jìn)入超高速增長期。

根據(jù)演示,Blackwell 平臺在運行推理模型時,相比 Hopper 實現(xiàn)了九倍的速度提升。這一性能飛躍將大型語言模型(LLM)的響應(yīng)時間大幅壓縮,極大提升了用戶體驗并解放了計算資源。
在 AI 大規(guī)模應(yīng)用的運營成本方面,英偉達(dá)承諾通過「極致協(xié)同設(shè)計」(extreme co-design)來顯著降低 AI token 的生成成本,解決 AI 工廠的核心運營痛點。目前,Grace Blackwell NVLink 72 在生成 token 方面,成本是全世界最低的。性能提升 10 倍,同時成本降低 10 倍。

如此雄心勃勃的財務(wù)目標(biāo),底氣來自于英偉達(dá)對于 AI 基礎(chǔ)設(shè)施的年度更新戰(zhàn)略,以每年一代的速度推出計算平臺,以應(yīng)對業(yè)界對更大規(guī)模、更高性能 AI 模型訓(xùn)練和推理的需求。

超級芯片的未來計算版圖
一方面,Blackwell 平臺正在推動 AI 浪潮;另一方面,英偉達(dá)的目光已投向更遠(yuǎn)的未來:下一代 Vera Rubin 超級芯片納入戰(zhàn)略版圖。

技術(shù)細(xì)節(jié)顯示,Vera Rubin 將帶來跨越式的性能飛躍:相比 Grace 平臺,Vera 組件將提供 4.2 倍的內(nèi)存容量和 2.4 倍的內(nèi)存帶寬。

作為 Blackwell 的繼任者,Vera Rubin 和 Blackwell 將共同構(gòu)成英偉達(dá)高達(dá) 5000 億美元的營收,象征著公司對未來計算架構(gòu)的持續(xù)迭代和投入。
在此宏大計算戰(zhàn)略下,英偉達(dá)同時公布了兩項重量級合作。首先是推出了 NVQ Link 互聯(lián)架構(gòu),專為量子處理器(QPU)與英偉達(dá) GPU 超級計算機(jī)之間的高速混合模擬而設(shè)計,實現(xiàn)了微秒級的計算延遲。

6G 來了?給諾基亞重新「抬咖」
另外一項重量級合作,則是在通信基礎(chǔ)設(shè)施領(lǐng)域:英偉達(dá)宣布與電信巨頭諾基亞建立深度戰(zhàn)略合作伙伴關(guān)系,共同開發(fā)下一代 6G 技術(shù)。

這項合作聚焦于兩大關(guān)鍵方向:其一是 AI for RAN(AI 賦能無線接入網(wǎng))。諾基亞擁有 7000 項基礎(chǔ) 5G 專利,結(jié)合英偉達(dá)的 AI 技術(shù),將利用人工智能和強(qiáng)化學(xué)習(xí)實時調(diào)整波束成形,優(yōu)化環(huán)境下的頻譜效率。

另外,AI on RAN 則將無線網(wǎng)絡(luò)轉(zhuǎn)變?yōu)橐粋€「邊緣工業(yè)機(jī)器人云」。正如 AWS 建立在互聯(lián)網(wǎng)之上,英偉達(dá)和諾基亞正將云計算能力擴(kuò)展到基站邊緣,創(chuàng)造出一個全新的、超低延遲的計算環(huán)境。這對于需要實時決策和響應(yīng)的工業(yè)機(jī)器人、自動駕駛車輛和邊緣 AI 應(yīng)用至關(guān)重要,開啟了一個潛力巨大的邊緣計算新市場。

「如同電力和互聯(lián)網(wǎng)一樣,人工智能是至關(guān)重要的基礎(chǔ)設(shè)施?!?/p>
這個觀點不新鮮了,但是黃仁勛又強(qiáng)調(diào)了一遍。他指出,當(dāng)前時代的變革始于一個關(guān)鍵觀察:Dennard 縮放定律(Dennard scaling)已停止近十年,晶體管的性能和功耗增益受到物理定律的限制,傳統(tǒng)摩爾定律的紅利正在消退。

