文 | 劃重點KeyPoints,作者 | 林易
10月29日,英偉達在華盛頓舉行GTC大會,黃仁勛在演講中再次強調(diào)摩爾定律(Moore's Law)已正式終結(jié)。當前是一個AI算力需求呈雙重指數(shù)級增長的時代,這一終結(jié)不僅是技術(shù)的瓶頸,更是一場新的計算競賽的起點。
英偉達在此次GTC上交付了一套完整的AI工業(yè)革命基礎(chǔ)設(shè)施。從Grace BlackwellGB200到到NVLink-72全互聯(lián)機架,再到Omniverse DSX數(shù)字孿生工廠,英偉達的戰(zhàn)略核心是:通過"極致協(xié)同設(shè)計"(Extreme Co-Design)來打破物理定律的限制,將AI推理(Inference)這個新的計算核心成本降至最低,從而持續(xù)驅(qū)動AI工業(yè)發(fā)展的良性循環(huán)。
黃仁勛的演講主要包含以下幾個方面:
1、算力新經(jīng)濟:推理成本的極致壓縮
英偉達的新架構(gòu),建立在一個新的算力洞察之上:AI模型從"預(yù)訓(xùn)練"邁向"后訓(xùn)練"和更高階的思考階段,對算力的需求呈爆炸式增長。特別是"思考"過程,需要AI在每次互動中處理上下文、分解問題、規(guī)劃和執(zhí)行,這使得推理任務(wù)變得空前復(fù)雜和耗費資源。
在摩爾定律失效的背景下,解決雙重指數(shù)級增長的算力需求,只能依靠"極致協(xié)同設(shè)計"。Blackwell架構(gòu)不再將GPU視為獨立單元,而是通過NVLink72互聯(lián)結(jié)構(gòu),將72顆GPU整合為一個虛擬的超級GPU。相比上一代,GB200在推理性能上實現(xiàn)了驚人的10倍提升。
極致性能帶來的是最低的Token生成成本。盡管GB200是最昂貴的架構(gòu)之一,但其每秒Token產(chǎn)出率帶來的總擁有成本(TCO)最低。這是驅(qū)動AI良性循環(huán)的關(guān)鍵經(jīng)濟杠桿。英偉達已經(jīng)規(guī)劃了下一代架構(gòu)Rubin,以確保算力性能的指數(shù)級增長和成本的指數(shù)級下降。
2、從芯片到工廠:基礎(chǔ)設(shè)施的生態(tài)圈化
英偉達正在將"數(shù)據(jù)中心"轉(zhuǎn)變?yōu)?AI工廠"。這種工廠只生產(chǎn)一種產(chǎn)品:有價值的Token。英偉達推出了Omniverse DSX,這是一個用于設(shè)計、規(guī)劃和運營吉瓦級AI工廠的藍圖與數(shù)字孿生平臺。
DSX讓西門子、施耐德電氣等合作伙伴,能在虛擬的Omniverse中協(xié)同設(shè)計計算密度、布局、電力和冷卻系統(tǒng)。這種設(shè)計優(yōu)化,對于一個1吉瓦的AI工廠而言,每年可帶來數(shù)十億美元的額外收入,極大地縮短了建設(shè)時間和上市周期。
在系統(tǒng)層面,英偉達的ConnectX和BlueField DPU(數(shù)據(jù)處理器)也進行了深度協(xié)同設(shè)計。全新的ConnectX9 Super NIC和Spectrum-X以太網(wǎng)交換機,專為AI高性能設(shè)計,確保了大規(guī)模GPU間的通信不會成為網(wǎng)絡(luò)瓶頸。
新一代BlueField-4 DPU被定位為"上下文處理器",專門用于處理AI所需的巨大上下文,例如讀取大量PDF、論文或視頻后回答問題,并加速KV緩存,解決當前AI模型在處理長對話歷史時越來越慢的問題。
3、跨越邊界:進軍物理AI與核心工業(yè)
英偉達的意圖將其核心技術(shù)擴展到"物理AI"(Physical AI)的實體經(jīng)濟維度。
在電信領(lǐng)域,英偉達與諾基亞(Nokia)建立了深度合作,共同發(fā)布了NVIDIA ARC平臺。ARC將NVIDIA的Grace CPU、Blackwell GPU和ConnectX網(wǎng)卡結(jié)合,運行Aerial CUDA-X庫,旨在打造軟件定義的可編程無線通信系統(tǒng)。ARC還能實現(xiàn)AI on RAN,將AI云計算推向最靠近用戶的無線電邊緣,為工業(yè)機器人和邊緣應(yīng)用提供基礎(chǔ)設(shè)施。
人形機器人被視為未來最大的消費電子和工業(yè)設(shè)備市場之一。英偉達是Figure等頂級機器人公司的核心合作伙伴,提供訓(xùn)練、模擬和運行的全部平臺。此外,與迪士尼合作開發(fā)的機器人,展示了在物理感知環(huán)境中進行訓(xùn)練的潛力。
在自動駕駛領(lǐng)域,NVIDIA DRIVE Hyperion平臺將環(huán)繞攝像頭、雷達和激光雷達標準化,使其成為一個"輪式計算平臺"。英偉達宣布與優(yōu)步(Uber)合作,將這些Drive Hyperion就緒的車輛接入全球網(wǎng)絡(luò),為Robo-Taxi的全球化部署奠定基礎(chǔ)。
在基礎(chǔ)科學(xué)領(lǐng)域,英偉達發(fā)布了CUDA-Q平臺和NVQLink互聯(lián)架構(gòu),目標是將GPU超級計算與量子處理器(QPU)直接連接。這種混合架構(gòu)用于量子錯誤校正和協(xié)同模擬,被美國能源部(DOE)的各大國家實驗室廣泛采用。
4、企業(yè)AI與生態(tài)系統(tǒng)的戰(zhàn)略性覆蓋
黃仁勛認為,AI的本質(zhì)是"工作者"(Workers),而不是"工具"(Tools)。AI能夠使用工具,這使其能夠參與到此前IT工具無法觸及的100萬億美元的全球經(jīng)濟中。
為了將AI工作者部署到企業(yè)核心業(yè)務(wù)中,英偉達宣布了兩項重量級合作:
第一,攜手網(wǎng)絡(luò)安全巨頭CrowdStrike,共同打造基于云端和邊緣的AI網(wǎng)絡(luò)安全代理,以應(yīng)對AI帶來的新安全威脅,要求速度必須達到"光速"。
第二,與Palantir合作,加速其Ontology平臺的數(shù)據(jù)處理能力,為政府和企業(yè)提供更大規(guī)模、更快速的商業(yè)洞察。
英偉達還將CUDA-X庫集成到SAP、ServiceNow、Synopsys等關(guān)鍵企業(yè)SaaS平臺中,將這些工作流程轉(zhuǎn)化為"代理式SaaS"(Agentic SaaS)。
此次GTC,英偉達完成了從芯片公司到AI工業(yè)平臺領(lǐng)導(dǎo)者的徹底重塑,通過一套完整的架構(gòu)、網(wǎng)絡(luò)、工廠和行業(yè)延伸,試圖定義新一輪工業(yè)革命的底層標準。

1、開場:擁抱計算新紀元
華盛頓特區(qū)!歡迎來到GTC。很難不對美國感到感性和自豪,我得告訴你這件事。那段視頻太棒了!謝謝。英偉達的創(chuàng)意團隊表現(xiàn)出色。
歡迎來到GTC,今天我們將與您深入探討諸多議題。GTC是我們討論行業(yè)、科學(xué)、計算、當下與未來的地方。所以今天我有很多事情要和你討論,但在開始之前,我想感謝所有贊助這場精彩活動的合作伙伴。你會在展會現(xiàn)場看到所有這些產(chǎn)品,他們來這里是為了見你,真的很棒。沒有我們生態(tài)系統(tǒng)中所有合作伙伴的支持,我們無法完成我們的工作。
這可是AI界的超級碗,人們說。因此,每屆超級碗都應(yīng)該有一場精彩的賽前表演。大家覺得賽前節(jié)目怎么樣?還有我們所有明星運動員和明星陣容。瞧瞧這幫家伙。不知怎的,我竟成了最壯實的那一個。你們覺得呢?我不知道我是否與此有關(guān)。
英偉達開創(chuàng)了六十年來首個全新計算模型,正如你在視頻中所見。新的計算模型很少出現(xiàn)。這需要大量的時間和一系列條件。我們觀察到,我們發(fā)明了這種計算模型,因為我們想要解決通用計算機無法處理的問題。普通計算機無法做到。我們還注意到,總有一天晶體管將繼續(xù)發(fā)展。晶體管的數(shù)量將會增加,但晶體管的性能和功率提升速度將放緩。摩爾定律不會無限延續(xù),它終將受到物理定律的限制。而此刻,終于來臨了。丹納德縮放效應(yīng)已停止,它被稱為丹納德縮放效應(yīng)。丹納德縮放定律已于近十年前停止,事實上,晶體管性能及其相關(guān)功率的提升已大幅放緩。然而,晶體管的數(shù)量仍在持續(xù)增加。我們觀察到這一點已經(jīng)很久了。
應(yīng)用并行計算,將其與順序處理的CPU結(jié)合,我們就能將計算能力擴展到遠超以往的水平。遠遠超出。而那一刻真的到來了。我們現(xiàn)在已經(jīng)看到了那個拐點。加速計算的時代已然來臨。然而,加速計算是一種根本不同的編程模型。你不能直接拿CPU軟件,那些是手工編寫的軟件,順序執(zhí)行,并將其部署到GPU上確保正常運行。事實上,如果你只是那樣做了,它實際上運行得更慢。因此你必須重新設(shè)計新的算法。你必須創(chuàng)建新的庫。事實上,你必須重寫該應(yīng)用程序。這就是為什么花了這么長時間的原因。我們花了近三十年才走到今天這一步。但我們是一步一個腳印地完成的。
這是我們公司的瑰寶。大多數(shù)人都在談?wù)揋PU。GPU固然重要,但若沒有在其之上構(gòu)建的編程模型,若不致力于該編程模型,就無法確保其在不同版本間保持兼容性。我們現(xiàn)在正推出CUDA 13,并即將推出CUDA 14。數(shù)以億計的GPU在每臺計算機中運行,完全兼容。如果我們不這樣做,那么開發(fā)者就不會選擇這個計算平臺。如果我們不創(chuàng)建這些庫,那么開發(fā)者就不知道如何使用該算法,也無法充分發(fā)揮該架構(gòu)的潛力。一個接一個的申請。這確實是我們公司的瑰寶。
CuLitho,計算光刻技術(shù)。我們花了近七年時間才與cuLitho走到今天這一步,現(xiàn)在臺積電也用它,三星也用它,ASML使用它。這是一座令人驚嘆的計算庫。光刻,芯片制造的第一步。CAE應(yīng)用中的稀疏求解器。cuOpt,一款幾乎打破所有紀錄的數(shù)值優(yōu)化工具。旅行推銷員問題,如何在供應(yīng)鏈中將數(shù)百萬種產(chǎn)品與數(shù)百萬客戶連接起來。Warp,用于CUDA的Python求解器,用于仿真。cuDF,一種基于數(shù)據(jù)框的方法,本質(zhì)上是加速SQL,數(shù)據(jù)框?qū)I(yè)版-數(shù)據(jù)框數(shù)據(jù)庫。這個庫,正是開啟AI的起點,cuDNN,位于頂部的名為Megatron Core的庫使我們能夠模擬和訓(xùn)練超大規(guī)模語言模型。這樣的例子不勝枚舉。
MONAI,非常重要,是全球排名第一的醫(yī)學(xué)影像AI框架。順便說一句,今天我們不會過多討論醫(yī)療保健問題。但一定要去聽金伯利的主題演講。她會詳細介紹我們在醫(yī)療保健領(lǐng)域開展的工作。這樣的例子不勝枚舉。基因組學(xué)處理,Aerial,注意聽,今天我們要做一件非常重要的事。量子計算。這只是我們公司350個不同庫的代表之一。這些庫中的每一個都重新設(shè)計了加速計算所需的算法。這些庫的出現(xiàn),使得整個生態(tài)系統(tǒng)的所有合作伙伴都能利用加速計算的優(yōu)勢。這些庫中的每一家都為我們開拓了新的市場。
這是深奧的計算機科學(xué),深奧的數(shù)學(xué),它美得簡直令人難以置信。涵蓋了所有行業(yè),從醫(yī)療保健到生命科學(xué),制造業(yè)、機器人技術(shù)、自動駕駛汽車、計算機圖形學(xué),甚至電子游戲。你所見到的第一張截圖,正是NVIDIA首次運行的應(yīng)用程序。而這正是我們1993年起步的地方。而我們始終堅信著自己所追求的目標,它生效了。很難想象你竟能親眼見證那個最初的虛擬格斗場景躍然眼前,而那家公司也相信我們今天會在這里。這真是一段無比精彩的旅程。我要感謝所有英偉達員工所做的一切。這真是太不可思議了。
今天我們要涵蓋的行業(yè)很多。我將涵蓋AI、6G、量子技術(shù)、模型、企業(yè)計算、機器人技術(shù)和工廠。讓我們開始吧。我們有很多內(nèi)容要討論,還有許多重大消息要宣布。許多新伙伴會讓你大吃一驚。
2、加速計算崛起
電信是經(jīng)濟的脊梁,是經(jīng)濟的命脈。我們的產(chǎn)業(yè),我們的國家安全。然而,自無線技術(shù)誕生之初,我們便定義了這項技術(shù),我們制定了全球標準,我們將美國技術(shù)輸出到世界各地,使世界能夠基于美國技術(shù)和標準進行發(fā)展。那件事已經(jīng)過去很久了。當今全球無線技術(shù)主要依賴于國外技術(shù)。我們的基礎(chǔ)通信架構(gòu)建立在外國技術(shù)之上。這種情況必須停止,而我們正有機會做到這一點。尤其是在這個根本性的平臺轉(zhuǎn)型期間。眾所周知,計算機技術(shù)是支撐所有行業(yè)的基石。這是科學(xué)最重要的工具。這是工業(yè)領(lǐng)域最重要的單一工具。我剛才說我們正在經(jīng)歷平臺轉(zhuǎn)型。這次平臺轉(zhuǎn)型,應(yīng)當是我們重返賽場千載難逢的機會。讓我們開始運用美國技術(shù)進行創(chuàng)新。
今天,我們宣布我們將采取行動。我們與諾基亞建立了重要的合作伙伴關(guān)系。諾基亞是全球第二大電信設(shè)備制造商。這是一個價值3萬億美元的產(chǎn)業(yè)。基礎(chǔ)設(shè)施投資高達數(shù)千億美元。全球有數(shù)百萬個基站。如果我們能夠建立合作伙伴關(guān)系,就能基于這項以加速計算和AI為核心的非凡新技術(shù)進行創(chuàng)新發(fā)展。而對于美國而言,要讓美國成為下一輪6G革命的核心。
因此,今天我們宣布英偉達推出了一條全新產(chǎn)品線。它被稱為NVIDIA ARC,即空中無線電網(wǎng)絡(luò)計算機??罩蠷AN計算機,ARC。ARC由三項基礎(chǔ)性新技術(shù)構(gòu)建而成:Grace CPU、Blackwell GPU以及我們的Mellanox ConnectX網(wǎng)絡(luò)解決方案專為該應(yīng)用設(shè)計。所有這些使我們能夠運營這座庫,我之前提到的這個名為Aerial的CUDA X庫。Aerial本質(zhì)上是在CUDAX之上運行的無線通信系統(tǒng)。我們將要首次創(chuàng)造一種軟件定義的可編程計算機,能夠同時進行無線通信和AI處理。這完全是革命性的。我們稱之為NVIDIA ARC。
諾基亞將與我們合作,整合我們的技術(shù)。重寫他們的棧。這是一家擁有7,000項5G核心基礎(chǔ)專利的公司。很難想象還有比他更杰出的電信業(yè)領(lǐng)袖了。因此我們將與諾基亞建立合作伙伴關(guān)系。他們將把NVIDIA ARC作為未來的基站。NVIDIA ARC還兼容AirScale,即當前諾基亞的基站系統(tǒng)。這意味著我們將采用這項新技術(shù),能夠在全球范圍內(nèi)升級數(shù)百萬個基站,實現(xiàn)6G和AI的升級。如今6G和AI確實具有根本性意義,因為它們首次實現(xiàn)了我們將能夠使用AI技術(shù),即面向無線接入網(wǎng)的AI技術(shù)。提高無線電通信的頻譜效率。利用AI,采用強化學(xué)習(xí),實時調(diào)整波束成形,在具體情境中,取決于周邊環(huán)境、交通狀況以及移動出行方式、天氣。所有這些因素都可納入考量,從而提升頻譜效率。頻譜效率消耗約全球1.5%至2%的電力。因此,提高頻譜效率不僅能提升無線網(wǎng)絡(luò)傳輸數(shù)據(jù)的能力,同時無需增加所需的能量消耗。
我們還能做另一件事,即為無線接入網(wǎng)提供AI支持。是AI-on-RAN。這是一個全新的機遇。請記住,互聯(lián)網(wǎng)實現(xiàn)了通信,但真正了不起的是那些聰明的公司。亞馬遜云科技在互聯(lián)網(wǎng)基礎(chǔ)上構(gòu)建了云計算系統(tǒng)。我們現(xiàn)在要在無線通信網(wǎng)絡(luò)上實現(xiàn)同樣的功能。這片新云將成為邊緣工業(yè)機器人云。此處指的是AI-on-RAN。首項是AI-for-RAN,提升無線電性能、提高無線電頻譜效率,第二是基于AI的無線接入網(wǎng),本質(zhì)上是無線通信領(lǐng)域的云計算。云計算將能夠直接延伸至邊緣區(qū)域,即沒有數(shù)據(jù)中心的地方。并非如此,因為我們在全球各地都設(shè)有基站。這個消息真是令人興奮。
讓我們來談?wù)劻孔佑嬎恪?981年,粒子物理學(xué)家、量子物理學(xué)家理查德·費曼構(gòu)想了一種新型計算機,能夠直接模擬自然。因為自然本身就是量子化的。他稱之為量子計算機。40年后,該行業(yè)實現(xiàn)了根本性突破。40年后,就在去年,實現(xiàn)了根本性突破。現(xiàn)在可以制造一個邏輯量子比特,一個保持相干性的邏輯量子位,穩(wěn)定,且錯誤已修正。過去,一個邏輯量子比特由有時可能是10個,有時可能是數(shù)百個物理量子比特協(xié)同工作。眾所周知,量子比特這些粒子極其脆弱。它們很容易變得不穩(wěn)定。任何觀察、任何采樣行為、任何環(huán)境條件都會導(dǎo)致其失相干。因此需要極其嚴格控制的環(huán)境。
如今,還有許多不同類型的物理量子比特,它們協(xié)同工作,讓我們能夠?qū)@些量子比特進行糾錯。所謂的輔助量子位或綜合量子位,供我們進行錯誤糾正并推斷其邏輯量子位狀態(tài)。存在各種不同類型的量子計算機,超導(dǎo)、光子學(xué)、囚禁離子、穩(wěn)定原子,各種不同的方法來制造量子計算機?,F(xiàn)在我們意識到,必須將量子計算機直接連接到GPU超級計算機,這樣才能進行錯誤糾正。以便我們能夠?qū)α孔佑嬎銠C進行AI校準與控制,以便我們能夠共同進行模擬,協(xié)同工作,在GPU上運行的正確算法,在QPU上運行的正確算法,以及這兩種處理器,兩臺計算機并排工作。這就是量子計算的未來。
(視頻內(nèi)容:讓我們來看看。構(gòu)建量子計算機的方法有很多。每種都采用量子比特作為其核心構(gòu)建單元。但無論采用何種方法,所有量子比特,無論是超導(dǎo)量子比特、囚禁離子還是中性原子或光子,面臨相同的挑戰(zhàn)。它們非常脆弱,對噪音極其敏感。當前的量子比特僅能穩(wěn)定運行數(shù)百次操作。但解決有意義的問題需要數(shù)萬億次運算。答案是量子糾錯。測量會擾動量子比特,從而破壞其內(nèi)部的信息。訣竅在于添加額外的量子比特,并使它們處于糾纏態(tài)。這樣,測量它們就能為我們提供足夠的信息來計算錯誤發(fā)生的位置,同時不會損壞我們關(guān)心的量子比特。它非常出色,但需要超越最先進的常規(guī)計算能力。
正因如此,我們打造了NVQLink,一種全新的互連架構(gòu),可將量子處理器與英偉達GPU直接連接。量子糾錯需要從量子比特中讀取信息,計算錯誤發(fā)生的位置,并將數(shù)據(jù)發(fā)送回去進行修正。NVQLink能夠以每秒數(shù)千次的頻率,在量子硬件與外部設(shè)備之間傳輸數(shù)千兆字節(jié)的數(shù)據(jù),以滿足量子糾錯所需的高速數(shù)據(jù)傳輸需求。其核心是CUDA-Q,我們面向量子GPU計算的開放平臺。借助NVQ-Link和CUDA-Q,研究人員將能夠?qū)崿F(xiàn)超越錯誤糾正的功能。他們還將能夠協(xié)調(diào)量子設(shè)備和AI超級計算機來運行量子GPU應(yīng)用程序。量子計算不會取代經(jīng)典系統(tǒng)。它們將協(xié)同工作,融合為一個加速的量子超級計算平臺。)
要知道,CEO們可不是整天坐在辦公桌前打字的。這是體力活,純粹的體力活。因此,今天我們宣布推出NVQLink。其實現(xiàn)得益于兩點:當然,這個用于量子計算機控制和校準的互連系統(tǒng),量子糾錯,以及連接兩臺計算機,利用QPU和我們的GPU超級計算機進行混合仿真。它還具有完全的可擴展性。它不僅能為當前數(shù)量有限的量子比特執(zhí)行糾錯操作,它為明日的錯誤糾正做準備,屆時我們將把量子計算機從如今的數(shù)百量子比特擴展到數(shù)萬量子比特。未來將擁有數(shù)十萬個量子比特。因此,我們現(xiàn)在擁有了一套能夠?qū)崿F(xiàn)控制的架構(gòu),協(xié)同激發(fā)、量子糾錯與未來擴展。
業(yè)界的支持令人難以置信。在CUDA-Q發(fā)明之前,請記住,CUDA原本是為GPU、CPU和加速計算設(shè)計的,基本上是同時使用兩個處理器來完成一一用對工具做對事。如今,CUDA-Q已擴展至CUDA之外,從而能夠支持QPU,使兩種處理器協(xié)同工作。QPU與GPU協(xié)同工作,計算任務(wù)在兩者之間往返傳遞,耗時僅數(shù)微秒,實現(xiàn)與量子計算機協(xié)同運作所需的基本延遲。如今,CUDA-Q已成為一項了不起的突破性技術(shù),被眾多不同領(lǐng)域的開發(fā)者所采用。我們今日宣布,共有17家量子計算機行業(yè)公司支持NVQLink。而且我對此感到非常興奮。
八個不同的美國能源部實驗室:伯克利實驗室、布魯克海文實驗室、費米實驗室、林肯實驗室、洛斯阿拉莫斯、橡樹嶺、太平洋西北、桑迪亞國家實驗室。幾乎所有美國能源部的實驗室都與我們展開合作,攜手量子計算機公司生態(tài)系統(tǒng)及量子控制器供應(yīng)商,將量子計算逐步融入科學(xué)發(fā)展的未來藍圖。
我們正在經(jīng)歷幾次平臺轉(zhuǎn)型。一方面,我們正經(jīng)歷著加速計算的發(fā)展,這就是為什么未來的超級計算機都將基于GPU。我們將轉(zhuǎn)向AI,使AI與基于原理的求解器、基于原理的模擬協(xié)同工作?;谠淼奈锢砟M不會消失,但它可以被增強、強化、擴展,使用代理模型、AI模型。
我們還知道,通過基于原理的求解器,經(jīng)典計算能夠借助量子計算來增強對自然狀態(tài)的理解。我們也知道,未來我們擁有如此多的信號,必須從世界中采樣如此多的數(shù)據(jù),遙感技術(shù)的重要性已達到前所未有的高度。除非這些實驗室成為自動化工廠,否則它們根本無法以我們所需的規(guī)模和速度進行實驗,成為機器人實驗室。因此,所有這些不同的技術(shù)正同時涌入科學(xué)領(lǐng)域。

我們來聊聊AI吧。什么是AI?大多數(shù)人會說AI就是聊天機器人,嗯,這完全是理所當然的。毫無疑問,ChatGPT正處于人們所認為的AI的前沿。然而,正如你此刻所見,這些科學(xué)超級計算機不會運行聊天機器人,他們將從事基礎(chǔ)科學(xué)研究。
科學(xué)AI的世界遠比想象中更廣闊,遠不止是一個聊天機器人。當然,聊天機器人極其重要,而通用AI則具有根本性的關(guān)鍵意義。深層計算機科學(xué)、非凡的計算能力以及重大突破,仍是實現(xiàn)AGI的關(guān)鍵要素。但除此之外,AI還有更多可能。
實際上,我將用幾種不同的方式來描述AI。第一種方式,即人們最初對AI的認知,是它徹底重構(gòu)了計算棧。我們過去做軟件的方式是手工編碼,在CPU上運行手工編碼軟件。如今,AI就是機器學(xué)習(xí)、訓(xùn)練,或者說數(shù)據(jù)密集型編程,由在GPU上運行的AI訓(xùn)練和學(xué)習(xí)而成。為實現(xiàn)這一目標,整個計算棧已發(fā)生改變。
注意,你在這兒看不到windows,也看不到CPU。你看到的是完全不同的、從根本上截然不同的架構(gòu)。
在能源之上還有這些GPU。這些GPU被連接到、集成到我稍后將展示的基礎(chǔ)設(shè)施中。在這項基礎(chǔ)設(shè)施之上——它由巨型數(shù)據(jù)中心構(gòu)成,其規(guī)模輕松達到這個房間的數(shù)倍之多。巨大的能量隨后通過名為GPU超級計算機的新設(shè)備轉(zhuǎn)化,從而生成數(shù)據(jù)。這些數(shù)字被稱為tokens。
語言,也就是計算的基本單位,是AI的詞匯表。幾乎任何東西都可以進行tokens化。當然,你可以對英語單詞進行分詞處理,你可以對圖像進行分詞處理,這就是你能夠識別圖像或生成圖像的原因。對視頻進行分詞,對3D結(jié)構(gòu)進行分詞。你可以對化學(xué)物質(zhì)、蛋白質(zhì)和基因進行tokens化處理,你可以對單元格進行tokens化處理,將具有結(jié)構(gòu)的幾乎任何事物、具有信息內(nèi)容的任何事物進行分詞處理。
一旦能夠?qū)⑵鋞okens化,AI就能學(xué)習(xí)該語言及其含義。一旦它學(xué)會了那種語言的含義,它就能翻譯,它能回應(yīng),就像你與ChatGPT互動那樣,它能生成內(nèi)容。因此,你所看到ChatGPT所做的一切基礎(chǔ)功能,你只需想象一下,如果它是一種蛋白質(zhì)會怎樣?如果它是一種化學(xué)物質(zhì)呢?如果它是一個3D結(jié)構(gòu),比如工廠呢?如果它是一個機器人,而tokens是理解行為并將其轉(zhuǎn)化為動作和行為的標記呢?所有這些概念基本上是一樣的。這正是AI取得如此非凡進展的原因。
在這些模型之上還有應(yīng)用程序。Transformers是一個極其有效的模型,但并不存在放之四海皆準的通用模型。只是AI具有普遍影響。模型種類繁多。在過去的幾年里,我們享受了發(fā)明帶來的樂趣,并經(jīng)歷了創(chuàng)新的洗禮,例如多模態(tài)的突破。有這么多不同類型的模型,有CNN模型(卷積神經(jīng)網(wǎng)絡(luò)模型),有狀態(tài)空間模型,也有圖神經(jīng)網(wǎng)絡(luò)模型,多模態(tài)模型,當然,還包括我剛才描述的所有不同的分詞方式和分詞方法。
你可以構(gòu)建在理解層面具有空間特性、針對空間感知能力進行了優(yōu)化的模型。你可以擁有針對長序列進行優(yōu)化、在較長時間內(nèi)識別微妙信息的模型。有如此多不同類型的模型。在這些模型之上,還有構(gòu)建在這些模型架構(gòu)之上的架構(gòu)——這些就是應(yīng)用程序。
過去的軟件產(chǎn)業(yè)致力于創(chuàng)造工具。Excel是一個工具,Word是一款工具,網(wǎng)頁瀏覽器是一種工具。我之所以知道這些是工具,是因為你使用它們。工具行業(yè),正如螺絲刀和錘子,其規(guī)模有限。就IT工具而言,它們可以是數(shù)據(jù)庫工具,這些IT工具的價值約為一萬億美元左右。
但AI并非工具,AI是工作,這就是本質(zhì)上的區(qū)別。AI實際上就是能夠真正使用工具的勞動者。我特別興奮的一件事,就是歐文在Perplexity公司開展的工作。Perplexity使用網(wǎng)頁瀏覽器預(yù)訂假期或購物,本質(zhì)上就是一個使用工具的AI。Cursor是一款A(yù)I系統(tǒng),是我們在英偉達使用的具有自主決策能力的AI系統(tǒng)。英偉達的每位軟件工程師都在使用Cursor,它極大地提高了我們的生產(chǎn)效率。它基本上是每位軟件工程師的代碼生成助手,并且它使用了一個工具,它使用的工具名為VSCode。因此,Cursor是一個基于VSCode的智能代理式AI系統(tǒng)。
所有這些不同的行業(yè),無論是聊天機器人、數(shù)字生物學(xué)、AI助手研究員,還有在自動駕駛出租車內(nèi),當然,AI司機是無形的。但顯然有一個AI司機在工作,而他完成這項工作的工具就是汽車。因此,我們迄今為止所創(chuàng)造的一切,整個世界,我們迄今為止創(chuàng)造的一切,都是工具,供我們使用的工具。技術(shù)如今首次能夠承擔(dān)工作,并幫助我們提高生產(chǎn)力。機遇清單源源不斷,這正是AI能夠觸及IT從未涉足的經(jīng)濟領(lǐng)域的原因。
IT是支撐著100萬億美元全球經(jīng)濟的工具之下,蘊藏著數(shù)萬億美元價值的基石。如今,AI將首次參與這100萬億美元的經(jīng)濟體,并提升其生產(chǎn)力,讓它增長得更快,變得更大。我們面臨嚴重的勞動力短缺問題,擁有能夠增強勞動力的AI將助力我們實現(xiàn)增長。
從科技產(chǎn)業(yè)的角度來看,這點同樣耐人尋味:除了AI作為新興技術(shù)正在開拓經(jīng)濟新領(lǐng)域之外,AI本身也是一種新興產(chǎn)業(yè)。正如我先前所解釋的,這個tokens,這些數(shù)字,在你將所有不同模態(tài)的信息進行分詞處理之后,有一家工廠需要生產(chǎn)這些數(shù)字。
與過去的計算機行業(yè)和芯片行業(yè)不同,如果你回顧過去的芯片行業(yè),芯片行業(yè)約占數(shù)萬億美元IT產(chǎn)業(yè)的5%至10%,可能更少。原因在于,使用Excel、使用瀏覽器、使用Word并不需要太多的計算量。我們進行計算,但在這個新世界里,需要一臺始終理解上下文的計算機。它無法預(yù)先計算出結(jié)果,因為每次你用電腦進行AI操作時,每次你讓AI做某事時,上下文都不同,因此它必須處理所有這些信息。
例如自動駕駛汽車的情況,它必須處理車輛的上下文信息,進行上下文處理。你要求AI執(zhí)行什么指令?然后它必須一步一步地分解問題,思考此事,制定計劃并付諸實施。該步驟中的每個操作都需要生成大量tokens。這就是為什么我們需要一種新型系統(tǒng)的原因,我稱之為AI工廠。這絕對是個AI工廠。
它與過去的數(shù)據(jù)中心截然不同。這是一座AI工廠,因為這座工廠只生產(chǎn)一種東西。不同于過去包攬一切的數(shù)據(jù)中心——為我們所有人存儲文件,運行各種不同的應(yīng)用程序,你可以像使用電腦一樣使用該數(shù)據(jù)中心,運行各種應(yīng)用程序,你某天可以用它來玩游戲,可以用它來瀏覽網(wǎng)頁,可以用它來做賬。因此,那是一臺屬于過去的計算機,一臺通用計算機。
我在此所說的計算機是一座工廠,它基本上只運行一件事。它運行AI,其目的在于生成價值最大化的tokens。這意味著他們必須聰明。而你希望以驚人的速度生成這些tokens,因為當你向AI提出請求時,你希望它做出回應(yīng)。請注意,在高峰時段,這些AI的響應(yīng)速度正變得越來越慢,因為它要為很多人做很多工作。因此你希望它能以驚人的速度生成有價值的tokens,而你希望它能以經(jīng)濟高效的方式實現(xiàn)。我使用的每個詞都符合AI工廠的特征,與汽車廠或任何工廠一樣。這絕對是工廠,而且這些工廠以前從未存在過。而這些工廠里堆積著成山的芯片。
這便引出了今天。過去幾年發(fā)生了什么?事實上,去年發(fā)生了什么?其實今年確實發(fā)生了一件相當深刻的事情。若你回顧年初,每個人對AI都有自己的看法。這種態(tài)度通常是:這會是個大事件,那將是未來。而幾個月前,不知怎么的,它啟動了渦輪增壓。
原因有以下幾點。第一點是,在過去的幾年里,我們已經(jīng)摸清了如何讓AI變得聰明得多。與其說只是預(yù)訓(xùn)練,不如說預(yù)訓(xùn)練本質(zhì)上表明:讓我們把人類創(chuàng)造過的所有信息都拿出來,讓我們把它交給AI來學(xué)習(xí)吧,本質(zhì)上就是記憶和概括。這就像我們小時候上學(xué)一樣,學(xué)習(xí)的第一階段。預(yù)訓(xùn)練從來就不是終點,正如學(xué)前教育也從來不是教育的終點。
學(xué)前教育,本質(zhì)上就是培養(yǎng)你掌握智力發(fā)展的基礎(chǔ)技能,讓你懂得如何學(xué)習(xí)其他一切知識。沒有詞匯量,不理解語言及其表達方式,如何思考,這是無法學(xué)到其他一切的。接下來是培訓(xùn)后階段。培訓(xùn)之后,在培訓(xùn)之前,是傳授你解決問題的技能,分解問題,思考它,如何解決數(shù)學(xué)問題,如何編寫代碼,如何逐步思考這些問題,運用第一性原理推理。而之后才是計算真正發(fā)揮作用的階段。
眾所周知,對我們許多人來說,我們?nèi)ド蠈W(xué)了,就我而言,那是幾十年前的事了。但自那以后,我學(xué)到了更多,思考得也更深了。而原因在于我們始終在不斷汲取新知識來充實自己。我們不斷進行研究,也持續(xù)思考。思考才是智力的真正本質(zhì)。
因此,我們現(xiàn)在擁有三項基礎(chǔ)技術(shù)能力。我們擁有這三項技術(shù):預(yù)訓(xùn)練,仍需投入巨大資源,海量的計算量。我們現(xiàn)在有后訓(xùn)練,它使用了更多的計算資源。而如今,思考給基礎(chǔ)設(shè)施帶來了難以置信的計算負荷,因為它在為我們每個人代勞思考。因此,AI進行思考所需的計算量,這種推論,實在相當非凡。
以前我常聽人說推理很容易,英偉達應(yīng)該進行培訓(xùn)。NVIDIA要搞的,你知道的,他們在這方面真的很厲害,所以他們要進行培訓(xùn),這個推論很簡單。但思考怎么可能容易?背誦記憶的內(nèi)容很容易,背誦乘法表很容易。思考是艱難的,這正是這三把尺子的緣由。這三條新的標度律,即全部內(nèi)容都在其中全速運轉(zhuǎn),給計算量帶來了巨大壓力。
現(xiàn)在又發(fā)生了另一件事。從這三條標度律中,我們獲得了更智能的模型。而這些更智能的模型需要更強的計算能力。但當你獲得更智能的模型時,你便獲得了更高的智能水平,人們使用它。你的模型越聰明,使用的人越多?,F(xiàn)在它更接地氣了,它能夠進行推理。它能夠解決以前從未學(xué)過如何解決的問題,因為它能做研究,去了解它,回來拆解它,思考如何解決你的問題,如何回答你的問題,然后去解決它。思考的深度正使模型變得更智能。它越智能,使用的人就越多。它越智能,就需要進行越多的計算。
但事情是這樣的。過去一年,AI行業(yè)迎來了轉(zhuǎn)折點。這意味著AI模型如今已足夠智能,他們正在創(chuàng)造價值,他們值得為此付費。NVIDIA為每份Cursor許可證付費,我們樂意如此。我們樂意為之,因為Cursor正助力身價數(shù)十萬美元的軟件工程師或AI研究員實現(xiàn)多重價值,效率高出許多倍。當然,我們非常樂意為您效勞。這些AI模型已經(jīng)足夠優(yōu)秀,值得為此付費。Cursor、ElevenLabs、Synthesia、Abridge、OpenEvidence,名單還在繼續(xù)。當然,OpenAI,當然,Claude。這些模型如今如此出色,人們?yōu)榇烁顿M。
而且因為人們正在為此付費并使用得更多,每次他們使用更多時,你需要更多計算能力。我們現(xiàn)在有兩個指數(shù)函數(shù)。這兩個指數(shù),其中一個是三階縮放定律中的指數(shù)計算需求。第二個指數(shù)函數(shù)是,模型越聰明,使用的人越多,使用的人越多,它需要的計算量就越大。
兩個指數(shù)級增長的趨勢正對全球計算資源施加壓力,而就在不久前我才告訴過你們,摩爾定律已基本終結(jié)。那么問題來了,我們該怎么辦?如果我們有這兩項指數(shù)級增長的需求,如果我們找不到降低成本的方法,那么這個正反饋系統(tǒng),這個本質(zhì)上稱為良性循環(huán)的循環(huán)反饋系統(tǒng)——對幾乎所有行業(yè)都至關(guān)重要,對任何平臺型行業(yè)都至關(guān)重要——就可能無法持續(xù)。
這對英偉達至關(guān)重要。我們現(xiàn)已進入CUDA的虛擬周期。應(yīng)用程序越多,人們創(chuàng)建的應(yīng)用程序越多,CUDA就越有價值。CUDA越有價值,購買的CUDA計算機就越多。購買的CUDA并行計算機越多,越來越多的開發(fā)者希望為其創(chuàng)建應(yīng)用程序。經(jīng)過三十年的發(fā)展,英偉達終于實現(xiàn)了這一虛擬循環(huán)。十五年后,我們終于在AI領(lǐng)域?qū)崿F(xiàn)了這一目標。AI現(xiàn)已進入虛擬循環(huán)階段。
因此你用得越多,因為AI很聰明,而我們?yōu)榇烁顿M,產(chǎn)生的利潤就越多。產(chǎn)生的利潤越多,投入的計算資源就越多。在電網(wǎng)中,投入到AI工廠的計算資源越多,計算能力越強,AI變得越來越聰明。越聰明,使用它的人越多,使用它的應(yīng)用程序就越多,我們能解決的問題就越多。
這個虛擬循環(huán)正在運轉(zhuǎn)。我們需要做的是大幅降低成本。因此,其一,用戶體驗得以提升,當你向AI發(fā)出指令時,它會更快地作出響應(yīng)。其二,通過降低其成本來維持這個虛擬循環(huán)的運轉(zhuǎn),以便它能變得更智能,以便更多人會使用它,諸如此類。那個虛擬循環(huán)正在運轉(zhuǎn)。
但當摩爾定律真的達到極限時,我們該如何突破呢?答案就是極致協(xié)同設(shè)計。你不能僅僅設(shè)計芯片,就指望在芯片上運行的東西會變得更快。在芯片設(shè)計中,你所能做的最好就是添加——我不知道,每隔幾年晶體管數(shù)量就會增加50%。如果你再增加更多晶體管的話……你知道嗎,我們可以擁有更多的晶體管,臺積電是一家了不起的公司,我們只會繼續(xù)增加更多晶體管。
然而,這些都是百分比,而非指數(shù)增長。我們需要復(fù)合指數(shù)增長來維持這個虛擬循環(huán)的運轉(zhuǎn)。我們稱之為極致協(xié)同設(shè)計。

英偉達是當今世界上唯一一家能夠真正從一張白紙開始,構(gòu)思全新基礎(chǔ)架構(gòu)的公司,包括計算機架構(gòu)、新型芯片、新型系統(tǒng)、新型軟件、新型架構(gòu)、新型應(yīng)用程序,同時兼顧。在座的許多人之所以在此,是因為你們都是那層結(jié)構(gòu)的不同組成部分,在與NVIDIA合作時,是該堆棧的不同部分。我們從根本上重新構(gòu)建了所有架構(gòu)。
然后,由于AI是一個如此龐大的問題,我們擴大規(guī)模。我們打造了一臺完整的計算機,這是首臺能夠擴展至整機架規(guī)模的計算機。這臺計算機配備單張GPU,隨后我們通過發(fā)明名為Spectrum-X的新型AI以太網(wǎng)技術(shù)實現(xiàn)橫向擴展。
人人都說以太網(wǎng)就是以太網(wǎng)。但以太網(wǎng)根本算不上以太網(wǎng)。Spectrum-X以太網(wǎng)專為AI性能而設(shè)計,這正是它如此成功的原因。即便如此,那也不夠大。我們將用AI超級計算機和GPU填滿整個房間。這仍然不夠大,因為AI的應(yīng)用數(shù)量和用戶數(shù)量正在持續(xù)呈指數(shù)級增長。
我們將多個這樣的數(shù)據(jù)中心相互連接起來,我們稱之為Spectrum-XGS的規(guī)?!狦iga Scale X-Spectrum。通過這樣做,我們在如此巨大的層面上進行協(xié)同設(shè)計,達到如此極致的程度,其性能提升令人震驚,并非每代提升50%或25%,但遠不止于此。
這是我們迄今為止打造的最極致的協(xié)同設(shè)計計算機,坦率地說,是現(xiàn)代制造的。自IBM System/360以來,我認為還沒有哪臺計算機像這樣被徹底重新設(shè)計過。這個系統(tǒng)的創(chuàng)建過程極其艱難。
我馬上讓你見識它的妙處。但本質(zhì)上我們所做的,好吧,這有點像美國隊長的盾牌。所以NVLink72,如果我們要制造一枚巨型芯片,一塊巨型GPU,它看起來會是這樣。這就是我們必須進行的晶圓級加工的程度,太不可思議了。
所有這些芯片現(xiàn)在都被裝入一個巨大的機架中。是我干的還是別人干的?放入那個巨大的架子…… 你知道嗎,有時候我覺得自己并不孤單。僅憑這組巨型支架,便使所有芯片協(xié)同運作,渾然一體。這簡直令人難以置信,我這就向你展示其中的好處。情況是這樣的。所以…… 謝謝,珍妮。我——我喜歡這個。嗯。好的。女士們、先生們,賈妮娜·保羅。哇!明白了。在未來……
接下來,我就像雷神那樣去干。就像你在家里,卻夠不到遙控器,你只要這樣做,就會有人把它送給你。就是這樣。嗯。如果你看一下列表。這種事從不會發(fā)生在我身上,我只是在做夢罷了。
看起來你實際能基準測試的GPU列表大約有90%是NVIDIA。好吧,所以不管怎樣,我們基本上…… 但是。這是NVLink 8。如今,這些模型如此龐大,我們的解決方式是將模型將這個龐然大物拆解成眾多專家。這有點像一個團隊。因此,這些專家擅長處理特定類型的問題。我們召集了一大批專家。
因此,這個價值數(shù)萬億美元的巨型AI模型匯聚了眾多不同領(lǐng)域的專家。我們將所有這些不同領(lǐng)域的專家都集中到一個GPU上。現(xiàn)在,這是NVLink 72。我們可以把所有芯片都集成到一塊巨型晶圓上,每位專家都能相互交流。因此,這位首席專家能夠與所有在崗的專家進行交流,以及所有必要的上下文、提示和我們必須處理的大量數(shù)據(jù),一堆tokens,我們必須發(fā)送給所有專家。專家們會…… 無論哪位專家被選中解答問題,都會隨即嘗試作出回應(yīng)。
然后它就會開始逐層逐層地執(zhí)行這個操作,有時八人,有時十六人,有時這些專家有時是64,有時是256。但關(guān)鍵在于,專家的數(shù)量正越來越多。嗯,這里,NVLink 72,我們擁有72個GPU。正因如此,我們才能將四位專家整合到單個GPU中。
你需要為每塊GPU做的最重要的事就是生成tokens,即您在HBM內(nèi)存中擁有的帶寬數(shù)量。我們擁有一臺H系列GPU,為四位專家提供計算支持。與這里不同,因為每臺計算機最多只能安裝八個GPU,我們必須將32位專家整合到單個GPU中。因此這塊GPU需要為32位專家進行思考,相比之下,該系統(tǒng)中每塊GPU只需處理四項任務(wù)。正因如此,速度差異才此驚人。
這剛發(fā)布。這是由SemiAnalysis完成的基準測試。他們干得非常、非常徹底。他們對所有可進行基準測試的GPU進行了基準測試。全球各地的供應(yīng)鏈都在制造它,因此我們現(xiàn)在可以向所有這些地區(qū)交付這種新架構(gòu),從而使資本支出投資于這些設(shè)備,這些計算機能夠提供最佳的總體擁有成本。
現(xiàn)在在這之下,有兩件事正在發(fā)生。所以當你看這個時,實際上是相當非同尋常的。無論如何,這相當非同尋?!,F(xiàn)在同時發(fā)生著兩次平臺轉(zhuǎn)變。
記住,如我之前跟你提到的,加速計算用于數(shù)據(jù)處理、圖像處理、計算機圖形學(xué)。它確實執(zhí)行各種計算。它運行SQL,運行Spark,它運行…… 你知道,你讓它,你告訴我們你需要運行什么,這可是件大事。它說我們現(xiàn)在可以更快地做出回應(yīng),但這才是更重大的事。
因此在下面層面,不管是否有AI,世界正從通用計算轉(zhuǎn)向加速計算。不管是否有AI。事實上,許多CSP早已提供在AI出現(xiàn)之前就存在的服務(wù)。記住,它們是在機器學(xué)習(xí)時代被發(fā)明的,像XGBoost這樣的經(jīng)典機器學(xué)習(xí)算法,像用于推薦系統(tǒng)的數(shù)據(jù)框,協(xié)同過濾,內(nèi)容過濾。所有這些技術(shù)都誕生于通用計算的早期時代。
即便是那些算法,即便是那些架構(gòu),如今在加速計算的加持下也變得更加強大。因此,即使沒有AI,全球云服務(wù)提供商也將投資于加速技術(shù)。NVIDIA的GPU是唯一能同時實現(xiàn)上述所有功能并支持AI的GPU。專用集成電路或許能夠?qū)崿F(xiàn)AI,但它無法完成其他任何任務(wù)。
NVIDIA完全能夠做到這一切,這也解釋了為什么完全采用NVIDIA架構(gòu)是如此穩(wěn)妥的選擇。我們現(xiàn)已進入良性循環(huán),抵達了轉(zhuǎn)折點,這實在非同尋常。
我在這間會議室里有許多合作伙伴,而你們所有人都是我們供應(yīng)鏈的重要組成部分。我知道你們大家工作多么努力。我想感謝你們所有人,你們工作多么努力。非常感謝。
現(xiàn)在我將向你展示原因。這就是我們公司業(yè)務(wù)的現(xiàn)狀。正如我剛才提到的所有原因,我們看到Grace Blackwell正呈現(xiàn)出非凡的增長態(tài)勢。它由兩個指數(shù)函數(shù)驅(qū)動。我們現(xiàn)在已掌握情況。
我認為,在Blackwell以及Rubin早期增長態(tài)勢上,2026年我們很可能是歷史上首家能夠看到5000億美元業(yè)務(wù)規(guī)模的公司。正如你所知,2025年尚未結(jié)束,2026年也尚未開始。這就是賬面上的業(yè)務(wù)量,迄今為止已達半萬億美元。
在這些產(chǎn)品中,我們已在前幾個季度售出了六百萬臺Blackwell設(shè)備。我猜生產(chǎn)的前四個季度,四分之三的產(chǎn)量。2025年還有一個季度要走。然后我們有四個季度。因此未來五個季度,將有5000億美元。這相當于Hopper增長率的五倍,這多少說明了些什么。
這就是Hopper的全部人生。這不包括中國和亞洲。所以這只是西方市場。Hopper,在其全部生命周期中,四百萬塊GPU。Blackwell,每個Blackwell在一個大封裝中包含兩塊GPU。在Rubin的早期階段有2000萬塊Blackwell GPU。令人難以置信的增長。
因此,我要感謝我們所有的供應(yīng)鏈合作伙伴。大家。我知道你們工作多么辛苦。我制作了一段視頻來慶祝你的工作。
極致版Blackwell GB200Nv與Grace Blackwell NVLink 72的協(xié)同設(shè)計,使我們實現(xiàn)了十倍代際性能提升。簡直難以置信。現(xiàn)在,真正令人難以置信的部分是這個。這是我們制造的第一臺AI超級計算機。這是2016年,我將其交付給舊金山的一家初創(chuàng)公司,結(jié)果發(fā)現(xiàn)是OpenAI。這就是那臺電腦。
為了制造那臺計算機,我們設(shè)計了一枚芯片。我們設(shè)計了一款新芯片。為了我們現(xiàn)在能夠進行協(xié)同設(shè)計,看看我們得處理的這么多芯片。這就是需要的。你不可能拿一塊芯片就讓計算機速度提升十倍,那不可能發(fā)生。
使計算機速度提升十倍的方法在于我們能夠持續(xù)實現(xiàn)性能的指數(shù)級增長。我們能夠以指數(shù)級持續(xù)壓低成本的方法,是極端協(xié)同設(shè)計以及同時在所有這些不同芯片上并行工作。我們現(xiàn)在把Rubin接回家了。這是Rubin。
這是我們的第三代NVLink 72機架級計算機。第三代。GB200是第一代。遍布全球的所有合作伙伴們,我知道你們付出了多么艱辛的努力。這真的是極其艱難。第二代,順滑得多。而這一代,看這個,完全無線纜。完全無線纜。而這一切現(xiàn)在又回到了實驗室。
這是下一代,Rubin。在我們發(fā)貨GB300的同時,我們正在準備讓Rubin進入量產(chǎn)。你知道的,就在明年的這個時候,也許會稍微早一點。因此,每一年,我們都會提出最激進的協(xié)同設(shè)計系統(tǒng),以便不斷提高性能并持續(xù)降低tokens生成成本。
看看這個。這是一臺令人難以置信的漂亮計算機。這是100 PetaFLOPS。我知道這沒有任何意義。100 PetaFLOPS。但與我十年前交付給OpenAI的DGX-1相比,性能提升了100倍。就在這里。與那臺超級計算機相比是100倍。一百臺那種的,來算算看,一百臺那種大概相當于25個這樣的機架,都被這一樣?xùn)|西替代了。一個維拉·魯賓。
所以,這是計算托盤。所以這是Vera Rubin超級芯片。可以嗎?這是計算托盤。就在這里,上方。安裝起來非常容易。只需把這些東西掀開,塞進去。就連我也能做到。這是Vera Rubin計算托盤。
如果你決定要添加一個特殊處理器,我們添加了另一個處理器,稱為上下文處理器,因為我們提供給AI的上下文量越來越大。我們希望它在回答問題之前先讀取大量PDF,希望它能讀取大量歸檔論文,觀看大量視頻,在回答我的問題之前先去學(xué)習(xí)所有這些內(nèi)容。所有這些上下文處理都可以被添加進去。
因此您可以看到底部有八個ConnectX-9新型SuperNIC網(wǎng)卡。你有八個。您擁有BlueField-4,這款新型數(shù)據(jù)處理器,兩個Vera處理器,以及四個Rubin軟件包,或八個Rubin GPU。這一切都集中在這個節(jié)點上。完全無線,100%液冷。
至于這款新處理器,今天我就不多說了。我時間不夠,但這完全是革命性的。而原因在于,你們的AI需要越來越多的內(nèi)存。你與它的互動更頻繁了,你希望它能記住我們上次的對話。你為我所學(xué)的一切,等我下次回來時,請千萬別忘記。
因此,所有這些記憶將共同構(gòu)筑出名為KV緩存的東西。而KV緩存,檢索它時,你可能已經(jīng)注意到,每次你進入你的會話,你們現(xiàn)在的AI刷新和檢索所有歷史對話的時間越來越長了。而且原因在于我們需要一款革命性的新處理器。這被稱為BlueField-4。
接下來是NVLink交換機。這正是使我們能夠?qū)⑺杏嬎銠C連接在一起的關(guān)鍵所在。而這個交換機的帶寬現(xiàn)已達到全球互聯(lián)網(wǎng)峰值流量的數(shù)倍。因此,該主干將同時向所有GPU傳遞并傳輸所有數(shù)據(jù)。
除此之外,這是Spectrum-X開關(guān)。這款以太網(wǎng)交換機的設(shè)計使得所有處理器能夠同時相互通信,而不會造成網(wǎng)絡(luò)擁塞。堵塞網(wǎng)絡(luò),這很技術(shù)性??梢詥??所以這三者結(jié)合起來。然后這就是量子開關(guān)。這是InfiniBand,這是以太網(wǎng)。我們不在乎你想用什么語言,無論您采用何種標準,我們都為您準備了卓越的橫向擴展架構(gòu)。
無論是InfiniBand、Quantum還是Spectrum以太網(wǎng),這款采用硅光子技術(shù),并提供完全共封裝的選項?;旧?,激光會直接接觸硅片,并將它與我們的芯片連接起來。可以嗎?這就是Spectrum-X以太網(wǎng)。哦,這就是它的樣子。這是一個機架。這是兩噸。150萬個部件和這根脊柱,這根脊柱在一秒鐘內(nèi)承載著整個互聯(lián)網(wǎng)的流量。相同的速度,能在所有這些不同的處理器之間遷移。100%液冷。所有這一切,都是為了世界上最快的tokens生成速度。可以嗎?所以那就是機架的樣子。
現(xiàn)在,那是一個機架。一個千兆瓦級的數(shù)據(jù)中心會有,來算算,16個機架大約是姑且叫它9,000,8,000個這樣的將是一個一千兆瓦的數(shù)據(jù)中心。所以那將是未來的AI工廠。
如你所見,NVIDIA起初是設(shè)計芯片,隨后我們開始設(shè)計系統(tǒng),并且我們設(shè)計AI超級計算機?,F(xiàn)在我們正在設(shè)計完整的AI工廠。每次我們將更多問題整合進來進行解決時,我們都會想出更好的解決方案。我們現(xiàn)在構(gòu)建完整的AI工廠。
這個AI工廠將會是…… 我們?yōu)閂era Rubin構(gòu)建的東西。我們創(chuàng)造了一項技術(shù),使我們所有的合作伙伴都能夠以數(shù)字化方式集成到這個工廠中。
在Vera Rubin作為真實計算機出現(xiàn)之前很久很久,我們已經(jīng)把它作為數(shù)字孿生計算機來使用。很久在這些AI工廠出現(xiàn)之前,我們就會使用它,我們會設(shè)計它,我們會規(guī)劃它、優(yōu)化它,并以數(shù)字孿生的方式來運行它。
因此,所有與我們合作的合作伙伴,我非常高興你們所有支持我們的人。Gio在這里,G Ver... Vernova在這里,Schneider。我想,Olivier在這里,Olivier Blum在這里。西門子,令人難以置信的合作伙伴。好的。羅蘭·布什,我想他在看。嗨,羅蘭??傊?,真的,非常非常棒的合作伙伴與我們一起工作。
起初,我們有CUDA,以及各種不同的軟件合作伙伴生態(tài)系統(tǒng)?,F(xiàn)在,我們有Omniverse DSX,并且正在構(gòu)建AI工廠。同樣地,我們也有這些與我們合作的令人驚嘆的合作伙伴生態(tài)系統(tǒng)。
讓我們來談?wù)勀P?,特別是開源模型。在過去幾年里,發(fā)生了幾件事。一是開源模型因為具備推理能力而變得非常強大;它們之所以非常強大,是因為它們是多模態(tài)的,并且由于蒸餾技術(shù),它們的效率非常高。因此,所有這些不同的功能已經(jīng)使開源模型首次對開發(fā)人員極其有用。它們現(xiàn)在是初創(chuàng)公司的命脈。顯然,這些初創(chuàng)公司的生存命脈在不同的行業(yè)中各不相同,正如我之前提到的,每個行業(yè)都有其自身的用例、其自身的數(shù)據(jù)、自己的已用數(shù)據(jù),自己的飛輪。所有這些能力,那些領(lǐng)域?qū)iL需要能夠嵌入到模型中,開源使這成為可能。研究人員需要開源,開發(fā)者需要開源,世界各地的公司,我們需要開源。開源模型真的非常非常重要。
美國也必須在開源方面處于領(lǐng)先地位。我們擁有極其出色的專有模型,我們擁有令人驚艷的專有模型,我們同樣需要令人驚艷的開源模型。我們的國家依賴它,我們的初創(chuàng)公司依賴它,因此NVIDIA致力于去實現(xiàn)這一目標。我們現(xiàn)在是最大的,我們在開源貢獻方面處于領(lǐng)先地位。我們在排行榜上有23個模型。我們擁有來自不同領(lǐng)域的這些語言模型,我將要討論的物理AI模型、機器人模型到生物學(xué)模型。每一個這些模型都有龐大的團隊,這也是我們?yōu)樽约簶?gòu)建超級計算機以支持所有這些模型創(chuàng)建的原因之一。我們擁有第一的語音模型、第一的推理模型、第一的物理AI模型,下載量非常非??捎^。我們致力于此,原因在于科學(xué)需要它,研究人員需要它,初創(chuàng)公司需要它,企業(yè)也需要它。
我很高興AI初創(chuàng)公司以NVIDIA為基礎(chǔ)構(gòu)建。他們這樣做有好幾種原因。首先,當然我們的生態(tài)系統(tǒng)很豐富,我們的工具運行得非常好。我們所有的工具都能在我們所有的GPU上運行,我們的GPU無處不在。它實際上存在于每一個云中,它可以在本地部署,你可以自己構(gòu)建。你可以自己搭建一個發(fā)燒友級別的游戲電腦,里面裝多塊GPU,然后你可以下載我們的軟件棧,它就是能用。我們有大量開發(fā)者在不斷豐富生態(tài)系統(tǒng),使其越來越強大。所以我對我們合作的所有初創(chuàng)公司感到非常滿意,我對此心存感激。
同樣,許多這些初創(chuàng)公司現(xiàn)在也開始創(chuàng)造更多方式來利用我們的GPU,例如CoreWeave、Nscale、Nebius、Lambda、Crusoe等。這些公司正在建立這些新的GPU云來為初創(chuàng)公司服務(wù),我非常感激這一點。這一切之所以成為可能,是因為NVIDIA無處不在。
我們將我們的庫整合在一起,所有我剛才跟你提到的CUDA X庫、我提到的所有開源AI模型、我提到的所有模型,例如,我們已經(jīng)集成到AWS中。真的很喜歡和Matt共事。例如,我們已與Google Cloud集成。真的很喜歡和Thomas共事。每一個云都集成了NVIDIA GPUs和我們的計算、我們的庫,以及我們的模型。很喜歡與微軟Azure的Satya一起合作,很喜歡與Oracle的Clay一起合作。每一個這些云都集成了NVIDIA堆棧。因此,不論你去哪里,無論你使用哪個云端,它的工作效果令人難以置信。
我們還將NVIDIA的庫集成到全球的SaaS中,以便這些SaaS最終都能成為具代理能力的SaaS。我喜歡Bill McDermott對ServiceNow的愿景。那里有人,對,就這樣。我想那可能是Bill。嗨,Bill。那么ServiceNow是什么?全球85%的企業(yè)級工作負載、工作流。SAP,全球80%的商業(yè)交易。Christian Klein和我正在合作將NVIDIA庫集成起來,將CUDA X、NeMo和NeMotron,以及我們所有的AI系統(tǒng)集成到SAP中。
與Synopsys的Sassine合作,加速全球的CAE,使CAD、EDA工具更快且可擴展,幫助他們創(chuàng)建AI代理。有朝一日,我很想雇傭一個AI代理ASIC設(shè)計師來與我們的ASIC設(shè)計師合作,從本質(zhì)上來說,就是Synopsys的AI代理。我們正在與Anirudh一起合作,Anirudh,是的,我今天早些時候見過他,他參與了賽前節(jié)目。Cadence做著令人難以置信的工作,加速他們的技術(shù)棧,創(chuàng)建AI代理,使得Cadence的AI ASIC設(shè)計師和系統(tǒng)設(shè)計師能夠與我們協(xié)同工作。
今天,我們宣布一個新的項目。AI將大幅提升生產(chǎn)力,AI將徹底改變每一個行業(yè)。但AI也會極大地增強網(wǎng)絡(luò)安全挑戰(zhàn),那些惡意的AI。因此我們需要一個強大的防御者,我無法想象有比CrowdStrike更好的防御者。我們與CrowdStrike合作,將網(wǎng)絡(luò)安全的速度提升到光速,以創(chuàng)建一個在云端擁有網(wǎng)絡(luò)安全AI代理的系統(tǒng),同時在本地或邊緣也擁有表現(xiàn)極為出色的AI代理。這樣一來,每當出現(xiàn)威脅時,你就能在瞬間檢測到它。我們需要速度,我們需要一個快速的自主智能、超智能的AI。
我有第二個聲明。這是世界上發(fā)展最快的企業(yè)公司,可能是當今世界上最重要的企業(yè)級堆棧,Palantir Ontology。這里有來自Palantir的人嗎?我剛才還在和Alex聊天。這是Palantir Ontology,他們獲取信息、獲取數(shù)據(jù)、獲取人為判斷,并將其轉(zhuǎn)化為商業(yè)洞察。我們與Palantir合作,加速Palantir的所有工作,以便我們能夠進行數(shù)據(jù)處理,以更大規(guī)模和更高速度進行數(shù)據(jù)處理,更大規(guī)模、更多速度。無論是過去的結(jié)構(gòu)化數(shù)據(jù),當然也包括我們將擁有結(jié)構(gòu)化數(shù)據(jù)、人為記錄的數(shù)據(jù)、非結(jié)構(gòu)化數(shù)據(jù),并為我們的政府處理這些數(shù)據(jù),用于國家安全,以及為全球的企業(yè)服務(wù),以光速處理這些數(shù)據(jù)并從中發(fā)現(xiàn)洞見。這就是未來的樣子。Palantir將與NVIDIA集成,以便我們能夠以光速和極大規(guī)模進行處理。
5、進軍物理AI、機器人技術(shù)與自動駕駛
讓我們來談?wù)勎锢鞟I。物理AI需要三臺計算機。正如訓(xùn)練一個語言模型需要兩臺計算機一樣,一臺用于訓(xùn)練它、評估它,然后用于推理它。所以你看到的是大型的GB200。為了用于物理AI,你需要三臺計算機。你需要這臺計算機來訓(xùn)練它,這是GB,即Grace Blackwell NVLink-72。我們需要一臺能夠運行我之前用Omniverse DSX展示的所有模擬的計算機。它基本上是一個數(shù)字孿生,讓機器人學(xué)習(xí)如何成為一個優(yōu)秀的機器人,并使工廠實質(zhì)上成為一個數(shù)字孿生。那臺計算機是第二臺計算機,即Omniverse計算機。這臺計算機必須在生成式AI方面表現(xiàn)卓越,并且必須在計算機圖形學(xué)方面表現(xiàn)出色,傳感器模擬、光線追蹤、信號處理。這臺計算機被稱為Omniverse計算機。一旦我們訓(xùn)練好模型,就在數(shù)字孿生中模擬該AI,而該數(shù)字孿生可以是一個工廠的數(shù)字孿生,以及大量機器人的數(shù)字孿生體。然后,你需要操作那臺機器人,這就是機器人計算機。這個可以裝進一輛自動駕駛汽車里,其中一半可以裝進一臺機器人里。可以嗎?或者你實際上可以擁有,比如說,機器人在操作中非常靈活且非??焖伲赡苄枰獌膳_這樣的計算機。這就是Thor,Jetson Thor機器人計算機。這三臺計算機都運行CUDA,這使我們能夠推進物理AI,能夠理解物理世界、理解物理定律的AI,因果關(guān)系、持久性,物理AI。
我們有令人難以置信的合作伙伴與我們一起打造工廠的物理AI。我們自己也在使用它來打造我們在德克薩斯的工廠?,F(xiàn)在,一旦我們建成了機器人工廠,我們里面有一堆機器人,這些機器人也需要物理AI,將物理AI應(yīng)用于數(shù)字孿生內(nèi)部,并在其中運行。
我要感謝我們的合作伙伴富士康。在這里。但所有這些生態(tài)系統(tǒng)合作伙伴使我們能夠創(chuàng)造未來的機器人工廠。這個工廠本質(zhì)上是一個機器人,它正在協(xié)調(diào)機器人去制造出具有機器人性質(zhì)的東西。要做到這一點所需的軟件量非常龐大,除非你能夠在數(shù)字孿生中去規(guī)劃它、去設(shè)計它、在數(shù)字孿生中去運營它,否則讓這個方案奏效的希望幾乎不可能。
我也很高興看到Caterpillar,我的朋友Joe Creed,以及他那家有著百年歷史的公司也在將數(shù)字孿生技術(shù)融入他們的制造方式。這些工廠將配備未來的機器人系統(tǒng),其中最先進的之一是Figure。Brett Adcock今天在這里。他三年半前創(chuàng)辦了一家公司,他們現(xiàn)在市值接近400億美元。我們正在共同訓(xùn)練這個AI,訓(xùn)練機器人、模擬機器人,當然還有裝入Figure的機器人電腦。真的非常驚人。我有幸見證了這一點,這真的相當非凡。很可能類人機器人會出現(xiàn),而且,我的朋友Elon也在做這方面的工作,這很可能會成為最大的消費類產(chǎn)品之一,新的消費電子市場,當然還有最大的一類工業(yè)設(shè)備市場之一。
Peggy Johnson和Agility的團隊正在與我們合作開發(fā)用于倉庫自動化的機器人。Johnson & Johnson的團隊再次與我們合作,訓(xùn)練機器人,在數(shù)字孿生中進行仿真,并且還要操作機器人。這些Johnson & Johnson外科手術(shù)機器人甚至將進行完全非侵入性的手術(shù),達到世界前所未有的精確度。
當然,史上最可愛的機器人,迪士尼的機器人。這是與我們息息相關(guān)的某件事。我們正在與Disney Research合作開發(fā)一個全新的框架和仿真平臺,基于一種名為Newton的革命性技術(shù)。而那款Newton模擬器使得機器人在具備物理感知的環(huán)境中學(xué)習(xí)如何成為一名優(yōu)秀的機器人。
現(xiàn)在,人形機器人仍在開發(fā)中,但與此同時,有一款機器人明顯處于拐點上,它基本上就在這里,那是一個帶輪子的機器人。這是一個無人駕駛出租車。無人駕駛出租車本質(zhì)上就是一個AI司機?,F(xiàn)在,我們今天正在做的事情之一,我們宣布推出NVIDIA DRIVE Hyperion。這是一件大事。我們創(chuàng)建了這個架構(gòu),以便世界上每一家汽車公司都能制造車輛,可以是商用的,也可以是乘用的,可以是專用于無人出租車,制造出具備無人出租車準備能力的車輛。配備環(huán)視攝像頭、雷達和激光雷達的傳感套件使我們能夠?qū)崿F(xiàn)最高級別的全位感知套件與冗余,這是實現(xiàn)最高安全級別所必需的。Hyperion DRIVE,DRIVE Hyperion現(xiàn)在已被設(shè)計進Lucid、梅賽德斯-奔馳、我的朋友Ola Kllenius,Stellantis的團隊,還有許多其他車型即將到來。
一旦你有了一個基本的標準平臺,那么自動駕駛系統(tǒng)的開發(fā)者們,他們中有很多非常有才華的團隊,例如Wayve、Waabi、Aurora、Momenta、Nuro、WeRide等,有這么多公司可以把他們的AV系統(tǒng)移植到標準底盤上運行?;旧希瑯藴实妆P現(xiàn)在已經(jīng)變成了一個移動的計算平臺。并且因為它是標準化的,且傳感器套件非常全面,他們都可以將他們的AI部署到上面。
未來,每年將有萬億英里被駕駛,每年制造1億輛汽車,全球大約有5000萬輛出租車將會被大量無人駕駛出租車所增強。所以這將是一個非常龐大的市場。為了將其連接并在全球部署,今天我們宣布與Uber建立合作伙伴關(guān)系。Uber的Dara,Dara要走了。我們正在合作,將這些NVIDIA DRIVE Hyperion汽車連接成一個全球網(wǎng)絡(luò)。而在未來,你將能夠召喚到這些汽車中的一輛,生態(tài)系統(tǒng)將非常豐富,我們會在全世界看到Hyperion或無人駕駛出租車出現(xiàn)。這將成為我們的一個新的計算平臺,我預(yù)計它會非常成功。好的。
這就是我們今天所討論的內(nèi)容。我們討論了很多很多事情。請記住,其核心是兩點,是從通用計算向加速計算的兩次平臺轉(zhuǎn)變。NVIDIA CUDA及其名為CUDA-X的一系列庫使我們能夠應(yīng)對幾乎所有行業(yè),我們正處于拐點,現(xiàn)在它正如虛擬循環(huán)所示地增長。第二個拐點現(xiàn)在已經(jīng)到來,從傳統(tǒng)手寫軟件到AI的轉(zhuǎn)變。兩個平臺同時發(fā)生轉(zhuǎn)變,這就是我們感受到如此驚人增長的原因。
量子計算,我們已經(jīng)提到過。我們談到了開源模型。我們談到了與CrowdStrike的企業(yè)應(yīng)用,以及Palantir,加速他們的平臺。我們談到了機器人技術(shù),一個新的可能成為最大規(guī)模的消費電子和工業(yè)制造行業(yè)之一。當然,我們還談到了6G,NVIDIA有了用于6G的新平臺,我們稱之為Aria。我們有一個用于機器人汽車的新平臺,我們把它稱為Hyperion。我們有新的平臺,即便是面向工廠,也是兩類工廠,我們把那個AI工廠稱為DSX,然后把工廠與AI結(jié)合,我們稱之為MEGA。
女士們、先生們,感謝你們今天的到來,并且感謝你們讓我——謝謝——感謝你們讓我們能夠把GTC帶到華盛頓特區(qū)。我們希望每年都舉辦一次。感謝你們!