中文字幕乱老妇女一视频,97青草香蕉依人在线视频,男人的天堂国产综合,伊人中文字幕亚洲精品

<style id="pje8p"><tr id="pje8p"></tr></style>
    • 關(guān)于ZAKER 合作
      愛范兒 18小時前

      英偉達(dá)市值劍指五萬億大關(guān),Blackwell 領(lǐng)跑,Rubin 接力,AI 基建即將迎來需求爆炸

      皮衣戰(zhàn)神,又雙叒叕來「砸場子」了!在昨天剛剛過去的 GTC 2025 秋季場,黃仁勛的演講又一次讓英偉達(dá)坐穩(wěn)了芯片第一龍頭的位置,整場發(fā)布會,堪稱火力全開。

      芯片龍頭的實力,戰(zhàn)績可查

      英偉達(dá)在大會上釋放出極其強(qiáng)勁的營收信號,再次鞏固了其在全球 AI 計算領(lǐng)域的絕對領(lǐng)先地位。其中,Blackwell 平臺無疑是本次 GTC 的絕對焦點,其大規(guī)模部署速度前所未有。

      黃仁勛透露,Blackwell 平臺在開始生產(chǎn)的僅僅五個季度內(nèi),預(yù)計將出貨高達(dá) 600 萬個處理器單元,增長速度是上一代 Hopper 平臺的五倍,標(biāo)志著全球 AI 基礎(chǔ)設(shè)施的部署已進(jìn)入超高速增長期。

      這樣驚人的出貨量,充分反映了市場對 Blackwell 架構(gòu)高性能與高能效的迫切需求,尤其是在訓(xùn)練萬億級參數(shù)模型和大規(guī)模推理應(yīng)用中。

      根據(jù)演示,Blackwell 平臺在運行推理模型時,相比 Hopper 實現(xiàn)了九倍的速度提升。這一性能飛躍將大型語言模型(LLM)的響應(yīng)時間大幅壓縮,極大提升了用戶體驗并解放了計算資源。

      在 AI 大規(guī)模應(yīng)用的運營成本方面,英偉達(dá)承諾通過「極致協(xié)同設(shè)計」(extreme co-design)來顯著降低 AI token 的生成成本,解決 AI 工廠的核心運營痛點。目前,Grace Blackwell NVLink 72 在生成 token 方面,成本是全世界最低的。性能提升 10 倍,同時成本降低 10 倍。

      基于 Blackwell 平臺及其后續(xù)的 Rubin(Vera Rubin 超級芯片平臺)的初期加速部署,英偉達(dá)預(yù)計到 2026 年,這兩個新平臺的累計營收將有望達(dá)到 5000 億美元。

      如此雄心勃勃的財務(wù)目標(biāo),底氣來自于英偉達(dá)對于 AI 基礎(chǔ)設(shè)施的年度更新戰(zhàn)略,以每年一代的速度推出計算平臺,以應(yīng)對業(yè)界對更大規(guī)模、更高性能 AI 模型訓(xùn)練和推理的需求。

      黃仁勛強(qiáng)調(diào),這 5000 億美元的數(shù)字不僅代表著芯片單元的銷售,更反映了全球計算基礎(chǔ)設(shè)施正加速向英偉達(dá)的加速計算模型轉(zhuǎn)型,這標(biāo)志著一個萬億美元計算拐點的到來。

      超級芯片的未來計算版圖

      一方面,Blackwell 平臺正在推動 AI 浪潮;另一方面,英偉達(dá)的目光已投向更遠(yuǎn)的未來:下一代 Vera Rubin 超級芯片納入戰(zhàn)略版圖。

      Vera Rubin 超級芯片延續(xù)了集成 CPU 和 GPU 的超級芯片設(shè)計理念,其中 Vera 作為定制的 CPU,而 Rubin 則作為下一代 GPU。

      技術(shù)細(xì)節(jié)顯示,Vera Rubin 將帶來跨越式的性能飛躍:相比 Grace 平臺,Vera 組件將提供 4.2 倍的內(nèi)存容量和 2.4 倍的內(nèi)存帶寬。

      它將容納 6 萬億個晶體管,能夠提供高達(dá) 100 Petaflops ( PF ) 的 AI 計算性能,并配備 2 TB 的高速緩存 / 快速內(nèi)存。這些核心參數(shù)表明,Vera Rubin 在應(yīng)對萬億級參數(shù)模型和極大規(guī)模 AI 推理任務(wù)時,將實現(xiàn) Blackwell 代際無法企及的效率和速度。

      作為 Blackwell 的繼任者,Vera Rubin 和 Blackwell 將共同構(gòu)成英偉達(dá)高達(dá) 5000 億美元的營收,象征著公司對未來計算架構(gòu)的持續(xù)迭代和投入。

      在此宏大計算戰(zhàn)略下,英偉達(dá)同時公布了兩項重量級合作。首先是推出了 NVQ Link 互聯(lián)架構(gòu),專為量子處理器(QPU)與英偉達(dá) GPU 超級計算機(jī)之間的高速混合模擬而設(shè)計,實現(xiàn)了微秒級的計算延遲。

      該技術(shù)已獲得 17 家量子計算機(jī)公司和八個美國能源部(DOE)國家實驗室的支持,標(biāo)志著量子計算和經(jīng)典 AI 計算的深度融合。

      6G 來了?給諾基亞重新「抬咖」

      另外一項重量級合作,則是在通信基礎(chǔ)設(shè)施領(lǐng)域:英偉達(dá)宣布與電信巨頭諾基亞建立深度戰(zhàn)略合作伙伴關(guān)系,共同開發(fā)下一代 6G 技術(shù)。

      諾基亞未來將采用英偉達(dá)的 ARC 平臺 作為其基站核心,該平臺兼容諾基亞現(xiàn)有的 AirScale 基站,意味著全球數(shù)百萬個基站可通過英偉達(dá)技術(shù)升級至 6G 和 AI 能力。

      這項合作聚焦于兩大關(guān)鍵方向:其一是 AI for RAN(AI 賦能無線接入網(wǎng))。諾基亞擁有 7000 項基礎(chǔ) 5G 專利,結(jié)合英偉達(dá)的 AI 技術(shù),將利用人工智能和強(qiáng)化學(xué)習(xí)實時調(diào)整波束成形,優(yōu)化環(huán)境下的頻譜效率。

      考慮到無線網(wǎng)絡(luò)消耗了全球約 1.5% 至 2% 的電力,提高頻譜效率不僅能增加數(shù)據(jù)吞吐量,同時也是一項至關(guān)重要的能源節(jié)約舉措。

      另外,AI on RAN 則將無線網(wǎng)絡(luò)轉(zhuǎn)變?yōu)橐粋€「邊緣工業(yè)機(jī)器人云」。正如 AWS 建立在互聯(lián)網(wǎng)之上,英偉達(dá)和諾基亞正將云計算能力擴(kuò)展到基站邊緣,創(chuàng)造出一個全新的、超低延遲的計算環(huán)境。這對于需要實時決策和響應(yīng)的工業(yè)機(jī)器人、自動駕駛車輛和邊緣 AI 應(yīng)用至關(guān)重要,開啟了一個潛力巨大的邊緣計算新市場。

      AI 即工作,時代在召喚

      「如同電力和互聯(lián)網(wǎng)一樣,人工智能是至關(guān)重要的基礎(chǔ)設(shè)施?!?/p>

      這個觀點不新鮮了,但是黃仁勛又強(qiáng)調(diào)了一遍。他指出,當(dāng)前時代的變革始于一個關(guān)鍵觀察:Dennard 縮放定律(Dennard scaling)已停止近十年,晶體管的性能和功耗增益受到物理定律的限制,傳統(tǒng)摩爾定律的紅利正在消退。

      這種現(xiàn)實使得加速計算這一全新計算模型成為必要,它通過 GPU 和 CUDA 編程模型,利用不斷增長的晶體管數(shù)量來實現(xiàn)并行計算,突破了通用 CPU 的性能瓶頸。黃仁勛強(qiáng)調(diào),CUDA 編程模型的兼容性維護(hù)是英偉達(dá)的「寶藏」,經(jīng)過近三十年的發(fā)展才得以實現(xiàn)如今的成就。

      「AI 不是工具,AI 就是工作本身」(AI is not a tool. AI is work.),黃仁勛給出了大膽的論斷,暗示著, AI 已升級為直接的生產(chǎn)力要素,將注定是驅(qū)動經(jīng)濟(jì)增長和創(chuàng)新的核心力量。

      相關(guān)標(biāo)簽

      相關(guān)閱讀

      最新評論

      沒有更多評論了