黃仁勳 2025 10月GTC Keynote
Roger’s Takeaway
這次黃仁勳除了短期5,000億美元Rubin訂單的消息,我看到最核心的還是兩個正向循環,其一是三個擴展定律,其二是AI進入價值創造的正向循環
三個擴展定律
三個擴展定律是指預訓練、後訓練以及思考帶動Token需求的指數級增長。
AI進入價值創造的正向循環
人們創造的應用程式越多,CUDA 就越有價值。CUDA 越有價值,購買的 CUDA 電腦就越多。購買的 CUDA 電腦越多,就越多的開發者想為它創造應用程式。
當運算需求越大,人們就需要越多做的AI工廠,而在AI領域中,Nvidia有90%的份額,事實上Nvidia是和自己在競爭,從H200到GB200,效能提高十倍,成本降低為原來的十分之一,整體效益提高百倍。
MS預期2027年雲廠商資本支出6,320億,目前Rubin訂單已經來到5,000億,是世界上第一大的訂單量。
黃仁勳這次也嘗試從AI模型到應用去尋找答案,包括與Oracle, Servicenow, SAP, Synopsys, Cadence, Crowdstrike, Palantir等公司合作打造AI應用。
AI的推進已經使世界現在正在站上第二個轉折點,AI編寫程式碼,將進一步推動AI軟體應用。
摘要
NVIDIA 創辦人暨執行長 Jensen Huang 在 GTC 大會上,闡述了由加速運算與生成式 AI 引領的新工業革命。演講中發布了 Blackwell 與次世代 Rubin 架構,展示了其如何透過極致的共同設計,實現前所未有的運算效能與成本效益,以應對 AI 模型的指數級增長需求。同時,NVIDIA 也宣布了在 6G、量子運算、實體 AI 機器人、自動駕駛,以及與 Nokia、CrowdStrike、Palantir 等產業巨頭的重大合作,並揭示了「AI 工廠」的未來藍圖,宣示美國製造業的回歸。
Highlight
1.
美國,這片創新的土地,發明塑造了命運,科技幫助夢想高飛。在 Bell Labs,電晶體的誕生,點燃了半導體時代的火花,並催生了 Silicon Valley。Hedy Lamarr 重新構想了通訊方式,為無線連接鋪平了道路。
IBM 的 System 360 將通用電腦置於工業的核心。Intel 的微處理器推動了數位時代的進程,而 Cray 超級電腦則擴展了科學的疆界。我們認為,憑藉這項技術,我們正處於某個新事物的開端,我們將盡我們所能地快速前進。Apple 讓運算變得個人化。你好,我是 Macintosh。
Microsoft 為軟體世界開啟了一扇新的窗戶。早在網路出現之前,您就收到了郵件。美國政府的研究人員建立了 Arpanet,連接了第一批電腦,奠定了網際網路的基礎。一台 iPod,一支手機。你明白了嗎?接著又是 Apple,將千首歌放進你的口袋,將網際網路放進你的手中。每個時代都是一次飛躍。
我們選擇在這個十年內登陸月球並完成其他事情,不是因為它們容易,而是因為它們困難。每一次飛躍,美國都引領著科學,為全人類引領。現在,下一個時代已經來臨,由一個革命性的新運算模型所啟動。這很可能將是我們對電腦產業做出的最重要的貢獻。它很可能會被認為是一場革命。
機器學習是人工智慧的一個分支。電腦幾乎看起來像在思考,而計算資源的數量最終將是推動這個領域發展的動力。人工智慧,新的工業革命。其核心是在美國發明的 Nvidia GPU。
2.
我們發明這個運算模型,是因為我們想解決通用電腦,也就是普通電腦無法解決的問題。我們也觀察到,有朝一日電晶體的數量會繼續增長,但電晶體的性能和功耗會減慢,摩爾定律將因物理定律的限制而無法持續。那個時刻現在已經到來,所謂的 Dennard Scaling 大約在十年前已經停止。事實上,電晶體的性能及其相關功耗已大幅減緩,然而電晶體的數量仍在繼續增加。我們很久以前就觀察到這一點,三十年來,我們一直在推進這種我們稱之為加速運算的運算形式。我們發明了 GPU。我們發明了名為 CUDA 的程式設計模型。

我們觀察到,如果我們能增加一個能利用越來越多電晶體的處理器,應用平行運算,並將其加入到循序處理的 CPU 中,我們就能將運算能力擴展到遠超以往的程度。那個時刻真的來臨了。我們現在已經看到了那個轉折點。加速運算,它的時刻已經到來。
然而,加速運算是一種根本不同的程式設計模型。你不能直接將手寫的、循序執行的 CPU 軟體放到 GPU 上,並期望它能正常運行。事實上,如果你只是這麼做,它的運行速度反而會變慢。所以,你必須重新發明新的演算法。
你必須創建新的函式庫。事實上,你必須重寫應用程式,這也是為什麼花了這麼長時間的原因。我們花了將近三十年的時間才走到這一步。但我們一次一個領域地完成了它。這就是我們公司的寶藏。大多數人只談論 GPU。GPU 很重要,但如果沒有一個位於其上的程式設計模型,沒有對該程式設計模型的堅持,並在各代之間保持其相容性,我們現在 CUDA 13 即將推出 CUDA 14,數億個 GPU 在每一台電腦中運行,完全相容。如果我們不這麼做,開發者就不會以這個運算平台為目標。如果我們不創建這些函式庫,開發者就不知道如何充分利用演算法和架構。一個又一個的應用程式。我的意思是,這些才是我們公司真正的寶藏。CuLitho,計算光刻。
3.
我們公司 350 個不同函式庫。每一個函式庫都為加速運算重新設計了必要的演算法。每一個函式庫都讓所有生態系統合作夥伴能夠利用加速運算。每一個函式庫都為我們開闢了新的市場。

4.
全世界有數百萬個基地台。如果我們能合作,我們就能在這個基於加速運算和 AI 的全新技術之上進行建設,並讓美國成為下一場 6G 革命的中心。所以今天,我們宣布 Nvidia 有一條新的產品線。它被稱為 NVIDIA ARC,即 Aerial Radio Network Computer。
ARC 由三項基本新技術構成。Grace CPU、Blackwell GPU,以及我們為此應用設計的 Mellanox ConnectX 網路。所有這些使得我們能夠運行我之前提到的、名為 Aerial 的 CUDA X 函式庫。
Aerial 本質上是一個運行在 CUDA X 之上的無線通訊系統。我們將首次創建一個軟體定義的可程式化電腦,能夠同時進行無線通訊和 AI 處理。這完全是革命性的。
我們稱之為 Nvidia ARC,Nokia 將與我們合作整合我們的技術,重寫他們的技術堆疊。這家公司擁有 7,000 項基本的 5G 專利。很難想像在電信領域有比這更偉大的領導者了。所以,我們將與 Nokia 合作。他們將把 Nvidia ARC 作為他們未來的基地台。
5.
讓我們來談談量子運算。1981 年,粒子物理學家、量子物理學家 Richard Feynman 構想了一種新型電腦,可以直接模擬自然,因為自然是量子的。他稱之為量子電腦。四十年後,這個行業取得了根本性的突破。四十年後,就在去年,一個根本性的突破。
現在,製造一個邏輯量子位元(logical qubit)成為可能。一個邏輯量子位元。一個連貫、穩定且經過錯誤校正的邏輯量子位元。現在,那一個邏輯量子位元可能由數十個,有時是數百個物理量子位元(physical qubits)共同工作組成。如您所知,量子位元,這些粒子非常脆弱。
它們很容易變得不穩定。任何對它的觀察、取樣,或任何環境條件都會導致它變得不連貫。因此,這需要極其嚴格控制的環境,現在還需要大量不同的物理量子位元共同工作,以便我們對這些所謂的輔助或伴隨量子位元進行錯誤校正,並推斷出那個邏輯量子位元的狀態。
有各種不同類型的量子電腦。超導、光子、離子阱、穩定原子,各種創造量子電腦的方式。我們現在意識到,將量子電腦直接連接到 GPU 超級電腦是至關重要的,這樣我們才能進行錯誤校正,才能進行人工智慧校準和控制量子電腦,也才能共同進行模擬。在 GPU 上運行正確的演算法,在 QPU(量子處理單元)上運行正確的演算法,兩個處理器、兩台電腦並肩工作。這就是量子運算的未來。
測量會干擾一個量子位元,從而摧毀其內部的資訊。訣竅是增加額外的量子位元,使它們糾纏在一起,這樣測量它們就能給我們足夠的資訊來計算錯誤發生的位置,而不會損壞我們關心的量子位元。這非常巧妙,但需要超越現今最先進的傳統運算能力。
這就是我們打造 NVQLink 的原因,這是一個新的互連架構,能將量子處理器與 NVIDIA GPU 直接連接。量子錯誤校正需要從量子位元讀取資訊,計算錯誤發生的位置,並將資料傳回以進行校正。NVQLink 能夠每秒數千次地在量子硬體之間移動數 TB 的資料,以滿足量子錯誤校正的需求。
其核心是 CUDAQ,我們為量子 GPU 運算設計的開放平台。使用 NVQLink 和 CUDAQ,研究人員不僅能進行錯誤校正,還能協調量子設備和 AI 超級電腦來運行量子 GPU 應用。量子運算不會取代傳統系統。

6.
今天,我們宣布能源部(Department of Energy)正與 NVIDIA 合作,建造七台新的 AI 超級電腦,以推進我們國家的科學發展。我必須向部長 Chris Wright 致敬。

7.
什麼是 AI?
我將用幾種不同的方式來描述 AI。第一種方式,你對 AI 的第一種看法是,它完全重塑了運算堆疊。我們過去做軟體的方式是手動編碼。
如今的 AI 是機器學習,如果你願意可以稱之為數據密集型程式設計,由 AI 訓練和學習,並在 GPU 上運行。為了實現這一點,整個運算堆疊都改變了。注意,你在这里看不到 Windows。你看不到 CPU。
你看到的是一個完全不同,一個根本上不同的堆疊。從能源需求開始,這也是我們政府,Trump 總統值得巨大讚揚的另一個領域,他的支持能源倡議,他認識到這個行業需要能源來成長。它需要能源來進步,我們需要能源來取勝。他對此的認識,並將國家的力量投入到支持能源增長中,完全改變了遊戲規則。
在能源之上是這些 GPU。這些 GPU 被連接並建構成我稍後會向您展示的基礎設施。
在這個由巨大的資料中心組成的基礎設施之上,其規模輕易就能達到這個房間的好幾倍,消耗大量的能源,然後透過這種名為 GPU 超級電腦的新機器將能源轉化為數字。這些數字被稱為 token(權杖)。你可以把它想像成是人工智慧的語言、計算單位、詞彙。
你幾乎可以將任何東西 token 化。
一旦你能將其 token 化,AI 就能學習那種語言及其意義。一旦它學會了那種語言的意義,它就能翻譯。
所有這些概念基本上是相同的,這就是為什麼 AI 正在取得如此非凡進步的原因。在這些模型之上是應用程式,也就是 transformer。Transformer 不是一個通用模型。它是一個非常有效的模型。但沒有一個通用的模型。
只是 AI 具有普遍的影響力。有許多不同類型的模型。在過去幾年裡,我們享受了多模態的發明並經歷了創新突破。有許多不同類型的模型。
有 CNN 模型、競爭神經網路模型、狀態空間模型、圖神經網路模型、多模態模型,當然,還有我剛才描述的所有不同類型的 token 化和 token 方法。你可以有空間模型,它為空間感知進行了優化。
AI 不是一個工具。
AI 是工作。這是根本的區別。AI 事實上是能夠實際使用工具的工作者。我感到非常興奮的一件事是 Irvin 在 Perplexity 所做的工作。Perplexity 使用網路瀏覽器來預訂假期或購物。基本上是一個使用工具的 AI。
Cursor 是我們在 NVIDIA 使用的一個 AI 代理系統。
有史以來第一次,科技現在能夠完成工作,幫助我們提高生產力。機會清單不斷增加,這就是為什麼 AI 能夠觸及它從未觸及過的經濟領域。它是在一個價值一百兆美元的全球經濟體的工具之下,價值數兆美元的領域。

8.
AI 首次將參與到那個價值一百兆美元的經濟中,使其更具生產力,使其增長更快,使其規模更大。我們面臨嚴重的勞動力短缺。擁有能增強勞動力的 AI 將幫助我們成長。
如果你看看過去的晶片產業,晶片產業大約佔一個數兆美元 IT 產業的 5% 到 10%,甚至更少,大約 5%。
原因在於,使用 Excel 不需要那麼多計算。使用瀏覽器不需要那麼多計算。使用 Word 不需要那麼多計算。我們自己進行計算。但在這個新世界裡,需要有一台電腦能始終理解上下文。它無法預先計算,因為每次你用電腦進行 AI 操作,每次你要求 AI 做某件事,上下文都不同。所以,它必須處理所有這些資訊。
每一個步驟都需要生成大量的 token,這就是為什麼我們需要一種新型系統,我稱之為 AI 工廠。簡而言之,它是一個 AI 工廠。它與過去的資料中心不同。它是一個 AI 工廠,因為這個工廠只生產一種東西,不像過去的資料中心做所有的事情。為我們所有人儲存文件,運行各種不同的應用程式。
9.
幾個月前,AI進入了渦輪增壓模式
原因有幾個。
首先,在過去幾年裡,我們已經想出了如何讓 AI 變得更聰明,而不僅僅是預訓練。預訓練基本上是說,讓我們把人類有史以來創造的所有資訊都拿來。讓我們把它交給 AI 來學習。這本質上是記憶和泛化。
接下來是後訓練。預訓練之後的後訓練是教你技能。解決問題的技能、分解問題、推理、如何解決數學問題、如何編碼、如何逐步思考這些問題、使用第一性原理推理。然後,在那之後,才是運算真正發揮作用的地方。
思考才是智慧的真正所在。所以現在我們有三項基本的技術技能。
預訓練,仍然需要巨大無比的計算量。我們現在有後訓練,使用更多的計算量。而現在的思考,給基礎設施帶來了難以置信的計算負載,因為它在為每一個人類代為思考。
這就是為什麼這三個尺度,這三個新的擴展定律,全部全速運轉,給計算量帶來了如此大的壓力。現在,從這三個擴展定律中還發生了另一件事。我們得到了更聰明的模型,而這些更聰明的模型需要更多的計算。
但當你得到更聰明的模型時,你得到更多的智慧。人們就會使用它。
10.
我們現在有兩個指數級增長。這兩個指數級增長,一個是三個擴展定律所帶來的指數級計算需求。而第二個指數級增長是,它越聰明,使用它的人就越多,使用它的人越多,它需要的計算能力就越多。
兩個指數級增長現在正對全球的計算資源施加壓力,而這正是我之前告訴你們的,摩爾定律基本上已經結束的時候。所以問題是我們該怎麼辦?如果我們有這兩個指數級增長的需求,而我們又找不到降低成本的方法,那麼這個正回饋系統,這個循環回饋系統,基本上被稱為良性循環,對於幾乎任何行業都是至關重要的,對於任何平台行業都是至關重要的。它對 Nvidia 至關重要。我們現在已經達到了 CUDA 的良性循環。
應用程式越多,人們創造的應用程式越多,CUDA 就越有價值。CUDA 越有價值,購買的 CUDA 電腦就越多。購買的 CUDA 電腦越多,就越多的開發者想為它創造應用程式。Nvidia 的這個良性循環在 30 年後終於實現了。我們也實現了這一點。
AI 現在已經達到了良性循環,所以你用得越多,因為 AI 很聰明,我們為它付費,產生的利潤就越多,產生的利潤越多,投入到電網的計算能力就越多,投入到 AI 工廠的計算能力就越多,計算能力越多,AI 就變得越聰明,越聰明,使用它的人就越多,應用程式使用它就越多,我們能解決的問題就越多,這個良性循環現在正在運轉。

11.
這個巨大的數兆美元的 AI 模型擁有所有這些不同的專家,我們把所有這些不同的專家都放在一個 GPU 上。現在,這是 NVLink 72。我們可以把所有的晶片都放進一個巨大的結構中,每一個專家都可以互相交談。所以主專家可以與所有的工作、所有必要的上下文和提示以及我們必須發送給所有專家的大量數據,也就是大量的 token 進行交談。
被選中解決答案的專家會去嘗試回應,然後它會一層又一層地去做。有時是八層,有時是十六層,有時這些專家,有時是六十四個,有時是二百五十六個。
如果你看一下可以實際進行基準測試的 GPU 列表,大概有 90% 是 Nvidia。好的。所以我們是在和自己比較,但世界上第二好的 GPU 是 H200,它能運行所有的工作負載。Grace Blackwell 每個 GPU 的性能是它的 10 倍。現在,當電晶體數量只有兩倍時,你如何獲得 10 倍的性能?嗯,答案是極致的共同設計。
通過理解未來 AI 模型的本質,並且我們在整個堆疊中進行思考,我們可以為未來創造架構。這是一件大事。它意味著我們現在可以更快地做出回應。但這件事更重大。下一件,看這個。這表明世界上成本最低的 token 是由 Grace Blackwell Envy Link72 生成的。最昂貴的電腦。
一方面,GB200 是最昂貴的電腦。另一方面,它的 token 生成能力非常強大,以至於它以最低的成本生產,因為每秒的 token 數除以 Grace Blackwell 的總擁有成本非常出色。它是生成 token 成本最低的方式。
通過這樣做,提供令人難以置信的性能,10 倍的性能,提供 10 倍低的成本,那個良性循環可以繼續下去。這就引出了這一點。我昨天才看到這個。這是 CSP 的資本支出。最近人們在問我關於資本支出的問題,這是一個很好的觀察方式。


12.
事實上,前六大 CSP 的資本支出,這一個,這一個是 Amazon、Core Weave、Google、Meta、Microsoft 和 Oracle。好的,這些 CSP 加起來將投資這麼多的資本支出。我會告訴你,時機再好不過了。原因在於,現在我們有了 Grace Blackwell NVLink72,它已經全面量產,全球各地的供應鏈都在製造它。

13.
由於我剛才提到的所有原因,我們的 Grace Blackwell 業務正在經歷非凡的增長。
它由兩個指數級增長驅動。我們現在有了能見度。我認為我們可能是歷史上第一家對到 2026 年累計達五千億美元的 Blackwell 和 Rubin 早期爬坡有能見度的科技公司。如你所知,2025 年還沒結束,2026 年也還沒開始。這就是帳面上的業務量。
到目前為止,價值半兆美元。在這之中,我們已經在最初幾個季度出貨了 600 萬顆 Blackwell。我想是生產的前四個季度,三個半季度。我們 2025 年還有一個季度。然後我們有四個季度。所以接下來的五個季度,有 5 億美元,5000 億美元,半兆美元。

14.
NVLink 是 NVIDIA 發明的突破性高速鏈路,用於連接多個 GPU 並擴展成一個巨大的虛擬 GPU。NVLink 交換機托盤由 NVLink 交換機晶片構成,提供 14.4 terabytes/秒的全對全頻寬。NVLink 骨幹形成一個客製化的盲插背板,用 5000 條銅纜連接所有 72 個 Blackwell 或 144 個 GPU 晶粒,形成一個巨大的 GPU,提供 130 terabytes/秒的全對全頻寬。這幾乎是全球網際網路的峰值流量。
15.
在我們出貨 GB300 的同時,我們正在準備讓 Rubin 投入生產。你知道,明年的這個時候,可能稍早一點。所以,每一年,我們都會推出最極致的共同設計系統,以便我們能持續提升性能,並持續降低 token 生成成本。
16.
一個 gigawatt 的資料中心會有,你知道,稱之為,讓我想想,16 個機櫃會是五百個那樣的機櫃。
所以,500 乘以 16,大約是8000 個這樣的機櫃,就是一個一 GW 的資料中心。
這就是未來的 AI 工廠。現在我們用,如您所見,Nvidia 從設計晶片開始,然後我們開始設計系統,我們設計了 AI 超級電腦。現在我們正在設計整個 AI 工廠。

17.
開源模型
美國也必須在開源領域領先。我們有驚人的專有模型。我們有驚人的專有模型。我們也需要驚人的開源模型。我們的國家依賴它。我們的新創公司依賴它。所以 Nvidia 致力於去做這件事。我們現在是最大的,我們在開源貢獻方面領先。
我們在排行榜上有 23 個模型。我們有所有這些不同的領域,從語言模型到實體 AI 模型。我將談論機器人模型到生物學模型。每一個模型都有巨大的團隊,這也是我們為自己建造超級電腦以使所有這些模型得以創建的原因之一。
我們有第一名的語音模型、第一名的推理模型、第一名的實體 AI 模型。下載次數真的非常非常驚人。我們致力於此,原因在於科學需要它、研究人員需要它、新創公司需要它,而且公司也需要它。我很高興 AI 新創公司在 Nvidia 的基礎上進行建設。他們這麼做有幾個原因。一,當然,我們的生態系統很豐富。
我們的工具很好用。我們所有的工具都適用於我們所有的 GPU。我們的 GPU 無處不在。它幾乎在每一個雲端裡。它可以在本地部署。你可以自己建造。你可以,你知道,組裝一台有多個 GPU 的發燒友遊戲 PC,然後你可以下載我們的軟體堆疊,它就能正常運作。

18.
實體 AI
實體 AI 需要三台電腦。就像訓練一個語言模型需要兩台電腦一樣。
一台用來訓練、評估,然後進行推理。好的,那就是你看到的大型 GB200。為了對實體 AI 進行同樣的操作,你需要三台電腦。你需要一台電腦來訓練它。這就是 Grace Blackwell NVLink72。我們需要一台電腦來進行我之前用 Omniverse DSX 向你展示的所有模擬。
它基本上是機器人學習如何成為一個好機器人的數位孿生,也是工廠的數位孿生。那台電腦是第二台電腦,也就是 Omniverse 電腦。這台電腦必須在生成式 AI 方面非常出色,也必須在電腦圖形、感測器模擬、光線追蹤、信號處理方面表現優異,這台電腦被稱為 Omniverse 電腦。
19.
這一切的核心是兩個或兩個平台轉型,從通用運算到加速運算。
Nvidia CUDA 和那套名為 CUDA X 的函式庫使我們能夠應對幾乎所有行業,我們正處於轉折點。
它現在正像一個良性循環所預示的那樣增長。
第二個轉折點現在就在我們面前。
第二個平台轉型,AI,從傳統的手寫軟體到人工智慧。
逐字稿
美國,這片創新的土地,發明塑造了命運,科技幫助夢想高飛。在 Bell Labs,電晶體的誕生,點燃了半導體時代的火花,並催生了 Silicon Valley。Hedy Lamarr 重新構想了通訊方式,為無線連接鋪平了道路。
IBM 的 System 360 將通用電腦置於工業的核心。Intel 的微處理器推動了數位時代的進程,而 Cray 超級電腦則擴展了科學的疆界。我們認為,憑藉這項技術,我們正處於某個新事物的開端,我們將盡我們所能地快速前進。Apple 讓運算變得個人化。你好,我是 Macintosh。
Microsoft 為軟體世界開啟了一扇新的窗戶。早在網路出現之前,您就收到了郵件。美國政府的研究人員建立了 Arpanet,連接了第一批電腦,奠定了網際網路的基礎。一台 iPod,一支手機。你明白了嗎?接著又是 Apple,將千首歌放進你的口袋,將網際網路放進你的手中。每個時代都是一次飛躍。
我們選擇在這個十年內登陸月球並完成其他事情,不是因為它們容易,而是因為它們困難。每一次飛躍,美國都引領著科學,為全人類引領。現在,下一個時代已經來臨,由一個革命性的新運算模型所啟動。這很可能將是我們對電腦產業做出的最重要的貢獻。它很可能會被認為是一場革命。
機器學習是人工智慧的一個分支。電腦幾乎看起來像在思考,而計算資源的數量最終將是推動這個領域發展的動力。人工智慧,新的工業革命。其核心是在美國發明的 Nvidia GPU。
就像電力和網際網路一樣,AI 是必要的基礎設施。每家公司都會使用它。每個國家都會建立它。贏得這場競賽將是對我們能力的一次考驗,其嚴峻程度自太空時代黎明以來前所未見。如今,AI 工廠正在崛起。在美國為各地大學、新創公司和產業界的科學家、工程師和夢想家而建。
我認為我們希望作為一個文明達到新的高度,探索宇宙的本質。現在,美國的創新者們正在為豐饒開闢道路,拯救生命,將願景變為現實,向我們伸出援手,並交付未來。我們很快將用無限的清潔能源為這一切提供動力。我們將把人類的足跡延伸到星辰。這是美國的下一個阿波羅時刻。
我們將共同邁出下一個偉大的飛躍,勇敢地前往前人未至之境。而這一切都從這裡開始。歡迎 Nvidia 創辦人暨執行長 Jensen Huang 登台。華盛頓特區。華盛頓特區。歡迎來到 GTC。很難不對美國感到感性和驕傲。我必須這麼說。
那個影片很棒吧?謝謝。Nvidia 的創意團隊做得非常出色。歡迎來到 GTC。今天我們有很多內容要與大家分享。GTC 是我們討論工業、科學、運算、現在與未來的地方。所以,今天我有很多東西要和大家談,但在開始之前,我要感謝所有幫助贊助這次盛會的合作夥伴。你們會在會場各處看到他們。
他們來這裡是為了與您會面,真的非常棒。沒有我們所有的生態系統合作夥伴,我們無法做到我們所做的一切。有人說這是 AI 的超級盃。因此,每一屆超級盃都應該有一場精彩的賽前秀。大家覺得賽前秀和我們的全明星運動員及全明星陣容如何?看看這些人。
不知怎地,我變成了最壯的那個。大家覺得呢?我不知道這是否和我有關。Nvidia 發明了一種新的運算模型,這是六十年來的第一次。正如您在影片中所見,一個新的運算模型很少出現。它需要大量的時間和一系列條件。
加速運算的時代來臨
我們發明這個運算模型,是因為我們想解決通用電腦,也就是普通電腦無法解決的問題。我們也觀察到,有朝一日電晶體的數量會繼續增長,但電晶體的性能和功耗會減慢,摩爾定律將因物理定律的限制而無法持續。那個時刻現在已經到來,所謂的 Dennard Scaling 大約在十年前已經停止。事實上,電晶體的性能及其相關功耗已大幅減緩,然而電晶體的數量仍在繼續增加。我們很久以前就觀察到這一點,三十年來,我們一直在推進這種我們稱之為加速運算的運算形式。我們發明了 GPU。我們發明了名為 CUDA 的程式設計模型。
我們觀察到,如果我們能增加一個能利用越來越多電晶體的處理器,應用平行運算,並將其加入到循序處理的 CPU 中,我們就能將運算能力擴展到遠超以往的程度。那個時刻真的來臨了。我們現在已經看到了那個轉折點。加速運算,它的時刻已經到來。
然而,加速運算是一種根本不同的程式設計模型。你不能直接將手寫的、循序執行的 CPU 軟體放到 GPU 上,並期望它能正常運行。事實上,如果你只是這麼做,它的運行速度反而會變慢。所以,你必須重新發明新的演算法。
你必須創建新的函式庫。事實上,你必須重寫應用程式,這也是為什麼花了這麼長時間的原因。我們花了將近三十年的時間才走到這一步。但我們一次一個領域地完成了它。這就是我們公司的寶藏。大多數人只談論 GPU。GPU 很重要,但如果沒有一個位於其上的程式設計模型,沒有對該程式設計模型的堅持,並在各代之間保持其相容性,我們現在 CUDA 13 即將推出 CUDA 14,數億個 GPU 在每一台電腦中運行,完全相容。如果我們不這麼做,開發者就不會以這個運算平台為目標。如果我們不創建這些函式庫,開發者就不知道如何充分利用演算法和架構。一個又一個的應用程式。我的意思是,這些才是我們公司真正的寶藏。CuLitho,計算光刻。
我們花了將近七年的時間才完成 CuLitho,現在 TSMC、Samsung 和 ASML 都在使用它。這是一個用於計算光刻的絕佳函式庫,是製造晶片的第一步。用於 CAE 應用的稀疏求解器。Co-op,一個數值優化工具,幾乎打破了所有紀錄。旅行推銷員問題。如何在供應鏈中將數百萬種產品與數百萬名顧客連接起來。Warp Python,用於 CUDA 模擬的求解器。QDF,一種 DataFrame 方法,基本上是加速 SQL DataFrame 資料庫。這個函式庫是 AI 的開端,它之上的函式庫叫做 Megatron Core,使我們能夠模擬和訓練極其龐大的語言模型。這樣的例子不勝枚舉。
Monai,非常重要,是全球第一的醫學影像 AI 框架。順帶一提,我們今天不會多談醫療保健,但請務必觀看 Kimberly 的主題演講。她將會詳細介紹我們在醫療保健領域所做的工作。還有基因組學處理,Ariel,請注意。我們今天要在這裡做一件非常重要的事情。還有 CuQuantum,量子運算。
這只是我們公司 350 個不同函式庫中的一部分代表。每一個函式庫都為加速運算重新設計了必要的演算法。每一個函式庫都讓所有生態系統合作夥伴能夠利用加速運算。每一個函式庫都為我們開闢了新的市場。
讓我們來看看 CUDA X 能做什麼。準備好,開始。
那很驚人吧?你所看到的一切都是模擬。沒有美術,沒有動畫。這就是數學之美。這是深度的電腦科學,深度的數學。它的美麗令人難以置信。涵蓋了從醫療保健和生命科學到製造、機器人、自動駕駛汽車、電腦圖形甚至電子遊戲的每一個行業。
你看到的第一個鏡頭是 Nvidia 運行的第一個應用程式。那是我們 1993 年開始的地方。我們一直相信我們正在努力做的事情。很難想像你能看到第一個《VR 快打》的場景活過來。而同一家公司相信我們今天會在這裡。
這真是一段不可思議的旅程。我要感謝所有 NVIDIA 員工所做的一切。真的太棒了。我們今天有很多行業要涵蓋。我將涵蓋 AI、6G、量子模型、企業運算、機器人和工廠。讓我們開始吧。
重塑 6G 通訊未來
我們有很多內容要涵蓋,有很多重大的宣布,還有很多會讓你非常驚訝的新合作夥伴。電信是我們經濟、產業和國家安全的骨幹與命脈。然而,自從無線技術開始以來,我們定義了技術,定義了全球標準。
我們將美國技術出口到世界各地,讓世界可以在美國的技術和標準之上進行建設。距離那樣的情況已經過了很長一段時間。今天世界各地的無線技術,主要部署在國外技術之上。我們基本的通訊結構建立在國外技術之上。這種情況必須停止,我們有機會做到這一點,尤其是在這個根本性的平台轉移期間。
如您所知,電腦技術是幾乎所有行業的基礎。它是科學最重要的工具。它是工業最重要的工具。而我剛才說,我們正在經歷一個平台轉移。
那個平台轉移應該是我們千載難逢的機會,讓我們重返賽場,讓我們開始用美國的技術進行創新。今天,我們宣布我們將要這麼做。我們與 Nokia 建立了重要的合作夥伴關係。Nokia 是全球第二大電信設備製造商。這是一個價值三兆美元的產業。基礎設施價值數千億美元。
全世界有數百萬個基地台。如果我們能合作,我們就能在這個基於加速運算和 AI 的全新技術之上進行建設,並讓美國成為下一場 6G 革命的中心。所以今天,我們宣布 Nvidia 有一條新的產品線。它被稱為 NVIDIA ARC,即 Aerial Radio Network Computer。
ARC 由三項基本新技術構成。Grace CPU、Blackwell GPU,以及我們為此應用設計的 Mellanox ConnectX 網路。所有這些使得我們能夠運行我之前提到的、名為 Aerial 的 CUDA X 函式庫。
Aerial 本質上是一個運行在 CUDA X 之上的無線通訊系統。我們將首次創建一個軟體定義的可程式化電腦,能夠同時進行無線通訊和 AI 處理。這完全是革命性的。
我們稱之為 Nvidia ARC,Nokia 將與我們合作整合我們的技術,重寫他們的技術堆疊。這家公司擁有 7,000 項基本的 5G 專利。很難想像在電信領域有比這更偉大的領導者了。所以,我們將與 Nokia 合作。他們將把 Nvidia ARC 作為他們未來的基地台。
Nvidia ARC 也與 Nokia 現有的基地台 Airscale 相容。這意味著我們將採用這項新技術,並能夠用 6G 和 AI 升級全球數百萬個基地台。現在,6G 和 AI 在某種意義上是相當根本的,因為我們將首次能夠使用 AI 技術,也就是 AI for RAN,來讓無線電通訊在頻譜效率上更高,利用人工智慧、強化學習,根據周遭環境、流量、移動性和天氣等因素,即時調整波束成形。所有這些都可以被納入考量,以便我們提高頻譜效率。頻譜效率消耗了全球約 1.5% 至 2% 的電力。因此,提高頻譜效率不僅能增加我們在無線網路中傳輸的數據量,而無需增加必要的能源。
另一件我們能做的是 AI on RAN。這是一個全新的機會。記住,網際網路促成了通訊,但像 AWS 這樣聰明的公司在網際網路上建立了一個雲端運算系統。我們現在也將在無線電信網路上做同樣的事情。
這個新的雲端將是一個邊緣工業機器人雲。這就是 AI on RAN 的用武之地,前者是 AI for RAN,用來提高無線電頻譜效率。後者則是 AI on RAN,基本上是無線電信的雲端運算。雲端運算將能直接延伸到邊緣,那些沒有資料中心的地方,因為我們的基地台遍布全球。這個宣布真的令人興奮。
CEO Justin Hotard,我想他應該在場的某個地方。感謝您的合作夥伴關係。感謝您幫助美國將電信技術帶回美國。這真是一個非常、非常棒的合作。非常感謝。這是慶祝 Nokia 的最佳方式。
量子運算的新紀元
讓我們來談談量子運算。1981 年,粒子物理學家、量子物理學家 Richard Feynman 構想了一種新型電腦,可以直接模擬自然,因為自然是量子的。他稱之為量子電腦。四十年後,這個行業取得了根本性的突破。四十年後,就在去年,一個根本性的突破。
現在,製造一個邏輯量子位元(logical qubit)成為可能。一個邏輯量子位元。一個連貫、穩定且經過錯誤校正的邏輯量子位元。現在,那一個邏輯量子位元可能由數十個,有時是數百個物理量子位元(physical qubits)共同工作組成。如您所知,量子位元,這些粒子非常脆弱。
它們很容易變得不穩定。任何對它的觀察、取樣,或任何環境條件都會導致它變得不連貫。因此,這需要極其嚴格控制的環境,現在還需要大量不同的物理量子位元共同工作,以便我們對這些所謂的輔助或伴隨量子位元進行錯誤校正,並推斷出那個邏輯量子位元的狀態。
有各種不同類型的量子電腦。超導、光子、離子阱、穩定原子,各種創造量子電腦的方式。我們現在意識到,將量子電腦直接連接到 GPU 超級電腦是至關重要的,這樣我們才能進行錯誤校正,才能進行人工智慧校準和控制量子電腦,也才能共同進行模擬。在 GPU 上運行正確的演算法,在 QPU(量子處理單元)上運行正確的演算法,兩個處理器、兩台電腦並肩工作。這就是量子運算的未來。讓我們來看看。
有許多方法可以建造量子電腦。每一種都使用量子位元(qubit)作為其核心建構單元。
但無論方法為何,所有的量子位元,無論是超導量子位元、離子阱、中性原子或光子,都面臨相同的挑戰。它們很脆弱,對噪音極為敏感。今日的量子位元僅能在數百次操作中保持穩定。但要解決有意義的問題,需要數以兆計的操作。答案是量子錯誤校正。
測量會干擾一個量子位元,從而摧毀其內部的資訊。訣竅是增加額外的量子位元,使它們糾纏在一起,這樣測量它們就能給我們足夠的資訊來計算錯誤發生的位置,而不會損壞我們關心的量子位元。這非常巧妙,但需要超越現今最先進的傳統運算能力。
這就是我們打造 NVQLink 的原因,這是一個新的互連架構,能將量子處理器與 NVIDIA GPU 直接連接。量子錯誤校正需要從量子位元讀取資訊,計算錯誤發生的位置,並將資料傳回以進行校正。NVQLink 能夠每秒數千次地在量子硬體之間移動數 TB 的資料,以滿足量子錯誤校正的需求。
其核心是 CUDAQ,我們為量子 GPU 運算設計的開放平台。使用 NVQLink 和 CUDAQ,研究人員不僅能進行錯誤校正,還能協調量子設備和 AI 超級電腦來運行量子 GPU 應用。量子運算不會取代傳統系統。
它們將協同工作,融合成一個加速的量子超級運算平台。哇,這個舞台真的很長。你知道,CEO 們不只是坐在辦公桌前打字。這是一份體力活。
所以,今天我們宣布推出 NVQLink。NVQLink 的實現得益於兩件事。當然,這個互連技術可以進行量子電腦控制和校準、量子錯誤校正,以及連接兩台電腦——QPU 和我們的 GPU 超級電腦——來進行混合模擬。
它也完全可擴展。它不僅僅為現今少數量子位元進行錯誤校正,它還為未來進行錯誤校正,未來我們將把這些量子電腦從現今的數百個量子位元擴展到數萬、數十萬個量子位元。
所以我們現在有了一個可以進行控制、協同模擬、量子錯誤校正並能擴展至未來的架構。業界的支持令人難以置信,在 CUDA Q 的發明之間。記住,CUDA 是為 GPU-CPU 加速運算而設計的。
基本上是利用兩個處理器,用對的工具做對的事。現在 CUDA Q 已擴展至 CUDA 之外,以便我們能支援 QPU,讓 QPU 和 GPU 這兩個處理器協同工作,並讓計算在短短幾微秒內來回移動。這是與量子電腦合作所需的關鍵延遲。所以現在 CUDAQ 是一個如此驚人的突破,被這麼多不同的開發者採用。
我們今天宣布,有 17 家不同的量子電腦產業公司支持 MVQLink,我對此感到非常興奮,還有 8 個不同的 DOE 實驗室,Berkeley、Brookhaven、芝加哥的 Fermi Labs、Lincoln Laboratory、Los Alamos、Oak Ridge、Pacific Northwest、San Diego、Lancho Lab,幾乎每一個 DOE 實驗室都與我們合作,與我們的量子電腦公司生態系統及這些量子控制器合作,以便我們能將量子運算整合到科學的未來中。
我還有一個額外的宣布。今天,我們宣布能源部(Department of Energy)正與 NVIDIA 合作,建造七台新的 AI 超級電腦,以推進我們國家的科學發展。我必須向部長 Chris Wright 致敬。
他為 DOE 帶來了巨大的能量,一股能量的湧動,一股確保美國再次引領科學的熱情。正如我所提到的,運算是科學的基礎工具,而我們正在經歷幾個平台轉變。一方面,我們正走向加速運算。這就是為什麼未來的每一台超級電腦都將是基於 GPU 的超級電腦。我們正走向 AI。
因此,AI 和基於原理的求解器、基於原理的模擬,基於原理的物理模擬不會消失,但它可以被增強、擴展,使用代理模型、AI 模型協同工作。我們也知道,基於原理的求解器,也就是傳統運算,可以透過使用量子運算來增強對自然狀態的理解。
我們也知道,未來我們有如此多的信號,如此多的數據需要從世界中取樣。遙感比以往任何時候都更重要。而這些實驗室,除非它們是機器人工廠、機器人實驗室,否則不可能以我們需要的規模和速度進行實驗。所以所有這些不同的技術正同時進入科學領域。
Wright 部長理解這一點,他希望 DOE 抓住這個機會,為自己注入強大動力,確保美國保持在科學的最前沿。我要為此感謝大家。謝謝。
AI:不僅是聊天機器人,更是新的運算堆疊
讓我們來談談 AI。什麼是 AI?大多數人會說 AI 是一個聊天機器人,這也理所當然。
毫無疑問,ChatGPT 處於人們認為的 AI 的最前沿。然而,正如你現在所見,這些科學超級電腦不會去運行聊天機器人。它們將進行基礎科學研究。科學、AI、AI 的世界遠不止於聊天機器人。當然,聊天機器人極其重要,而 AGI(通用人工智慧)也至關重要。
深度的電腦科學、驚人的運算能力、偉大的突破對於 AGI 仍然是必不可少的。但除此之外,AI 的範疇要大得多。事實上,我將用幾種不同的方式來描述 AI。第一種方式,你對 AI 的第一種看法是,它完全重塑了運算堆疊。我們過去做軟體的方式是手動編碼。
手動編碼的軟體在 CPU 上運行。如今的 AI 是機器學習,如果你願意可以稱之為數據密集型程式設計,由 AI 訓練和學習,並在 GPU 上運行。為了實現這一點,整個運算堆疊都改變了。注意,你在这里看不到 Windows。你看不到 CPU。
你看到的是一個完全不同,一個根本上不同的堆疊。從能源需求開始,這也是我們政府,Trump 總統值得巨大讚揚的另一個領域,他的支持能源倡議,他認識到這個行業需要能源來成長。它需要能源來進步,我們需要能源來取勝。他對此的認識,並將國家的力量投入到支持能源增長中,完全改變了遊戲規則。
如果這沒有發生,我們可能會處於一個糟糕的境地。我要為此感謝 Trump 總統。在能源之上是這些 GPU。這些 GPU 被連接並建構成我稍後會向您展示的基礎設施。
在這個由巨大的資料中心組成的基礎設施之上,其規模輕易就能達到這個房間的好幾倍,消耗大量的能源,然後透過這種名為 GPU 超級電腦的新機器將能源轉化為數字。這些數字被稱為 token(權杖)。你可以把它想像成是人工智慧的語言、計算單位、詞彙。
你幾乎可以將任何東西 token 化。當然,你可以將英文單字 token 化。你可以將影像 token 化。這就是為什麼你能夠辨識影像或生成影像的原因,將影片 token 化,將 3D 結構 token 化。你可以將化學物質、蛋白質和基因 token 化。你可以將細胞 token 化,幾乎任何有結構、有資訊內容的東西都可以 token 化。
一旦你能將其 token 化,AI 就能學習那種語言及其意義。一旦它學會了那種語言的意義,它就能翻譯。它能回應,就像你與 ChatGPT 互動一樣,它也能生成,就像 ChatGPT 能生成一樣。所以,你看到 ChatGPT 所做的所有基本事情,你只需要想像一下,如果它是一個蛋白質,如果它是一個化學物質,如果它是一個像工廠一樣的 3D 結構,如果它是一個機器人,而 token 是理解行為並將動作和行為 token 化。所有這些概念基本上是相同的,這就是為什麼 AI 正在取得如此非凡進步的原因。在這些模型之上是應用程式,也就是 transformer。Transformer 不是一個通用模型。它是一個非常有效的模型。但沒有一個通用的模型。
只是 AI 具有普遍的影響力。有許多不同類型的模型。在過去幾年裡,我們享受了多模態的發明並經歷了創新突破。有許多不同類型的模型。
有 CNN 模型、競爭神經網路模型、狀態空間模型、圖神經網路模型、多模態模型,當然,還有我剛才描述的所有不同類型的 token 化和 token 方法。你可以有空間模型,它為空間感知進行了優化。
你可以有針對長序列優化的模型,能夠在很長一段時間內識別細微的資訊。模型類型非常多。在這些模型架構之上是應用程式,也就是過去的軟體。這是一個對人工智慧的深刻理解,一個深刻的觀察,即過去的軟體產業是關於創造工具的。Excel 是一個工具。
Word 是一個工具。網路瀏覽器是一個工具。我知道這些是工具的原因是,因為你使用它們。工具產業,就像螺絲起子和錘子一樣,其規模是有限的。就 IT 工具而言,它們可能是資料庫工具。這些 IT 工具的市場規模大約為一兆美元左右。但 AI 不是一個工具。
AI 是工作。這是根本的區別。AI 事實上是能夠實際使用工具的工作者。我感到非常興奮的一件事是 Irvin 在 Perplexity 所做的工作。Perplexity 使用網路瀏覽器來預訂假期或購物。基本上是一個使用工具的 AI。
Cursor 是我們在 NVIDIA 使用的一個 AI 代理系統。NVIDIA 的每一位軟體工程師都使用 Cursor。這極大地提高了我們的生產力。它基本上是我們每一位軟體工程師的合作夥伴,用來生成程式碼,而它使用的工具叫做 VS Code。所以 Cursor 是一個使用 VS Code 的 AI 代理系統。
那麼,所有這些不同的行業,無論是聊天機器人還是數位生物學,我們都有 AI 助理研究員,或者說,一輛自動駕駛計程車裡面是什麼?當然,它是看不見的,但顯然有一個 AI 司機。那個司機正在做功。而它用來做那項工作的工具就是汽車。所以,我們至今所製造的一切,整個世界,我們至今所製造的一切都是工具。
供我們使用的工具。有史以來第一次,科技現在能夠完成工作,幫助我們提高生產力。機會清單不斷增加,這就是為什麼 AI 能夠觸及它從未觸及過的經濟領域。它是在一個價值一百兆美元的全球經濟體的工具之下,價值數兆美元的領域。
現在,AI 首次將參與到那個價值一百兆美元的經濟中,使其更具生產力,使其增長更快,使其規模更大。我們面臨嚴重的勞動力短缺。擁有能增強勞動力的 AI 將幫助我們成長。現在,從科技產業的角度來看,有趣的是,除了 AI 是一種能觸及新經濟領域的新技術之外,AI 本身也是一個新產業,我之前解釋過的 token,在你將所有這些不同模態的資訊 token 化之後,
需要一個工廠來生產這些數字,這與過去的電腦產業和晶片產業不同。注意,如果你看看過去的晶片產業,晶片產業大約佔一個數兆美元 IT 產業的 5% 到 10%,甚至更少,大約 5%。
原因在於,使用 Excel 不需要那麼多計算。使用瀏覽器不需要那麼多計算。使用 Word 不需要那麼多計算。我們自己進行計算。但在這個新世界裡,需要有一台電腦能始終理解上下文。它無法預先計算,因為每次你用電腦進行 AI 操作,每次你要求 AI 做某件事,上下文都不同。所以,它必須處理所有這些資訊。
例如,在一輛自動駕駛汽車的情況下,它必須處理汽車的環境背景。背景處理。你要求 AI 做什麼指令?然後它必須一步步分解問題,進行推理,提出一個計畫並執行它。
每一個步驟都需要生成大量的 token,這就是為什麼我們需要一種新型系統,我稱之為 AI 工廠。簡而言之,它是一個 AI 工廠。它與過去的資料中心不同。它是一個 AI 工廠,因為這個工廠只生產一種東西,不像過去的資料中心做所有的事情。為我們所有人儲存文件,運行各種不同的應用程式。
你可以像使用你的電腦一樣使用那個資料中心來處理各種應用。你可以在某天用它來玩遊戲。你可以用它來瀏覽網頁。你可以用它來做會計。所以那是過去的電腦,一台通用的通用電腦。我這裡談論的電腦是一個工廠。它基本上只運行一件事。
它運行 AI,其目的是設計來產生盡可能有價值的 token,這意味著它們必須是聰明的。而且你希望以驚人的速度產生這些 token,因為當你向 AI 請求某事時,你會希望它能回應。而且你會注意到,在尖峰時段,這些 AI 現在回應得越來越慢,因為它要為很多人做很多工作。
所以你希望它能以驚人的速度產生有價值的 token,並且你希望它能以具有成本效益的方式產生。我使用的每一個詞都與 AI 工廠、汽車工廠或任何工廠相符。它絕對是一個工廠。而這些工廠,這些工廠以前從未存在過。在這些工廠內部,有堆積如山的晶片。
AI 的指數級需求與 Blackwell 的誕生
這就帶到了今天。過去幾年發生了什麼?事實上,去年發生了什麼?今年發生了一件相當深刻的事情。實際上,如果你看看年初,每個人對 AI 都有一些看法。那種看法通常是,這將會是件大事。它將是未來。然後不知怎地,幾個月前,它進入了渦輪增壓模式。
原因有幾個。首先,在過去幾年裡,我們已經想出了如何讓 AI 變得更聰明,而不僅僅是預訓練。預訓練基本上是說,讓我們把人類有史以來創造的所有資訊都拿來。讓我們把它交給 AI 來學習。這本質上是記憶和泛化。
這和我們小時候上學沒什麼不同。是學習的第一階段。預訓練從來就不意味著是教育的終點,就像學前教育從來就不意味著是教育的終點一樣。預訓練、學前教育只是教你基本的智力技能,這樣你才能理解如何學習其他一切。
沒有詞彙,不理解語言和如何溝通、如何思考,就不可能學習其他一切。接下來是後訓練。預訓練之後的後訓練是教你技能。解決問題的技能、分解問題、推理、如何解決數學問題、如何編碼、如何逐步思考這些問題、使用第一性原理推理。然後,在那之後,才是運算真正發揮作用的地方。
如您所知,我們很多人都上過學,就我而言,那已是幾十年前的事了。但從那時起,我學得更多,想得更多,原因在於我們不斷地以新知識為基礎。我們不斷地做研究,我們不斷地思考。
思考才是智慧的真正所在。所以現在我們有三項基本的技術技能。我們擁有這三項技術。預訓練,仍然需要巨大無比的計算量。我們現在有後訓練,使用更多的計算量。而現在的思考,給基礎設施帶來了難以置信的計算負載,因為它在為每一個人類代為思考。
所以,AI 進行思考所需的計算量,也就是推理,真的是非常驚人。我以前常聽人說推理很簡單。Nvidia 應該做訓練。Nvidia 會做,你知道,他們在這方面很擅長,所以他們會做訓練。那推理很簡單。思考怎麼會簡單呢?複述記住的內容很簡單。
複述乘法表很容易。思考很難。這就是為什麼這三個尺度,這三個新的擴展定律,全部全速運轉,給計算量帶來了如此大的壓力。現在,從這三個擴展定律中還發生了另一件事。我們得到了更聰明的模型,而這些更聰明的模型需要更多的計算。
但當你得到更聰明的模型時,你得到更多的智慧。人們就會使用它。如果發生任何事,我希望是第一個離開的。開玩笑的。我相信沒事。可能只是午餐。我的肚子。那是我嗎?所以,你的模型越聰明,人們就越會使用它,它現在就越有根據。它能夠推理。
它能夠解決它以前從未學會解決的問題,因為它可以做研究。去學習,回來,分解問題,推理如何解決你的問題,如何回答你的問題,然後去解決它。思考的量使得模型更加智慧。
它越智慧,使用它的人就越多。它越智慧,所需的運算就越多。但這就是發生的事。去年,AI 產業迎來了轉捩點。這意味著 AI 模型現在已經足夠聰明。它們值得,它們值得付費。Nvidia 支付 Cursor 的每一個授權費用,我們很樂意這麼做。
我們很樂意這樣做,因為 Curser 正在幫助一位擁有數十萬名員工的軟體工程師或 AI 研究員提高數倍的生產力。所以,我們當然非常樂意這樣做。這些 AI 模型已經變得足夠好,值得人們為它們付費。Cursor、11 Labs、Synthesia、A Bridge、Open Evidence,這樣的例子不勝枚舉。當然還有 OpenAI,當然還有 Claude。
這些模型現在非常好,人們願意為它們付費。因為人們為它們付費並更多地使用它們,而每次他們更多地使用它們,你就需要更多的計算能力。我們現在有兩個指數級增長。這兩個指數級增長,一個是三個擴展定律所帶來的指數級計算需求。而第二個指數級增長是,它越聰明,使用它的人就越多,使用它的人越多,它需要的計算能力就越多。
兩個指數級增長現在正對全球的計算資源施加壓力,而這正是我之前告訴你們的,摩爾定律基本上已經結束的時候。所以問題是我們該怎麼辦?如果我們有這兩個指數級增長的需求,而我們又找不到降低成本的方法,那麼這個正回饋系統,這個循環回饋系統,基本上被稱為良性循環,對於幾乎任何行業都是至關重要的,對於任何平台行業都是至關重要的。它對 Nvidia 至關重要。我們現在已經達到了 CUDA 的良性循環。
應用程式越多,人們創造的應用程式越多,CUDA 就越有價值。CUDA 越有價值,購買的 CUDA 電腦就越多。購買的 CUDA 電腦越多,就越多的開發者想為它創造應用程式。Nvidia 的這個良性循環在 30 年後終於實現了。我們也實現了這一點。
十五年後,我們為 AI 實現了這一點。AI 現在已經達到了良性循環,所以你用得越多,因為 AI 很聰明,我們為它付費,產生的利潤就越多,產生的利潤越多,投入到電網的計算能力就越多,投入到 AI 工廠的計算能力就越多,計算能力越多,AI 就變得越聰明,越聰明,使用它的人就越多,應用程式使用它就越多,我們能解決的問題就越多,這個良性循環現在正在運轉。我們需要做的是大幅降低成本,這樣一來,用戶體驗更好,當你提示 AI 時,它會更快地回應你;二來,我們可以透過降低成本來維持這個良性循環,讓它變得更聰明,讓更多的人使用它,如此類推。那個良性循環現在正在運轉,但是當摩爾定律真的達到極限時,我們該怎麼辦?答案叫做共同設計(co-design)。你不能只設計晶片,然後期望上面的東西會變得更快。
在設計晶片方面,你最多能做到的就是在每隔幾年增加,我不知道,50% 的電晶體,如果你增加更多的電晶體,我們就能增加更多的電晶體,TSMC 有很多電晶體,這家公司非常了不起,我們只是不斷增加更多的電晶體。然而,這一切都只是百分比的增長,而不是指數級的。我們需要將指數級增長複合起來,才能讓這個良性循環持續下去。極致的共同設計是當今世界上唯一一家真正從一張白紙開始,能夠同時思考新的基礎架構、電腦架構、新晶片、新系統、新軟體、新模型架構和新應用的公司。所以在座的許多人之所以在這裡,是因為你們是那個堆疊中不同層級的一部分,並且與 Nvidia 合作。我們從根本上重新建構了從底層到上層的一切,然後因為 AI 是一個如此龐大的問題,我們將其擴大規模。
我們創造了一整台電腦,一台首次擴展成整個機櫃的電腦。那是一台電腦,一個 GPU。然後我們透過發明一種我們稱之為 Spectrum X Ethernet 的新 AI 乙太網技術來橫向擴展它。每個人都會說乙太網就是乙太網。乙太網根本不是乙太網。
Spectrum X Ethernet 是為 AI 效能而設計的,這就是它如此成功的原因。即使那樣還不夠大。我們將用 AI 超級電腦和 GPU 填滿整個房間。那仍然不夠大,因為 AI 的應用數量和用戶數量仍在指數級增長。
我們將多個這樣的資料中心連接在一起,我們稱之為跨 Spectrum XGS 的規模擴展,即 gigascale X spectrum X gigascale XGS。通過這樣做,我們在一個如此巨大、如此極致的層面上進行共同設計,以至於性能效益令人震驚。不是每一代好 50%,不是每一代好 25%,而是多得多。這是有史以來我們製造的,坦白說也是現代以來製造的,最極致的共同設計電腦。
自從 IBM System 360 以來,我不認為有哪台電腦像這樣從頭到尾被重新發明過。這個系統的創造極其困難。我稍後會向您展示其優勢。但基本上我們所做的,基本上我們所做的,我們創造了,Janine,你可以出來了。你得走到一半來接我。好了。所以,這有點像美國隊長的盾牌。
NVLink 72,如果我們要創造一個巨大的晶片,一個巨大的 GPU,它會是這個樣子。這就是我們需要達到的晶圓級處理水平。這真是不可思議。所有這一切,所有這些晶片現在都被放入一個巨大的機櫃中。那是我做的還是別人做的?放入那個巨大的機櫃中。
你知道,有時候我覺得我不是獨自一人站在這裡。就這一個巨大的機櫃,讓所有這些晶片像一個整體一樣協同工作。這實際上是完全不可思議的。我會向你展示它的好處。它的樣子是這樣的。所以,謝謝 Janine。我喜歡這個。好了,女士們先生們,Janine Paul。
我拿到了。將來,我會像 Thor 一樣。就像你在家裡,拿不到遙控器,你只要像這樣做個手勢,就會有人把它拿給你。是的。同樣的道理。這種事從沒發生在我身上。我只是在做夢。我只是說說。好吧。
過去我們創造了這個,這就是 NVLink 8。現在,這些模型非常龐大。我們解決它的方法是,將這個巨大的模型變成一群專家。這有點像一個團隊。所以,這些專家擅長解決某些類型的問題。我們把一群專家聚集在一起。
所以,這個巨大的數兆美元的 AI 模型擁有所有這些不同的專家,我們把所有這些不同的專家都放在一個 GPU 上。現在,這是 NVLink 72。我們可以把所有的晶片都放進一個巨大的結構中,每一個專家都可以互相交談。所以主專家可以與所有的工作、所有必要的上下文和提示以及我們必須發送給所有專家的大量數據,也就是大量的 token 進行交談。
被選中解決答案的專家會去嘗試回應,然後它會一層又一層地去做。有時是八層,有時是十六層,有時這些專家,有時是六十四個,有時是二百五十六個。
但重點是,專家越來越多。嗯,這裡的 NVLink72,我們有 72 個 GPU。正因為如此,我們可以在一個 GPU 中放入四個專家。每個 GPU 最重要的事情就是生成 token,也就是你在 HBM 記憶體中擁有的頻寬量。我們有一個 GPU 為四個專家進行思考,而這邊,因為每台電腦只能放八個 GPU,我們必須在一個 GPU 中放入 32 個專家。
所以這個 GPU 必須為 32 個專家思考,而這個系統中每個 GPU 只需要為 4 個專家思考。正因為如此,速度差異是驚人的。而這個剛出來。這是由 semi analysis 做的基準測試。他們的工作非常非常徹底,他們測試了所有可測試的 GPU,結果發現其實並不多。
如果你看一下可以實際進行基準測試的 GPU 列表,大概有 90% 是 Nvidia。好的。所以我們是在和自己比較,但世界上第二好的 GPU 是 H200,它能運行所有的工作負載。Grace Blackwell 每個 GPU 的性能是它的 10 倍。現在,當電晶體數量只有兩倍時,你如何獲得 10 倍的性能?嗯,答案是極致的共同設計。
通過理解未來 AI 模型的本質,並且我們在整個堆疊中進行思考,我們可以為未來創造架構。這是一件大事。它意味著我們現在可以更快地做出回應。但這件事更重大。下一件,看這個。這表明世界上成本最低的 token 是由 Grace Blackwell Envy Link72 生成的。最昂貴的電腦。
一方面,GB200 是最昂貴的電腦。另一方面,它的 token 生成能力非常強大,以至於它以最低的成本生產,因為每秒的 token 數除以 Grace Blackwell 的總擁有成本非常出色。它是生成 token 成本最低的方式。
通過這樣做,提供令人難以置信的性能,10 倍的性能,提供 10 倍低的成本,那個良性循環可以繼續下去。這就引出了這一點。我昨天才看到這個。這是 CSP 的資本支出。最近人們在問我關於資本支出的問題,這是一個很好的觀察方式。
事實上,前六大 CSP 的資本支出,這一個,這一個是 Amazon、Core Weave、Google、Meta、Microsoft 和 Oracle。好的,這些 CSP 加起來將投資這麼多的資本支出。我會告訴你,時機再好不過了。原因在於,現在我們有了 Grace Blackwell NVLink72,它已經全面量產,全球各地的供應鏈都在製造它。
所以我們現在可以向他們所有人交付這個新架構,這樣資本支出就能投資於提供最佳總擁有成本的工具,也就是電腦。現在,在這之下有兩件事正在發生。所以當你看到這個時,它實際上相當非凡,而且無論如何都相當非凡,但底下發生的是,有兩個平台轉變同時發生。
一個平台轉變是從通用運算轉向加速運算。記住,我之前提到的加速運算,它進行資料處理、影像處理、電腦圖形,它進行各種計算。它運行 SQL、Spark,你告訴我們你需要運行什麼,我相當確定我們有很棒的函式庫可以給你。
你可以是,你知道,一個試圖製造光罩來生產半導體的資料中心。我們有一個很棒的函式庫給你。所以在不考慮 AI 的情況下,世界正在從通用運算轉向加速運算。事實上,許多 CSP 早在 AI 出現之前就已經有服務了。記住,它們是在機器學習時代發明的。
傳統的機器學習演算法,如 XG Boost,以及用於推薦系統、協同過濾、內容過濾的資料框演算法,所有這些技術都是在通用運算的舊時代創建的。即使是那些演算法,即使是那些架構,現在用加速運算也更好。
所以即使沒有 AI,全球的 CSP 也會投資於加速。Nvidia 的 GPU 是唯一一款既能做所有這些又能做 AI 的 GPU。ASIC 或許能做 AI,但它做不了任何其他的事情。Nvidia 可以做所有這些,這解釋了為什麼完全倚賴 Nvidia 的架構是如此安全。
我們現在已經達到了我們的良性循環,我們的轉折點。這相當非凡。我在場有很多合作夥伴,你們都是我們供應鏈的一部分,我知道你們工作有多努力。我要感謝你們所有人的辛勤工作,非常感謝。
Blackwell 與 Rubin:推動 AI 工廠的引擎
現在我將向您展示我們公司業務的進展情況。由於我剛才提到的所有原因,我們的 Grace Blackwell 業務正在經歷非凡的增長。
它由兩個指數級增長驅動。我們現在有了能見度。我認為我們可能是歷史上第一家對到 2026 年累計達五千億美元的 Blackwell 和 Rubin 早期爬坡有能見度的科技公司。如你所知,2025 年還沒結束,2026 年也還沒開始。這就是帳面上的業務量。
到目前為止,價值半兆美元。在這之中,我們已經在最初幾個季度出貨了 600 萬顆 Blackwell。我想是生產的前四個季度,三個半季度。我們 2025 年還有一個季度。然後我們有四個季度。所以接下來的五個季度,有 5 億美元,5000 億美元,半兆美元。
這是 Hopper 增長率的五倍。這說明了一些事情。這是 Hopper 的整個生命週期。這不包括中國和亞洲。所以這只是西方。好的。這只是,我們排除了中國。所以 Hopper 在其整個生命週期中,有 400 萬個 GPU。Blackwell。每一個 Blackwell 都有兩個 GPU 在一個大的封裝裡。
在 Rubin 的早期階段有 2000 萬個 Blackwell GPU。驚人的增長。所以,我要感謝我們所有的供應鏈合作夥伴。各位,我知道你們工作有多努力。我製作了一個影片來慶祝你們的工作。讓我們播放它吧。AI 的時代已經開始。Blackwell 是它的引擎,一個工程奇蹟。在 Arizona,它從一塊空白的矽晶圓開始。
數百個晶片處理和紫外線光刻步驟,在一片 12 英寸的晶圓上,逐層建構出 2000 億個電晶體中的每一個。在 Indiana,HBM 堆疊將並行組裝。具有 1024 個 IO 的 HBM 記憶體晶粒採用先進的 EUV 技術製造,並在後端使用矽穿孔技術連接 12 個 HBM 記憶體堆疊和基底晶粒,以生產 HBM。
同時,晶圓被切割成單獨的 Blackwell 晶粒,經過測試和分類,將好的晶粒分離出來以繼續前進。晶圓上晶片基板製程將 32 個 Blackwell 晶粒和 128 個 HBM 堆疊附加到一個客製化的矽中介層晶圓上。金屬互連走線直接蝕刻在其中,將 Blackwell GPU 和 HBM 堆疊連接到每個系統和封裝單元中,將所有東西鎖定到位。
然後,組件經過烘烤、模塑和固化,創造出 GB300 Blackwell Ultra Super Chip。在 Texas,機器人將全天候工作,將超過一萬個組件挑選並放置到 Grace Blackwell PCB 上。在 California,用於橫向擴展通訊的 ConnectX8 SuperNIC 和用於卸載及加速網路、儲存和安全的 Bluefield 3 DPU,被小心地組裝到 GB300 計算托盤中。
NVLink 是 NVIDIA 發明的突破性高速鏈路,用於連接多個 GPU 並擴展成一個巨大的虛擬 GPU。NVLink 交換機托盤由 NVLink 交換機晶片構成,提供 14.4 terabytes/秒的全對全頻寬。NVLink 骨幹形成一個客製化的盲插背板,用 5000 條銅纜連接所有 72 個 Blackwell 或 144 個 GPU 晶粒,形成一個巨大的 GPU,提供 130 terabytes/秒的全對全頻寬。這幾乎是全球網際網路的峰值流量。
熟練的技術人員將這些零件組裝成一個機櫃級的 AI 超級電腦。總共有 120 萬個組件,2 米的銅纜,130 兆個電晶體,重近 2 噸。從 Arizona 和 Indiana 的矽晶圓到 Texas 的系統,Blackwell 和未來的 NVIDIA AI 工廠世代將在美國製造,為美國歷史和工業寫下新的篇章。
美國重返製造業和再工業化,由 AI 時代重新點燃。AI 的時代已經開始。美國製造。為世界製造。我們再次在美國製造。這真是不可思議。Trump 總統首先要求我的是,把製造業帶回來。把製造業帶回來,因為這對國家安全是必要的。把製造業帶回來,因為我們需要這些工作,我們需要那部分的經濟。
九個月後,我們現在正在 Arizona 全面生產 Blackwell。極致的 Blackwell GB 200 MV Grace Blackwell Envy 72 極致的共同設計給了我們 10 倍的世代提升。這簡直令人難以置信。現在,真正令人難以置信的部分是這個。這是我們製造的第一台 AI 超級電腦。
這是在 2016 年,我將它交付給舊金山的一家新創公司,後來證明那家公司就是 OpenAI。這就是那台電腦。為了製造那台電腦,我們設計了一款晶片。我們為進行共同設計而設計了一款新晶片。現在,看看我們必須做的所有晶片。這就是所需的一切。你不可能用一款晶片就讓電腦快 10 倍。那是不會發生的。
讓我們能夠以指數級增加性能,以指數級降低成本的方式,就是極致的共同設計,並同時處理所有這些不同的晶片。我們現在有 Rubin 回家了。這是 Rubin。這是 Vera Rubin 和 Rubin。女士們先生們,Rubin。這是我們第三代的 NVLink 72 機櫃級電腦。
第三代 GB200 是第一代。我們全球所有的合作夥伴,我知道你們工作有多努力。那真的非常非常困難。做起來非常困難。第二代,順利多了。而這一代,看看這個。完全無纜線。完全無纜線。而這一切現在都已經在實驗室裡了。
這是下一代的 Rubin。在我們出貨 GB300 的同時,我們正在準備讓 Rubin 投入生產。你知道,明年的這個時候,可能稍早一點。所以,每一年,我們都會推出最極致的共同設計系統,以便我們能持續提升性能,並持續降低 token 生成成本。看看這個。這真是一台無比漂亮的電腦。
這太驚人了。這是 100 petaflops。我知道這沒什麼意義。100 petaflops,但和我九年前、十年前交付給 OpenAI 的 DGX1 相比,它的性能是 100 倍,就在這裡,是那台超級電腦性能的 100 倍。100 台那樣的電腦,讓我想想,100 台那樣的電腦就像 25 個這樣的機櫃,全都被這一個東西取代了。
一個 Vera Rubin。好的。所以這是運算托盤,這是 Vera Rubin 超級晶片。好的。這是運算托盤。哦,就在這裡。安裝非常容易。只要把這些東西打開,推進去。連我都會。好的。這是 Vera Rubin 運算托盤。
如果你決定想增加一個特殊的處理器,我們已經增加了一個。它被稱為上下文處理器,因為我們給予 AI 的上下文越來越大。我們希望它在回答問題前閱讀大量的 PDF。希望它閱讀大量的存檔論文,觀看大量的影片。在我回答你的問題前,去學習所有這些。
所有這些上下文處理都可以被添加進去。所以你看到底部有八個新的 ConnectX9 超級網卡。你有 CX,你有 CPX,八個。你有 Bluefield 4,這個新的數據處理器,兩個 Vera CPU 和四個 Rubin 封裝或八個 Rubin GPU。所有這些都在這一個節點裡,完全無線纜,100% 液冷。
然後是這個新的處理器,我今天不會談太多。我沒有足夠的時間,但這完全是革命性的。原因在於,你的 AI 需要越來越多的記憶體。你與它的互動更多。你希望它記得我們上次的對話。你代表我學到的所有東西,請下次我回來時不要忘記。
所以所有這些記憶體將會創建一個叫做 KV 快取的東西。而要檢索那個 KV 快取,你可能已經注意到,現在每次你進入你的 AI,它重新整理和檢索所有先前對話的時間越來越長。原因在於我們需要一個革命性的新處理器,那就是 Blue Fuel 4。
接下來是 ConnectX 交換器,抱歉,是 NVLink 交換器,就在這裡。好的,這是 NVLink 交換器。這使得我們能夠將所有電腦連接在一起。而這個交換器的頻寬現在是全球網際網路峰值流量的數倍。
所以那個骨幹將會同時向所有的 GPU 傳輸和承載所有數據。除此之外,這是 Spectrum X 交換器。這個乙太網路交換器被設計成讓所有的處理器可以同時互相通訊,而不會堵塞網路。堵塞網路。這很技術性。好的。
所以,這三者結合在一起。然後是量子交換器。這是給 Infiniband 用的。這是乙太網。我們不在乎你想用什麼語言,你想用什麼標準。我們有很棒的橫向擴展結構給你。無論是 Infiniband 還是 Quant 或 Spectrum 乙太網,這個都使用矽光子學,並且是完全共封裝光學。
基本上,雷射直接到達矽晶片,並將其連接到我們的晶片上。好的,所以這是 Spectrum X 乙太網路。現在,讓我們來談談。謝謝。哦,這是它的樣子。這是一個機櫃。這是兩噸半。這是兩千。這是兩噸。一百五十萬個零件。而這個骨幹,這個骨幹在一秒鐘內承載著整個網際網路的流量。
同樣的速度在所有這些不同的處理器之間移動。百分之百液冷。一切都是為了,你知道的,世界上最快的 token 生成率。好的,所以這就是一個機櫃的樣子。那是一個機櫃。一個 gigawatt 的資料中心會有,你知道,稱之為,讓我想想,16 個機櫃會是一千個,然後是五百個那樣的。
所以,500 乘以 16,大約是 9000 個,8000 個這樣的機櫃,就是一個一 GW 的資料中心。好的。這就是未來的 AI 工廠。現在我們用,如您所見,Nvidia 從設計晶片開始,然後我們開始設計系統,我們設計了 AI 超級電腦。現在我們正在設計整個 AI 工廠。
每一次我們向外擴展,整合更多問題來解決時,我們都會提出更好的解決方案。我們現在建造整個 AI 工廠。這個 AI 工廠是我們為 Vera Rubin 建造的,我們創造了一項技術,讓我們所有的合作夥伴都能以數位方式整合到這個工廠中。讓我展示給你看。
下一個工業革命已經到來,隨之而來的是一種新型工廠。AI 基礎設施是一個生態系統規模的挑戰,需要數百家公司協作。NVIDIA Omniverse DSX 是建構和營運 gigascale 等級 AI 工廠的藍圖。建築、電力和冷卻首次與 NVIDIA 的 AI 基礎設施堆疊共同設計。
它始於 Omniverse 數位孿生。Jacobs Engineering 根據功率限制優化運算密度和佈局,以最大化 token 生成。他們將來自 Siemens、Schneider Electric、Train 和 Vertiv 的 SIM-ready 開源 USD 資產匯總到 PTC 的產品生命週期管理中。然後使用來自 EAB 和 Cadence 的 CUDA 加速工具模擬熱學和電學。
一旦設計完成,像 Bectal 和 Vertive 這樣的 NVIDIA 合作夥伴將交付預製模組——工廠建造、測試完成,並可直接插入使用。這顯著縮短了建造時間,實現更快的收入回報。當實體 AI 工廠上線時,數位孿生就像一個作業系統。
工程師提示來自 FIDRA 和 Emerald AI 的 AI 代理人,這些代理人先前在數位孿生中受過訓練,以優化功耗並減少對 AI 工廠和電網的壓力。總體而言,對於一個 1 GW 的 AI 工廠,DSX 優化每年可以在 Texas、Georgia 和 Nevada 帶來數十億美元的額外收入。
NVIDIA 的合作夥伴正在將 DSX 變為現實。在 Virginia,NVIDIA 正在使用 DSX 建造一個 AI 工廠研究中心,以測試和產品化從基礎設施到軟體的 Vera Rubin。藉由 DSX,全球的 NVIDIA 合作夥伴可以比以往更快地建構和啟動 AI 基礎設施。
AI 模型與企業合作的未來
在 Vera Rubin 作為一台真正的電腦存在很久很久以前,我們就已經將它作為一台數位孿生電腦來使用。現在,在這些 AI 工廠存在很久以前,我們將使用它,我們將設計它,我們將規劃它,我們將優化它,我們將把它作為一個數位孿生來操作。所以所有與我們合作的夥伴們,我為你們所有支持我們的人感到無比高興。Gio 在這裡,GE Vernova 在這裡。Schneider,我想,我想 Olivia 在這裡。Olivia Blum 在這裡。Siemens,非常棒的合作夥伴。好的。Roland Busch,我想他正在看。嗨,Roland。所以無論如何,與我們合作的夥伴都非常非常棒。
一開始我們有 CUDA,我們有所有這些不同的軟體合作夥伴生態系統。現在我們有 Omniverse DSX,我們正在建造 AI 工廠,我們再次擁有這些令人難以置信的生態系統合作夥伴與我們合作。讓我們來談談模型。開源模型,特別是在過去幾年,發生了幾件事。一,由於推理能力的提升,開源模型變得相當有能力。
它變得相當有能力,因為它們具有多模態性,而且由於蒸餾技術,它們的效率極高。所以所有這些不同的能力使得開源模型首次對開發者變得極其有用。它們現在是新創公司的命脈。不同行業新創公司的命脈,因為顯然,正如我之前提到的,每個行業都有自己的用例,自己的數據,它擁有數據,自己的飛輪。
所有這些能力,那些領域專長,都需要有能力嵌入到模型中。開源使這成為可能。研究人員需要開源。開發人員需要開源。世界各地的公司,我們需要開源。開源模型真的非常非常重要。
美國也必須在開源領域領先。我們有驚人的專有模型。我們有驚人的專有模型。我們也需要驚人的開源模型。我們的國家依賴它。我們的新創公司依賴它。所以 Nvidia 致力於去做這件事。我們現在是最大的,我們在開源貢獻方面領先。
我們在排行榜上有 23 個模型。我們有所有這些不同的領域,從語言模型到實體 AI 模型。我將談論機器人模型到生物學模型。每一個模型都有巨大的團隊,這也是我們為自己建造超級電腦以使所有這些模型得以創建的原因之一。
我們有第一名的語音模型、第一名的推理模型、第一名的實體 AI 模型。下載次數真的非常非常驚人。我們致力於此,原因在於科學需要它、研究人員需要它、新創公司需要它,而且公司也需要它。我很高興 AI 新創公司在 Nvidia 的基礎上進行建設。他們這麼做有幾個原因。一,當然,我們的生態系統很豐富。
我們的工具很好用。我們所有的工具都適用於我們所有的 GPU。我們的 GPU 無處不在。它幾乎在每一個雲端裡。它可以在本地部署。你可以自己建造。你可以,你知道,組裝一台有多個 GPU 的發燒友遊戲 PC,然後你可以下載我們的軟體堆疊,它就能正常運作。
我們受益於眾多開發者,他們讓這個生態系統變得越來越豐富。所以,我對我們合作的所有新創公司感到非常高興。我為此感到感謝。同樣地,許多這些新創公司現在也開始創造更多享受我們 GPU 的方式。Cordweaves、Nscale、Nbius、Llama、Lambda,所有這些公司,Crusoe 公司,正在建造這些新的 GPU 雲端來服務新創公司,我真的很感謝這一切之所以可能,是因為 NVIDIA 無處不在。
我們將我們的函式庫,我跟你們談過的所有 CUDA X 函式庫,所有我談過的開源 AI 模型,所有我談過的模型,整合到 AWS 中,例如。真的很喜歡和 Matt 合作。我們將它們整合到 Google Cloud 中,例如。真的很喜歡和 Thomas 合作。
每一個雲端都整合了 NVIDIA GPU 和我們的運算、我們的函式庫以及我們的模型。喜歡和 Microsoft Azure 的 Satya 合作。喜歡和 Oracle 的 Clay 合作。每一個雲端都整合了 NVIDIA 堆疊。因此,無論你到哪裡,無論你使用哪個雲端,它都能以令人難以置信的方式運作。
我們也將 Nvidia 函式庫整合到全球的 SaaS 中,這樣每一個 SaaS 最終都會變成代理型 SaaS。我非常欣賞 Bill McDermott 對 ServiceNow 的願景。就是那裡。我想那可能就是 Bill。嗨,Bill。所以,ServiceNow,它是什麼?全球 85% 的企業工作流程,SAP 佔全球 80% 的商業活動,Christian Klein 和我正在合作,將 NVIDIA 函式庫 CUDA X、Nemo 和 Neotron,我們所有的 AI 系統,整合到 SAP 中,與 Synopsis 的 Cine 合作,加速全球的 CAE、CAD、EDA 工具,讓它們更快、更能擴展,幫助他們創造 AI 代理。有一天,我希望能聘請 AI 代理的 ASIC 設計師與我們的 ASIC 設計師合作,基本上就是 Synopsis 的 Cursor。我們正在與 Anirudh 合作。Anirudh 今天在這裡,我稍早看到他。他是賽前秀的一員。Cadence 正在做令人難以置信的工作,加速他們的堆疊,創造 AI 代理,這樣我們就可以有 Cadence AI 作為設計師和系統設計師與我們合作。今天我們宣布一個新的。
AI 將極大地提升生產力。AI 將改變幾乎每一個行業,但 AI 也將加劇網路安全的挑戰,也就是惡意的 AI。所以我們需要一個強大的防禦者。我想不出比 CrowdStrike 更好的防禦者了。George 在這裡。他剛才在這裡。是的,我早些時候看到他了。我們正與 Crowdstrike 合作,讓網路安全達到光速,創建一個在雲端有網路安全 AI 代理,同時在本地或邊緣也有極其優秀的 AI 代理的系統。這樣,每當有威脅出現,你都能在瞬間偵測到。我們需要速度,我們需要一個快速的代理 AI 超級聰明的 AI。我還有第二個宣布。這是全球最快的企業公司。可能是當今全球最重要的企業堆疊。Palantir Ontology。這裡有來自 Palantir 的人嗎?我剛才還在和 Alex 聊天。這是 Palantir Ontology。
他們獲取資訊、數據和人類判斷,並將其轉化為商業洞察。我們與 Palantir 合作,加速 Palantir 所做的一切,以便我們能以更大規模和更快速度進行數據處理,無論是過去的結構化數據,當然我們也會有結構化數據、人類記錄的數據、非結構化數據,並為我們的政府、國家安全和全球企業以光速處理這些數據,並從中找到洞察。
未來將會是這樣。Palantir 將整合 Nvidia,以便我們能以光速和非凡的規模進行處理。好的,Nvidia 和 Palantir。
實體 AI 與機器人技術的未來
讓我們來談談實體 AI。實體 AI 需要三台電腦。就像訓練一個語言模型需要兩台電腦一樣。
一台用來訓練、評估,然後進行推理。好的,那就是你看到的大型 GB200。為了對實體 AI 進行同樣的操作,你需要三台電腦。你需要一台電腦來訓練它。這就是 Grace Blackwell NVLink72。我們需要一台電腦來進行我之前用 Omniverse DSX 向你展示的所有模擬。
它基本上是機器人學習如何成為一個好機器人的數位孿生,也是工廠的數位孿生。那台電腦是第二台電腦,也就是 Omniverse 電腦。這台電腦必須在生成式 AI 方面非常出色,也必須在電腦圖形、感測器模擬、光線追蹤、信號處理方面表現優異,這台電腦被稱為 Omniverse 電腦。
一旦我們訓練好模型,在數位孿生中模擬該 AI,而該數位孿生可以是一個工廠的數位孿生,以及一大堆機器人的數位孿生。然後你需要操作那個機器人。這就是機器人電腦。這個可以裝進自動駕駛汽車。一半可以裝進一個機器人。
或者你也可以有相當敏捷、操作相當快速的機器人。這可能需要兩台這樣的電腦。所以這就是 Thor Jetson Thor 機器人電腦。這三台電腦都運行 CUDA。這使得我們能夠推進實體 AI。
理解物理世界、理解物理定律、因果關係、永恆性,你知道的,實體 AI。我們有很棒的合作夥伴與我們合作,創造工廠的實體 AI。我們自己也在用它來建造我們在德州的工廠。現在,一旦我們創造了機器人工廠,我們裡面就有一堆機器人。而這些機器人也需要實體 AI,應用實體 AI 並在數位孿生中工作。
讓我們來看看。美國正在再工業化,將各行各業的製造業遷回國內。在德州休士頓,Foxconn 正在建造一個最先進的機器人設施,用於製造 NVIDIA AI 基礎設施系統。在勞動力短缺和技能差距的情況下,數位化、機器人技術和實體 AI 比以往任何時候都更重要。
這座工廠在 Omniverse 中以數位原生方式誕生。Foxconn 的工程師在基於 Omniverse 技術開發的 Siemens 數位孿生解決方案中組裝他們的虛擬工廠。每個系統,包括機械、電氣、管道,都在施工前進行驗證。Siemens Plant Simulation 運行設計空間探索優化,以確定理想的佈局。
當出現瓶頸時,工程師會更新佈局,變更由 Siemens Teamcenter 管理。在 Isaac Sim 中,同一個數位孿生被用來訓練和模擬機器人 AI。在組裝區,Fanuc 的機械臂建造 GB300 托盤模組,來自 FII 和 Skilled AI 的手動機械臂將匯流排安裝到托盤中,AMR 則將托盤運送到測試站。
然後,Foxconn 使用 Omniverse 進行大規模感測器模擬,讓機器人 AI 學會作為一個群體協同工作。在 Omniverse 中,基於 NVIDIA Metropolis 和 Cosmos 建構的視覺 AI 代理從上方監視機器人和工人群體,以監控操作並向 Foxconn 工程師警示異常和安全違規行為,甚至品質問題。
為了訓練新員工,代理人為互動式 AI 教練提供動力,以便員工輕鬆上手。美國再工業化的時代已經到來,人與機器人協同工作。這就是製造業的未來,工廠的未來。我要感謝我們的合作夥伴 Foxconn,執行長 Young Liu 也在場,但所有這些生態系統合作夥伴讓我們有可能創造機器人工廠的未來。
工廠本質上是一個機器人,它協調其他機器人來建造機器人化的東西。你知道,要做到這一點所需的軟體量非常龐大,除非你能在數位孿生中進行,去規劃、設計、在數位孿生中操作,否則讓這一切運作起來的希望幾乎為零。
我也很高興看到 Caterpillar,我的朋友 Joe Creed 和他百年歷史的公司,也正在將數位孿生納入他們的製造方式。這些工廠將擁有未來的機器人系統,而其中最先進的之一是 Figure。Brett Adcock 今天也在這裡。他三年半前創立了一家公司。
他們現在的價值接近 400 億美元。今天我們正在合作訓練 AI、訓練機器人、模擬機器人,當然還有將機器人電腦放入 Figure 中,真的非常了不起。我有幸親眼見證。那真是相當非凡。很可能人形機器人,我的朋友 Elon 也在研究這個,這很可能會是最大的消費性新消費電子市場之一,也肯定是最大的工業設備市場之一。Peggy Johnson 和 Agility 的同仁們正與我們合作,開發用於倉庫自動化的機器人。Johnson & Johnson 的同仁們也再次與我們合作,訓練機器人,在數位孿生中進行模擬,並操作機器人。這些 Johnson & Johnson 的手術機器人甚至將能執行完全無創的手術,其精準度是世界前所未見的。
當然,還有史上最可愛的機器人,Disney 的機器人。這對我們來說意義非凡。我們正與 Disney Research 合作開發一個全新的框架和模擬平台,基於一項名為 Newton 的革命性技術。
那個 Newton 模擬器讓機器人能夠在一個物理感知、基於物理的環境中學習如何成為一個好機器人。讓我們來看看。什麼?Blue。女士們先生們,Disney Blue。告訴我那不可愛。
他不可愛。我們都想要一個。我們都想要一個。現在記住,你剛才看到的一切都不是動畫。它不是一部電影。它是一個模擬。那個模擬是在 Omniverse 中。Omniverse,數位孿生。所以這些工廠的數位孿生、倉庫的數位孿生、手術室的數位孿生,還有 Blue 可以在其中學習如何操作、導航和與世界互動的數位孿生。所有這些都完全即時完成。
這將成為世界上最大的消費電子產品線。其中一些現在已經運作得非常好了。這是人形機器人的未來,當然還有 Blue。好的。現在,人形機器人仍在開發中。但與此同時,有一種機器人顯然正處於一個轉折點,而且基本上已經到來了。那就是有輪子的機器人。這就是自動駕駛計程車。
自動駕駛計程車本質上是一個 AI 司機。現在,我們今天要做的一件事是,我們宣布推出 NVIDIA Drive Hyperion。這是一件大事。我們創造了這個架構,讓世界上每一家汽車公司都能製造汽車,可以是商用車,可以是乘用車,也可以是專用於自動駕駛計程車的車輛。
製造可支援自動駕駛計程車的車輛。感測器套件包含環繞攝影機、雷達和光達,使我們能夠達到最高等級的環繞式繭狀感測器感知和冗餘,以實現最高等級的安全性。Hyperion Drive Drive Hyperion 現在被設計到 Lucid、Mercedes-Benz,我的朋友 Ola Källenius,還有 Stellantis 的同仁們的車輛中,還有許多其他汽車也即將推出。一旦你有了一個基本的標準平台,那麼 AV 系統的開發者,有很多才華洋溢的,像是 Wayve、Waabi、Aurora、Momenta、Nuro,有很多,WeRide,有很多,他們就可以把他們的 AV 系統拿到標準底盤上運行。基本上,標準底盤現在已經變成了一個有輪子的運算平台。而且因為它是標準的,感測器套件是全面的,他們所有人都可以將他們的 AI 部署到上面。
讓我們快速看一下。好的,那是美麗的舊金山。如您所見,如您所見,自動駕駛計程車的轉折點即將到來。未來,每年行駛的里程將達一兆英里,每年生產一億輛汽車。全球約有五千萬輛計程車。
它將會被一大堆自動駕駛計程車所擴充。所以,這將會是一個非常大的市場,將其連接並部署到世界各地。今天,我們宣布與 Uber 建立合作夥伴關係。Uber 的 Dara Khosrowshahi,我們正在合作將這些 Nvidia Drive Hyperion 汽車連接到一個全球網路中,未來你將能夠叫到其中一輛車,生態系統將會非常豐富,我們將在全球各地擁有 Hyperion 或自動駕駛計程車。這將成為我們一個新的運算平台,我預期它會非常成功。
總結:兩大平台轉型引領未來
好的,這就是我們今天談論的內容。我們談論了非常非常多的事情。記住,這一切的核心是兩個或兩個平台轉型,從通用運算到加速運算。
Nvidia CUDA 和那套名為 CUDA X 的函式庫使我們能夠應對幾乎所有行業,我們正處於轉折點。它現在正像一個良性循環所預示的那樣增長。第二個轉折點現在就在我們面前。第二個平台轉型,AI,從傳統的手寫軟體到人工智慧。
兩個平台轉型同時發生,這就是為什麼我們感受到如此驚人的增長。量子運算。我們談到了開放模型。我們談到了,我們談到了企業,與 CrowdStrike 和 Palantir 合作,加速他們的平台。我們談到了機器人,一個潛在的最大的消費電子和工業製造領域之一,當然我們也談到了 6G。Nvidia 有新的 6G 平台。我們稱之為 ARC。
我們有一個新的機器人汽車平台。我們稱之為 Hyperion。我們甚至有新的工廠平台。兩種類型的工廠。AI 工廠,我們稱之為 DSX,然後是有 AI 的工廠,我們稱之為 Mega。現在我們也在美國製造。
女士們先生們,感謝大家今天的光臨,也感謝你們允許我將 GTC 帶到華盛頓特區。我們希望每年都能舉辦。感謝大家為國家的服務,讓美國再次偉大。謝謝。我們以握手開始。堅定而真實。一步一腳印,我們正在突破。一磚一瓦,我們堆砌著高聳的夢想。
並肩同行,我們將觸及天空。握手與崇高的希望,我們正開創自己的道路。肩並肩,無論發生什麼。共同的願景比太陽更明亮。友誼與事業合而為一。計畫在紙上,但心靈同步。共同建設,比你想像的更快。笑聲是我們辛勤工作中的黏著劑。我們擁有火花。
我們正走向某個地方。握手與崇高的希望。我們正開創自己的道路。肩並肩。無論發生什麼。共同的願景比太陽更明亮。友誼與事業。握手與崇高。我們正開創自己的道路,肩並肩,無論發生什麼。共同的願景比太陽更明亮。事業合而為一。