如果你有在關注科技產業的動態,絕對無法忽視輝達(NVIDIA)近年在 GTC 大會上所展現的戰略布局。從 GTC 2024 的財務分析師問答環節,到剛剛落幕的 GTC 2026 黃仁勳(Jensen Huang)主題演講,一條清晰的主線逐漸浮現:輝達正在從一家晶片設計公司,蛻變為全球 AI 基礎設施的核心供應商。這不僅僅是一場關於算力的火力展示,更是一場重新定義「電腦」本質的思想革命。

本文將從 GTC 歷屆大會的脈絡出發,剖析輝達如何建構其 AI 帝國的底層邏輯——從「代幣經濟」的成形、開源模型的 Linux 時刻,到推論競爭的護城河,以及最新 Vera Rubin 平台對產業格局的深遠影響。


AI 進化論:從生成式到代理人系統

AI 的發展路徑正在經歷一次重大的典範轉移。黃仁勳早在 GTC 2024 便明確指出,產業已經走過了「生成式 AI」(Generative AI)階段,跨越了「推論與推理」(Reasoning),正式邁入第三個轉折點:代理人系統(Agentic Systems)。

這個判斷在兩年後被徹底驗證。根據 GTC 2026 的主題演講,輝達進一步提出了「第四擴展定律」(Agentic Scaling)的概念——AI 系統不再只是被動回應問題,而是能夠自主推理、調用外部工具、甚至與其他 AI 代理人進行多步驟協作。這意味著 AI 從一個超級百科全書,進化成了具備自主性的數位員工。

黃仁勳曾用一個生動的例子來詮釋這個轉變:「過去工程師去上班,公司會配發一台筆記型電腦;現在工程師去上班,公司不僅給筆電,還會配給他一筆代幣預算(Token Budget)。」在他看來,企業未來可能花 30 萬美元年薪聘請一位頂尖工程師,但如果這位工程師在工作中完全不消耗任何 AI 代幣,老闆反而應該質疑他的工作效率。

這個觀點的深層意涵在於:代幣(Tokens)正在成為企業運營的基本消耗品,如同水電般不可或缺。而隨著代理人架構的普及,代幣的消耗量正以指數級攀升——因為每個代理人在執行任務時,不僅自己消耗代幣,還會衍生出子代理人,形成複合式的推論需求。這正是推論算力需求遠超預期的根本原因。


從生產工具到印鈔機:運算晶片成為代幣製造工廠

順著代幣消耗品的邏輯,黃仁勳提出了一個顛覆傳統硬體產業認知的框架:未來的電腦不再只是工具,而是「製造設備」(Manufacturing Equipment)。

傳統上,企業購買電腦是當作工具給員工使用;但現在,超大型雲端服務商與企業瘋狂採購輝達的 GPU 叢集,是為了「生產代幣」。黃仁勳將輝達的 AI 工廠比喻為早期的交流發電機或是半導體業不可或缺的 ASML 曝光機——客戶買下這些昂貴的設備,是因為它們能持續生產出有價值的商品,並直接轉化為營收。

GTC 2026 將這個「AI 工廠」概念推向了新的高度。Futurum Group 的分析師 Brendan Burke 指出,本屆大會的核心敘事是輝達已完成從無晶圓廠半導體設計公司到「全球級基礎設施供應商」的徹底蛻變。AI 工廠被定義為一種專為目的而建、以千兆瓦級規模運行的設施,而代幣則是其主要的經濟產出單位。

這也解答了市場長期的疑惑:為什麼客戶願意不斷追逐輝達最新、最貴的晶片?因為新一代晶片的「每瓦代幣產出成本」正呈指數級下降。而客戶並不會因為購入新晶片就淘汰舊設備,而是同時運行新舊系統——只要這台代幣印鈔機還能高效產出,就有持續運作的商業價值。


兆元級的絕對自信:從 Blackwell 到 Vera Rubin

GTC 2024 時,黃仁勳透露輝達對 Blackwell 及下一代 Rubin 架構擁有「超過 1 兆美元的極高能見度」。兩年後的 GTC 2026,這個數字不僅被兌現,更被超越。

根據 CNBC 報導,黃仁勳在 GTC 2026 主題演講中宣布,Blackwell 與 Vera Rubin 的採購訂單預計到 2027 年將達到 1 兆美元。去年輝達曾預估兩個平台之間有 5,000 億美元的營收機會,而 2026 年 2 月財報後,財務長柯蕾特·克雷斯(Colette Kress)表示實際成長將超過該預估。輝達目前已連續 11 個季度營收年增率超過 55%,本季預期營收約 780 億美元,年增 77%。公司市值已突破 4.5 兆美元,穩居全球最高。

Vera Rubin 平台是本屆 GTC 的絕對焦點。這套系統由 130 萬個零組件構成,輝達宣稱其每瓦效能將是前代 Grace Blackwell 的 10 倍——在能源消耗已成為 AI 建設最關鍵瓶頸的當下,這是一項極具戰略意義的突破。Vera Rubin 預計在 2026 年下半年開始出貨。

從具體規格來看,Vera Rubin NVL72 的技術參數令人印象深刻。根據 StorageReview 在 GTC 會後的深度報導,單一 VR NVL72 機櫃包含 72 顆 Rubin GPU 與 36 顆 Vera CPU,每顆 Vera CPU 搭載 88 個 Olympus ARM 核心(相較於前代 Grace 的 72 核心)。在推論效能方面,整機 FP4 推論算力達 3.6 ExaFLOPS,是 Blackwell Ultra(GB300 NVL72)1.44 ExaFLOPS 的 2.5 倍。每顆 GPU 的 NVFP4 推論效能從 20 PFLOPS 躍升至 50 PFLOPS,訓練效能則從 10 PFLOPS 提升至 35 PFLOPS。

記憶體與互連方面的升級同樣顯著。Rubin GPU 採用 HBM4 記憶體,每顆提供 288 GB 容量與 22 TB/s 頻寬,相較 Blackwell Ultra 的 HBM3e 實現了近三倍的頻寬提升。NVLink 也從第五代升級至第六代,每顆 GPU 的互連頻寬從 1.8 TB/s 倍增至 3.6 TB/s,整機 NVLink 頻寬達 260 TB/s。網路方面,ConnectX-9 SuperNIC 提供 1.6 TB/s 的擴展頻寬,CPU 與 GPU 之間的 NVLink-C2C 連接也從 900 GB/s 提升至 1.8 TB/s。這些數字共同描繪出一幅清晰的圖景:Vera Rubin 不是漸進式升級,而是一次架構級的世代躍遷。

更引人注目的是,黃仁勳還揭示了 Kyber 架構的原型——這是繼 Rubin 之後的下一代機櫃級架構,將 144 顆 GPU 以垂直排列方式整合在運算托盤中,以提升密度和降低延遲。Kyber 設計將應用於 Vera Rubin Ultra,預計 2027 年出貨。


Groq 併購:推論加速的關鍵棋子

GTC 2026 最令人驚訝的產品發布之一,是 Groq 3 語言處理單元(LPU)——這是輝達在 2025 年 12 月以 200 億美元完成的史上最大收購案後,首次推出來自 Groq 的晶片。

Groq 的創辦團隊來自 Google 內部的 TPU(張量處理單元)項目,其 LPU 架構專為超低延遲推論而設計。黃仁勳的策略很清晰:GPU 擅長高吞吐量的批次處理,而 LPU 則專攻低延遲的即時互動推論。將兩者結合,就能同時滿足代理人系統中截然不同的運算需求。

具體而言,Groq 3 LPX 機櫃可容納 256 顆 LPU,設計為與 Vera Rubin 機櫃並排運行。黃仁勳表示,LPX 機櫃能將 Rubin GPU 的每瓦代幣效能提升 35 倍。「我們統一了兩種截然不同的處理器——一個專注高吞吐量,一個專注低延遲,」黃仁勳說,「但這不改變我們需要大量記憶體的事實,所以我們加入大量 Groq 晶片來擴展記憶體容量。」

這筆收購的戰略意義不容小覷。在代理人系統架構下,推論的計算模式正從單一的批次處理,轉向高吞吐與低延遲並存的混合工作負載。輝達透過併購 Groq,一舉補齊了其在確定性低延遲推論上的短板,同時也消滅了一個潛在的競爭對手。

從硬體規格的對比中,可以更直觀地理解這兩種架構的互補性。單顆 Rubin GPU 搭載 288 GB HBM4 記憶體,頻寬 22 TB/s;單顆 Groq 3 LP30 LPU 則僅有約 500 MB 的堆疊式 SRAM,但頻寬高達 150 TB/s——幾乎是 GPU 的七倍。一個 LPX 機櫃容納 256 顆 LPU,聚合 SRAM 容量約 128 GB,機櫃內部互連頻寬達 640 TB/s。當 LPX 機櫃與 VR NVL72 透過 Spectrum X 互連協同運作時,注意力解碼(Attention Decode)在 Rubin GPU 上處理,前饋層(Feed Forward Layers)則卸載至 LPU,實現了真正的異構協作推論。

值得補充的是,根據黃仁勳在 GTC 2026 的確認,Groq LPU 晶片由三星(Samsung)代工製造——這是輝達首次在其核心產品線中引入台積電以外的晶圓代工夥伴,反映出在產能分散化策略上的務實考量。


從技術規格來看,NextPlatform 在 GTC 2026 會後深入分析了 R200 GPU 與 LP30 LPU 的協同架構。R200 是動態排程的通用運算引擎,擅長批次化大量推論請求並透過 HBM 堆疊記憶體進行管線化處理,支援大規模並發使用者。LP30 則是靜態排程、確定性的推論專用引擎,將模型權重(而非資料)分散到其聚合 SRAM 中,使得代幣生成的回應時間隨著機器數量的增加而線性下降。用 Nvidia 內部的比喻:GPU 是「脫粒機」,LPU 是「速度惡魔」——兩者透過 Dynamo 推論堆疊協同運作,提供從免費到高級層級的完整推論效能曲線。

值得注意的是,Nvidia AI 與 HPC 副總裁 Ian Buck 在會前簡報中透露,原本規劃的 Rubin CPX 大型上下文運算引擎已被取消,取而代之的是直接將 Groq 的 LPU 和 LPX 機櫃整合進 Rubin 平台。「我們發現了一個絕佳的方案,」Buck 表示,「將 LPU 和 LPX 整合到我們的 Rubin 平台中來最佳化解碼階段。」這個決策的戰略意義重大——Nvidia 不僅省去了另起爐灶開發專用推論晶片的時間成本,更直接獲得了 Groq 團隊十年累積的確定性推論架構經驗。黃仁勳在演講中明確表示,低延遲的高級代幣生成應佔 AI 叢集運算量的 25% 左右,這為 Groq 的 LPU 在整個生態系中劃定了清晰的市場定位。

從推論經濟學的角度來看,這種混合架構的意義在於為不同的使用情境提供差異化定價。對於對延遲不敏感的場景——如聊天機器人與基本的自動化代理人——Vera Rubin GPU 已經綽綽有餘。但在代理人 AI 的世界中,代幣生成量將呈爆炸性成長,而代幣生成的延遲直接影響系統的整體吞吐效能。LP30 的加入,讓 Nvidia 能夠在效能曲線的最右端——也就是超高速、超低延遲的「超級」層級——提供前所未有的推論速度,而這正是未來利潤最豐厚的市場區間。

從競爭格局來看,這項策略並非沒有挑戰。Cerebras 近期宣布與 AWS 達成重大合作,將其晶圓級引擎(Wafer-Scale Engine)與 AWS 的 Trainium 晶片結合,在解碼階段實現顯著的效率提升。這代表著推論市場正在形成多元化的競爭態勢——儘管輝達擁有最完整的全棧方案,但專注於特定環節的挑戰者仍有機會在利基市場中佔據一席之地。然而,輝達的優勢在於其解決方案的廣度:從預填充到解碼、從高吞吐到低延遲,一站式滿足所有推論需求,這是任何單點突破者難以複製的。

開源模型的逆襲:AI 界的 Linux 時刻

在生態系的布局上,黃仁勳一直強調開源模型的戰略地位。早在 GTC 2024,他便指出除了 OpenAI 的閉源巨獸之外,市場使用量第二大的是由各大開源模型加總的生態系——Meta 的 Llama 系列、法國新創 Mistral、以及後來迅速崛起的 DeepSeek 等。

「開源模型就像是 AI 電腦的作業系統,」黃仁勳將其比喻為當年的 Linux。如同 Linux 推動了網際網路與雲端運算的普及,開源模型正使得每一家企業都能以極低門檻打造自己的 AI 系統。

為了加速這個生態系的發展,輝達推出了 NIM(Nvidia Inference Microservices)微服務,將複雜的模型封裝成簡單的 API,幫助企業輕易地將開源模型部署到輝達硬體上。商業邏輯很清晰:當開源模型越強大、越普及,企業對底層算力的需求就越飢渴,從而形成穩固的正向循環。

這個策略在兩年間已產生顯著成效。根據 NVIDIA 2026 年的報告,全球已有 64% 的企業正在積極部署 AI 技術,大型企業的採用率更高達 76%。企業端對於在本地部署開源模型的需求尤其強勁——這既是出於資料安全的考量,也是捍衛「智慧主權」的戰略選擇。


推論競爭的護城河:為何對手難以撼動輝達帝國

面對市場上新興的 AI 晶片挑戰者,黃仁勳在歷屆 GTC 的問答環節中始終保持一致的論述:推論的難度被嚴重低估。

「很多人認為訓練模型很難,但推論很簡單,這完全是錯誤的觀念。」他直言不諱。對於擁有數千億甚至數兆參數的大型語言模型,推論的計算挑戰極高。競爭對手採用 SRAM 架構的晶片,雖然在小規模模型上可能展現驚人速度,但 SRAM 容量極小,根本無法承載主流的龐大模型。

當模型大到必須切割並跨越多個晶片運算時,真正的瓶頸出現了——通訊頻寬與網路延遲。這正是輝達難以被跨越的護城河。輝達交付的從來不只是單一晶片,而是系統級的設計能力:從超大容量的 HBM 記憶體、NVLink 高速互連技術,到機櫃級的液冷散熱系統,這是一整座高度同步、超低延遲的 AI 工廠。

GTC 2026 進一步鞏固了這道護城河。Vera Rubin 平台引入了「分散式運算」(Disaggregated Compute)架構,將傳統的單一運算節點拆分為專用的機櫃級系統。同時新推出的 Vera CPU 專為代理人 AI 所需的序列推理而設計,與 GPU 的平行運算形成互補。加上併購 Groq 帶來的 LPU 技術,輝達現在擁有七種晶片和五種機櫃架構的完整產品組合——這種全棧式的系統整合能力,是任何單點突破的 ASIC 對手所無法企及的。

黃仁勳在演講中特別強調,Vera CPU 的獨立銷售業務已經展現出強勁動能。「我們正在大量銷售獨立 CPU,」他表示,「這肯定已經是一個數十億美元級別的業務。」CoreWeave 預計將成為首批在 2026 年下半年部署 Vera CPU 機櫃的雲端供應商之一。CPU 在 AI 推論中的角色正在被重新定義——從過去的系統協調者,升級為代理人系統所需的低延遲推理與編排的關鍵運算引擎,尤其是在強化學習(Reinforcement Learning)所需的密集資料預處理與環境模擬方面。

記憶體供應鏈也在同步到位。Micron 在 GTC 2026 宣布 HBM4 36GB 記憶體已進入量產,頻寬較前代提升 2.3 倍,打消了市場對產能延遲的疑慮。而 Nebius Group 與 Meta 之間高達 270 億美元的基礎設施交易(其中 120 億美元為 Vera Rubin 產能),更具體展現了企業對輝達下一代平台的信心。

除了核心的 GPU 和 LPU 之外,輝達在 GTC 2026 還展示了兩項關鍵的基礎設施擴展。首先是 Bluefield-4 STX 參考架構,這將輝達推進了 AI 原生儲存市場。在代理人系統中,AI 必須管理大量的鍵值快取(Key-Value Cache)資料,對儲存系統的回應速度要求極高。Bluefield-4 透過模組化設計提供給整個儲存生態系,確保輝達的矽晶片坐鎮於第三方儲存解決方案的核心。其次是 Spectrum-6 網路架構,將輝達的影響力進一步延伸至更廣泛的資料中心網路架構市場。這些戰略性的產品線擴張,正在將輝達從一家晶片公司轉變為資料中心基礎設施的全面供應商。


最強紅娘:幫雲端大廠帶客流的超級業務員

除了技術護城河,輝達在商業模式上的巧思同樣令人嘆服。為什麼各大雲端巨頭即使面臨高昂成本,仍心甘情願地持續採購?黃仁勳點出了核心關鍵:輝達不只賣硬體,還負責帶客流。

這得益於輝達深耕超過十年的 CUDA 開發者生態系。當無數的新創公司與開發者使用 CUDA 構建 AI 應用後,他們需要龐大的算力來運行。這時輝達就像超級紅娘,將這些開發者導向 AWS、GCP、Azure——那裡有準備好的輝達 GPU 等著他們。

對雲端大廠而言,向輝達買伺服器等同於買進了源源不絕的付費開發者。這讓輝達實質上成為了雲端大廠最強大的外部業務團隊。這種雙贏的共生關係,進一步鎖死了輝達在供應鏈中無可取代的話語權。


財務底氣與前瞻

從財務面來看,輝達正處於前所未有的強勢地位。連續 11 個季度營收高速成長,本季預估營收約 780 億美元,年增 77%。更驚人的是,輝達在 2025 年 10 月成為史上首家市值突破 5 兆美元的企業,儘管此後股價有所回檔,但 GTC 2026 的一系列公告再度為市場注入強心針。隨著 1 兆美元以上的訂單能見度逐步轉化為實際營收,輝達正產生極為驚人的自由現金流。

財務長克雷斯明確承諾,除了將資金用於預付供應鏈產能、投資下一代研發外,將透過股票回購與股息發放,將絕大部分自由現金流回饋股東。一家處於爆發性成長期的科技巨頭,還能同時進行大規模資本回饋,這在科技史上實屬罕見。

然而,隱憂並非不存在。台積電先進封裝產能的瓶頸、地緣政治變數(特別是美國對中國的晶片禁令持續升級),以及 AI 基礎建設投資能否轉化為足夠的終端應用營收,都是投資人需要持續監測的風險因子。當所有人都在押注同一個方向時,往往正是需要最審慎思考的時刻。

在產品路線圖方面,黃仁勳還首度揭示了 Feynman 架構的初步規劃——這是繼 Vera Rubin 和 Rubin Ultra 之後的下一代平台,預計 2028 年推出。雖然具體細節仍然有限,但已公布的晶片陣列包括新一代 AI 處理器與多款網路晶片,顯示輝達正在為 AI 基礎設施的下一個十年預先佈局。這種清晰的多年期路線圖,為生態系合作夥伴和雲端服務商提供了進行大規模資本部署所需的規劃確定性。


結語:我們正站在推論經濟的起點

回顧從 GTC 2024 到 GTC 2026 的演進,輝達的戰略路徑異常清晰:從販售晶片,到販售系統,再到定義整個 AI 基礎設施的產業標準。代幣經濟不再是概念,而是一個每季產出數百億美元營收的現實。推論不再是訓練的附屬品,而是 AI 商業化的主戰場。

GTC 2026 宣告的「推論拐點」(Inference Inflection),標誌著 AI 產業正從建設期進入營運期。當代理人系統開始自主消耗算力、自主產生價值,AI 基礎設施就不再是成本中心,而是真正的收入引擎。輝達正精準地卡位在這個歷史性轉折的核心——而且目前看來,沒有任何競爭者有能力撼動這個位置。


產業共識:從前沿實驗室到主權國家的全面押注

最能體現輝達在 AI 基礎設施領域不可撼動地位的,或許是來自前沿 AI 實驗室的一致背書。Anthropic 執行長 Dario Amodei 在 GTC 2026 上公開表示:「企業和開發者正在使用 Claude 進行越來越複雜的推理、代理人工作流程和關鍵決策。這需要能夠跟上步伐的基礎設施。NVIDIA 的 Vera Rubin 平台為我們提供了持續交付所需的運算、網路和系統設計,同時推進客戶所依賴的安全性與可靠性。」

OpenAI 執行長 Sam Altman 也做出類似聲明:「NVIDIA 基礎設施是讓我們持續推進 AI 前沿的基石。有了 NVIDIA Vera Rubin,我們將能以大規模運行更強大的模型和代理人,並為數億用戶提供更快速、更可靠的系統。」當兩家被視為最有可能顛覆輝達的 AI 公司(透過自研晶片或替代方案)都公開為其站台時,這本身就是對輝達護城河深度的最佳註腳。

在供應鏈端,Vera Rubin 平台的合作夥伴陣容同樣令人咋舌。雲端服務商包括 AWS、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure,以及 CoreWeave、Crusoe、Lambda、Nebius、Nscale、Together AI 等新興 AI 雲端供應商。系統製造商涵蓋 Dell Technologies、HPE、Lenovo、Supermicro,以及華碩、鴻海、技嘉、英業達、和碩、廣達子公司 QCT、緯創、緯穎等超過 80 家 MGX 合作夥伴——這份名單幾乎涵蓋了全球 AI 基礎設施供應鏈的每一個重要節點。

與此同時,「主權 AI」的浪潮也在加速推進。越來越多國家將 AI 算力視為如同能源和電信一樣的戰略性基礎設施,紛紛投入資金建設本土的 AI 工廠。這為輝達開闢了一個傳統科技公司難以觸及的市場——國家級的基礎設施採購。從日本、法國、印度到沙烏地阿拉伯,全球各地的主權 AI 計畫幾乎清一色選擇了輝達的平台,這進一步鞏固了其作為全球 AI 基礎設施「事實標準」的地位。



自主代理人的安全框架:NemoClaw 與 AI 治理

在軟體生態系方面,GTC 2026 的一項重要但容易被硬體光芒掩蓋的公告,是 NemoClaw 平台的推出。NemoClaw 整合了近期引發全球熱議的 OpenClaw 自主代理人平台,為其加入隱私保護與安全控制層。OpenClaw 能夠在極少人類監督的情況下自主執行各種複雜任務,而 NemoClaw 則確保這些自主行為在企業級的合規與安全框架內運作。

這項佈局的戰略意義在於:當代理人系統開始大規模部署於企業環境時,安全性與可控性將成為採購決策的關鍵考量。輝達透過提供從底層硬體到上層安全框架的完整堆疊,進一步鞏固了其作為企業 AI 基礎設施「一站式供應商」的市場定位。正如 Technalysis Research 總裁 Bob O'Donnell 所評論的:「他(黃仁勳)過去會拿出一顆新的 GPU 晶片說,看,這是我的新晶片。現在他展示的是由五種機櫃設備組成的完整系統。」這個從晶片到系統、從硬體到軟體的全面進化,正是輝達在 AI 時代保持領先的根本邏輯。

原始影片:https://youtu.be/7pwZEeIDX2U