在剛剛落幕的 NVIDIA GTC 2026 大會上,執行長黃仁勳(Jensen Huang)的演講與會後訪談,為我們帶來了比以往更加龐大且震撼的技術藍圖。這次大會給人的最大感觸是:NVIDIA 已經徹底褪去了單純「晶片製造商」的外衣,正式轉型為掌控全局的「系統級加速運算巨獸」。
在這場資訊量極大的盛會中,黃仁勳不僅回顧了 CUDA 的初心,更罕見地探討了 CPU 的戰略地位、推論架構的極限,甚至直言不諱地抨擊了華府當前的地緣政治與監管風氣。以下是本次大會的深度拆解與核心洞察。
重新定義加速運算:當 AI Agent 開始使用人類工具
我們不是一家單純的晶片公司,NVIDIA 是一家『加速運算公司』(Accelerated Computing Company)。——黃仁勳
這並非老調重彈的懷舊,而是為了解決當下最迫切的痛點。隨著大型語言模型(LLM)的演進,未來的 AI 已經不再只是個聊天機器人,而是具備自主行動能力的「AI 代理」(AI Agents)。有趣的是,這些 AI Agent 為了完成任務,必須大量呼叫原本專為人類設計的傳統軟體,例如 Excel、Photoshop,甚至是在關聯式資料庫中下 SQL 指令。
傳統軟體架構並非為 AI 的瞬間高併發需求所設計。當成千上萬個 AI Agent 同時試圖操作一個 Excel 巨集或查詢資料庫時,系統會瞬間崩潰。為了解決這個問題,黃仁勳指出,所有底層軟體都必須被「加速」。透過軟硬體垂直整合——涵蓋晶片、InfiniBand/Ethernet 網路、儲存架構到系統散熱設計,NVIDIA 正致力於打造「AI 工廠」(AI Factories),直接幫企業客戶扛下部署大規模 AI 基礎設施的成本風險與極端複雜性。
這個定位轉變的商業意涵極為深遠。NVIDIA 過去的營收模式是賣晶片,利潤率取決於晶片的設計優勢與製程領先幅度。但作為「加速運算平台」,NVIDIA 的利潤來源將擴展到系統整合、軟體授權與技術服務。根據其最新財報,NVIDIA 資料中心業務的營收在 2025 財年已突破 1,150 億美元,年增率仍維持在 65% 以上——這個增速對於一家已經如此龐大的企業而言,幾乎是史無前例的。
Vera CPU 的逆襲:打破「GPU 萬能論」的異質運算拼圖
如果說過去幾年是 GPU 獨領風騷的時代,那麼 GTC 2026 最讓人意外的轉折,莫過於 CPU 重回舞台中心。
業界曾一度認為通用型 CPU 會被邊緣化,但黃仁勳對此做出了澄清:「NVIDIA 從未反對 CPU,我們反對的是將所有工作都硬塞給通用處理器去處理的那種低效模式。」
為何現在需要更強的 CPU
在 AI Agent 時代,模型需要頻繁進行「工具呼叫」(Tool Use)。這涉及了大量繁雜的 I/O(輸入/輸出)切換以及單執行緒(Single-thread)的任務。這類工作如果交給 GPU 處理,就像是用大砲打小鳥,極度缺乏效率。
為此,NVIDIA 推出了全新的 Vera CPU。這款處理器的設計哲學與當前雲端大廠(如 AWS 的 Graviton、Google 的 Axion)狂堆核心數、犧牲單核時脈的策略截然不同。Vera CPU 專注於極致的單執行緒效能(Single-thread Performance)與超高記憶體頻寬。
NVIDIA 的盤算是,在由高價 GPU 組成的異質運算架構中,絕不能讓 CPU 成為拖累資料吞吐的效能瓶頸。Vera 的出現,補齊了這塊至關重要的運算拼圖。這也意味著 NVIDIA 正式進入了 Intel 和 AMD 的傳統領地,異質運算時代的競爭版圖正在被徹底重繪。
收購 Groq 與推論架構的帕雷托最佳化
這絕對是本次訪談中最具爆炸性的亮點。針對 AI 推論(Inference)領域,黃仁勳深入探討了一個經典的工程兩難:系統設計往往在「吞吐量」(Throughput,關乎成本效益)與「延遲/智慧生成速度」(Token Rate,關乎使用者體驗)之間的帕雷托曲線(Pareto Curve)上拉扯。
過去,NVIDIA 總試圖說服市場「一套 GPU 架構可以完美應付所有推論情境」。但隨著程式碼編寫(Coding Agents)這類具備極高經濟價值、且對「極低延遲」與「極高 Token 生成速度」有著苛刻要求的應用崛起,單一架構已顯得力不從心。
為此,NVIDIA 做出了驚人之舉——正式收購曾被視為潛在勁敵的 AI 晶片新創 Groq,並將其 LPU(Language Processing Unit)技術深度整合進未來的系統架構中。
推論任務的「解耦」
NVIDIA 展現了令人畏懼的系統級最佳化功力。他們將大模型的推論過程拆解為兩個階段:
Prefill(預填充/理解上下文):交給算力與記憶體容量龐大的 Grace Blackwell 處理。
Decode(解碼/生成 Token):轉交給專注於極致低延遲、高頻寬的 Groq LPU 來執行。
透過將工作分配給最適合的硬體,NVIDIA 成功打破了帕雷托曲線的物理極限。這也是他們向市場上所有試圖透過特殊應用晶片(ASIC)彎道超車的對手——包括 Google 的 TPU、Amazon 的 Trainium,以及一眾 AI 晶片新創——發出的一記強烈警告:即便你在某個細分領域做得更好,NVIDIA 也可以直接買下你,然後把你整合進自己的生態系。
這筆收購的戰略意義遠超技術層面。Groq 的 LPU 架構以確定性延遲(Deterministic Latency)著稱——每次推論的耗時幾乎完全可預測,這對即時應用(如語音對話、自動駕駛決策)而言至關重要。將 LPU 整合進 NVIDIA 的系統堆疊後,企業客戶可以在同一套基礎設施中,依據不同工作負載的特性自動路由到最適合的硬體——高吞吐量的批次處理走 Grace Blackwell GPU,低延遲的即時推論走 Groq LPU。這種靈活性是任何單一架構都無法比擬的。
地緣政治的幽靈與抨擊 AI「末日論者」
在訪談的後半段,話題無可避免地轉向了敏感的地緣政治與華府的監管政策。黃仁勳一改往日的圓融,展現出極為銳利的態度。
針對美國對中國的半導體出口管制,黃仁勳直言不諱地指出一個弔詭的副作用:「這些管制雖然有其政治考量,但客觀上,它反而正在逼迫並加速中國本土 AI 生態系統的獨立壯大。」他以近期表現亮眼的開源模型 DeepSeek 與 Kimi 為例,證明硬體封鎖並未完全鎖死中國的 AI 進展。
如果美國不主動將我們的技術堆疊推向全球市場,最終我們極可能會步上過去歐洲的後塵,在這場新的工業革命中徹底落後。——黃仁勳
對抗監管捕獲與「末日論」
黃仁勳對當前華盛頓政治圈與部分科技巨頭所散播的「AI 末日論(Doomerism)」表達了強烈不滿。他犀利地剖析,這些充滿科幻色彩的恐懼警告,背後往往藏著利益算計:新創藉此博取眼球以利募資,而既得利益者則試圖透過製造恐慌來推動嚴苛的監管,進而達成「監管捕獲(Regulatory Capture)」,以此建立阻止競爭對手入局的護城河。
他警告,這種風氣正在危險地降低一般大眾對 AI 的接受度。為了讓美國在全球保持競爭力,必須鞏固他所提出的 AI 五層架構:電力供應(Power)、晶片製造(Chips)、基礎設施(Infrastructure)、基礎模型(Models)、終端應用(Applications)。每一層都不可或缺,而美國目前在電力供應和晶片製造這兩層面臨的挑戰最為嚴峻——前者受制於環評程序的冗長延宕,後者則高度依賴台積電的海外產能。
結語:一個無所不在的加速帝國
回顧這場 GTC 2026,我們看到了一個更加務實、但也更加具備侵略性的 NVIDIA。從針對 I/O 痛點推出的 Vera CPU,到為了解決推論瓶頸而收購 Groq,再到對全球地緣政治與監管風氣的強硬表態。黃仁勳的最終願景非常清晰:打造一個從硬體到底層軟體、完全開放卻又牢牢掌控核心標準的「無所不在的加速運算平台」。
對於其他競爭者來說,這個由算力與資本築起的帝國高牆,正變得前所未有地難以跨越。NVIDIA 不再只是在一條賽道上領跑——它正在同時建設多條賽道,並制定所有賽道的規則。對投資者和產業觀察者而言,GTC 2026 傳遞的訊號再明確不過:AI 基礎設施的競爭才剛進入中場,而 NVIDIA 正在確保自己是唯一有能力提供完整解決方案的玩家。
原始連結:https://stratechery.com/2026/an-interview-with-nvidia-ceo-jensen-huang-about-accelerated-computing/