
▲輝達GTC大會。(圖/翻攝輝達官方YT)
記者張靖榕/綜合報導
輝達(NVIDIA)在2026年GTC大會上宣布推出新一代Vera Rubin AI平台。輝達執行長黃仁勳表示,該平台代表AI運算的一次世代級跨越,由7款全新晶片架構組成,打造專門面向代理型AI(Agentic AI)的新型AI基礎設施。整體系統以多種機架架構整合成一台大型AI超級電腦,可支援從模型訓練到推理的完整AI運算流程。
七大核心晶片構成AI運算架構
輝達指出,Vera Rubin平台整合七項核心元件,包括Vera CPU、Rubin GPU、NVLink 6交換器、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6乙太網路交換器,以及新整合的Groq 3 LPU推理加速器。透過系統層級的協同設計,整體架構可支援多種AI工作負載,包括大規模預訓練(pretraining)、後訓練(post-training)、測試時擴展(test-time scaling)與即時Agent推理(agentic inference)。

▲黃仁勳。(圖/翻攝輝達官方YT)
黃仁勳:代理AI轉折點已到來
黃仁勳指出,AI產業正迎來重要轉折點,「Agentic AI的轉折已經到來」。他表示,未來企業將大量部署能自主執行任務的AI代理系統,而Vera Rubin平台將成為支撐新一波AI基礎設施建設的重要核心。
AI資料中心正轉向大型「AI工廠」
輝達表示,AI基礎設施正從過去以單一晶片與伺服器為主的架構,轉向機架級(rack-scale)與POD級(pod-scale)系統,並進一步發展為大型「AI工廠」(AI Factory)。在這種架構下,計算、網路與儲存系統會進行整體協同設計,使整個AI資料中心像一台大型超級電腦運作。

▲輝達GTC大會。(圖/翻攝輝達官方YT,下同)
MGX生態系共同打造大型AI系統
Vera Rubin平台正是為此需求設計。輝達表示,該平台透過超過80家MGX生態系合作夥伴與全球供應鏈共同打造,能將多個機架整合為單一運算系統,以支撐超大型AI模型的運算需求。
NVL72機架成核心運算節點
Vera Rubin平台的核心架構為NVL72機架系統,整合72顆Rubin GPU與36顆Vera CPU,並透過NVLink 6高速互連形成完整AI運算節點。同時搭配ConnectX-9 SuperNIC與BlueField-4 DPU,以提升整體資料傳輸效率。輝達指出,在訓練大型混合專家模型(Mixture-of-Experts)時,該系統所需GPU數量僅為Blackwell平台的四分之一,而推理效能每瓦最高可提升10倍,大幅降低AI模型每Token的運算成本。
高速網路擴展大型GPU叢集
NVL72系統可透過Quantum-X800 InfiniBand或Spectrum-X乙太網路擴展至更大規模的GPU叢集,使系統能維持高運算利用率,同時縮短AI模型訓練時間。

Vera CPU機架支援模擬與驗證
為支援Agentic AI與強化學習等新型AI工作負載,輝達也推出Vera CPU機架。該系統整合256顆Vera CPU,可提供大量CPU運算資源,用於模擬與驗證GPU模型的決策結果。輝達表示,Vera CPU在單執行緒效能與能源效率方面均大幅提升,相較傳統CPU平台可達效率提升2倍、速度提升50%。

Groq LPU強化AI推理能力
在推理運算方面,輝達推出Groq 3 LPX推理機架,整合256顆LPU處理器與128GB片上SRAM,可提供高達640TB/s系統頻寬。當與Rubin GPU協同運作時,推理效能每兆瓦可提升35倍,並能支援兆參數模型與百萬Token上下文推理。
BlueField儲存架構處理AI資料快取
在儲存架構上,輝達推出BlueField-4 STX儲存機架,透過DPU技術打造AI原生儲存層,專門處理大型語言模型與AI代理系統產生的KV Cache。搭配新的DOCA Memos儲存框架,可使推理吞吐量最高提升5倍,同時提高能源效率。
Spectrum-6網路支撐AI資料中心流量
在網路系統方面,Spectrum-6 SPX乙太網路機架負責AI資料中心內部大量東西向流量(east-west traffic)。透過光子整合技術,該系統可提供更高頻寬與更低延遲的機架互連能力。

雲端與伺服器產業全面加入生態系
輝達表示,Vera Rubin平台預計於今年下半年由合作夥伴推出,包括Amazon Web Services、Google Cloud、Microsoft Azure與Oracle Cloud等雲端服務商,以及CoreWeave、Crusoe、Lambda、Nebius、Nscale與Together AI等AI雲端平台。
台灣伺服器供應鏈將推出相關產品
在系統製造商方面,Cisco、Dell、HPE、Lenovo與Supermicro等企業,以及鴻海、廣達旗下雲達科技、英業達、緯創、緯穎、技嘉、華碩與和碩等台灣伺服器供應鏈廠商,也將推出相關產品。
AI研究機構將使用新平台訓練模型
此外,OpenAI、Anthropic、Meta與Mistral AI等AI研究機構也計畫使用Vera Rubin平台,訓練更大型AI模型,並部署長上下文與多模態AI系統。
黃仁勳:AI資料中心將成為生產力引擎
黃仁勳表示,未來AI資料中心將逐步轉型為「AI工廠」,大規模生產AI推理能力與智慧服務。他指出,「我們正站在新的運算時代開端。AI將成為生產力引擎,幫助人類解決世界上最困難的問題,這一切才剛起步。」
讀者迴響