黃仁勳押注Wayve?自駕車的下一步,用「具身AI」練出通用駕駛智慧

十多年來,自駕車像是每年都說要兌現、卻又一再延後的承諾。即便算力到位、感測器也日趨成熟,自駕車產業真正面臨的瓶頸是在「臨場反應」:下雨、施工、繞道、臨時改線,甚至一條沒走過的小巷,系統就可能亂了手腳。業界於是把力氣放在更精確的地圖與更縝密的規則上,但即便你沒上過路、也看過行車記錄器,馬路上的各種荒唐與亂數或許不是系統能模擬得出。

這也解釋了為什麼輝達(NVIDIA)將投資五億美元於Wayve上。成立於2017年的英國新創Wayve,開創了一條不太一樣的自駕訓練系統。一反過往只是不斷的把規則堆高,他們試圖把方向拉回讓AI「學會看懂世界」。學界把這條路叫做「具身AI」(Embodied AI)——AI要在實際環境裡一邊感知、一邊學習行動;這也正是輝達鋪陳已久的「實體AI」(Physical AI)之路。名詞不同,策略相近,都是要把AI從雲端拉到地面,面對變化、承擔結果。

黃仁勳笑稱為自駕車帶來了一顆新的大腦。(來源:Wayve

今年,Wayve把這個方向更往前推:宣布下一代Gen 3平台搭載NVIDIA DRIVE AGX Thor。簡單說,就是把車內的運算、模型推論與安全監控,收斂到一顆為車用設計、能跑大型模型的電腦上,目標是把「可脫手監管的Level 3」到「更高自動化的Level 4」做成能量產、能更新的產品線。


Wayve的「端到端基礎模型」是什麼?

傳統的自駕系統大多採用模組化設計。車輛先用感測器辨識路上的人與車,再把自己定位到高精度地圖,最後交由決策模組規劃動作。這種做法結構清楚、方便監管,但同時非常龐大,也容易受限。一旦地圖沒更新,或其中一個模組出現誤差,系統就可能陷入混亂。

Wayve則嘗試走另一條路。他們採用「端到端基礎模型」,讓同一個AI直接學會從「看到」到「行動」的完整過程,而不是拆成好幾個環節。這種設計比較像是有經驗的駕駛,不需要背下所有規則或每一條路的細節,只要看懂眼前的情況,就能立刻反應。

也因為這種方法,Wayve的系統自然具備「去地圖化」(mapless)的特性。它不依賴龐大的高精地圖,而是靠自身累積的「路感」在陌生環境中做判斷。

為了驗證這點,Wayve在「AI-500 Roadshow」中,把同一份模型帶到全世界九十座城市,沒有重新訓練,也不靠地圖微調,直接上路測試。結果顯示,這套系統確實能展現跨地域的泛化能力,對Wayve來說,這正是「具身AI」的具體體現,也是他們口中能真正上路的通用駕駛智慧。

已在日本測試的Wayve自駕系統。(來源:Wayve)


GAIA-2世界模型:撐過現實的長尾挑戰

正如前面所提到,自駕車的瓶頸,往往不是日常路況,而是那些一年可能只遇上幾次的罕見場景。這些情境危險卻極少發生,光靠真實道路測試幾乎不可能湊齊,但若系統沒有經歷過,就很難保證安全。

多數自駕公司都有模擬平台。像是Waymo、Cruise會用數位孿生把城市重建起來,再用回放數據反覆驗證系統。特斯拉則依賴龐大的車隊資料,模擬環境多半是把既有片段改造成不同天候或光線,用來補強模型。但這些方式大多是「重播舊片」,這種方式很難創造出大量的全新、未曾見過的突發事件和危險場景,這使得模型訓練的覆蓋範圍仍存在巨大缺口。

Wayve則打造了「GAIA-2」世界模型,一個專門為駕駛訓練設計的生成式模擬器。GAIA-2能根據需求生成全新的場景,並保持物理上的一致性。工程師可以安排各種長尾挑戰,從近乎碰撞的急煞,到跨國交通規則的轉換,讓模型在真車上路前就已經歷過這些壓力測試。對Wayve來說,這正是補齊端到端基礎模型「靠經驗學習」所缺口的關鍵。

「GAIA-2」世界模型可說是自駕AI的訓練場。(來源:Wayve)


這筆五億美元的投資,來得並非突然。Wayve早已和輝達保持密切往來,不只是採用DRIVE Thor車用電腦,也依靠DGX Cloud和Omniverse來進行訓練與模擬。

除了輝達外,微軟Azure提供了大規模的雲端算力,讓他們能訓練端到端基礎模型,SoftBank則帶來資金與日本市場的落腳點。應用端上,他們和Uber在倫敦展開測試,Nissan計畫把Wayve AI Driver與ProPILOT系統整合,目標在2027年推出量產車。物流業者Ocado也早早成為測試夥伴,用配送車隊檢驗技術。

這些策略聯盟與合作讓Wayve成為一個把運算、車廠和移動服務平台串起來的節點。對輝達來說,這筆投資更像是一個「物理AI」概念實際落地的成果發表。下一步,這樣的通用駕駛智慧,真能把Robotaxi帶上街頭嗎?或許還有一些挑戰,但相信不遠了。

返回頂端