距離AGI還要走多遠?Deepmind把通用人工智慧分五級,ChatGPT才在新手村

OpenAI執行長Sam Altman最近在《金融時報》採訪時透露,為了接下來「通用人工智慧」(Artificial General Intelligence,AGI)的發展,他正在跟微軟爸爸爭取更多的資金。看來,AGI似乎已經成為各方AI角逐者的終局目標。只是,AGI究竟是什麼呢?好巧不巧,前陣子Google Deepmind發表一篇名為〈通用人工智慧等級:實現通往AGI之路的進展〉(Levels of AGI: Operationalizing Progress on the Path to AGI)的論文,試圖重新定義這個顯得既氾濫又模糊的名詞,為AGI提供了一個更為實際且更有助於討論的全新框架。


AGI的9派定義介紹與局限

起先,我也和大家一樣大惑不解,為何要幫AGI分等級?《幽游白書》真人影集預告才剛釋出,難不成這是受到日漫影響,妖力S級、A級……之類的?仔細看了看論文,才發現Deepmind拿出「自駕等級」類比,就像國際汽車工程師學會(SAE)在2021年提出的自動駕駛分級,是從「駕駛輔助」到「完全自動」一共分作L1至L5五級,AGI也應該理當分級才是。嗯,確實有幾分道理。

在武斷地做出AGI的等級區分之前,Deepmind的論文先對過往AI大大們所提出的「AGI定義」進行一番指點和討論,來了一場禮貌大回顧。

1. 圖靈測試

先從最OG的「圖靈測試」(Turing Test)回顧起。圖靈在1950年發表了劃時代論文,他預言人類創造出具備智慧的機器的可能性。由於難以確切定義出何謂「智慧」,因此他提出了圖靈測試——也就是一台能與人類對話、並且不被辨別出機器的身分,那就通過了圖靈測試。

但眾所皆知,如今包括GPT在內的許多LLM都已經通過了圖靈測試。但很顯然,它們都還不算真正的AGI。

2. 強AI:擁有意識的系統

「強人工智慧」(Strong AI)是哲學家約翰塞爾(John Searle)提出的概念,他認為在經過適當的編程並賦予正確的程式之後,電腦也算是擁有思維。但某種程度來說,把AGI的構成條件推往更難被定義的「意識」,反倒更難進行討論。

3. 人腦類比

AGI一詞最早出現在馬克古布魯德(Mark Gubrud)在1997年的軍事技術的文章,他定義AGI是「在複雜性和速度上媲美或超越人腦的AI系統」。但Deepmind的論文指出,就算現代機器學習和神經網絡的確受到人腦的啟發,但未必就代表AGI得依照人腦的模式發展。

4. 認知任務達人類水準

這個AGI定義聽起來蠻合理,直到生成式AI的出現。何謂認知任務?簡單來說,就是非體力活的工作。可是,ChatGPT或Midjourney等工具都已經達到人類的水準了啊。那是不是能說,現在AI已經達到通用人工智慧的等級了呢?(打完收工)

5. 學習能力

倫敦帝國理工學院認知機器人學教授Murray Shanahan在他的著作《科技奇點》(The Technological Singularity)提出:「AGI是一種不專門執行特定任務的AI,而是能夠學習並執行與人類一樣廣泛任務的AI。」他的AGI框架,更強調了學習和通用的重要性。

6. 具備經濟價值的工作

根據OpenAI 2018年的憲章定義,AGI指的是「在大多數經濟價值工作中超越人類的高度自動系統」。但Deepmind論文認為這個定義有點狹隘,畢竟有許多與智慧相關的工作,並沒有明確的經濟價值,比方說藝術和創造類的工作。

7. 靈活與通用:咖啡測試與其他挑戰

另一位認知心理學科學家、前陣子才狂嗆Yann LeCun的Gary Marcus也有自己的AGI定義。他認為,AGI指的是在靈活性和通用性都具備了相當於或超越人類智慧的AI,他一共列出了五項任務類別,從看懂電影,到會在任何的廚房裡做飯。Deepmind論文說這很類似於蘋果的另一位史蒂夫Steve Wozniak曾提出的「咖啡測試」,指的是通用人工智慧,得到任一個美國家庭,找到咖啡機、找到咖啡豆、加水、找到杯子、到按下正確的按鈕,最終泡好一杯咖啡才算合格。

蘋果共同創辦人沃茲尼克嗆聲:「電腦能泡咖啡嗎?」

8. 人工「能力」智慧

另一位AI大咖,Deepmind創辦人、現又創立Inflection AI在搞另一個聊天機器人Pi的Mustafa Suleyman,在今年也出版了新書《即將到來的浪潮》(The Coming Wave)。裡頭提出人工能力智慧(Artificial Capable Intelligence,ACI)的概念,更著重在AI能做什麼,指出是「具有足夠能力和通用性,以完成開放世界的複雜、多步驟任務的AI系統。」他還提出他版本的「現代圖靈測試」,是他會拿出十萬美元給AI,而假設AI有辦法在幾個月內翻成一百萬美元就算通過。嗯,能做到我也服了。

9. 大型語言模型已是通才

兩位Google研究院的大神Blaise Agüera y Arcas和Peter Norvig最近提出,目前較為領先的大型語言模型(GPT-4、Bard、Llama 2、Claude)都已經算是AGI了。他們認為「通才」是AGI的關鍵屬性,而這些語言模型已經有足夠的通用性,比方可進行廣泛的討論、執行各種任務、處理多模態輸入輸出、多種語言操作等等。


AGI等級:從菜雞到超人

綜上所述,Deepmind論文接著歸納出更實用的「AGI 6大原則」來進行AGI的分級與定義:1)重點在於AI能做到什麼,而不是它如何做到2)通用性和能力同樣重要3)認知型任務與學習新事物的能力是衡量的標準4)重點在於潛力而非部署;5)生態效度,也就是在真實世界的實用性很重要6)關注在通往AGI的道路,而非單一終點

好的,如果你看到這邊已經逐漸恍神了,那不妨直接來看AGI的等級表吧!

通用性與能力狹義(專才,特定任務)廣義(通才,廣泛的非體力任務,包括學習新技能等後設認知能力)
Level 0:非AI狹義非AI
計算機軟體;編譯器
廣義非AI
人類訓練師計算,例如亞馬遜土耳其機器人
Level 1:新手
等於或略優於無技能的人類
新手級狹義AI
GOFAI;簡單基於規則的系統,例如SHRDLU(Winograd,1971)
新手級AGI
ChatGPT (OpenAI, 2023), Bard (Anil et al., 2023), Llama 2 (Touvron et al., 2023)
Level 2:熟手
贏過50%的有技能成年人
熟手級狹義AI
毒性檢測器,例如Jigsaw (Das et al., 2022);
智慧喇叭,例如 Siri (Apple)、Alexa (Amazon) 或 Google Assistant (Google);
VQA系統,例如PaLI (Chen et al., 2023);
Watson (IBM);
可用於如短文寫作、寫簡單程式的現行大型語言模型
熟手級AGI
從缺
Level 3:專家
贏過90%的有技能成年人
專家級狹義AI
拼字和文法檢查器,例如Grammarly(Grammarly,2023);
圖像生成模型,例如Imagen(Saharia et al., 2022),Dall-E 2(Ramesh et al., 2022)
專家級AGI
從缺
Level 4:大師
贏過99%的有技能成年人
大師級狹義AI
Deep Blue(Campbell et al., 2002), 
AlphaGo(Silver et al., 2016, 2017)
大師級AGI
從缺
Level 5:超人
超越所有人類
超人級狹義AI
AlphaFold(Jumper et al., 2021; Varadi et al., 2021), 
AlphaZero(Silver et al., 2018), 
StockFish(Stockfish, 2023)
超人級AGI
從缺

人類躺平AI才可怕

既然這篇Deepmind論文是以「實用性」作為出發點,那想必AGI的等級就不會只是列爽的。AI熱潮以降不斷出現的各種AI威脅論,大家都是耳熟能詳,只是對話很難聚焦的原因,就在於各方並沒有以相同的定義來作為討論的基礎。因此,這篇Deepmind論文就用了這個新框架,清楚地告訴我們,不同等級的AGI可能引發的風險與威脅。

自主性等級範例需解鎖的AGI等級導入風險與威脅
Level 0:非AI
人類做所有事
模擬方法(例如用鉛筆在紙上素描);
非AI的數位工作流程(例如在文字編輯器中打字、在繪畫程式中繪圖)
非AI零風險
Level 1:把AI當工具
人類完全控制,只是用AI自動執行普通的任務
用搜尋引擎尋找資訊;
用檢查文法App修改寫作;
用機器翻譯App讀取圖示
新手級狹義AI;
熟手級狹義AI
因過度依賴AI而失去技能;
破壞原有產業
Level 2:把AI當顧問
當人類召喚時,AI能發揮實質的作用
依賴語言模型來進行文件摘要;
使用程式生成模型加入電腦程式編寫;
透過複雜推薦系統來消費娛樂
熟手級狹義AI;
專家級狹義AI;新手級AGI
過度信任;
社會激化;
隱私成為目標;
被操控
Level 3:把AI當夥伴
針對目標和任務互動協調,人類與AI平等協作
藉由與下棋AI對練,訓練成為西洋棋手;
與AI生成的虛擬人進行社交互動和娛樂
新手級AGI;
專家級狹義AI;
熟手級AGI
擬人化(例如,寄生社會關係,指忽略實體生活社交);快速社會變革
Level 4:把AI當專家
主要由AI負責,人類提供指導和回饋
使用AI系統來推進科學發展(例如蛋白質折疊);大師級狹義AI;
專家級AGI;
大規模的社會倦怠;
大規模勞力置換(例如失業);
人類卓越性的殞落(人類的價值受到挑戰)
Level 5:把AI當代理人
完全自主的AI
自主AI驅動的個人助理大師級AGI;超人級AGIAI與人類的價值對齊問題
權力集中(得AI者得天下)

值得注意的是,AGI的能力高低並不直接與風險的高低有關,反倒是人類在部署AI時,為了偷懶的緣故而賦予AI「自主性」(Autonomy),這才會導致潛在的威脅。這點是人類在應用AI時需要去注意的,畢竟一個高能力但低自主性的AGI,還是相對安全的,因為它的行動仍然受到人類的控制和監督。好的。看起來這篇Deepmind論文真的把接下來的AI發展,以及可能性的風險講得頗清楚了。不曉得大家是否期待著這樣的未來呢?

訂閱電子報

返回頂端