OpenAI最近發表了被許多人詬病為「災難」的GPT-5新模型,先不討論他們拿掉所有舊模型引起的爭議,以及新模型忽略了情緒支持的選擇,有一個對我而言更有趣的觀察,那就是我們在GPT-5介紹文章中提到的——「降低幻覺」、「更加誠實」、「減少討好」的三大特點。乍看之下,這只是OpenAI的產品設計選擇,但如果把這放進AGI的脈絡,或許,「不知道就不要亂講」是邁向通用人工智慧的重要關鍵?

(來源:OpenAI)
「不知道」是一種生存策略
自從ChatGPT出現,「一本正經的講幹話」就成為大型語言模型的一大特徵;而關於「幻覺」是什麼,我們也曾專文討論過。LLM是基於神經網絡,透過大規模的數據,讓機器自行湧現模式,而非基於符號與規則的AI;這條路線是由辛頓開啟,源自於他對大腦與意識的長期好奇。
辛頓的想法是:既然我們無法完全理解大腦與意識,那就先造出能像人一樣思考的AI——先模仿,後理解,貫徹圖靈的「模仿遊戲」。而如果要真正模仿人類智慧,就不能只是模仿知識與推理,還得學會人類在面對不確定性時的風險判斷機制,這正是數億年生物演化塑造的核心本能。
追根究底,「不知道就不要亂講」其實是一種「知道自己不知道」的能力。
如果大模型的智慧,單純只是知識和推理,那「知道自己不知道」或許不那麼重要;但如果智慧上綱到「生存策略」的層次,它就與「在不確定的世界中,做出最安全、最有效的決策」息息相關。
舉例來說,假設我不能確定草叢裡有沒有蛇,那我可能會先觀察,或者直接繞開草叢,這樣的策略就能提高生存機率。因此,「不知道」本身就是一種生存策略。當然,AI沒有生存本能,但它必須得有——畢竟在自駕車、人型機器人這樣的具身智慧應用中,假使它高估了自己的正確性,很有可能就會做出致命的決策。
況且,這種能力也不只關乎安全,更是探索知識邊界的關鍵。
「不知道」才能探索知識邊界
前陣子,能預測蛋白質摺疊的AlphaFold,因為帶來藥物設計新突破,讓哈薩比斯(Demis Hassabis)獲得諾貝爾化學獎;不僅Google DeepMind,其他AI前沿的幾個關鍵玩家也都抱著同樣的期盼。
Sam Altman在長文〈The Gentle Singularity〉中提過,「人工智慧會推動科學進步,提升生產力,改變人類的生活品質」,最近他更表示自己很羨慕Z世代,因為10年後的大學畢業生可能會上太空探索太陽系;至於想移民火星的Elon Musk,同樣也將「打造出幫助人類破解宇宙奧秘的AI」當作Grok的目標;很顯然,科技這股動力,都期待超智慧能夠為人類帶來「生命、宇宙及萬事萬物的終極答案」,而這次,我們恐怕無法接受答案就是42。
如同蘇格拉底的名言:「我只知道我一無所知。」這正是科學的精神。沒有承認無知,就不會有提出假設的動機,而假設、實驗、驗證或者修正假設,提出新的理論,一向是人類邁向真理的路徑,人類如此,AI也該如此。因此,即便GPT-5沒有帶來大幅進化的體驗,但承認不知道,辨別出自己的知識邊界,或許就是AI進化的第一步。
講到這,也導向了一個問題——目前所有的AI模型基準測試,比方我們曾介紹過的「人類的最後考試」(Humanity’s Last Exam),幾乎都只把解題視為能力指標。但或許,「不知道」和解題能力同樣重要。就和人類的考試,不會就不要答,空在那頂多沒拿到分數,想瞎猜?你也要先掂掂自己矇中的機率,否則可是會倒扣的。
假使基準測試未來加入了倒扣機制,AI模型就得自己去煩惱到底要猜,還是不猜?要發揮創意、採取冒險的決策,或者是謹慎保守,直接承認不會?這或許會改變AI的訓練策略,逼AI發展出近似「生存策略」的後設認知。也許,這會是通往AGI不可或缺的一環。





