為何日本人不願剝削AI?從一場賽局實驗剖析不同文化下的人機互動

大家都期待AI能讓生活更輕鬆:它能幫你寫文案、做簡報、排行程,甚至在你做決策之前,就預判你的預判。隨著AI開始替人「行動」、成為決策鏈的一環,這也代表著它不再只是工具,而是能與我們共事,甚至部分取代我們判斷力的「AI代理」

這樣的轉變,也引出了一個有趣且實際的問題:我們會怎麼對待這些前所未見的「存在」呢?

2025年3月,一篇發表於《Nature》子刊Scientific Reports的研究〈Human cooperation with artificial agents varies across countries〉,正是針對這個問題的實驗性觀察。該研究由德國慕尼黑大學「認知、價值與行為研究群」(Cognition, Values, Behaviour, CVBE)與來自日本早稻田大學、英國倫敦大學學院等機構的學者共同合作,探討不同的文化背景如何影響人們與AI的互動方式。

這個研究透過賽局實驗(game-based economic experiments)來模擬人們與AI代理之間的決策互動。研究發現:日本參與者比美國參與者更願意與AI代理合作,且在情緒與道德層面上,展現出明顯不同的反應。這些差異不只是反映科技是否普及,更深藏著人們如何理解這些「非人存在」,以及我們期望它們在社會中扮演什麼樣的角色。


面對選擇難題時,你會陷AI於不義嗎?

為了探討「不同國家文化是否會影響人們與AI代理的互動」,研究團隊設計了兩種經典賽局實驗:「信任遊戲」(Trust Game)與「囚徒困境」(Prisoner’s Dilemma),用以模擬人際互動中的信任、合作與背叛情境。研究邀請了600名來自日本的參與者,並將其行為與先前美國樣本(604人)進行比較。

值得注意的是,日本與美國皆是全球最早投入AI應用與研究的國家,不論在技術成熟度或普及程度上都處於相近水準。因此,本研究格外有助於凸顯「文化因素本身」對人機互動行為的潛在影響。

在實驗中,每位參與者只會參與其中一種實驗類型(信任遊戲或囚徒困境),並在實驗開始前被明確分配為與人類或AI代理進行互動,且事前就被告知對手的身分。為了讓AI不只是表面上的對手,而能更真實地扮演人類般的互動對象,研究團隊進行了更細緻的設計:這些AI對手並非隨機回應,而是模擬真實人類在相同遊戲中的選擇機率。例如:若人類在某一情境中平均有60%選擇合作,AI也會以同樣機率做出相同行為。加上有提示提醒參與者,這些AI代理能「理解彼此行為會共同影響結果」、「具備與人類類似的判斷邏輯」,強化其「擬人性」角色。

為了讓參與者的選擇更貼近現實情境,研究也設計了具體的獎勵制度:每位參與者皆可根據遊戲結果獲得額外獎金,最高達200日圓,並搭配基本報酬50日圓。遊戲中的「分數」會依照1點=2日圓的比例轉換為現金,讓每一次的合作或背叛,都真實牽動著參與者自身的得失。這樣的安排,正是為了避免參與者「隨便亂選」,進而更清楚觀察文化差異對人機互動行為的影響。

兩種賽局實驗的進行過程如下:

1. 信任遊戲

在信任遊戲中,兩名參與者分別扮演「玩家一」與「玩家二」。玩家一可以選擇結束遊戲,讓雙方穩定獲得30點;也可以選擇「冒險合作」,將決定權交給玩家二。此時玩家二若選擇回報信任,雙方各得70點;但若選擇背叛,玩家二將獨得100點,而玩家一將一無所獲(0點)。這個過程模擬了「是否願意信任對方,冒風險追求共好」的情境。

2.囚徒困境

囚徒困境則是同時進行的選擇。兩位玩家必須同時決定合作或背叛。若雙方都合作,各得30點;若一方背叛、另一方合作,背叛者得100點,合作者得0點;若兩人皆背叛,則各得70點。這個架構模擬了現實中「互不確定對方行為」下的利己與合作衝突。


具體數據怎麼說?

結果顯示,日本人對人類與AI的合作比例幾乎相同(信任遊戲中為71%對60%,囚徒困境中為41%對42%),而美國人則顯著傾向剝削AI(信任遊戲中與人類合作率為80%,對AI僅35%;囚徒困境為49%對36%)。而兩國參與者對AI的預期行為並無顯著差異——也就是說,美國人即使相信AI會合作,也還是選擇「背叛」。

更有趣的是,在囚徒困境中,日本參與者與AI的合作比例(42%)甚至略高於與人類對手(41%),儘管差異不具統計顯著性,卻顯示出AI在這類高風險信任場景中,甚至可能略微高於對人類的期待。


不只行為差異,更有情緒落差

這項研究更進一步觀察參與者在剝削AI後的情緒反應。結果發現:日本人比美國人感受到更強烈的內疚、憤怒與失望感,也較少感到勝利或鬆一口氣。也就是說,日本人在剝削AI後,產生的道德壓力與剝削人類時幾乎相同,而美國人則幾乎沒有對AI的情緒負擔。

研究團隊推論,這樣的情緒反應差異可能正是日本人較少剝削AI的原因之一。但也提醒,目前僅為關聯性發現,尚未證明為因果關係。未來可進一步探討文化如何影響人們「是否將AI視為道德主體」——即一個值得我們負起責任、給予倫理對待的存在。


文化解碼:日本人為什麼更願意相信AI?

至於為什麼會有這些差異呢?以下內容結合了原始研究中的討論與我對此研究觀察的延伸補充,或許可以從以下三個面向來理解:

1. 心智歸因與萬物有靈:文化中的非人主體觀

在日本文化中,「非人存在擁有精神」的觀念並不陌生。受神道與佛教影響,傳統思想強調「萬物有靈」——不僅人與動物,就連樹木,甚至是器物也被視為擁有某種內在的精神。這種觀念延伸至現代,使日本人較容易對AI等人工存在進行「心智歸因」(mind perception),傾向認為AI也可能具備情感、意圖或意識。這也正是心理學中解釋人們對AI產生情感連結的關鍵機制之一。當AI具備語言輸出與決策邏輯時,它不再是冰冷工具,而是值得被理解與善待的「互動對象」。

2. 動畫敘事的潛移默化:對非人角色的情感投射

在原始研究中,研究團隊指出,日本人對AI的合作傾向可能與文化中普遍存在的泛靈觀念與機器人形象有關。他們認為,日本人較傾向將AI當作具備社會互動潛力的存在,這種看法有別於西方社會普遍將AI視為工具的立場。雖然論文本身未深入探討文化敘事,但已提及文化是如何潛移默化地形塑人機關係。

為了進一步延伸這項觀察,我們可以從動畫與文化敘事角度補充說明:從《原子小金剛》到《哆啦A夢》,日本動畫長期描繪與機器人共存的故事,讓人工智慧不再只是冷冰冰的科技,而是可愛、情感豐富、甚至值得依賴的存在。像《哆啦A夢》這樣的角色雖然不會戰鬥,卻總能在大雄陷入困境時提供解方,某種程度上,也呼應了現代人遇事就想打開 ChatGPT的心態。

(來源:TEZUKA PRODUCTIONS)

這些角色展現出自我意識、悲喜情緒與人際連結,讓觀眾產生情感投射,也強化了人們對 AI應被理解、被善待的想像。這些作品不只是娛樂,更像是文化裡的社會教材,默默形塑了人們對機器人行為與角色的預期。

這種敘事風格與日本的歷史脈絡息息相關。二戰後,日本社會在科技重建與價值反思中,誕生了如《原子小金剛》這類擁有強大力量卻渴望愛與理解的角色——他們成為「科技可以有情感倫理」的象徵,並深深影響了幾個世代對機器人的文化想像。

相對而言,歐美媒體中,機器人更常被描繪為威脅人類秩序的存在,例如《魔鬼終結者》、《銀翼殺手》中的角色,多呈現出自主反抗或潛在危險的形象,反映出對AI自主性的警覺與他者化傾向,而較少出現「與人共生」的角色定位。

3. 現實條件:社會需求與 AI/機器人的角色轉變

日本長期面臨高齡化、勞力短缺與社會孤立等挑戰,使得所謂「社交型機器人」不再只是展示科技潛力的產品,而成為實際回應照護、陪伴與人力補位需求的重要應用。

舉例來說,近年在日本相當活躍的LOVOT是一款專為「情感陪伴」設計的社交型機器人,外型圓潤可愛、會主動接近人類並用眼神與聲音表達情緒,常被應用於照護與單人家庭中作為減壓與社交互動的對象;而我們先前曾提到的Gatebox,則讓虛擬角色以全息影像的方式「現身」家中,這或許也不單是「宅文化」下的產物,更是滿足了回家後有人陪伴的生活感。

(來源:GROOVE X, Inc.)

這些裝置雖然多半為機器人形式,但背後的互動邏輯與反應系統也逐步朝向AI化發展,使其具備某種程度的「理解」與「反應」能力。它們被賦予陪伴功能、不只是提供資訊或執行任務,而是成為人際互動的替代者或補位者,甚至進入照護、家庭等極為私密的生活場景。

當然,歐美也會使用Alexa、Google Assistant等語音助理作為居家智慧的一部分。這些產品同樣具備人工智慧,但在文化呈現上,較少被包裝為具備「角色性」或「情感功能」的存在。因此,在日本這樣的文化與應用條件下,人們更可能將這些AI/機器人視為「可互動的社會成員」,與之建立起日常性、長期性,甚至帶有情感連結的互動經驗,讓「AI是有用的朋友」這種信念逐漸內化。


我們準備好接納AI了嗎?

這項實驗的精妙之處,不僅在於量化了跨國間人類與AI代理互動差異,更讓我們看見:人們怎麼對待AI,往往不是因為它是什麼,而是因為我們是誰。

對日本人來說,AI並非威脅或工具,而是一個可以預期行為、值得建立關係的類人主體。這樣的態度,未來勢必會影響AI的設計理念、倫理規範乃至社會政策。研究團隊也推論,不同文化對AI代理的態度,可能會是AI技術實際進用的關鍵之一。正如研究者之一、慕尼黑大學心智哲學研究博士Jurgis Karpus所說:「如果日本人願意對待機器人願意如對人類那般尊重,那麼比起在柏林、倫敦或紐約,我們或許會更早在東京的街頭上看到完全自動駕駛的計程車。」

當然,技術的發展因素始終複雜,但我們也可以先從這個問題開始追問:若未來我們將與AI共事、共同生活,我們究竟願意怎麼看待它?你呢,你會選擇與AI代理合作嗎?

返回頂端