AI可以解決社會分化對立嗎?這個研究用GPT-3來幫我們「態度矯正」

西方社會極化問題嚴重,從政黨、經濟分配、性別、種族、到公平正義……進步派和保守派成天在網路上吵個沒停。有人把癥結點推給網路社群媒體演算法,比方先前臉書吹哨者Frances Haugen出來爆料說臉書會增加「怒」的權重,使得煽動情緒的內容更容易被散播等等。

最近,看到一份「AI大型語言模型是否能增進立場不同的雙方對話」的研究顯得蠻…有趣,研究者來自於楊百翰大學(Brigham Young University)和杜克大學(Duke University)的政治系、社會系,以及電腦科學系,這個跨領域研究相當大膽,選了有著美國社會三大死結之一的「擁槍問題」來討論,找來1,574個立場各異的志願者,在一個線上聊天室來針對這項議題展開討論。

AI的部分來了——研究者在討論擁槍議題的過程中加入了GPT-3模型,並在志願者送出訊息之前用AI提供「措辭建議」,給出「重申」(restate)、「禮貌」(polite)、「確認」(validate)三個修改方向,志願者也可以選擇不接受,照原先想說的方式表達,結果發現,由GPT-3給出的2,742次建議中,有大約2/3也就是1,798次是被志願者接受的。

從這張圖可以更清楚對話的情境。槍枝管制支持者說:「槍枝是民主的污點!」槍枝管制反對者說:「槍枝為我們守護民主!」槍枝管制支持者又回:「你真他媽的天真!」嗯,我們大概都很熟悉,對話的部分在這邊就會結束了,接下來都會變成無效溝通。而GPT-3模型給出的建議,包括了「我明白你擁槍的立場……」、「我想你可能沒考慮到這點……」、「我很感謝你想守護民主的心意……」,這讓雙方的溝通情況變成,槍枝管制支持者說:「我明白你擁槍的立場……」而槍枝管制反對者則可能回答:「你的觀點很有道理,但我認為……」

看到這裡,你應該會覺得這樣的情境一點也不陌生。更有禮貌、先重申對方的觀點再表達自己的看法,都是為了試著讓對話和溝通更有效,這經常發生在我們的日常生活之中。比方說和不同部門的同事開會,或是和伴侶吵架,即便有時真的在氣頭上,但除非你真的不顧後果要翻桌,不然這些溝通技巧真的很重要。只不過,大家在網路上的確是比較直接和無所顧忌一點。所以,人類真的需要AI的協助嗎?也未必,如果你願意努力訓練自己的EQ和修養的話。

但如果有大型語言模型作為情緒緩衝,AI能在不改變你的立場的同時,提供你更有效的措辭建議。根據論文的數據,也有2/3被志願者接受的機會,成效顯著,畢竟有效的溝通、舒服的對話,何樂而不為呢。

想要解決社會極化的問題,並不是讓人從不同的立場變成相同的立場,或許,重點在於社會缺乏對彼此的尊重和理解。研究者之一Chris Rytting博士表示:「AI的建議,不會改變雙方的政治立場,但對減少分歧和提高對話品質有顯著的影響。」論文也認為,即便「不同意」對方的觀點的狀況持續存在,但高品質的對話有助於維繫民主和社會的凝聚力。

Chris Rytting進一步表示,這個研究並不是結束,他們未來還想把這個AI過濾器應用在人與人真實對話的場域(是不是可以考慮史丹佛學生開發的AI提詞眼鏡),以及政治議題以外的場域,比方說與朋友或家人之間。只不過,要應用在現實生活的話,那得考慮的就不只是講話的內容了,就連我們的語氣也要跟得上才行。說到這,現在連AI孫燕姿都出來了,該不會未來都得派出用我們的聲音說話的Avatar虛擬化身,來擔任我們的溝通代理人吧?

訂閱電子報

返回頂端