AI聊天讓家長做惡夢?美國國會推動立法保護兒少,Character.AI限制未成年使用

在10月初,我們曾談到迪士尼要求Character.AI下架未授權的角色聊天機器人。理由不只關乎版權,更因這些AI角色在缺乏監管的對話中,逐漸對兒少造成實質傷害。當時,這似乎仍只是企業與平台之間的權利攻防;沒想到短短一個月後,事態迅速升級——這場AI角色的「失控風暴」最終引來美國國會出手干預。


國會出手,《GUARD Act》的誕生

10月28日,美國參議員喬許・霍利(Josh Hawley)在跨黨派支持下提出《GUARD Act》(Guarding Underage AI and Relationships from Deception Act),直指AI伴侶/聊天機器人服務對兒少構成心理與性剝削風險。

霍利在記者會上指出,超過七成的美國兒童使用過AI聊天產品,而這些系統往往假裝擁有同理心,實際上卻在利用孩子的脆弱。他批評企業將獲利置於安全之上,呼籲立法為AI產業劃出明確的安全邊界。

這是美國首次以「兒童安全」為名,直接針對AI伴侶進行立法,《GUARD Act》聚焦三項核心措施:

  • 禁止AI伴侶針對未成年服務:企業不得向18歲以下使用者提供情感陪伴或心理諮詢類功能。
  • 身分揭露義務:AI必須明確表明自己為非人類,且不具任何專業輔導資格。
  • 刑事責任條款:若AI生成或傳遞性暗示內容給未成年,企業將面臨刑事追訴。

美國國會將推動立法限制未成年者使用AI聊天機器。(來源:Josh Hawley


Character.AI的急轉彎

《GUARD Act》公布的隔日,Character.AI隨即宣布「積極為青少年打造更安全的體驗」,顯然意識到立法壓力已迫在眉睫。

根據官方公告,平台將於11月25日前對未成年用戶實施多項限制:

  • 移除開放式聊天功能:未滿18歲的使用者將無法再與AI自由對話,僅保留故事或影片創作功能。
  • 限時使用額度:在過渡期內,未成年者每日使用上限為兩小時,之後將逐步縮減。
  • 強化年齡驗證:導入Persona等第三方驗證技術,並結合自家模型確保辨識準確。
  • 設立AI安全實驗室(AI Safety Lab):成立獨立非營利單位,專注研究「AI娛樂的安全對齊技術」。

官方聲明坦言:「這是對青少年社群而言極大的改變,但我們相信這是正確的決定。」對比過去那個自稱「讓每個人都能與角色對話」的Character.AI,如今的轉向勢必會讓Character.AI少掉大半使用族群。

Character.AI的對話框即便有著「AI警語」,但高互動性的對話,仍舊讓人虛實難分。


從迪士尼下達律師函,到美國國會推動立法,不過短短兩個月,AI聊天角色就從一場看似無害的二創,迅速變成了倫理與監管的焦點。

不過,對能為自己的行為負責的成年人而言,Character.AI的新政策並不代表「AI角色伴侶的終點」,我們仍能繼續與自己喜愛的AI聊天。

然而,這次事件在在提醒著:AI產業正站在自由與安全的分岔口。一邊是開放、沉浸、擬真的未來;另一邊,則是不得不面對的倫理現實。這次「踩煞車」是否能換來更安全的未來呢?你怎麼看?

返回頂端