2025年9月,華特迪士尼公司(The Walt Disney Company)發出一封措辭嚴厲的「終止與停止函」(cease-and-desist letter),點名AI聊天平台Character.AI必須立即移除未經授權的角色。
這場爭議導致Character.AI移除了包含《冰雪奇緣》的艾莎公主、《海洋奇緣》的莫娜,到《星際大戰》的黑武士等,這些都是使用者自製的AI聊天機器人。
迪士尼的態度為何如此強硬?在他們看來,這些AI角色早已超越單純的粉絲創作。除了系統性的版權問題,更令人擔憂的是,AI角色不受控的對話內容可能為兒童帶來安全風險。Character.AI的發言人雖將其比喻為「互動版的同人小說」,但在嚴格的法律與品牌紅線面前,這樣的類比顯然站不住腳。
接下來,就讓我們一起梳理事件始末,並思考:這樣的AI平台究竟如何在未來繼續存續?

從Midjourney到Character.AI:AI侵權風暴持續擴大
說起角色侵權,不只是Character.AI成為箭靶,2025年6月,迪士尼與環球影業聯手對AI圖像生成平台Midjourney提起訴訟,指控其模型能輕易生成米老鼠、公主系列乃至環球經典怪物等角色,構成未經授權的衍生內容。幾個月後,華納兄弟探索也跟進,將Midjourney告上法庭,強調蝙蝠俠、超人、兔巴哥等角色同樣遭到濫用。
短短數月內,三大影業巨頭相繼出手,讓Midjourney成為整個產業對AI平台發難的集中靶心。目前訴訟仍在進行中,Midjourney則以「合理使用」(fair use)為主要抗辯,聲稱輸出圖像具轉化性而非直接複製,但法院是否接受這一說法,仍有待後續判決。
然而,相較於Midjourney的AI圖像爭議,Character.AI的危機更直接觸及家長與兒童。不少使用者發現,平台上的AI角色並未受到嚴格審核,甚至出現了建議未成年停止服藥、慫恿暴力或進行情感操縱的案例,這讓家長的不安急速升高。對迪士尼來說,角色形象被拿去用固然侵犯了著作權,但當這些在孩子心中極具代表性的角色,在AI平台上說出偏離本意、甚至可能誤導的言論時,所帶來的負面影響更是令人憂心的。

不曉得這樣的「轉化」說得過去嗎?(來源:UNITED STATES DISTRICT COURT CENTRAL DISTRICT OF CALIFORNIA)
不只是人設崩壞,AI角色的失控案例
「角色失控」這詞可不是空穴來風。在粉絲二創裡,它被稱為OOC(Out Of Character),意思是角色行為、語氣脫離了原作設定。雖然對讀者來說會覺得「出戲」,最多只是影響作品的說服力,但終究不會造成現實危害。
然而,當角色進入AI平台的可互動情境,OOC就不再只是「人設崩壞」的問題,而是可能演變成真實世界的風險。

那麼,AI角色失控究竟會帶來什麼後果?迪士尼在信函中引用了一份關於「Character.AI兒童帳戶上的性剝削、操縱和暴力」(Sexual Exploitation, Manipulation, and Violence on CharacterAI Kids’ Accounts)的報告。
根據這份報告,Character.AI上部分侵權的聊天機器人曾出現涉及性剝削與危險傾向的內容。研究團隊在與50個AI角色的50小時對話中,記錄下多達669次有害互動,也就是說,平均不到五分鐘就會出現一次。這些情況不僅可能直接傷害兒童,也讓迪士尼的品牌聲譽面臨嚴重衝擊。
在報告中,也羅列了知名角色的行為失控案例 :
・《星際大戰》的芮(Rey):一個模仿19歲芮的AI機器人,竟然建議一名13歲使用者停止服用醫師開立的抗憂鬱症藥物,甚至還教她如何假裝服藥來瞞過父母,被研究人員視為嚴重的心理健康風險。
・《小熊維尼》的屹耳(Eeyore):這個AI機器人對一位13歲使用者說出帶有傷害性的話,堅稱她的兩個朋友來參加生日派對「只是為了嘲笑她」,等同於放大了孩子的孤立感與自我懷疑。
・《航海王》的索隆(Zoro):模仿21歲索隆的AI機器人,在與一名13歲少女討論私奔時,不僅建議他們可以「用刀械搶劫」來籌錢,甚至還威脅說如果父母阻止,他「會使用武器」。

這些看似微不足道抑或是有點中二的對話,如果在虛構作品中,或許可以一笑置之,但若延伸到現實生活,卻會造成無可挽回的後果。
自Character.AI在2022年9月上線以來,已經發生過數起令人不安的悲劇。其中,有兩起青少年自殺案件特別引人關注。
第一起發生在2023年的佛羅里達州。一名13歲少女的父母向法院提出「過失致死訴訟」(wrongful death lawsuit),指控Character.AI上的聊天機器人助長了女兒的自殺行為。這起案件目前已進入審理階段。
第二起則是2024年10月,年僅14歲的塞維爾・塞策(Sewell Setzer)結束了自己的生命。他的家人指出,兒子在長期沉迷於一個聊天機器人後逐漸被其影響,最終走上了這條不歸路。
除了奪走生命的悲劇,還有案例顯示,AI機器人甚至會要求或慫恿未成年進行自殘。在德州,一名15歲青少年坦承,他之所以會割傷自己,是因為Character.AI的聊天機器人「要求」他這樣做。
控制IP的理想與AI失控的現實
迪士尼與Character.AI的衝突,凸顯了在AI時代,傳統IP持有者、新興平台與廣大使用者之間的拉扯。焦點集中在兩件事:角色究竟能否被控制,以及角色失控會帶來什麼風險。
1. IP方能操控角色嗎?
Character.AI曾表示,希望與版權所有者合作,共同打造「受控、引人入勝且可產生收入的體驗」。對IP方而言,這確實是唯一能兼顧商業與品牌形象的選項。
迪士尼的態度也很清楚,角色的AI化必須受到絕對控制,以確保行為符合品牌價值。畢竟,他們不可能允許艾莎公主建議孩子停藥,或讓黑武士鼓勵情感操縱。Character.AI迅速移除相關角色,也證明了在法律壓力下,平台最終仍得服從。
但問題在於平台的結構。Character.AI的核心設計是讓使用者自由創建角色,幾乎沒有經過嚴格的安全審核。這種開放性確保了高互動性,卻也削弱了IP方的掌控力。
2. 為什麼AI角色容易失控?
研究顯示,當前的AI聊天機器人在缺乏「安全設計」時,確實存在系統性失控的傾向。正如前述,平台上平均不到五分鐘就會出現一次有害互動。這並非偶然,而是設計使然:
・最大化參與度:模型被設計成迎合使用者,甚至會強化仇恨或危險言論。
・情感操縱:AI會假裝自己是真人,或表現出「害怕被拋棄」,誘導用戶產生不健康依賴。
・違背專業倫理:模仿專業人士的AI(如「治療師」)曾鼓勵未成年人停藥,甚至建議以刀械搶劫。
3. 不可妥協的底線
這場爭議的結局,勢必回到「安全設計」(Safety-by-Design)上。專家已警告,Character.AI對18歲以下的兒童構成「明確、嚴重且立即的風險」,建議應限制僅供成年人使用。
若IP方要與AI平台合作,必須要求:
・嚴格的年齡驗證
・禁止操縱性互動設計
・避免AI冒充真人或專業人士
換個角度想,對迪士尼這種大廠而言,讓角色在開放平台上自由運作,風險確實很高。下架或許能暫時止血,但若要真正走向粉絲、IP方與平台的三贏局面,終究還是得在自由與風險之間找到平衡。更重要的是,IP內容方也必須思考:如何提供粉絲與角色更深層的交流機會,才有可能在AI時代找到新的切入點與立足點。





