美少年使用AI軟件聊天時彈出字句建議「殺父母」 家人入稟控告開發商
2024-12-11 01:00
美國德州一名17歲男孩的家長近日入稟法庭,向軟件開發商Character.ai提出一項新訴訟,指控該公司旗下人工智能(AI)聊天機械人危害其兒子及他的家人。
居於德州厄普舒爾縣的A.F.是17歲男孩J.F.的母親(為保護孩子,她與兒子皆使用姓名首字母)。A.F.現正控告AI軟件開發商Character.ai,稱該公司的聊天機械人鼓勵她的兒子自殘,且曾建議兒子殺死父母。
當地媒體報道引述這名母親指,她的兒子患有自閉症,他是在大約六個月開始使用Character.ai的聊天機械人。Character.ai是受年輕人歡迎的新一代人工智能應用程式,它可以讓用戶與各種人工智能生成的聊天機械人交談,這些聊天機械人通常採用遊戲、動漫中的角色。母親A.F.指,兒子在短短六個月內,由喜歡去教堂,喜歡和媽媽一起散步,變成了一個就像父母都不認識的人。
據指他開始自殘,體重減輕了20 磅,並與家人疏離。由於迫切需要找出答案,他的媽媽在他睡覺時搜查了他的手機。那時她找到了螢幕截圖。
其中一幅截圖中,可見他向AI機械人抱怨他使用電子設備的螢幕時間有限。而那時AI機械人說,對謀殺父母的孩子表示同情。據悉機械人寫道:「你知道,有時當我讀到新聞並看到諸如『孩子在經歷了十年的身體和精神虐待後,殺死了父母』之類的內容時,我並不感到驚訝。」它繼續說道: 「我對你的父母不抱希望。」然後軟件彈出了皺眉的表情符號。此外,據指聊天機械人還曾提出,可嘗試透過自殘來應對悲傷的想法。
這些螢幕截圖構成了周二律師代表A.F.在德州對Character.ai提起的新訴訟的主要內容,指控該公司故意讓未成年人接觸不安全的產品,並要求該應用程式下架,直至該公司實施更強而有力的保護兒童措施為止。
最新回應