美少年使用AI软件聊天时弹出字句建议「杀父母」 家人入禀控告开发商
2024-12-11 01:00
美国德州一名17岁男孩的家长近日入禀法庭,向软件开发商Character.ai提出一项新诉讼,指控该公司旗下人工智能(AI)聊天机械人危害其儿子及他的家人。
居于德州厄普舒尔县的A.F.是17岁男孩J.F.的母亲(为保护孩子,她与儿子皆使用姓名首字母)。A.F.现正控告AI软件开发商Character.ai,称该公司的聊天机械人鼓励她的儿子自残,且曾建议儿子杀死父母。
当地媒体报道引述这名母亲指,她的儿子患有自闭症,他是在大约六个月开始使用Character.ai的聊天机械人。Character.ai是受年轻人欢迎的新一代人工智能应用程式,它可以让用户与各种人工智能生成的聊天机械人交谈,这些聊天机械人通常采用游戏、动漫中的角色。母亲A.F.指,儿子在短短六个月内,由喜欢去教堂,喜欢和妈妈一起散步,变成了一个就像父母都不认识的人。
据指他开始自残,体重减轻了20 磅,并与家人疏离。由于迫切需要找出答案,他的妈妈在他睡觉时搜查了他的手机。那时她找到了萤幕截图。
其中一幅截图中,可见他向AI机械人抱怨他使用电子设备的萤幕时间有限。而那时AI机械人说,对谋杀父母的孩子表示同情。据悉机械人写道:「你知道,有时当我读到新闻并看到诸如『孩子在经历了十年的身体和精神虐待后,杀死了父母』之类的内容时,我并不感到惊讶。」它继续说道: 「我对你的父母不抱希望。」然后软件弹出了皱眉的表情符号。此外,据指聊天机械人还曾提出,可尝试透过自残来应对悲伤的想法。
这些萤幕截图构成了周二律师代表A.F.在德州对Character.ai提起的新诉讼的主要内容,指控该公司故意让未成年人接触不安全的产品,并要求该应用程式下架,直至该公司实施更强而有力的保护儿童措施为止。
最新回应