ChatGPT「创作」假性骚扰丑闻

2023-04-07 00:00

塞浦路斯首都尼科西亚一所中学的学生,在操控一个由ChatGPT控制的机械人。
塞浦路斯首都尼科西亚一所中学的学生,在操控一个由ChatGPT控制的机械人。

(星岛日报报道)美国传媒披露,人工智能(AI)聊天机械人ChatGPT竟然创作假丑闻,其中一宗个案是指控一名美国教授性骚扰学生,但整个故事根本子虚乌有。事件引起人们对聊天机械人生成错误讯息并广为传播的担忧。
上周一个晚上,乔治.华盛顿大学法学教授特利(Jonathan Turley)收到一封令他不安的电邮,内容是加州一位律师同行在做研究时,要求ChatGPT生成一份曾性骚扰他人的法律学者名单,特利竟榜上有名。由OpenAI公司研发的ChatGPT说,特利在阿拉斯加的一次班级旅行中,说了些性暗示语言,并试图触摸一个学生。ChatGPT并引用《华盛顿邮报》2018年3月的一篇文章作为讯息来源。但问题是:根本没有这样的文章存在,也从来没有去过阿拉斯加班级旅行。特利说,他从未被指控骚扰过学生。
称旅行说了些性暗示语言

近期面世的AI聊天机械人以其编写电脑程式、创作诗歌和进行类似人类对话的能力,在全球爆红。但是,这些语言模型也可以大肆歪曲关键事实,甚至捏造原始资料来支持其主张。随着ChatGPT、微软的Bing和Google的Bard等基本不受监管的AI软件开始纳入整个网络,引起了人们对错误讯息传播的担忧。南加州大学安纳伯格分校教授克劳福德说:「由于这些系统的反应如此自信,令人相信它们无所不能,实在很难区分事实和虚假讯息。」

今天的AI聊天机械人的工作方式,是利用大量在綫内容,通常是从维基百科和Reddit网站等来源搜罗,对几乎任何问题都能做出听起来合理的回答。但是,仅仅因为它们善于预测哪些词可能会出现在一起,并不意味着所产生的句子总是真实的。普林斯顿大学电脑科学教授纳拉亚南称,ChatGPT是「胡说生成器」。虽然它们的回答往往听起来很权威,但这些模型缺乏可靠的机制来验证他们所说的事情。

事实上,让聊天机器人产生错误讯息或仇恨言论是相对容易的。「打击数码仇恨中心」周三发表的一项研究发现,研究人员诱导Bard在100次中有78次产生错误或仇恨的讯息,主题包括大屠杀和气候变化。OpenAI发言人费利克斯在声明中说:「当用户注册使用ChatGPT,我们努力做到尽可能透明,它可能不会总是产生准确的答案。提高事实准确性是我们的一个重要焦点,我们正在取得进展。」主要的聊天机械人都有免责声明,如Bard在每个查询下面的细字讯息:「Bard可能会显示不准确或令人反感的讯息,不代表Google的观点。」

在澳洲,赫本县地方首长胡德表示,若OpenAI不更正ChatGPT提供有关他因行贿而入狱的不实资讯,将对OpenAI提出控告。这有可能成为首宗针对这种文字生成服务提出的诽谤诉讼。胡德(Brian Hood)去年11月当选墨尔本西北方120公里的赫本县首长。当民众告诉他,ChatGPT内容误将他列为2000年代初期澳洲储备银行子公司一宗外国贿赂丑闻的犯案者,他开始担心自己声誉会受到影响。胡德的律师说,胡德的确曾任职于澳洲储备银行这家子公司澳洲印钞公司,但其实是他向当局举报公司为赢得印钞合约而向国外官员行贿,并且他从未被起诉。他的律师已在3月21日向OpenAI寄出信函,要求在28天内更正ChatGPT的相关错误讯息,否则提告。 

關鍵字

最新回应

相關新聞

You are currently at: std.stheadline.com
Skip This Ads
close ad
close ad