【智经时事分析】人工智能研究 怎做才算「负责任」﹖

2020-07-27 00:00

人工智能(Artificial Intelligence,AI)叛变是科幻电影的常见桥段,虽然在现实世界尚未成真,大众已经意识到AI技术既能帮人亦能带来伤害。外国一个AI研究组织宣称,为免新技术被人恶意利用,扬言要一改其「开源」文化,拒绝一次过完整公开技术的源代码、数据集。此举在业界引起很大争议,业界到底应如何负责任地开放AI技术?

上段提及的「开源」,即开放软件源代码,任何人均可在源代码的基础上进行学习和修改。开发者可基于前人的成果,进行更多范畴和更深入的开发,为AI发展生态带来长远利益,故牟利的科技企业,也会加入开源。

不过开源科技落入不同人的手中,也不保证会用于正途。一七年面世的深伪技术是一种透过AI深度学习技术所创造出的伪造讯息,可以用于影像及声音。受惠于「开源」,技术门槛降低,一般人只需要下载各种AI换脸软件,输入仿造对象的影音素材,便能轻易伪造出极为像真的影片。它虽然缩小了创作者之间的「贫富差距」,小型创作者可利用技术制作精美视觉特效;但同时有不法之徒借此伪造国际女星的色情影片。

深伪技术的恶果,似令业界有所反思。非牟利AI研究实验室OpenAI,声言因不希望发布的技术会被人恶意使用,决定一反其「开源」的传统,提倡「负责任发布」。 OpenAI解释,他们出品的上一代人工智能语言模型,能够编写看似真实的文章,担心全新语言模型GPT-2会被滥用,例如编写误导他人的新闻文章、辱駡内容,因此决定分阶段发布成果,希望研究人员有更多时间减少技术带来的风险,并成为业界先例。

去年二月该团队宣布,开发出GPT-2,用家提供一小段文字作提示,模型便可以预测下一个单词,从而衍生一篇长文章。而团队当时没有对外发布经过训练的完整模型,而是分阶段先发布较小和简单、只有一点二四亿个参数的模型,并于同年五月及八月发布较大、参数更多的模型,最终在十一月才发布具十五亿个参数的完整模型。

同时OpenAI采取了其他措施,内部研究GPT-2输出内容中的偏见问题,亦与四个第三方大学和研究中心合作,研究模型的潜在恶意用途、人类对模型生成内容的反应等模型对社会的影响。团队声称,合作夥伴的研究结果,或发现模型遭恶意使用,将会影响他们发布下一阶段模型的决定。而每次发布后,他们持续监测有宣扬虚假资讯前科的网站和论坛,并未发现GPT-2遭滥用。

这种理念得到部分业界的追随。AI企业Hugging Face决定不对外发布其内部语言模型,认为需要考虑新技术的潜在恶意用途,使技术发挥正面社会影响。其后他们发布最新对话式AI语言模型时,同时公开相关技术的道德分析。

有人支持,当然也有人反对。有业界人士觉得,OpenAI背弃一直以来的核心开源文化和同行评审的流程。若不共享完整的模型,独立研究人员便无法评估和验证有关技术的主张,亦无助模拟技术的威胁和找出防御方法。

坊间亦指控,OpenAI已经变质迈向牟利。而它之后的举动,看似证实了这一说法。OpenAI在今年六月发布最新一代语言模型GPT-3,选择释出API(应用程式介面),供外界私下付费申请使用。OpenAI承认,发布API目的之一是要将技术商业化,以应付未来研究、安全和政策工作的开支。

无可否认,OpenAI已经引发了一场业界对话,讨论甚么情况下,需要限制取得AI研究内容。信息安全论坛表示,对开源安全性的担忧有时可能被夸大,一刀切禁止开源只会适得其反,但提醒开发人员需了解其安全风险和漏洞。美国列治文大学法律学院副教授Rebecca Crootof提议,业界制订一套评估AI技术危害的准则,研发人员在权衡如何负责任地发布技术时,从多角度去评估开源技术的潜在风险或危害,包括造成危害的源头,危害的形式、对象、规模、可能性等共十个因素,量度开源与否的好坏,亦要考虑有何预防或补救措施。

业界比普罗大众应更有能力预视,人工智能技术对人类社会的利弊。到底保留开源共享研究成果的文化,还是改变发布原则、以分阶段发布,才是对社会最负责任的做法,未来自有分晓。无论保留开源共享研究成果的文化,还是改变发布原则,均需确保人工智能技术发展合乎公众利益。

(全文见智经研究中心网页:www.bauhinia.org)

智经研究中心

關鍵字

最新回应

相關新聞

You are currently at: std.stheadline.com
Skip This Ads
close ad
close ad