来论|科企有责任确保人工智能系统数据安全

2023-04-17 00:00

人工智能(AI),特别是生成式AI驱动的聊天机械人的崛起,例如Open AI的ChatGPT、谷歌的Bard、微软的Bing Chat、百度的文心一言和阿里巴巴的通义千问,已在不同司法管辖区和各行各业引起了震荡。虽然很多人视这科技突破为人类的福音,但人工智能的使用所带来的私隐及道德问题同时引起各界关注。最近,全球超过2万人,当中包括科技专家,联署了一封公开信,呼吁所有人工智能实验室6个月内暂停训练相比GPT4更强大的生成式AI系统,并在这期间共同制定和实施一套安全守则。
「生成式AI」带来的变革浪潮

何谓「生成式AI」?「生成式AI」(Generative AI)通常指可以用于创造新内容(包括语音、代码、图像、文字或影片)的演算法。与早期聚焦于自动化或主要透过分析大数据作出决策的人工智能不同,生成式AI的「神奇」之处在于可以秒速回应用户的请求和问题,并根据所给予的提示,像人类般提供看来理性、完整及令人信服的回应,这使它成为人工智能发展史上的一个里程碑。
有「机」亦有「危」

然而,有「机」亦有「危」。很多人可能不知道,聊天机械人的运作建基于「深度」学习技术,当中涉及使用大量的原始资料或数据作为训练数据,而这些资料或数据可以包括敏感的个人资料,可以是由用户所提供的,或是由互联网蒐集及复制的。

试想想,若你的朋友在你完全不知情、遑论同意的情况下,将你的姓名、职位、住址、身分证号码,甚至信用卡号码提供予聊天机械人作为对话的一部分,视乎有关程式的演算法,这些个人资料便可能会被储存到机械人的资料库中,并可能成为它回答下一个用户的材料!

从以上的例子可以看到,由于用户的对话可能被用作训练人工智能模型的新训练数据,若是用户不经意地向人工智能系统提供了敏感的资料,那么他们的个人资料便可能会被滥用,超出用户提供他们个人资料的原本目的。

若是如此使用个人资料的话,又是否有依从限制资料使用于原本目的的原则呢?若是相关的资料蒐集过程透明度不足,又是否会出现在用户不知情及不公平的情况下收集个人资料,从而构成私隐风险呢?除却资料的性质及蒐集过程外,还有其他同样复杂的问题有待考虑及处理,包括资料当事人可如何行使他们查阅及改正资料的权利、如何保护儿童私隐、在开发及使用生成式AI的过程中如何减少不准确的资料、具歧视性或偏见的内容,以及资料安全的风险。

根据公认的Asilomar AI原则,先进的人工智能的出现可以说是世界历史上一里程碑,但这现象亦应以相对称的谨慎和资源来规划及管理。
与AI共存的未来

究竟现时是否将人工智能的发展好好地规划及管理,甚至规管的契机?

值得留意的是,上文所述的联署公开信并未呼吁全面地停止开发人工智能,联署信只是倡议所有人工智能实验室从制造一个愈来愈强大又不可预测的黑盒模型危险竞赛中暂时「停一停」,先放一个悠长暑假。

展望人工智能进一步的发展,我认为科技公司,尤其是人工智能开发科企,有责任确保人工智能系统的数据安全,相关科企应检视及严谨地评估他们的人工智能系统在运作上对数据私隐及道德的影响,并确保遵从相关法例或适用的指引。

在这方面,私隐专员公署于2021年8月发出《开发及使用人工智能道德标准指引》,协助机构以保障私隐、具道德及负责任的方式开发及使用人工智能系统。《指引》胪列了国际认可的人工智能道德原则,涵盖问责、人为监督、透明度与可解释性、公平、数据私隐、有益的AI,以及数据可靠、稳健及安全等方面的标准。机构在开发及使用生成式AI时,除了需要符合《个人资料(私隐)条例》的规定外,亦应该遵守这些原则,以减轻相关私隐及道德风险。

展望未来,政府建议在香港发展一个人工智能超算中心,可以说是极具前瞻性,值得支持。超算中心既可成为主要的策略性技术基础设施,增强本地研究和开发AI的能力,亦可促进香港人工智能产业生态系统的健康发展及加快人工智能的发展。在这愿景中,我建议人工智能产业的生态系统应涵盖对人类的基本价值,包括个人资料私隐的尊重及保障,令生态系统为整个人类社会带来裨益。

生成式AI的出现,可以说是震惊全球。当大家正热烈讨论怎样使用或释放它的巨大潜力的时候,生成式AI的潜在隐忧和风险亦开始引起国际间的关注。它的普及意味着所有持份者,尤其是开发人工智能的科企,应该携手合作,共同创建一个安全及健康的生态系统,确保这项变革性的技术会用于人类的福祉。
锺丽玲
个人资料私隐专员


 

關鍵字

最新回应

相關新聞

You are currently at: std.stheadline.com
Skip This Ads
close ad
close ad