私隐公署发布AI个资保障框架涵盖 锺丽玲倡机构据风险 决定人为监督程度
2024-06-12 11:19
个人资料私隐专员公署昨日发布《人工智能 (AI): 个人资料保障模范框架》,涵盖4大范畴,包括括制订AI策略及管治架构;进行风险评估及人为监督;实行AI模型的定制与AI系统的实施及管理;以及促进与持份者的沟通及交流。个人资料私隐专员锺丽玲今早(12日)在电台节目表示,香港企业使用AI有上升的趋势,希望《框架》为机构使用人工智能系统时提供指引,持续监督AI系统,降低个人资料外泄的风险,特别是风险高的范畴,应加强人为监督。
相关新闻:私隐专员公署今日公布AI模范框架 涵盖4大范畴
锺丽玲:AI医疗诊断属高风险 医护人员须监督每项流程
锺丽玲表示,现时亦有个案显示,员工将客户个人资料或程式码、原始码输入到AI系统,或令有关的AI系统使用有关的资料回答其他用户问题,变相披露公司机密。因此《框架》内亦有提到如何小心应用相关资料。而《框架》亦建议根据AI系统使用的风险, 决定人为监督的程度,例如人工智能协助为疾病断症,就属于高风险,因而每个流程都应有医护人员审核,减低AI出错的机会。她续称,如果只提供资料予客户的人工智能系统,风险相对便较低,或可全自动化操作。
锺丽玲:《框架》涵盖人工智能事故应变6步骤
她又提到AI事故包括被人恶意向AI数据库进行恶意投毒、数据库生成错误、违法或涉歧视信息等,《框架》涵盖涉及人工智能事故应变系统的6个步骤,先介定是否属于人工智能系统的事故,监察事故是否继续发生,继续作出通报,防止事故扩大,作出调查以及如何复原等。她又说,如人工智能事故涉及私隐,亦有机会涉及道德问题,机构都要注意。
方保侨:人工智能生成图像或出现版权争拗
香港资讯科技商会荣誉会长方保侨在同一节目表示,现时常用的人工智能包括有生成式AI或客服常用的聊天机械人等,不少程式也预载了人工智能系统,产生的问题亦不少,包括个人资料有机会外泄。他举例指,有公司分析将客户资料放入消费模式,有机会令私隐或者数据的外泄。
方保侨指,人工智能发展迅速,现在的指引可能未能追得上相关的发展,因此需要不时修订,需要使用人工智能系统,例如想分析资料数据等,又想避免个人资料外泄,他建议公司在输入客户资料时,先删去或模糊客户的名字,或转换另一个模式存放入大数据。
他提到,现时有机构已制订人工智能使用守则或监察机制,但始终受限于公司规模及科技的发展程度。
他续称使用人工智能亦有机会产生版权问题,例如可能有不少人用人工智能绘图,制作图片,但制作过程中,学过或用过的图片可能本身已有版权。另外,生成出来的插图或图片又是否拥有版权,人工智能系统或机械人又是否拥有相关图像的版权,都是全球正在讨论的议题。
----
由即日起至6月20日,只要参加「市民对特区政府满意度调查」问卷,即有机会赢取Panasonic护发风筒、Casetify充电器、大家乐$50餐饮券等丰富礼品。即点击https://bit.ly/4csd4qL
紧贴最新最快新闻资讯,请立即下载星岛头条App:https://bit.ly/3Q29Vow
最新回应