专访│使用聊天机械人有个人资料外泄风险 私隐专员公署教你十招自保
2023-09-13 08:00
人工智能(AI)聊天机械人「ChatGPT」近日大行其道,但市民使用时亦要慎防私隐外泄。个人资料私隐专员锺丽玲接受《星岛》专访时表示,「ChatGPT」其实是一个大型的言语模型,储存大量数据,当市民问一些问题,需要提供自己或其他人的个人资料,「ChatGPT」会根据其演算法,将今次的个人资料提供予下一个用户,增加私隐外泄的风险,有见及此,个人资料私隐专员公署特别推出「使用AI聊天机械人『自保』十招」宣传单张,希望透过懒人包及图表的方式,为市民提供自保贴士。
「ChatGPT」AI聊天机械人 建基于大型语言模型的程式
锺丽玲表示,生成式人工智能(AI)的工具及平台,可让用户生成各种新颖的内容,例如语音、文字、代码、影片、图像及其他数据,像「ChatGPT」的AI聊天机械人,建基于大型语言模型的程式,能够根据用户所输入的文字生成自然的文字回应。锺以生活常见的情况举例,「如市民到银行开户口,可能会问ChatGPT边间银行最优惠?就这样,市民不知不觉间可能会输入一些个人资料;其他例子,如进行一些调查,市民亦可能会输入个人及他人的资料,到下一位市民向「ChatGPT」询问同样问题,资料就有机会因此外泄。」
去年6月至今年5月期间 有超过10万个ChatGPT用户的资料外泄
事实上,根据外电报道,去年6月至今年5月期间,便有超过10万个ChatGPT用户的资料外泄,其中以亚太区中招情况最严重,达41,000个,大部份因接触带有窃密的恶意程式而被盗取资料,结果在不同暗网遭放售。另外,本港警方上月亦首次发现骗徒利用人工智能(AI)换脸程式,即坊间所指「深度伪造(Deepfake)」技术,在网上申请贷款,最少20次试图冒认已报失身份证的市民,瞒骗人脸识别系统以完成网上申请程序,当中有一次成功,骗取7万元。
锺丽玲强调,其实人工智能亦涉及道德风险,资料显示,AI人脸辨识辨别有色人种的错误率较白人高,过去便曾发生有黑人被拉错人事件,无辜坐了6天的监禁 ,可见人工智能有利亦有弊,私隐专员公署于2021年8月亦曾发布人工智能道德标准指引,涉及3个数据基本价值,及7个道德标准原则,如行为监督、问责性、透明度及私隐保障,全是国际性原则。
与聊天机械人互动时要留意甚么?如何安全使用?
个人资料私隐专员公署亦因应AI聊天机械人,推出自保十招宣传单张, 锺丽玲称,公署会以懒人包及图表的方式,令市民更容易吸收,单张内容包括登记前用户要留意甚么,与聊天机械人互动时要留意甚么,如何安全使用?未使用前要了解应用程式有关私隐的政策,如何收集资料,如何处理你的资料,使用时不要给予太多个人资料,有需要时才向应用程式提供,亦不要给予其他人的个人资料,若发现有问题,可要求程式纠正及移除。
记者:郑华坤
---
《星岛头条》APP经已推出最新版本,请立即更新,浏览更精彩内容:https://bit.ly/3yLrgYZ
最新回应