(星岛日报) 美iPhone拟侦测儿童色情图像
2021-08-07 04:30
(星岛日报报道)苹果公司宣布将在美国用户的iPhone上,安装扫描软件,以侦测含有儿童色情的图像,一旦检测到怀疑内容,就会由审核人员评定是否有需要联系执法部门跟进。此举旨在协助保护儿童,但却引起新功能被滥用的忧虑,包括会被政府用来监控国民。这项措施今年稍后实施,暂只针对美国用户,但未来会扩展至其他地区。 苹果公司宣布推出新系统,监测美国iPhone和iPad用户是否储存儿童受性虐待的照片,一但发现敏感内容将交由人工审核,并决定是否联系执法部门跟进。苹果在网络帖文中表示:「我们想要协助保护孩童,免受以通讯工具来招募并剥削孩童的侵犯者荼毒,并限制儿童性虐待内容(child sexual abuse material,CSAM)散布。」名为「neuralMatch」的新系统可用来检测图片相似度,周四起展开测试,预料加入稍后发布的iOS 15、iPadOS 15及macOS Monterey中。 系统会将用户装置上的照片,以及美国国家失踪及受虐儿童中心(NCMEC)和儿童安全组织超过二十万幅图片的资料库,透过杂凑演算(hash)生成一串「数码指纹」(数字代码)并进行比对。这些代码可用来准确辨认图片,但不能变回图片。苹果还有称为「NeuralHash」的工具,曾经编辑修改过的类似照片也难逃法眼。苹果表示,这套系统将使用密码学和人工智能技术。当用户要将照片储存到iCloud,系统就会在手机端执行比对,以确定是否涉及儿童色情。苹果强调,装置内的资料只要不上传到iCloud,就不会启动侦查系统。《金融时报》引述知情人士说,在上传至伺服器的每张照片都会得到一张「安全凭证」,说明该照片是否可疑。 国家失踪及受虐儿童中心是由美国国会授权,于一九八四年成立的受虐儿童通报机构。该中心行政总裁克拉克赞扬苹果的新功能,他说:「苹果加强对儿童的保护,是个改变游戏规则者。事实上,私隐和儿童保护是可以并存的。」 苹果表示,系统只会与NCMEC图库比对,不会识别像是家长拍子女洗澡等照片,强调不会危害一般使用情况下的私隐安全。但有专家认为,即使只用数码指纹筛查照片也有隐忧。约翰霍普金斯大学密码学研究员格林说:「利用这套系统,理论上可将透过向无辜的人发送看似没问题的照片来陷害他们。」他说研究人员已经有能力欺骗此类系统,可轻易做到这一点。格林并说,苹果的看法是对或错并不重要,重点是这将摧毁大坝,「政府将要求每个人都这样做」。安全研究人员担心,苹果为用户安装扫描软件等同展开监控,相关系统可用作扫描任何针对性的内容,例如反政府标语或恐怖主义活动等。任何国家都可用当地法例向苹果提出要求,引发严重私隐问题。但另一派资讯安全专家认为,只要苹果信守承诺,只侦测一小部分装置内容,外部专家无法重复审查。 除了上述系统,苹果公司还有一系列的工具,旨在保护儿童免受性剥削者攻击。其中端对端加密的iMessage将加入人工智能工具,机械学习分析、辨认及自动模糊处理色情照片,一旦儿童收发这些可能有问题的照片,儿童和家长都会收到警告。家长可在子女的手机启动这项自动模糊照片功能。据称苹果不会收到相关照片或向当局举报,但父母可收到通知,得悉子女收发色情图像。另外,苹果公司也更新Siri,如果发现儿童用户搜寻儿童色情相关内容,Siri将会「介入」解释该主题不恰当和提供谘询渠道。 事实上,微软、Google、facebook等大企业多年来都有分享已知儿童象情图像的数码指纹,苹果也有用来筛查已经储存在iCloud的档案,但将扫描的动作转到装置上执行是前所未有的做法。苹果表示将会在美国率先推出相关功能,将来会扩展到其他地区。
最新回应