苹果拟检测iPhone有否儿童色情图像 引发私隐争议
2021-08-06 10:30
苹果公司拟在iPhone加入具备侦测儿童色情图像功能将用户照片库中的照片与已知的儿童色情图像进行匹配,以监控iPhone用户的照片内容,引发私隐保障议论。消息先由参加简介会的安全专家泄露出来,苹果周四(5日)也以在网上贴文证实。苹果公司此前曾表示,用户照片上传到iCloud时采用了散列技术,这个新系统将在用户的设备上的客户端完成。
苹果还没有正式宣布这项新举措,据《华尔街日报》报道,苹果此举旨在调节多年来分歧的两个领域,公司用户私隐保障,以及执法机关意图了解iPhone上发生的违法行为。
苹果尚未对这项计画发表评论,有报道指这套监控系统一开始只会在美国应用,将纳入预定下个月要发表的iOS 15的新增功能。
苹果表示,该系统运用新的密码技术与人工智慧,在用户使用iCloud Photos储存功能时,辨别出儿童色情材料。一旦侦测到特定数量的这类图像,只限图片不包括影片,被上传到iCloud Photos,就会启动图像检视机制,检查其是否违法,然后通报给私人非营利组织「国家失踪及被剥削儿童中心」。该组织是由美国国会授权于1984年成立的受虐儿童通报机构。
「国家失踪及被剥削儿童中心」总裁兼执行长John Clark赞扬苹果这项新功能,他说:「苹果加强对儿童的保护,是个改变游戏规则者。事实上,隐私和保护儿童是可以并存的。」
苹果强调,iPhone的加密系统不会受到这项侦查功能的影响,在iPhone装置内的资料完全保持私密。用户只要不把图像上传到iCloud Photos,就不会启动侦查系统。
然而,密码学和安全专家Matthew Green指出,当中的哈希算法并非万无一失,可能会出现误报。如果苹果公司允许政府控制指纹内容数据库,那么他们也许可以利用该系统来检测明显非法的儿童内容以外的图片,比如压制政治议题。
最新回应