蘋果擬檢測iPhone有否兒童色情圖像 引發私隱爭議
2021-08-06 10:30
蘋果公司擬在iPhone加入具備偵測兒童色情圖像功能將用戶照片庫中的照片與已知的兒童色情圖像進行匹配,以監控iPhone用戶的照片內容,引發私隱保障議論。消息先由參加簡介會的安全專家洩露出來,蘋果周四(5日)也以在網上貼文證實。蘋果公司此前曾表示,用戶照片上傳到iCloud時採用了散列技術,這個新系統將在用戶的設備上的客戶端完成。
蘋果還沒有正式宣布這項新舉措,據《華爾街日報》報道,蘋果此舉旨在調節多年來分歧的兩個領域,公司用戶私隱保障,以及執法機關意圖了解iPhone上發生的違法行為。
蘋果尚未對這項計畫發表評論,有報道指這套監控系統一開始只會在美國應用,將納入預定下個月要發表的iOS 15的新增功能。
蘋果表示,該系統運用新的密碼技術與人工智慧,在用戶使用iCloud Photos儲存功能時,辨別出兒童色情材料。一旦偵測到特定數量的這類圖像,只限圖片不包括影片,被上傳到iCloud Photos,就會啟動圖像檢視機制,檢查其是否違法,然後通報給私人非營利組織「國家失蹤及被剝削兒童中心」。該組織是由美國國會授權於1984年成立的受虐兒童通報機構。
「國家失蹤及被剝削兒童中心」總裁兼執行長John Clark讚揚蘋果這項新功能,他說:「蘋果加強對兒童的保護,是個改變遊戲規則者。事實上,隱私和保護兒童是可以並存的。」
蘋果強調,iPhone的加密系統不會受到這項偵查功能的影響,在iPhone裝置內的資料完全保持私密。用戶只要不把圖像上傳到iCloud Photos,就不會啟動偵查系統。
然而,密碼學和安全專家Matthew Green指出,當中的哈希算法並非萬無一失,可能會出現誤報。如果蘋果公司允許政府控制指紋內容數據庫,那麼他們也許可以利用該系統來檢測明顯非法的兒童內容以外的圖片,比如壓制政治議題。
最新回應