美iPhone擬偵測兒童色情圖像
2021-08-07 00:00
蘋果公司宣布推出新系統,監測美國iPhone和iPad用戶是否儲存兒童受性虐待的照片,一但發現敏感內容將交由人工審核,並決定是否聯繫執法部門跟進。蘋果在網絡帖文中表示:「我們想要協助保護孩童,免受以通訊工具來招募並剝削孩童的侵犯者荼毒,並限制兒童性虐待內容(child sexual abuse material,CSAM)散布。」名為「neuralMatch」的新系統可用來檢測圖片相似度,周四起展開測試,預料加入稍後發布的iOS 15、iPadOS 15及macOS Monterey中。
系統會將用戶裝置上的照片,以及美國國家失蹤及受虐兒童中心(NCMEC)和兒童安全組織超過二十萬幅圖片的資料庫,透過雜湊演算(hash)生成一串「數碼指紋」(數字代碼)並進行比對。這些代碼可用來準確辨認圖片,但不能變回圖片。蘋果還有稱為「NeuralHash」的工具,曾經編輯修改過的類似照片也難逃法眼。蘋果表示,這套系統將使用密碼學和人工智能技術。當用戶要將照片儲存到iCloud,系統就會在手機端執行比對,以確定是否涉及兒童色情。蘋果強調,裝置內的資料只要不上傳到iCloud,就不會啟動偵查系統。《金融時報》引述知情人士說,在上傳至伺服器的每張照片都會得到一張「安全憑證」,說明該照片是否可疑。
國家失蹤及受虐兒童中心是由美國國會授權,於一九八四年成立的受虐兒童通報機構。該中心行政總裁克拉克讚揚蘋果的新功能,他說:「蘋果加強對兒童的保護,是個改變遊戲規則者。事實上,私隱和兒童保護是可以並存的。」
蘋果表示,系統只會與NCMEC圖庫比對,不會識別像是家長拍子女洗澡等照片,強調不會危害一般使用情況下的私隱安全。但有專家認為,即使只用數碼指紋篩查照片也有隱憂。約翰霍普金斯大學密碼學研究員格林說:「利用這套系統,理論上可將透過向無辜的人發送看似沒問題的照片來陷害他們。」他說研究人員已經有能力欺騙此類系統,可輕易做到這一點。格林並說,蘋果的看法是對或錯並不重要,重點是這將摧毀大壩,「政府將要求每個人都這樣做」。安全研究人員擔心,蘋果為用戶安裝掃描軟件等同展開監控,相關系統可用作掃描任何針對性的內容,例如反政府標語或恐怖主義活動等。任何國家都可用當地法例向蘋果提出要求,引發嚴重私隱問題。但另一派資訊安全專家認為,只要蘋果信守承諾,只偵測一小部分裝置內容,外部專家無法重複審查。
除了上述系統,蘋果公司還有一系列的工具,旨在保護兒童免受性剝削者攻擊。其中端對端加密的iMessage將加入人工智能工具,機械學習分析、辨認及自動模糊處理色情照片,一旦兒童收發這些可能有問題的照片,兒童和家長都會收到警告。家長可在子女的手機啟動這項自動模糊照片功能。據稱蘋果不會收到相關照片或向當局舉報,但父母可收到通知,得悉子女收發色情圖像。另外,蘋果公司也更新Siri,如果發現兒童用戶搜尋兒童色情相關內容,Siri將會「介入」解釋該主題不恰當和提供諮詢渠道。
事實上,微軟、Google、facebook等大企業多年來都有分享已知兒童象情圖像的數碼指紋,蘋果也有用來篩查已經儲存在iCloud的檔案,但將掃描的動作轉到裝置上執行是前所未有的做法。蘋果表示將會在美國率先推出相關功能,將來會擴展到其他地區。
關鍵字
最新回應