Facebook新軟件技術刪走870萬張影像 涉及兒童裸露
2018-10-25 16:47
社交網站Facebook周三公布,該公司的工作人員利用一款從未公開過的軟件,在對上一季刪走了870萬幅涉及兒童裸露的影像。這款軟件可以自動偵測有哪些圖片或影像懷疑有問題,通知工作人員作出判斷及處理。
Facebook 一向禁止用戶張貼及分享牽涉到兒童及性的影像,包括照片或短片。有了這套軟件,該公司可以加強執行這項禁令。若有任何人企圖利用 Facebook 社交平台與未成年人士交朋友,而內容又牽涉到性,都會無所遁形。
Facebook全球安全部女主管戴維斯接受記者訪問時稱,這套軟件有助該公司優化這項政策,更有效地打擊不法之徒及保護未成年人士,而公司將來會在旗下其他社交平台例如 Instagram,應用這種技術。
在監管部門及國會議員施壓下,該公司在過去數月已經加強措施,打擊極端主義和其他不法訊息。Facebook 是全球最多人使用的社交網站,每天上載的訊息和影像達到數以十億計,而這套軟件有能力快速地搜尋及辨識可疑內容。
Facebook過往只是依賴用戶舉報及利用針對成年人裸露的過濾軟件,打擊兒童色情內容和影像。試過有用戶上載家庭合照,照片中的小孩子穿著太少衣服,也被指有問題。
戴維斯承認,在辨識過程中,軟件可能會犯錯,但有關的用戶可以提出上訴。她謂:「為了保護小孩子,我們寧枉莫縱。」
關鍵字
最新回應