早前捲入洩密風波的社交網站facebook周二發表一份報告,詳細交代如何執行既定標準,去對付涉及性、暴力、種族主義、恐怖主義宣傳及帶有仇恨的內容和訊息。最新發表的數據顯示,在2018年頭3個月,fb總共關掉了5.83億個假帳戶。該公司平均每天阻止數以百萬計的假帳戶開通。儘管如此,現時仍然存在的假帳戶,佔了整體活躍帳戶的3%至4%。另外,不當使用fb8700萬名用戶個人資料、已經申請破產的英國政治顧問公司「劍橋分析」,正受到美國司法部及聯邦調查局調查。
在今年首3個月,有大約3000萬條含有性或暴力影象、恐怖主義宣傳或仇恨言論的訊息被刪除,或向張貼這些訊息的用戶發出警告。這個數字,相當於 fb全球20多億用戶看到的全部內容的0.22%和至0.27%之間。換句話說,每一萬條訊息中,有22至27條的內容有問題。
在此類個案當中,85.6%是fb在接到有用戶舉報之前,已經察覺到有問題存在。
fb現時採用經過改良的技術,例如人工智能、辨識照片技術等,對340萬條含有令人反感的內容和訊息採取行動。這個數字,是2017年同期的接近3倍。
單是涉及恐怖主義宣傳而被剷除的訊息,今年頭3個月便多達190萬條,比去年同期大幅增加73%。不過,仇恨言論比較難利用人工智能等先進技術去偵測。
在同一時期,在fb網站上出現的垃圾訊息,有多達8.37億條被剷除。成功偵測得到的垃圾訊息比率是100%。
此外,fb平台上有大約200個應用程式,因為被懷疑濫用用戶的個人資料而受到調查及封殺。
不過,在這份報告中,fb沒有交代如何杜絕假新聞的散播、以及如何對付可能會影響選舉和公眾輿論的訊息。
至於未經授權獲取fb多達8700萬名用戶資料的「劍橋分析」,據《紐約時報》報道,正受到美國司法部及聯邦調查局調查。據悉檢察官已尋求查問「劍橋分析」的前員工和處理該公司業務的銀行。
而調查似乎將重點放在「劍橋分析」的金融交易和他們如何獲取及使用來自fb及其他來源的個人資料。據報調查人員已連繫fb。