fb審查員看恐怖影像 心理創傷獲賠4億
2020-05-14 08:59
全球最大社交網facebook遭其內容審查員集體控告,指公司沒有提供足夠保護,使其因接觸大量令人不安的內容(如性虐兒童、斬首、強姦等恐怖影像)而受到心理創傷。facebook與當事人達成庭外和解,同意向內容審查員合共賠償五千二百萬美元(約四億港元),有超過一萬一千人合資格獲賠。
根據周二公布的庭外和解內容,facebook同意向每名內容審查員賠償最少一千美元(約七千八百港元)。如果他們確診患上創傷後遺症(PTSD)等精神疾病,最多可以獲得額外五萬美元(接近三十九萬港元)賠償。對象包括自二○一五年至今,曾在加州、亞利桑那州、德州和佛州任職的內容審查員,有超過一萬一千人合賠償資格。
雙方同意和解
內容審查員通是由第三方公司聘請。根據和解協議,facebook同意修改政策改善工作環境,包括要求第三方供應商提供持牌心理健康諮詢師進行的輔導,改善審查工具令審查員的工作更安全。facebook發言人說,一直在改變審查員的工作方式,和解協議是其中一步。
控方代表律師威廉姆斯說,內容審查員經常接觸兒童性虐待、斬首、恐怖主義、虐待動物、強姦、謀殺等令人不安的圖片或影片,還有「人類墮落的心靈所能想象的其他一切恐怖內容」。
威廉姆斯稱,審查員們最初只是希望改變政策,他們得悉獲賠感到非常興奮。他說:「這項工作可能遭受的傷害是真實而嚴重的。因此,我們獲得一些切實而有意義的幫助,這令人感覺很好。」
這次訴訟由前內容審查員斯科拉(Selena Scola)發起。她在二○一八年九月向加州法院入稟,其後有幾名前審查員加入。斯科拉稱她任職審查員九個月後患上創傷後遺症,嚴重至「碰到滑鼠就發作」。其他人則發現政治立場因為這份工作而被推向右派,或者變得沉迷極端內容。
科技新聞網站The Verge去年發表報告,指出這些僱員年薪只有二萬八千八百美元(約二十二萬三千港元),每天要看成千上萬的恐怖影片,卻只有很少的心理健康支援。
另外,facebook昨日發表第五版社群守則執行報告,顯示從去年十月到今年三月間,開始使用更多科技,提升主動發現違規內容的技術、文字及圖像比對技術,以找出更多自殺及自我傷害的內容和自動移除仇恨言論等內容,減輕內容審查員的負擔。
加強自動化系統篩查內容
facebook說,當內容審查員暫時在家防疫,公司將更加仰賴自動化系統,讓團隊優先審查嚴重性較高的內容。
最新回應