南韓深偽色情影像氾濫惹恐慌 總統下令嚴打

2024-08-29 00:00

使用AI工具可輕易製作深偽影像。
使用AI工具可輕易製作深偽影像。

南韓最近飽受人工智能(AI)深偽色情影像大量散播的問題困擾。當地不少人利用AI深偽技術,將上傳社交網的女性照片,改造變成色情照片及影片散播,受害者包括中學生、大學生、教師、女兵等,當中有3成為未成年人。深偽淫穢影像氾濫引發民眾恐慌,總統尹錫悅大表震怒,下令徹查及採取針對性的措施打擊罪行。當局擬要求通訊軟件Telegram和其他社交平台更積極協助刪除和封鎖深偽色情內容。
擬要求通訊軟件協助封鎖

最近Telegram被發現存在大量疑似分享淫穢影像的群聊頻道,這些頻道出現的淫穢影像以AI深偽技術製成。每個頻道平均有數千人參與,多則十萬人以上。其中一個熱門Telegram頻道吸引到約22萬會員,主要是青少年會員,他們會到Instagram等社交媒體平台去截取受害者的照片,然後用這些照片作為製作深偽色情照的材料,製成便與眾人分享。
受害者包括學生教師女兵

也有會員會上傳同學、老師等人的照片,然後其他網友會將照片改成露骨的深偽圖像。南韓媒體稱,受害者包括中學生、大學生、教師、女兵等,當中有3成為未成年人,部分受害者已報警。南韓教師工會指,「受害學校」已超過200間,令人震驚。

因應事態嚴重,總統尹錫悅呼籲徹底調查網絡性犯罪,並下令打擊這種越演越烈的罪行,以保障女性免在不知情下成為受害者。尹錫悅周二在內閣會議上還談到了社交媒體上性犯罪問題嚴重,但未有點名Telegram。

到昨日,當局表示計劃要求社交平台更積極協助刪除和封鎖露骨的深偽色情內容。KCSC表示,除了Telegram,也將尋求YouTube、X平台,以及Meta公司旗下的Facebook和Instagram等社交平台配合。韓國通訊標準委員會(KCSC)則表示,將設置24小時的受害人保護專線,監控數碼性犯罪的監管人員數量也將從目前的70人增加一倍。警察廳則表示,將展開為期7個月行動,加強打擊網絡性犯罪。

南韓的數碼性犯罪受害者支援中心自2018年4月成立以來,截至今年8月25日,共向2154名深偽案件受害者提供幫助。女權活動者、主要反對黨共同民主黨的前領袖朴智賢(音)聲稱,政府需要宣布「國家緊急狀態」,以應對深偽色情問題。

關鍵字

最新回應

相關新聞

You are currently at: std.stheadline.com
Skip This Ads
close ad
close ad