AI聊天陷阱多 私隱專員宣傳自保法
2023-09-13 00:00
人工智能(AI)聊天機械人「ChatGPT」近日大行其道,但市民使用時亦要慎防私隱外洩。個人資料私隱專員鍾麗玲接受《星島》專訪時表示,「ChatGPT」其實是一個大型的言語模型,儲存大量數據,當市民問一些問題,需要提供自己或其他人的個人資料,「ChatGPT」會根據其演算法,將今次的個人資料提供予下一個用戶,增加私隱外洩的風險,有見及此,個人資料私隱專員公署特別推出「使用AI聊天機械人『自保』十招」宣傳單張,希望透過懶人包及圖表的方式,為市民提供自保貼士。
鍾麗玲表示,生成式人工智能(AI)的工具及平台,可讓用戶生成各種新穎的內容,例如語音、文字、代碼、影片、圖像及其他數據,像「ChatGPT」的AI聊天機械人,建基於大型語言模型的程式,能夠根據用戶所輸入的文字生成自然的文字回應。鍾以生活常見的情況舉例,「如市民到銀行開戶口,可能會問ChatGPT邊間銀行最優惠?就這樣,市民不知不覺間可能會輸入一些個人資料;其他例子,如進行一些調查,市民亦可能會輸入個人及他人的資料,到下一位市民向『ChatGPT』詢問同樣問題,資料就有機會因此外洩。」
懶人包單張令市民易明白
逾10萬ChatGPT用戶資料外洩
事實上,根據外電報道,去年6月至今年5月期間,便有超過10萬個ChatGPT用戶的資料外洩,其中以亞太區中招情況最嚴重,達41000個,大部分因接觸帶有竊密的惡意程式而被盜取資料,結果在不同暗網遭放售。
另外,本港警方上月首次發現騙徒利用人工智能(AI)換臉程式,即坊間所指「深度偽造(Deepfake)」技術,在網上申請貸款,最少20次試圖冒認已報失身份證的市民,瞞騙人臉識別系統以完成網上申請程序,當中有一次成功,騙取7萬元。
鍾麗玲強調,其實人工智能亦涉及道德風險,資料顯示,AI人臉辨識辨別有色人種的錯誤率較白人高,過去便曾發生有黑人被拉錯人事件,無辜坐了6天的監禁,可見人工智能有利亦有弊,私隱專員公署於2021年8月亦曾發布人工智能道德標準指引,涉及3個數據基本價值,以及7個道德標準原則,如行為監督、問責性、透明度及私隱保障公平,全是國際性原則。
關鍵字
最新回應