【智經時事分析】人工智能研究 怎做才算「負責任」﹖

2020-07-27 00:00

人工智能(Artificial Intelligence,AI)叛變是科幻電影的常見橋段,雖然在現實世界尚未成真,大眾已經意識到AI技術既能幫人亦能帶來傷害。外國一個AI研究組織宣稱,為免新技術被人惡意利用,揚言要一改其「開源」文化,拒絕一次過完整公開技術的源代碼、數據集。此舉在業界引起很大爭議,業界到底應如何負責任地開放AI技術?

上段提及的「開源」,即開放軟件源代碼,任何人均可在源代碼的基礎上進行學習和修改。開發者可基於前人的成果,進行更多範疇和更深入的開發,為AI發展生態帶來長遠利益,故牟利的科技企業,也會加入開源。

不過開源科技落入不同人的手中,也不保證會用於正途。一七年面世的深偽技術是一種透過AI深度學習技術所創造出的偽造訊息,可以用於影像及聲音。受惠於「開源」,技術門檻降低,一般人只需要下載各種AI換臉軟件,輸入仿造對象的影音素材,便能輕易偽造出極為像真的影片。它雖然縮小了創作者之間的「貧富差距」,小型創作者可利用技術製作精美視覺特效;但同時有不法之徒借此偽造國際女星的色情影片。

深偽技術的惡果,似令業界有所反思。非牟利AI研究實驗室OpenAI,聲言因不希望發布的技術會被人惡意使用,決定一反其「開源」的傳統,提倡「負責任發布」。 OpenAI解釋,他們出品的上一代人工智能語言模型,能夠編寫看似真實的文章,擔心全新語言模型GPT-2會被濫用,例如編寫誤導他人的新聞文章、辱駡內容,因此決定分階段發布成果,希望研究人員有更多時間減少技術帶來的風險,並成為業界先例。

去年二月該團隊宣布,開發出GPT-2,用家提供一小段文字作提示,模型便可以預測下一個單詞,從而衍生一篇長文章。而團隊當時沒有對外發布經過訓練的完整模型,而是分階段先發布較小和簡單、只有一點二四億個參數的模型,並於同年五月及八月發布較大、參數更多的模型,最終在十一月才發布具十五億個參數的完整模型。

同時OpenAI採取了其他措施,內部研究GPT-2輸出內容中的偏見問題,亦與四個第三方大學和研究中心合作,研究模型的潛在惡意用途、人類對模型生成內容的反應等模型對社會的影響。團隊聲稱,合作夥伴的研究結果,或發現模型遭惡意使用,將會影響他們發布下一階段模型的決定。而每次發布後,他們持續監測有宣揚虛假資訊前科的網站和論壇,並未發現GPT-2遭濫用。

這種理念得到部分業界的追隨。AI企業Hugging Face決定不對外發布其內部語言模型,認為需要考慮新技術的潛在惡意用途,使技術發揮正面社會影響。其後他們發布最新對話式AI語言模型時,同時公開相關技術的道德分析。

有人支持,當然也有人反對。有業界人士覺得,OpenAI背棄一直以來的核心開源文化和同行評審的流程。若不共享完整的模型,獨立研究人員便無法評估和驗證有關技術的主張,亦無助模擬技術的威脅和找出防禦方法。

坊間亦指控,OpenAI已經變質邁向牟利。而它之後的舉動,看似證實了這一說法。OpenAI在今年六月發布最新一代語言模型GPT-3,選擇釋出API(應用程式介面),供外界私下付費申請使用。OpenAI承認,發布API目的之一是要將技術商業化,以應付未來研究、安全和政策工作的開支。

無可否認,OpenAI已經引發了一場業界對話,討論甚麼情況下,需要限制取得AI研究內容。信息安全論壇表示,對開源安全性的擔憂有時可能被誇大,一刀切禁止開源只會適得其反,但提醒開發人員需了解其安全風險和漏洞。美國列治文大學法律學院副教授Rebecca Crootof提議,業界制訂一套評估AI技術危害的準則,研發人員在權衡如何負責任地發布技術時,從多角度去評估開源技術的潛在風險或危害,包括造成危害的源頭,危害的形式、對象、規模、可能性等共十個因素,量度開源與否的好壞,亦要考慮有何預防或補救措施。

業界比普羅大眾應更有能力預視,人工智能技術對人類社會的利弊。到底保留開源共享研究成果的文化,還是改變發布原則、以分階段發布,才是對社會最負責任的做法,未來自有分曉。無論保留開源共享研究成果的文化,還是改變發布原則,均需確保人工智能技術發展合乎公眾利益。

(全文見智經研究中心網頁:www.bauhinia.org)

智經研究中心

關鍵字

最新回應

相關新聞

You are currently at: std.stheadline.com
Skip This Ads
close ad
close ad