【科技直talk】「深度伪造」碍创意 不善用破坏性强
2021-06-27 00:00「深度伪造」(Deep Fake)技术利用人工智能进行人体图像合成,基本上是将已有的图像或影片「叠加」(Superimpose),从而伪造出一套仿真度超高的图像或影片。例如,麻省理工《深度学习入门》课程的第一课,老师利用「深度伪造」开发了一段美国前总统奥巴马发言的录像,内容是由他亲身介绍「深度学习」。尽管总统对人工智能科技一窍不通,但录像却栩栩如生,初接触者都信以为真。
有网民认为自己并非知名人士,也非政客,绝对不是黑客的攻击目标,因此「深度伪造」对他们影响不大。不过随着此技术最近又有新进展,功能进一步提升,已经被应用于大众的日常生活之中。「脸书」的人工智能组(Facebook AI)推出「文字风格刷」(Text Style Brush)技术,用户只需要提供数个手写字串,「文字风格刷」便能学会他写字的笔风,之后便可以为所欲为,以同一样之写字风格进行大规模抄写,以假乱真。
除了数码版的抄写员之外,抄写机器人的研究也炙手可热。中小学生得悉这发明当然十分之雀跃,他们热切期待这发明能尽快被转化为产品,解决他们被老师罚抄之苦。然而,在工商业界的应用场景中,这技术推出之后,文件被冒签的风险便难以避免,影响营商。
现实生活中,「深度伪造」技术会引发道德和法律问题,首当其冲的是「侵犯版权」,受害者的图像在未经他人同意之下被滥用,也会导致当事人的「私隐外泄」,所造成的后果可大可小,偶一不慎会令受害者声誉受损,甚至乎家庭破裂。另外,伪造的「失实谎言」不但会影响当事人,很多时也会影响整个社会,例如煽动种族仇恨便是其中骇人听闻的例子。
另外,有网民认为「深度学习」是人工智能版的「二次创作」手法,能提供无限创意空间,但笔者对这观点不以为然。「深度伪造」背后的基础技术是「深度学习」,这技术的核心任务,是从既定的训练数据中,利用科学算法去学习输出及输入数据之间的配对模型,之后用户便可以利用该模型,为未来新输入的数据进行输出的推算。古语道:「熟读唐诗三百首,不会作诗也会吟」,利用「深度学习」所训练出来的人工智能系统,在预设应用范围内运作是绝对可行的,不过当系统遇上从未学习过的输入数据时,它便可以会推算失准,因而作出错误的决定。理论上人工智能系统的研发目标是「机器代人」,而「深度学习」主要集中在输入与输出的配对而已,做法无疑窒碍创意,影响人工智能的应用原创性。
「水能载舟 亦能覆舟」,「深度伪造」并非一面倒只具破坏性,问题在于使用者的出发点,例如有艺术工作者利用这技术把已故的明星「重生」,出现在电影中,增加电影的可观性,上述奥巴马介绍科技的短片便是类似的成功个案。归根究柢,「深度伪造」一词带有误导性,把这项先进人工智能技术贴上了负面标签,令一般人视之为不良的算法。
因此,笔者建议业界改名,把这技术中性地称为「深度模仿」,这将有助释除大众不必要的疑惑。
香港中文大学工程学院副院长(外务)
黄锦辉教授
關鍵字
最新回应