【科技直talk】欧盟监管AI草案 港立法宜借镜

2021-05-30 00:00

全球人工智能市场迅速增长,但世界各地政府却没有盲目地全面接受,部分对人工智能应用的负面影响忧心忡忡。以欧洲为例,欧盟委员会于今年四月公报一份人工智能监管草案,建议禁止大规模监控及基于人工智能的社会信用系统。

草案的基本原则,是数据拥有者的权利必须得到合理合法保障。大数据分析是人工智能的促成技术,其效能与背后的数据息息相关。欧盟了解到在数据分析者一厢情愿之下(尤其是在商业应用方面),他们会有意或无意地侵犯了数据拥有者的权利。因此,欧盟于二○一六年推出《一般数据保护条例》(GDPR),目的是保护欧盟个人数据,包括拥有者的私隐权、知情权、问责权、删除权等。再者,《条例》更适用于全球,可以监管欧盟境外第三方对个人数据的处理操守。所以,人工智能草案与GDPR挂鈎,对国际人工智能的商务发展,将会影响深远。

另外,草案提出人工智能使用的大原则,目的是禁止开发极高风险的人工智能应用,包括:

一、禁止利用人工智能技术在不知不觉中操控人类意识,代替用户作决定或扭曲其行为,继而对他造成身体或心理的伤害。类似应用在今天虚拟世界如雨后春笋般出现,例如不良社交媒体利用虚假或极端主义讯息,进行自动推荐,诱导客户作非自愿的决定。

二、利用儿童或残疾人士的脆弱性进行误导,对他们造成伤害。这原则与欧盟一贯对弱势社群的重视和保护之政策同出一辙。

三、推行社会信用体制。欧盟委员会认为若然人工智能系统根据人的社会行为或人格等特徵进行用户信用评估的话,这行为会造成不可预见的后果,导致个人或特定群体的权益受到损害。现实中不同的社会文化会产生不同的算法偏见,这将直接对信用评估产生影响。这样的社会信用体系,侵蚀社会公平公正基本原则,因此草案提出禁止乃是理所当然。

欧盟委员会续指,高风险的社会信用评估应用场景主要集中在社会保障、就业和教育等与生活息息相关的领域。在就业方面,利用人工智能算法对工作人员进行评估或监测,属于高风险行为,因为算法可以左右员工的职业前景和生计。与此同时,由于算法有机会存有偏见,因此人工智能会对妇女、残疾人士或长者在工作上产生歧视,令个人的隐私权受到威胁。

在教育方面,利用算法进行招生录取、评估学生水平等同样存在高风险,这做法很可能会影响被评者一生受教育的机会,还会产生社会固化的问题。在社会保障系统方面,人工智能参与决策过程将对民生产生重大影响,例如利用人工智能去分析某申请人,来决定他是否能获得银行贷款、财政补助、保障性住房、电力电信等基本服务,但由于种族、残疾、年龄、性取向等各种因素,算法很可能延续社会存在的歧视,使弱势社群问题日益恶化。

人工智能是香港政府创科发展的四大领域之一,政府亦计画检视现行法例和法规,笔者认为欧盟的人工智能监管草案值得政府参考。然而,香港是一个国际经济大都会,工商业界在人工智能法律的草拟过程中,必然有相当多的要求,他们会尽力争取最大的个人经济利益,为此轻视社会道德。因此,政府要保障大众的利益,以及平衡社会道德,将会面对重重挑战。

香港中文大学工程学院副院长(外务)

黄锦辉教授

關鍵字

最新回应

相關新聞

You are currently at: std.stheadline.com
Skip This Ads
close ad
close ad