AI顶尖专家联署警告:AI令「人类灭绝」风险等同核战
2023-05-31 09:18
AI(人工智能)威胁人类生存,这种说法之前已分别有科技界强人提出过,许多人觉得是杞人忧天,但若是数十位甚至数百位AI专家都这样说,你又会怎样想?
包括研发ChatGPT聊天机器人的公司OpenAI行政总裁奥特曼(Sam Altman)在内的300多名科技界人士,连署声明呼吁全球领导人尽力设法降低AI技术带来的「人类灭绝」风险。
OpenAI公司研发的ChatGPT人工智能机械人技术引发最新一轮AI热潮,是AI发展的最大受益者,奥特曼有份参与连署,令声明更具说服力。
该声明发布在非营利组织「人工智慧安全中心」(Center for AI Safety, CAIS)的网页上,路透社报道形容,联署者有许多是人工智能领域中的顶级专家、教授和企业高管,除了OpenAI行政总裁奥特曼,还有另外两间知名人工智能公司 DeepMind 和 Anthropic 的行政总裁,以及网络巨头微软和谷歌的高管。
声明提出:「减轻人工智能灭绝的风险,应该等同于流行病和核战争,一起成为全球优先事项」。
声明未有详细说明人工智能可能带来的潜在生存威胁,CAIS表示,声明旨在带起关注对人工智能技术风险的关注及讨论。
声明的350名签署人中,包括弓被称为「AI教父」的哈佛大学教授辛顿(Geoffrey Hinton),而辛顿之前也曾提出类似的警告。
2个月前,美国首富马斯克(Elon Musk)和其他数百名专家也曾发表一封公开信,呼吁在确定安全无虞之前,暂缓AI研发工作。
最新回应