风险预警

Risk warning

当前位置: 首页 > 国别环境 > 风险预警

美媒:科技行业领袖警告AI可能给人类带来“灭绝风险”

2023-06-02 13:30:26 中新网
摘要:5月30日,超过350名人工智能领域的行业高管、研究人员和工程师签署了一封公开信,他们在信中警告称,AI可能给人类带来“灭绝风险”。

5月30日,超过350名人工智能领域的行业高管、研究人员和工程师签署了一封公开信,他们在信中警告称,AI可能给人类带来“灭绝风险”。

中新网援引美国《纽约时报》报道,这封公开信只有一句话的声明:“减轻人工智能带来的灭绝风险,应该成为全球的优先事项,就像应对其他社会规模的风险——如大流行病和核战争一样。”

该公开信由非营利组织人工智能安全中心(Center for AI Safety)发表,350多名签署者中包括三家领先人工智能公司的高管:OpenAI首席执行官山姆·阿尔特曼,谷歌DeepMind首席执行官杰米斯·哈萨比斯,以及Anthropic首席执行官达里奥·阿莫代伊。

《纽约时报》称,最近,大型语言模型,即ChatGPT和其他聊天机器人使用的人工智能系统所取得的进展,引发了人们的担忧。人们担心,人工智能有可能很快就会被大规模用于传播错误信息和宣传,或者可能消除数百万白领的工作。

5月,阿尔特曼、哈萨比斯和阿莫代伊曾与美国总统拜登和副总统哈里斯碰面,讨论人工智能的监管问题。在会后的参议院证词中,阿尔特曼警告,先进人工智能系统的风险已经严重到需要政府干预的程度,同时,他呼吁对人工智能的潜在危害进行监管。

此前,阿尔特曼和OpenAI的另外两名高管提出了几种负责任地管理强大人工智能系统的方法。他们呼吁领先的人工智能制造商进行合作,对大型语言模型进行更多技术研究,并成立一个类似于国际原子能机构的国际人工智能安全组织。

阿尔特曼还表示,支持制定规则,要求大型尖端人工智能模型的制造者,注册政府颁发的许可证。

“我认为如果这项技术出了问题,它可能会大错特错。”阿尔特曼告诉参议院小组委员会。“我们希望与政府合作,防止这种情况发生。”

据报道,今年3月,包括埃隆·马斯克在内的1000多名科技领袖、技术人员和研究人员签署了另一封公开信,呼吁暂停开发最大的人工智能模型六个月,理由是担心“开发和部署更强大数字思维的竞赛失控”。

免责声明:文章为转载,版权归原作者所有。如涉及作品版权问题,请与我们联系( 010-67801068 )删除。