站长之家(ChinaZ.com) 5月31日消息:OpenAI 首席执行官 Sam Altman 等顶级人工智能领域的高管于周二加入了专家和教授的行列,提出了「人工智能灭绝风险」的问题,并敦促政策制定者将其与大流行病和核战等风险等同对待。
超过 350 名签署者在非营利组织人工智能安全中心(CAIS)发布的一封信中写道:「减轻人工智能灭绝风险应当与大流行病和核战等其他社会规模的风险一样成为全球优先事项。」
这份声明被放在一个位于旧金山、由私人资助的非营利组织「人工智能安全中心」(CAIS)」的网站上,试图将人工智能风险等同于核灾难带来的生存危害,并呼吁政策制定者将注意力集中在减轻他们声称的「末日」灭绝级人工智能风险上。
这封信的签署者包括 OpenAI、DeepMind 和 Anthropic 等 AI 公司的 CEO,以及微软和谷歌等公司的高管。
信中还包括了 Geoffrey Hinton 和 Yoshua Bengio 等两位被誉为「人工智能教父」的人物,他们因在深度学习领域的贡献而获得了 2018 年的图灵奖。此外,还有来自哈佛大学和清华大学等机构的教授。
CAIS 的一份声明特别指出,尽管 Yann LeCun 是「人工智能教父」之一,但他所在的 Meta 公司未在信中签署。
这封信的发布正值美欧贸易和技术理事会在瑞典举行的会议上,届时预计政界人士将讨论对人工智能的监管问题。
埃隆·马斯克和一群人工智能专家和行业高管是今年 4 月首次提到人工智能潜在风险的人士。
尽管人工智能的最新发展为医学诊断和撰写法律备忘录等应用提供了工具,但也引发了人们对隐私侵犯、虚假信息传播以及「智能机器」自主思考的担忧。
人工智能先驱 Hinton 曾告诉媒体表示,相比气候变化,人工智能可能对人类构成更加紧迫的威胁。
上周,OpenAI 的 CEO Sam Altman 将欧盟的人工智能(EU AI)称为过度监管,并威胁要离开欧洲市场。但在遭到政界人士的批评后,他在几天后改变了立场。