当前位置:首页|资讯|OpenAI|人工智能

OpenAI o1 AI 模型因生物武器风险被列为中等风险级别

作者:Jm传媒发布时间:2024-09-18

9月14日消息,据科技媒体The Decoder昨日报道,OpenAI在其内部制定的“防备框架”指导下,将最新研发的人工智能模型o1归类为“中等风险”。

此前,OpenAI宣布成立了专门的“防备”团队,并制定了相应的“防备框架”指导方针。该团队负责持续评估公司最先进的未发布AI模型,并根据其潜在风险分为四个等级:“低”、“中”、“高”和“严重”。按照这一框架,OpenAI决定仅发布被评为“低”或“中”级别的模型。

关于o1模型,OpenAI在其官方声明中指出,该模型被归类为“中等风险”的主要原因有两个方面。首先,o1模型展现了类似人类的推理能力,并能够在相关主题上生成与人类撰写的同样具有说服力的论点。尽管这种能力并非o1模型所独有,之前的AI模型也曾表现出类似特征,甚至在某些情况下超过了人类的表现。其次,评估结果显示,o1模型有可能协助专家复制已知的生物武器威胁,因此存在一定的安全风险。

值得注意的是,o1模型在数学和科学领域的表现显著增强。例如,在全美奥林匹克数学竞赛(USA Mathematical Olympiad,简称USAMO)的预选赛中,o1模型的成绩能够跻身美国前500名学生的行列。此外,在物理、生物和化学等学科的基准测试中,o1模型的准确度甚至超过了人类博士水平。

这是OpenAI首次将模型在化学、生物、放射性和核武器(CBRN)方面的风险评级定为“中性”。与此同时,OpenAI也多次强调了这些模型可能带来的潜在危险。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1