9月14日消息,据科技媒体The Decoder昨日报道,OpenAI在其内部制定的“防备框架”指导下,将最新研发的人工智能模型o1归类为“中等风险”。
此前,OpenAI宣布成立了专门的“防备”团队,并制定了相应的“防备框架”指导方针。该团队负责持续评估公司最先进的未发布AI模型,并根据其潜在风险分为四个等级:“低”、“中”、“高”和“严重”。按照这一框架,OpenAI决定仅发布被评为“低”或“中”级别的模型。
关于o1模型,OpenAI在其官方声明中指出,该模型被归类为“中等风险”的主要原因有两个方面。首先,o1模型展现了类似人类的推理能力,并能够在相关主题上生成与人类撰写的同样具有说服力的论点。尽管这种能力并非o1模型所独有,之前的AI模型也曾表现出类似特征,甚至在某些情况下超过了人类的表现。其次,评估结果显示,o1模型有可能协助专家复制已知的生物武器威胁,因此存在一定的安全风险。
值得注意的是,o1模型在数学和科学领域的表现显著增强。例如,在全美奥林匹克数学竞赛(USA Mathematical Olympiad,简称USAMO)的预选赛中,o1模型的成绩能够跻身美国前500名学生的行列。此外,在物理、生物和化学等学科的基准测试中,o1模型的准确度甚至超过了人类博士水平。
这是OpenAI首次将模型在化学、生物、放射性和核武器(CBRN)方面的风险评级定为“中性”。与此同时,OpenAI也多次强调了这些模型可能带来的潜在危险。