鞭牛士报道,5月18日消息,据外电报道,OpenAI的长期人工智能风险团队已经被解散。
去年7月,OpenAI宣布成立一个新的研究团队,为能够智胜和压倒创造者的超级智能人工智能的出现做准备。OpenAI的首席科学家、该公司的联合创始人之一Ilya Sutskever被任命为这个新团队的首席执行官。
OpenAI表示,该团队将获得其计算能力的20%。
该公司证实,现在OpenAI的超级联盟团队已经不复存在。此前,几名相关研究人员离职,周二传出Sutskever将离开公司的消息,以及该团队的另一名首席执行官辞职。该小组的工作将被吸收到OpenAI的其他研究工作中。
Sutskever的离职成为头条新闻,因为尽管他在2015年帮助首席执行官Sam Altman创立了OpenAI,并为导致ChatGPT的研究设定了方向,但他也是11月解雇Altman的四名董事会成员之一。
在OpenAI员工的大规模反抗以及Sutskever和其他两名公司董事离开董事会的交易促成后,奥特曼在混乱的五天后恢复了首席执行官的职位。
在周二宣布Sutskever离职数小时后,前DeepMind研究员Jan Leike在X上发布消息称,他已辞职。
Sutskever和Leike都没有回应置评请求,也没有公开评论他们离开OpenAI的原因。Sutskever确实在X上的一篇帖子中支持了OpenAI目前的发展道路。
他写道:该公司的发展轨迹简直是奇迹,我相信OpenAI将在其目前的领导下构建既安全又有益的AGI。
OpenAI超级联盟团队的解散,为公司内部在去年11月的治理危机后进行重组的最新证据增添了新的证据。
据《信息报》上个月报道,该团队的两名研究人员Leopold Aschenbrenner和Pavel Izmailov因泄露公司机密而被解雇。该团队的另一名成员William Saunders在2月份离开了OpenAI,根据他名下的一篇互联网论坛帖子。
另外两名致力于人工智能政策和治理的OpenAI研究人员最近似乎也离开了该公司。
据领英(LinkedIn)报道,库伦·奥基夫(Cullen O'Keefe)于4月辞去了政策前沿研究负责人的职务。
根据一个以Daniel Kokotajlo名义在互联网论坛上发布的帖子,他是一名OpenAI研究员,曾与人合著过几篇关于更有能力的人工智能模型的危险的论文,他退出了OpenAI,因为他对自己在AGI期间的负责任行为失去了信心。
显然已经离开的研究人员都没有回应置评请求。
OpenAI拒绝就Sutskever或超级联盟团队其他成员的离职,或其长期人工智能风险工作的未来发表评论。关于更强大模型相关风险的研究现在将由约翰·舒尔曼领导,他是负责在训练后微调人工智能模型的团队的负责人。
超级联盟团队并不是唯一一个思考如何控制人工智能问题的团队,尽管它被公开定位为解决该问题最遥远版本的主要团队。
去年夏天,宣布超级联盟团队的博客文章称:目前,我们还没有一个解决方案来指导或控制潜在的超级智能人工智能,并防止其失控。
OpenAI的章程规定,它必须安全地开发所谓的通用人工智能,即为了人类的利益,安全地与人类竞争或超越人类的技术。Sutskever和那里的其他领导人经常谈到需要谨慎行事。但OpenAI也很早就开发并向公众公开发布实验性人工智能项目。
在著名的人工智能实验室中,OpenAI曾经是不寻常的,因为像Sutskever这样的研究领导者热切地谈论创造超人的人工智能,以及这种技术对人类的潜力。
去年,在ChatGPT将OpenAI打造成全球最知名、最受关注的科技公司后,这种末日般的人工智能言论变得更加普遍。随着研究人员和政策制定者努力解决ChatGPT的影响和更强大的人工智能的前景,担心人工智能伤害人类或整个人类的争议变得更小了。
自那以后,对生存的焦虑已经冷却,人工智能还没有做出另一个巨大的飞跃,但人工智能监管的必要性仍然是一个热门话题。本周,OpenAI展示了一个新版本的ChatGPT,它可能会以强大且可能有问题的新方式再次改变人们与该技术的关系。
Sutskever和Leike的离开发生在OpenAI最新的重大披露之后不久——一种名为GPT-4o的新多模式人工智能模型,它允许ChatGPT以更自然、更人性化的方式看待世界和交谈。
一个直播演示显示,新版ChatGPT模仿人类情绪,甚至试图与用户调情。OpenAI表示,将在几周内向付费用户提供新界面。
没有迹象表明最近的离职与OpenAI开发更人性化的人工智能或运送产品的努力有任何关系。但最新进展确实引发了有关隐私、情绪操纵和网络安全风险的伦理问题。
OpenAI维持着另一个名为准备团队的研究小组,专注于这些问题。
Python好学编程 2024-11-16
阿力果果 2024-11-16