【头部财经】在人工智能领域,安全与创新之间的平衡始终是一个复杂而微妙的话题。近日,OpenAI的高管Jan Leike在X平台宣布离开公司,引发了业界对AI安全性的新一轮讨论。
据头部财经了解,Leike是OpenAI旗下Superalignment(超级对齐)团队的共同主管,该团队成立于2023年7月,旨在确保超级智能AI系统能够遵循人类的意图。然而,Leike表示,OpenAI近年来在追求高速推出吸引眼球的产品时,忽视了内部文化和安全准则。
Leike的离职引发了对OpenAI安全承诺的质疑。他曾认为OpenAI是进行AI安全研究的最佳场所,但现在他认为公司领导层忽视了模型的安全性,将盈利和获取计算资源置于核心位置。
对此,OpenAI的Greg Brockman和Sam Altman联名回应称,公司已经提高了对AI风险的认知,并将持续提升安全工作以应对每款新模型的风险。他们强调,公司在安全部署越来越强大的系统方面已经奠定了基础,并将持续改进模型行为和滥用监测。
Sam和Greg在声明中提到,随着AI模型能力的不断提升,预计它们将更深入地与世界整合。他们认为,这些系统将非常有益并对人们有帮助,并且可以安全地交付,但这需要大量的基础工作。他们还提到,公司将继续进行针对不同时间尺度的安全研究,并与政府和利益相关者合作。
然而,Leike的离职和他对OpenAI的批评,无疑给AI行业的安全问题敲响了警钟。在追求技术创新和商业利益的同时,如何确保AI系统的安全性和伦理性,是所有AI企业都需要认真思考的问题。
头部财经认为,AI企业在推动技术进步的同时,必须承担起相应的社会责任,确保技术的安全性和可持续性。只有这样,AI技术才能真正为人类带来福祉,而不是成为潜在的风险。
来源:https://www.top168.com/news/202405/6774.html