当前位置:首页|资讯|OpenAI|苹果|人工智能|法律

OpenAI现任和前任员工警告人工智能存在严重风险且缺乏监督

作者:鞭牛士发布时间:2024-06-06

鞭牛士报道,6月5日消息,据CNN报道,OpenAI 的一群内部人士要求人工智能公司对人工智能的严重风险更加透明,并保护那些对他们正在开发的技术表示担忧的员工。

周二发布的一封公开信写道:人工智能公司有强大的经济动机来逃避有效的监管。

这封信由包括病毒式传播的 ChatGPT 工具的创造者 OpenAI 在内的人工智能公司的现任和前任员工签名。

他们还呼吁人工智能公司培育开放批评的文化,欢迎而不是惩罚那些敢于表达自己担忧的人,特别是在法律难以跟上快速发展的技术的情况下。

该组织写道,企业已经认识到人工智能带来的严重风险——从操纵到失去控制,即所谓的奇点,可能会导致人类灭绝——但他们应该做更多的工作来教育公众了解风险和保护措施。

人工智能员工表示,按照目前的法律规定, 他们不相信人工智能公司会自愿分享有关该技术的关键信息。

因此,现任和前任员工必须直言不讳,公司也不要强制执行“诽谤”协议或以其他方式报复那些提出 风险相关担忧的人。

该组织写道:普通的举报人保护措施是不够的,因为它们侧重于非法活动,而我们所担心的许多风险尚未受到监管。

他们的信函发布之际,各家公司正迅速采取行动,将生成式人工智能工具应用于其产品,而政府监管机构、公司和消费者则在努力寻找负责任的使用方式。

与此同时,许多技术专家、研究人员和领导人呼吁暂时停止人工智能竞赛,或要求政府介入并暂停人工智能竞赛。

OpenAI 的回应

在回复这封信时,OpenAI 发言人告诉 CNN,该公司为我们提供最强大、最安全的人工智能系统的记录感到自豪,并相信我们应对风险的科学方法,并补充说,该公司同意鉴于这项技术的重要性,严谨的辩论至关重要。

OpenAI 指出,它有一个匿名诚信热线和一个由董事会成员和公司安全负责人领导的安全委员会。该公司不会出售个人信息、建立用户档案,也不会使用这些数据来针对任何人或出售任何东西。

但这封信的组织者之一、曾在 2018 年至 2021 年期间在 OpenAI 工作的早期机器学习工程师丹尼尔·齐格勒 (Daniel Ziegler) 告诉 CNN,对该公司对透明度的承诺保持怀疑很重要。

「从外部很难看出他们对安全评估和找出社会危害的承诺有多认真,尤其是在商业压力如此之大的情况下。」他说。「拥有正确的文化和流程非常重要,这样员工在有顾虑时就可以有针对性地表达自己的想法。」

他希望更多人工智能行业的专业人士能够公开表达他们对这封信的担忧。

与此同时,人们普遍预计苹果将在其年度全球开发者大会上宣布与 OpenAI 合作,将生成式人工智能引入 iPhone。

苹果首席执行官蒂姆库克 (Tim Cook)在 5 月初公司最近一次财报电话会议上表示:我们将生成式人工智能视为我们产品的一个关键机遇,并相信我们在这方面具有优势。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1