当前位置:首页|资讯

字节跳动实习生破坏事件引发关注,大模型安全问题成焦点

作者:金融界发布时间:2024-10-19

近日,有关字节跳动实习生向大模型注入破坏代码的传闻在业界引起轩然大波。传闻称,一名实习生因对团队资源分配不满,利用技术手段恶意干扰了商业化技术团队的模型训练任务,甚至导致训练成果不可靠,可能需要重新训练。更有甚者,有消息称此次事件涉及的代码注入量高达8000多张卡,带来的损失可能超过千万美元。

针对这一传闻,字节跳动于10月19日正式发表声明进行回应。公司表示,确有实习生发生严重违纪行为,并已经于8月被辞退。然而,对于传闻中涉及的损失金额和具体影响,字节跳动方面进行了澄清,指出相关报道存在部分夸大及失实信息。

据字节跳动介绍,涉事实习生恶意干扰的是商业化技术团队研究项目的模型训练任务,但该行为并未影响到商业化的正式项目及线上业务,更不涉及字节跳动大模型等其他业务。公司强调,网传的“涉及8000多卡、损失上千万美元”的说法严重夸大,与事实不符。

此外,字节跳动还指出,经核实,涉事实习生一直在商业化技术团队实习,并未在AI Lab有过实习经历。对于社交媒体上关于该实习生实习经历的误传,以及部分媒体报道中的不实信息,公司表示遗憾,并将采取相应措施进行纠正。

值得注意的是,在传闻曝出后,该实习生曾在某微信群里辟谣称,自己发完论文后就从字节跳动离职,并指责有另一个人钻漏洞改模型代码,试图将责任推卸到自己身上。然而,这一说法并未得到字节跳动的官方证实。

此次事件引发了业界对于大模型安全问题的进一步关注。近年来,随着人工智能技术的快速发展,大模型在各个领域的应用日益广泛。然而,随之而来的安全问题也日益凸显。如何确保大模型的安全性,防止其被恶意利用,成为业界亟待解决的问题。

事实上,业界已经开始积极应对大模型的安全挑战。例如,阿里云联合中国信息通信研究院等30余家行业单位共同编制发布了《大模型安全研究报告(2024年)》,对大模型在训练数据、算法模型、系统平台和业务应用等方面面临的安全挑战进行了深入分析,并提出了相应的防护措施。

此外,中国信通院近期发布的大模型安全基准AI Safety Benchmark的测试结果也显示,大模型(尤其是开源大模型)在恶意诱导手段下的攻击成功率均较原始输入有明显提升。这一结果进一步强调了对大模型进行安全对齐防护的紧迫性。

来源:金融界


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1