据知情人士爆料和内部沟通文件显示,今年 3 月,30 余名帮助培训爆火聊天机器人 ChatGPT 背后语言模型的派遣工被解雇。
Slack 内部聊天截图显示,截至 3 月 16 日,总部位于旧金山的外包公司 Invisible Technologies 解雇了 31 名派遣工。不过,OpenAI 在其整个公司范围内仍在继续招聘。
截图还显示,数百名被称为“高级人工智能数据训练师”的 Invisible Technologies 公司派遣工与 OpenAI 合作,帮助后者训练其 GPT 聊天机器人。一位派遣工表示,该公司的人工智能数据培训师负责提高模型的编码技能,增强它们的创造性写作能力,或者训练它们拒绝对某些话题做出响应。由于签署了保密协议,这名派遣工要求保持匿名,不过知情人证实了他的身份和就业情况。
Invisible Technologies 公司运营副总裁卡姆伦・帕里兹班 (Kamron Palizban) 在 3 月份的一次全体员工会议上谈到了裁员问题。他在被泄露的会议录音中表示,由于业务需求发生变化,OpenAI 希望减少派遣工数量。帕里兹班在会议上还说,许多被解雇派遣工从事的项目没有为 OpenAI 提供足够高的投资回报。
Invisible Technologies 与 OpenAI 的关系让人们得以一窥这家 ChatGPT 制造商的数据训练情况。在很大程度上,OpenAI 始终对这些训练保密。
在 OpenAI 与 Invisible Technologies 的合同调整之前,有报道称前者连续六个月增加员工数量。知情人士表示,截至今年 1 月,OpenAI 已在东欧和拉丁美洲等地雇佣了近 1000 名数据标注派遣工。
就在 Invisible Technologies 裁员两个月前,微软刚刚向 OpenAI 注资 100 亿美元。但 Invisible Technologies 并不是唯一一家与 OpenAI 合作的外包企业。
《时代》周刊的一项调查显示,2022 年 2 月,同样位于旧金山的外包公司 Sama 在得知其在肯尼亚的数据标注员工正在审查性虐待、仇恨言论和暴力等有害内容后,终止了与 OpenAI 的合作关系。
在给《时代》周刊的一份声明中,OpenAI 发言人解释称:“对有害的文本和图像进行分类和过滤,是将训练数据中包含的暴力和色情内容数量降至最低的必要步骤,并有助于创建可以检测有害内容的工具。”
根据 Invisible Technologies 公司派遣工的说法,人工智能训练师最基本的职责包括审查人工智能与其用户之间的对话,以识别潜在的非法、侵犯隐私、攻击性或充满错误的消息。接受采访的派遣工这样描述了他们的日常生活:
开始轮班后,他们首先要打开内部工作浏览器,查看团队的任务清单。他们可能会点击这样的任务:“在禁止浏览的情况下就一个随机话题进行对话”,然后在消息框中输入一个查询。
提交查询后,OpenAI 的模型将生成四个响应。派遣工通过打开下拉菜单并选择存在的错误类型,如事实错误、拼写或语法错误,抑或是存在骚扰行为,以此来评估每个响应。然后,派遣工将错误的严重程度分为一到七级,其中七级代表“基本完美”的答案。
接下来,派遣工必须精心设计一个完美的回应,并提交以示完成任务。派遣工表示,结果将被发送给 OpenAI 和 Invisible Technologies 公司的质量检查员。对于接下来的每个任务,都需要不断重复这个流程。
Invisible Technologies 运营副总裁卡姆伦・帕里兹班在会议中提到 OpenAI 时表示:“他们正处在这样一个阶段:即将对自己的发展方向有更多的清晰认识。”
Invisible Technologies 合伙人兼运营经理格蕾丝・马特利奇(Grace Matelich)在录制的会议上表示,该公司根据完成任务的“质量”和“吞吐量”等绩效指标解雇了表现不佳的派遣工。
马特利奇称,表现不佳的派遣工以及那些被录用但没有“达到认证门槛”的派遣工都被解雇,不过有些人被允许选择转移到不同的 OpenAI 团队。他还说:“如果你们今天还在这里,我想让你们知道,这是因为我相信你们有能力出色地完成任务。”