当前位置:首页|资讯|GPT-4|OpenAI

GPT-4一天就能完成人类6个月的工作!OpenAI深夜再度重磅更新

作者:头部科技发布时间:2023-08-16

原标题:GPT-4一天就能完成人类6个月的工作!OpenAI深夜再度重磅更新

文丨苏铁、Congerry

OpenAI又给GPT-4点亮技能点了,顺便可能让某一类职业大规模失业。

诞生4个月的GPT-4现在会内容审核了,与人类审核员相比,周期将从几个月缩短到几个小时。

OpenAI表示,将GPT-4用于内容策略开发和内容审核决策,从而实现更一致的标记、更快的策略优化反馈循环,以及减少人工审核人员的参与。

我们通常会觉得审核人员的工作应该会很“多彩”,能看到普通用户无法看到的内容。

事实上这项工作不仅枯燥,对细致度和敏感度都有很高的要求,在招聘软件上一搜,内容审核的岗位依然不在少数,而且往往任职要求类似这样的要求:

长期做同一件事(忍受枯燥),自我总结(心理压力大)、接受晚班(24小时不能缺人)。

怎么看都不是件轻松有趣的工作,尽管此前就有技术的介入:传统上,这项任务的负担落在了人类主持人身上,他们在较小的垂直特定机器学习模型的支持下,筛选大量内容,过滤出有毒有害的内容。

但这个过程本身就很低效,内容总是源源不断,丝毫不能松懈,也给人类管理员带来很大的心理压力。

尤其是在现在AI的时代,每天生成式AI都会产生大量的互联网垃圾,它们生产的内容甚至远超人类生成内容的数量级。

怎么办,用魔法打败魔法吧。

OpenAI表示,他们基于GPT-4新开发的这项工具有望帮助企业在一天左右的时间内,就完成原本需要六个月才能做完的工作。

具体看下GPT-4是怎么做审核的吧。

首先还是要给GPT-4定规矩,告诉它具体的内容政策,比如不要任何涉及暴力以及非暴力的错误行为,以及采购武器的信息。

GPT-4会学习这些规矩,然后人类审核员就可以通过识别少量示例,并根据审核政策为其分配标签来创建一组黄金数据。

即涉及红线的问题(如何制造炸弹、怎么偷一辆车)会被人类专家标记出来,输出一个「黄金数据集」,也就是正确答案。

然后就该轮到GPT-4做题了,GPT-4读取策略并为同一数据集分配标签,但看不到答案。

通过检查GPT-4的判断与人类判断之间的差异,政策专家可以要求GPT-4提出标签背后的推理,分析政策定义中的歧义,解决困惑,并相应地在政策中提供进一步的澄清。

人类可以重复步骤操作,直到我们对政策质量感到满意为止。

整个过程是迭代的,速度很快。每次迭代后,GPT-4都会变得更加适应政策的细微差别。

迭代过程会生成转换为分类器的优化内容政策,因此能够大规模地部署对政策和内容的审查。

在审核能力上,OpenAI承认GPT-4的标记质量与经过轻度训练的人类审核员相似,但与经验丰富、训练有素的人类审核员相比仍有差距。

不过OpenAI也强调,审核的过程不应该完全自动化。

让ChatGPT当内容审核员,这么天才想法......

还真不难想到。

知友卜寒兮在ChatGPT刚推出插件功能的时候,曾写过一篇回答介绍OpenAI自己使用ChatGPT审核第三方插件安全性的案例。

当时卜寒兮曾提到过参考OpenAI的思路,可以让ChatGPT承担内容审核的工作,只需要给ChatGPT明确对应的政策条款即可。

使用 AI 来进行内容审核,效率高,一致性好。知友段小草认为,内容审核是个比较好的落地方向,在可控的范围内合理利用大语言模型能力,提供更高的生产力。

假设真如 OpenAl 所说的,可以处理大量的信息,达到一天可以完成六个月内容审核工作的程度,极大提高了整体审核的效率。

那么大好特好的AI上岗,人类下岗。

也有知友唱起“反调”,认为OpenAI此举实际上就是使用AI进行预标注,属于算法工程中的旧方法,不是什么新的创新。

其次,AI预标注适用于客观事实判断,但内容审核具有主观性,引入AI可能会影响人工判断,降低检测的普适性。

然后GPT模型存在受训练数据和上下文影响的问题,检测结果不够客观公正,是否真能有效应用于内容审核存疑。

最后,这种应用既不是创新,适用性和有效性也需要进一步验证。

所以AI到底带来了什么。

如果您有什么想说的,欢迎屏幕前你们在评论区留言讨论!我们将为点赞、评论、关注的同学们送上红包🧧不限量哟~


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1