文/陈根
8月15日,OpenAI在官网称,其开发了一种使用GPT-4进行内容审核的解决方案,有望减轻人工审核员的负担。
OpenAI表示,将GPT-4用于内容策略开发和内容审核决策,从而实现更一致的标记、更快的策略优化反馈循环,以及减少人工审核人员的参与。
OpenAI称,内容审核在维持数字平台的健康方面发挥着至关重要的作用。使用GPT-4的内容审核系统可以更快地迭代策略更改,将周期从几个月缩短到几个小时。GPT-4还能够解释长内容策略文档中的规则和细微差别,并立即适应策略更新,从而实现更一致的标记。
生成式AI内容的审核主要是出于两方面的考虑,一方面是审核一些敏感性内容,尤其是涉及到危害社会与公共安全方面的内容;另外一方面则是通过人工审核一些特定内容,才能对模型进行进一步的优化。
这也就让我们看到,哪怕是GPT-4阶段的技术,大语言模型依然还存在着生成式内容是否正确、是否越界的问题。
在审核能力上,OpenAI认为GPT-4的标记质量与经过轻度训练的人类审核员相似,但跟经验丰富、训练有素的人类审核员相比仍然存在差距。而对于这个问题,OpenAI强调,审核的过程不应该完全自动化。
其实简单的说,大语言模型目前还不具备人类的自主、道德的判断能力。不论是GPT-4基于人工审核,还是基于自动审核系统,目前都还无法有效解决AI幻觉的问题。如果AI幻觉这个病不能得到有效的治疗,大语言模型要成为通用AI的设想将无法实现。