在面对生成式AI带来的变革面前,《卫报》管理高层对生成式AI的态度和原则值得参考。
“在理想状态下,它真的令人眼花缭乱。但它也有一些缺点。”《卫报》编辑创新主管克里斯·莫兰(Chris Moran)用一句话简洁地总结了大多数记者、编辑和新闻主管对ChatGPT等新技术的看法。这些缺点可能会对新闻业带来严重的威胁。
但同时,莫兰也认为生成式AI的应用实践让他“对新闻给世界带来的价值感到非常乐观”。因为通过研究生成式AI的作用机制,会进一步证实新闻工作的重要性,它不能被简单的合成复制所取代。
ChatGPT 以及其他生成式AI工具会通过编造信息,或为了总结内容而引入原文本中没有的“事实”来制造“幻象”。北欧媒体公司Schibsted已经在实际使用中证明了这一点。生成式AI在撰写文章摘要的过程中会编造原文中没有的信息,这样做的概率每十次中就有一次。
同样,卫报也遭遇过类似事件。有研究人员使用ChatGPT开展研究时,ChatGPT引用了《卫报》指定记者多年前撰写的一篇文章。然而《卫报》工作人员通过档案检索,甚至查阅了已删除文档,都找不到这篇文章存在过痕迹。因为,这篇文章根本就不存在,它只是AI生造的“幻象”而已。
莫兰不否认生成式AI技术非常令人兴奋,但作为记者“你真的不能忽视它会编造内容的事实。”这类型的幻象问题到底会随着技术的发展得到解决,还是会成为生成式AI应用过程中不可避免的一部分,人们对此争论不休。对于许多新闻媒体来说,这个问题不克服会使生成式AI难以成为可信赖的信息来源。
莫兰指出,谷歌在测试中,预计将把生成式AI巴德(Bard)整合到搜索当中,同时,谷歌对其提供的搜索结果也发出了“巴德可能会显示不准确或冒犯性的信息,这些信息不代表谷歌的观点。”的警告。
莫兰对于这种做法持质疑态度,“我认为,作为一家高质量的新闻机构,必须冷静地思考一些根本性的问题,关于新闻机构是否可以在现有条件下部署运用生成式AI。”
新闻集团首席执行官罗伯特·汤姆森(Robert Thomson)认为,媒体行业的“集体知识产权正受到威胁”,新闻媒体应该“大声主张赔偿”。为解决这一争端,全球最大的科技公司正在与主要媒体进行谈判,希望达成具有里程碑意义的交易。
关于威胁的由来,莫兰解释道:“当微软、谷歌和其他公司将AI工具与搜索引擎相嫁接时,人们会期待它能搜索出清晰而准确的答案,而这可能会导致生成式AI编造虚假新闻。”AI工具甚至还可能将这些凭空产生的新闻扣上《卫报》《泰晤士报》或是《纽约时报》的“帽子”。这势必对信息生态系统的健康产生负面影响,也会损害新闻机构的品牌信誉。
不仅如此,生成式AI还将新闻内容剥离新闻网站直接提供给用户,致使新闻行业的商业模式遭到破坏。像这样白白为他人做嫁衣的事,新闻行业在接入互联网的早期已经遭遇过一次了。当时新闻机构提供的免费新闻被无偿引入搜索引擎或社交媒体,而谷歌和Facebook等大型科技公司却凭借这些信息发展起数十亿美元的广告平台。
此外,《卫报》已经运营了一个API(Application Programming Interface,应用程序编程接口)好几年了,人们可以通过该API付费获取其内容流,但从来没有AI公司联系要求使用它。莫兰说,《卫报》正在“思考我们的内容在这种环境中的价值”,并补充道“可以肯定的是,新闻媒体在这些常见爬虫数据集中起到了非常重要的作用”。
英国《金融时报》6月报道称,包括新闻集团(News Corp)、阿克塞尔·斯普林格(Axel Springer)、《纽约时报》(New York Times)和《卫报》(The Guardian)在内的新闻媒体正在与科技公司讨论在聊天机器人中使用其内容的版权和付费问题。谈判的议题不止局限在利益分配上,还包括新闻机构如何与生成式AI公司合作的具体事宜。
“版权对所有媒体来说都是一个至关重要的问题,”英国《金融时报》表示也在就此事进行谈判。“作为一家订阅企业,我们需要保护我们的新闻和商业模式的价值。像我们一样,与相关公司进行建设性对话是实现这一目标的最佳方式。
为了应对AI带来的风险和机遇,《卫报》成立了一个 Guardian AI 工作组,在6月发布了三条AI原则,阐明《卫报》将如何使用或不使用生成式AI工具。
1. 为了读者的利益
由于生成式AI目前并不可靠,所以《卫报》考虑仅在有助于原创新闻的创建和分发的情况下,在编辑中使用生成式AI工具。同时还要谨防嵌入在AI工具的底层调校中的偏见。在以任何方式使用生成式AI之前,《卫报》记者必须明确这样做对读者有益,并获得高级编辑的认可,并将使用痕迹向读者公开。
2. 为了我们的使命、我们的员工和更广泛的组织的利益
卫报将致力于让生成式AI提高工作效率,例如帮助记者访问大型数据集,为同事们提供修正建议,为营销活动提供创意,或减少过度耗时的官僚主义业务流程。所有对AI工具的使用都必须以促进《卫报》使命达成为目标:“严肃的报道需要花费时间和精力,仔细揭露事实,让有权势的人承担责任,对想法和论点提出质疑”。
3. 尊重内容的创作者和版权拥有者
许多生成式AI模型都是不透明的系统,这些系统是在未经创建者知情或同意的情况下收集材料并进行训练的。《卫报》考虑使用工具和模型的指导原则是它们在多大程度上考虑了权限、透明度和公平奖励等关键问题。即便以任何形式使用生成式AI,也不代表《卫报》要放弃追溯版权的诉求。
尽管制定了这些原则,但《卫报》尚未以任何方式将生成式AI工具添加到新闻采编过程中。对此,莫兰的解释是,《卫报》不希望只是为了追求新鲜感而使用生成式AI。
目前新闻机构对生成式AI能否提升效率尚存在争议。因为它无法在没有人类参与的情况下实现自动化,并且其内容的真实与准确性还需要人工核查,那么它的实际生产效率就会下降。
更为重要的一点是,为抵御合成内容的巨浪,避免被其吞噬,我们最不应该放弃的就是作为训练有素的记者和编辑应有的专业性,因为我们是人类。
所以,卫报正在寻找更多的案例,明确哪些是AI工具能做而我们不能做的,以及AI工具能为解放专业人士的创造性生产力做好哪些基础性工作等等。
关于《卫报》何时会在新闻编辑部中部署AI工具,莫兰表示,在新闻生产环境中部署一种模型,尤其是在IP会话的背景下,这是一个重大决定。由于现在缺乏具有充分说服力和变革性的有效案例,所以现在并不是部署AI工具的好时机。一些本质性的问题需要找到答案,比如AI工具是如何工作的?对读者有好处吗?它参与的痕迹能被分离出来吗?无论付出怎样的代价都值得吗?
当员工准备在具体工作中使用生成式AI工具之前,首要考虑的是教会他们鉴别使用AI工具的潜在风险,例如了解点击“使其更简洁”按钮可能会导致的后果。莫兰透露,《卫报》已经向英国、美国和澳大利亚新闻编辑部的270人进行了演示,他们最终将制作一些类似员工社交媒体指南的内容,规范员工在社交媒体的行为。
“就常规工作而言,接受AI工具的应用教育比做成一件具体的事更重要。”莫兰说。新闻机构的AI工具应用抉择需要对记者、设计师和摄影师们负责,因为他们的工作很可能会受到生成式AI的影响。
莫兰认为,AI工具的应用也许会提高工作效率,但这样做还为时尚早,因为它还不值得信赖。所以应该更审慎地作出决定。对于AI工具的应用将会如何影响新闻行业的发展,现在还没有定论。谁也难以保证它会让一切变得更好,抑或演变为一场灾难。
“可以肯定的是,随着技术的进步发展,未来的某一天,它将彻底地改变我们的工作。”莫兰说。
本文来自微信公众号“德外5号”(ID:dewaiwuhao),作者:吕菁,36氪经授权发布。