当前位置:首页|资讯|ChatGPT|人工智能

面对ChatGPT,新闻记者不应该有身份危机

作者:全中看传媒发布时间:2023-03-01

作为一个新闻记者,你怎么看ChatGPT在新闻领域的应用?ChatGPT会成为新闻业的救世主,还是未来新闻业的敌人?人工智能会成就新闻业,还是会摧毁新闻业?面对人工智能发展的新一波浪潮,这是新闻行业中许多人会问的一个问题。

事实上,我认为这是个错误的问题。目前,我所在的联合机器人公司(United Robots)为新闻编辑室提供软件编写的自动化文章已经有7年之久,在ChatGPT问世之前,已经有很多关于机器人是否会取代新闻记者的讨论。许多新闻记者担心机器人抢走他们的工作,担心机器人编写新闻稿件不正确,甚至还担心机器人会生产大量不值得信任的内容等等,不一而足。但事实证明,现实永远不像人们所担心的那样非黑即白。

当下,我们面对的是人工智能的更新换代,即生成式人工智能(generative AI),比如,目前新崛起的ChatGPT。因此,我们与其关注“人工智能到底是救世主,还是敌人”,不妨后退一步,专注于这样一个问题:“生成性人工智能能为新闻业做些什么,以及生成性人工智能不能做什么?”最重要的是,作为新闻记者,我们应该在这个过程中扮演什么角色?

我们在讨论人工智能时,到底是在讨论什么?

当下,几乎每个人都在谈论人工智能,但我们在谈论人工智能时,我们到底在讨论什么?正如我们日常生活中其他一些流行词汇经常遇到问题时那样,人工智能的任何原始定义都有可能被逐渐取代,更多的情况是人们从自身所处的境遇来解释它的含义。在此,我主要想阐明关于生成式文本人工智能的两种基本类型:

数据生成文本模型(data-to-text models),这种文本生成模型一般是基于体育比赛的结果,或者是公司的财务数据等结构化数据集来创建和生成文本。这种类型的技术是最早一批文本生成机器人的基础,这种模型也是Wordsmith和Arria等人工智能公司推出的自助服务工具模型。这种文本生成模型的关键特征是它是基于数据的。换句话说,这种模型主要包括来自数据的事实,而不包括文本中的其他“事实”,因而这种模型基本上保证了事实的正确性。

文本生成文本模型(text-to-text models),也叫大型语言模型(Large Language Models),这种模型使用深度学习技术在现有文本的基础上创建文本,代表了人工智能的一大进步,特别是朝着“类人”通用人工智能的目标迈进。比如,现在大家强烈关注的GPT-3,就是从互联网中提取1750亿个人类语言参数来生成文本。虽然这种模型可以创建良好的语言模式,但它的运作基础是提示性语言(prompts),而不是数据(data)。因此,这种模型不能假设事实正确,这意味着虽然大型语言模型能够引用所有可访问的信息,并将其(或多或少地)包含在文本中,但它并不能进行事实核查。

2022年11月30日,ChatGPT的免费测试版发布。在圣诞节期间,一些媒体分析师和编辑尝试利用该工具撰写了有关新闻记者自身,以及他们在新闻业中所起作用的文章。从生产的文本来看,ChatGPT所产生的大部分内容,虽然语言正确,但说的全是不言自明的道理,到处充斥着媒体行业的陈词滥调。考虑到大型语言模型的工作原理,这一点其实并不让人感到奇怪。

有关ChatGPT的基本知识

在我们讨论新闻组织如何面对ChatGPT之前,首先让我们讨论一下有关这类人工智能的基本知识。ChatGPT主要是基于生成式人工智能,特别是语言生成。生成式人工智能也可以应用于其他智能工具中,包括生成图像(比如,OpenAI开发的DALL-E图像自动生成系统)、代码、视频、阅读建议等。

免费使用的ChatGPT可能不会持续多长时间。上次笔者在登录使用时,OpenAI提供的测试版访问已经显示满负荷运行,所以ChatGPT不太可能无限期地保持免费。因此,对任何想要利用这种语言模型去实现媒体编辑和商业目标的公司而言,他们都应该将API访问和使用成本考虑在内。

ChatGPT不是第一个,也不是唯一一种生成式人工智能。ChatGPT是基于OpenAI公司的大型语言模型GPT-3.5开发的聊天机器人,并对人机对话进行了优化,事实上,该模型已经使用了很多年。早在2020年秋天,它的早期版本GPT-3就被《卫报》用于生成一篇机器人编写的专栏文章,当时即引起了广泛关注。《卫报》还就整个编写过程进行了比较有趣的报道,同时也指出在这篇专栏文章发表之前,进行了相当多的删减和编辑。需要指出的是,OpenAI公司只是众多生成式人工智能工具的供应商之一。

新闻组织掌握着主动权

尽管ChatGPT是一个全新的、功能强大的工具,但它仍然是一个工具。ChatGPT不会改变新闻业的基本运行原则和指导原则,去现场采写新闻和调查新闻,是一项基本的人类活动,也是新闻记者的基本技能。

当然,这种类型的人工智能也可以用于不好的、邪恶的目的。就我们从事的新闻业而言,首先我们应该搞清楚的是,新工具如何能帮助我们做得更好,同时我们也要确定可能涉及的风险。

2023年1月中旬,Futurism报道了一则新闻,比较清楚地解释了这一问题。目前,商业媒体网站CNET正在使用人工智能撰写简短的金融报道,但该网站没有公开这些报道是由人工智能软件编写的。这个故事让我们看到了媒体组织所拥有的选择权利,不管他们使用的是哪种类型的人工智能。

透明性。作为从事人工智能开发的人员,我们总是建议让人工智能撰写的报道有一个清晰的署名,明确表明这篇报道是由机器人撰写的,而不是由新闻记者撰写的。透明性对于新闻组织至关重要,也是赢得公众信任的关键。比如,上文我们提到的CNET,该新闻网站在利用人工智能生产内容时似乎缺乏透明度。据另一科技新闻网站Verge分析,CNET新东家Red Ventures的商业模式是造成这一结果的原因,该公司旨在生产能够获得高搜索排名的内容,然后将流量货币化。显然该公司的商业模式并不是真正为人们生产新闻。

准确性。毫无疑问,新闻媒体发布的任何消息和内容都需要准确可靠,不管是由经验丰富的记者撰写的深度调查性报道,还是关于当地足球比赛或财经新闻的小型报道。人工智能工具总是需要记者来掌控。如果新闻组织打算自动发布人工智能生成的文本,新闻组织就不能使用GPT-3/ChatGPT等生成式人工智能工具生产的内容,因为生成式人工智能不能进行事实核查,这种模型引用的是提示事实,而不是数据事实,这一点我在上文已经有所论述。

信任。信任的问题实际上涉及上述两方面。对新闻业而言,信任是媒体组织的流通货币,信任可以为媒体组织带来源源不绝的收入。因此,任何新技术工具的部署应用,都不能给人们留下质疑新闻媒体真实性、完整性的空间。尽管这么讲,但我们发现读者有时也乐意接受机器人撰写的新闻报道,当然这是有前提条件的:这些信息内容对他们有价值,而且很清楚地表明是由机器人撰写的。

如果有人一直在追问“生成式人工智能对我们的业务意味着什么”,我就想反问:“你想让它意味着什么?是你控制人工智能,而不是人工智能控制你。”

迈向未来

就我个人而言,我会建议媒体组织继续专注于提供可靠、有价值的新闻,并在生成式人工智能工具帮助下完成这一使命,让这一工具能够在它发光发热的地方发扬光大。正如伦敦政治经济学院“新闻人工智能”项目主管贝克特所指,人工智能工具并不能提出批判性问题,也不能告诉我们调查新闻报道的下一步应该怎么做,但它们可以为新闻记者的工作提供支持,“我认为更有趣的是,它对一些新闻记者提出了更高的要求,告诉他们,你必须比机器做得更好,你不能再去报道那种按部就班、公式化的新闻了,因为人工智能软件就可以做到这一点。”

在探索生成式人工智能如何支持新闻业的道路上,我们才刚刚开始。尝试ChatGPT很容易,但要在媒体业务中将大型语言模型转化为强大而有用的流程却非常困难。对于媒体组织至关重要的一点是,保持对该技术使用的敏锐关注,而不被其固有模式所左右。

好新闻是关于人的新闻,即那些生产它的人和那些消费它的人。好新闻能够体现优秀记者的独特工作和声音,这是ChatGPT无法取代的。好新闻能够满足读者的需求和期望,并且以自己独特的生产方式区别于其他出版物,大型语言模型无法计算出新闻组织的独特产品应该是什么。人工智能可以帮助新闻组织改善工作流程,但它不能独自生产新闻。因此,新闻记者不应该有身份危机。

(本文原文为“ChatGPT in journalism: Let’s not have an identity crisis”,编译自:https://whatsnewinpublishing.com/chatgpt-in-journalism-lets-not-have-an-identity-crisis/。作者西莉亚·坎贝尔为联合机器人公司首席营销官;编译者张建中为陕西师范大学新闻与传播学院教授)

【文章刊于《青年记者》2023年第5期】


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1