美联社日前表示,已与ChatGPT母公司OpenAI达成一项为期两年的合作协议。据协议,美联社会为OpenAI提供新闻素材去训练AI,而OpenAI 则会向美联社提供技术和产品。这是美国主要新闻媒体和AI公司达成首批官方新闻共享协议之一。
新闻行业如何争取让AI公司有偿使用新闻素材,并合理使用AI工具提高生产及管理效率,成为当下备受行业瞩目的话题。在讨论AI应用价值前,如何制定AI使用准则也被提上日程。目前21家来自美国、欧洲和其他地区的新闻机构对外公布了自家的使用规范,有些共性特征可供我们参考。
“太阳底下无新事”,制定AI管理指南,也不必从头开始——结合现有的道德指南和规范,采用风险评估方法,并借鉴组织内的多元观点,可以大幅提高指导文件的质量和实用性。
观察这些机构已公布的准则,我们可以总结出七个共性特征。第一,强调人工监督的重要性;第二,要求明确标记和公示使用AI的内容;第三,明确新闻机构需对其AI内容负责;第四,谨慎实验;第五,为负责AI决策的人员建立培训和资格认证制度;第六,警惕生成式AI的偏见;第七,AI准则应随AI技术的发展不断演进。
1.强化人工监督。新闻机构有必要对AI技术使用的过程进行必要的人工监督。瑞典和挪威的新闻机构Aftonbladet和VG都指出,他们在发布新闻之前会进行人工审核和手动批准AI生成的内容。路透社和卫报也强调了人类参与和监督AI产品和数据的重要性。他们将这个过程描述为"人→机器→人",其中人类在整个过程中担任着管理和决策的角色。CBC和De Volkskrant同样表示,没有经过人工参与和监督的内容将不会被发布。
其他新闻机构如Nucleo、Ringier、DPA等也都强调了AI结果需要经过审查、验证和核查的重要性。德国记者协会将AI工具称为同事,并强调人工智能不会使编辑变得多余。《金融时报》、STT和Insider也都强调了人工核实事实的重要性。
综上所述,新闻机构普遍强调人工监督和参与是确保新闻质量的关键。
2.公开与透明。新闻机构普遍强调对于AI生成的内容的透明度和公开。例如,Aftonbladet和VG明确表示他们会明确标记由AI生成的内容,并以易于理解的方式进行标识。同样,《卫报》不会在未向观众公开披露的情况下使用或呈现AI生成的内容。
其他新闻机构如ANP、Mediahuis、RVDJ、DPA和DJV也都强调了对于AI生成内容的明确标记。此外,一些新闻机构也对于使用AI生成内容的方式进行了规定。例如,Wired杂志限制了AI生成文本和图像的使用方式,但有可能在新闻报道过程中试用AI来生成标题或文本。Nucleo、STT和Insider等媒体机构也都列出了允许使用AI的方式,并明确了透明度和责任方面的条件。
总的来说,公开和透明度是新闻机构在使用AI生成内容时的重要原则,确保受众能够理解和识别AI生成的内容。
3.建立问责机制。建立问责机制是保证内容质量的重要手段。瑞典著名报纸Aftonbladet表示,他们对网站内容负责,包括使用AI技术生成的内容。路透社和德国通讯社DPA均强调对数据和AI产品的问责措施。法国报纸Le Parisien希望保护自己免受错误或版权侵犯的风险,同时支持艺术家和摄影师。
德国记者协会(DJV)强调,新闻机构应该对内容负责,编辑部门应该制定AI准入及人工审核的规范和流程,以保证新闻的质量和可靠性。《金融时报》认为在技术创新的时代,制作高标准新闻的责任更加重要,强调保持透明、报道事实并追求真相。美国在线媒体公司Insider表示对报道负责,并对每个词的准确性、公正性、原创性和质量负责。隐私和保密方面,各机构都强调保护信息来源和敏感信息的安全处理。
因此,建立问责机制并遵守隐私法律是确保内容质量和信息安全的重要措施。
4.谨慎实验。谨慎实验与创新潜力和对真实性的关注紧密相关。许多组织强调使用AI生成内容时的责任和谨慎。VG规定记者要将AI生成的内容与其他来源一样对待,加拿大广播公司和荷兰新闻通讯社ANP均强调使用多个来源验证事实。芬兰通讯社STT是最早进行AI实验的机构之一,并强调实验对了解这些模型的潜力和限制至关重要。《金融时报》建立了负责AI实验的团队,并要求记录实验过程。各组织强调AI的潜力,如提高生产力、快速至关重要。
谨慎实验还涉及对组织目标的考虑。《金融时报》相信AI可以提高生产力和创作能力,但并不意味着AI会取代记者的角色。《卫报》只在AI对创作和传播原创新闻有帮助时使用。比利时新闻集团Mediahuis认为AI应增强其新闻报道质量,Insider鼓励记者使用AI改进工作,但同时强调记者仍负有责任。
各组织也强调保持客观和独立,并谨慎使用生成型AI。
《德·沃尔克克朗特》对机器取代记者持反对态度,Heidi.News和《巴黎人报》也持相似观点。瑞士新闻机构Heidi.News认为AI是工具,记者在追求客观性时不应将其视为信息来源。
挪威Adresseavisen编辑兼编辑发展主管Christer Johnsen说“我们的新闻编辑室有一条规则,你永远不要将未发表的材料放入ChatGPT。永远记住,当你使用第三方时,你不知道谁在收集你的数据。这意味着如果你有消息来源,或者故事的一部分还没有发表,其他人对该信息的掌握程度可能与你比肩。”
5. 建立培训和资格认证制度。Mediahuis建议为负责AI决策的人员建立培训和资格认证制度,以减轻生成式AI的风险并确保对受众负责和透明。德国记者协会(DJV)呼吁将人工智能的使用作为记者培训和进修的必要组成部分,并提出媒体公司应提供包括AI滥用在内的适当培训。《金融时报》将为记者提供使用生成式AI进行故事发现的培训。
6. 提防AI的偏见。《卫报》强调生成式AI中的偏见问题,并表示他们将采取措施来防范嵌入在生成工具和训练集中的偏见风险。Mediahuis要求记者注意AI系统中的偏见并努力解决它们。瑞士媒体集团Ringier要求其工具始终保持"公平、公正和非歧视"。
7. 指南的适应性。一些指南强调在快速变化中保持谦逊,并强调随着对风险理解的演变而适应指南的重要性。例如,巴西的"Nucleo"表示他们关于生成AI的政策是不断发展和可能随时更新的。媒体集团Aftonbladet、VG以及Wired也表达了类似的观点。加拿大广播公司(CBC)告诉记者指南可能会随着技术和行业实践的发展而改变。荷兰的《De Volkskrant》和瑞士的Ringier都表示会密切关注并在必要时作出调整。
根据以上观察,尼曼向新闻机构提供以下建议,供其制定自己的指南时参考。新闻机构可以通过审查现有的道德指南和规范,采用风险评估方法,并借鉴组织内的多元观点,以提高生成性AI指南的质量和实用性。
1.审查现有的道德指南和规范。
在制定AI准则时,应参考现有的道德准则和行业规范,如新闻伦理准则。例如,考虑到新闻的核心价值观和原则,如独立性和透明度,可以思考如何在使用AI时遵守这些原则,确保AI的使用与现有规范相一致。
2.采用风险评估方法。
在制定AI准则时,使用系统化的风险评估方法可以帮助新闻机构识别和管理使用AI可能带来的风险。例如,可以使用NIST(美国国家标准与技术研究院)提供的风险评估方法,通过绘图、测量和管理风险来制定有效的政策。同时要考虑使用AI可能引入的新风险,如信息可靠性等,并与新闻机构的核心价值和目标相结合进行管理。
3.成立一个多元化的小组来起草准则。
为了确保AI准则的全面性和适应性,建议在新闻机构内成立一个多样化的利益相关者小组来讨论和确定准则的范围。不同部门和角色都可能会受到AI的影响,因此需要将他们的观点和需求纳入考虑。这样可以帮助机构全面评估潜在风险,并确定超越记者日常工作流程的更广泛的风险。
通过以上三点建议,新闻机构可以更好地制定适应AI时代的准则,提高AI准则的质量和实用性,并确保AI的应用与道德原则、行业规范相一致。
本文来自微信公众号“德外5号”(ID:dewaiwuhao),作者:德外5号,36氪经授权发布。