当前位置:首页|资讯|ChatGPT|人工智能|OpenAI

【热点追踪】ChatGPT的伦理问题(上)

作者:翻译技术点津发布时间:2023-03-10

本文约1100字,预计阅读时间6分钟

随着语言技术领域的不断发展,人们开始担忧:如何处理语言技术中的伦理问题,使得每个人都能真正从中受益?人工智能公司OpenAI近日推出一款名为ChatGPT的产品,是基于人工智能的翻译与交流科技的最新尝试,这让语言技术中的伦理问题讨论变得越来越有必要。该语言模型一经问世就在翻译和本地化行业中备受热议,语言专家们都试图评估其对这一行业的影响。


本文将就ChatGPT的应用,探讨其中的伦理问题和相关考量。此外,本文还将深入探讨ChatGPT在翻译和本地化方面的局限与优点,涉及文化敏感性1和翻译准确性等问题



(图片来源:https://www.tomedes.com/translator-hub/ethics-of-using-chatgpt-in-translation-and-localization)


一、翻译和本地化中的文化敏感性


长期以来,机器翻译在文化术语翻译方面一直存在着问题,这些问题涉及文学艺术、历史制度、传统习俗、宗教信仰等相关作品,还包括节庆、流行现象等社会行为。ChatGPT是最新的基于人工智能的语言模型,自问世以来便引发了不少热议:ChatGPT能否理解文本中细微的文化差别?ChatGPT在神经网络上运行,因此人们认为ChatGPT生成了类似人类语言的文本答案。


当用户输入“ChatGPT是否具有翻译文本所需的文化敏感性”时,ChatGPT生成了以下答案:

“与所有机器学习模型一样,ChatGPT本身并不具有文化敏感性。ChatGPT的文化敏感性基于其所训练的数据。如果训练数据具有多样性和文化敏感性,则ChatGPT可以生成恰当的翻译。但如果训练数据不具有文化敏感性,ChatGPT可能会沿用不准确的翻译,或延续人们对其他文化的刻板印象。”


令人印象深刻的是,ChatGPT具备足够的“自我意识”来宣称,ChatGPT作为人工智能语言模型,需要经过准确的训练才能获得文化敏感性。但这也带来了一个非常棘手的问题:ChatGPT基于输入信息来运行算法,可能会根据工程师的主观想法来创建内容并翻译文本。事实上,已有研究表明,机器翻译中存在性别歧视和种族偏见,这归咎于人工智能模型输入了带有性别歧视和种族偏见的信息。



(图片来源:https://www.tomedes.com/translator-hub/goals-for-translators)


对这一问题提出的解决方案之一是,输入丰富的语料和文化信息增加ChatGPT所接受训练的多样性。但是,关于ChatGPT所使用的数据又涉及进一步的伦理问题,如何实施这一方案仍有待讨论。合理使用以及版权问题正处在该争论的风口浪尖上。一些人指出,获取此类数据并进行使用违反了知识产权法。


目前最佳选择是采用机器翻译译后编辑(MTPEChatGPT翻译结束后,译员对机器译文进行译后编辑,以检查相关性和准确性。由于机器翻译译后编辑数十年来一直是翻译和本地化行业的组成部分,因此把ChatGPT融入机器翻译译后编辑问题不大。


1在翻译和本地化中,文化敏感性是指准确传达文本中不同文化间的细微差别与内涵的能力。当语言专家将一种语言翻译为另一种语言时,必须具备深入的文化敏感性,从而确保准确理解文本信息所处的语境,防止出现文化层面的翻译错误和刻板印象,影响跨文化交际。


未完待续...


特别说明:本文仅供学习交流使用,如有侵权请后台联系小编删除。


摘译编辑:梁琪



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1