这几天,一条关于某地取消限行的消息热传网络。经调查,这是条彻头彻尾的假新闻,不过是有人为展示ChatGPT功能强大而搞出来的乌龙作品。
一段时间以来,凭借强大的语言处理算法功能,ChatGPT成为备受追捧的现象级人工智能应用。从现实反馈来看,上至天文地理,下到科技前沿,ChatGPT确实对答如流。但细究其里,硬伤也比比皆是,甚至不乏大量“一本正经胡说八道”。比如,有人让其解释高深物理理论,结果附列论文一查来源均无出处;有人让其推荐知名学者,却发现人物履历七拼八凑;还有人问其历史问题,回答则是“驴唇不对马嘴”……形真实假、杂糅难辨,有时把一些内行都忽悠了,导致学术圈也开始对它警惕。
ChatGPT为何成了“制假高手”?这还要从其技术特性说起。所谓ChatGPT,Chat是聊天的意思,GPT中文全称是生成式预训练转换器,技术原理也如其名:先给它提供一个庞大的语料库,然后让模型通过上亿参数对这些内容打散、标记、学习,从而构建起一个复杂的预测模型,并在大量用户的不断使用反馈中不断接受训练,逐渐提高其人工智能水平。这一点,很像人类加工信息的“脑回路”,也正是因为其能像人类一样“理解文字”,所以较以往的各种AI产品显得更加“聪明”。事实上,也正是基于这种隐匿性更强的“假”,一些事实谬误和价值观偏见更容易在无形中附着其上。毕竟,ChatGPT再神,靠的也是被投喂的语料,对于这些语料碎片被调取、综合后所生成内容的真实性、准确性,ChatGPT并不负责任。这就好比海量真实事物被打碎打散后,它们的若干局部被随机捏合为一个新整体,这个新整体未必是真实存在的。更何况,人工智能的背后是人,素材、语料的训练,新内容生成的逻辑、规则设定,都不可避免地带有价值观和倾向性,这就难怪在国际政治、新闻评论、道德伦理等诸多议题上,频频可见ChatGPT诡异的双标,就连OpenAI也承认,这是“有害指令或带有偏见的回答”。
作为一种基于深度学习算法的信息技术,人工智能本身是中性的,但其开发者、使用者终究是带有价值倾向的。不少人忧虑,随着相关技术广泛应用,难辨真伪的虚假内容可能会出现井喷,导致信息甄别的难度不断提高;同时出于政治博弈等多种因素,夹带私货的价值偏见等可能会随着信息流水线式生产而加速扩散,进一步放大分歧和撕裂。对此,许多国家已经在着手应对。中国作为较早开展人工智能立法探索的国家之一,理应未雨绸缪、做好预案。从伦理规范到隐私保护,从价值观引导到真实性把控,都应积极探索设立相关规范,预防技术应用的失焦跑偏。
丹·布朗在其科幻小说《本源》中曾畅想——继恐龙灭绝后,人类在未来也会消失,一个新的物种将以极快的速度占领地球,那就是“人机结合体”。ChatGPT的横空出世,让不少人惊叹“未来已来”。我们固然不能拒绝科技的进步,但瞬息万变中,必须保持足够的警觉,最大限度避免技术负效应。
来源:北京日报
作者:雨馨
流程编辑:严圣淼