参考消息网12月29日报道美国《发现》月刊网站12月22日发表题为《人工智能对话年——生成式人工智能工具开启了一个充满希望和陷阱的新世界》的文章,作者是斯蒂芬·奥尔内斯。文章摘编如下:
2023年初,大型语言模型风靡全球。可以说,聊天生成预训练转换器(ChatGPT)领导了这场革命。交互式聊天机器人可以回应用户发表的评论、提出的问题和请求,或者只是与这种计算机程序聊天。这是一种生成式人工智能,在通过大量数据训练后,它可以生成一些新内容,而且读起来相当令人信服——也让人害怕——这些内容就像人写的一样。
尽管ChatGPT有模仿人类语言的能力,但它原本是被训练做一项简单的工作:使用概率和训练数据来预测一串词语后面的下一个文本。美国佛罗里达国际大学计算机科学家马克·芬利森说,这种能力对处理文本的人很有用。他说:“它非常擅长生成通用的、中学水平的英语,这是一个很好的起点,可以完成人们日常写作中80%的工作。”
金融公司瑞银集团的分析师称,到今年1月底,ChatGPT在上线首次亮相仅两个月后,用户就达到1亿。这让所有人——包括该技术背后的开放人工智能研究中心(OpenAI)——都感到意外。
“我们真的低估了它会产生的影响。”在OpenAI帮助测试ChatGPT并开发应用程序的安德鲁·梅恩说。相比之下,社交媒体平台TikTok突破这个用户数里程碑花了9个月时间,而推特(现在的X平台)则用了5年多时间。
这些用户都用这个新工具做了什么呢?答案是做任何他们能想到的事情。一些违反学术道德的大学生用它写论文,而一些有野心的创作者则要求这个程序创作歌词、诗歌、食谱、短篇小说等。
ChatGPT还展示了一些令人意想不到的能力,比如解决数学问题(尽管并不总是正确)、编写计算机代码,以及其他似乎与训练数据无关的能力。梅恩说:“我们开始看到它做一些我们没有明确训练它做的事情。”
ChatGPT生成文本,但其他生成式人工智能工具生成音乐、图像、视频或其他媒体——成为许多错误信息、恶作剧和麻烦的源头。人工智能并不总是值得信赖;这些程序可能产生无意义的或事实上不准确的陈述(或图像),但仍以令人信服的方式呈现。它们还可以从训练数据中放大不平等以及社会或种族偏见,或者生成模仿人类创作者的艺术或音乐(并可能有意或无意地被数千万人在网上分享)。
谷歌在推出聊天机器人“巴德”(Bard)的首次公开演示中犯了令人尴尬的事实性错误。这些人工智能工具应用如此广泛——出错的机会如此之多——引发了人们的兴趣、争论、焦虑和兴奋。
“这是人类首次真正地与电脑对话,”美国研究机构和智库兰德公司社会语言学家和行为科学家比尔·马塞利诺说,“这太激进了。”
“大型语言模型有能力做一些涉及推理方面的事情。”马塞利诺说。但它们与人类的思维方式不同。他说:“我不想对其实际智能做出断言。”
生成式人工智能程序通常基于人工神经网络,分析数据并找到输入内容之间的联系(例如,哪些单词经常一起出现)。它们在2017年取得重大飞跃,谷歌推出Transformer模型,这是一种神经网络手段,可以快速识别输入内容之间的模式和联系。例如,它寻找文本中每个单词在一定输入长度内与其他单词连接的方式。
Transformer彻底革新了语言模型,让它们能在庞大的数据集中快速找到单词之间的联系。ChatGPT最初是由去年发布的GPT-3.5提供支持的,后者是一个大型语言模型,训练它的数据集内容包含来自书籍、文章和互联网的文本,总计大约有3000亿个单词。今年3月发布的GPT-4表现更好(一个衡量标准是:当早期版本的ChatGPT参加统一律师资格考试时,该模型的得分在最低的10%当中。而当GPT-4参加测试时,它的成绩能排进前10%)。
马塞利诺说,这个领域还在不断发展。研究人员正在寻找方法来构建更小、更灵活的模型,利用ChatGPT的潜力,将该工具应用于医学、军事等领域。然而,生成式人工智能程序可能带来的潜在好处往往被不断增加的风险所掩盖——从网络安全到版权侵权,从身份盗用到国家安全。这些威胁已经存在,问题是大型语言模型会否扩大影响。实施更多监管可能会有所帮助:例如,医疗保健研究人员呼吁加强政府监管,确保大型语言模型的使用不会造成伤害,还要保护患者数据的隐私。