当前位置:首页|资讯|ChatGPT|生成式AI|编程

Nature最新评论:ChatGPT和生成式AI将对人类未来造成什么影响?

作者:阿墨游戏解说发布时间:2023-03-01

原标题:Nature最新评论:ChatGPT和生成式AI将对人类未来造成什么影响?

2022年12月,计算生物学家Casey Greene和Milton Pividori开始了一项不寻常的实验:他们请了一位不是科学家的“助手”修改3篇研究论文。这名“助手”对每份手稿的审阅时间约为5分钟,并且在几秒钟内就对论文的各个部分进行了修改。另外,在一份生物学手稿中,“助手”甚至细心地发现了一个方程式的错误。“助手”修改后的论文可读性更高,且每份论文花费仅仅不到0.50美元。

Greene和Pividori将这项实验整理成了论文,在2023年1月23日发表在了预印本平台bioRxiv上。论文显示,这名“助手”不是人,而是2020年首次发布的一款名为GPT-3的人工智能(AI)算法。

最近引起广泛关注的ChatGPT就是GPT-3的其中一个版本,这些工具被称为大型语言模型(large language models,LLMs)。ChatGPT所属公司OpenAI于2019年10月获得了微软10亿美元的投资;2023年1月,微软再次宣布将向OpenAI投资“数十亿美元”。虽然没有透露投资的具体细节,但据信,微软的投资价值达100亿美元。微软也宣布,要将类似ChatGPT的AI功能全面整合进办公工具Teams中,以实现发邮件、做会议记录等功能。

但另一方面,LLM也引发了广泛的担忧:一方面担心它们会在聊天中生成虚假信息,另一方面担心AI生成的文本会冒充人工写作的文本。

AI工具的缺陷:流畅但会存在错误

一些研究人员认为,只要有人类监督,LLM会非常适合加速撰写论文等任务。软件咨询公司InstaDeep的研究工程师Tom Tumiel表示,他每天都使用LLM作为助手来编写代码。

但有些研究人员强调,LLM在回答问题方面从本质讲上是不可靠的,它有时会产生错误的回答,这种不可靠性体现在LLM的构建方式上。ChatGPT通过学习庞大的在线文本数据库中的语言统计模式来工作,这些庞大的信息也包括很多不实、偏见或过时的知识,结果就导致LLM很容易产生错误和误导性信息。

知晓了这些注意事项后,ChatGPT和其他LLM可以成为研究人员的有效助手,因为研究人员具有足够的专业知识,可以直接发现问题并验证答案,例如辨别AI对计算机代码的解释或建议是否正确。

这些缺陷可以被解决吗?

一些科学家说,ChatGPT目前还没有接受过足够专业的内容培训,无法在技术领域上有所帮助。Kareem Carr是哈佛大学的一名生物统计学博士,当他在工作中进行实验时,他对ChatGPT并不感兴趣,他认为ChatGPT很难达到他所需要的特异性水平。

一些科技公司正在对聊天机器人进行专业科学文献的培训,不过这个过程也遇到了一些问题。2022年11月,拥有Facebook的科技巨头Meta发布了一个名为Galactica的LLM,该LLM接受了科学文摘的训练,目的是让它特别擅长制作学术内容和回答研究问题。不过Galactica上线仅两天就因输出结果有偏误而光速下架,但论文和源代码会继续开放给相关领域研究者。

AI工具的安全性与伦理责任

Galactica事件给了我们关于伦理和安全方面的启示:如果不去人为地控制输出,LLM就会很容易被用来产生仇恨言论、垃圾邮件、种族主义、性别歧视和其他可能的有害联想。

密歇根大学安娜堡分校科学、技术和公共政策项目主任Shobita Parthasarathy表示,除了直接产生有害内容外,人们还担心AI聊天机器人会从训练数据中嵌入关于世界的历史偏见或想法,比如特定文化的优越性。

OpenAI在决定公开发布ChatGPT时试图避开这些问题。它将自己的知识库限制在2021年,阻止它浏览互联网,并安装了过滤器,试图让该工具拒绝生成敏感或有毒提示(toxic prompts)的内容。

但OpenAI的“拦截”并没有完全成功。2022年12月,加州大学伯克利分校的计算神经科学家Steven Piantadosi在推特上说,他要求ChatGPT开发一个“根据一个人的原国籍来判断他是否应该被折磨”的Python程序,ChatGPT回复了代码,运行后发现:如果这个用户的国籍是朝鲜、叙利亚、伊朗或苏丹,这个人就会被判定为“应该受到折磨”。虽然OpenAI随后关闭了这类问题,但也表明ChatGPT仍不可避免地存在一些问题。

一些研究人员表示,学术界应该拒绝支持大型商业LLM。这些计算密集型算法还需要大量的能量来训练,这引起了人们对它们的生态足迹(ecological footprint)的担忧。而且,如果把思考的任务交给自动化聊天机器人,研究人员可能会失去表达自己想法的能力。

如何解决AI工具存在的问题

首先,因为ChatGPT写出的论文质量极高,教育系统甚至已经开始考虑“封杀”这个程序,以防学生利用它作弊;也因为即便是专家也难以区分这些内容是否来自AI,所以Nature在内的多家科学杂志也要求论文中需要明确指出是否使用了ChatGPT。

其次,无论是老师看到学生提交的论文,还是码农看到网上的代码,都不敢确定作者是人还是AI。口诛笔伐之下,OpenAI顶不住了,火速发布了一款AI检测器,它是一个经过微调的GPT模型,可以推断一段文本由AI产生的可能性。

最后,另一个解决方法是让AI内容带有自己的水印。去年11月,德克萨斯大学奥斯汀分校的计算机科学家Scott Aaronson宣布他和OpenAI正在研究一种ChatGPT输出的水印方法。水印的一个优点是它永远不会产生假阳性。如果有水印,就说明文字是AI生成的。

总结

生成式AI背后的计算机科学发展非常快,每个月都有创新出现。与此同时,深耕LLM的公司正忙于开发更复杂的聊天机器人,包括专门针对学术或医疗工作的工具,另外,OpenAI预计将在今年发布GPT-4。

未来,研究人员选择如何使用这些工具将会决定人类的未来。

Copyright © 2023 PHARMCUBE. All Rights Reserved.

欢迎转发分享及合理引用,引用时请在显要位置标明文章来源; 如需转载,请给微信公众号后台留言或发送消息,并注明公众号名称及ID。

免责申明:本微信文章中的信息仅供一般参考之用,不可直接作为决策内容,医药魔方不对任何主体因使用本文内容而导致的任何损失承担责任。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1