当前位置:首页|资讯|ChatGPT

ChatGPT强得吓人,会抢光人类的饭碗吗?

作者:博雅小学堂发布时间:2023-02-09

原标题:ChatGPT强得吓人,会抢光人类的饭碗吗?

博雅小学堂

给孩子受益终生的人文底色

文 | 吴京平

知名科普作家 博雅科技新闻导师

音频来自博雅小学堂APP

最近人工智能聊天引擎ChatGPT很火。开发这个引擎的机构叫OpenAI。这是一家研究人工智能的非盈利机构,成立于2015年12月。出资人包括特斯拉的老板马斯克,还有山姆·阿特曼等人。当时这几个人掏了10亿美元,用来研究人工智能。

埃隆·马斯克和 “ChatGPT”之父山姆·奥特曼

到了2019年,这个非营利机构变成了商业公司,过过去的性质就不一样了。而且还获得了微软的投资,所以现在他们和微软的合作特别密切。本来就是一家人嘛~

这个ChatGPT,通俗的说,就是一个文字聊天机器人。这个引擎可以实现问答、文本摘要生成、机器翻译、分类、代码生成和对话。诸如此类和人工智能分析语言的相关研究方向被称为“自然语言处理”,缩写是NLP。

ChatGPT问答

知道去年,ChatGPT才在互联网上出圈,普通公众才知道OpenAI公司居然做了这么一个强大的聊天机器人。其实这个引擎早在2018年就诞生了,只是当时只有搞人工智能的圈子里知道有这么个的东西,公众根本不知道有这么回事。

01

自然语言处理引擎

当时的自然语言处理引擎叫做GPT-1,这个引擎主要是在互联网上扒取各种文字资料,供自己学习。

我们要知道一个基本知识,现在的人工智能引擎都是靠大数据训练学习出来的。所以这个行业也叫做“机器学习”。数据规模往往决定着训练出来的这个人工智能引擎强不强。当然,这种学习都需要超大规模的计算机集群,一台比一台贵。机器学习需要一个“模型”,说白了就是吞吐和处理训练数据的机器,这个模型是用来教会计算机怎么学习,到底学什么。

其实我们的人脑你也可以当做是一台极其高效的生物计算机。有关语言的处理,我们脑子要做两件事,一个是从读进文字,变成脑子里的思想,我们管这个过程叫编码,这是一个行业术语。另一个是反过来,把思想变成文字和语言,我们叫解码,这也是行业术语。

我们说的这个GPT-1,其实指的就是模型,当时这个语言处理引擎已经很厉害了。你给它两句话,它能够分辨出这两句话的关系,这两句话到底说的是一个意思,是包含关系,还是矛盾关系,还是八竿子打不着。

这个引擎还有一个本事,你给它一篇文章,再给它几句话,它能根据这篇文章的内容,判断这几句话是对是错。总之,你在英语考试里遇到的那些题型,就是这个GPT-1解决的重点问题。

最后,这个引擎可以对一句话进行分类。这到底是问答,还是数学题,还是平平无奇的陈述。这就是分类工作。

ChatGPT关于黑人与白人的回答

02

升级版

到了2019年,这个引擎出了一个升级版。也就是GPT-2,学习的数据量更大。机器学习的模型也变得更加复杂。这个GPT-2在解码方面表现出了强大的能力。这就不仅仅是阅读理解,分配判断这种事,而是开始输出了。

GPT-2引擎可以看到一段文章以后,给出一个文章的简短梗概。可以和人对话聊天、你让它续写一段故事,或者是凭空编造一段故事,他也能干,在一定程度上具备了实用性。

后来嘛,又出现了新的GPT-3引擎,这个引擎几乎可以处理一切和文字相关的工作,完成自然语言的大部分工作。比如面向问题的搜索、阅读理解、语义推断、机器翻译、文章生成和自动问答等等。

第一财经记者与ChatGPT对话

而且,这个模型在很多任务上表现卓越,例如在法翻英和德翻英的机器翻译工作上达到当前最佳水平,自动产生的文章几乎让人无法辨别出自人还是机器。也就是说,一篇文章,你让人翻译一遍,再让这个GPT-3引擎翻译一遍,然后在让别人去猜哪个是机器干的,哪个是人干的,其他人很难分辨出来。猜中的几率是52%,也就相当于扔硬币瞎蒙嘛。

更令人惊讶的是在两位数的加减运算任务上达到几乎100%的正确率,甚至还可以依据任务描述自动生成代码。你给它出一道小学低年级的算数题,人家还真的会做。

03

如何训练?

那么这个GPT-3到底是怎么训练出来的呢?说出来你可能不信,人家是靠“完形填空”训练出来的。这到底是怎么回事呢?

通俗的说,这个引擎从网上扒下来一句一句的文字,然后自己给自己出题目,遮掉其中一个词。然后让计算机去海量的库里面寻找,到底这个空格能填什么样的词,那计算机就去搜呗。其实就是看人类遇到这种情况,最常填进去的是哪个词,第二是谁,第三是谁,就这么慢慢训练。

比如说,“中午12点了,我们一起去餐厅吃饭”。计算机自己把“吃饭”给抹掉了。然后计算机就去寻找可能得答案了,“吃饭”这个词是一个答案,但是结合上下文出现的其他词汇,“吃午饭”这个词更匹配。

我们不妨回想一下,我们自己牙牙学语的时候,是不是也是这么连蒙带猜的,我们发现别人在这个情况下,常用这个词,我们的脑子不就记住了嘛。以后,我们也会学着用这个词,用错了也没关系,可以根据别人的反应做调整嘛~

其实计算机也是这么干的。我们突然发现,人脑和电脑还真有点殊途同归的意思。我们学习一门语言,似乎也少不了完形填空哦。看来英语试卷上的那些题型也都是有意义的。

这个方法的好处是机器完全是自我学习,反正你就让它自己去抓取数据,自己训练。你就不用管它了,它自己给自己出题目。当然,这种训练模式还有一个好处,就是说出来的都“人话”。它是在准确的模仿人,不是在那里胡拼乱凑。

04

监督学习

当然,到此为止,GPT-3也还是一个测试版本,不是正式发布的成品。而且大家也发现了一个问题,计算机寻找的文字都是从网上扒下来的,网上的言论可是泥沙俱下。大家就惊奇的发现,这个GPT-3说出来的话都是人话,这倒是没错,但是它说出来的内容却有很大的问题。

首先是它回答的内容很多都是错的,因为很多问题,网上的答案原本就不对,这个聊天机器人自然也就学了一个错误的答案。更要命的是,这个聊天机器人说起话来居然很暴力,而且还有种族歧视的嫌疑。

这“孩子”在网上不加节制的乱看东西,居然开始“学坏”了。这可麻烦大了,引擎技术上的问题不大,但是输出的内容却是不合格的。这可不能当做商业产品对外发布哦。

那该怎么办呢?看来不得不引入人类的监督了。笼统的说,就是由人监督,看看这个GPT-3回答的答案质量如何,对了就给奖励,错了就给惩罚。说白了就是在调整答案的权重。到了最新发布的ChatGPT,采用的训练方法也不也是“非黑即白”的,而是由人给答案打分,说得好就给高分,说的狗屁不通就打个低分。这种思维方式,其实跟人更加相似。

但是,人的工作效率并不高,要想进行海量的训练,就必须有大批的人陪着,这也不行哦。后来呢,是让人工智能去学习人的打分儿偏好。把这个偏好学了去以后,计算机就可以自己监督自己了。自己出题目,自己给答案,自己打分,效率大大提高。经过大量训练以后得到的成品,就是现在对外公布的这个ChatGPT。

05

正式发布

所以,现在我们就看到了一个非常强大的聊天机器人,这个机器人说出来的话非常自然,得体,而且文字流畅。

你说的话,它都可以做出正确的反应,你让他把一句话翻译成英文,他就会翻译出来给你看。你给它几个关键词,让它写篇小作文,它也能写出来。好看不好看,有没有文采,那不一定,但是语句通顺是没问题的。

有些程序员居然问它代码怎么写,它还真的能立刻拿出一大段代码给你看。因为计算机程序代码,也是它学习过的内容之一。但这段代码执行起来有没有bug,这也不敢保证,反正看上去是那么回事。比某些刚入门的菜鸟写的可能还要好一点。

当然,有些问题,ChatGPT给出的答案是错的。比如问它《熊出没》,它连光头强都没提到。问他一个鸡兔同笼的问题,它的计算也是错的,据说下一步就要强化它对数学问题的训练。

当然,对于发散性的,没有对错可言的领域,它还是擅长的,比如让它写个小作文。

06

未来的可能

下一代的引擎GPT-4也在研发之中了,据说是有望通过图灵测试。这个图灵测试是一个非常重要的标准。

简而言之,你和对方以打字的办法聊天,除了不能问对方是不是机器人这种直接暴露身份的问题,其他什么话都能聊。就看你是不是能从言谈话语之间判断出对方到底是个人,还是个机器。

当然,只有一个人做测试是不行的,要找一大堆人来测试,如果大家都判断不出到底是活人还是机器。那就意味着人工智能真正实现了一个飞跃。

当然,这是未来的事儿了,到底什么时候能推出下一代产品,到底能不能通过图灵测试,我们只有拭目以待了。

对了,最后留下一个问题,如果是你,你会向ChatGPT问些什么问题呢?你打算让它干点儿什么?

点击预约直播

福利多多↓

👇👇👇

给孩子的科技周刊 2023

知名职业科普作家

汪诘×吴京平开讲

追踪全球最重大科技新闻

触达人类最聪明大脑洞见

掌握前沿 探索新知 洞见未来

用孩子听得懂的语言

讲专业靠谱的科技新闻

每周四更新 2023年度66期

每周1期+每月1期小结+2期年度总结

适合年龄

8岁及以上孩子和家长

点击扫码 立即收听👇

紧跟媒体大咖

对新闻事件的深度思辨解读课

博雅爆款

给孩子的新闻系列 2023

餐桌话题塑造孩子视野

新闻背后的百科全书

国内+国际+商业+科技

周一、三、四、六

新闻解读全覆盖

注:《给孩子的新闻》系列所述新闻全部来源于官方媒体公开报道。

点亮“ 在看”,分享更多人

点击原文,立即报名


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1