能够拿美国医学牌照,又能够参加司法考试,能写小说、写编程……只要是能用文字表达的事情它全都能干,ChatGPT是彻底火了,也让整个资本圈都为它“宇宙闪烁”。紧跟热点,我们今天就来聊聊关于ChatGPT!
ChatGPT本质上是一个聊天机器人,说起聊天机器人可以追溯到1950年,那时候被称之为“计算机科学之父”、“人工智能之父”的艾伦·麦席森·图灵发表了具有划时代意义的论文,提出了“模拟游戏”,也就是现在大名鼎鼎的图灵测试。
它指的是,指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。
如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为是智能的,但要想通过图灵测试还任重而道远。
1966年,MIT实验室发明一个聊天机器人,叫艾丽莎,它的定位是心理治疗师,和它聊天它会噼里啪啦地说一大堆,让聊天者误以为是真人在倾听,但想通过图灵测试还远远不够,不过它背后的工作原理就很有意思。
主要是一段非常简单的代码,提取其中的关键词,例如当我们一句话,它读取了关键词“妈妈”,然后会继续和你沟通,让你说说你的家庭,通过你的回答,不断地提取关键词然后与你沟通。
艾丽莎后来又经过不断进化,到了1995年,艾丽莎衍生出了强大的后辈爱丽丝,它的智能系统已经很强大,只是和ChatGPT还是没法比,但日常的对话,它已经能够应付了。
它的原理是基于一个叫做pattern matching,就是匹配模式,它会调取一个已经预设好的文案,通过用户发送问题,提取关键词,然后匹配最佳答案。
例如我们在淘宝、京东等电商平台购物过程中,不知道怎么修改地址问客服,客服就立刻回复你,并且给你发一个修改地址的链接等等。
虽然说称不上非常智能,但确确实实可以减少大量人力机械性地重复回答,所以我们从智能角度上来看。
这种限定规则的机器人,就算我们写再多的规则,有再多的预设文案,它的答案始终是有限的,而且不可能去创新答案,所以单凭这种匹配模式,很难通过图灵测试。
于是,这时候就出现了新的流派,他们主要的目的就是让“机器去学习”,也就是说,不人为地制定规则,而是通过一来一往的“交流”,让机器自己学习找规律,也正是因为这个理念,2001年出现了一个叫作SmarterChild(更聪明的小孩)。
当时,兴起了一大批的聊天软件,很快地更聪明的小孩直接将这些聊天平台横扫一遍,让全世界好几亿人与它对话,这也算得上是Chat GPT的前辈了,只是离通过图灵测试还有很长的距离。
到了2010年,机器学习的人工神经网络领域发展突飞猛进,主要是靠超过100亿个神经元,通过网状链接来判断传递信息的虽然这每个神经元都很简单,但是它们组合起来,就可以判断非常复杂的信息,这相当于在模拟人脑。
在以前让电脑识别图片是完全不可能的,但有了这个网络神经,机器在不断学习后慢慢地摸索出规律来。
不光是图片识别、人脸识别、声音识别、自动驾驶,甚至包括前几年的阿尔法围棋,都是通过这一招练出来的。
人工神经网络已经进步到这个阶段,可谓是非常强大了,但回到文字领域它反而不灵敏了,主要是因为它用的是一种叫做循环神经网络。
它就是RNN来处理文字的,它的处理方式,就是按顺序一个词一个词看,一个词一个词处理,这就导致它没有办法同时进行大量的学习。
尤其是发送一段长文字给到它,它基本上是学到后面忘了前面,这情况人工智能领域陷入了僵局。
直到2017年谷歌出了一篇论文,提出来一个新的学习框架,叫作Transformer,它能够让机器同时学习大量的文字。
这就像从原本串联的电路,变成了并联,提高了训练速度,因此这种语言处理模型很快地得到了广泛应用。
很多自然语音处理模型,都是建立在这个基础架构之上,谷歌那个Bert里头的t,还有包括ChatGPT里的t都是指这个Transformer。
这时候就要说到一家非盈利组织——Open AI,在2017年谷歌发布相关论文后,给了Open AI非常大的启示,很快地Open AI就在2018年发表了一篇论文,介绍了一个新的语言学习模型,叫做Generative Pre-train Transformer就是GPT
在之前的人工智能语言学习模型中,基本都是人去监督,或者人为设定一些标签,但GPT则不需要这么做,只需要把一堆数据放进去,然后让它自己学习就好了。
Open AI就在2018年6月推出了第一代GPT,接着在2019年11月,又增加了训练的数据量
推出了GPT2,为了加强数据模型,微软给它建了一个全球第五的超级计算机,大大提升了它训练效率。
从只有1.2亿个参数的GPT 1,到了15亿个参数的GPT 2,到了GPT 3直接上升了100多倍变成了1750亿个。
当然,这还不够,为了让GPT更加智能化,Open AI在训练GPT时,加入了人工反馈机制,加入了这个机制之后,不管是训练的效率还是效果都得到了大大地提升。
接着在2022年3月就推出了GPT 3.5,在2022年11月就推出了ChatGPT,并且能够轻轻松松通过图灵测试,不得不说确确实实已经颠覆了大多数人,包括泓曚智联在内对聊天机器人的认知。
所以在短短的两个月内,ChatGPT的月活就突破了1亿人,扩张速度称得上是史上最快,各种数据怎么吹都不为过,但它的本质上还是一个语言模型,就是在学别人说话。
实际上它根本知道自己在说什么,就像一个记忆力很好,但什么都不懂的小孩,学大人说话,因此在使用过程中,还是会犯一些逻辑性错误,但如果这么下去,很多人开始会担心失业的问题,那么谁会失业?你会失业吗?
我们只能说,技术革新它永远是一把双刃剑,它可能会创造出来更多的工作机会,所以失业率也不一定降,只是至少在短期内会导致一部分人失业。
不过为了尽可能不让自己失业,并且利用AI工具提高自己的生产力,个人认为要尽量避免做一些套路性的工作,因为只要有套路人工智能分分钟钟就能够给你玩明白。
什么叫套路性工作呢?下面是我让ChatGPT帮忙写了一个品牌文案:
在提问过程一开始只是让它写一个泓曚智联的品牌故事,后来一步步告诉它,这个品牌创始人是谁,公司在哪里,这个品牌是做什么的,最后它往里填内容,形成了符合一个公司标准的品牌故事。
还有什么是套路性工作呢?
比如有一些特别熟练的工程师整天闭着眼睛就能写的代码,闭着眼睛就能一天写20条的那种网文等等,这些活在熟练之后闭着眼睛都能干,就是因为它背后有套路,所以才让一些行业岌岌可危。
但AI公司最初研发的时候,并没有太多的目的,只是就是纯粹把数据放进去让机器去学习,未来会怎么样我们谁也不知道,大家都是摸着石头过河,但能够见证AI领域的发展,想想还是提激动的,现在潘多拉的魔盒在一点点被我们打开……