丨划重点
1. OpenAI可能也没预料到ChatGPT出色的能力表现,人类则习惯为AI赋予科幻、浪漫主义色彩。
2. 各种大模型的能力都还没得到科学的实证,ChatGPT也不一定能完全复现自己的推断,这也是为什么没有一家公司能够复制ChatGPT成功的原因。
3. 已经有非常重的商业模式、产品的团队/公司,不会轻易像OpenAI一样去将技术成果公之于众,大模型作为基础模型很快会走向“免费”。
4. 不用担心“AI取代人工”人类发展进程足够说明新技术的诞生,基本没有引发过于严重的问题。
5. 对于国内公司来讲,产品整合大模型,挑战行业‘大鳄’,是非常好的‘武器’。
丨概述
过去两个月,ChatGPT热潮席卷中文互联网,让整个行业彻底领略了人工智能技术产品应用的潜力。
在火热的同时,也引发了很多人的思考,「ChatGPT能否成为互联网的下一个系统性的机会?」这个问题可以拆解为两层含义,一方面是对ChatGPT能力上限的疑问,另一方面则是对互联网未来发展的疑问。面对如今ChatGPT火爆全球而引发‘人工智能替代人类’的话题,小冰公司CEO李笛认为:数十万年的人类发展,佐证了科技进步带来的效率提升不会产生过于严重的问题,应当对人类社会的自我调节机制有信心,岗位的消失与诞生也代表着人类的迭代与进步。面对如今大量巨头扎堆ChatGPT,李笛认为大模型在当前的时间点是‘挑战者的武器’。对于人工智好与坏的判断,应当是多维度的,而不是单纯地定义。
以下为直播文字精华版:
01
大公司不会轻易推出大模型,更多的是战略防御
刘兴亮:如果用最简单的一句话来介绍ChatGPT,可能是什么?另外,为什么ChatGPT突然就「火了」,有什么偶然和必然因素?核心技术是什么?
李笛:从行业和大众的视角,我的观点是不同的。
大模型技术被证明有效之前,整个行业曾遇到困扰多年的瓶颈,特别是在自然语言处理方面,基于知识图谱、意图识别,大量方案都未能有效解决问题,怎样能够真正通过知识图谱,高效的将知识结构化组织起来,大模型的诞生提供了新的思路。
对于大众来讲所感受到的是它涌现出的新能力。在GPT-1、GPT-2这个阶段还没有展现出这样的能力,但由于OpenAI持续训练、优化大模型,到GPT-3.5时具备了诞生思维链的新能力。
简单来讲,具备思维链能力,能够更好的解决模型在与人交互时的回应,相比早期版本更有逻辑思维,它会将问题逻辑进行拆分,并从训练数据进行关键信息调用、组合,以至于比人的逻辑更加缜密。由于这种方式远远超出大众预期,因而产生非常惊人的效果。
过去几年,整个行业在人工智能的技术范式上的全新突破,也就是大模型。
它的发展过程中也出现过许多创新,最初还被用于演示产品,但仅限于产业内,ChatGPT是首次将大模型新的技术范式带入大众视野,所以大模型才是最关键的技术创新。
图源:网络
刘兴亮:ChatGPT会给人类带来什么?
李笛:人类面对人工智能类型产品时,或多或少会为它赋予科幻电影的色彩,这非常具有浪漫主义色彩。但以从业者的角度来讲,这次大模型的能力表现为什么会让很多人为之惊讶,OpenAI内部可能也没有预料到。
从科研工作者的角度,即便是创造大模型的人,也还没有完全掌握它的规律和它背后的原因。
时至今日,各种大模型涌现,像文本生成涌现逻辑思维推理,其能力出现的具体原因,都还没有得到非常科学的实证。如果ChatGPT自身重新推导一些问题,也不一定能够完全复现,这也是为什么没有一家公司能够复制ChatGPT的成功的原因。
时至今日,很多技术依旧需要实践观察才能实现,过去谷歌验证发现,拥有620亿条的参数规模或以上的模型,才有逻辑思维编程能力,现在研究发现,其实在更小的规模,20个Billion参数,17个Billion,13个Billion,也能不同程度将大模型的逻辑能力复现出来,亚马逊甚至希望在1个Billion或者6个Billion参数规模上,尝试复现这种能力。所以,现在众多“玩家”都在不停的通过更多的实践,摸清楚大模型真正的规律,当然这也意味着我们还不能清楚的了解这类技术的边界是什么。
那些已经有非常重的商业模式、产品的团队/公司,不会像OpenAI一样去将技术成果公之于众。
所以,我非常理解谷歌为什么不抢先将拥有的技术贡献给大众,对于严肃产品,不能依靠经验指数来判断它的好坏,而要通过它的不准确指数进行判断,这也是为什么“Bard”(谷歌基于大模型推出的聊天机器人 )只是回答错两个问题,谷歌的市值就蒸发上千亿美元的原因。
用户层面,不管是ChatGPT还是其它大模型,都将会深刻的影响每个人的生活,这种影响如果应用得好将是有益的,反之则会造成无法预料的后果。
比如,当这类产品能够提供400字以上结论时,如果学生将生成的内容作为作业提交,基础教育就无法深入,因为基础教育理念是需要“独立思维”。如果不动脑思考,直接提交AI生成的内容,这就失去了“基础教育”的意义。
当然,这不会成为阻碍技术进步的原因,但技术落地时,需要有扬长避短的意识,规避它所存在的“另一面”。
02
ChatGPT为何“一本正经的胡说八道”?
刘兴亮:您怎么看待正在热议的ChatGPT会取代很多人类的工作?
李笛:最近,微软小冰日本分部与奈飞推出的AI生成的动画短片《犬与少年》,引发很大争议,许多动画片制作者认为这取代了他们的工作。
人工智能制作的动画《犬与少年》,图源:网络
首先,对于“AI取代人工”的议论不能坐视不管,但也要认可社会科学和自然科学的进步持续伴随人力历史发展。
随着技术、社会结构的变化,人类不停面临同样的问题,某些岗位会消失,也会有其他岗位出现。特定岗位的消失,短时间之内产生巨大的影响,但人类会重新寻找到新的社会结构和岗位结构的配置。所以我们应该相信人类社会的自我调节机制,这才是人类的迭代和进步。
其次,为什么在这个过程中大众会不适应?因为原本由人完成的工作,机器可以做得更有效率,所掌握的信息量更大。
对于“AI取代人工”这个话题,我认为完全不用担心,人类发展进程佐证了,新技术的诞生基本没有引发过于严重的问题,改变岗位、改变每个人的社会分工,这从来都不是问题。
刘兴亮:我们经常看到ChatGPT“一本正经的胡说八道”令人啼笑皆非,AI大模型有海量数据为什么会错误率会这么高?
ChatGPT“一本正经的胡说八道”,图源:网络
李笛:第一由大模型本身的设计限制决定。第二,此类问题也在逐步优化解决。
对比ChatGPT和New Bing,举个例子,比如问及ChatGPT“我想知道日本最长的河的长度的五次方根”,ChatGPT首先需要理解你的问题,它和以前的“意图识别”相比,理解能力更突出,但也有明显的不足。
对于这个问题,第一“与日本最长的河有关”、第二“与河的长度有关”、第三“和长度的五次方根有关”,分步骤进行解决。
正确的求解过程——ChatGPT应该先搜索“日本最长的河”并了解“河的长度”,最后计算“五次方根”,现状是不会这么做,而是在训练数据中寻找答案,很可能就找到错误的答案,因为它是语言模型不是运算模型。
所以你可能会看到ChatGPT输出错误答案,但依靠大模型生成文本描述出来的内容,又显得非常的合乎逻辑,所以给人“一本正经的胡说八道”的感觉。
New Bing又是怎么处理的?它同样对问题进行拆解,并且进行搜索,从互联网信息或者某可信的知识库中找到“日本最长的河是哪条河?”找到“河的长度”,在计算环节会临时生成一段代码并运行,计算出“五次方根”,这个过程就较为复杂,但它会给你正确的答案。
“一本正经的胡说八道”是可以改变的,也会引发新问题,比如完成任务反复的调用数据,结果可能更加准确,但成本反而更贵。无论是OpenAI还是行业中的其他“玩家”,其实都在认真迭代和更新,包括大量采用新的方法进行训练。大模型随着训练的加深以及新的任务训练,水平必然会越来越好。
刘兴亮:从投入产出看,ChatGPT类产品在不同阶段,重点投入分别会在哪些环节,如何赚钱?
李笛:我个人认为大模型作为基础模型很快会走向“免费”。
首先,大模型随着发展会走向趋同,除非不断涌现更多新的能力并不断的进化,所以ChatGPT从最开始1000个token收费2美分,到如今主动下调到1000个token收费0.2美分。
从API调用的角度来讲,整个定价体系是为了让更多的人使用它,实现薄利多销,但如果2美分就可以很好的普及,为什么还要降价到0.2美分?降价意味着它有主动应对潜在竞争的策略。
另一方面,如果将大模型当做商品,模型本身是不附带任何商业模式的,价值的大小在于生成的内容,也许生产内容如同莫言的小说那么高价值,也有可能就像咱们写的检查那样不值钱。
对模型来讲,一样的文本生成流程,输出的内容价值会截然不同,而大模型提供方的收费模式是完全相同的,都是根据字数多少进行计算,所以大模型并不在内容产业的游戏规则中,也就制约其商业模式——只能依赖调用次数多少这一种商业模式。
所以,我个人认为大模型的公司或早或晚都需要向“下”走,深入到某垂直领域做产品。
大模型提供团队和做应用的公司,不可能是完全的合作伙伴关系,他们之间也存在潜在的竞争和吞并的可能,另后者的优势在于,会面临更多的大模型的选项,只要将应用做的足够扎实,从任何维度去建立自己的竞争优势,大模型就不再是它的唯一依赖。
所以,我认为目前为止整个行业的生态远远没有建立起来,在这个过程中还会出现更多复杂的问题。
03
大模型是挑战巨头的“武器”
刘兴亮:巨头们先后扎堆ChatGPT,各种概念股都出现,你觉得有泡沫吗,会改写互联网格局吗?
李笛:现阶段,大模型是“挑战者的武器”。
以微软为例,当微软将它整合在Bing中,以实现去挑战谷歌的目的,而谷歌要想应战,就必须要付出许多倍的成本才能守住自己原来的“疆土”。
对于国内公司来讲,在自己未实现绝对领先位置的产品中使用大模型,挑战行业‘大鳄’,是非常好的‘武器’。对于大鳄来讲,如果在这时不储备相关“武器”,显然只能面临“他杀”的局面,至少从二级市场、用户、合作伙伴等视角来看,都会带来非常大的负面影响,所以很多大公司研究大模型是防御性行为。
另一方面,大模型研究存在很强的“或然性”,业内现在对大模型的研究,还普遍是经验积累,而不是科学的结论,经验需要实际操作。
从战略的角度,有财力的大公司也会去尝试,但是否能够研发出来(成型产品)是两回事,以及成功的研发后是否要把它用在自己的主营业务上又是另一回事,这中间会有很多其他因素考虑。
图源:网络
刘兴亮:过去人工智能有强弱之分,强弱由哪些因素来决定,临界点在哪?
李笛:我个人认为是深度学习。包括强人工智能,弱人工智能,这些定义本身都带有很强的偏见。这并不意味着某个强时另外一个就是弱,因为所有的技术它都有不同的维度,需要多维度考量。特定情况下,强人工智能可能能力非常强,但情感上又是最弱的。
这也是为什么,有些人被认为是学习的天才,也是生活的傻瓜。那么他是强还是弱?所以,这种单一维度的定义强弱,本身存在一定偏见。
抛开这些,我们可以看到人工智能技术它有不同维度的追求。比如,它追求信息的绝对准确性或者追求逻辑和篇幅,追求对用户的启发。
从人工智能角度来讲,不同团队都在不停的探索各种方向,前百度首席科学家、Landing AI创始人吴恩达发过一封信,告诉从业者不要认为不做大模型就不行,强调人工智能是百花齐放的时代,我们现在还处在蛮荒时代,要去不停地去寻找不同规则定义的强弱,或者不同定义的好和坏,而不是只有一种规则。
04
人工智能的三类风险:并发、错误授权、过渡依赖
刘兴亮:人工智能会成为一切产品的标配吗,可能会在什么时候,普通人会有剧烈变化的感知吗,未来可能还会有什么风险?
李笛:我看到的结果是,当它真正深远的影响到人类时,人类是没有感知的。
今天人工智能技术深刻的改变着所有人的日常生活,每个人手机上的计算设计,拍照过程中镜头所捕捉到的画面,人工智能都带来了大量的改变,消费者(对这种变化感知不多)往往只会对超出想象的东西感到兴奋。
所以,人工智能带来真正深远的变化,会深远到你都已经忽略它的存在。
关于风险,在实践中人工智能最大的风险有三类。
第一类风险叫并发。什么叫并发?就是“胡说八道”。人工智能胡说八道一天可以影响到上亿人,并发意味着如果产生问题,它的故障率、错误率即使只有小数点后两位,但乘以它的并发数,将会是无比庞大的数字。所以,并发问题是绝大部分的人工智能需要考虑的风险,尤其是大规模商用、落地的时候。
第二类风险来自于授权。即什么情况下授权人工智能系统做怎样的决策,并且实施怎样的行为。比如今天行业还只允许人工智能去‘思考’,但不允许做具体的决策和执行,比如AI是没有被授权启动汽车的,如果它产生错误,想去发动汽车,在物理上是实现不了的。如果授权系统未明确的指令,那么就会产生相应的风险,即使错误率再低,仍然会存在错误的可能,如果再进一步让它行驶上路,后果就更严重。
第三类风险是依赖。如果过于依赖人工智能,人体自身基本能力就会退化。基本能力退化换来的高效率,是可以接受的。比如通过工具使冶金属冶炼的效率、开采矿藏的效率变得非常高,但如果它使得人的思维停滞,就不一定是好事。所以,在中学、小学,一度对于计算器的使用非常严格,因为这会造成学生心算能力变差。当然,到大学以后,心算能力得到很好的培养,反倒需要用计算器来帮助你去算的更快,所以任何时候都不能过分的依赖工具。
如何规避这三类风险?最主要是人工智能企业本身。
企业往往是最早能够知道技术的边界在哪里的主题,有机会提前预判,规避它的风险并限制它的使用频次。其次,大众对于人工智能的认知不必过于谨慎或者过于乐观,我们应该给创新足够的机会,减少片面化的认知。
刘兴亮:移动互联网有个适老化的概念,聚焦老年人使用体验,人工智能在这方面的做得如何?
李笛:人工智能在这方面有先天性的优点,普遍存在的特点就是让产品体验变得更自然。
当你用搜索引擎时,需要去学会使用关键词搜索技巧,人工智能就不需要,它是自然语言交互,文本之外,语音、视觉都更自然。所以,某种意义上讲,正因为先天具有如此优点,老年人在使用人工智能技术的时候,会让原本不适老化的产品,变得更适应老人。
另外,作为工具,人工智能确实也存在着适配的问题,所以现在才涌现出一类新的职业叫Prompt Engineering(提示工程),试图通过给出提示,让人工智能帮助用户更好的完成工作。
我认为,我们应该看到它具有引发暴风骤雨的潜能,但它离暴风骤雨,离真正改变周围还有很远距离,当前,人们无论是使用ChatGPT,还是其他产品,存在明显的幸存者偏差。