《拐点:站在AI颠覆世界的前夜》是万维钢老师的新作,聚焦于人工智能(AI)对世界的深远影响。书中通过《荀子·劝学》中的三段话,描绘了AI能力的三种境界:从基础的参数积累到模型的神奇功能,最终达到通用人工智能(AGI)的境界。万维钢探讨了AI的底层逻辑、能力边界以及人类在AI时代的应对策略。
目录
前言:人要比AI凶
第一章:ChatGPT 究竟是什么
1、大变局:一个新智慧形态的产生
2、开悟和涌现:AI能力的三个境界
3、底牌和命门:AI能力的局限
4、数学:AI视角下的语义和智能
第二章:当AI进入人类社会
1、效率:把AI转化为生产力
2、经济:AI让调配资源更有效
3、战略:AI商业的竞争趋势
4、社会:被AI接管后的忧患
第三章:置身智能,你更像你
1、决策:AI的预测+人的判断
2、教育:不要再用训练AI的方法养人了
3、专业:代议制民主和生成式AI
4、领导技能:AI时代的门槛领导力
5、独特智能:人类的具身智能与自主思考
6、存在智能:人类在AI时代刷存在感的方式
第四章:用已知推理未知
1、演化:目前为止的GPT世界观
2、拟人:伊丽莎效应
3、共存:道可道,非常道
4、价值:人有人的用处
5、智能:直觉高于逻辑
6、力量:算力就是王道
第五章:实战,让AI为你所用
1、咒语:如何让ChatGPT发挥最大价值
2、重塑:怎样用ChatGPT对话式学习
3、生成:怎样用GPT-4编程?
4、解放:如何拥有你的AI助理
5、场景:用AI于无形
第六章:更大的大局观
1、炼丹:大语言模型是怎样炼制的
2、惯性:如何控制和改写你自己的神经网络
3、狂人:山姆·阿尔特曼的系统性野心 304
跋:拐点已至
本书一共六章,我总结一下大概是这个逻辑:“认识AI(ChatGPT)”到“利用AI(ChatGPT)”再到“超越AI(ChatGPT)”。具体来说,这个逻辑可以分为以下几个步骤:
1. **认识AI(ChatGPT)**:通过第一章和第二章,读者首先被引导去了解AI(特别是ChatGPT)的本质、能力和局限,以及AI进入人类社会后可能带来的变化和挑战。
2. **利用AI(ChatGPT)**:第三章和第四章讨论了个体如何在AI时代中找到自己的位置,包括如何利用AI进行决策、教育、专业发展和领导,以及如何保持和发展人类的独特智能。
3. **超越AI(ChatGPT)**:第五章提供了实战指导,教授读者如何最大化AI的潜力,包括如何与AI对话、编程、拥有AI助理以及在不同场景中应用AI。
4. **深入理解AI(ChatGPT)**:第六章深入探讨了AI的内部工作原理,包括大语言模型的炼制过程,以及如何控制和改写我们自己的神经网络。
5. **反思与前瞻**:在跋中,万维钢老师全书内容进行总结,同时对未来AI的发展趋势和人类社会可能面临的拐点进行思考。
整个书籍的结构呈现出一种由浅入深,再到应用和超越的过程,旨在帮助读者全面理解AI,学会与之共存,并最终实现对AI的有效利用和超越。
万维钢,毕业于中国科技大学,2005年获得美国科罗拉多大学物理学博士学位,曾长期从事核聚变等离子体物理研究。现居美国,专职从事写作。他是知名科学作家,主张以科学精神钻研社会现象,擅长将高深的道理落地化,激发读者思考。
著有畅销书《万万没想到》《智识分子》《高手》《你有你的计划,世界另有计划》《学习究竟是什么》《相对论究竟是什么》《博弈论究竟是什么》《量子力学究竟是什么》《科学思考者》等。
他在得到App开设的专栏《精英日课》,已经成为得到的“镇校之宝”,连续5季有10w+用户追更。
精英日课第六季前段时间开始了,我已在再听《再看一眼》,很有启发,而且万维钢老师在讲述他如何使用AI这节,对每一个人都非常具有借鉴意义。可以试听五节课,我建议先听他自述如何使用AI。
使用这些定制GPT不需要另外付费。其实所谓GPTs,就是你预先把咒语(prompts)写好,可以像编程一样,把要求AI操作的步骤写得非常详细,以后每次拿过来直接就用,而不必重新再写。
先说一个最强烈推荐的用法:「语音输入,文字输出」。
ChatGPT的手机APP支持语音输入,而且它的语音识别能力非常强。你拿过来对它随便说一通话,中文也行英文也行,中文夹杂英文也行,它都能识别。哪怕有几个多音字识别错了也没关系,它会在推理中猜到你的本意。然后它能以很快的速度输出文字回复你。
对写文章来说,ChatGPT的一个作用是运用它已经知道的知识帮我做头脑风暴。而如果我们要调研一些最新的、要求准确度非常高的知识,就必须让AI上网搜索。ChatGPT可以上网搜索,但我特别推荐一个专门的调研工具,perplexity.ai。
ps:我也是perplexity的重度使用患者,我的这个专栏结构的内容大部分是它帮我填充的,文稿质量是不差的。
但是呢,经过我使用下来,也正如万维钢老师所说“每个大模型都能帮你“总结一本书”,让你跟一本书对话。但这些不能替代精读。我的《拐点》,就有一位读者评论说,这本书是不能被AI所总结的。有些书就是如此。AI可以告诉你每一章的“主题”,但那种高度的概括没什么用,有意思的都在细节之中。”
不过,AI可以帮你选书。我做了一个定制GPT叫「全书速读」上面图片第一个,你直接给它一个PDF或者Word文档,它会 ——
先简单说说这本书讲了什么,让你迅速了解;
再列举这本书的逻辑脉络;
然后告诉你书中每一章的关键要点;
然后扩展思考,把这本书跟其他书联系起来,给一个总体的评价;
最后,如果你对哪一章特别感兴趣,还可以追问,它可以帮你提取其中的有趣事实和金句。
特别是英文书,你不需要翻译,GPT自动用中文输出。
ps:我试了一下,还是可以的。但是不是plus会员只能试一次。
最后是一个小感慨:我的工作流程全面结合了AI,可我工作的时间一点都没少。
我调研更方便了,但我调研出来的内容也更多了。我能用语音迅速出稿,可是因为稿子变得太长,我的修改工作量大大增加。
而且我不能确定读者是否感觉到AI给文章质量带来了多大进步。
可如果你现在突然禁止我用AI,我会觉得,这工作没法干了。
《拐点》一书的核心思想在于探讨AI对人类社会的颠覆性影响。万维钢通过三个境界来描述AI的发展:
积土成山,风雨兴焉:AI通过大量数据和参数的积累,能够完成一些基本任务。
积水成渊,蛟龙生焉:当模型达到一定规模时,会涌现出一些意想不到的功能。
积善成德,而神明自得,圣心备焉:这是通用人工智能(AGI)的境界,可能会产生自我意识和道德感。
万维钢认为,AI革命是人类文明的一个重要拐点,标志着我们进入了一个高级智能大显身手的繁荣阶段。
阅读《拐点》让我对AI的未来有了更深刻的理解。书中对AI三种境界的描述,使我认识到AI不仅仅是技术的进步,更是对人类思维和社会结构的深刻挑战。万维钢的分析帮助我理解了AI的底层逻辑和能力边界,也让我意识到在AI时代,保持学习和适应能力的重要性。书中提出的“AI革命是开始的结束”这一观点,激发了我对未来社会形态的思考。
第一章:ChatGPT 究竟是什么
如果你不记得自己在2023年3月15日那天的日程,我建议你现在就回想一下……因为若干年后,你的子孙后代可能会问你:GPT-4发布的那一天,你在干什么?
ps:我当时已经使用了半个月的ChatGPT3.5以及后面的newbing.
2023 年是AI元年。有些业内人士相信AGI将会在2026年左右实现。这意味着AI在所有认知领域-听说读写、判断病情、创作艺术,甚至从事科学研究一都做得像最好的人类一样好,甚至更好。我认为在某种意义上GPT-4已经是弱版的AGI,它掌握的医学知识超过了所有医学院学生,它参加律师资格考试的成绩超过了90%的考生。这一波GPT革命每天都有新突破,我们仍然在探索之中。
2022 年底,OpenAI推出了对话应用ChatGPT,这回大家都可以体验GPT-3了。2023年2月1日,ChatGPT升级到收费的ChatGPT Plus,它背后的主力模型变成了GPT-3.5,继而是GPT-4;接着,ChatGPT有了插件功能,它能上网,还能读取和处理数据;后来又升级到有多模态功能的GPT-4V,然后是个人定制的GPTs 和 GPT 商店,甚至2024年会出来GPT-5…如果你把AI视为人类的敌人,这短短的一年多,你应该一日三惊。
ps:梳理发展时间线。
而 2023年这一波AI大潮中可不只出现了OpenAI的 GPT。Google (谷歌)、Meta(美国互联网公司,前身是Facebook )、马斯克的X(原推特)等公司都有自家的大语言模型,还有Midjourney、Stable Diffusion等专门画图的模型,年底还出现了一波用文字直接生成视频的模型,特别是2024年年初出来的Sora,震撼了世界,中国这边则有“百模大战”,等等。它们背后的基本原理跟GPT 是一样的。很多人说这类技术叫“生成性AI”(中国的说法叫AIGC),但我看这个说法还是没有抓住大图景。这一轮AI突破的意义不仅仅是能生成内容。
ps:我记得2023年3月份开始股价就一路上涨,很魔幻的。尤其是百魔大战,事实证明能打的不多,最后股价都是虚高,像什么百度的、科大讯飞的等等,一大波企业都假借这波势头来赚钱了,不搞技术。当股市推高时,各种技术性离婚都百花齐放了。咱们中国人还是精明,落袋为安忍一时骂名总比过了这波势头懊悔不迭强得多。所以说,真正赚钱的手段是打工的老百姓想不明白的事情,以为大抵如此,真的从来如此吗?
随着AI能做的事情越来越多,有一个问题也被讨论得越来越多一-AI到底降低了人的价值还是提高了人的价值?这取决于你怎么用它。把事情直接交给AI做,是软弱而且危险的。比如你想给人写封信,怕自己写得不够礼貌周到,就让ChatGPT替你写。它的确可以写得很好,写成诗都可以-但是,如果读信的人知道你是用ChatGPT写的,或者对方因为也会用ChatGPT,根本懒得读全文,选择让ChatGPT做个摘要,那你这封信还有必要走 AI这道程序吗?难道AI的普及不应该让大家更珍视坦诚相见吗?
ps:大家别装着别端着,坦诚一些。
如果你足够强势,当前AI对你的作用有三个。
第一是信息杠杆。想要了解任何信息都能得到答案,这件事在有搜索引擎以前是不可能的,在有搜索引擎、没有GPT之前是费时费力的。而现在你可以在几秒钟之内完成。当然AI返回的结果不一定准确,它经常犯错,关键信息还是得你亲自查看一下原始文档。但我这里要说的是,“快”,就不一样。当你的每一个问题都能立即得到答案,你的思考方式会换挡。你会进入追问模式,你会更容易沿着某个方向深入追踪下去。
第二是让你发现自己究竟想要什么。科技播客主Tinyfool(郝培强)在一个访谈中①描绘了这么一个场景。假如你想买房,问AI哪儿有便宜房子,AI反馈一些结果,你一看距离公司太远了,意识到你想要的不只是便宜。于是你又让AI在一定区域内寻找便宜房子,AI又反馈一些结果,你又想到面积和学区……一开始你并没想那么多,是跟AI的对话让你想清楚自己到底想要什么。这完全不平凡,因为我们做很多事情之前是不知道自己想干啥的-我们都是在外界反馈中发现自我的。
第三是帮你形成自己的观点和决策。很多人觉得可以用AI写报告,可是如果报告里没有你自己的东西,它有什么意义呢?而如果报告里只有你自己的东西,AI有什么意义呢?AI的意义是帮助你生成更有自身特色的报告。主动权必须在你手里。是你输出主动,但是你的主动需要AI帮你发现。通过帮你获得新知、发现自我,AI能让你更像“你”。它提供信息,你做出取舍。它提供创意,你选择方案。它提供参考意见,你拍板决策。
我是个科学作家。在得到App的年度专栏《精英日课》第5季中,我以专题连载的形式全程跟踪了这一波AI大潮。我调研了最新的研究结果,学习和比较了当今最厉害的几个头脑对AI的认识,特别是上手做了很多实操。我甚至把家搬到了AI革命的中心一旧金山湾区,我面对面采访了很多位一线AI研发者和AI应用创业者。
ps:万维钢老师的第一手调研。
这本小书是我写给你的报告和感悟。我会在书里探讨几个大问题:
·我们该怎么理解这个AI大时代的哲学?AI作为一个新的智慧形态,它的能力边界、它的底牌和命门,究竟是什么?
·大语言模型的智能为什么是出乎意料的?它的原理对我们有什么启示?
·当 AI渗透进经济活动,会如何提升生产力?路径和逻辑又是什么?
·当AI干预了道德,甚至法律,我们的社会将会变成什么样子?
·AI 还在以更快的速度迭代,面对这个局面,教育应该怎么办?公司应该怎么办?人应该怎么办?
·如果 AGI和超级人工智能也有了人的意识和情绪,人应该放弃这些能力和价值吗?
但我希望这本书不会,因为本书讲的是原理、心法、经济学、教育和哲学这些更基本的东西。这些学问让你面对再大的不确定性也能笃定地坚守更高的原则。
ps:这个不会面临过时,这些基本的东西内化可以形成个人行动指导以及方法论。
但我最先想对你说的是,AI的作用应该是放大你,而不是取代你。当你看完这本书,再次使用ChatGPT的时候,可以试试这个“一放一收”的套路:·放,是让思绪在海量的信息里自由飞翔,寻找洞见;·收,是找到自我,决定方向,掌控输出。
越是AI时代,公共的信息就越不值钱。现在个人搞一个外部信息保存系统已经意义不大了,一切唾手可得,整个互联网就是你的硬盘,人类所有的知识就是你的第二大脑。你真正需要保存的是自己每天冒出的新想法,是你对信息的主观整理和解读。
一切落实到自己。永远假定别人也会用ChatGPT。
ps:真正会用的能有多大比例?我对这个数据还是比较悲观怀疑的态度。因为未来在智能时代真正技术受益的人占比只有不到2%(吴军老师的推测)
可是对于 GPT,恰恰是不懂的人还在“正常化偏误”(normalcybias)之中,以为AI的能力不过如此,越懂的人却越是暗暗心惊。孤陋寡闻的人不知道AI,认知固化的人忽视AI,肤浅的人害怕AI,热情的人欢呼AI…我们率先使用AI、探索AI、试图理解AI。希望这本书让你直通最高水平。你不会在AI面前失去自我。你不但应该,而且必须,而且可以,以“我”为主,使用AI。
ps:看到这本书,都应该思考,我们都容易眼高手低,好高骛远。
正如iPhone在2007年开启了智能手机时代,ChatGPT 在2023年开启了人工智能时代。很荣幸我们赶上了这个历史时刻。那怎么理解这个新时代呢?要想知道ChatGPT究竟是什么,我们必须先考虑更大的问题:AI究竟是一种什么智能?
ps:历史往复如此,机遇就在面前。
也就是说,当代AI的最厉害之处并不在于自动化,更不在于它像人一样思考,而在于它不像人一它能找到人类理解范围之外的解决方案。我后面会论证,其实AI这个思维方式恰恰就是人的感性思维,在这个意义上你也可以说AI很像人一一但是现在,请你先记住这个无法让人理解的、“不像人”的感觉。
从人的智能到人工智能之变,不但比信息革命重要,而且比工业革命重要--这是启蒙运动级别的大事件。这不是汽车取代马的发明,也不仅仅是时代的进步。这是哲学上的跨越。
人类从古希腊、古罗马时代就在追求“理性”。到了启蒙运动时期,人们更是设想世界应该是由一些像牛顿定律这样的明确规则构建的。康德(Kant)以后的人们甚至想把道德也给规则化了。我们设想世界的规律应该像法律条文一样,可以被一条条写下来。科学家一直都在把万事万物分门别类,划分成各个学科,各自总结自己的规律,打算最好能把所有知识编写进一本百科全书。
然而进入20世纪,哲学家路德维希·维特根斯坦(LudwigWittgenstein)提出了一个新的观点。他认为这种按学科分类、写条文的做法根本不可能穷尽所有知识。事物之间总有些相似性是模糊的、不明确的、难以用语言说明的。想要“丁是丁,卯是卯”,全都理性化,根本做不到。
现在AI找到的,恰恰就是一些难以被人理解、不能用明确的规则定义而且根本无法言说的规律。这是柏拉图(Plato)理性的失败,是维特根斯坦的胜利。
ps:我是柏拉图的追随者,但我更是维特根斯坦这个天才的拥趸。
btw:路德维希·维特根斯坦(Ludwig Wittgenstein,1889—1951,香港及台湾译作维根斯坦)出生于奥地利,后入英国籍。哲学家、数理逻辑学家。语言哲学的奠基人,20世纪最有影响的哲学家之一。
其实不用AI你也能想明白这个道理。比如,什么是“猫”?你很难精确定义猫到底是什么东西,但是当你看到一只猫的时候,你知道那是猫。这种认知不同于启蒙运动以来人们追求的规则式的理性,但你可以说这是一种“感觉”一一种难以明说、无法告诉另一个人,但是你自己能清楚感受的感觉。我们对猫的认识很大程度上是感性的。而现在AI有这种感觉。当然,人一直都有这种感觉,这本来没什么,康德也承认感性认知是不可缺的。问题是,AI通过这样的感觉,已经认识到了一些人类无法理解的规律。哲学家原本认为只有理性认知才能掌握世界的普遍规律。
ps:哲学的作用又在这一刻体现出来了。真的,冥冥之中,自由定数。如果我以前没有接触过维式哲学和康德的三大批判,我看到这些文字根本没有任何感觉。
万维钢老师厉害就厉害在,科学和哲学的观点信手拈来,深表佩服。
有些人把AI当作一种“超级智能”,仿佛神灵一般,认为AI能把人类如何如何一这种讨论没什么意义。如果神灵都已经降临人间了,我们还在这儿聊什么?不要高推圣境。当前一切主流AI模型,都是通过机器学习(MachineLearning)训练的神经网络系统。
你要知道,20世纪80年代以前,科学家还在尝试用启蒙运动理性的思路,把解决问题的规则输入给计算机执行。人们发明了“自然语言处理”(Natural LanguageProcessing,NLP)、机器翻译、词法分析、语音识别等技术去模拟人脑的理性思维,结果那条路越走越难一规则太多了,根本弄不过来。另有一些科学家发明了神经网络算法,模拟人脑的感知能力,GPT是这条路的产物。现在根本不用告诉AI任何语言规则,我们把整个学习过程都委托给机器--有什么规律你自己领悟去吧。
使用 AI 神经网络,分为“训练”(training)和“推理”(inference)两部分。一个未经训练的AI是没用的,它只有搭建好的网络结构和几万甚至几千亿个数值随机设定的参数。你需要把大量的素材喂给它进行训练。每个素材进来,网络过一遍,各个参数的大小就会进行一遍调整。这个过程就是机器学习。等到训练得差不多了,参数值趋于稳定,就可以把所有参数都固定下来,模型就炼制完成了。你就可以用它对各种新的局面进行推理,形成输出。
ps:讲的很清楚,神经网络很老的一个东西,并不稀奇。
GPT-3.5有超过1000亿个参数,之后的GPT-4、未来GPT-5的参数要更多,AI模型参数的增长速度已经超出了摩尔定律。搞神经网络非常消耗算力。现在有3种最流行的神经网络算法,“监督学习”(Supervised Learning)、“无监督学习”(Unsupervised Learning )和“强化学习”(Reinforcement Learning )。
前面那个发现新抗生素的AI就是监督学习的典型例子。在给出有2000个分子的训练数据集前,你必须提前标记好其中哪些分子有抗菌效果,哪些没有,才能让神经网络在训练过程中有的放矢。图像识别也是监督学习,你得先花费大量人工把每一张训练图里都有什么内容标记好,再喂给AI训练。
如果要学习的数据量特别大,根本标记不过来,就需要无监督学习-你不用标记每个数据是什么,AI看得多了会自动发现其中的规律和联系。比如,淘宝给你推荐商品的算法就是无监督学习。AI不关心你买什么样的商品,它只是发现买了你买的那些商品的顾客也会买别的什么商品。
强化学习是在动态的环境中,事先并不设定什么样的动作是对的,但AI每执行一步都要获得或正或负的反馈。比如AlphaGo Zero下棋,它每走一步棋都要评估这步棋是提高了比赛的胜率,还是降低了胜率,也就是通过获得即时的奖励或惩罚,来不断调整自己。自动驾驶也是强化学习。AI不是静态地看很多汽车驾驶录像,它是直接上手,在实时环境中自己做动作,直接考察自己的每个动作会导致什么结果,获得及时的反馈。
ps:例子举得很清楚,学习一下。
我打个简单的比方:·监督学习就好像是学校里老师对学生的教学,对错分明,有标准答案,但可以不给学生讲是什么原理;·无监督学习就好像一个学者,他自己调研了大量的内容,看多了就会了;·强化学习则是小孩学走路或者训练运动员,某个动作带来的结果好不好立即就知道。
先用对照翻译版进行一段时间的监督学习作为“预训练”(pre-training )。等模型差不多找到感觉之后,你就可以把一大堆同一个主题的资料一不管英文还是中文,不管文章还是书籍,还不需要互相是翻译关系一一都直接扔给机器,让它自学。
像这种处理自然语言的AI现在都用上了一个新技术,叫Transformer 架构。它的作用是让模型更好地发现词语跟词语之间的关系,而且允许改变前后顺序。比如“猫”和“喜欢”是主语跟谓语的关系,“猫”和“玩具”则是两个名词之间的“使用”关系一一AI都可以自行发现。
GPT的全称是Generative Pre-Trained Transformer(生成式预训练变换器),就是基于Transformer架构的、经过预训练的、生成性的模型。
ps:太技术性的可以不看,但我觉得要有个基本认知。
但是,AI最不可思议的优势是,它能发现人的理性无法理解的规律,并且据此做出判断。AI基本上就是一个黑盒子,吞食一大堆材料之后突然说“我会了”。你一测试发现,它真的很会,可是你不知道它会的究竟是什么。因为神经网络本质上只是一大堆参数,而我们不能直接从那些参数上看出意义来。这个不可理解性可以说是AI的本质特征。事实是,连OpenAI的研究者也搞不清GPT 为什么这么好用。
ps:Python语言也还是个黑盒,都是上天馈赠的礼物!
人工智能行业选人很看重大学专业。一般需要计算机科学、统计学、数据处理、计算机图形等方面的人才,有的大学直接就有AI专业。对大学生来说,最好是以其中的一门为主专业,再辅修一个像认知科学、脑科学、心理学、哲学之类的专业,那简直就是定制的AI人才。
ps:还是强调跨学科思维的学习。
涌现的意思是,当一个复杂系统复杂到一定程度,就会发生超越系统元素简单叠加的、自组织的现象。比如单个蚂蚁很笨,可是蚁群非常聪明;每个消费者都是自由的,可是整个市场好像是有序的;每个神经元都是简单的,可是大脑产生了意识……万幸的是,大语言模型也会涌现出各种意想不到的能力。
ps:复杂系统我谈不上精通,但是比其他人要更为专业的。我简单讲一下我之前的研究方向里的一些概念整理。
复杂系统是由许多相互作用的元素组成的系统,这些元素之间的相互作用能产生出新的性质和行为,这些新的性质和行为不是由单个元素单独产生,而是通过元素间的相互作用涌现出来的。复杂系统的例子包括全球气候、有机体、人脑、电网、交通通讯系统、城市社会和经济组织网络、生态系统、活细胞,甚至整个宇宙。
复杂系统表现出一些特殊的性质,如非线性(nonlinear)、涌现(emergence)、自发秩序(spontaneous order)、适应性(adaptation)以及反馈回路(feedback loops)。这些系统通常难以直接建模,因为它们内部的元素之间以及系统和环境之间存在依赖、竞争、关联等复杂的相互作用。
复杂系统理论是系统科学中的一个前沿方向,它强调用整体论和还原论相结合的方法去分析系统。复杂性科学被称为21世纪的科学,其主要目的是揭示复杂系统的动力学行为,这些行为往往难以用现有的科学方法来解释。
复杂系统可以看作是还原论的替代范式,主要解释系统的组成部分和相互关系。作为一个跨学科的研究领域,复杂系统吸收了许多其他领域的研究理论,如物理学中的自组织、社会科学中的自发秩序、数学中的混沌、生物学中的适应性等。
复杂系统的共性包括:大量个体的集体行为产生复杂、不断变化且难以预测的行为模式;系统利用来自内部和外部环境中的信息和信号,同时也产生信息和信号;系统可以通过学习和进化过程进行适应,即改变自身的行为以增加生存或成功的机会。
复杂系统的研究是一个不断发展的领域,它涉及到多个学科,包括但不限于物理学、生物学、社会科学、计算机科学和经济学。随着对复杂系统理解的深入,这一领域将继续为解决现实世界中的复杂问题提供新的视角和工具。
btw:我当时看的很多论文都是双层网络往上的复杂网络,我们用复杂网络去研究复杂系统。
《荀子·劝学》中的一段话,正好可以用来描写AI能力的三重境界。第一重境界是“积土成山,风雨兴焉”。参数足够多,训练达到一定的积累,你就可以做一些事情。比如AlphaGo(阿尔法围棋)下围棋。第二重境界是“积水成渊,蛟龙生焉”。模型再大到一定程度,就会涌现出一些让人意想不到的神奇功能。比如,AlphaGoZero 不按人类套路下围棋,大语言模型的思维链。第三重境界是“积善成德,而神明自得,圣心备焉”。这就是AGI了,也许它产生了自我意识,甚至有了道德感……古往今来那么多人读《劝学》,也不知有几人真按照荀子的要求去学了。但是我们现在知道,AI肯定学进去了。你给它学习材料,它是真学。总而言之,因为“开悟”和“涌现”,AI现在已经获得了包括推理、类比、小样本学习等思考能力。
版权法的规定是,直接把人家的内容复制过来,大段大段地输出,那肯定不行。但训练模型不是复制,是消化之后的转换。OpenAI早就已经应邀给美国专利版权局发去了一份文件Φ,解释自己对此的理解,它认为使用版权内容训练模型是合法的。 但是,官方目前的确还没有一个明确的说法。
对AI来说,一切都是统计意义上的。你问GPT自己去上海生活会怎样,它能给你的最好答案是“像你这样的背景、性格,到了今日的上海,最后可能会是一个什么情况”。如果世界上有50个跟你背景和性格相似的人,GPT说的是这50个人去了上海之后的“平均值”或者“最可能值”--其中一定会有人跟那个值有较大的偏差。甚至AI一开始就说错了,因为它不可能真的了解你。
这就如同你问我要不要学编程、要不要考研,对你那是野生问题,对我那也是驯化问题。我只能根据我所知的给一个尽可能好的答案,但我终究不是你。这就是为什么“躬身入局”如此可贵。站在场边评论,总是说啥都行,你可以有各种各样的理论和道理,其中总有些是正确的。但是一旦你身处其中,那才是“如人饮水,冷暖自知”。
ps:多去“躬身入局”,少在旁边评判。
不过有一个神人,他的观点和作品并不会过时。他在《这就是ChatGPT》(What Is ChatGPT Doing...and Why Does ItWork? )®这本书里讲的是数学原理和哲学思辨,而不是GPT 的一般功能一数学和哲学是不会过时的。这个神人就是-斯蒂芬·沃尔夫勒姆(Stephen Wolfram )。
GPT和目前市面上的所有AI,本质上都是神经网络。沃尔①[美]斯蒂芬·沃尔夫勒姆:《这就是ChatGPT》,WOLFRAM传媒汉化小组译,人民邮电出版社,2023。夫勒姆关注神经网络已经40多年了,他早在1983年就自已编程研究过神经网络,他最近用GPT做了很多研究。这本书得到了 OpenAI的CEO山姆·阿尔特曼的背书,说这是他见过的对GPT 最好的解释。
ps:《这就是ChatGPT》,列出规划书单!
沃尔夫勒姆还讲了GPT的一些特点,我认为其中有三个最幸运的发现。第一,GPT没有让人类教给它什么“自然语言处理”之类的规则。所有语言特征一-语法也好,语义也罢,全是它自己发现的,说白了就是暴力破解。事实证明,让神经网络自己发现一切可说和不可说的语言规则,人不插手,是最好的办法。第二,GPT表现出强烈的“自组织”能力,也就是前文讲过的“涌现”和“思维链”。不需要人为给它安排什么组织,它自己就能长出各种组织来。第三,也许是最神奇的事情一GPT用同一个神经网络架构,似乎就能解决表面上相当不同的任务!按理说,画画应该有个画画神经网络,写文章应该有个写文章神经网络,编程应该有个编程神经网络,你得分别训练。可是事实上,这些事情用同一个神经网络就能做。
GPT 证明了,语言系统是个简单系统!GPT 能写文章,说明在计算上,写文章是一个比我们想象的更浅的问题。人类语言的本质和背后的思维,已经被一个神经网络给捕捉了。在沃尔夫勒姆眼中,语言无非就是由各种规则组成的一个系统,其中有语法规则和语义规则。语法规则比较简单,语义规则包罗万象,包括像“物体可以移动”这样的默认规则。从亚里士多德(Aristotle)开始就一直有人想把语言中所有逻辑都列出来,但是从来没人做到一现在GPT给了沃尔夫勒姆信心。
总而言之,GPT的底牌是:它虽然结构原理简单,但是已经在相当程度上拥有人脑的思维。现在还没有一个科学理论能完整解释它为什么能做到,但是它做到了。GPT的命门也是因为它太像人脑了:它不太擅长做数学计算,它不是传统的计算机。这也解释了为什么GPT很擅长编程,却不能自己执行程序:编程是语言行为,执行程序是冷酷的计算行为。
ps:我试过用C语言或者R语言转换为Python到jupyter notebook里使用,相当可以!
简单说,人类的所有所思所想,发明过的所有概念,所有“语义”,都可以用数学组织起来。而这意味着智能不是随便排列组合的字符,智能应该有某种数学结构,不是漫无边际的。我斗胆猜想,我们可以用研究数学一具体说是几何学一的方法研究智能,数学也许能帮我们寻找新的智能。
ps:检验一个人的数学能力,不是看他考试能考多少分的,这是个必要不充分条件。真正能懂数学的,是在思维逻辑层面懂的为什么。
你可能会注意到,跟ChatGPT对话,无论用中文还是英文,得到的答案并没有实质的不同,其内容、质量和行文风格都差不多。当然,如果你问的是跟中国历史文化相关的事,比如甲骨文中某个具体的字的意思在历史上有什么演变,那的确应该用中文。但是对于一般的问题,比如从地球去火星怎么走最近,你用什么语言并不重要。
这是为啥呢?因为语言模型并不是用“语言”推理的一它是用“语义向量”来推理的。向量是个数学概念,你可以大致理解成坐标系中指向的一个点。GPT以及任何语言模型,包括之前的自然语言处理算法,都要先建立一个“向量空间模型”(Vector Space Model)。这个向量空间是个多维的、理论上可以无穷维的坐标系,每个词语都被映射到这个空间中的一个点。
ps:文科生看到这玩意就头疼了。我的专栏还是有门槛的,所以受众量是不大的。
语义几何学也许能解释为什么GPT自己学会了真实世界中的一些常识。要知道语义的向量表示不可能是精确的,都会有一定的误差和模糊性。模型完全可以从你教过的语义向量的边缘自行摸索出一些你没教过它的关系出来,它可以用数学方法填补一些空白。
类原本以为宇宙中会有无限种物质,但是元素周期表一出来,我们意识到质子和中子只有这么多稳定的组合,宇宙中只能有这么多种原子。那么语义向量空间会不会告诉我们,人类只能有这么多种语义呢?当然,就算语义是有限多的,语义的组合也是无限的,而且不同文化背景中的人对同一个语义的体验也不一样,所以我们不用担心智能被AI穷尽。
智能是星辰大海,数学似乎已经给我们提供了一张地图。
ps:数学好一直是具有优势的(不是数学成绩好,而是真正喜欢数学思维)
第二章:当AI进入人类社会
《麻省理工学院斯隆管理评论》(MIT Sloan ManagementReview)曾经在2020年做过一项调查,发现有59% 的商业人士说自己有一个AI战略,有57%的公司已经部署或尝试了某种 AI方案-可是只有11%的公司,真正从AI中获得了财务利益。
蒸汽机、电力、半导体、互联网,这些都是通用技术。而通用技术,都不是一上来就能创造巨大财富的。比如1987年,经济学家罗伯特·索洛(RobertSolow)就有个感慨,说我们这个时代到处都能看到计算机,唯独生产力统计里看不见计算机。其实那很正常,因为通用技术刚出来不会立即改造经济活动。AI也是一种“通用技术”。
他们认为,通用技术要真正发挥生产力效能,需要经过三个阶段。
第一个阶段叫“点解决方案”(The Point Solution),是简单的输入端替换。比如,用灯泡比蜡烛方便一点,用电力做动力有时候会比蒸汽动力便宜一点,你可能会有替换的意愿。你的生活方便了一点点,你的成本降低了一点,但是仅此而已。
第二个阶段叫“应用解决方案”(The Application Solution ),是把生产装置也给更换了。以前的工厂用蒸汽做动力时,都是一根蒸汽轴连接所有机器,蒸汽一开,所有机器都开动。改用电力之后,工厂发现,如果每台机器都有独立的电源,那就完全可以用哪台开哪台,岂不是更省钱?但这并不容易,因为这意味着你必须对机器进行改造,什么机床、钻头、金属切割器、压力机,都得根据独立电源重新设计。这是需要时间的。
第三个阶段叫“系统解决方案”(The System Solution ),是整个生产方式的改变。蒸汽时代的厂房,因为要用到蒸汽轴,所有机器都必须布置在中央轴附近。用上电力,你可以随处安装插头,机器可以放在工厂里任何一个位置,那么你就可以充分利用空间,没必要把所有机器集中在一起。这就使得“生产流水线”成为可能。这已经不是局部的改进,这要求生产方式和组织方式都得到系统性的变革。
ps:AI也会是如此。到目前为止,我们对AI的应用还处在点解决方案和一定程度上的应用解决方案阶段,并没达到系统解决方案阶段。这就是为什么AI还没有发挥最大的作用。
我们设想一下,如果天气预报非常准,你就不必每天带伞,你就可以把规则变成一个决定:根据天气预报决定是否带伞。如果AI能充分考虑去机场的路上交通有多拥堵、航班会不会晚点、你到那儿的时候安检队伍大概有多长,给你提供一个精准预测,你就可以取消提前4个小时出发的规则。对吧?再进一步,我们何必还先问AI的预测,自己再做决定呢?干脆直接把决定权交给AI,让AI安排你带不带雨伞、什么时候出发,岂不是更好?年轻人经常因为考虑不周而遇到麻烦。成年人为了避免麻烦给自己制定了很多规则,实则换成了另一种麻烦。有的人很幸运,身边有人随时提醒。而更幸运的人则根本无须操心,你们安排就好,我都行。到时候你会很乐意把决定权交给AI。这就是预测取代规则。
如果我们能用AI的逻辑重新组织教学,让每个学生接受真正个性化的学习,让每个老师发挥个性化的能力,学校会是什么样子?可能有的老师特别擅长帮助有阅读困难的学生,有的老师特别擅长带数学竞赛,让老师跟学生进行配对,让AI帮助老师掌握每个学生的进度,那才是系统性的改变。每次当你思考怎么用AI的时候,都可以想想当初的电力。我们的生产、生活和社会很快就会围绕AI重新设置,这一切才刚刚开始。
医院,是一种非常保守的机构。可能正因为有太多新技术等着医院去采纳-每采纳一个新技术,都要重新培训医生,重新审议流程;新技术还有风险,测试时挺好的,一旦用上了,可能会有问题;新技术还会影响各部门的权力分配,产生各种连带问题……所以医院要改革是最难的,它很不愿意采纳新技术。
ps:我真的非常想要吐槽我们的医院,医院改革很多时候都是表皮,很难触及很深,涉及大大小小的利益集团,真若是利用好AI,确实可以实现各种医疗机构的高质量发展。
因为一家企业的波动而引起整个供应链的大幅波动,这在供应链管理领域叫“牛鞭效应”(Bullwhip Effect)。牛鞭效应会导致库存增加、服务水平下降、成本上升等问题。这个思想实验告诉我们两个道理。一个道理是,要用AI,最好整个社会一起协调,大家都用AI。另一个道理是,应用AI可能会在一时之间放大社会波动,我们最好小心行事。
ps:很多时候都是系统性问题,这让我突然想到黄奇帆老师最近的新书《重组与突破》,也都是解决系统性问题的。
AI预测是更好地面对市场的不确定性;计划经济却是要消除不确定性。经济学家法兰克·奈特(Frank Knight)提出过一个关于市场不确定性的理论。市场不确定性的根本来源是人的欲望的不确定:今年喜欢红色,明年喜欢蓝色,我爱喜欢什么就喜欢什么,你管不了。市场经济,是企业家猜测消费者喜欢什么,甚至可以发明新的喜欢。这本质上是赌,赌错了你会损失惨重。在计划经济中,人们放弃了“赌”,认为上面安排生产啥我就生产啥。你的确可以在相当程度上收获安全和稳定,但是你必须让渡自主性,一切都得服从“上面”的安排。
ps:既要又要不行的
ChatGPT 出现仅几个月,就诞生了成百,也许上千个AI应用,可以说是群雄并起。我在X上追踪各路消息,感觉现在简直是人人都能自己搞个AI应用:从网站到手机App、浏览器插件,甚至开源软件……哪怕你以前不熟悉编程开发都没关系,因为可以让ChatGPT 替你做编程。
ps:国外的独立开发者很多很多,我们国内的我只知道几个。
AI确实是前所未有的变革,但是商业的逻辑并没有变。如果你熟悉商业逻辑,就能想明白为什么Google没有率先推出ChatGPT。这是一次典型的颠覆式创新。大语言模型最关键的一个技术是Transformer架构,Transformer 就是Google 发明的。Google有很深的技术积累,自家就有不止一个语言模型。可是一直等到微软把搜索和GPT模型结合,推出了BingChat之后,Google才坐不住了,在2023年2月7日推出了一个叫Bard的竞品。结果测试表现不好,导致股价大跌。
ps:Google 为什么起了个大早,却赶了个晚集呢?传统搜索很容易在搜索结果中插入广告,那些广告收入是Google 的命脉所在。对话式搜索消耗的算力是传统搜索的10倍--这可以接受,可是广告怎么办?你很难在聊天中插入广告。Google显然不想自己颠覆自己,它不会主动搞这种新模式
克里斯坦森说,一项技术变革哪怕再激进,只要改善的是传统的商业模式,就不会发生颠覆式创新一只有当这项技术改善的不是传统指标时,才会出现颠覆。
ps:我身边有很多老师都在研究颠覆式创新
我特别想提醒的一点是,现在中文已经不再是一个障碍了。OpenAI没有使用很多中文语料训练,但是ChatGPT可以讲很地道的中文,也许比国产大模型更地道。中国公司必须从别的方面考虑差异化……
OpenAI已经向包括印度在内的世界多数国家及地区的用户开放了ChatGPT,但是还没有向中国内地用户开放。这个局面只对一些企业是好事,对中国是坏事。
硅谷任何一个有关AI的会议上都有很多很多中国人,可以说当今大模型人才的半壁江山是中国人。GPT出来以后,网上各种流行应用也有很多是中国人做的,只不过他们就职于美国的微软、Google、斯坦福大学等。所以,如果中国在AI上落后,绝对不是因为中国人不行。既然中国人很行,那我们就有理由相信,我们在AI上不会永远落后。
想象你有个特别厉害的助手,名叫龙傲天。他方方面面都比你强,你连思维都跟他不在一个层面上。你常常不理解他为什么要那样决定,但是事实证明他替你做的每一个决定都比你自己原本想的更好。久而久之,你就习惯了,你事事都依赖他。龙傲天的所有表现都证明,他对你是忠诚的。但是请问刘波,你真的完全信任他吗?
现在 AI的智慧是难以用人的理性解释的。为什么抖音向你推荐了这条视频?你质问抖音,抖音自己都不知道。也许抖音设定的价值观影响了AI的算法,也许抖音根本就不可能完全设定 AI的价值观。社会和民众都要求对AI算法进行审查,可是怎么审查?这些问题都在探索之中。
ps:任重而道远
第三章:置身智能,你更像你
人到底有什么能力是不可被AI替代的?每个人都需要思考这个问题。前文提过的《权力与预测》这本书中有一个洞见,我认为有可能就是AI和人分工的指导原则。简单说,就是双方共同做出决策,其中AI负责预测,人负责判断。
你犯的到底是预测错误,还是判断错误?决策=预测+判断。预测,是告诉你发生各种结果的概率是多少;判断,是对于每一种结果,你在多大程度上愿意接受。
AI很擅长预测天气概率,但是判断一个天气状况带来的后果,需要更多具体的,也许只有你自己才知道的信息,所以做判断的应该是你,而不是AI。AI 时代的决策=AI的预测+人的判断。也就是说,我们应该让预测和判断脱钩。以前所有的决策都是人负责预测,人负责判断,现在则应该是AI负责预测,人负责判断。
ps:很有启发
GPT对比于自然语言处理,就如同AlphaGo Zero对比于人类棋手总结的围棋套路。事实证明,先靠人类总结规律再教给计算机是个笨办法,是让人的思维拖累了计算机的思维。原来让计算机直接暴力破解才是最根本、最快、最好的办法。
冯焯林想问万Sir,对于Data Science(数据科学)以及它和AI的关系有什么看法?如果目前你的儿子就要选修硕士的话,你怎么建议?万维钢:我大概会建议他选数据科学。
所以“赌”一门过于狭窄的技术是危险的。回到问题上来,数据科学的应用范围更广,不仅限于AI。就算将来AI接管数据分析,你还可以用相关的知识帮助别人理解数据和根据数据做决策,所以也许相对更安全。
ps:数据科学与数据管理这两大方向我们确实要重视起来。上海在数据试点这方面已经遥遥领先了。
AI视角之下,我们得重新考虑,什么样的成长才是人的成长。传统的教育是居高临下的姿态。主动权在学校、老师和家长这些“教育者”手里,学生作为“教育对象”是被动的。以前我们可以把这种教育比喻成园丁栽培植物:教育者安排好环境,浇水,施肥,时而选拔;教育对象根据要求成长。
但是现在我们有个更精确的类比一那是训练AI的方法。事先划定学习范围,把标记好什么是对、什么是错的学习材料喂给受训练对象,然后考核训练结果一这种教学方式,在人工智能界叫作“监督学习”,是最基本的训练AI模型的方法。这样教出来的学生连GPT都不如。要知道,GPT主要用的是“自监督学习”(Self-Supervised Learning)和“无监督学习”,它不用你标记数据,能自己找规律,它天生设定就是能知道老师不知道的东西。
但是我们看那些创造性人才,什么科学家、艺术家,特别是企业家,他们正好有三个相反的特点。第一,回报不是来自上级领导的认可,不是因为满足了什么标准,而是来自社会、来自消费者,有时候甚至是来自自己的认可。这样的认可没有标准,也许今年的“好”明年就过时了。他们甚至可以自己为社会定义什么叫“好”。第二,他们并不特别在乎自己做错过什么,不太重视短板,他们要的是长板。做不好的项目可以不做,他们关心的是,在自己能做好的项目上,自己是否好到了足以赢得世人认可的程度。第三,乐于追逐新事物。越新的东西越有可能让他们获得竞争优势。这样的人大概不怕被AI取代,因为他们走的是跟AI不一样的成长路线。他们身上没有AI那种机械味,他们有更健全的人格。其中最重要的一点就是自主性一他们自己判断什么是好、什么是坏,自己决定学什么和做什么,想要在世界上留下自己的痕迹。他们是自我驱动的人。
ps:我一直以来都不喜欢传统式的教育(虽然我们都是传统教育者的既得利益者)。我这个人不喜欢什么标准和标签,我觉得真正实现自我价值的来源就是是否对社会对他人起到促进作用,因为知识和信息是不属于能量守恒定律的,不是我把信息传给你我就没了,而是这使得双方都获得了增量,这确实没问题的。
我更崇尚自我教育,这是来自自主性、自驱力、好奇心等等等,这是一个人进步最快的教育——自我教育。我们每个人想要突破这个社会被动式的输入就必须要做取舍,舍弃被动式的信息,去主动获得新鲜信息。
这样的人物与其说是被训练出来的,不如说是被纵容出来的。学术界对此有些新研究,我讲两点。一个是积极情绪的作用。情绪不只是一种“感觉”。现在最新的认识”是,情绪决定了大脑当前的心理模式一不仅影响行为,而且影响认知。情绪不只决定你对情绪事件的看法,而且影响你对其他事情的看法。
以前科学家比较重视研究消极情绪,现在意识到了积极情绪的重要性。积极情绪不仅仅是一种奖励或者享受,还会让你的行为和认知变得更积极。再比如骄傲,一般人认为骄傲是不好的,会让人自满、犯错,但骄傲这个情绪也会让你更愿意跟别人互动,更愿意分享自己的成果和经验,能让人更了解你,有利于提高你的地位。
ps:我骄傲啊!
在认知方面,积极情绪最大的作用是让我们更愿意去探索陌生的、新奇的、未知的事物。如果你很快乐、很热情、有充分的安全感,你会更敢于冒险,你会更有幽默感,你会更乐于助人。
你的积极情绪还会影响周围的人,别人会更愿意跟你合作,能带来新的社会关系,这也是“构建”。这可能就是为什么发达国家的研究”表明,创新型人才更多出身于富裕家庭-他们既有余闲,也有余钱,从小见多识广,不用整天只想着考试。
但是光有积极情绪好像也不行。有些人确实是财富自由了,家里有十几套房能收租,但好像没表现出什么创造力。他们的注意力确实被拓宽了,整天讲究一些平常人不讲究的东西,比如戴个手串,弄个“古玩”,吃个饭还要有一大堆规矩,等等,敏感度都用在没用的地方。
ps:确实不值得羡慕
快乐让人积极,积极让人开拓视野;宽容让人自由,自由让人自我驱动。要想培养出创新型人才,需要家庭和社会两方面提供条件。家庭最好是富足的一至少让孩子感觉不缺什么东西,日常情绪都比较积极正面;社会则必须是宽容的,这意味着如果一个人上头了,认准一件事非得干,你先别管好坏,尽量允许他折腾。相反,如果一切都以考试为中心,什么都讲究做“对”,讲究符合标准。这会让学生处于动辄得咎、充满威胁感的状态
AI式教育最大的问题是学生缺乏自主性。什么都是别人要他做,而不是他自己要做。机器天生就是被动的。人最不同于机器的特点就是想要主动。从小受气、在家和学校处处被动的人,等长大后真可以主动了,往往不会往正事上主动。孩子如此,成人也是如此。一天到晚抠抠搜搜、战战兢兢,好不容易取得点成绩还要保持低调,该快乐不敢快乐,永远被人管束,下班到点了都不敢走,真遇到机会也没了动力,这样的人能有多大出息?
ps:别骂了,别骂了
对AI可以管,对人才只能“惯”。其实让孩子自己折腾,他也翻不了天,还会慢慢成熟起来。只有这样你才能得到一个完整的人。你必须遏制自己的控制欲。你只能等待。
ps:还是那句话:“少管”
政府是怎么运行的,也不理解各种经济政策,根本就不关心政治。政府做的很多事情是高度专业化的,它如果不想让你知道,你就算是个内行也没用;甚至就算你知道了,发声了,也没有多少人在乎。当然现代化国家都有媒体监督,有言论自由,有民主选举,可是再怎么样那也是代议制民主,都是政府在操纵政策。
大多数商品都得讲品牌和市场定位,尤其网络时代还得考虑跟用户的互动。为此你需要做到两点:第一,你得非常理解现在的用户想要什么;第二,你得让人认可你。也就是认识和被认识,理解和被理解。而这些,恰恰是AI所不能给的。
怎样培养门槛领导力呢?查特拉思说有4个途径:静心沉思,自主思考,具身智能,增长意识。
智商只是一个数字,并不能概括一个人所有的智能维度。现在认知心理学家把人的智能大体分成9类:1.逻辑和数学;2.语言;3.空间;4.欣赏大自然,了解生物;5.音乐;6.身体和感觉的协调;7.了解你自己;8.人际关系,也就是对他人的同情之了解;9.存在智能(existential intelligence )
ps:差的还远嘞!
情感计算为什么这么难?查特拉思列举了4个理由,来解释为何AI在短期内既不能学会人的情感,更不能理解人的意识。
第一,检测情感非常困难。所谓看脸就能判断人的情绪的“微表情”学说已经被证伪了。不同文化、不同场景下,人的情感流露可以很不一样。人非常善于伪装和隐藏自己的情感一这是进化给人的社交本能。你不可能搞一套编码让AI自动识别。
第二,人都是在实践中学习理解别人的情感的。你从小跟朋友们摸爬滚打,你惹怒过别人,你被人惹哭过一通过这些互动反馈你才学会了情感。AI没有这样的学习机会。
第三,人的情感十分复杂。经过几百万年的演化,人脑的逻辑运算能力虽然一般,但是情绪运算能力绝对无比发达,是“系统1”快速运算。我们能在复杂的环境中感受到微妙的危险,能自己给自己建构情绪,能用直觉做出难以名状的判断。情感会受到当前环境、人生经历、文化智慧等多方面的影响,以至于有DeepMind的科学家曾经对查特拉思说,这么复杂的计算可能是AI算力所无法达到的。
第四,人有一些感觉是无法用语言表达的。意识,是难以言传的。
ps:对啊,人的情感都是在实践中学习认识到的,交女朋友也是,只看书是不行的,你无法应对多种多样复杂的突如其来的状况。而且女生的情绪永远是个迷。
但是,不论GPT将来再怎么厉害,我认为人类解读还是需要的。因为人类解读提供的不仅仅是个内容简介,它带有解读人主观的视角。这本书就摆在这里,它到底哪个内容重要、哪个内容不重要,它的观点对在哪儿、错在哪儿,每个人都有自己的看法。你听解读往往不只是想听个内容简介,你还想知道解读人个人的东西。这种主观的东西可以好,也可以坏,但是它能有多坏就能有多好,它有巨大的发挥空间。
ps:完全赞同,我试过很多次,AI无法写出这个专栏,我还是苦哈哈的花时间码字,因为我知道哪些内容是我的读者所需要的,是我所希望展示给他们的。
我认为GPT短期内做不到这个。但是,即便将来GPT写得比我好,乃至于读者一读就懂,我认为你可能也需要解读人,因为你想听听另一个人对此有什么说法。这就如同我们看了个电视剧会上豆瓣看看评论--哪怕那些评论说的跟你想的一样,你也会觉得是个安慰。
AI再厉害也得听人指挥,最终做决策的必须是人,用中国话说这叫“底线思维”;一切生产、一切科研都是为了人。人的需求必须是各项事业的出发点和落脚点,所以理解人永远都是最重要的智能。
有人表扬你的时候,你的胸口会有一种紧缩感。感到爱意的时候,你的胃可能会翻腾。而且情绪和身体的互相影响是双向的。你在刚刚走过一个摇来摇去的索道、心跳加速的情况下遇到一个异性,那个心跳信号会让你以为自己遇到了爱情。在饥饿状态下逛超市会让你购买更多的东西。人的肠道神经系统被称为“第二大脑”,这使得经常情绪紧张的人也会经常肚子疼。我们很多时候是通过身体的反应了解自己的情绪的。
ps:我想起来了肠道菌群的研究....
诗歌,是人类最常见的一种表达情感的方式,而诗歌具有鲜明的身体烙印。诗歌之所以是诗歌,是因为它有韵律和节奏;韵律和节奏之所以对人有效,根本上是因为人要呼吸。AI也能写诗,它可以把格律做得很严谨,但是我们预计它很难掌握好节奏感中饱含的情绪,因为它没有嘴和呼吸系统,它不能体会一首诗歌大声读出来是什么效果。哪怕是最先进的GPT-4,作最擅长的英文诗,韵律也很蹩脚。
从柏拉图到启蒙运动,再到现在很多人鼓吹的“意识上传",都是把人等同于大脑,忽略身体。比如电影《黑客帝国》里,人都被泡在液体里,接一堆管子,身体成了电池,只有大脑是活跃的,照样能在虚拟空间里体验完整人生。但是查特拉思认为,这些缸中之脑不是完整的人。因为身体对人的作用并不仅仅是维持生存,身体还提供了情感。身体,是大脑不可缺少的一个信息来源。如果考虑到肠道神经,身体还是人思考过程中的关键一环。
绝对的“独立思考”恐怕是不存在的,毕竟每个人都在从外界联网提取信息。但是有了身体,我们至少可以“自主思考”。有了身体,就没有任何力量能完全控制对你的信息输入。查特拉思观察,有具身智能的团队往往在文化上更有活力,在道德问题上更深思熟虑。因为这样的团队有情感交流。但更重要的是,组成这样团队的人具有不可控性。他们不是机器,不是你设定他怎么想他就怎么想,他们都会自主思考。正是因为每个人的自主思考,团队才有了不同视角,才有创造性和活力,才有生成性的发挥,才能处理复杂问题。
人工通用智能(Artificial General Intelligence,AGI)指的是具有与人类智能相当的能力的人工智能系统。与现有的人工智能(例如我,基于GPT-4的ChatGPT)相比,AGI将具备一系列更加先进和全面的技能。这些可能包括:
1.独立学习:AGI将能够像人类一样,从零开始独立学习各种知识和技能,而无需大量预先编码的数据或训练。
2.跨领域知识与技能:AGI能够在多个领域(如科学、艺术、哲学等)展示出与人类相当的知识和技能,而不仅限于特定领域。
3.逻辑推理与创造力:AGI将具备强大的逻辑推理能力,能够像人类一样进行复杂的思考、解决问题和创新。
4.情感理解与共情:AGI将能够理解和处理人类情感,与人类进行更为深入的情感交流,从而更好地满足人类需求。
5.自主意识与意图:AGI将具有一定程度的自主意识和意图,能够在没有人类指导的情况下制定目标并实现目标。
6.适应性与泛化能力:AGI将能够迅速适应新环境和情境,对不同类型的问题和任务具有较强的泛化能力。
7、长期规划与决策:AGI将能够像人类一样进行长期规划和决策,考虑未来的可能性和风险。
8.协同与社交能力:AGI 将具备较强的协同和社交能力,能够与人类和其他AI系统合作,共同完成任务。
我一直强调,AI再厉害,决策权也一定要掌握在人手里。其实那不仅仅是为了安全,也是为了感觉。来自机器的命令和来自人的命令是不一样的,因为来自机器的称赞和来自真人的称赞不一样,来自机器的善意和来自真人的善意不一样。
第四章:用已知推理未知
面对一个新事物,你一上来就觉得它很厉害,然后就到处宣扬它有多厉害,这是一个有点冒险的行为。因为可能浪潮很快就过去了,最终事实证明这东西并没有当初你想象的那么厉害,你就会觉得当时自己挺傻的。
但我认为这才是对的。一见到新事物就很激动,一惊一乍,恰恰证明你心仍然会澎湃,你没有陷入认知固化。这比看见什么东西都用老一套的世界观去解释,说“这我30年前就搞明白了”,要强得多。要允许自己继续长进,你就得敢于让人说你傻。
ps:我们回头看自己的行为,如果会觉得很shaX,那么说明你一直在进步。
GPT从“预测下一个词”中自动涌现出语义理解来,这是通往AGI的最关键一步,这大概是21世纪以来人类最重要的发现,是革命!我看只有100年前量子力学的革命能与之媲美。未来的学者们会在很多年里一次又一次地回忆2023 年。我看不用说什么图灵奖,这个发现比绝大多数诺贝尔奖重要得多。当然诺贝尔奖中没有计算机科学这个项目,但如果你同意AGI是有生命的,也许应该给它颁个“诺贝尔生理学或医学奖”。
2023年4月初,阿尔特曼在麻省理工学院做了一个报告,说OpenAI不再追求给GPT增加参数了。这是因为,他估计扩大模型规模的回报会越来越少。所以阿尔特曼说现在的研究方向是改进模型的架构,比如Transformer就还有很大的改进空间。当时阿尔特曼还表示OpenAI并没有在训练GPT-5,主要工作还是让GPT-4更有用。这也符合OpenAI之前的暗示:让AI演化得稍微慢一点,让人类能够适应……
ps:热热乎乎新鲜出炉啊
乔布斯去世后,蒂姆·库克(Tim Cook)成为苹果公司的CEO,结果在很长一段时间内,苹果每次发布新产品都有人说没了乔布斯苹果就不行了。可事实明明是,每一代iPhone 都比之前的更好。现在马斯克又被普遍认为是最聪明的人,人们说他发明了这个,发明了那个……而事实是,马斯克只是一个领导而已--他要做的不是自己发明什么东西,而是找最聪明的人替他发明东西。把公司行为解释成领导的意图,这也是一种拟人化。
ps:一个领导者的个人魅力是大众第一眼看到的
中文世界有个流行的说法,说对于AI和人类未来的关系,有三种信仰。看看你相信哪一种。第一种是“降临派”,认为AI将主宰人类。比如假设OpenAI发明了最强AI,也许是GPT-6,几乎无所不能,别的公司再也没法跟它抗衡…于是以OpenAI为代表的一批精英人物就用最强AI统治人类,甚至干脆就是最强AI直接统治人类。
第二种是“拯救派”,认为科技公司会找到某种保护机制,比如在技术上做出限制,确保人类能够永远控制AI。AI只是人的助手和工具,而绝不能统治人类。
第三种是“幸存派”,认为AI太强了,而且会失控,以至于根本不在乎人类文明,甚至会对人类作恶。人类只能在AI肆虐的环境中寻找幸存的空间。
ps:共存派
你要知道,康德讲道理,比如谈论道德,从来不是说“我希望你做个好人”或者“我理想中的社会应该如何如何”,他都是用逻辑推演得出的结论一只要你是个充分理性的人,你就只能同意这么干,否则你就是不讲理。我们需要这种水平的论证。
这是一个有点烧脑的学说,包括三个核心观念,我尽量给你讲得简单一点。只要你能看进去,我敢说你将来会经常回想起来。你要先充分理解一个最关键的数学概念,叫作“计算不可约性”(Computational Irreducibility )。这是沃尔夫勒姆的招牌理论,更是让你对未来有信心的关键,我甚至认为每个合格的现代人都应该了解这个思想。
一切自然科学、社会科学理论,各种民间智慧、成语典故,我们总结出来的一切规律,这些都是对现实世界的某种约化。有了约化,你就有了思维快捷方式,可以对事物的发展做出预测。
数学家早已证明,真正可约化的,要么是简单系统,要么是真实世界的一个简单的近似模型。一切足够复杂的系统都是不可约化的。数学家早就知道,哪怕只有三个天体在一起运动,它们的轨道也会通往混沌的乱纪元一不能用公式描写,不可预测。用沃尔夫勒姆的话说,这就叫“计算不可约化”。
计算不可约性告诉我们,任何复杂系统本质上都是没有公式、没有理论、没有捷径、不可概括、不可预测的。这看起来像是个坏消息,实则是个好消息。因为计算不可约性,人类对世间万物的理解是不可穷尽的。
经济系统是计算不可约化的,谁也不可能精确预测一年以后的国民经济是什么样子;但是你总可以找到一些局部有效的经济学理论,比如恶性通货膨胀会让政治不稳定,严重的通货紧缩会带来衰退一这些规律不保证一定有效,但是相当有用。而这就意味着,虽然世界本质上是复杂和不可预测的,但我们总可以在里面做一些科学探索和研究,总结一些规律,说一些话,安排一些事情。绝对的无序之中存在着无数个相对的秩序。
ps:地理系统如天气、地震等等都是计算不可约
沃尔夫勒姆的第二个核心观念叫“计算等价原理”(Principleof Computational Equivalence ),意思是所有复杂系统--不管看起来多复杂-都是同等复杂的,不能说哪个系统比哪个系统更复杂。
这就意味着,从数学上讲,人类文明并不比一袋空气分子更高级,人类社会也不比蚂蚁社会更值得保留。你看这是不是有点“色即是空”的意思。其实每个真有学问的人都应该是一个“不特殊论者”。以前的人以为人是万物之灵长,地球是宇宙的中心;后来发现,地球不是宇宙的中心,人类也只是生命演化的产物,我们的存在跟万物没有什么本质的特殊之处。
现在AI模型则告诉我们,人的智力也没有什么特殊之处。任何一个足够复杂的神经网络都是跟人的大脑同等复杂的。不能认定人能理解的科学理论就高级,AI识别药物分子的过程就低级。既然都是平等的,硅基生命和碳基生命自然也是平等的。那面对 AI,我们凭什么认为自己更有价值?
ps:碳基生物容易自大
这就引出了沃尔夫勒姆的第三个核心观念:人的价值在于历史。
我们身上的基因背负了亿万年生物演化的历史包袱,我们的文化承载了无数的历史记忆。我们的价值观,本质上是历史的产物。这就是为什么中国人哪怕定居在海外,也最爱琢磨中国的事。这就是为什么你关心自己的亲人和好友,胜过关心那些更有道德或者更有能力的陌生人。这也是为什么我们很在意AI像不像人。在数学眼中,一切价值观都是主观的。
AI的代码是我们临时编写的,而不是亿万年演化出来的;AI 的记忆是我们用语料喂出来的,而不是一代代“硅基祖先”传给它的。AI至少在短期内没有办法形成自己的价值观。它只能参照--或者说“对齐”(alignwith)--我们的价值观。这就是人类相对于AI最后的优势。
你的主动性的价值高于一切AI。所以只要AI还不完全是人,输出主动性、决定未来发展方向的就只能是人,而不是AI。
所以,未来AI跟我们真正的关系不是降临,不是拯救,也不是幸存,而是“共存”。我们要学习跟AI共存,AI也要跟我们、跟别的AI共存。
张华考上了北京大学;AI取代了中等技术学校;我和几个机器人在百货公司当售货员一计算不可约性,保证了我们都有光明的前途。
早在1950年,控制论之父诺伯特·维纳(Norbert Wiener )就出了本书叫《人有人的用处》(The Human Use of HumanBeings)®,认为生命的本质其实是信息:我们的使命是给系统提供额外的信息。维纳这个观点直接影响了克劳德·香农(ClaudeShannon )。香农后来发明了信息论,指出信息含量的数值就是在多大的不确定性中做出了选择。
ps:我爱信息
经济学家已经总结出一套规律:自动化程度越高,生产力就越高,产品就越便宜,市场份额就越大,消费者就越多,生产规模就必须不成比例地扩大,结果是企业需要雇佣更多的员工。自动化的确会取代一部分岗位,但是它也会制造出更多新岗位。
沃尔夫勒姆有个观点,人最核心的一个能力,是自己决定自己关心什么、想要什么。这是只有你才能决定的,因为这些决定的答案来自你的历史和你的生物结构。这也是至关重要的战略选择,因为如果选不好,你的路可就走岔了。
我还是那句话,将来的社会必定是个人人如龙的社会。孔子、苏格拉底他们那个轴心时代之所以是轴心时代,就是因为农业技术的进步把一部分人解放出来,让他们可以不用干活,而是整天想事,让社会有了阶层,生活变得复杂。现在AI来得太好了,我们正好回归轴心时代,个个学做圣贤。
列宁说过这样一句话:“有时候几十年过去了什么都没发生;有时候几个星期就发生了几十年的事。”(There are decadeswhere nothing happens;and there are weeks where decades happen.)ChatGPT 发布之后的几个月,就是让人有恍如隔世之感。我们被 AI的突飞猛进给震惊了,我们的一些观念发生了巨变。
第一个教训是:直觉高于逻辑。我先说一个最基本的认识。到底什么是AI?以我之见:AI=基于经验+使用直觉+进行预测。假设你用以往的经验数据训练一个模型,这个模型只关心输入和输出。训练完成之后,你再给它新的输入,它将给你提供相当不错的输出,你可以把这个动作视为预测。这就是AI。你要问模型是怎么从这个输入算出来那个输出的,回答就是说不清,是直觉。
学者对“理性”的推崇,只不过是漫长的智能演化史中的一段短暂的插曲。用神经网络直接从输入感知输出,才是更根本、更普遍、更厉害的智能。AI的出现只是让智能回归了本性。我们意识到,形式逻辑只能用于解决简单的、参数少的、最好是线性的问题;对于真实世界中充斥的像如何控制磁场线圈才能得到特定形状的等离子体这种复杂的、参数多的、非线性的问题,终究只能依靠神经计算。
ps:线性问题时代过去太久了,迎接复杂混沌时代
人的肌肉力量非常有限,你就是一天吃5顿饭又能多长几斤肌肉?工程机械的力量可以很大很大,但是能做的事情很有限,毕竟文明需要的更多是精细而不是大力,没有谁以“我们国家有世界最大的起重机”为荣,更何况起重机的力量也有上限。对比之下,知识似乎是无穷的,你可以无上限地使用,所以崇尚知识很有道理。
我要讲的第二个教训是,算力就是王道。DeepMind有一位计算机科学家叫理查德·萨顿(RichardSutton ),他是“强化学习”这个AI算法的奠基人之一。早在 2019年,萨顿就在他的个人网站上贴出一篇文章,叫《苦涩的教训》(The Bitter Lesson)。他认为,过去70年的AI研究给我们最大的教训是,撬动算力才是最有效的方法。
ps:往后多去看看那个地方有数据中心和算力中心,这是大趋势
在无穷的算力面前,人类的知识只不过是一些小聪明。萨顿总结了一个历史规律,分4步:1.人类研究者总想构建一些知识教给AI;2.这些知识在短期内总是有用的;3.但是从长远看,这些人类构建的知识有个明显的天花板,会限制发展;4.让 AI 自行搜索和学习的暴力破解方法,最终带来了突破性进展。算力才是王道,知识只是干扰。
如果我是个理工科研究生,我现在立即马上就要自己学着训练一个AI模型。趁着大多数人还不会用,这是一个能让你在任何领域大杀四方的武器。世间几乎所有力量的增长都会迅速陷入边际效益递减,从而变慢乃至停下来,于是都有上限。唯独计算机算力的增长,目前似乎还没有衰减的迹象,摩尔定律依然强劲。如果这个世界真有神,算力就是神。你要理解这个力量,拥抱这个力量,成为这个力量。
关键在于,现在已经有很多现成的工具供你使用。而且我们个人要的不是GPT那样的大语言模型,如果要用那种也应该是把现成的模型拿过来,我们只需要用本地数据微调,而不是重新发明轮子。我们要训练的是“专用AI”,也就是针对特定问题、特定数据的模型。
ps:普通人只能到微调这一步了,不过够用了
目前来说,算力是最容易弥补的短板。英伟达最新的GPU买不到的话,买到差一点的也能用,而且还可以租用云服务,这是花钱就能解决的问题。算法方面,一般的应用没有问题,有大量开源的资源:但是像GPT-4这样的顶尖应用,其中有很多细节没有公开,是追随者难以模仿的。决定算法强弱的根本是人才,尤其是顶尖人才在哪里。数据存在一个问题,就是对很多应用来说,一国的数据难以被迁移到另一国使用,所以数据多不见得是优势。还有一个问题是,数据再多,如果被设置了各种壁垒,这家的不让那家用,尤其公共数据都被保密的话,那就更不行了。
ps:未来,数据也是一座神
第五章:实战,让AI为你所用
跟计算机打交道通常需要使用特殊的语言,比如编程语言、命令脚本之类的。但是GPT作为一个语言模型AI,没有自己的特殊语言。我们跟它互动的方式就是人类的自然语言--称为“提示语”(Prompt)。英文也行,中文也行,你该怎么说话就怎么说话,不需要学习什么专业术语。
GPT 可以说已经是一个自身具足的智能,但是我们跟它交流还是得讲技巧和策略。现在有个专门研究怎么跟AI交流的学问叫“提示语工程”(Prompt Engineering )。这就如同要想让一个魔法发挥最大的效力,你得会念咒语一样。
第一条咒语心法非常简单,那就是要准确表达你的需求。很多时候我们根本没想清楚自己要的是什么。
ps:我的专栏里有提示词总结的方法。
让 GPT 生成内容一定要给它提供“具体情境”(context ),包括以下5个方面:1.谁在说;2.说给谁;3.在什么场合之下;4.使用什么风格;5.要达到什么目的。
btw:这第五章总体而言在讲如何用,不会用的自己找我专栏也好,这这本书也好,自己去看,在此不赘述了。
第六章:更大的大局观
这里放一个链接,公众号李自然说的文章——如何搭建一个属于自己的大模型?AI模型定制指南
https://mp.weixin.qq.com/s?src=11×tamp=1716448918&ver=5277&signature=KgS6V7E4DrOyucvhfZZrEGkDNASC9w2nYP6E1coa7nj0b6SC-36zBawcsxCWyIYlXkAeigXdbxcp9QPhrGrKWUsFECYAie1GqfPj7hM-XNIImZKmI-jEbJawLrhNI9r3&new=1
炼制大模型主要分四步:架构、预训练、微调和对齐。
ps:感兴趣的自己去看吧,我不想摘录了,容易劝退观众。
这是一本讲AI的书,但这一节我们不谈AI,专门讲讲“人”。这么多年来一个有意思的现象是,脑科学给AI研究提供了灵感,AI研究也反过来给脑科学提供了思路。和AI一样,人的大脑和身体本质上也是由若干个神经网络组成的。我发现“神经网络的训练和控制”这个视角对个人的成长特别有启发,以至于我在《精英日课》专栏第5季的后半部分反复说“神经网络”这个词。
如此,神经网络构建了我们的本能反应,我们是感性的动物。我们会本能地、自动地做很多事情,而其中一些选择在现代社会中就属于错误。想要少犯错、不平庸,非常困难,因为你是在跟自己的感性本能作对。你需要比你的一些神经网络凶。
一个是控制,一个是改写。先说后者,有点逆天改命的意思。如果考虑到人本质上就是一台生物机器,我们要做的就是从硬件层面升级。简单说,你要升级出一套强势人格来。强势就是高标准。
ps:强势,我认为确实如此。
但在帕里什的语境下,标准不是管理规则。标准是训练神经网络的素材库。垃圾进就会垃圾出,你要想训练一个高水平神经网络,就得确保只使用高水平素材。对雷维斯公平不公平不重要,重要的是别污染我的训练素材。用帕里什的话说就是,“标准会变成习惯,习惯会变成结果”。如果你做的和别人一样,你只能期望得到和别人一样的结果。想要不同的结果就必须提高标准。
平庸的人会因为各种原因降低标准。上一场演出观众爆满,就全力以赴;这一场没几个观众,再加上已经很累了,那尽力就好一-你这不仅仅是对不起观众,你更是对不起自己。你的神经网络被污染了。
你要训练4个神经网络。一个是“自我认识”(Self-knowledge):你得知道自己会做什么、不会做什么,你的长处和弱点,你能掌控和不能掌控的,你知道和不知道的。也就是说,你得知道自己的能力边界在哪里,即巴菲特爱说的“能力圈”。你不能什么事都想做,不要跟人玩别人擅长而你不擅长的游戏。
一个是“自控”(Self-control):驾驭自己的情绪和弱点。一个好思路是把情绪和自己拉开距离,就好像观察外在事物一样对待它们。
一个是“自信”(Self-confidence):相信自己有能力,相信自己的价值。
最后一个神经网络更强势,叫作“自我问责”(Self-accountability )。凯文·凯利(Kevin Kelly)讲过一句话:“成熟的基础是,即使事情不是你的错,也不意味着不是你的责任。”帕里什也是这个意思。
里什事后想来,其实领导是对的。不是自己的错,也是自己的责任。他所有的解释都没有意义,那只是抱怨而已。而抱怨都是在“对世界应该如何运转讨价还价”一你其实应该做的是接受世界的运转。强人不抱怨。强人总是专注于下一步行动,看看做什么对未来更有利。
ps:帕里什的书也放入书单了
帕里什说:“没有成功人士愿意与一个长期受害者共事。只有其他受害者才愿意与受害者共事。”
你做的每一件事,都是在训练自己的神经网络。好好选择你做的事。当心你的思想,它们会成为语言;当心你的语言,它们会成为行动;当心你的行动,它们会成为习惯;当心你的习惯,它们会成为性格;当心你的性格,它会成为你的命运。这段话在英文世界广为流传。
我们还是先把概念精确化。什么叫“犯错”呢?比如,你被某个想法吸引,认为这里有机会,于是大胆尝试了一下,结果失败了。这不叫犯错,这叫“试错”,是一种特别光荣的行为。试错能让人学习,试错体现了智慧和勇气。正反两方面的新信息进来都能让神经网络成长,不大胆刺探,哪能知道边界在哪里?又如,你在这件事上的决策程序和执行过程都没毛病,但结果还是失败了。这也不叫犯错,这叫“运气不好”。程序正义并不能完全避免失败,但是它能让你成功的概率大一点。我们追求的是多次博弈积累下来的系统性的胜利。而“犯错”则是,如果这件事给你一个暂停键,你有机会清晰思考的话,知道怎么做是对的,可是你没有那么做。你知道自己身体已经超重,不应该吃那块蛋糕,但你还是吃了。你知道讨论工作应该对事不对人,可是你没忍住。你知道这个项目的调研工作还没完成,有几个关键信息还没到位,但是你当时已经身心俱疲。
ps:回到我一直强调的那句话“很多时候我们都知道什么是对的好的,当我们不会去做,我们在犯错”
帕里什把人的弱点分为两类。一类是内在的弱点,是与生俱来的,可以说是生理性的,是你无法改正的本能。比如在饥饿、口渴、疲劳、睡眠不足、面临激烈情绪波动、注意力被占用、心理压力很大等情况下,你会很容易犯错,你会被认知偏误所挟持。我看这种情况相当于神经网络本身没啥问题,但是运行出了问题,可能是供电不足或者有硬件失灵导致了性能下降。另一类是平时习惯养成的弱点,相当于是训练出来几个坏的神经网络。比如,有的人被自己的权力给惯坏了,整天一冲动就瞎指挥;有的人接连几次失败后陷入了习得性无助,被吓破了胆,再也不敢拿主意了;还有的人深陷信息茧房自得其乐,思想越来越狭隘。
那怎么避免被弱点拿住呢?指望理性是不现实的,意志力是一种有限的资源,你会越用越痛苦。除了锻炼强势人格-就是用一套好的神经网络自动运行,让弱点没机会发挥出来一还可以建立一个更高层面的神经网络,让它自动管理和控制弱点,形成不犯错的保障。
ps:我们普通人刚开始还是去用意志力解决,这个强势人格没那么容易训练出来,但是必须要训练出来。
第一个是“预防”:如果你感觉自己的身体状态不适合做出好的决定,那就不要做决定。这特别适合生理性的内在弱点。当你孤独的时候,你可能会想吃甜点。当你难过的时候,你可能会想喝酒。那是错误的决定,因为甜点和酒不是爱,不能解决你缺爱的问题。《孙子兵法》说“主不可以怒而兴师,将不可以愠而致战”,也是说不要在受情绪影响的情况下做重要决定。
第二个是“用规则替代决定”:不要每次都跟自己讨价还价,今天锻炼还是不锻炼,要建立一条每天都锻炼的规则,没有借口。规则能定义你是谁。比如公司聚餐,别人给你敬酒,你很难拒绝,你会面对巨大的社会压力一但是如果你很早就公开宣示你有一个绝对不喝酒的规则,人们会尊重这条规则。
第三个是“创造摩擦力”:如果做这件事对你很难,你就不想做了--那么如果你不打算做什么事情,可以事先做些准备,让这件事变难。少吃零食的最简单办法是别买零食。少看手机的最简单办法是把手机关机,放到别的房间去。更狠的做法是邀请朋友和同事监督你:谁看见你上班时间摸鱼,你就得请谁吃饭。
第四个是“设置暂停步骤”:不要让决策过于顺滑,主动按下暂停键。丹尼尔·卡尼曼(DanielKahneman)跟帕里什说过一个他的个人规则:他从不在电话里做决定。比如你给卡尼曼打电话,说老师我有个科研项目想跟你聊聊,明天下午3点咱俩能不能见个面。卡尼曼老师会说,“我从不在电话里做决定,等我想想再回复你”。官僚主义的步骤能减缓决策速度,但是也能减少出错。这就如同医生做手术和飞行员起飞之前都要过一遍清单一样。
第五个方法可能是最难做到的,叫“转换视角”:主动从别人的视角看问题,你会收获很多。领导发布命令之前应该先想想,如果自己是下属,会怎么对待这个命令。跟人谈判的时候应该想想,这个条件对对方意味着什么。善于沟通的人总是先问别人的想法。个人的角度是有限的,你会有很多认知盲点。而盲点的意思是,事情就在眼前,可是你不知道自己不知道。我认为转换视角是一种决定性的领导力优势。
有一句有意思的名言不知道是谁发明的,我很想跟美国人说一次:“你说英语是因为你只会说英语。我说英语是因为你只会说英语。咱俩不一样。”
正确的做法是把改正错误当成纯技术性的事情操作,其实无非就是修改神经网络而已。帕里什提出4个纠错步骤:1.接受责任,哪怕不完全是你的过错,也是你的责任,接受责任才能让你对局面有掌控权;2.反思,当初你的决策和执行过程到底是怎么回事,具体哪里出了毛病;3.制订计划,下次要做好;4.修复关系,你的错误已经给别人造成了伤害,现在你必须想办法弥补,最起码先给人家一个真诚的、精英水平的道歉。
每个企业家都想要改变世界,但大多数人能改变自己周围的一小块就很不错了。如果你运气很好、能力很强,也许最多可以改变世界的一个侧面。
乔布斯把人文艺术和科技结合起来,强化了一种设计理念,可谓是改变了世界的一点色彩。马斯克大搞交通革命和能源革命,又要登陆火星,也许能稍微改变世界演进的方向。企业家的野心再大,也只是把自己作为一个榜样:我认为这个事对,我先做起来,你们要是也认可就跟我一起干,咱们能做成多少
山姆·阿尔特曼可不是这么想的。人们最感兴趣的是阿尔特曼对GPT 模型、对AGI的看法,但这些只是他打算做和正在做的事情中的一小部分。我深入研读了一些关于阿尔特曼的报道,读了他的博客②,听了一些他的讲座和访谈,感觉此人野心之大,尤其推荐Tad Friend的文章:Sam Altman's Manifest Destiny。② https://blog.samaltman.com/,April 27,2023.
ps:读了一下,我也在X上follow了他,不敢想象他地位会如何。
简单说,阿尔特曼想要系统性地改变世界。他不只是想在某几个领域做一些事情,而是想彻底改变所有人的生活;他不但要进行单点突破,还要把各个突破联系起来,对世界做出一个协调性的、统筹性的安排。
ps:和马斯克想的差不多,政治、经济、科技等等各领域。
1.实现和管理AGI;2.用核能、生物科技和AI全面升级现代生活方式;3.成立一个由企业家组成的超级组织,改善资本主义经济;4.建立一个“宪章城市”,测试未来的基础设施和管理方式:5.给普通人提供全民基本收入。这些都不是普通企业家经常想的事。阿尔特曼凭什么能做这些?
先是OpenAI。OpenAI已经变更成一个营利性公司,这让马斯克很不高兴,因为它最初是阿尔特曼和马斯克共同建立的一个非营利组织,这个组织的使命就是要阻止AI将来奴役甚至消灭人类。
早在2009年,保罗·格雷厄姆就在一篇文章中写道,他在给创业公司提建议的时候,最喜欢引用两个人的话:一个是①http://www.paulgraham.com/5founders.html,April 27,2023.乔布斯的,一个是阿尔特曼的。他说,对于设计问题,他会问:“乔布斯会怎么做?”对于战略和野心问题,他会问:“山姆会怎么做?”格雷厄姆不见得读过《三国演义》,但他这个句式明显是“内事不决问张昭,外事不决问周瑜”啊!那一年山姆·阿尔特曼才24岁,而格雷厄姆比他大20岁。
ps:格雷厄姆这老爷子眼光真毒辣
阿尔特曼出生于美国的一个犹太裔家庭,8岁就得到了属于自己的 Mac电脑,并且开始接触编程。他在大二时创办的公司Loopt 的业务是,用户可以通过跟朋友分享所在的地理位置进行社交。请注意,那时候才2005年,还没有iPhone。为了全力做好这家公司,阿尔特曼直接从斯坦福大学退学了。严格说来,阿尔特曼是在大约20岁“参加工作”的,至今已经有快20年切切实实的创业经验。对比之下,如果你老老实实上完大学,又考研,又念个博士,搞不好30岁都没接触过真正的利益得失,何谈做什么大事……这就叫“有志不在年高”。
ps:区别越拉越大,在这套系统内体制下,你谈大事,全是抱你大腿拖着你的。还是早点去接触社会,接触真正的利益得失,从而了解社会运转、这套系统的玩法到底是什么样的才最为主要。打工是没有出路的。
阿尔特曼的行事作风异于常人,比如非常讲求效率。他总是用最快的速度处理邮件和会议。如果他对你讲的东西感兴趣,他会全神贯注地盯着你听你讲话;如果他没兴趣,会很厌烦。这种“专注力”甚至让人感觉他是不是有阿斯伯格综合征一也就是大脑有问题,但是对某些知识掌握得特别细的那种怪人一-阿尔特曼否认了。他还开玩笑说,为了让人相信他是一个正常人而非AI,他要练习多去几次厕所。
阿尔特曼有强烈的目标感,每年都要列一份目标清单,每隔几周看一次,想方设法把上面的几件事都做成。为了达成目标,他会一直工作,不惜累到病倒。格雷厄姆的说法是,“阿尔特曼非常善于变强大”。阿尔特曼对新科技、新思想特别感兴趣,不但了熟于胸而且会用在生活上。比如,他会告诉你微量的核辐射对身体有好处。阿尔特曼的业余爱好包括开跑车、开飞机,以及…为世界末日条件下的生存做好准备。他常年囤积枪支、黄金、碘化钾、抗生素、电池、水、防毒面具和一个安全的地方一一旦美国陷入末日,他就可以飞过去。也许我们可以把这理解成企业家偏执的行动力。
2019年,阿尔特曼写了一篇博客①,题目就叫《如何成功》(How To Be Successful)。我建议你读一读这篇文章,这实际上① Sam Altman,How To Be Successful,https://blog.samaltman.com/how-to-be-successful,April 27,2023.是阿尔特曼结合自己接触过的众人的经验,对创业者提出的忠告和人生建议。
比如“复利”,他认为不要做那种做20年和做2年没区别的事-得有积累效应,越做越好、越做回报越高才行。那最值得积累、能带给你最大商业竞争优势的东西是什么呢?阿尔特曼认为,是你对这个世界上的不同系统是怎么组合在一起工作的长期思考。
再比如所有人都会讲的“自信”。阿尔特曼认为自信的关键是,你得达到“以终为始”的程度:你必须得非常相信自己能造出火箭,才能从今天开始真造火箭。可是这个自信又不能是盲目的,必须建立在现实的基础之上。如果别人都质疑你的想法,你该怎么办?万一你错了呢?怎么既听取批评又独立思考?怎么在现实和超现实之间取得平衡?这才是修行的重点。
阿尔特曼讲的“专注”也不是什么集中注意力、不要分心,而是专门做好最重要的事。绝大多数人只是埋头做事,阿尔特曼要求你花很多时间思考什么事对自己是最重要的,然后排除万难优先做好这件事。
还有“自驱”。一般人认为孩子不用老师、家长管,能自觉完成作业就叫自驱一-其实那是大五人格中的“尽责性”。阿尔特曼讲的自驱是,我做这件事是为了自己对这件事的评价,是因为我自己看得上,而不是为了让别人看得上。
大多数人做事再尽心尽力,也只不过是在做别人认为正确的事:大家都崇尚考研、考公,你也去考研、考公。那其实是一条通往平庸之路:你做的不是真正有意义的事情,而且你会算错风险。你以为跟别人做同样的事情就是低风险的,自己做不一样的事情就是高风险的,其实这根本没道理。
阿尔特曼说,有了一定的社会地位和财富之后,如果你没有一种纯粹让自己满意的驱动力,就不可能再达到更高的水平。还有“冒险”。所有企业家都知道富贵险中求,阿尔特曼则要求你把“能冒险”作为一种自身素质。这包括你应该在尽可能长的时间内保持生活是廉价且灵活的,最好背个包就能搬家一这非常困难。如果你在Google这样的大公司工作了一段时间,拿到一份对普通人来说很高的工资,你会感受到生活的舒适,然后自动按照这个工资水平计划明年全家该干什么一那你还谈什么创业,你身上的惰性已经占了上风。
第一个野心是AGI。阿尔特曼介人AI研究、成立 OpenAI的初心并不是为了拥有最强的AI,而是为了一个大得多的目的:保护人类,不要让Google那样的垄断公司通过掌握AGI技术而统治人类。所以你看阿尔特曼的言论从来都不是推销自己公司的 GPT有多厉害,而是号召人们对向AGI的过渡进行管理。
第二个野心是用科技改变日常生活。通过YC和他自己的投资,阿尔特曼参与的项目至少包括核能、长寿公司、癌症治愈、超音速客机等,其中他投资的Helion公司宣称将来能把电力价格下降到1度电只要1美分。
第三个野心是以YC校友们的公司为基础,建立一个能直接影响美国经济,甚至拯救资本主义制度的企业网络。这个网络的总价值超过1万亿美元。
资本主义的一个根本假设是经济必须得增长。有增长,特别是有创新,资本主义制度才是值得的。如果世界从此以后再没有新事物需要出来了,那就没创新什么事儿了。阿尔特曼想要系统性地推动科技创新,拉动经济增长。
ps:太吊了,直接想接受这个假设。
第四个野心是建立一个宪章城市。也许在美国,也许在其他某个地方,他想搞一个由商人和科技人员运行的、自我管理的全新型城市。这个城市可能会有10万英亩土地,有5万一10万的居民。
阿尔特曼的第五个野心是实行“全民基本收入”(UniversalBasic Income,UBI)。其实已经有人在做实验了,但更大的目标是在美国选一个城市,给其中的居民每人每年发一两万美元,让他们不需要工作。
世间的道理好讲,行动力才是最宝贵的。阿尔特曼推崇一句名言,“归根结底,人们评价你的一生不是看你有多少知识,而是看你有多少行动。”(The great end of life is not knowledge, but action. )
ps:我也崇尚,我的笔名从子心到子行,签名也早已改成了敏于行,讷于言。
因为医院本质上是个头痛医头、脚痛医脚的系统。医生都是各管一科的专才,很难全面考虑患者的问题,他们接受的训练都是追求某个领域的深度,而牺牲了广度。布罗克曼一家可以说拥有最好的医疗条件,他们都尚且如此,那普通人岂不是更难?很多时候你到医院都不知道该看哪个科,而这个科的医生往往不知道,也不在乎你的病情属不属于这个科的诊疗范畴。理想的治病方式应该是搞个会诊,把各科医生都请来给你一个人看,大家商量一个综合的治疗方案。
ps:所以我对于中医是一直看好的。
当你感到毛躁、愤怒,做蠢事和说傻话的时候,它会设法纠正。当你展现善意、做了好事的时候,它会表示赞赏。你干活它给你出主意,你情绪低落它给你鼓劲儿,你累了它提醒你休息,你看太多电视它要求你出去跑步一并且在旁边给你加油。因为它的形象和个性被设计成你很喜欢的样子,你不会反感它的指手画脚。结果是,你办错事、说错话的次数大大减少。每个人都变得更好。
但一个更大的突破方向可能是机器人。人们对AI进展的一个经典抱怨是,本来应该让机器做各种家务活,我们人类摆弄琴棋书画-现在怎么AI先学会了琴棋书画,我们人类却还在做着家务活呢?这是因为做家务活并不简单。琴棋书画那些智力活动很容易“数字化”,它们本来就是在操纵信息,因此容易取得数据、用数据训练、用算法处理。做家务活则涉及跟真实物理世界的互动,要求你从变换的物理环境中取得复杂的信息,那比仅仅在数字世界中处理数据要难得多。人天生就有视觉和触觉能感知环境信息,人脑则会自动处理那些数据,机器人怎么做?我的理解是,机器人领域正在重复GPT取代传统“自然语言处理”算法的故事:以前是人类给机器人设定各种规则、编写做各种动作的算法,现在是用神经网络自动学习。目前可以说一只脚已经在门里了。
这本书献给我的父亲万斌成。他在2023年5月因为癌症去世。他很喜欢数学,如果生逢其时,未尝不是个做学问的高手。在他最后的日子里,我几乎每天都跟他谈论AI的事情,他非常感兴趣,很乐观,但也对人类的前途表示了担心。可惜我父亲未能看到他去世至今,以及今后我们将要看到的进展,没有坚持到拐点之后!而拐点已经到来。套用丘吉尔发明的一个句式:AI带给我们的不但不是人类文明的结束,而且不是结束的开始……如果你把工业革命至今这几百年都算作文明的开始,那么我们正在经历的AI革命可以说是开始的结束。我们正在迎来文明的繁荣丰盛阶段,它的特点是高级智能一包括AGI的智能和人的智能--处处大显身手。那将是一个普遍富裕的,“法宝”满天飞的,崇尚创造和自由的,特别把人当“人”的,人人如龙的世界!
Citations:
[1] https://www.sohu.com/a/246005873_188245
[2] https://www.163.com/dy/article/J0JTHS9O0519DM16.html
[3] https://my.world.taobao.com/item/782036933150.htm
[4] http://www.360doc.com/content/24/0116/14/18308856_1111248191.shtml
[5] https://blog.csdn.net/qq_33326449/article/details/113815435
[6] https://edu.iask.sina.com.cn/zw/r3LLgbddfgZ.html
[7] https://wiki.smzdm.com/p/ynx0pzo/
[8] http://search.dangdang.com/?key=%EF%BF%BD%EF%BF%BD%CE%AC%EF%BF%BD%EF%BF%BD&noresult=1
[9] https://baike.baidu.com/item/%E4%B8%87%E7%BB%B4%E9%92%A2/16324241
[10] https://weread.qq.com/web/bookDetail/08732220811e7ef55g012f82
[11] https://news.mbalib.com/story/257210
[12] https://www.google.co.ve/maps/d/embed?mid=17NDrOxu7x6ql3gkhP0_BOhCas2_4zDQ
[13] http://www.itp.cas.cn/kxyj/kydt/202004/t20200414_5539614.html
[14] https://www.gdszjgdj.org/ydtj/content/post_234550.html
[15] https://www.sohu.com/a/214562008_609537
[16] https://weibo.com/ttarticle/p/show?id=2309404383090427455244
[17] https://ximalaya.com/sound/206850813
[18] https://douban.com/book/subject/36850876/
[19] https://douban.com/book/review/15948752/
[20] https://www.huibooks.com/26145.html