本文是棱镜Talk所作视频——谁在神话chatGPT,它开启的不是下一次工业革命,而是一场存量财富的厮杀【棱镜科技】的个人思考
https://www.bilibili.com/video/BV1XT411W7Ep
可能有的人会觉得AutoGPT是个反例,但我恰恰觉得它证明了这点,它本质上仍然是把符号作为核心的处理对象,无论是从网上自己搜索还是进行主动性操作,即使给它配上一堆辅助它的人工智能识别程序来代替五感,比如用摄像头来识别面前的是水果还是汽车,它仍然没有跳出人类的语言符号系统。因为它只会残缺性的学习(认识)和残缺性的思考,你得先告诉它有一个符号叫“苹果“,然后拿一堆的苹果照片来让它把这些照片和”苹果“符号建立联系,然后它再把这个符号输入到自己的模型中基于已知的概率关系去寻找和这个符号有关联的符号。举个例子,假如我们目前的语言符号系统中没有”苹果“这个词,而我们眼前有一个苹果,我们会马上意识到这个东西我没见过,一看,发现它跟”红“这个符号有关联,一闻,发现它跟”香“这个符号有关联,一碰,发现它跟”硬“这个符号有关联,有一定知识积累的人会将看、闻、碰中产生的信息和脑海中的”梨子“联系起来,觉得这个东西可能是可以吃的,如果这还是个胆大的人则其可能会咬一口苹果,然后发现这个东西确实是可以吃的,如果这人还具备足够的科研精神的话则其就会继续探索这个苹果和其他事物的联系,最后下定义这个苹果是个”苹果“。总得来说,我认为目前的人工智能技术能实现看、闻、碰、联系”梨子“、发现可以吃、探索联系,但它无法做到下定义,因为对人工智能而言,这个苹果只是个出现在摄像头等设备前的东西,它对它的定义在一开始就是这个,并且到最后也只能是这个,如果你拿出一个梨子放在它的摄像头等设备前,它也会做相同的事情,它永远无法知道这个苹果是在它的语言符号系统之外的,它做不到我们最开始就意识到的事情“没见过”(这是个新东西),既然它不知道这是个新东西,那就永远无法对新东西下定义并将其纳入自己的语言符号系统中,更不必提之后探索这个符号和其他符号之间的概率关系了。但这个问题真的无法解决吗?我认为是否定的,未来可能会开发出一种特殊的判断器,用于判断这是不是一个新东西,假如是的话它就会给它一个命名(或许是A-100、或许是一串符合人类语言习惯的符号、或许是一串人类看不懂的的符号),然后再对自己进行训练迭代把这个符号纳入到自己的语言符号系统里,之后慢慢探索这个符号和其他符号之间的概率关系,但这个判断技术恐怕会很复杂,在我看来是目前难以实现的,需要对人类神经结构、思考过程进行更深的研究。回到AutoGPT上,它就是个能够探索并更新符号和符号之间的概率关系的升级版人工智能,以及像探索新的蛋白质结构、芯片架构的人工智能也是同样的道理,我们能设计出一套测试它生成出的新的结构是否达到我们的要求(如药效更好等)的流程,但仍然没法达到让它自己意识到自己探索到了个新东西并需要将之以新符号命名。
只能认识已知的东西(我把“如果一个事物在语言符号系统内有与之对应的符号“称为这个事物已知),而不能认识未知的东西,所以我称之为残缺性的学习(认识),而这导致了目前的人工智能技术无法探索新事物。那什么叫残缺性的思考呢?就是因为目前的人工智能技术只会知道符号与符号之间的概率关系,也就是只会前后文关联。试想一下,一个普通的成年人会把2+2算错吗?而ChatGPT就曾经会这样的错误,这就是因为它不懂逻辑、不懂理论。如今不会的原因是由于训练量足够多,它已经将”2+2=4“这个符号组以牢固的概率关系记住了,保证把人类所有知识都以准确的概率关系记住所需要的参数量也是一个天文数字,再多的芯片也不够堆的。所以,如果想要让它更准确就需要实现更完善的思考,而这也恰恰是目前所难以做到的。
正是这两点原因决定了目前的人工智能技术只能作为一种辅助工具来帮助人类学习、工作,但也不能因此而轻视它所带来的变化。在我看来,这个世界的大部分人所从事的都不是创造性的工作,很多人的工作就是像复读机一样,而这恰恰是目前的人工智能技术所能取代的,但是由于目前科技创新没有什么突破,产能大于需求的领域占了绝大多数,这就是视频中提到会有大量中层人才失业的原因。不过仍然会有一部分从事复读机式工作的人不会失业,但他们的工作形式会有一定的改变,那就是使用或者说管理监督人工智能工作,这得归功于人工智能是在模仿人类,所以也会犯人类的错误,并且它是残缺的思考,就更需要人去管理和监督。
综上所述,不要期望这次人工智能革新能够带来像前三次工业革命那样的改变,因为它无法创造出足够的增量财富,它只能帮助富人占据更多的存量财富,势还是像之前那样,甚至被加速。