AI真要改变企业需要两只手:一只是对企业本身的理解和抽象,一只是AI大模型。相比之下,当大模型标准化后,其实是不关键的那只。前者的难度远比想的大,绝对是被低估了。
早期会体现为领域知识不充分,但解决到一定程度就发现更根源的问题是谁具有优先权的问题。
以审批举例子,哪个角色审批哪种合同在企业里完全是随机状态,和角色也绝对对不起来。
你不告诉AI,它怎么知道应该干啥?(一般说的领域知识问题)
类似的点在企业里多如牛毛,过去靠的是人跑到企业里四处抓人打听,弄成AI这些知识都需要显性化,谈何容易!
下图是澜码周健的总结:
不容易不单是说需要花额外的时间和成本,而是有时候它还内置矛盾性。
假如是个夫妻店,那老公有个想法,老婆有个想法,两个不相容,你怎么去设定AI?(谁优先的问题)
这底层体现的是人治和AI治的不相容。世界是草台班子的意思是有很多灰度,灰度体现出来就是难得糊涂,今天这个对明天还是这个不对。这拿AI没法搞。
必须确定一个根本原则,否则AI是不能真正介入生产关系的,这里需要的原则叫:智能优先。
但智能优先原则显然和老板的快感是冲突的,也就只有当体现的效率差异大到不得不如此的时候才可能真的从老板优先变成智能优先。慈禧太后接受坚船利炮,不是因为她学习后开窍了,是因为没招。
智能优先之后老板向AI让渡很多决策权,适应AI规则,而不是所有工具适应老板的偏好。
AI显然不便宜,模型越大越贵。
如果AI耗费的token和对应的那个角色比反倒是贵的,那就没有经济意义。
近来Sam Altman发文对AI做了极为乐观的预测,核心就是Scaling Law。简单说就是深度学习只要规模上去那就能解决我们碰到的各种问题。
但关键是GPT4已经1.8万亿参数了,再大些虽然解决问题,但一般情况最先进的模型你真用不起。
所以即使我们相信Sam Altman说的是对的,从应用角度也还需要三个定律,然后才能判断应用进程:
第一是Scaling Law,这决定智能的高度。
第二是GPU的摩尔定律,这决定智能变便宜的速度。
第三是Compression Law(暂时没这词,我胡诌的需要进一步统计),突破一定智能高度后,究竟多长时间能够在保持智能的前提下,把规模降下来。
第一是智能进化,第二、第三是成本进化。
三者融合才是推动AI应用滚滚向前的技术推力。
否则按照我们前面设想的,大多情况下每个企业要有个自己的安全大脑,这个大脑动辄基于几万亿参数的模型,那就不好搞了。推理也推理不起。
AI以及基于AI衍生出来的智能组织特征是一样的,但企业是不一样的。
有人最终定位是性价比,有人就偏好品味。
这种风格影响所有AI智能体以及企业里剩余的人的行为风格。
更像一种企业的第一推动力,或者说场域。
这取决于人的设定,AI智能体与人要在这种场域下达成自己的和谐。
不管怎么样这是AI之外的问题,要有一种AI能理解的方式去做设定。
思考AI边界的时候,背后有个很有意思的问题。
假如各种要素都排列组合输入给AI,那AI能做出来iPhone么?
我觉得不能。
在可见范围内,AI能够穷尽各种创新的可能,但它很难决策下面这样的iPhone就是成功的:
而下面这样的就是不行的:
这些选择的成败与否,不单是有形、已经体现出的各种要素的推理。即使给充分的信息,当人的信心和意志就是变量的时候,AI是不能够决策的。(另一种反身性)
价值创造到底是个什么过程?意志、认知、资源与执行么?
如果是上述四者,那显然AI会取代执行,但并不能取代创造逻辑下的认知。上一节说的哪种手机才是对的,是一种创造逻辑下的认知,AI明显搞不定。
也并不能取代资源,资源背后是一种所有权。
意志就更是人类才有的东西,我估计在当时的条件下进行计算苹果做iPhone成功几率不会超过30%。
意志很多时候都是有选择的犯傻用的,愿景的背后往往需要意志,顺风赚钱要什么愿景!AI也没法干这事。
这几者大概就对应到人的位置和人面向未来的不同能力。
可麻烦就麻烦在过去的组织结构主要是用来辅助执行的,相当于给企业里面的大脑配个身体。所以AI才对大多数个人冲击很大。所谓的打工就是在组织结构里找个位置主要做执行工作。
如果说模型的能力是AI在企业里落地的左手,那上面说的基本就是右手。左手可能是单纯的力量,右手要更灵活,然后才能去处理很多麻烦的事。前者更像科学家的事,后者则是企业家的事。我们面临的另一个挑战是其实过去没真的做好过这类应用。这波真想磕,那首先是个意志问题。
过去的实践里面与上面说的最相关的其实是自动驾驶,自动驾驶也做了10多年了,几乎踩遍了技术、产品、场景上的坑,基于这种初衷,第十场AI碰撞局谈自动驾驶。一个是真关心这领域的可以瞄,一个是想做智能体的可以尝试他山之石是否可以攻玉。
本文来自微信公众号“琢磨事”,作者:老李话一三,36氪经授权发布。