作者 | 田子宸@知乎
来源丨https://www.zhihu.com/question/533314177
直源 |极市平台、新机器视觉
知圈 | 进“滑板底盘群”请加微yanzhi-6,备注底盘
导读
人工智能的迅猛发展和工业界的大量需求是否匹配?新模型新算法天天更新,看似解决了很多问题,但在工业上 这些好像并不重要?本文作者将对AI进展是否供过于求给出他的解答。
就我的视角来看, 人工智能目前的发展水平,还远远不能达到大部分工业界的需求,有很多工业问题靠目前的技术水平还无法解决。
人工智能的发展路线大概是这样的:
图片来源:https://xueqiu.com/1640036587/110614869
当然我个人比较喜欢这张图:
图片来源:https://zhuanlan.zhihu.com/p/83018440
人工智能的高峰和限制
可以看到,每当人工智能领域有了新突破后,都会迎来一次发展的高峰。
第一个高峰来源于人工智能概念的确立、以及符号主义算法的发展;第二个高峰来源于感知机、BP 网络、专家系统等理论的提出。然而每个高峰过后,随之而来的就是发展的低谷,这是由于当时的算法,以及配套的算力、商业环境限制所决定的。
目前我们处于人工智能发展的第三个高峰阶段,这次发展的动力来源是深度学习。但是就我目前看来,这一阶段的人工智能高峰,在技术上存在四个比较大的限制:
1. 目前的深度学习还是严重依赖“独立同分布”原则。
虽然有很多学界论文在研究无监督学习,也取得了不错的进展,但工业界目前用的最多的还是有监督学习。一旦最后的应用环境跟手中的样本有明显差异,模型就很容易表现不佳。
这就导致了目前很多算法只能在 封闭场景下进行。比如现在很多号称 L4 自动驾驶的应用,实际上只能在一个限定范围内进行,比如园区内的摆渡车、固定路线的出租车等。另外对于一些难以获取数据的场合,由于样本覆盖的空间不够大或覆盖的不够密集,模型的精度也难以保证。
2. 芯片算力有限。
一般来说模型越大,模型效果就越好,但所需算力也就越大。甚至有一种声音:只要模型足够大、算力足够充足、数据足够多,就能训练出真正的人工智能(这么说有点期待量子计算出来,至少解决了算力问题)。但实际上芯片的算力不是无限的,在很多场合下甚至是严重匮乏的,比如手机、车辆等边缘端场景。在这些场景下,算法人员不得不减少模型的大小,以保证模型能以合理的速度运行,但这往往也是伴随着精度的下降的。
3. 深度学习的可解释性不强。
在一些要求非常严苛的领域,没有足够可解释性的技术难以落地。
4. 深度学习的可迁移性仍有提高空间。
在面对一个全新的领域时,还是需要大量的人员与时间投入。这点倒不是因为模型本身没有可迁移性,而是因为各类场景本身的差异较大,在一个新场景下,场景问题的抽象、指标的定义与明确、数据的收集与标注、模型的部署这些往往会耗费大量的人力与时间,训练模型反而是其中比较简单、也比较容易迁移的一环了。
这些限制使得 深度学习无法在全领域铺开,只能在一些限定场景下得到很好的应用。
人工智能的发展和工业界的需求
回到题主的问题,题主认为“很多问题其实很多在工业上并不是很重要”其实是正确的,这是因为论文里面关注的问题,都是在深度学习容易铺开的领域内的(人脸识别、目标检测等等)。
而实际工业涉及到的问题领域,远比论文关注的领域大得多得多得多。这些没有得到关注的工业领域,一方面是本身利益场景不大(领域过于细分学术界关注不到,或者是市场没前景,总之钱和命都不太好赚),另外有更多的是这些领域本身不适合深度学习的应用。
举个虚拟的例子(编一个故事【逃):
有一天一个工厂甲方找你,说有一个工艺环节人工成本太高了,看看能不能用人工智能代替。你去实地考察后,发现他们现场工人操作全靠经验,规则十分模糊。经过多次调研后,你终于确定了大致的规则,能够对这一个工艺环节以人工智能的方式抽象后,项目终于立项了。
然后你发现数据的收集特别困难(没有电子记录设备,你得驻场抄数据,且没有历史数据,一抄就要抄好久,不然数据不够模型训不了),收集到的数据标注很脏(因为经验不足,有的时候不得不让现场工人标注,因为基本没法定标注规则,数据很脏)。
千辛万苦收集到数据后,训模型倒是很顺利,找个 resnet/bert 训一下,精度有 95%。然后你兴冲冲的找甲方汇报,甲方说我们这没有带显卡的机器,只有一个老旧的 CPU 服务器,让你把模型部署在上面试试看。得,压缩模型吧。经过大量的调优后,模型在 CPU 服务器上速度够了,但精度只能到 90% 了。
用户看看之后觉得可行,然后又提出新需求了:过段时间项目要汇报了,能不能跟省里的专家讲讲你的算法的原理;90% 精度还是太低了,能不能搞到 100%;我们的工艺可能要变一下,你的模型应该能自适应的吧...
这个例子是我从我亲身经历的、听朋友说的多个项目揉起来编的缝合怪,基本上把我前面提到的四个限制全踩了。实际上的项目可能不会踩这么多坑,但是多多少少会踩一部分,而且每个坑都不是省油的灯。
这也是为啥现在很多头部大厂不愿意深入工业领域做深度学习应用的原因:要么就是因为各种因素的限制做不了(比如项目问题无法抽象),要么就是能做性价比太低(需要投入大量人力,项目款项还少,且每个厂子需求都不一样没法复用)。
前面讨论的还仅仅是那些“尝试用人工智能解决”的问题。工业界还有很多问题,工厂压根就没想过用人工智能去解决。所以题主感觉的“解决了很多的问题”,其实在真的是非常小非常小的一部分。
总结
所以回到开头的观点,目前人工智能的发展水平,还只能在一定限定条件下、在一些领域的一部分具体问题上得到很好的应用。在广袤的工业应用场景下,深度学习因为其局限性并不能很好的应用,工业界里面有大量的问题无法用人工智能解决。
其实回顾历史,前两次人工智能高峰,都是因为在一些领域得到突破性的应用后,得到了高度的关注,但也因为人们发现人工智能因为各种因素的限制而不能替代万事万物后,热情而慢慢消退。
此次深度学习引发的人工智能高峰,因其在众多领域取得了突破性的进展而被人们捧上神坛,但我们也不可否认其存在的限制与问题。我没办法预测这次高峰会不会迎来低谷,因为毕竟可能闹不好什么时候又有了理论或工程上的突破。 但确定的是,即使人工智能又一次跌入了低谷,但其本身是一直在发展的。只要等到契机的到来,就会有下一个高峰在。在这样跌宕起伏的发展过程中,我们会看到一个个过去无法解决的问题被解决,人们的生活也会因为人工智能的发展越来越便利。这跟科学的发展是何其的相似。