当前位置:首页|资讯|人工智能|机器学习|深度学习

人工智能有"双奇"

作者:陆成刚发布时间:2023-09-22

近年来随着深度机器学习带来的人工智能应用的热潮,也引发了人们对深度神经网络这种技术之所以有效的原理、机理的探讨,以及人们对人工智能的过度发展会不会反向危害人类安全而感到担忧。这就是本文准备讨论的人工智能“双奇”,这里讨论的观点纯粹属于数聚链人工智能研究院院长陆成刚博士的个人观点——作为一个人工智能研发从业人员的独立点评。

第一个好奇就是人们觉得不可思议的是以深度学习为代表的人工智能应用如此强盛,但居然学界对这一技术的背后原理却仍不清晰?在人类技术史来说,当一种技术广为流传或应用,但对该技术背后的原理却经历了由模糊到清晰的缓慢的历史过程,其实反而是一种常态。这样的例子不胜枚举。著名的一个案例,一百多年前莱特兄弟发明飞机时只是基于朴素的鸟翼飞行的模仿,而对基于空气动力学的浮力来源根本一无所知。甚至一百年来,对于飞行时浮力的机理一直是流体力学研究探索的课题,直到近年来人们基于软件数值模拟大型风洞,才对飞机的飞行流体力学有了更清晰的认识。另外一个惊掉下巴的例子是自行车的发明所基于的科学原理,仅就经典力学而言,自行车在骑行过程里保持平衡的机制依旧不是很清楚,这方面的研究就在最近十几年前还曾登上过科学顶刊,而自行车的发明使用至少已经五六百年了。人们对于原理落后于技术应用这一常态没有足够认识是与大量的碎片式创新、科学预测事实的案例熟稔于胸有关,例如,新冠核酸检测技术必须得清楚地测明新冠病毒的RNA核酸序列才有可能被设计出来。爱因斯坦相对论预测水星近地点的扰动和引力波的发现也都是理论指导实践的经典的例子。然而对于代际式的技术创新,往往未必需要基于已知的成熟的理论或原理,多数是基于朴素的仿生原理进行实验模拟而产生的,神经网络就是模拟生物神经模式而设计的一种计算方法。它从几十年前的萌芽到今天大规模地成熟应用,成为一种使用广泛的技术,然而对于它背后的工作原理还不是足够清晰。下面从两个方面展开对深度神经网络的机理的探讨。

第一种观点,把神经网络视作一种数学上的“插值、拟合”方法,然而跟数学上不一样的是神经网络无论是基于的“函数模型”的类型,还是被拟合的对象类型都跟数学插值完全不一样,何况,插值拟合在数学上还有完备的数值分析误差理论,这些对于神经网络都“依无所依”。如果坚持用拟合插值视角去解释神经网络计算,那么陆成刚博士愿意评价“深度学习神经网络是一个’大号’的采样定理”的观点,从定性上说,这种解释比泛泛的插值拟合更接近于技术真实。作为一种沟通数字域、模拟域信号的采样重构语言,采样定理使用了一种不同于数值分析里常见的正交函数族的特殊函数sinc(读“纱尔可”)函数,这是一类特殊的脉冲函数,这就有点像神经网络输出层的行为了。其次,采样定理有采样频率的概念,如果需要重建的模拟信号的物理带宽很大,那么需要的采样频率就很高。这就跟神经网络的复杂度模式有较近的相似了。例如,大语言预训练模型涉及到的参数数量达万亿、千亿级别,参数数量就类似于采样频率。为了模拟人类自然语言这样的智能功能,由于自然语言的复杂性,那么采用大模型就类似于高采样频率去重构高物理带宽的模拟信号了。而深度神经网络由于层数之间的乘法效应极有利于扩展模型的参数数量,这或许是大模型能够“搏取”智能系统的复杂度的微妙之处吧。

第二种观点,人工智能本来就是一种仿生工程。人类利用仿生学发明新技术是一种久已有之的方法论。例如,通过模仿鱼鳔沉浮原理设计出了潜水艇,通过模仿基于超声导航的蝙蝠飞行设计出来雷达、声纳等设备。自然,人工智能就是模仿人类的智能了,但是这种仿生怎么会演变成深度神经网络、大模型等这么复杂的系统?我们来看一个例子,作为与人工智能密切相关的一门学科——计算视觉是怎么发展的。摄像机作为计算机系统的一种传感器,怎么样让它替代人眼作为一种模式识别的工具而不仅仅是一种录像设备?这个过程中也借鉴了不少生理视觉的科学发现,也包括使用深度学习神经网络进行图像模式的分析。实际的技术或相关理论的发展并不符合真实的人眼识别模式的生理机制。相对于智能,人眼模式识别是简单的,但相对于声纳雷达这种仿生,人眼又是极其复杂的,目前从生理学而言,从视网膜光感成像到大脑处理模式之间的机制也是没有完全认清的。在这种情况下,计算视觉的发展巧妙地避开了仿生机理的机械模仿,转而运用计算机强大的计算能力去发展这种模式识别功能。这就运用到了输入、输出的比对的机器学习法则的模拟。而这种思路的产生绝不是偶然的,它来自于计算机人工智能鼻祖图灵的思想。大体上,图灵在阐述未来的机器智能时能提出一个图灵测试的概念,把机器智能设想成一个黑箱,通过不同的提问输入得到不同的输出,直到人们无法鉴别黑箱是人还是机器。计算视觉就是通过模仿不同的输入对应到不同的输出之间的机制,达到人眼模式识别的功能。深度学习模拟人类智能也是如此,通过大量标注数据(就是输入输出之间的确定的对应)的模拟,达到对新数据的符合目的的输出的能力。这也是完全避开了对人类智能的生理学的机理认知,纯粹依赖计算机强大的计算能力,搭建了这种符合需求的输入输出机制。即深度神经网络是对由人定义的一种规则的模拟和仿真,它当然包括对人类的逻辑推理思维的仿真。当然这种模仿不可避免地陷于大模型、大数据和大算力的海洋,与其说这折射了实际智能系统的复杂性,倒不如说是使用计算来替代生命智能黑箱的一种代价。

下面回答第二个“好奇”,人类发展人工智能会不会成为打开禁锢魔鬼瓶子的古巴比伦人?即人工智能的发展会不会成为人类安全的隐患。数聚链陆成刚博士认为,目前人工智能安全还仍是软件安全、信息安全的层级。通过分析深度学习之所以有效的第二个观点认识到,人工智能学习系统的规则都是人为定义的,智能系统还无法脱离人类控制自己进行发展和创新。这可以从两个方面来阐述。

第一,虽然人工智能能学习人类的逻辑思维规则,进行智能推理演绎、知识发现,等等,表现为智能的属性。但是逻辑思维本身具有边界,这是哥德尔的完备性理论所限制的,图灵也曾证明停机问题,有一类理性思维无法克服的问题的存在。上世纪七八十年代,在2020年获得诺贝尔物理奖的彭罗斯就曾强弱人工智能与学界发起论战。目前,普遍认为人类制造的机器只能是弱人工智能,仍旧受到哥德尔完备性理论的制约。

第二,人类在探索自然科学时,对科学结论的论证采用的是严格的逻辑思维能力,哪怕是实证科学,都是反复采用实验数据加以验证。这种逻辑推理能力只体现在科学论证上,但科学发现还依赖猜想、联想、甚至是梦境。就是人们使用自然语言进行人际交流也并不是理性主导的,反而是具有大量的感性成分。在人类智能里这种感性思维占据着重要的比例,而它们很难用有限的、确定的规则进行模拟,这就是为什么自然语言理解需要大模型,而大模型恰恰折射出人类智能系统具有的一定程度的不确定性。正是由于很难使用输入输出的比对设计来穷尽人类智能的感性思维成分,所以导致目前的深度学习系统还无法达到人类智能的高度。

    随着时代的发展,希望人工智能的“双奇”有确定的答案……



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1