出品 | 搜狐科技
作者 | 梁昌均
“不解决AI大模型的安全问题,我觉得还是要慎用。虽然它有非常好的良好的前景,但绝不能低估它的不良影响,不能先发展后治理。”这是中国工程院院士邬江兴对AI大模型发展的态度。
在今日开幕的ISC2023互联网安全大会上,邬江兴重点分享了AI应用系统内生安全的问题。他介绍称,整个AI安全可以分为内生安全问题和非内生安全问题,内生又分为个性问题和共性问题。
“个性问题就是自身基因缺陷,神经网络的黑盒特点,导致AI存在不可解释性,深度学习对训练样本的过度依赖,导致学习结果的不可判定,以及神经网络的前项推进的不可逆,导致结果的不可推论性。”邬江兴称,这就是AI“三不可”的内生安全个性问题。
他认为,当前许多AI系统模型和算法或者软件,难以确保训练过程中数据质量和清洁度,模型设计的安全性、模型训练的稳定性都存在大的问题。因此对于遍地开花、泛在化AI应用系统的话,各种内生安全问题和危险必然是层出不穷。
AI内生安全的共性问题则是软硬件环节存在漏洞后门等。“有漏洞难以完全避免,后门无法彻底杜绝,另有现有的技术能力无法彻查漏洞,这是它的共性问题。最糟糕的是个性和共性问题往往交织叠加存在,使得AI安全问题变得更为复杂。”邬江兴表示。
对于AI大模型的安全问题,邬江兴对搜狐科技等媒体表示,传统深度学习的“三不可”的问题依然存在,即黑盒仍然存在,同时大模型数据采集的公平性和普遍性无法保证,在长时间的训练过程中也存在后门安全风险。
邬江兴认为,虽然现在大模型真正的应用并不多,炒得比较热,但会逐渐成为趋势,而网络安全和AI安全问题的叠加,会使得AIGC和大模型的安全问题是个更为复杂的系统,涉及到人类文化、道德、技术等多因素,而不是单因素的问题。
“如果不能将有效的应对AI安全挑战,数字社会也好、数字经济也好,就会成为基础不牢、地动山摇的时期,成为国家安全总体战略最脆弱、最致命的环节。”邬江兴发出警示,这也需要新的安全治理理念。
邬江兴长期关注和研究AI安全问题,早在十年前就提出内生安全理论,它通过阻断和控制基于内生安全共性问题的网络安全和破坏,使得内生安全问题难以发展成为内生安全事件。
“十年来的理论研究与工程实践表明,内生安全在机理上能有效解决AI应用系统软硬件环境中存在的内生安全共性问题,能为AI应用系统的数据采集、模型训练、算法应用等全流程提供高可靠、高可信、高可用的内生安全底座或者数字环境。”邬江兴介绍到。
同时,邬江兴明确提出,AI大模型不能先发展后治理,必须要在生产力和生产关系上同时发力,既要通过技术创新去解决,也必须做好涉及到法律规范、人类道德等层面的工作。
“我个人认为就是要先建立秩序,后发展产业,这才是大模型发展的正确方式。”他认为,大模型不是人人都能干,不是什么单位都能干,法律层面要给出前提,同时要对大模型的应用严格限定条件,去规范标准等。