出品 | 搜狐科技
作者 | 梁昌均
7月5日,在今天的世界人工智能大会—前沿人工智能安全和治理论坛上,清华大学智能产业研究院(AIR)院长张亚勤预测,未来20年将实现通用人工智能。
他认为,大模型在未来10年的发展将会有五大趋势。第一个是多模态,语言、语音、图像和视频正在融合起来;其次是智能体的自主智能,可以实现自主的规划任务;第三是智能走向边缘,大模型从云端开始走向PC、手机等边缘端的智能设备。
第四个就是物理智能或具身智能。“我一直叫物理智能,现在新的名词比较时髦,叫具身智能,就是大模型用到无人车、无人机、机器人、物理基础设施等。”最后一个是生物智能,包括脑机接口用到人体人脑,以及医疗机器人、生物体和生命体。
“我最近和很多学者都一直在探讨,到底通用人工智能什么时候可以实现?有很多不同观点,我个人认为差不多在20年之内会实现通用人工智能。”张亚勤判断。
他认为,这个过程将分为三个阶段:信息智能、物理智能和生物智能。其中信息智能在5年之内可以达到所谓的图灵测试,而物理智能和具身智能可能还需要超过10年的时间。
“无人驾驶是具身智能,将是第一个实现新图灵测试的最大应用,明年可以看到大规模的实验性商用,在2030年之前会成为主流的应用。”张亚勤称,生物智能可能需要再用超10年的时间实现。
在大模型具备巨大能力的同时,也会带来很大的风险。张亚勤认为,相比信息世界,物理世界的风险会更大。
“你想想看我们再过10年,这个世界的机器人比人要多得多,机器人如果它失控,如果它被坏人所乱用,这时靠大模型去控制所带来的风险,不管是主动风险被动风险都会很大。”
张亚勤认为,更大的风险是生物智能、物理智能和信息智能融合在一块,这时如果失控或被乱用,会造成生存风险。因此,必须从现在关注AI安全。“大模型安全是一个系统工程,有许多数学、算法和工程的问题,也有很多策略的问题。”
他介绍称,大模型安全对齐有两种方法,一个是直接监督微调,把高质量的有用的安全信息直接用于监督微调;第二个是根据人类的偏好和价值观去做微调。这里面有很多理论方面的创新和突破,比如现在提出强化学习的方法,去改进安全策略等。
张亚勤还建议,要对AI建立分级体系,一般的模型和算法不要太去规范,让它往前发展,前沿的超大型模型需要去规范。“自动驾驶里面分成6级,从L0到L5,我建议把模型也分成L0到L5,用L5去规范它。”
除了模型本身的规范,还要对数据、模型的构建、对齐到最后评估,都需要有一套严格的标准。同时,在某些场景也需要更多的约束,比如无人车、医疗机器人等。
他还强调,需要建立实体的映射机制,标注AI生成的内容。“现在很多数字人和真人基本上看不到区别,要标注这是AI虚拟人。同时,未来会有很多机器人,可能是虚拟的机器人,有很多智能体,那么智能体应该是从属体,从属于某个人或者某个机构,最后要追溯到主体,这个事情从技术上来讲并不是很难。”
张亚勤还呼吁加强对AI安全研究的投入。“全球我们建议是30%,国内我们先从10%做起,以后慢慢到30%,包括我们的基础研究经费,产品开发经费,包括整个社会的投入,先以10%作为第一个起点。”
最后,他表示还需要设立一些清晰的红线和边界。“红线边界要设立起来其实不容易,因为每个国家可能有不同的情况,但是我觉得要设立什么不能做。”这些需要国际沟通的合作和协调机制,需要不同领域来精诚合作。