当前位置:首页|资讯|人工智能

高文院士:现在的AI还是低水平的智能,AI向善需在技术上做到极致

作者:搜狐科技发布时间:2024-07-05

出品 | 搜狐科技

作者 | 梁昌均

“人工智能高速发展会带来很多安全问题,必须要重视,从技术角度要把人工智能向前推进,做得更好。”7月5日,在今天的世界人工智能大会—前沿人工智能安全和治理论坛上,中国工程院院士、鹏城实验室主任高文表示。

不过,高文表示,现在AI的水平还不够高,有一些能力已经超过人,有一些还是不行,什么时候几乎所有性能都超过人的时候,就可以真正发挥作用。

“今天的AI技术,我们认为它更表现更多的是一种低水平的智能,就是死记硬背的智能或靠数据训练出来的智能。”高文说。

他表示,从人类的学习能力来看,人有非常强的举一反三的能力,而现在的人工智能系统没有这个能力,等到只有少量样本就可以训练出智能的时候,大概就到了中水平的智能,而且它可以跨越领域,从一个领域很容易类推到另外领域。

“至于高水平的智能,我们就可以把它笑一笑、听一听,因为这相当于说人类里面也没有多少人能达到的智能,让计算机系统去做,是非常遥远的事情。”高文说。

既然现在的AI是低水平的智能,为什么会有智能涌现?高文表示,现在的智能是用数据训练出来,比如大语言模型是用不同语种训练出来,用中文训练出来,以中文为母语的人能判断好与坏、准确不准确,但如果用西班牙语训练,学中文的人可能不熟悉。

“当把所有语料放在一起去训练的时候,会使得使用者突然发现有些东西根本不知道,但对另外语种的人不是什么了不得的东西,而对不是母语的人,就觉得很吃惊,所以我想这个涌现更多可以用这种角度解释。”这是高文提供的一个新的解释角度。

对于人工智能的安全性,高文表示,作为技术研究者,必须要把技术本身要做到极致,让它有用。另一方面,作为社会学家,更多要考虑它对社会带来的影响到底是什么?如果有负面影响,有什么办法控制。

“AI向善最主要的时两个角度,技术上要把人工智能技术本身要做得足够好。按现在的水平,还没有办法向善。第二个就是从伦理的角度,必须要在伦理道德等方面规范好,关注人工智能的安全或人工智能的带来风险,比如犯罪。”高文表示。

在高文看来,人工智能的安全风险分成三个方面:模型方面、算法和硬件方面,以及意识的不可控方面。模型本身不可解释,算法和硬件方面有不可靠性,自主意识的不可控性就会失控,系统的失控会带来很多不同的风险,这些都是强人工智能可能会带来的一些风险。

针对这些风险应该怎么做?高文建议,首先要完整完善基础理论,实现模型的可解释性。另外对人为的行为要尽量去预防,或者是能够检测。这很重要的方面就是必须要开展国际合作研究,通过加强交流,使得大家对人工智能安全方面都能够提高到比较高的水准。

人才培养也非常关键。高文提到,以前人工智能安全相关人才非常稀缺,这几年慢慢好转,但仍然需要大量的人才。同时,在语言模型和数据方面,比较重要的就是要有很好的平台,要有很好的数据去训练,在数据控制和管理方面也要做到足够的安全。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1