当前位置:首页|资讯|人工智能|生成式AI

窦德景:人工智能的最新发展和应用

作者:人大重阳发布时间:2023-12-11

原标题:窦德景:人工智能的最新发展和应用

共促全球发展,构建共同未来。2023年11月18日至19日,由中国人民大学主办、中国人民大学与通州区人民政府共同承办的首届“通州·全球发展论坛”成功举办。来自黑山、罗马尼亚、英国、德国、美国、俄罗斯等30多个国家和地区的400余名专家学者、高校代表、在京驻华使节代表等共话全球发展,人民日报、央视新闻、新华社、CGTN、光明日报、中国新闻社凤凰卫视、深圳卫视、封面新闻等30余家媒体代表深入报道此次会议。波士顿咨询合伙人和副总裁、中国区首席数据科学家窦德景出席本次大会并在“分论坛三:全球发展与全球治理体系重构”发表演讲,以下为其发言内容:

AI最大的隐患是生成式AI可能会生成一些看似真实但是其实虚假的新闻,或者是内容。因为它基本上可以通过图灵测试,那就是说到底是真是假,你无法判断了。机器无法判断,人也没法判断,这个时候就存在很大的安全问题。

本文字数约2890字,阅读需要3分钟。

窦德景

非常感谢王院长,非常感谢高瓴学院的邀请!关于我的个人背景,虽然现在在波士顿咨询公司(Boston Consulting Group),但是我原来一直在学术界做研究,在美国俄勒冈大学做了十五年教授,四年前回到百度,在百度研究院负责大数据实验室和商业智能实验室,去年才加入BCG,所以我更多的是偏研究的背景。

八分钟的发言时间不足以讲完人工智能的内容,我就给大家分享最近大半年左右关于人工智能的几个有意思的细节,或者说希望澄清的和比较重要的细节。

首先我想讲的第一点是,AI的发展以及几个发展阶段。1956年,在美国达特茅斯会议,一些有识之士创立了人工智能这个名词和学科。当时,AI还处于萌芽阶段。早在1950年,英国数学家和计算机科学家艾伦·图灵(Alan Turing)就提出了人工智能的基本理念。他在1950年设计了图灵测试,当时用的词不叫人工智能,而是机器智能(Machine Intelligence)。图灵认为机器在五十年以后,也就是2000年有30%的可能性能够欺骗人类。比如说一个人类评审员,对面坐着一个机器和一个人类,评审员的任务是通过对话来判断哪一个是机器,哪一个是人类。如果评审员无法明确区分哪一个是机器,那么机器被认为通过了图灵测试,即具备了通用智能。到2000年的时候,我们做的AI并没有真正通过图灵测试,但是去年底大模型出来以后,第一次让大家看到通过图灵测试的可能性,或者说很快就有通过图灵测试的可能,这是AI的一个非常明显的进展。

在大模型和ChatGPT出来之前,AI已经有两次高速发展期。第一波通常指的是上世纪20世纪50年代至70年代初的时期,以逻辑和符号推理为主的AI。第二次高潮始于上世纪80年代,BP(BackPropagation,反向传播)算法被提出,用于多层神经网络的参数计算。另外,针对特定领域的专家系统也在商业上获得成功应用,人工智能迎来了又一轮高潮。但是前两波高潮中都没有出现成功真正落地的例子,所以二十世纪八九十年代以后,直到2010年左右深度学习出现前,AI发展处于低潮期。从老百姓的角度来看,2016年的AlphaGO打败围棋职业选手,2020年AlphaFold2用深入学习预测三维结构,都是非常好的结果。

去年年底ChatGPT的推出,应该说把整个AI的发展提到了一个前所未有的高度。AI大模型完全可以和上个世纪互联网的出现以及iPhone上市相提并论,甚至比它们还要高。人们很有可能能真正用大模型的办法,或者是生成式AI的办法,达到通用人工智能的水平。通过图灵测试应该不会是一个大问题,我认为很快会有权威机构宣布AI通过图灵测试,这是具有标志性意义的。

图灵在1950年就认为,这是通用人工智能的标志标准,但是随着时间的发展,人工智能能达到的高度,绝对不只是判断左边是人还是右边是机器的问题。

第二点就是生成式AI表现出来的这些优势。从算法上来说,大家都知道2017年的谷歌做的一个算法,叫Transformer,不仅可以很大程度地提升对自然语言的处理,而且在图像和其他的数据类型上都发挥了很大的作用。从人工智能的角度来说,它最大的一个突破是能更好地处理自然语言里面的多轮对话,因为原先的AI系统或者自然语言处理系统比较擅长处理单轮对话,输入一些好的对话对,做机器学习都没问题。但是一旦多轮对话下来,机器可能就会忘了前面说的到底指的是谁。比如我经常用的例子,说姚明,王治郅,巴特尔,中国的三大“长城”在NBA表现很好,在经历了几轮对话以后,当提及“他和叶莉结婚了”,那么这个他到底指的是姚明、王治郅还是巴特尔?原来的AI是解决不好这个问题的,但是新的生成式AI特别是基于Transformer可以算注意力,就是可以算“他”和前面的“姚明”、“王治郅”和“巴特尔”谁的注意力最大,这时候因为叶莉的其他信息存储在网络上,很快就能算出“他”最大可能性是指姚明,而不是巴特尔或者王治郅,这就解决了人工智能从上世纪五十年代开始都没有解决好的问题,所以这个大模型或者生成式AI的工作肯定能拿图灵奖,只是时间问题而已。

其实今天我更想讲的是AI的安全性。因为今天早上,或者说美国时间的昨天,OpenAI的CEO山姆·奥特曼被解雇了,大家认为是资本博弈的结果,但是我觉得最大的可能性应该是他的步伐太快,欠缺对AI安全性的考虑,从而引发公司董事会成员的担忧。一旦控制不好,现在的AI确实是有可能对这个社会或者对人类造成一定的伤害。

AI最大的隐患是生成式AI可能会生成一些看似真实但是其实虚假的新闻,或者是内容。因为它基本上可以通过图灵测试,那就是说到底是真是假,你无法判断了。机器无法判断,人也没法判断,这个时候就存在很大的安全问题。

第二个隐患是身份的欺诈和隐私的侵犯。你的信息放到了大模型上面,你本来是想做一点微调或者是写提示,但是怎么能保证你的信息不被大模型利用,或者说不被黑客用来做坏事。另外就是内容本身不仅是存在真假的问题,还可能是有害的或者是不当的内容。

最后我想提一点,对于人工智能的可解释性应该有研究,我其实在回国之前就已经在做相关研究,在百度又研究了三年AI的可解释性。原来的人工智能,特别深度学习的话它就是一个黑盒子,大家都听说过黑盒效应,反正是多少层的神经网络,然后有一个输入,经过数据训练,最后达到一个预测或者输出,但你其实不知道它内部是怎么运作的,这样会产生很大的安全隐患。好在生成式AI有一个特点,可以用提示的办法去尝试一下模型的边界,用提示的办法来试试它能做什么不能做什么,什么做得好什么做得不好。基于此点,在BCG我们用了一个词(非我首创),将原先的AI或者深度学习称作黑盒,现在的深层次AI称作玻璃盒。虽然有改观但也还不是一个白盒,所以从这一点来说,可解释性还是非常重要的。如果我们想要提高AI的安全性,也许不能达到100%白盒,但是我们希望它往更透明的方向走,这样AI的安全性会有比较大的提高。

//人大重阳

///

RDCY

中国人民大学重阳金融研究院(人大重阳)成立于2013年1月19日,是重阳投资向中国人民大学捐赠并设立教育基金运营的主要资助项目。

作为中国特色新型智库,人大重阳聘请了全球数十位前政要、银行家、知名学者为高级研究员,旨在关注现实、建言国家、服务人民。目前,人大重阳下设7个部门、运营管理4个中心(生态金融研究中心、全球治理研究中心、中美人文交流研究中心、中俄人文交流研究中心)。近年来,人大重阳在金融发展、全球治理、大国关系、宏观政策等研究领域在国内外均具有较高认可度。

扫二维码|关注我们

微信号|rdcy2013

新浪微博|@人大重阳

我知道你“在看”哟~


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1