当前位置:首页|资讯|清华|人工智能|医疗

清华大学薛澜:中国算力也被“卡脖子”了

作者:企业思想家发布时间:2024-05-13

原标题:清华大学薛澜:中国算力也被“卡脖子”了

清华大学苏世民书院院长、

人工智能国际治理研究院院长薛澜

近期举行的中国数字经济发展和治理学术年会(2024)上,清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜教授以《人工智能发展的治理挑战》为题进行了主旨演讲

以下是薛澜在中国数字经济发展和治理学术年会(2024)的演讲全文:

从2022年11月份ChatGPT问世之后,人工智能领域技术创新加速,尤其是以Open AI为代表的美国技术前沿公司更是形成了你追我赶的局面。几个星期前Open AI推出了非常独特的、跨模态的视频生成工具Sora,时长可以达到60秒,惊艳全球,将对短视频等很多媒体娱乐行业产生巨大冲击。同时,自动驾驶、广告、教育、医疗、安防等不同领域也受到很大影响并有可能成为Sora潜在的应用市场。

除此之外,在AI算力的核心硬件方面也有很多新突破,如Groq LPU这一新的大模型推理芯片,其制程虽然还是14纳米,但由于有TSA架构,使得其特定的处理能力非常快,推理速度比GPU快10倍,但能耗只是它的1/10。我国的芯片、GPU等硬件本来就受到制约,现在美国在这方面的新突破把差距进一步拉大。这对中国的创新体系是一个很大的冲击。中国现在的创新模式还是遵循比较传统的线性模式,即从学术研究开始,到工程技术,最后再到产品。这个模式无法形成研究、工程和市场间密不可分的生态,这是现在中国创新体系亟待解决的问题。

中国人工智能的最新发展态势基本平稳,中国在人工智能领域发表论文全世界最多,美国是第二,中美合作的论文也很多。在AI大模型方面,去年5月我们已经发布了79个超过10亿的大模型,现在已经超过130个。如果单从量上讲进步很大,但是实际上我们的大模型还存在不少问题,因为有不少是用套壳和拼装的方式构建的。

具体而言,目前很多国外的模型是开源的,那么在开源的基础上进行套壳就可以形成一个套壳的大模型,接着再将一些这样的大模型拼装在一起就变成更大的大模型,这种方式做出来的大模型背后的原创性是有限的。另外,我们的算力也被“卡脖子”,比如英伟达的GPUA100和H100被美国禁售,很多公司受到影响。

同时,中国数据质量比较低也是一个问题。中国的数据量很大,但没有真正产业化,相对标准化的数据服务商还比较少,因为大数据服务不赚钱,公共数据企业没有意愿去清洗,定制化服务又一般收费比较高。因此,数据市场如何构建也是需要解决的问题。另外就是资本短视。资本短视有各种各样的原因,其中一个原因是对中国资本市场政策不稳定的担心,另外就是商业化面临一些挑战等。所有这些都是中国大模型产业下一步发展需要思考和解决的问题。

2018年,习近平总书记在中央政治局第九次集体学习中特别强调要加强人工智能发展潜在风险的研判和防范,确保人工智能安全可靠可控。2019年和2023年又特别强调重视通用人工智能的发展,营造创新型生态,重视风险防范,综合考虑人工智能发展的社会收益和潜在风险两个方面。总书记的指示给我们推动人工智能创新发展和防控风险指明了方向。

从综合社会收益讲,生成式人工智能的渗透性非常强,对社会影响是全面的。对制造业来说,AI有利于推动产业的数智化转型升级,在推进新质生产力和高质量发展方面潜力巨大。中国在这方面已经做了很多探索,例如,三一重工制造工厂应用人工智能技术之后提高185%,生产周期30天缩短到7天。同时,AI在推动智力密集型的服务产业规模化方面也发挥了巨大作用。

人工智能的潜在风险体现在多个层面。在个体层面,AI可能引发算法歧视、知识产权争议、信息错误等问题,这与技术本身相关。应用和开发过程中也有问题,包括数据隐私保护、防范伪造等。目前我们比较关心的是这些直接的影响,但是社会层面还有一些更长远的大问题,如劳动力结构调整、产业结构调整等影响。

同时,由于劳动力结构调整,可能对收入分配影响很大,从而加剧数字鸿沟、社会不公平等问题,这些都是需要慎重考虑的。另外大模型训练的能源消耗非常厉害,现在看来可能所增加的温室气体排放也是不能忽视的。有人估算ChatGPT在整个训练周期的碳排放量相当于开车到月亮再返回地球的总量。在国家安全层面的问题同样让人担心,包括对社会稳定的影响,在军事上的应用等。

去年7月基辛格到访中国,他非常关心的一个问题就是人工智能对国际安全的潜在影响,他提到二战以后全世界之所以能保持总体和平环境,很重要的一点就是因为国际社会形成了有效的核武器管控机制,这个机制基本保障了核武器没有大规模扩散。他认为未来人类社会如果还想继续保持安全,人工智能治理就应成为核心,而中美两国是全球人工智能治理最关键的国家。他非常积极地推动中美两国在这方面开展对话,后来我们也看到中美两国元首在旧金山的峰会上一致同意开展中美两国在人工智能领域的对话。

在更高层面的风险上,我们都非常关心的就是通用人工智能会不会在哪一天不受人控制?会不会影响整个人类社会的生存?也就是硅基文明和碳基文明今后会有什么冲突?这个层面的风险是人类社会生存的风险。在这类问题上,Chat-GPT的出现影响了整个社会,尤其在技术领域,很多专家也开始高度关注这个问题。清华大学2020年成立了一个人工智能国际治理研究院,当时一些技术领域的专家对提出人工智能治理还有不同看法,认为人工智能技术刚刚发展起来,谈治理太早了。国际上同样也有这样的声音。

这里有两方面原因,首先,是对“治理”这个概念有一定误解,大家只看到了治理概念中的规制一面。但治理包括两个方面,一方面是怎么更好地构建制度体系来推动良性发展,另一方面是规制的一面,如何减少技术发展可能给社会带来的风险及其损害。因此,治理对所有新技术的发展都是必要的。除此之外,当时我们对所谓通用人工智能的潜在风险还没有那么担心,但Chat-GPT出来后变化就很大了。最近,我参与了一些著名人工智能技术专家和治理专家的共同努力,撰写一篇提交给《科学》(Science)的论文。这篇论文就指出,我们已经到了刻不容缓需要推动人工智能全球治理的阶段。这些技术专家之所以认为情况变了,就是因为Chat-GPT的出现让他们认为通用人工智能可能出现的时间要大大提前。

除了刚刚谈到的几类综合性风险,我们更多要考虑具体应用场景。AI在电商、医疗、教育、科研等领域有很多应用,可能产生巨大的社会收益,但也会有很多风险,我们需要探讨怎么有效规避。技术本身产生的风险是典型案例。这里有个例子,当我们问ChatGPT北京清华大学校歌歌词是什么时,它会编造一个错误的答案,把北京大学和清华大学的一些信息混用。除此之外,还有数据滥用、隐私泄露、深度伪造等很多其他风险。再如在电商这一特定情境下,有些电商会做虚假宣传、大数据杀熟等。除此之外,未来人工智能领域的发展还需要综合考虑其社会效应,包括在塑造人类文明新形态的作用等。

出于我刚刚提到的这些问题,人工智能治理受到全世界各国的高度关注,主要为美国、中国和欧盟。其中,欧盟在治理领域行动比较快,其出台的《通用数据保护条例(GDPR)》对世界各国影响很大,现在他们虽然在技术发展方面没有美国和中国走得快,但是在治理方面他们希望走在前列。大家知道,欧盟的人工智能法案已经通过,其定位和目标是通用性的法律,以保护人的基本权利为出发点。其特点是根据基本治理原则与不同的风险等级进行监管。风险被分成了4个等级,最高是不可接受风险,这是彻底禁止的,最低是轻微风险,这是可以合理存在的,而最让人关注的是中间的高风险和有限风险,高风险要严格规制。它把Chat-GPT定义为高风险系统,按照全生命周期进行监管,并采取相应的措施。

美国对人工智能的硬性监管要求不多,分联邦和州两个层面,主要目的还是鼓励市场建设,如透明化、反歧视等。州的层面出台了一些法律法规、联邦层面是去年10月拜登签署的《关于安全、可靠、可信地开发和使用人工智能的行政命令》,当时他还把人工智能领军企业的CEO请到白宫,要求他们承诺推动安全可靠可信的人工智能发展。

中国的人工智能发展战略很早就有考虑。2017年出台的《新一代人工智能发展规划》就已经制定了三个阶段三步走的战略,人工智能治理就是其中重要的内容。规划中明确提出了要关注人工智能的潜在风险、建设有效治理体系的任务。所以,过去这些年中国在人工智能发展过程中始终将治理体系建设放在非常重要的位置上。

2019年,国家人工智能治理专家委员会推出了《新一代人工智能治理原则》,其核心就是要发展负责任的人工智能,有序发展风险防控和治理体系。我们提出了8条原则,这些原则在很大层面上也是世界各个国家的共识。但中国的8条原则中有一个独特的创新,就是明确提出了“敏捷治理”的原则。这是因为,我们发现人工智能的技术发展步伐非常快,但治理体系建设要经过合理的程序,步伐要慢多了,很容易出现步调不一致的问题。“敏捷治理”就是应对这个问题的关键。这8条原则得到了国际同行的好评。

总的来说,我们国家的人工智能治理在2020年后加快了步伐,出台了很多法律法规、各种指南、各种治理原则、规则等,包括去年发布的《全球人工智能治理倡议》。地方政府也有很多措施,涵盖多维度、多领域、多层次的整体规划和各个部门的任务,包括中央、地方,公共部门和私营部门等,形成了从企业自我规制到法律的一整套人工智能治理体系,并有各种工具配合,实现了多维共治、敏捷治理。最终我们希望形成有中国特色的由多元治理主体、多元治理工具和不同治理路径组合的人工智能治理框架。

总体来说,中国的人工智能有雄厚积累与先发优势,形成了推动人工智能发展的总体规划,在过去发展过程中也形成了自上而下和自下而上相结合的治理框架,人工智能技术也有非常广阔的应用场景。同时,中国人工智能发展未来也面临着一些挑战。

首先是怎么样形成不同企业公平竞争的市场环境,包括民营企业、国有企业和外资企业、包括大中小企业等等,这种多元公平竞争的市场环境对人工智能领域发展至关重要。其次是产业生态问题,如何建立企业、资金、人才等多方面主体和多方面资源能够有效流通协调一致的产业生态。第三是治理问题,怎么形成可预期、包容审慎、敏捷有效的治理框架,为形成鼓励人工智能发展的市场环境和产业生态奠定制度基础。最后,就是怎么聚集全球顶尖人工智能人才,Open-AI是全世界各国不同优秀人才聚集发展起来,人才多元化程度很高,中国在这方面需要加大开放力度。

我们相信在各方面的共同努力下,中国人工智能领域能够抓住发展机遇,克服重重困难,迎接多方面的挑战,有效防控各种风险,让人工智能的发展为中国现代化建设服务,为世界和平发展服务。

来源:中国发展高层论坛2024


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1