导读:无论是ChatGPT的诞生还是Sora引发的全球关注,大模型呈现出来的智慧涌现能力,被认为不亚于PC和互联网的诞生,将彻底改变产业形态和竞争格局。在这个人类历史进程的关键时刻,中国如何应对?
2024全国两会正在举行。3月5日,国务院总理李强代表国务院,向十四届全国人大二次会议作政府工作报告。其中,“人工智能+”首次被写入政府工作报告。
全国人大代表、科大讯飞董事长刘庆峰建议制定国家《通用人工智能发展规划》,系统性加快推动我国通用人工智能发展。
刘庆峰表示,“我们要正视差距,聚焦自主可控的底座大模型‘主战场’,从国家层面聚焦资源加快追赶,同时系统性构建通用人工智能生态和应用,打造综合优势 。”
全国人大代表、科大讯飞董事长刘庆峰
01.怎么看待两会热词“新质生产力”?
刘庆峰:如何真正的构建更科学的产业体系,新质生产力是作为引领性的关键发力点。
我觉得今天提新质生产力,首先应该要强调它的原创性、颠覆性,因为它一定要是引领未来的,只有引领未来的才具备更长期的更久远且是安全可控的价值。
第二,新质生产力一定是要构建在自主可控的国产软硬件的基础之上,绝不能让我们的新技术和原创性、颠覆性的技术成果在别人的硬件、别人的工具上研发出来,以至于未来运行没有一个安全可控的环境。所以一定是在我们自主可控的国产软硬件平台上来构建面向未来的新质生产力。
图源:腾讯科技
第三,新质生产力还应该跟当前的国民经济主战场紧密结合,它能够对当前的主要的产业形态进行提升赋能,同时又具备对未来的引领性,我觉得这几块组合起来的新质生产力,是既可以对当前起到支撑作用,又可以在长期起到引领作用,并且是在安全自主可控的平台上持续发展的。
02.为什么大家如此关注新质生产力?
刘庆峰:第一个角度是,在全球的政治经济的整个大的不确定的背景下,我们必须要通过更强的自主创新能力来赢得未来发展的主动权。所以这个时候一般意义上的传统的生产制造,在产业链价值链中没有比较优势就很有可能被别人“卡脖子”。所以今天我们必须要强调新质生产力,使我们开辟出一条可以自主可控的发展道路。
第二个角度是,找到新的增长点,需要新质生产力。今天全球正寻找着下一个经济增长点,从新能源汽车大家已经看到中国去年取得很好的突破,再到未来的家庭陪伴机器人,再到新能源、化工新材料、生命科技等等越来越多的各种创新领域中,其实都需要用新的技术来引领,我们要找到未来更大的经济增长的动力来源。
山西太钢的“手撕钢”
在过去这么多年中大家可以看到,即便是疫情期间数字经济也保持了高速增长,其实成为整个的世界经济发展的非常重要的一个引擎和助推器。而今天我觉得这个新质生产力要跟数字经济赋能传统产业、赋能实业相紧密结合。第三个,我觉得也是这一轮通用人工智能的发展极大地提升了我们每个人的生产能力,把原来传统意义上的以时长和人力堆砌的商业模式彻底颠覆掉了,会根本改变产业形态和竞争格局。
在这个大的背景下,我们既需要对现有的产业进行全面的升级,用人工智能来赋能,就是“人工智能+”行动计划,同时它又可以提升我们每个人的能力,使我们在探索未来上比原来站在更高的平台之上,再次从改变科研的形态上来看,AI for science,就是人工智能在助力科研发展上都会有巨大的能量。
新质生产力让我们看到了通用人工智能时代会产生更多的全新的产品和服务形态,这是今天我们特别关注它的主要原因。
03.如何看待当前中美之间发展通用人工智能的关键差距,中国目前有哪些优势?
刘庆峰:在算法上,人工智能发展关键首先是要有算法。我们要能够深刻掌握以大模型为代表的人工智能的核心算法,目前我们已经掌握了全球最先进的算法,并且具备了持续创新的能力。
在数据上,open AI训练93%是英文数据,中文数据只有0.1%,我们的大模型,要学习中国的很多传统文化悠久的历史,这是必须的。但是在全世界最新的科学知识上,我们不仅要从中文学,还要向英文和全世界多语种去学习,好在我们有最好的机器翻译技术,把全世界的知识内容给它翻译出来,找到正确的,找到价值观对的信息跟我们大模型学习;因此数据上面,下一步我们整合各方力量,跟全世界同步基础的科学知识和逻辑相关的语料置换,把垂直赛道的数据形成我们的比较优势。
在算力上,我们通过软硬件的深度融合和集群的联动来弥补我们在单个芯片和单卡上的劣势,努力的在算力上不被甩开。国产算力需要一个生态建设的过程,需要算子库和工具链的完善。科大讯飞两次被美国极限施压,但我们跟华为深度合作,去年10月份联合推出来飞国内首个万卡规模可训万亿浮点参数的算力平台“飞星一号”,讯飞星火3.5作为“飞星一号”的首个成果,极大的增强了大家的信心,七大核心能力全面提升,数学、语言理解、语音交互能力超GPT-4 Turbo。新华社研究院中国企业发展研究中心最近发布的评测结果显示,讯飞星火认知大模型获得冠军,并在基础能力指数、智商指数、工具提效指数三项评测指标第一。所以大家就看到了我们在国产算力上我们是可以紧紧跟上的。
在应用场景上,有了数据和算力的基本保障,再加上算法上,这么多年形成的积累以及成建制的团队,我们会进一步把应用场景和行业领域优势发挥出来,现在已经在语音大模型、医疗大模型等领域形成了国际领先的比较优势。
在这次通用人工智能的竞赛之中,我们是有可能给世界提供第二种选择的,成为智慧涌现的第二级,同时又能够在人工智能给整个社会的生产和生活方式重大变革的时候,我们能够紧紧跟上,甚至在部分领域和关键战略领域,形成超越。通用人工智能确实相当于PC和互联网的诞生,可以带来生产信息获取,人际沟通方式的重大变革,带来科研范式和生产效率的根本性的提升。所以通用人工智能确实是今天任何国家都要在未来具备产业链的话语权,具备引领未来科技的影响力必须要依托通用人工智能来提高生产效率,来提升科研的效率。通用人工智能现在是兵家必争之地,所以我觉得作为通用人工智能的底层能力,就是通用大模型能力。
2024年,全球人工智能竞争升级为系统性竞争。刘庆峰认为,在中国第1颗原子弹爆炸的60周年的时候,我们更要发挥“两弹一星”的精神、集中力量办大事的优势,系统性地来对通用人工智能时代的竞争提出建设意见。要正视差距、加快追赶,发挥举国体制优势,加大并保持对通用大模型底座“主战场”的持续投入,加快形成围绕国产大模型的自主可控产业生态。通用人工智能就是数字时代的“原子弹”,中国必须得有自己的。中国必须要像当年“两弹一星”一样集中我们的举国体制优势,一定要紧紧跟上美国最新水平。
图源:电影《横空出世》
以我们现在实际的团队和实际跟进的情况,再加上基本条件是可以在自主可控的平台之上来实现这样一个战略目标。
04.科学理性地看待差距:动态追赶
刘庆峰:在本轮以大模型为代表的通用人工智能竞争中,以我国首个基于全国产算力训练的全民开放大模型——讯飞星火大模型为例,其预计在6个月内可达到GPT4/4V当前最好水平。但是随着GPT-5的发布,这个差距可能会被拉到一年以上。动态差距大约在半年到一年,来来回回高高低低,它往前进一步,我们又追一步。
如果从算力、数据、模型训练等方面组织好资源全力追赶,这个差距有望在1-2年内被追平到相当的水平。同时我国也在语音大模型、医疗大模型等领域形成了国际领先的比较优势。我们有信心在通用大模型底座上不会出现代差级落后的差距,在此基础上结合行业场景和数据进行打磨,有望实现典型行业领域的超越。在追赶的同时,结合全新的技术发展、竞争格局、产业赋能以及在社会生活中的各种变化,非常有必要根据新的形势制定系统性规划。
05.正视差距,系统性制定国家《通用人工智能发展规划》,加快追赶
刘庆峰:既要科学理性的看到差距,但又不能过度焦虑。
要正视差距,加快追赶。刘庆峰在两会建议《全国人大代表刘庆峰:聚焦自主可控通用大模型,制定国家《通用人工智能发展规划》》中给出了具体的行动建议:
当前,在人工智能领域,中美博弈最核心的“主战场”是通用大模型。只有通用大模型能力能够对标国际最先进水平,行业模型才具备持续提升的潜力。我国在《新一代人工智能规划》指引下,在认知智能领域已经具备了非常扎实的技术储备和成建制的团队,因此中国有望成为智慧涌现的第二极。
建议“整合各方资源,发挥举国体制优势,顶格推进,加快制定国家《通用人工智能发展规划》。”建议在2017年《新一代人工智能发展规划》的基础上,瞄准我国通用人工智能发展中需要重点补上的短板进行设计,围绕自主可控通用大模型研发、源头技术前瞻布局、算力生态构建、高质量数据开放共享、科学的评测标准制定、人才培养、法律制定和伦理人文等维度,系统性制定国家《通用人工智能发展规划》,顶格推进规划的制定和落地。
具体为九个方面:
一是聚焦通用大模型“主战场”,整合各方资源,持续加大投入。
二是围绕通用人工智能相关领域,布局战略性、前瞻性基础研究,坚持以源头核心技术突破来推动颠覆式创新的探索;
三是加快形成以国产大模型为核心的自主可控产业生态。国产大模型向开发者开放,支持大模型对工业互联网、软件行业的赋能,也要支持大模型在汽车、家电等领域的应用,以“人工智能+”推动我国自主可控的大模型产业生态蓬勃发展。
全屋智能 图源:美的官网
四是推动国家级高质量训练数据开放和共享。
六是加快推广大模型赋能教育教学,覆盖基础教育、职业教育和高等教育全学段,并以全新机制加快探索我国人工智能拔尖创新人才培养;
七是研究通用人工智能时代人才能力素质模型和培养方案,加快对社会各行业应用型人才的培训;
八是研究通用人工智能技术与应用相关领域法律法规制定;
九是设立软课题,进行通用人工智能相关的伦理人文研究。
06.前段时间Sora横空出世,整个通用人工智能局势哗然,您怎么看待它的出现?
刘庆峰:我们并没有那么惊讶。我觉得它是被很多不是太了解的人把它神化了,说“现实世界不存在了,Sora对物理世界的认知又上了一个大台阶”。所以sora一推出来给很多人很大的震撼,但是它的底层逻辑并不像大家所理解的那样——现实世界不存在了——是整个大模型对物理世界的认知又上了一个全新的台阶。它的底层的认知还是GPT-4。所以我觉得大家不要过度的焦虑。
大家看到GPT-4去年3月份发布,每个月也在不断地迭代,最近推出GPT-4 turbo,它具备了深度的语义理解、长链条的逻辑推理、多人对话能力和基本的数学能力等等。这些是支撑Sora能够用有一段话、一个prompt生成一段视频的基本能力。第二,在GPT的大框架下,Open AI去年推出来的GPT-4V就是它的视频大模型,因为有了GPT-4V的视频模型,它可以对海量的视频做更生动更全面的标注。
比如说我们今天这样一个画面,我的头发怎么样、眼睛怎么样、我的人大代表的牌子放在什么位置,以及周围的背景画面,如果想所有细节都讲清楚,需要靠一个团队来做很长时间的标注才行。而现在用机器自动标注,可能它会打上几千、几万,甚至几十万个不同的标签,迅速就做了标记。所以有了GPT-4的底层能力,加上GPT-4未来用机器帮助人进行标注,就使得海量视频的学习具备了可能性。再用全是transformer的方法,就是GPT生成式预训练,G代表生成式,P代表预训练,T就是transformer的算法,实际上就是把传统的视频方法跟transformer分布结合起来,所以有了Sora。
Sora实际上是GPT-4的基本能力在视频这个领域的一个成功实践,并不是大家说的真实世界不存在了,大模型对物理世界的认知又上了一个全新的台阶。其实很多的自媒体,很多PR文章,是有点过度的耸人听闻的。