作为AI“三驾马车”之一的算力领域正掀起新一轮争夺战。在5月26日的中关村论坛上,对于人工智能时代的算力发展,华为昇腾计算业务CTO周斌给出了他的答案。
Q:在人工智能时代,算力是一个怎样的存在?
A:对于ChatGPT,圈内常常调侃为“大力出奇迹”,这个“力”即为工程化能力,最直观的体现就是算力,这是孵育或者训练大模型的基础能力。从这一点上来说,我们需要提供的就是一个非常强大的算力底座,否则上面的大模型就会“没有根”。
目前华为已经为全国20多座城市提供了基于昇腾AI的算力基础设施,并提供了从模型开发、微调适配、推理部署的全流程软件使能,来支持大模型的建设。
那么人工智能时代,我们需要一个怎样的AI算力系统?未来人工智能的计算系统很可能会成为新的基础设施,人工智能如果无处不在,算力的基础设施也会变得无处不在,对于这样一种基础设施,自然需要它稳定、可靠、安全、高效。
安全毋庸置疑,未来大模型会成为大量业务系统的核心,一定要确保模型本身的安全,包括数据的安全性等在内。其次要保证高效,大模型要消耗大量能源,提高它的效能就是很重要的一个方面。另外大模型的运行时间通常以“月”为单位计算,这也要求模型在全生命周期里,整个系统要非常可靠。
Q:在应用层面,未来人工智能的落地方向或热点会是什么?
A:在千行百业,人工智能都有非常大的落地前景,其中最明显的就是互联网行业,目前人们已经能够享受新一代人工智能带来的红利了,每当我们打开手机上网的时候,背后都有大量的人工智能系统做支撑。另外在金融领域,人工智能也在大规模落地,帮助企业更好地服务客户、提升运行效率、防范风险等。此外,包括自动驾驶、教育甚至是制造业在内,新一代人工智能都会成为非常重要的生产力工具,赋能各行各业,提升整体水平。
Q:企业争相入局,国内也出现了“百模大战”的盛况。您认为中国做大模型有何优势?
A:首先,“多”本身就是我们的一个优势,或者说我们有集中力量办大事的优势,可以让更多的资源投入其中。当然这种资源不是无序和混乱的,而是有一定程度的协同和监管,通过这样一种方式,我们就可以在短期内集合更大的力量攻克难关。
“多”的另一个层面在于应用场景,也就是说场景方面的优势。大模型的攻关是持续进行的,一些阶段性的成果已经显现,比如具体的领域甚至通用领域出现了一些效果不错的模型,且这些模型还在持续演进。我认为应用场景会拉动对大模型的研究,因为大模型要发挥价值,必须要与场景结合,而我们的优势就在于场景非常多,再加上我们的重视程度大,从国家层面集中力量推进,就可以推动其快速地在行业中应用起来。一旦大模型产生了价值,就会形成一个正向的飞轮,进而驱动模型的研究。而模型研究的价值又会在应用里面获得正向增益,这个飞轮一旦启动,就会不可阻挡,迅速在各行各业产生更多的价值。
Q:开源被认为是人工智能发展的一大趋势,算力领域的开源生态是如何打造的?
A:开源和开放是我们秉持的一个基本理念。算力是一个很抽象的概念,它必须依托于特定的软硬件体系。以华为昇腾为例,就是用来构建算力底座基础的软硬件体系,包括我们自己的计算系统、加速卡、服务器、大规模的人工智能集群等,这些物理形态要通过一定的手段开放出来给业界使用,具体包括向底层开放的Ascend C语言、加速库、API以及操作系统等。
在上层还有非常多的基础软件,比如人工智能框架,和不同行业中的大模型套件等,我们也都大量采用了开放的方式,直接开放给整个社区。
算力基础一定是要开放出来的,未来算力一定会变成水电一样重要的生产资源,要把它变成一个人人都可以享有的成果,让大家都能够通过算力受益。
北京商报记者 杨月涵