全国政协委员周志华。
聚焦高质量发展
从下棋的AlphaGO到预测蛋白质结构的AlphaFold,从画画的DALL·E2到聊天的ChatGPT,这些或曾红极一时,或正风头正盛的AI模型们,正一步一步将人类幻想中的未来推到了眼前。
ChatGPT的爆火将如何影响学界的研究方向?“大模型大数据大算力”这条路还能走多远?
全国两会期间,南都记者对全国政协委员、南京大学计算机系主任兼人工智能学院院长、欧洲科学院院士周志华进行了专访。
ChatGPT背后的大模型
没有任何一个模型可以“包打天下”
南都:你认为最近大火的ChatGPT可以算作真正拥有了“智能”吗?
周志华:我们可以说它在某些方面展现出了“智能行为”,或者“表现得像拥有智能”,但并不等于真的“拥有了智能”。
ChatGPT最厉害的地方是能在一段涉及几十个回合的对话中体现出良好的上下文处理能力,给出流畅自然的回答。换句话说,它擅长的是“说话”,至于说得对不对,至少在目前没有保障。而且,今天你告诉它训练语料之外的东西,明天再问它就不知道了,这显然跟我们人类所谓的“拥有智能”不是一码事。
南都:ChatGPT背后的大模型也被频繁提起,我们该如何理解这条技术路线?
周志华:自然语言对话这件事天然就适合“大模型大数据大算力”的路线。从某种程度上说,人类语言本身就是一种“大数据现象”。比如,一种表达即便本身并不通顺,但这样说的人多了,就能成为大家都接受甚至流行的用法,这一过程就是在综合利用大量语料数据形成“合适”的表达。
但对于其他任务,或许天然就没有这么多数据,或者本质上并非“用得多就正确”。总之,没有任何一个模型可以“包打天下”,需要具体问题具体分析。
关于研究方向
热潮时的引领者是在残酷环境下坚持下来的人
南都:以ChatGPT为代表的这波浪潮会影响业内未来的研究方向吗?
周志华:产业界多半会跟着当前最火热的路线走,但学术界应该鼓励百花齐放。ChatGPT的成功显示出“大模型大数据大算力”这条路还有潜力、可以继续往前走,但这不等于说其他路线就不该尝试了。
南都:你所说的“其他路线”有哪些?
周志华:比如说,大家都知道大模型消耗数据能源的问题特别严重,那么能不能通过很多小模型来达到目前大模型才有的效果?通过利用领域知识,能否把对大数据的需求降下来?等等。这些都非常值得探索。一旦哪条路线探索成功了,可能又会带来一种“颠覆式”的发展。特别是基础研究,其实事先并不知道哪条路能走得更远。
当前红得发紫的生成式AI和ChatGPT,背后都是神经网络这一模型,但在50年前,神经网络还是业内公认的“死路”,经历了将近15年冰河期后迎来第二波热潮,但13年后又再次沉寂。如果因为当时其他路线更成功就放弃神经网络,也就没有今天的这一波人工智能热潮了。事实上,热潮时的引领者正是在残酷环境下坚持下来的人。
关于机器学习
基础研究被应用研究“淹没”现象明显
南都:人工智能蝉联三年高考热搜专业榜一,作为导师,你如何看待这一现象?
周志华:现在大家常说全世界都缺人工智能专业人才,但实际上缺的并不是只会使用别人开发的现成工具的人,而是能够在源头上创新、能够针对现实难题发明、设计算法解决方案的高水平人才。
这样的人才需要较强的数学基础、计算机学科知识基础和程序能力,还要有全面且深厚的人工智能专业知识,这几样加起来,必然造成在学习过程中会很辛苦。如果希望认真往这个专业方面发展的同学,要有心理准备,不要幻想很轻松就能学好。
南都:你今年的提案与“人工智能机器学习”有关。当前机器学习领域现状如何?
周志华:机器学习是人工智能的一个基础核心领域,就是大家平时说的“人工智能算法”研究领域,比方说下围棋的AlphaGo、今天火爆的ChatGPT,背后的关键算法就是机器学习算法。人工智能基础研究中的核心部分之一就是机器学习基础理论方法和关键算法模型的研究。
机器学习科研工作大体可分为两类:“研究机器学习算法”和“应用机器学习算法”,前者属于基础研究,是提升人工智能系统的智能性、可靠性、可解释性的关键;后者围绕某个特定应用任务领域,对已有方法和模型调整改进以获得现实效用。
我国目前在机器学习应用研究方面发展快、热情高,而在机器学习基础研究方面相对薄弱。相比于人工智能其他领域,机器学习的基础研究被应用研究“淹没”的现象尤为明显。
南都:机器学习基础研究被应用研究“淹没”的现象是怎么造成的?
周志华:相对于应用技术研究,机器学习基础研究本身的研究门槛更高,取得成果也更慢,不易直接产生效益,年轻科研人员自然就会觉得后者“性价比低”,对前者热情更高。
此外,在科研项目申请与人才选拔过程中,机器学习基础研究与应用技术研究通常被放在一起实施“打包评审”,评审专家又多为“大同行”,不易精准把握工作内涵,较多以高质量论文数、引用数等为参考进行评价,这就导致基础研究项目竞争处于劣势,引起更多青年人才趋向应用研究。
而在科研项目的考核上,当前通常要求明确量化指标,这对于应用技术研究类项目并无不妥,但基础研究注重从0到1的探索,难免会有失败,且“知道什么路走不通”本身就有重要价值,所以项目管理考核中“试错机制”的缺乏,使得科研工作者“不敢”从事风险较大的原创性探索。
南都:这些问题如何改善?
周志华:我有三点建议。第一,完善评审机制,强化“量身定制”的分类评价。应尽量避免机器学习基础研究与应用技术研究两类项目/人员被分在一起统一评价的情况,同时强化评审专家与项目的匹配度,引导专家从研究工作的技术内涵评价其质量水平。第二,优化考核方式。对于基础研究工作,重点考核其原创价值和对于推动领域发展的学术贡献,不事先规定量化考核指标,允许原创探索过程中的试错。第三,适当调整对机器学习基础研究和应用技术研究两类项目的支持力度。比如,在指南类项目中预设一定比例的基础类指南,在评审环节适当调高对前者的支持比例等,形成基础与应用研究齐头并进的良性发展态势。
南都全国两会报道组
策划:程姝雯 潘珊菊 蒋琳
统筹:梁建忠
采写:南都记者 杨博雯 受访者供图