当前位置:首页|资讯|ChatGPT|人工智能

在新加坡,大模型在 GAIR 2023 上迎来高光时刻

作者:AI掘金志发布时间:2024-04-01

原标题:在新加坡,大模型在 GAIR 2023 上迎来高光时刻

2023年8月14日,由GAIR研究院、雷峰网、世界科技出版社、科特勒咨询集团联合主办的第七届GAIR全球人工智能与机器人大会,在新加坡乌节大酒店拉开帷幕。

此次大会是在大模型技术爆炸时代,国内首个出海的AI顶级论坛,也是中国人工智能影响力的一次跨境溢出。

之前六届GAIR大会留下了众多精彩、经典和令人惊叹的瞬间,而本届大会延续了之前的高水准与豪华阵容,共开设10个主题论坛,聚焦大模型时代下的AIGC、Infra、生命科学、教育,SaaS、web3、跨境电商等热门领域的变革创新。

作为国内首个出海的AI顶会,在这里,我们将看到微软最高级别科学家离任后的亚洲首秀、Azure AI 核心科学家谈云智一体,92岁现代营销学之父讲述自己眼中的未来营销,互联网巨头大模型缔造者齐聚狮城分享落地法则,十多位院士、顶会主席大话 AI 3.0,使这一天成为值得反复品味的一天。

首先,是本次大会联合主席,新加坡工程院院士、新加坡南洋理工大学陈义明教授登台致欢迎辞。陈义明教授简单总结了之前6届GAIR大会的历史,对到场的嘉宾与观众们的到场表示了欢迎与感谢,并预祝本次大会在新加坡圆满成功举办。

大会联合主席陈义明教授致欢迎辞

在陈义明之后,大会主席潘毅回顾了AlphaGo、Alphafold到ChatGPT这三个里程碑对AI发展的不同影响,他认为以ChatGPT为代表的大模型将AI带入了生成式的新时代,过去人工智能有有三驾马车,即大数据、优算法、强算力;而在大模型时代,人工智能要落地需要六驾马车,除了前面的三驾马车之外,另三驾马车是赋智能、可解释、低能耗。在接下来的“GPT时代的杰出贡献者”环节,与会嘉宾将会分享他们在这一领域的研究与实践。

大会主席潘毅教授致开幕辞

一.GPT时代的杰出贡献者:那些关于GPT的洞见和机会

大会的第一个环节是“GPT时代的杰出贡献者”,黄学东、周伯文、何晓冬等一众科学家陆续登场。他们不仅是人工智能从低谷迈向高峰的见证者,更是亲身参与者。这一批见证过人工智能从低谷到高峰的科学家,他们走过灰暗但勇敢的年代,在GPT与大模型风潮兴起之前,他们就已经开展了相关的前沿探索。

如今,新的故事热闹开席,站在人工智能未知之域的门口,庞大、多元、复杂的大模型时代,这些科学家不仅是人工智能的前沿探索者,还是大模型与GPT时代的技术创新者与弄潮儿。曾经,他们创造了一个璀璨的AI时代,现在,他们要书写一段更加波澜壮阔的历史,在GAIR大会上讲述他们的洞见和眼中的新机会。

第一位演讲嘉宾是 Zoom CTO 黄学东。黄学东是美国国家工程院、美国艺术与科学院院士,IEEE/ACM Fellow。他指出,移动电话、互联网与 Facebook 分别用了 16 年、7 年与 4 年半才达到 1 个亿的用户量,但 ChatGPT 只用了 3 个月,由此可见其革命性。

如今,中国的大模型呈现「百模大战」的局面,这无疑反映了科技圈对 AI 的敏锐与激情。但在黄学东看来,AI 在工业界的落地应用应考虑「集成式 AI」的实践与可能。古语有云,「三个臭皮匠顶个诸葛亮」。黄学东表示,这一思想在 AI 商业化落地中也有其用武之地。这也是黄学东离开其工作 30 年的老东家微软、转而加入 Zoom 的原因之一。

现在大模型发展存在百花齐放的局面,即参与者往往过分高估自家成果,而没有面向外界进行合理的整合。例如,此前,微软内部的各项 AI 模型如语音、计算机视觉、翻译等功能都十分强大,但没有像 OpenAI 一样整合出一套统一的基础模型ChatGPT。作为一家应用型产品企业,Zoom 注重 AI 模型的集成与融通,用新一代联邦学习融合了 OpenAI、Anthropic、Meta 等等多家模型的功能接口,由此完成比原有模型更好更强大的用户服务。

Zoom CTO 黄学东发表演讲

在与潘毅院士的对话中,潘毅院士问及「未来人工智能将泛化出怎样的能力,是否可以拥有像人类军事家一样的指挥能力」,黄学东院士则认为,人们常常高估技术的短期效力,而低估其长期影响——瓦特在发明蒸汽机,麦克斯韦建立电磁理论时,都没有想到会对未来产生如此大的效应,今天大模型的发展也是如此,我们暂时只能看到短期影响,而大模型对于人类的影响可能会深远,而在那时候,一切皆有可能。

“以大模型为中心,多模态联合发展的技术趋势在未来两年将会成为现实,GPT的出现并非一个偶然事件,而是一个历史必然。在当下,我们都应该注重三个臭皮匠的联合融合能力,这样才能赢过更多的诸葛亮为人工智能应用落地做贡献。”黄学东院士答道。

潘毅对话黄学东

围绕大模型的讨论在继续。继黄学东介绍完「what we are now」后,清华大学周伯文接着介绍大模型在复杂场景中的应用。周伯文是清华大学惠妍讲席教授、电子工程系长聘教授,衔远科技创始人,IEEE/CAAI Fellow。

Tools for AI or AI for Tools ?在 GAIR 2023 的演讲中,周伯文提出这一哲学问题。今天 AI 已经体现出掌握人类语言的能力,下一步,如要复现人类智能,周伯文认为 AI 应学习如何系统地使用工具。以 AI 为中心、工具的存在是为了让 AI 更好,亦或以工具为中心、让 AI 围绕工具工作,这背后实则是人类对于 AI 与自身关系谁占主导的选择。而人与 AI 的关系走向何方,最终将取决于 AI 技术金字塔尖的引领者对这一问题的博弈思考。

AI 能否复现人类智能、学会语言与工具的结合?周伯文在报告中介绍了一个融合语言与工具智能的一个通用学习框架。他认为,在这个框架下基础模型(Foundation Models)可以为融合语言与工具的智能方向提供一个确定的答案,并提出了三个基础研究方向:更通用的意图理解、异构与多源的工具表征学习、多步规划与推理。周伯文教授指出,这样的基础模型与 只聚焦于语言的ChatGPT 在模型、任务、能力、架构是需要很大提升的,对于年轻学者,这会是一个非常重大的研究机会。

周伯文发表演讲

需要注意的是,将大模型的能力迁移到产业应用中,将不可避免地遇到更低频、长尾的复杂场景和大规模协同需求。对此,京东探索研究院院长、京东科技智能服务与产品部总裁、IEEE Fellow 何晓冬指出,应用于产业的大模型必须具备产业原生、价值驱动、开放协同三大特性。

当大模型具备专业知识网络构建、逻辑判断与推理等能力后,落地的门槛高度就会降低。何晓冬在 GAIR 2023 的现场提出了「多模态 x 多行业」的路线。如果将大模型比喻为一位已经完成通识教育的「高中生」,那么大模型「毕业」、走向社会则必须与产业深度融合,通过多模态方式对不同产业、行业进行知识融合、知识获取,学习如何「学以致用」,并现场演示了多个在具体场景中如何「学以致用」的例子。

何晓冬在演讲中

在人工智能与机器人研究国际期刊(IJAIRR)成立仪式环节,IJAIRR的三位主编,新加坡GAIR研究院创始人朱晓蕊博士、美国密苏里大学哥伦比亚分校系统董事会杰出教授许东博士、美国南佛罗里达大学计算机科学与工程系教授孙宇博士及世界科技出版社总经理李志伟博士共同上台为IJAIRR期刊发布揭幕。IJAIRR由新加坡GAIR研究院与世界科技合作出版,是全球人工智能与机器人领域第一本致力于推广DeSci(去中心化科学)的学术期刊。新的学术出版模式将会激励科学家在分享研究成果的同时获得相应的经济收益,并允许更多受众通过阅读的方式进一步促进科学研究工作的开展,从而形成全新的科学生态模式。

人工智能与机器人研究国际期刊(IJAIRR)成立仪式

过去半年,大模型创业公司和投资人们经历了过山车般的起伏。对企业和消费者而言,AI 意味着更好的决策、更好的行动、更好的结果以及更好的体验。但硅谷先锋投资人 Alex Ren 指出,过去几年,AI 的技术落地在盈利上未如预期。

Alex Ren 认为,当前 AI 大模型的投资可以从四个维度出发:一是生产力的释放,即 AI 驱动的工具自动执行任务并提供输出;二是对产业的改变,即使用人工智能优化流程以提高效率、降低成本并改善结果;三是 AI 中间层,指 AI 中间层连接 LLM 以构建可扩展和定制的 AI 应用程序;四是 AI Agent(AI 智能体),由 AI 代替人与机器进行互动并学习。

在与华映资本海外合伙人邱谆的对话环节中,二人还就 AI 如何颠覆社交媒体内容生产方式、初创公司的商业化路径等问题进行了探讨。

Alex Ren 指出,初创公司在同大厂竞争中要明确自身的局限性,从客户的需求侧入手提高 AI 自身的快速迭代能力。邱谆也补充介绍了中美大模型创业公司的差异,他指出,国内企业聚焦 AI 如何解决用户痛点和产品趋势,但硅谷公司则更强调后续产品的增长引擎。

Alex Ren对话邱谆

随着大模型参数的指数级增加,如何高效训练模型成为大模型开发的重中之重。阿里云计算平台首席架构师林伟在 GAIR 2023 的演讲中提出,今天 AI 工程面临非常多挑战。硬件复杂度高,芯片每半年更新一次;集群复杂,高投入未必能带来高性能;分布式任务配置复杂;每一个问题都会大量分散算法工程师在模型训练上的精力。

林伟介绍了阿里云 PAI 灵骏智算平台的基础架构。在算力底座层面,灵骏智算集群通过自研高性能网络、高性能存储、异构资源池化、数据加载加速等优化技术,可实现端到端1.5微秒超低系统通信时延,通信效率17%优化,异构资源利用率3倍提升。在工程平台层,PAI灵骏智算服务提供覆盖AI开发全流程的平台和分布式计算优化能力,单个训练任务可达到万卡级别规模,千卡规模的线性扩展效率达92%,为通用大型模型研发提供稳定、高效的支撑。

阿里云林伟演讲中

林伟认为,MaaS 推动各行各业建模型社区的同时,模型社区也会反哺行业,构建更多 AI 应用,因此构建好的模型与模型社区,对行业至关重要,而 AI 的工程化与规模化也会成为这波 AI 爆发的主要推动力。

二.青年科学家论坛:探索未知,鼓励交叉研究合作

大会下午的第一场,进入了备受期待的“青年科学论坛家”环节。回首人工智能及其基础理论的发展,青年科学家一直占据着重要的地位;在大模型“跑步进场”的创新进程中,青年科学家同样占据了重要的角色。为此,GAIR大会首日设置“青年科学家论坛”,为青年科学家的学术研究提供一个跨界交流的平台,营造探索未知的学术氛围,鼓励青年科学家之间的交叉研究合作。

伊利诺伊大学厄巴纳-香槟分校(UIUC)副教授李博指出,大模型时代,机器学习无处不在,但是大模型的安全性和可信性问题一直是学术界和工业界关注的重点,Amazon、Anthropic、 Google和 OpenAI 等公司曾共同承诺将更加负责等对AI进行开发;与此同时,大模型因为数据隐私等方面的问题,一旦进入物理世界,便会十分脆弱。为此,他们团队提供了一个综合可信度大模型评价平台叫「DecodingTrust」,从有害内容(toxicity)、刻板偏见(stereotype bias)、对抗鲁棒性(adversarial robustness)等多个维度对 GPT 模型进行了可靠性评估,旨在评估不同可信度视角下的 GPT 模型的准确性,以及其在对抗性环境(如对抗性系统/用户提示、示例样本)中的稳健性。「DecodingTrust」研究发现,尽管 GPT-4 在标准基准测试中通常比 GPT-3.5 更可信,但在越狱系统或用户提示的情况下更容易受到攻击,背后原因可能是因为 GPT-4 更加准确地遵循(误导的)指令。李博认为,AI 系统的安全性并没有单一的解决方案可以解决所有问题,需要多方持续地关注。

李博远程演讲中

南洋理工大学副教授张含望带来了以《视觉识别中的因果关系》为主题的演讲。他认为,对于当前的大模型来说,如果想要真正突破一些最底层逻辑上的问题,因果关系(Causality)是一条必经之路。

张含望表示,在多模态模型或大语言模型的研究中,偏差(bias)是常见问题。随着模型规模的不断扩大,它可能会越来越智能,但偏差问题依旧存在。这就意味着,若不把因果关系加上去,大模型只是在进行强行关联。如果幸运,模型在回答问题时能够给出正确答案,否则就会“胡说八道”。这是因为它背后的关联本身就是错误的,把共生关系当成了因果关系。张含望还更进一步地指出,共生不等于因果,经常发生的事情不一定是因果关系。

对此,他给出的建议是,做多模态模型的过程中,一方面一定要多关注“等变性”,因为“可拆解性”可以通过数据量堆叠,“等变性”不可以;另一方面,目前,多模态之间互通的瓶颈在于非语言模态(例如图像)的spatial tokens和语言分布差的太远。他认为,语言的本质是可递归的符号系统,这也是大语言模型可以推理的基础。所以,如果想得到真正的多模态大模型,就必须找到一种“可递归,可拆解的”的tokenization的方法,把非语言模态转成“可递归分布”的token。

张含望演讲中

严睿在 GAIR 2023 的演讲中主要介绍了大模型的发展历程,以及大模型所对应的新特性与背后对应的新技术。此外,介绍了将大模型能力与对话式人工智能相结合的研究点,探讨了一些现有的技术发展路线与可能存在的技术挑战。最后介绍了一下人民大学推出的玉兰系列大模型,包括RecAgent推荐仿真大模型,能在一定程度上解决数据匮乏与冷启动问题,也有可能推广到其他场景。

会后,严睿与现场观众对涉及到通用模型在专业领域应用的话题展开讨论,严认为将开源模型进行微调以适应特定领域数据有一定效果,但研究尚处早期无确切定论。

睿演讲中

三.大模型时代的超级基建:降低成本和门槛,让新科技革命发生

大会下午第二场进入“大模型时代超级基建”环节。过去数年间,AI领域应用落地曾一度乏善可陈。但在刚刚过去的几个月,ChatGPT引爆了大模型的浪潮。尽管如此,当前的大语言模型的训练然面临诸多挑战。基于此,GAIR大会首日设置“大模型时代的超级基建”,共同探讨AI底层基础设施相关话题。

过去数年,AI 模型的参数发生了极大变化。新加坡国立大学校长青年教授、潞晨科技创始人尤洋指出,从 2016 年至 2021 年 1 月,AI 模型的参数量是每 18 个月增长 40 倍;从 2018 年 1 月到 2021 年 1 月,AI 模型的参数量每 18 个月增长 340 倍。而相形之下,2016 年 1 月至 2021 年 1 月间,GPU 的计算增长速度每 18 个月仅增长了 1.7 倍。由此可见,训练成本高、周期长,是当前大模型发展最需要克服的难题。

针对这一问题,尤洋提出了 Colossal-AI 系统,从高效内存系统、N 维并行系统和大规模优化三个层次出发,以实现同样的设备条件下将数据移动的最小化,将 GPU 的吞吐量扩大至最高点。

尤洋还指出,现阶段的模型参数量以 10 万倍扩大、但层数增加不多,这或意味着:如今的 AI 发展可能不再是深度学习、而是进入了宽度学习时代。在模型变得更宽的情况下,面对大规模、长时间的 GPU 训练任务,大模型训练系统的核心将是如何实现 GPU 并行计算,以实现大模型训练越快越省钱的目标。

尤洋演讲中

如何用云计算支撑大模型的发展?UCloud董事长兼CEO季昕华分享了以《中立云服务助力AIGC的发展》为主题的演讲。

季昕华认为,判断一个大模型能不能做好主要有四个关键要素:一是资金密度;二是人才密度;三是数据密度;四是算力密度。

一家大模型公司如果没有一个亿美金,那基本上压力就会比较大。因此,大模型被称为是互联网的重工业。除资金以外,大模型的训练需要大量的科学家人才、数据、算力。

而UCloud主要做的就是大模型最下面的基础设施。季昕华提到,目前,国内有139家公司在做大模型,其中五六十家都是由UCloud支撑和支持。所以,他们对整个模型过程中的技术要求非常清楚,也看到了大模型目前发展阶段在技术上所遇到的挑战,包括功耗、存储、网络等。

季昕华演讲中

汇智智能联合创始人刘黄骁烈在演讲中介绍了当前大模型技术的主要应用场景。他表示,目前,大模型技术应用场景可以分成优化交互、辅助工作、素材制作三个方向。他还指出,这三个方向主要落在辅助用户,帮助用户去提效上,并不能替代人工。

在实践过程中,他发现对于没有AI专业背景的用户使用大模型,常常会出现翻车现象。这种情况下,大模型对他们工作的提效就是负的。

在用户眼里,现在的大模型就像是一套拥有超能力的钢铁盔甲,用户期待穿上这套盔甲以后,立马就能飞起来、发射激光炮……但现实是,现在大多数用户的问题是:不知道如何去操作这套拥有超能力的钢铁盔甲,以及面对不同种类型的盔甲,应该如何选择?

刘黄骁烈把当前用户面对的大模型时的困境,归纳总结叫做“GNOMIC困境”,六个字母分别对应的是 Guide(指导)、 Notarize(公正)、Operate(操作)、Measure(衡量)、Identify(区别)、 Catelog(推介)。

基于以上分析,汇智智能推出如下产品和服务:AIGC开源社区微言大义——解决“GNOMIC困境”的一个全量的解决方案。通过智能体的概念把大语言模型封装成一系列,用户能够更好地感知行业案例。

刘黄骁烈演讲中

Zilliz创始人兼CEO星爵指出,过去十年,受限于研发成本和开发难度,全球仅有1%的人专注于AI领域的研发工作。但如今,有了大模型和向量数据库作为能力基座,一个AI 应用的开发仅仅需要两三个工程师一个周末的时间便可完成。“忽如一夜春风来,千树万树梨花开。”对于大模型,星爵如此评价道。

此外,星爵还强调了向量数据库之于大模型的重要性。他认为,向量数据库承担着大模型数据片外存储的重任,不管是图片、视频语言还是生物学中蛋白质的三维结构,都可以用向量的方式表征它的语义。

针对数据实时性和私域专有数据的问题,星爵表示,学术界和工业界存在两种解决方案,一是通过Fine tuning的方式迭代演进,让大模型学到更多知识;二是通过Vector search方法,把最新的或私域知识存到向量数据库中,需要时再在向量数据库中做基于语义的向量检索。上述两种方法都能为大模型提供更加精准的答案。

不过,星爵也坦言,从成本角度出发,向量数据库的成本是Fine tuning的1/ 1000。所以大模型厂商都无一例外地推荐开发者使用向量检索的方式做知识库管理,以便和模型有一个更好交互,降低落地使用成本的同时,提升在业务中的实际效果。

星爵演讲中

在演讲过后的圆桌论坛环节,云启资本合伙人陈昱与尤洋、季昕华、星爵三位嘉宾共同讨论了当下备受关注的热门话题,包括大模型基础设施建设面临的挑战、如何降低大模型训练成本等。

针对大模型基础设施建设面临的挑战:

尤洋认为,通信基础设施非常重要。比如,英伟达收购Mellanox的目的就是为了打造高速网络。过去,挖矿等一些非AI需求的GPU就没有很好的高速互联。

季昕华在此前演讲中已经提到大模型面临的挑战。在圆桌环节,他进一步解释强调,资金方面,大模型的训练需要大量的资金投入;算力方面,现在大部分的公司都没有足够的卡来做支撑;工程方面,数据存储性能问题,以及整个训练过程掉卡问题,都会使得整个训练周期会变得非常长。

星爵则强调了数据方面的问题。他表示,世界上有 80% 以上的数据都是非结构化的数据。过去十多年,非结构化数据的管理能力主要由谷歌、微软等大公司掌握。星爵表示,新AI时代对数据管理的要求也会变得更大,如何更好地做好数据基建,这对大家都是很大的挑战。

针对业内非常关心的成本问题,几位嘉宾也都给出了相应的观点。

尤洋表示,大模型训练的一个巨大负担是训练计算量太大。对此,他给出了三种解决方案:一是不改变硬件条件下试试能否加速收敛;二是,针对下层软件,在不改变模型结果前提下,能否提供更好的基础设施;三是能否进行模型优化。

季昕华表示,优刻得主要通过五个方面帮助客户降低成本。一是降低电费。不论做训练还是推理,电费大约占总成本的15%左右,优刻得乌兰察布数据中心能够把电费单价从1块钱/度降低到3毛钱/度;二是化购买为租用。由于训练一般分阶段,因此公司可以选择租用模式。比起购买,租用会极大降低使用者的成本;三是通过网络带宽和存储带宽来提高使用者的训练效率;四是通过压缩模型等手段,来降低推理成本。毕竟,未来推理成本可能会远大于训练成本;五是通过一体机的模式,即私有部署的模式推进私有化大模型。

星爵表示,就降低成本而言,从向量数据库角度来看,主要包括三方面:第一,要有更好的算法;第二,要更聪明地利用个体存储;第三,要比以往有更强的有效利用硬件的能力。

圆桌结尾,电脑报创始人陈宗周发表了总结感言,他对各位嘉宾的演讲和工作成果都给予了盛赞。陈老师还特别提到,很多讲者已经把事业做得非常庞大,但依然非常谦逊,中间更是有不少人是年轻一代的榜样。

陈宗周致大会总结

至此,第七届GAIR全球人工智能与机器人大会首日日程圆满结束。8月15日,精彩继续!

这个世界从不缺时代的注脚,GAIR存在的意义,就是让AI历史上的各种机缘与巧合,交织在一起,碰撞出新的思想与故事。

8月14日-15日,一群涌动着探险家、变革者、英雄血液的创造者,也将让最前沿、最奇思妙想的大模型技术突破与商业试验,以空前肆无忌惮的方式绽放。

这次他们齐聚在新加坡乌节酒店,为第七届GAIR全球人工智能与机器人大会,带来最为激荡的思想碰撞。

推荐阅读

华为AI存储「求解」大模型

华为盘古大模型、特斯拉人形机器人...上海人工智能大会的「三大看点」


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1