人工智能大会召开在即,关注三大赛道发展
编辑|w
摘要:
♦ AIGC进入了一个快速发展时期,其产生的内容在多样性和准确率上均得到了极大的提高。
♦ 2023 世界人工智能大会主题是“智联世界 生成未来”,将围绕人工智能产业核爆点、新风口。
♦ 机构看好人工智能行业的加速发展,算力、边缘域和Chiplet这三个赛道将是极为关键的领域。
人工智能“iPhone”时代来临
近年来,生成式人工智能进入了一个飞速发展的时期。从上世纪50年代开始,AIGC就进入了一个以生成式人工智能为主的长期沉淀和积累阶段。随着生成式对抗网络等深度学习方法在2014年被提出, AIGC进入了一个快速发展时期,其产生的内容在多样性和准确率上均得到了极大的提高。
ChatGPT是人工智能的“iPhone”时刻。英伟达首席执行官黄仁勋于3月21日在 GTC 2023峰会上,将芯片 GPT比喻为人工智能的“iPhone”时刻,并指出人工智能时代的加速到来,将促使生成式人工智能的发展。从GPT-1到 GPT-3.5, GPT模型的智能水平在持续地提高, ChatGPT在3000亿单词的语料上,可以预训练出具有1750亿个参数的模型(GPT-2只具有15亿个参数),预训练数据量从5 GB增至45 TB。
世界人工智能大会将展示多款大模型,聚焦脑机接口等方向
6月29 日上午,上海市政府新闻办举行新闻发布会,介绍2023 世界人工智能大会筹备有关情况:本届大会的主题是“智联世界 生成未来”,会议活动总体架构按照“1+1+2+10+N”设置,即1场开幕式、1场闭幕式、科技创新和产业发展2场全体会议、10场主题论坛,以及N场生态论坛。充分发挥大会“科技风向标、应用展示台、产业加速器、治理议事厅”重要作用,汇聚融通全球人工智能领域思想智慧、前沿技术、产业动向和人文生态,助推人工智能健康创新发展。
今年世界人工智能大会将进一步围绕产业和技术变革新风口,从大模型、智能计算、科学智能、具身智能等多方面发力,加速新一代人工智能技术创新演进。一是聚焦大模型技术,集中展示国内外总计 30 多款大模型。二是聚焦算力需求,聚集 10 多家芯片企业,展示 10 多款芯片。三是聚焦科学智能,聚焦脑机接口、AI 辅助药物研发等热门方向。四是聚焦具身智能,围绕具身智能和智能机器人,设置主题论坛和新品发布环节,向大众展示相关领域最新进展。
此外,大会还将围绕人工智能产业核爆点、新风口,发布一批政策、联盟机构,进一步推动全球范围内的人工智能开放合作。
AI产业浩瀚如海,关注算力产业链变迁
随着互联网时代的到来,人们能够获得并使用的数据呈现出爆炸性的增长,来自各个行业、各个场景的海量数据为人工智能的自主学习与模型训练提供了数据基础。随着人工智能的出现,算法模型也在持续地进行着优化,从决策树到神经网络,从机器学习到深度学习,已经被广泛地应用于各个领域。算力是以芯片为核心的人工智能技术发展的硬件基础与平台,其提升是其迅速发展的关键因素。在1956年至2020年期间,电脑运算性能的 FLOPS增长了1兆倍。
近年来,随着人工智能技术的不断发展,越来越多的复杂数据被用于采集和处理,这就要求相应的硬件性能得到提高。从根本上说,运算能力就是电脑能够快速准确地完成特定的工作。OpenAI的调查显示,从2012年开始,用于训练大型人工智能模型的运算量以每3.4个月的平均速度增加了一倍。但在2012年以前,计算能力是每隔两年增加一倍。这就是说,当今所用的资源是过去的7倍。另一方面来说,以线性比例来看,到2019年为止,计算机的使用量已经翻了三十万倍,这说明对于人工智能硬件的需求量正在以几何倍数增长。
存储计算一体化的架构可以克服冯诺依曼极限,提升AI芯片的能量效率。“存-算”体系结构打破了计算和存储的限制,实现了存储器内完成运算,有望突破冯诺依曼瓶颈,成为未来高性能AI芯片发展的新方向。当前主流的存储与计算一体AI芯片都是以模拟计算为基础的。该体系结构一般以 SRAM或者非易失存储为基础,将模型的权值保存在存储器中,通过内存中的电流或者电压等方式对输入的数据进行运算,再通过外部电路对其进行模数转换。该结构可在低功耗、低带宽下完成整倍数运算,适用于边缘AI应用。
强大的计算能力是人工智能大数据的必要技术支持。算力水平的高低直接影响到了数据的处理能力, AI模型的参数与数据库的扩充,都离不开算力的支持,按照英伟达公司的说法,英伟达公司用了1024枚A100芯片,对 Chat GPT3.0进行了训练一个月。从2012到2018年,人工智能所需要的运算能力,已经达到了30万倍,平均每3个多月便翻倍,超越了摩尔定律的速度。根据 IDC的统计,到2022年中,智能算力将突破现有通用计算能力的达268万亿次/秒(EFLOPS),并有望实现 AIGC的商业化应用,而其所带来的计算能力需求也将超出人们的预期。
服务器不断更新以满足数据处理的需要,大算力时代催生了人工智能服务器的需求。服务器是算力的载体,一般的服务器主要为智能手机、电脑等提供基本的计算能力和数据存储支撑,其大多采用的是 CPU作为计算能力的提供者,并且采用的是串行体系结构,这已经不能满足在大算力时代日益增长的数据规模所带来的数据处理需求。人工智能服务器通常是 CPU+GPU/TPU/其它加速器组成的异构架构,通常配备4块或更多 GPU,能够在网络连接中实现高吞吐率,并为算力提供强有力的支撑。随着ChatGPT技术在 AIGC中的应用越来越多,智能算力的规模越来越大,对人工智能服务器的需求也越来越大。
人工智能正处于新一轮产业变革中
有机构认为, AI的发展已经有70年的时间了,目前已经站在了新一轮的产业变革的最高点。在规模方面,到2030年,全球人工智能产业的规模有望突破1500亿美元,并在接下来的8年内以40%的速度增长,模型、数据和算力为人工智能发展三驾马车。在2023年3月,英伟达在 GTC 2023会议上发布AI Foundations云服务,并在会议上公布了H100 NVL服务器,该服务器的运算速度是A100 DGX的十倍,内存达到了188 GB,GPU的带宽达到了3.9 TB/s。在计算能力大型化的大背景下,存储设备的存储能力远远落后于计算能力的提高,“存算融合”的发展趋势已成为必然。民生证券看好人工智能行业的加速发展,算力、边缘域和Chiplet这三个领域将是极为关键的。算力作为供应方,是人工智能行业发展的基础;边缘域作为需求端,为人工智能的应用提供了硬件支持;而 Chiplet,将成为计算时代的主流,也将成为未来科技的核心。
来源:
中国银河证券-AI引领上半年行情,继续围绕算力产业、国产替代、复苏主线布局-20230703
民生证券-AI 与电子共舞-20230628
免责声明:以上内容仅供参考,不构成具体操作建议,据此操作盈亏自负、风险自担