当前位置:首页|资讯|微软|GPT-4|ChatGPT|人工智能|编程

【世经研究】AI行业研究及银行介入策略

作者:世经未来发布时间:2023-04-07

原标题:【世经研究】AI行业研究及银行介入策略

一、ChatGPT快速迭代,OpenAI模型演进,下游应用百花齐放

GPT-4是一个大型的多模态模型,相比上一代 ChatGPT 新增了图像功能,同时具备更精准的语言理解能力。GPT 的升级背后是 OpenAI 的大语言模型的进一步演进,同时带动下游应用的拓展,涌现出新一批应用场景。

(一)GPT迭代更新,人工智能掀起科技潮

GPT升级至四代,模型能力高速提升。ChatGPT是由OpenAI开发的自然语言生成模型,采用Transformer 神经网络架构(又称GPT-3.5架构),基于大量的语料库使用指示学习和人工反馈的强化学习(RLHF)来指导模型训练。模型可理解并生成对各种主题的类似人类的响应,是AIGC技术进展的成果。2023年3月15日,OpenAI 正式官宣了多模态大模型 GPT-4,ChatGPT4 将输入内容扩展到2.5万字内的文字和图像,较ChatGPT能够处理更复杂、更细微的问题。

ChatGPT提供变革性的用户体验,用户数量飙升。ChatGPT发布后爆火,仅用5天时间用户量便破百万,推出 2 个月后用户量破亿,访问量从 1830 万增长到6.72亿,成为史上用户增长速度最快的消费级应用程序。最新版的GPT-4在ChatGPT的GPT-3.5基础上主要提升了语言模型方面的能力,并添加了多模态功能,可以接受图像输入并理解图像内容,可接受的文字输入长度也增加到3.2万token,在不同语言情景和内部对抗性真实性评估的表现都显著优于GPT-3.5,在各种专业和学术基准上已经表现出人类水平,为用户提供变革性的使用体验。

ChatGPT带动AI潮流,多种相关产品推出。办公领域,微软将GPT-4整合到Office应用程序,Teams Premium 中接入Chat GPT提供人工智能生成章节和字幕实时翻译等功能;编程领域中,Viva Sales将利用ChatGPT为电子邮件中客户问题生成回复建议,Stripe使用GPT-4扫描商业网站并向客户支持人员提供摘要;软件领域,Duolingo将GPT-4构建到新的语言学习订阅层中,国内百度“文心一言”也正式推出,AI的潮流开始遍布国内外多行业。

(二)OpenAI模型演进,人工智能向应用拓展

OpenAI模型可以完成绝大多数文本和图像任务,具有成熟的生产力。根据OpenAI的官方介绍,GPT-4可以接受文本和图像的信息,并允许用户指定任何图像或语言任务,处理超过25000个单词的文本。除了在各种标准考试和不同语言情景下都有突出的表现外,在图像的处理分析上,GPT-4能够直接阅读并分析带有图片的论文,承担文本、音频、图像的生成和编辑任务,并能与用户一起迭代创意和技术写作任务,例如创作歌曲、编写剧本或学习用户的写作风格等。

AIGC发展改革生产力,已具备多领域应用能力。AIGC可以利用大量无标注数据进行自监督学习再利用少量的标注数据进行迁移学习,能够持续生成规模大、质量高、单位成本低的内容,在生产力上具有革命性的增长。在应用方面,按场景分类AIGC已经较为成熟地应用于文本和代码撰写、图像识别和生成,在影视、传媒、电商、C端娱乐领域规模应用,未来将逐步拓展到视频和游戏等其他领域,为各个行业和领域的创新和发展提供更多可能性。

(三)OpenAI赋能下游应用,AI+降本增效

以Azure OpenAI为例:AI技术模型全覆盖。AI技术模型全家桶,包含GPT4.0以及后续版本、DALL-E2、Codex、Embeddings 神经网络、VALL-E、认知学习成长、机器学习等,可实现4种用途:

1)企业及客户可利用Azure OpenAI全家桶构建自己的大型预训练AI模型;

2)利用全家桶对AI模型进行数据和参数的微调与提升;

3)通过内置全家桶检测错误与潜在风险;

4)利用全家桶实现角色访问控制和企业级云安全合规。

OpenAI+传统搜索引擎=AI智能搜索引擎。ChatGPT能生成和理解类人类思维方式与上下文联系的结果,而传统的搜索引擎只是给出网页的链接,需要用户自己阅读、点击和判定。无论是知识的获取效率、回答问题的深度,还是交互的延展性,ChatGPT都对传统搜索引擎是一种颠覆式进化。

OpenAI+办公软件,以Office全家桶与微软Teams premium ChatGPT为例。ChatGPT+Office三大件Word、Excel、PowerPoint可完成从文字创作到可视化全程服务。ChatGPT可以根据用户的描述需求自动撰写文档内容,缩短文档的创作时间;根据已形成文档内容智能推荐文档格式、排版等;并根据用户描述制作个性化PPT,同时智能生成朗读语言助力PPT演示。Teams Premium ChatGPT同样具有多样智能服务:

1)自动提供实时翻译;

2)自动生成文本型会议纪要;

3)自动记录发言人员对话和内容;

4)根据讨论上下文自动生成任务等。

二、ChatGPT引爆算力需求,拉动高端芯片市场扩张

(一)人工智能架构以AI芯片为基

人工智能IT技术栈分为四层架构,算力是基础。人工智能架构由芯片层、框架层、模型层和应用层四层架构组成。其中,芯片层主要是指人工智能芯片,为整个架构提供算力基础支撑;框架层主要包括深度学习训练和推理框架平台和数据平台等;模型层主要是自然语言处理(NLP)、计算机视觉(CV)、音视频、多模态等各种大模型;应用层则是面向各种应用场景的人工智能专业服务。下游应用体验的升级需要大模型不断调优迭代,在深度学习框架内进行大规模模型的训练和推理,每一次都对芯片提供的算力基础提出要求,AI芯片决定了平台的基础架构和发展生态。

AI芯片主要有CPU、GPU、FPGA及ASIC,以GPU为主的并行计算为 AI提供了主要生产力。

1)CPU(中央处理器)擅长逻辑控制,用于推理及预测。CPU主要由ALU(算术逻辑单元)、CU(控制单元)与Cache(临时指令存储器)构成。其中,ALU由"And Gate"(与门)和"Or Gate"(或门)构成的算术逻辑单元,主要功能是进行二位元的算术运算,约占CPU空间20%;CU则负责程序的流程管理。CPU的执行周期是从内存中提取第一条指令、解码并决定其类型和操作数,执行,然后再提取、解码执行后续的指令,重复循环直到程序运行完毕。CPU具备强大的调度、管理与协调能力,但受限于单行运算导致算力较低。

2)GPU图形处理器,并行计算满足强大算力需求。在结构方面,与 CPU 相比,GPU中同样具备ALU与CU等架构,但ALU数量与体积占比更多,且采用数量众多的计算单元和超长流水线,具备高并行结构,通过多核并行计算支撑大算力需求,且拥有更高浮点运算能力,在处理图形数据和复杂算法方面拥有比CPU更高的效率,满足深度学习领域海量数据运算的需求。但GPU管理控制能力弱,无法单独工作,需由CPU进行控制调用。

3)FPGA半定制化芯片,无限次编程支持高灵活性。FPGA称为现场可编程门阵列,基本结构包括可编程输入输出单元和可配置逻辑块等。基于其结构,用户可根据自身的需求进行重复编程重组电路,具有高度实时性和灵活性,可以同时进行数据并行和任务并行计算,在处理特定应用时有更加明显的效率提升,可以实现底层硬件控制操作技术,为算法的功能实现和优化留出了更大空间。

4)ASIC全定制化芯片,高速处理速度叠加低功耗表现。ASIC是为专门目的为设计的集成电路,为实现特定要求而定制的专用AI芯片,能够在特定功能上进行强化,具有更高处理速度与更低能耗。缺点是研发成本高、前期研发投入周期长,且由于定制化属性,可复制性一般,缺乏一定灵活性。深度学习算法稳定后,AI芯片可采用ASIC设计方法进行全定制,使性能、功耗和面积等指标面向深度学习算法做到最优。

(二)GPT拉动算力提升,带动高算力芯片市场量价齐升

ChatGPT数据量扩张,算力需求持续增加。历代GPT的参数量呈现指数级增长,ChatGPT的总算力消耗约为3640PF-days(每秒计算一千万亿次,需要计算3640天);GPT4在ChatGPT的基础上增加了图像、视频等交互信息类型,内容容量扩大到2.5万字,所需的算力规模远大于单纯的文字交互。GTP-5在2024年底至2025年发布,它的参数量为GTP-3的100倍,需要的计算量为GTP-3的200-400倍。随着ChatGPT的用户和应用范围的持续扩大,数据处理的压力增大,将提出庞大的算力需求。

算力需求带动高算力芯片市场,AI芯片市场规模持续扩张。机器所产生的数据量在2018年首次超越人类所创造的数据量,从2019年,每年几乎以倍数的幅度来增加,从2020年到2025年,全球数据增量将达到157Zetabytes,5年GAGR高达89%。庞大的数据增量,必须运用各种具备高速运算的人工智能芯片来过滤、处理分析、训练及推理,这将持续带动AI芯片,尤其是高算力芯片需求。2020年全球GPU行业市场 规模达254.1亿美元,预计2027年将达到1853.1亿美元,复合年均增长率32.82%,GPU市场保持高速增长态势。

2025年我国AI芯片市场规模将达到1780亿元,2019-2025GAGR可达42.9%。

AI风潮席卷,芯片价值量有望提升。AI技术的蓬勃发展和广泛应用,导致对高性能计算能力的需求空前旺盛。AI芯片作为行业的核心组件,其价格也随之攀升,成为科技产业的新增长点。随着 AI 模型复杂度的增加和参数量的指数级扩张,对计算能力的要求不断提高。例如预计在2024年底至2025年发布的GPT-5,其参数量将是GPT-3的100倍,所需算力为GPT-3的200-400倍。由于高性能AI芯片在满足这种日益增长的算力需求方面具有不可替代的作用,算力快速增长需求下,芯片供给的不确定性有望提升芯片价格提升。

(三)构建推理/训练服务器需求计算模型,测算未来空间广阔

算力紧缺,ChatGPT频繁下调提问限制次数。鉴于使用人数过多,GPT-4提问上限次数先后从每4小时的使用上限从100次下调到50次,近日ChatGPTPlus又一次将GPT-4提问次数下调至每3小时25次,同时预告再会继续下调提问次数。

GPT-4发挥预期效果需服务器数量与芯片所提供算力支撑。GPT4推理与运算发挥预期能力所需服务器数量主要依赖于2个核心变量,模型参数与训练/推理Token量,不考虑GPT4当前回答次数限制与图像处理功能,在峰值容纳一切原则下,计算框架大致如下:

推理所需服务器=每秒处理峰值Token所需FLOPS/(一台服务器提供的FLOPS*推理下FLOPS利用率);

训练所需服务器=规定时长内训练完所有Token所需FLOPS/(一台服务器提供的FLOPS*训练过程FLOPS利用率)。

未来大规模参数模型持续叠加算力需求,算力供需缺口亟待高性能芯片补充。考虑过去5年中模型参数呈指数增长,LLM(大语言模型)每次迭代都意味着模型训练量与推理量的指数级增长。随着算力时代到来,未来对服务器数量与芯片算力均存在巨大需求,市场空间难以探底。

三、算力时代凸显芯片价值,国产芯片仍处追赶阶段

(一)AI服务器依赖高性能芯片供给

算力时代依托AI服务器,浪潮信息服务器蝉联国内第一。自2017年以来,浪潮信息已连续5年保持中国AI服务器市场份额超过50%,全球范围内,人工智能服务器市场规模达156亿美元,约合人民币1006亿元,而浪潮信息市场占有率达20.9%,保持全球市场第一。

AI服务器核心在于高性能芯片。参数规模、训练数据随着模型多模态发展呈现量级增长,而消化、处理数据的能力,即算力,才是制约模型发挥与其能力的关键因素。在满足算力的最终诉求下,相较于大量叠加服务器台数,提升算力芯片性能同样不可或缺。以英伟达GPU芯片H100SXM例,FP16TensorCore算力为1979TFLOPS,一台搭载8片H100SXM的服务器算力是之前所假设的GPUA100服务器50倍。

GPU占据AI芯片大类市场,全球应用最为广泛。AI芯片在不同领域对于指标的需求不同。训练过程中,GPU由于具备并行计算高度适配神经网络,支持高速解决巨额工作量;推理过程中仅稀疏结构支持一项便能带来 2 倍性能提升。由于GPU可兼容训练和推理,高度适配AI模型构建,在全球AI芯片中应用最为广泛。2021年中国AI芯片市场中,GPU占比达到91.9%。预计到 2025年GPU仍将占据AI芯片8成市场份额

服务器同样依赖芯片供给,把握芯片才能把握算力时代。2022年服务器 CPU的市场份额中,英特尔占超七成,位列第一,AMD拿下约两成,排名第二,两家美企联手占据9成市场,而浪潮信息需要的AI服务器芯片也来自美企英伟达。尽管自2019年起,浪潮信息前五大供应商的名字均隐去,但历史数据显示,英特尔仍稳坐最大供应商之席。上游芯片高度依赖外部企业成为浪潮信息发展的关键制约因素,尤其在美国商务部3月份将浪潮列入实体清单后,上游芯片进行国产替代显得更为紧迫。算力时代背景下,自主掌握高端芯片技术成为兵家必争之地。

(二)主流芯片限制进口,利好国产化芯片自主发展

海外龙头垄断高端芯片技术,国产芯片仍处追赶阶段。以GPU细分赛道来看,目前国内自研GPU的领军企业主要是寒武纪、景嘉微、华为昇腾等,其中成立最早的是景嘉微,主打产品有JH920独立显卡。从产品参数来看,景嘉微的JH920的性能与英伟达在2016年发布的GTX1050相仿,虽然仅相差6年,但考虑到模型与算力发展之迅速,整体而言国产GPU的现状并不算乐观,虽然在特殊领域可满足部分的需求,但是在中高端领域及硬核的算力需求仍存着较长的追赶道路。

主流的AI芯片限制进口,国内AI产业发展面临阻碍。2022年10月美国对中国半导体进行三方面限制,在AI领域限制中国获取等效8Int 600TOPS算力的芯片。英伟达针对中国市场推出了符合新规的A800芯片,相比A100芯片,A800在搭载2个GPU的NVIDIANVLink桥接器连接下,互联标准由600GB/s降为400GB/s。面临V100/A100/H100芯片都进口受限,互联标准下降,英伟达等头部企业维持垄断地位,国产大模型算力需求和国内AI产业发展面临阻碍。

自主可控趋势下,利好国内服务器供应厂商。近年来中美之间的贸易摩擦不断升级,导致双方在技术领域的竞争愈发激烈。例如美国政府对华为等中国科技企业实施了一系列制裁措施,试图限制这些企业获取关键技术和先进芯片。这些制裁措施无疑给中国高端芯片产业的发展带来了巨大压力。目前自主可控进程中,国内企业在设计、制程、封装和测试等各个环节取得了显著进步,部分产品性能已经接近国际先进水平。另一方面,国家和地方政府也在积极出台各种政策措施,支持芯片产业的创新和发展,培育具有国际竞争力的芯片企业。目前ChatGPT引爆的AI潮将拉动云服务器数量的增长,其国内相关供应厂商将有望受益于下游AI+级应用所带来的算力需求增长,国内云服务器与算力相关厂商有望直接受益。

四、对金融机构的建议

ChatGPT爆火,其能力已接近人类水平,GPT升级至四代,模型能力高速提升,以搜索引擎和办公软件为支点,下游应用多点开花。算力需求带动AI服务器需求量上涨,AI服务器核心依托高性能芯片,国产芯片自主发展潜力大,算力芯片及服务器需求剧增下相关零组件的成长空间。

建议金融机构重点关注算力芯片。CPU\GPU等:寒武纪、景嘉微、海光信息;存储:江波龙、聚辰股份;电源芯片:晶丰明源、杰华特;封测:长电科技、通富微电;PCB及其他:深南电路、沪电股份、鼎通科技、裕太微、澜起科技、工业富联。

五、行业风险分析

(一)服务器、芯片需求量预测偏差

对服务器、芯片需求量等测算是基于自身对于ChatGPT使用经验的前提假设,存在假设条件不成立或假设出现偏差导致计算结果出现出入。

(二)AI服务器渗透率提升低于预期

AI服务器渗透率提升的速度存在低于预期的风险,主要与企业投资金额,产品产能扩张,以及供给格局有关,以上因素均会导致AI服务器发展不及预期。

(三)AI应用推广不及预期

AI技术在应用推广的过程可能面临数据质量、资源限制和技术能力等因素的制约,导致相关企业的AI应用存在推广进度不及预期的风险。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1