ChatGPT在全球的流行正在推动AIGC产业化正在全面提速。在此背景下,国内外各大云厂商开始推出了自己的AI对话系统,科技巨头之间的军备竞赛已经打响。目前AI相关应用主要依赖云厂商庞大的算力与网络资源支持,且需求量日渐增长,未来有望推动相关硬件基础设施的不断扩容升级。目前光模块、光芯片、光器件、交换机作为云厂商硬件基础设施中必不可少的通信设备与元件,其速率提升与技术升级可以显著降低功耗,有望缓解算力成本与功耗过高这一阻碍AI产业化的问题,未来有望长期受益。
▍ChatGPT获市场广泛关注,AIGC产业化有望全面提速。
ChatGPT的热潮证明了其巨大的商业价值。近期微软宣布追加投资OpenAI,将向其开展“多年、数十亿美元”的投资;根据华尔街日报消息,OpenAI目前估值达290亿美元,是全球估值最高的AI初创公司之一。同时微软也宣布将OpenAI技术引入到Office、Bing、GitHub、Azure等多项业务,将有望实现较强的协同效应,可见ChatGPT等相关AI技术对于微软云计算以及其他业务线的重要意义。同时OpenAI也宣布推出ChatGPT的付费版本,未来也有望进一步加速相关AIGC业务的商业化。
▍AIGC热潮驱动下,全球科技龙头的军备竞赛已经打响。
据彭博社消息,谷歌于今年2月4日宣布,其与OpenAI竞争对手、AI初创公司Anthropic建立新的合作伙伴关系,目前谷歌已经向Anthropic投资了近4亿美元。谷歌也于2月7日发布了基于谷歌LaMDA大模型的AI对话系统Bard。同天百度也宣布了正在研发的文心一言(ERNIE Bot)项目,将于3月份完成内测,面向公众开放。我们看到在ChatGPT产生的鲶鱼效应驱动下,各大科技巨头正在进行新的一轮科技军备竞赛,未来AI领域投资料将大幅增长,AI产业化进程有望全面提速。
▍ChatGPT停运体现了AI相关应用对算力的旺盛需求,有望推动相关投资持续增长。
目前AI应用主要依赖于云厂商庞大的算力与网络资源支持,如微软作为OpenAI的独家云提供商,Azure为OpenAI提供所有的工作负载。而ChatGPT等AI应用的模型训练与内容生成均需要庞大的算力支撑,早在2020年5月发布的GPT-3据需要的参数就达到1750亿个,数量已经是2019年发布的GPT-2(15亿个)的100倍以上,预训练总算力需求达数千petaflop/s-days。我们认为未来随着AI应用的不断进步,其对于算力与网络需求将呈现爆发式上升。2月7日ChatGPT宣布由于满负荷运行而暂停服务,主要原因是网络等资源的限制,且此前ChatGPT也出现多次宕机,这体现了AI应用对算力的旺盛需求。我们认为AI应用快速增长会带来对于云基础设施的海量需求,推动相关投资持续增长。
▍作为云厂商IT基础设施的必要通信设备,光模块、光芯片、光器件长期有望显著受益。
目前ChatGPT的成本高企,据我们测算每次回答的成本就高达1~2美分,而ChatGPT每次预训练的成本将在百万美元以上。算力成本与功耗过高是AI产业化落地的主要阻碍之一,所以低功耗低成本的算力解决方案是未来数据中心硬件设备的重要发展方向。
光模块、光芯片、光器件、交换机作为目前数据中心中必不可少的通信元器件,其速率的升级可以显著降低单比特的成本与功耗。根据我们的测算,数据中心中光模块从100G升级到800G,其单位速率的功耗将从35mW/(GBit/s)降低到20mW/(GBit/s)。同时CPO方案通过减少PCB布线长度的方式,可以显著降低高速信号的功耗。目前博通等厂商也已经推出相关CPO交换机产品,我们认为在全球科技巨头加大AI投入的背景下,相关方案有望加速渗透。因此我们认为AI产业化有望加速数据中心中光模块等需求增长与技术升级,相关产业将望长期显著受益。
▍风险因素:
ChatGPT相关AI核心技术发展、变现不及预期;科技领域政策监管风险;全球云计算市场发展不及预期;行业竞争持续加剧风险;技术路径风险;地缘政治风险。
▍投资策略:
ChatGPT等AI产业化的落地需要云厂商庞大的算力支持,同时也需要算力成本与功耗的进一步降低。预计这将进一步推动海外云巨头对于数据中心硬件设备的需求增长与技术升级。光模块、光芯片、光器件、交换机作为数据中心中行业必不可少的部分。我们认为在全球科技巨头加大AI投入的背景下,相关算力上游核心环节将有望长期受益。
来源:券商研报精选