今天给大家带来【2023AI系列深度-ChatGPT掀起算力潮-芯片及服务器上游投资价值凸显】
摘要:ChatGPT爆火,其能力已接近人类水平。GPT升级至四代,模型能力高速提升。2023年3月15日,OpenAI正式官宣了多模态大模型GPT-4,ChatGPT4将输入内容扩展到2.5万字内的文字和图像,较ChatGPT能够处理更复杂、更细微的问题。最新版的GPT-4在ChatGPT的GPT-3.5基础上主要提升了语言模型方面的能力,并添加了多模态功能,在不同语言情景和内部对抗性真实性评估的表现都显著优于GPT-3.5,在各种专业和学术基准上已经表现出人类水平。
以搜索引擎和办公软件为支点,下游应用多点开花。OpenAI+传统搜索引擎=AI智能搜索引擎。ChatGPT能生成和理解类人类思维方式与上下文联系的结果,ChatGPT都对传统搜索引擎是一种颠覆式进化。Office方面:OpenAI+办公软件,以Office全家桶与微软 Teams premium ChatGPT为例。ChatGPT+Office三大件Word、Excel、PowerPoint可完成从文字创作到可视化全程服务。ChatGPT可以根据用户的描述需求自动撰写文档内容,缩短文档的创作时间;根据已形成文档内容智能推荐文档格式、排版等;并根据用户描述制作个性化PPT,同时智能生成朗读语言助力PPT演示。
算力需求带动AI服务器需求量上涨。GPT4作为大型多模态模型支持图像和文本的输入,背后是大语言模型的演进与参数量、训练数据量的指数级增长。GPT4频频下调提问限制次数传达算力不足信息,大语言模型的快速迭代催生大量算力需求。满足算力需求依托叠加AI服务器数量与提升服务器算力性能两种途径,从而支撑大语言模型发挥预期功效。我们率先提出建立推理/训练服务器需求测算模型:1)考虑大语言模型迭代呈现参数量指数级增长趋势,GPT-4参数量为万亿,此基础上我们测算得出 GPT-4推理发挥预期功效所需服务器数量为6652台,百万亿参数基础上,所需服务器数量将上升至66万台;2)根据硅谷披露GPT-4训练Token数9万亿,我们测算得出GPT-4训练所需服务器数量为1391台。未来随着大语言模型不断迭代、GPT等语言模型渗透率不断提高,算力时代下服务器呈现基建化趋势。
AI服务器核心依托高性能芯片,国产芯片自主发展潜力大。AI芯片中GPU凭借并行计算具备强大算力,占据AI芯片大部分市场;美企英伟达独占鳌头,占据80%GPU市场。相比英伟达产品,国产芯片性能存在较大差距,仍处于追赶阶。受美实体清单影响,高端芯片采购受阻,倒逼国内服务器厂商大力推进国产替代,利好国产芯片自主发展。
投资建议:我们看好算力芯片及服务器需求剧增下相关零组件的成长空间。CPU\GPU等:寒武纪、景嘉微、海光信息;存储:江波龙、聚辰股份;电源芯片:晶丰明源、杰华特;封测:长电科技、通富微电;PCB及其他:深南电路、沪电股份、鼎通科技、裕太微、澜起科技、工业富联。
风险提示:LLM模型发展不及预期、行业空间测算不及预期、AI芯片发展不及预期。
来源:头豹研究院
关注公众号【数策前瞻】获取完整PDF电子版
免责声明:以上报告均系本平台通过公开、合法渠道获得,报告版权归原撰写/发布机构所有,如涉侵权,请联系删除 ;资料为推荐阅读,仅供参考学习,如对内容存疑,请与原撰写/发布机构联系。
关注公众号【数策前瞻】获取完整PDF电子版