今天分享的是AIGC系列深度研究报告:《AIGC专题:Sora算力倍增,国产架构+生态崛起》。
(报告出品方:华西证券)
报告共计:48页
海量/完整电子版/报告下载方式:公众号《人工智能学派》
全球算力架构升级战已打响。英伟达架构持续升级,升级迭代速度明显加快,平均两年架构升级,我们判断目的是维持在GPU霸主地位, 根据新浪财经报道,B100将于2024年第三季度开始量产,部分早期样品将于明年第二季度出货。 而我们认为英伟达Tensor Core专为AI而生, 目前其Hopper架构已经为第四代,Hopper架构超强性能,可加速所有精度,性能领先,应用广泛,我们判断其广泛应用于训练市场。AMD 奋起直追,欲挑战英伟达龙头地位,第三代Instinct MI300系列性能优异,满足生成式AI强劲需求,相较于H100,MI300X性能优异,单从跑分情况更具性价比。
打响关键自主可控保卫战,华为领先演绎国产计算生态崛起:自2018年来,美国通过多种制裁手段,严重限制我国高科技领域发展。根据同花顺财经报道,拜登政府2023年10月17日更新了针对AI芯片的出口管制规定,计划阻止英伟达等公司向中国出口先进的AI芯片。根据钛媒体报道,英伟达应对制裁,推出中国特供版H20芯片,其性能相较于H100大打折扣。华为海思昇腾AI芯片,有望构建算力的第二极,目前我们判断,华为昇腾910已具性价比。华为昇腾计算平台CANN已经实现从0至1突破,已支持50+主流大模型,同时兼容主流加速库及开发套件,加速型创新落地;此外已经支持主流框架,周级实现新版本适配。
SORA彻底颠覆文生视频领域,算力有望呈现几何倍数需求: OpenAI 2月16日凌晨发布了文生视频大模型SORA,它能够仅仅根据提示词, 生成60s的连贯视频,“碾压”了行业目前大概只有平均“4s”的视频生成长度。SORA震撼发布,彻底颠覆文生视频领域,SORA根本区别在于,可以理解成是一种融合Transformer模型与Stable Diffusion的一种模型。通过我们的测算, Sora架构的训练与传统大语言模型(LLM) Transformer架构的训练算力需求存在近百倍差距。 因此我们推测由于SORA,算力需求有望持续呈现几何规模的倍增,同时在信创和AI的大背景下,国产算力有望大放异彩。
投资建议: 受益标的:服务器相关产业链:高新发展、神州数码、拓维信息、中国长城等;电源相关产业链: 泰嘉股份等;算力一体机相关产业链:开普云、云从科技、科大讯飞、安恒信息、新致软件等;鸿蒙相关产业链:九联科技、润和软件、软通动力、中软国际等;PC等相关 标的:华勤技术、智微智能、东方中科、芯海科技等;AI应用:润达医疗、万兴科技等。
风险提示: 核心技术水平升级不及预期的风险、AI伦理风险、政策推进不及预期的风险、中美贸易摩擦升级的风险。
大语言模型(LLM):LLM是一种利用机器学习技术来理解和生成人类语言的人工智能模型。LLM 使用基于神经网络的模型,通常运用自然语言处理(NLP)技术来处理和计算其输出。我们判断GPT3、GPT3.5皆为大语言模型,GPT在此基础上引入了多模态。
文生图:与大预言模型不同,多模态可以根据文字描述创建原创、逼真的图像和艺术作品。它可以组合概念、属性和样式,我们认为文生图功能对于传统图型生成工具具有颠覆性。
文生视频:多模态人工智能技术实现了从AI文生图到AI文生视频的跨越,实为解放生产力的双手,我们认为其功能颠覆 摄影、传媒、 电影制作等行业,例如Gen2。
SORA推开新世界的大门,文生视频加速演进:OpenAI 2月16日凌晨发布了文生视频大模型Sora,它能够仅仅根据提示词,生成60s的连贯视频,“碾压”了行业目前大概只有平均“4s”的视频生成长度。
Transformer架构是AI向生成式跨越的重要一步:是一种采用自注意力机制的深度学习模型,这一机制可以按输入数据各部分重要性的不同而分配不同的权重。我们判断其广泛应用于大语言模型中(LLM),例如ChatGPT系列中。Transformer模型旨在处理自然语言等顺序输入数据,可应用于翻译、文本摘要等任务。注意力机制可以为输入序列中的任意位置提供上下文。
文生图的基础采用的是Stable Diffusion架构:Stable Diffusion架构是一种自回归模型,基于扩散模型,因此训练和推理代价都很高。 它主要用于生成以文本描述为条件的详细图像,但它也可以应用于其他任务,例如修复、外绘以及在文本提示引导下生成图像到图像的翻译。首先需要训练好一个自编码模型,然后利用编码器进行压缩,然后在潜在表示空间上做diffusion操作,最后再用解码器恢复到原始像素空间即可,整个流程类比物理学中的“扩散”。
报告共计:48页
海量/完整电子版/报告下载方式:公众号《人工智能学派》