当前位置:首页|资讯|人工智能|AI大模型|AIGC|OpenAI

2023年人工智能行业:AI大模型开展算力竞赛、光模块和光芯片(附下载)

作者:AIGC学派发布时间:2023-08-06

原标题:2023年人工智能行业:AI大模型开展算力竞赛、光模块和光芯片(附下载)

今天分享的是人工智能系列深度研究报告:《2023年人工智能行业专题研究系列:AI大模型开展算力竞赛,打开AI芯片、光模块和光芯片》。(报告出品方:源达)

精选报告来源公众:人工智能学派

报告共计:14页

【报告内容摘要如下】

AIGC产业化推进加速。2022年12月OpenAI推出人工智能语言编辑模型ChatGPT。截至2023年1月底,该软件月活用户已突破1亿,刷新移动APP用户增长速度记录,标志AIGC已跨过规模化商用节点。目前微软、谷歌及百度、华为等国内外科技巨头均已在AIGC领域开展军备竞赛。

大模型性能优化需要更高算力,打开智能算力缺口。AI大模型训练运算量呈指数级增长趋势,根据OpenAI官网,AI模型训练计算量自2012年起每3.4个月就增长一倍。以GPT3模型为例,根据lambdalabs数据,该模型参数规模达1750亿,完整训练运算量达3640PFlop/s-days(以3640PFlop/s速度进行运算,需要3640天)。模型完成单次训练约需要355个CPU年并耗费460万美元(假设采用NvidiaTeslaV100芯片)。

高算力需求迫切,推动AI基础设施建设。高训练算力需要与相应基础设施匹配,根据《2022-2023中国人工智能计算力发展评估报告》预计,2023年全球AI支出增速有望达27.9%,而中国智能算力规模将达427EFlop/s,同比增长59%。

【内容看点】

  1. AI大模型发展如火如荼,算力需求缺口大
  2. AI芯片:算力核心构成,自主可控推动国产化
  3. 光模块:新型网络架构对高端光模块用量增加
  4. 光芯片:光模块核心部件,国产化空间开阔

I大模型对算力需求大,推动AI基础设施建设

AI芯片是算力的底层核心,自主可控加快国产芯片发展

高算力需与高速网络架构匹配,光模块/光芯片需求提升

(本“人工智能学派”已获上百家出品方授权。本文仅供参考,不代表我们的任何立场。如需使用相关信息,请参阅报告原文,内容版权归原撰写/出品方所有。)

本报告共计:14页

受篇幅限制,仅列举部分内容。

精选内容来源公众:人工智能学派,获取完整PDF电子版


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1