根据我们之前的报道,预计 NVIDIA GPU 的增长将在未来几个月加速,因为 ChatGPT 的人气上升。
由于 AI 巨头利用 ChatGPT 和其他 AI 生成工具的需求增加,NVIDIA AI GPU 可能会面临短缺正如之前报道的,ChatGPT 和其他语言/图像/视频生成工具非常依赖 AI 处理能力,这就是 NVIDIA 的主要优势所在。这就是为什么利用 ChatGPT 的主要技术公司正在使用 NVIDIA 的 GPU 来满足他们不断增长的 AI 需求。看起来 NVIDIA 在这个行业的实力可能会导致公司 AI GPU 在未来几个月短缺。
据 FierceElectronics 报道,ChatGPT(Open.AI 的 Beta 版本)在 NVIDIA 的 10,000 个 GPU 上进行了训练,但是自从它引起了公众关注以来,系统因用户群体太大而无法满足需求。因此,公司宣布了一个新的 ChatGPT Plus 订阅计划,不仅在高峰期可以提供服务器的一般访问权限,还可以提供更快的响应时间和对新功能和改进的优先使用权。ChatGPT Plus 订阅每月 20 美元。
“未来有可能用其他厂商的 GPU 训练或运行 ChatGPT 或其他深度学习模型。然而,目前,由于高性能和 CUDA 支持,NVIDIA GPU 在深度学习社区中广泛使用。CUDA 是由 NVIDIA 开发的并行计算平台和编程模型,允许在 NVIDIA GPU 上进行高效计算。许多深度学习库和框架,例如 TensorFlow 和 PyTorch,都内置支持 CUDA,并且针对 NVIDIA GPU 进行了优化。”
通过 FierceElectronics
根据福布斯的报告,微软和谷歌等大型科技巨头也计划将类似ChatGPT的语言学习模型(LLM)整合到他们的搜索引擎中。要使谷歌在每次搜索查询中集成该功能,需要512,820台A100 HGX服务器,共有4,102,568块A100 GPU,只是服务器和网络成本的资本支出就需要100亿美元。
(8119055)