作者/星空下的烤包子
编辑/菠菜的星空
排版/星空下的冰激凌
今年已经接近尾声,如果问资本市场上什么主题大放异彩,无疑是生成式人工智能。
不论是在国内还是海外,科技圈的大佬们都忙着军备竞赛,从年初的ChatGPT开始,各式各样的AI大模型都横空出世,而且迭代速度远远超过以往。
而到了年底,可以说谷歌又给资本市场来了一个重磅炸弹,它发布了AI大模型(Gemini),谷歌也很快成了资本市场的香饽饽。
今天我们就一起走进大模型的市场,看看这条赛道有哪些领域能率先起飞。
一、资本市场,需要新技术
作为多模态的大模型,Gemini可以同时识别和理解文本、图像、音频、视频和代码五种信息,而且理解的准确性还很高,不夸张地说,这是谷歌迄今为止构建的“规模最大、功能最强的人工智能模型”。
在一项专门针对大模型的语言理解能力的测评中,Gemini的成绩是90%,要知道人类专家成绩也就是89.8%,GPT-4仅有86.4%,仅从测试中就可以看出,Gemini的性能在多模态任务上已经对GPT实现了超越。受益于此,谷歌股价上涨也是情理之中。
连360董事长周鸿祎也站在了谷歌这一边,长期看谷歌赶上GPT-4绰绰有余。
而国内资本市场也反映剧烈,比如半年前正式推出KD-GPT大模型、目前已经开始在实际项目中投入应用的苏州科达(603660),在股价沉寂很久之后迎来了涨停。但是需要关注的是,该玩家今年前三季度继续亏损3.24亿元,看来前期的烧钱还在继续。
苏州科达股价情况
此外,百度(HK 9888)、科大讯飞(002230)也都推出了各自的大模型,像国外玩家看齐,但一个不能说的秘密是,如今大部分多模态大模型都是在大语言模型(LLM)上生长出多模态的应用,而并非从头开始训练的多模态的大模型,能有“抄作业”的基础,谁也不想浪费时间。
大模型迭代情况
二、光通信,没你真不行
其实,这次谷歌除了发布多模态大模型Gemini,还推出了新一代AI芯片TPU v5p,相较于它的上一代芯片,它高内存带宽提升了3倍,可以说能更准确的训练AI模型,训练速度有了显著的提升,一山更比一山高。
谷歌TPU芯片对比情况
这样一来,谷歌作为继英伟达之后的自研算力新选手,也有望为算力供需双方提供全新选项。
在这样的背景下,有一个市场的需求有望迎来增长,那就是光通信。
简单来说,传统的光通信就是以光信号为信息载体,以光纤作为传输介质,通过电光转换,进行传输信息的系统,但因为TPU v5p的出现,直接加强了OCS光交换技术应用。
光通信原理图
这里说的OCS就是谷歌自研的数据中心光交换机。作为一种全光学的连接方案,这几年谷歌主要将其用于灵活配置AI算力网络,通过OCS,谷歌的超级计算机可以轻松地动态重新配置芯片之间的连接,有助于避免出现问题并实时调整以提高性能。
所以,谷歌的TPU和OCS,可以说是相辅相成的关系,少了谁,另一个市场或许都难以实现高速增长。除此之外,之前英伟达发布了H200,也有望带动光模块1.6T/3.2T时代加速到来。
三、商业化,头疼的问题
从年初的OpenAI,到年末的谷歌,虽然今年的大模型风光无限,但是笔者依旧想泼盆冷水。
对于大模型玩家来说,最大的问题还是商业化的问题,据笔者了解国内很多大模型玩家还没有达到盈亏平衡,因为大模型训练需要强大的算力支撑,就以头部玩家OpenAI为例,其模型训练成本接近500万美元。
之前OpenAI之所以会出现“宫斗”的情节,就是需要在AI模型商业化和AI安全性之间求一个平衡。
对于头部互联网玩家来说,尚可通过将大模型集成到现有产品和服务中(比如百度文库的文档助手等等),通过付费订阅实现营收,但对于绝大多数初创大模型玩家来说,需要大量资金和时间投入,而回报却往往难以预测。
此外,从供给侧来看,大模型基座方面国内玩家普遍还比较落后,而国内玩家基于大模型微调的产品,AI技术积累不足,这也有时候很难让消费者愿意掏出真金白银支持。
目前,大模型已经做到了足够吸睛,但是未来如何选择一条盈利的道路,是摆在每一个玩家面前需要思考的问题。
注:本文不构成任何投资建议。股市有风险,入市需谨慎。没有买卖就没有伤害。