大模型的吸金造血能力如何?事实证明,这波技术浪潮的最大受益者,可能是在大模型领域早有布局的商汤。
近日,商汤发布了2023年中期财报。值得一提的是,生成式AI相关收入录得670.4%的同比增长,对集团业务的贡献也从2022年的10.4%迅速提升至20.3%。
整体方面,2023年上半年商汤收入表现稳健。其中,智慧商业板块表现突出,实现收入8.54亿元,同比增长50.2%,占集团总收入比重从40.2%上升至59.5%。智慧生活板块,营收同比增长6.7%,为3.12亿元,收入占集团比例提升1.2个百分点,客户数也从2022年同期的183个增加至270个。
而在财报中,商汤也提到这两项业务的增长离不开AI和大模型的助力,即智慧商业板块,商汤与十个行业的数百家客户合作,定制行业大模型,单客户收入实现59.9%增长;智慧生活的手机和移动互联网客户上半年围绕生成式AI创新活跃,客户数实现强劲增长。
可见,在商汤本期的财报中,AI和大模型已经成为了不可忽视的亮点。然而,上半年发布大模型的大厂和创业公司不胜枚举,缘何商汤能够率先享受到大模型带来的红利?这还要从商汤多年的技术沉淀和前瞻布局说起。
高频试错、持续迭代,大模型“日日新”
8月31日,备受行业瞩目的首批拿到“入场券”的大模型产品正式出炉,商汤大模型应用“商量SenseChat”成为少数位列其中的产品,全面向普通用户开放。
作为国内最早发布的大模型之一,今年4月商汤正式发布了“日日新SenseNova”大模型体系。但实际上,商汤自2018年起便致力于AI大模型的研发,有着超过5年的技术积淀和实践经验。
早在2019年,商汤便具备了千卡并行的系统能力,使用上千张GPU卡进行单任务训练,推出了10亿参数量规模的视觉模型,实现了当时业界最好的算法效果。在2021年~2022年,商汤训练了百亿参数规模的超大视觉模型,相当于千亿参数语言模型的训练量。
也是有了这样的积累,商汤才能够打造 “日日新”大模型体系,并在“日日新”大模型基础上发布生成式AI产品系列,包括“商量SenseChat”、“秒画SenseMirage”及”如影SenseAvatar”等,并且持续进行快速迭代,带动了上半年生成式AI相关收入取得三位数的强劲增长,不断刷新着记录。
同时,今年上半年,商汤还联合多家国内顶尖科研机构发布了预训练大语言模型InternLM,成为国内首个超越GPT-3.5-turbo性能的基模型,参数量 1,040亿,使用1.6万亿token的多语言语料训练,支持语言达20多种。
8月,新模型InternLM-123B完成训练,新模型参数量提升至1,230亿。新模型的语言、知识、理解、推理和学科五大能力均显著提高。InternLM-123B模型在全球51个知名评测集(包括MMLU, AGIEVAL, ARC, CEval, Race, GSM8K等)共计30万道问题集合上测试成绩整体排名全球第二,超过GPT-3.5-turbo以及Meta新发布的LLaMA2-70B等模型。
目前已全面开放的“商量SenseChat”就是以InternLM-123B作为基模型的应用。可见,虽然现在大家都认为是“百模大战”,但其实大模型行业越来越“卷”,头部门槛越来越高,已经不可避免。
同时,文生图产品秒画SenseMirage,也迅速升级至3.0版本并实现出图效果跻身全球前列,国内领先。
做原创大模型技术的路上,商汤坚持不断实验、数据清洗,以及高频试错,以推进大模型的高速迭代,保持技术领先,但这也需要极高的成本。为满足大模型的更新需求,商汤的AI大装置SenseCore也在不断更新。
比如,上线GPU数量由2023年3月底的27,000块提升至日前的约30,000块,算力规模提升20%至6 ExaFLOPS。这让InternLM实现了几乎每两个月迭代,日日新全家桶实现了每季度迭代,纵观行业,能做到这一频率的并不多。
开源闭源两手抓,全面布局迎新周期
不可否认,技术领先性是商汤能够率先发力的首要前提,然而,将技术变成产品,变得易用,实现商业化落地上还有一段距离。那么商汤是如何尝到了大模型带来的商业化成功呢?
首先,在商业模式上,大模型一直有开源闭源之争,属于硬币的两面,各有利弊。开源模型,适用于比较简单的应用场景,追求的是性价比和部署的易用性,相对参数不会很高,工具调用能力也会比较弱;而深入行业和产业的应用,则需要在大参数的闭源模型上开发,要有很强的工具调用能力。而如果行业使用开源模型,那无异于流沙上盖高楼。
对于此,商汤则给出了自己的打法:根据客户不同需求,推出了开源和闭源的多个大模型,满足各类客户的需求。
具体来看,在很多的场景上,利用开源来吸引、打造和生态,同时开源又很有利于其AI的基础设施SenseCore来提供一体化数据、算力算法的一体化的服务,从而使得客户能够享受到基础模型的发展的过程。而对于一些行业性的端到端的模型,则是由商汤来闭源完成,提供一个行业高质量模型的服务。
特别地,InternLM-7B(70亿参数)开源,在多个模型测试榜单高踞榜首,是性能最好的轻量级基模型;具备优秀的调用工具能力,适用于AI智能体等各类应用构建的InternLM-20B模型(200亿参数)将迎来开源。
而提到行业的具体落地,就不能忽略大模型中的工具调用能力。
作为国内首个性能超越GPT3.5基模型,商汤“日日新”大模型系列在预训练基模型InternLM-104B(1040亿参数)在35个评测集上性能超越OpenAI的GPT-3.5-turbo。
同样,InternLM-123B(1230亿参数)模型在全球51个知名评测集超30万道问题集合上测试成绩排名国内第一,全球第三,仅次于GPT-4、Claude 2。其重点升级代码解释器、插件调用、外挂知识库等能力,大大提升落地复杂场景的能力。
而在开源闭源的双重布局和可靠易用的调用工具加持下,目前,商汤已成功研发了320亿参数量的全球最大的通用视觉模型,实现了高性能的目标检测、图像分割和多物体识别算法,并在自动驾驶、工业质检、医疗影像等多个领域得到广泛应用。
另外,商汤基于InternLM的轻量级模型,结合自研推理加速算法,与头部手机芯片厂商建立研发合作,成功实现了大语言模型的手机端实时计算能力。商汤表示正在积极与多家手机厂商客户合作,研发大语言模型与手机操作系统结合的新功能。
未来,商汤将在全面布局超大模型体系基础上,在以多模态大模型+决策智能模型通往AGI的前瞻布局下,再把一个个分解的任务变成端到端,也就是“多模态的接口开放”。伴随多模态交互能力的升级,持续赋能下游产业应用,这样不但可以从根本上降低大模型应用成本和门槛,还能进一步让大模型的产业价值在千行百业中应用。
对于商汤来讲,无疑2023年是在大模型助力下,激活新增长周期的一年,从上半年的表现来看,我们已经能够看到初尝大模型果实的商汤。
商汤集团董事会执行主席兼首席执行官徐立博士表示:“在这个半年度,大模型和生成式AI可以说是全球最受瞩目的科技突破。商汤迎来了极其关键的发展时期。我们希望给行业带来更强的大模型能力,助力我们的用户在生成式AI的时代做出颠覆性的产品,来获得成功。”
我们也有理由相信,这只是收获期的开始。