当前位置:首页|资讯|OpenAI|ChatGPT

OpenAI日“烧”500万 大模型盈利模式在哪儿

作者:钱江晚报发布时间:2023-08-15

原标题:OpenAI日“烧”500万 大模型盈利模式在哪儿

OpenAI走在破产边缘?无所不能的ChatGPT,似乎遇到“危机”了。

最近一则消息,引发了AI行业的震动。8月13日,印度新闻媒体平台近日的一份研究报告称,OpenAI可能在2024年底破产,OpenAI仅运行ChatGPT,每天就要花费约70万美元,约合人民币500万元。

有人担忧,如今大模型层出不穷,无数公司争相竞逐,连全球领头企业OpenAI都遭遇困境,辉煌一时的“ChatGPT”们,会是昙花一现吗?未来还能走多远?潮新闻记者请教了多位AI领域专家和投资界人士。

图据新华社

亏损数亿美元 OpenAI会破产吗?

据该报告称,自从其开始开发ChatGPT以来,其亏损额在5月份翻了一番,达到了惊人的5.4亿美元。这些数字,难免让人为其前景感到担忧。

这么“烧钱”搞人工智能,OpenAI会走向破产吗?记者咨询了几位AI领域专家,他们近乎一致地表示:不大可能。

浙江大学计算机学院教授汤思亮觉得,至少在5年之内,OpenAI不会破产。同样,中国人民大学高瓴人工智能学院教授卢志武也说,关于破产的言论,可信度并不高。但大模型光鲜的背后,人们的确开始关注成本了。

卢志武告诉记者,消息称OpenAI每日花销七十万美元,但这个运维成本里面,没有写明是否包含训练和推理两部分,如果包含训练机器的部分,这个数字是完全正常的。

其实,OpenAI从未对外透露过运行大模型的真实成本。但OpenAI的财务状况却屡次被业界“揭短”:高昂的成本,已然是大模型背后的“痛点”。

“微软前期投资OpenAI所花经费、微软后期把GPT从3.5升级到4.0,甚至当前升级到5.0做的储备的成本,所需的花销远远不止运维成本。所以每日七十万美元并不准确。”国际策略研究员陈佳告诉记者。

几位专家都表示,如果仅基于财务因素,就认为OpenAI要破产、退出历史舞台,这个结论太过于草率。

早在2019年,OpenAI公司就获得了微软10亿美元的投资,今年微软又宣布追加投资上百亿美元。但二者的合作关系十分复杂,对这笔投资,微软会获得一定利润和股份,但微软与OpenAI保持了一定距离,拥有影响力但没有控制权。

深度科技研究院院长张孝荣告诉记者,OpenAI可能在2024年底破产,这只是一个恶意揣测,并没有确凿的证据支持。尽管OpenAI在烧钱,公司也在不断寻找实现盈利的方式,除非微软日后投资不再持续,OpenAI才可能走向破产。

北京社会科学院研究员王鹏也认为,就GPT本身发展而言,包括数据库、模型算法、算力,底层技术已经形成了一定的闭环,跟一些具体的行业、场景相结合,能够提供相关的服务。

“一家企业、一个商业模式,已经获得了行业的竞争优势,即使目前看起来很烧钱,大规模盈利遥遥无期,但短时间内它不会轻易放弃的,无论是微软还是相关投资机构,还会进一步给它支撑。”王鹏分析。

图据新华社

算力受限 未来还要烧多少钱?

自一夜爆火,拥有全球过亿用户,如今ChatGPT也在遭遇流量危机。

根据网站数据分析工具SimilarWeb调查显示,ChatGPT访问量增长率在过去几个月间一直在下滑,1月份的环比增长率为131.6%,2月份为62.5%,3月为55.8%,4月份大幅缩水至12.6%,到了5月仅为2.8%。

除此之外,OpenAI还面临非常严峻的GPU(图像处理器)限制。OpenAI创始人SamAltman曾公开表示,现在最大问题是受限于GPU短缺,算力不足,产品的速度和可靠性都跟不上。

虽然困难重重,OpenAI也在不断调整方向、迭代更新,毫无疑问,这也需要天量的投入。

今年,微软对旗下云业务、操作系统业务和互联网算力都做了全面调整,GPT新一代大模型深植入Windows系统、浏览器和Office套件之中,而微软这些业务战略转型的成本,尚未有公开数字。

“微软前期为了给GPT大模型铺垫,花大力气将本是B端开发工具ChatGPT移植到了大众接受的C端。但由于大模型自身的数据安全、伦理难题以及监管真空,微软适时调整了GPT的C端应用机制,令其重归B端本心,在商业道德上重回正轨。”陈佳说。

陈佳认为,如此宏大的转型成本,国际市场上除了微软,恐怕其他人的测算都不准确。每日七十万美元,可能只是九牛一毛。

张孝荣也分析,大模型烧钱是客观存在的。根据报告所述,OpenAI确实面临高成本的运行费用。虽然ChatGPT每天约需花费70万美元这个数据暂时难以查证,但非常费钱是毫无疑问的。

“大模型需要大量的算力和一个顶级人才团队,构建算力需要购买昂贵的GPU的芯片(最先进的芯片价格高达3-4万美元,需数万片构建算力)。而这些芯片耗电量巨大,完成一次训练需要消耗一个小镇人口的电能,运维成本很高;而OpenAI需要顶级人才团队,人力成本也相当高,而且长期居高不下。”张孝荣说。

AI的盈利模式人类能找到吗?

虽然破产未必成真,但报告也引发了人们对AI盈利模式的思考:砸钱搞大模型,真的值得吗?

随着开源大模型的兴起,AI江湖上群雄争霸,AI产品竞争也愈发“内卷”:每当OpenAI更新迭代,就有公司学习模仿;当OpenAI推出付费版本,就有公司推出0美元或接近免费的人工智能模型及其服务。

如今,很多公司看到了大模型的潜在商业机会,但市面上大量的人工智能公司商业模式很简单。“大多是通过提供基于人工智能技术的服务来获取收入,比如提供机器翻译、图像语音识别、智能客服等服务,他们也面临竞争激烈和价格下降的问题。”全联并购公会信用管理委员会专家安光勇告诉记者。

不过,作为AI界的领头羊,OpenAI没有停下商用领域的探索。就在日前,福布斯发布2023云计算100强榜单,OpenAI作为人工智能企业位列榜单第一。

今年1月,微软上线AzureOpenAI服务,Azure全球版企业客户可以直接调用OpenAI模型,与此同时,面向企业用户的Azure OpenAI ChatGPT服务也在全球版Azure中上线。

“目前看来,大模型比较靠谱的盈利模式可能是跟垂直行业结合。”汤思亮说。

在中国,OpenAI正不遗余力地铺开业务。目前有一批企业接入了微软的商用服务,例如地产龙头企业万科接入AzureOpenAI服务,中手游也宣布与微软签署协议,将在云计算、大数据、模型研判等领域开展合作。

“从长期来看,OpenAI的盈利模式有两个维度,一是自己下场,找到行业场景落地,形成商业闭环,获得核心业务;另一种方式是找合作商,基于Linux系统、苹果系统等开发API接口,扩大影响力,获得更多的应用场景。”王鹏说。

张孝荣认为,对于大模型的盈利模式,目前还不够明朗,尤其是对于像OpenAI这样专注于语言模型的公司来说。尽管大模型在各行各业都有巨大的潜力,但要实现可持续的盈利需要克服许多挑战,包括降低应用成本和使用门槛。

“但是,大模型并非AI发展的终极未来,随着技术研发和应用领域的不断拓展,未来可能会出现新的技术路线,出现更具可持续盈利模式的模型。”张孝荣说。

卢志武表示,未来大模型市场竞争将日益激烈,从另一个角度思考,连OpenAI都要考虑成本,就会发展得慢一些,留给我们追赶的机会,这对中国企业来说并不是坏事。

无论是危言耸听还是发出预警,关于AI大模型的未来,人类还有太多需要思考和探索的事。

“转载请注明出处”


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1