王慧文宣布创业后,一群VC也在心里打赌:他做这件事有多大概率能成。
据铅笔道拿到的可靠线索,确实有几家机构正在密切追踪,但还停留在“意向”阶段,尚未一锤定音,并未如外界报道的“确定”。比如真格基金。据一位知情人士向铅笔道提供的可靠消息,真格基金确实在推进投资。“但还有很多细节正在敲定中。”
铅笔道也联系了数位清华系投资人,多数也对此事表示看好。一位拥有25年创业经验、10年投资经验的资深投资人向铅笔道表示,为王慧文的创业竖大拇指:未来如果有机会,不仅愿意投钱还愿意投人。简而言之:“带资加肉身。”
当然,也有部分投资人持否认态度。比如,另一位拥有超10年经验的机构合伙人的回答则是:NO。
王慧文要做的是“中国版的OpenAI”,有着清晰的对标对象。两相比较,与OpenAI有着根本基因的不同——这正是VC产生意见分歧的核心原因。
- 01 -王慧文的优势与劣势
首先,创始团队决定公司的根本基因。
OpenAI的主要创立者为山姆·阿尔特曼、彼得·泰尔、里德·霍夫曼和埃隆·马斯克。这个班底体现的核心标签是:科技+成功企业家。
比如这4位主创里,后3位都是PayPal的主要创始人。而山姆·阿尔特曼此前也创立过公司、卖过公司(4300万美金)。创立OpenAI前,他还是YC合伙人(全球著名孵化器)。
这个班底同时解决了3个核心问题:资金,技术,一把手。OpenAI创办之初是一家非营利性公司,所以第一笔大钱是马斯克投的:10亿美金。很鲜明的结果,硅谷有那么多风险资家,却不愿意投这支优秀团队,而这个创始班底的财富实力,完全解决了资金问题。
而对于OpenAI的业务而言,山姆·阿尔特曼是一位比较完美的一把手。
他擅长技术,从小就显示出了天才程序员的潜质,从斯坦福大学毕业后,开始专心研究人工智能和计算机科学。结合他此前担任创始人、投资家的履历,他任职OpenAI老大是理想选择。
从创始团队的角度看,王慧文有他的特点:优劣势分明。
先从劣势看,王慧文自述不懂人工智能——而OpenAI的CEO是天才型科技企业家。因此王慧文当下的致命软肋,是缺乏一位如山姆·阿尔特曼的天才型CTO。
这个问题具备不确定性,比如一批天才型CTO可能更愿意像山姆·阿尔特曼一样,自己开公司当一把手,而不是屈从王慧文当二把手——这取决于王慧文的团队造化。
从资金看,王慧文的号召力也不错。
虽然他的身价不如马斯克的1800亿美金,但也是100亿人民币级别。此外,从他自述“下一轮已获2.3亿美金认购”的言论来看,融资能力也是数一数二。
OpenAI前三年烧了10亿美金,而结合国内的人民币购买力,王慧文前3年的资金储备大约需要40亿——从目前资本反馈看,该目标的实现概率并不小。
从天时看,OpenAI的创立时机要远远更好。OpenAI成立于2015年,起初便是技术引领者姿态。据铅笔道观察:即便是谷歌、微软等超级巨头,依然有着至少3年的差距。
而王慧文的天时,会略微逊色一点。这会造成更激烈的竞争,尤其是巨头竞争。据铅笔道观察,仅从ChatGPT角度看,推出成型产品的均为各领域的巨头,比如百度、360、中文在线、海天瑞声、科大讯飞、商汤。
出生之日便面临各巨头绞杀,在技术、资金并无优势的当下,部分资本看空王慧文也是可以理解。
但从另一个角度看,王慧文也有着不可替代的优势。
与OpenAI的创始班底相比,王慧文更具备“市场基因”。
从过往履历看,他离市场更近,离客户更近。王慧文是美团的二把手,自2011年加入美团后,负责的便是市场及产品,也曾一手创建并管理美团外卖、打车、共享单车等业务。
尽管他不懂技术,但他懂市场需要什么样的技术。因此从经营结果看,王慧文推出的产品可能更接地气,可能更符合市场需要,盈利的周期可能更短。
此外,巨头的竞争也并非不可战胜:字节当年便是从新浪、网易、搜狐、腾讯等巨头的绞杀中脱颖而出。抛开巨头这个因素,王慧文确实是该领域最强的选手。
从这些角度看,资本看好王慧文也是有理可依的。
对于创新创业者而言,不论王慧文成败,这件事都将对所有人有益。当一批创业者愿意从人类利益高度超前探索时,这个行为本身便值得赞赏。
- 02 -想做中国版ChatGPT,预备多少钱?
王慧文准备个人出资5000万美元,并称下轮融资已有顶级VC认购2.3亿美金,招人一起打造中国OpenAI。有人说这点钱远远不够。
就以OpenAI开发ChatGPT为例,打造一个类似的人工智能聊天机器人要花多少钱?
OpenAI2015年成立,2018年推出GPT1.0版本。2019年7月微软投资10亿美元,和OpenAI合作打造新一代人工智能模型。10亿美元不是全部现金,有部分用微软Azure云资源抵算。
拿着这些钱和云计算资源,OpenAI把GPT技术进化到了3.5,GPT3.5也就是ChatGPT。
ChatGPT的大型语言模型是建立在1750亿个参数上的,也就说,你“调戏”ChatGPT,它输出的内容是基于对1750亿个参数的学习结果。ChatGPT走到今天,使用了1万个英伟达A100 GPU来训练。你问ChatGPT一次问题,它起码需要调动5个A100 GPU来“思考”你的问题并给出答案,平均输出一次答案要用到8个A100 GPU。一颗A100 GPU月租金大概1750美元,买一颗大概1.3万美元。
据《据娱乐资本论》引用行业人士观点:想要训练与ChatGPT相匹敌的大模型,每年在显卡、CPU等设备方面投入的成本要高达10亿美元。
ChatGPT托管在微软的Azure云上,因此,OpenAI不必购买设置物理机房。按照目前的收费标准,微软对单个A100 GPU的收费为每小时3美元,ChatGPT上产生的每个单词的费用为0.0003美元。ChatGPT的回复通常至少有30个词,因此,ChatGPT的一个回复至少要花费公司1美分。目前,据估计,OpenAI每天至少花费10万美元或每月300万美元的运行成本。
国盛证券计算机分析师刘高畅、杨然在发表于2月12日的报告《Chatgpt 需要多少算力》中估算,GPT-3训练一次的成本约为140万美元,对于一些更大的大型语言模型,训练成本介于200万美元至1200万美元之间。国盛证券估算,今年1月平均每天约有1300万独立访客使用ChatGPT,对应芯片需求为3万多片英伟达A100GPU,初始投入成本约为8亿美元,每日电费在5万美元左右。
小冰CEO李笛举了一个例子:若用ChatGPT的方法,以小冰框架当前支撑的对话交互量计算,每天成本将高达3亿元,一年成本超过1000亿元。
也有业内人士认为,虽然需要前期巨大投入,但未来几年,训练大型语言模型的成本可能会显著下降,且会逐年获得回报。他举例道:自GPT-3发布的两年半时间里,与GPT-3性能相当的模型的训练和推理成本下降了约80%。相比资金,高质量数据会成为训练大型语言模型的新兴稀缺资源之一,因为扩展模型参数数量带来的回报是递减的。
也有些老哥认为搞ChatGPT不值当,钱是一方面,缺乏人味是另一个方面。比如英国媒体的老法师约翰·诺顿干脆就说ChatGPT是与魔鬼的昂贵交易。比如你现在遇到点问题,去看心理治疗师,不仅是他给你建议,更重要的人与人互动带来情感的抚慰。以后ChatGPT把这活接了,啪啪啪一顿输出,好像给了你建议,又好像屁用没有。
本文不构成投资建议,部分内容参考了娱乐资本论(作者不空)、英文科技博主Sunyan(译者杨婷、徐佳渝、贾川)、国盛证券证券研报的相关内容。