众所周知,OpenAI在开发者日上给我们带来了太多的震撼。
比如,据B站UP主@赛文乔伊,在GPT-4 Turbo发布后不到24小时,全球各路大神就已开始“各显神通”:
有人让GPT重新解说梅西的足球比赛,有人利用OpenAI开放的Vision API加TTS技术来解说英雄联盟游戏,还有人让GPT化成游戏NPC随意聊天、几分钟就根据自然语言做一个图片转动图的程序、通过手绘草图即可搭建网站……
但这些就是OpenAI开发者大会的全部意义吗?可能还没那么简单。
美国软件开发商HubSpot创始人兼CTO Dharmesh Shah近日撰文称,表面上,OpenAI在本次开发者日上推出的GPT-4 Turbo是其最重大的更新,这也是目前强大的语言模型,但这并不意味着绝对的战略优势。
因为抛开单个模型不谈,语言模型们的底层接口实际上非常一致。不管是GPT-3.5、GPT-4还是Claude,它们传递文本并获取文本输出的过程都相对简单,而用户从一个模型切换到另一个模型使用也并没有什么难度。
这也就意味着,大模型们之间的护城河其实并没有多宽,几乎每周都会有新的语言模型推出,而它们的底层接口趋于同质化。用户甚至可以同时使用多个模型,或者在模型之间“反复横跳”。
但这也是本次OpenAI开发者日上的一个微妙但重要的变化。
在活动上,OpenAI推出了一系列的新功能,除了模型本身的提升(比如容量、时间节点和速度的提升),那些使模型更易于使用的功能,可以提高开发者的体验和易用性,并且这些功能的抽象级别越高,集中于平台的开发人员就更多。
同时,随着这些新功能加入,ChatGPT不再只是简单的聊天机器人,其底层接口也不再只是文本的传入和传出。
比如,在新的辅助功能“Threads”API中,OpenAI可以为使用者管理内存,能自动记住对话历史,节省开发者的时间,令他们不再需要管理对话历史。
如果越来越多的开发者开始使用这些新功能,他们就不再能够随心所欲切换到其他的模型,而是必须要考虑这些新模型是否同样拥有类似记忆的功能,即使新模型支持,他们也必须弄清楚代码是否必须更改以匹配新模型支持记忆管理的方式。
不仅是记忆功能,代码解释器和数据分析等其他API也都是如此。这些功能不仅强大,同时也使OpenAI的模型与其他的模型越来越不同。
Dharmesh认为,这样的结果是,随着OpenAI的用户习惯逐渐养成,他们的转换成本就会越来越高,OpenAI的护城河因此日渐拓宽。
长此以往,OpenAI或许会更有价值。