Lepton AI创始人兼CEO贾扬清
出品|搜狐科技
作者|郑松毅
编辑|杨锦
近日,由声网联合主办的RTE2024第十届实时互联网大会在北京开幕。
大会开始前,Lepton AI创始人兼CEO贾扬清早早就坐在了嘉宾席。蓝色衬衫、牛仔裤,熟悉的那般“码农”形象再现。
他还是习惯性地把微笑挂在嘴边,和搜狐科技聊了聊最近美国硅谷发生的变化,以及对AI发展现状和未来趋势的一些看法。
这是他今年第二次回国,在大会开始前一晚刚到北京,但整个人看不出来丝毫倦意。
AI如何落地应用?国内外都在忙着找答案
“这次回来能明显感受到大家对于AI应用积极探索的热闹氛围,硅谷也正如此。”贾扬清说。
“相较于AI热潮初期的硅谷,现在的硅谷‘冷静’了许多,关注点更偏向于应用。大多数企业会选择在现有模型基础上加速功能迭代和研发。几乎没人还在比谁的模型更大、参数更多。”
他补充道,“同等质量的模型,规模会变得越来越小,计算效率会越来越高,模型架构会变得更加开放和标准,这是我观察到的未来趋势。”
如果说前两年的AI是在“卷”技术,那今年无疑都转向了“卷”应用。
在贾扬清看来,今天是做应用最好的年代,AI呈现出来的智能能力让做应用变得更简单,同时能够带给用户更好的交互体验。
以前人们常认为,芯片短缺是阻碍AI发展最大的“绊脚石”。但在贾扬清看来,“芯片供应链问题已经有了非常好的解决方案,因GPU短缺造成的算力问题不再会是瓶颈。关键是看如何找到AI应用路径,与垂直领域深度结合,真正把AI用起来。”
“就像当年‘电’刚被发明出来时,很多人不知道它有什么用,直到冰箱、电视、手机的出现,才让电的价值得以体现。”
但想让AI真正用起来,成本是一个不得不考虑的问题。
有人提出,“如今AI技术难广泛落地应用,问题是出在了高额成本上。从客服行业来看,标杆是5元每小时,这是菲律宾和印度的人工价格。要是AI使用成本比人还贵,就没必要了。”
对此,贾扬清比之前更加乐观。他认为,“成本不是核心问题,Token的推理成本可能在接下去的一年还会再降低十倍,甚至更多。公司更应该关注的是用户体验。让AI使用成本降低到人工成本以下,可能就是一两年的时间。”
他表示,“核心的大语言模型其实都差不多,但企业如何管理数据、怎么打通权限、用户搜索时是想找到文档还是想要内容总结?这些长远深度的思考远比模型本身更重要。”
GPU价格是个“伪命题”
除了应用,当前AI竞技场的另一关注点在于AI基础设施。
搞云计算出身的贾扬清,认为现在迎来了“云”的第三次浪潮,而AI正是这场革命的催化剂。
他介绍,“云”的前两次浪潮分别是2000年代的“Web云”,以及2010年代的“数据云”,而这次兴起的是“AI云”。
与前两朵“云”不同的是,“AI云”是在”传统云“的基础上增加了AI算法,利用神经网络等技术,可以满足更大规模的数据处理和计算需求。
“今天所有的AI应用都对大模型有非常高的需求,无论是AI图像生成还是AI视频生成,都会调用软件框架,最后落到云基础架构和GPU上面。”贾扬清说。
谁都不想错过“风口”的机会,“AI云”也正是贾扬清在辞任阿里巴巴技术副总裁后,看准的创业方向。
贾扬清说,“挤大模型赛道不是最想干的事,更看重AI发展背后生出的机会点,即对高性能计算的需求,以及AI市场会越来越需要好的云服务,这是团队最擅长的。”
Lepton AI和很多硅谷创业公司一样,团队规模并不大,大多是程序员和产品经理。
公司名字的由来也很有意思,在物理学中,“Lepton”指的是轻子,是一种基本粒子。
这和贾扬清所期望的一样,用最简单的方式和低廉的成本帮助其他公司解决行业痛点问题。
“他们需要更快的GPU、更好的供应链、更高的性价比、更加专业的服务...这一切都是我们正在做的事。”
具体来说,Lepton AI提供的是大模型推理引擎,建立了云平台供用户找到性价比最高的GPU资源。
贾扬清认为,“GPU价格在一定程度上是个‘伪命题’,因为Buy is better than build(购买AI云服务会比自建算力设施更划算)。”
他提到,“很多有前瞻性的CEO已经放弃纠结一块GPU到底需要多少钱,而是选择了这样的方式,把更多的精力和资源放在应用开发上。”
对话最后,搜狐科技请贾扬清谈了谈如何才能在技术创新的道路上找到自己的方向。
他想了片刻说,“创新没有捷径一说,兴趣是最好的驱动力,因为谁也猜不到未知技术领域会带来怎样的惊喜,能做的就是追随兴趣坚持走下去。”