人类智力锁死在了 2021 年。
近期,OpenAI CEO Sam Altman 在接受 20VC 的采访时表示,AGI 或许会在 5 年内到来,然而,AGI 到来如此之快也许是基于一个假设:「人类智力已不再发展」
2021 年,GPT 的主要训练告一段落。 再往后些,ChatGPT 的一夜蹿红,让我们的生活与 AI 的联系变得密不可分。
这不仅改变了我们获取信息的方式,更改变了我们解决问题的思路。但与此同时,更多的 AI 也带来了更多的 AI 垃圾内容。
我们在利用人类数据训练 AI 的同时,也在被 AI 反向训练。可以说,人类知识的整体在进行不断的低劣的演化,而不是进行有创造力的演化。
如同 Garbage in,Garbage out,如果 AI 的 output 不能好于它的 input,那么 AI 输入的智力则是 AI 有可能达到的天花板。
这实际上是「瓦房店化」现象的扩大化。
大语言模型本质上归纳了人类的知识,将其统计成了统计规律,并将其转化为概率。而从大模型训练的角度来看,它旨在训练得到知识的中位数,而不是 99 分位或 95 分位,因为它是归纳回中位数的。
所以说,AGI 到最后产生了,或许是因为人类本身的智商降低了。
此外,Altman 在这次采访中还透露了许多信息,比如在大模型浪潮的席卷之下,AI 初创公司应该寻找怎样的细分市场、当下热门的 Agent 是否只是昙花一现,以及 Scaling Laws 是否会失效等等。
在迈向 AGI 的征途上,人类仍然需要探索更多的路径。
太长省流版:
Altman 强调 OpenAI 将致力于推理模型的进步,认为这一方向对推动科学研究和复杂编程等领域至关重要,并且 o 系列模型将迅速进步。
OpenAI 计划为没有技术背景的创始人开发无代码工具,但最初阶段将专注于为技术人员提供工具。
随着 OpenAI 模型的快速进步,许多初创公司解决的短期问题会在未来版本的模型中得到解决,因此开发围绕这些短板的产品可能并不长久。
Altman 认为开源模型将继续在生态系统中发挥重要作用,并且 AI Agent 的定义是能够执行长期任务并最小化监督的智能体。
尽管 AI 模型的训练成本很高,但由于复利效应和大规模用户的支持,Altman 认为投资是值得的。
在 Altman 看来,推动创新的关键在于建立支持创新的文化和组织,而不是仅仅复制他人成功的经验。
附上原视频地址:
https://www.youtube.com/watch?v=peg-aX1oii4
主持人:大家好,欢迎来到 OpenAI 开发者日。我是 20VC 的 Harry Stebbings,我非常兴奋能够采访 Sam Altman。欢迎你,Sam,感谢你今天与我一起进行这次采访。
Sam Altman:感谢你的采访。
主持人:现在我们收到了很多观众的问题,所以我想从一个问题开始。
当我们展望未来,OpenAI 未来是会有更多像 o 这样的模型,还是会有更多像我们过去可能预期的更大规模模型?如何看待这个问题?
Sam Altman:我们希望在各个方面都取得进展,但推理模型这个方向对我们来说尤为重要。
我认为推理将解锁我们多年来一直期待实现的许多事情,例如使像这样的模型能够为新的科学研究做出贡献,帮助编写更多复杂的代码。
我认为这将极大地推动我们的进步,所以我们应该期待 o 系列模型的快速进步,这对我们来说是具有战略意义的。
主持人:另一个我觉得非常重要的话题是,当我们展望 OpenAI 的未来计划时,你如何看待为没有技术背景的创始人开发无代码工具,帮助他们构建和扩展 AI 应用?你怎么看?
Sam Altman:这肯定会实现, 我认为第一步将是为那些擅长编码的人提供能提高生产力的工具。但最终,我认为我们可以提供高质量的无代码工具。
目前已经有一些这样的工具,它们是有意义的,但你不能仅仅通过无代码的方式,构建一个完整的创业公司,这需要一段时间。
主持人:OpenAI 会向技术栈的哪个层级进军?如果你花了大量时间调优你的 RAG 系统,这是否是在浪费时间,因为 OpenAI 最终可能会认为我将拥有应用层的这一部分,还是说这不是浪费时间?
Sam Altman:我们试图传达的信息是,我们将尽最大努力,并坚信我们的模型将会不断进步。
如果你正在创建一家公司来解决当前的一些小缺陷,如果我们做得对,这些缺陷在未来将不再那么重要。
另一方面,如果你建立的公司能从模型不断改进中受益,假设今天有人预言 o4 将变得非常强大,能够完成现在看起来几乎不可能的任务,而你对此感到高兴,那么你可能想错了。
但至少这是我们努力的方向。如果你认为,在许多领域中,你选择了一个 o1 预览版表现不佳的领域,并创建了一个仅仅能让它勉强工作的修补系统,那么你就是在假设模型的下一次改进不会像我们预期的那样好。
这是我们试图告诉创业公司的信息: 我们相信我们正在走在一个非常陡峭的改进轨道上,今天模型的现有短板将在未来的版本中得到解决。
AI 初创公司的「活路」在哪里?
主持人:如果今天你是一个创始人在构建公司,你会在哪里认为 OpenAI 可能会进来碾压你,而又在哪些地方不会?
另外,作为一个投资人,我也在尝试投资那些不会被影响的机会,那么创始人和我作为投资人,应该如何看待这个问题?
Sam Altman:通过使用人工智能来构建以前不可能或相当不切实际的产品和服务,将会创造出数万亿美元的新市场市值。
我们试图使其更具相关性的一个领域是,我们希望模型变得非常好,这样你就不必费力去让它们做你想要的事。
至于建立在这项新技术上的这些令人难以置信的产品和服务,我们认为它们会变得越来越好。
在早期,我感到惊讶的是,在 GPT-3.5 时代(这种情况现在已经改变),大约 95% 的初创公司都在押注模型不会变得更好。当时我们已经预见到 GPT-4 的到来,我们认为它将会非常出色,不再有那些问题。
如果你只是创建一个工具来解决模型的某个缺陷,这个缺陷将变得越来越不重要。
我们经常忘记仅仅几年前模型的表现有多糟糕,尽管时间并不长,但那时确实存在很多问题。因此,当时似乎那些领域非常适合构建一些东西来填补这个空白,而不是创建像伟大的 AI 辅导员或 AI 医疗顾问这样的产品。
所以,我当时觉得 95% 的人都在押注模型不会变得更好,只有 5% 的人认为模型会变得更好。我认为这种情况现在已经发生了逆转。人们已经意识到模型改进的速度,并理解了我们计划做的事情。
因此,现在这个问题似乎不再那么严重,但那曾是我们非常担心的问题,因为我们看到了那些非常努力工作的人将面临的挑战。
主持人:你提到创造数万亿美元的价值。对了,我不确定你是否看到过,杰夫·马萨曾在台上说过,每年将创造 9 万亿美元的价值,这将抵消他认为需要的 9 万亿美元资本支出。
我很好奇,当你看到这一点时是怎么想的?你是如何思考的?
Sam Altman:我无法精确地评估,我认为如果我们能把这一切做到位,达到几个数量级的改进,就已经足够好了。目前显然会有大量的资本支出,同时也会创造大量的价值。
这种情况在每一次重大的技术革命中都会出现,而这显然也是其中的一次。 如你所料,明年将是我们迈向下一代系统的重要一年。
你提到过可能会出现一个无代码的软件代理。我不知道这需要多久才能实现。但如果我们以此为例,向未来想象一下,考虑一下会发生什么?
想一想如果任何人都能简单地描述出他们想要的整套公司软件,这会为世界带来多大的经济价值。显然这离我们还有很长的路要走。但当我们到达这个点并实现它时,想一想它是多么困难和昂贵。
现在再想想它所能创造的价值。
如果我们能在保持相同价值的前提下,让它变得更加普及且更加便宜,那就真的是非常强大。我认为我们将看到更多类似的例子,就像我之前提到的医疗和教育,这两者对世界的价值是数万亿美元。
如果 AI 真正能够推动这一进程,并以一种与以往完全不同的方式进行, 我认为数字本身并不是重点。关于是 9 万亿美元还是 1 万亿美元的争论,或者其他任何数字——你知道,这需要比我更聪明的人来解决。
但从价值创造的角度来看,这才是令人难以置信的。
怎么看待开源与 Agent?
主持人:开源无疑是一个非常重要的交付方式,你怎么看待开源在 AI 未来中的角色?当问到是否应该开源某些模型或全部模型时,内部讨论通常是怎样的?
Sam Altman:开源模型在整个生态系统中显然占有非常重要的位置。现在也确实存在一些非常优秀的开源模型。
我认为也有适当的市场为集成服务和 API 提供良好的解决方案。我认为所有这些东西都可以提供,而人们会根据自己的需求选择适合自己的交付方式。
所以我们有开源作为一种交付给客户的方式,也是一个传递价值的机制,同时也可以通过 Agent 来交付。
主持人:关于 Agent,很多时候人们在定义它时存在一些语义上的混乱。你今天如何定义 Agent?你认为什么是 Agent,什么又不是?
Sam Altman:简单来说,我认为 Agent 是能够执行长时间任务,并且在执行过程中只需要最少监督的对象。
主持人:你认为人们对这个其实会有什么样的看法呢?好吧。
Sam Altman:更像是,我觉得我们现在还没有直觉去理解,在一个世界中这会是什么样子。
也许我可以举个例子,当人们谈论 AI Agent 代替他们行动时,他们通常会给出的主要例子是一种,你可以让 Agent 帮你预定餐厅的位置,要么它可以使用 OpenTable,要么它可以打电话给餐厅。好吧,没错,这个做法可能是有点烦人,但它 Agent 帮你省点时间。
我觉得有趣的事情之一是,设想一个世界,你可以做一些作为人类无法或不愿意做的事情。
比如,如果不是只给一个餐厅打电话预定,而是我的 Agent 可以给 300 家餐厅打电话,看看哪一家有最适合我的食物,或者有什么特别的东西,或者其他之类的?
然后你可能会说,这样的 Agent 给 300 家餐厅打电话肯定很烦人。
但如果是一个 Agent 在接听这些 300 个地方的电话,那就没问题了。这可以是一个人类无法做到的并行工作。所以,这是一个琐碎的例子,但这里有一些是人类带宽的限制,可能这些 Agent 不会有这个限制。
我认为更有趣的类别不是人们通常谈论的那个类型,就是让 Agent 给你打电话去餐厅,而是像一个非常聪明的资深同事。
你可以和它合作完成一个项目 Agent 可以完成一个两天或两周的任务,并且能很好地完成,遇到问题会联系你,但最终给你一个很棒的工作成果。
主持人:那 SaaS 的定价是否会因此发生根本性的变化?
通常情况下,它是基于每个席位的定价,但现在你实际上是在某种程度上替代劳动,你怎么看待未来在这种背景下的定价,尤其是在你如此核心地融入企业工作流程的情况下?
Sam Altman:这只是我们在猜测一个可能的情况,但我们真的不知道。我可以想象这样一个世界,你可以说,我想要 1 个 GPU、10 个 GPU 或 100 个 GPU,全天候运行我的问题处理。
这样定价不是按照每个席位,甚至也不是按照每个 Agent,而是根据处理你问题的计算资源的量来定价。
主持人:我们是否需要为 AIPC 使用构建特定的模型,或者根本不需要?你如何看待这个问题?
Sam Altman:这确实需要大量的基础设施和支撑来建设。但我认为 o1 指出了一个方向,可以让模型执行出色的 Agent 任务。
花那么高的成本训练大模型,值得吗
主持人:关于模型,Sam,大家都说模型是贬值资产,模型的商品化已经非常普遍。
你如何回应这个问题?你如何看待这个现象?而且当你考虑到训练模型需要越来越多的资本时,我们是否真的看到一种趋势:训练模型需要巨额资金,最终只有少数人能够做到?
Sam Altman:确实,模型是贬值资产。这一点是事实,但说它们不值得花那么多钱来训练,这似乎完全错了。更不用说它们有一个正向复利效应。随着你越来越擅长训练模型,你会变得更高效。
至于通过模型获得的收入,我认为这足以证明投资是值得的。
公平地说,这对每个人都不一定适用。确实有很多人在训练非常相似的模型。如果你稍微落后,或者没有一个足够具备商业价值和吸引力的产品,那么,也许就很难收回投资。
我们很幸运,拥有 ChatGPT 和数亿的用户。即使成本很高,我们也能通过大量用户来摊销这些成本。
主持人:你如何看待 OpenAI 的模型如何在时间的推移中保持差异化,并且你最希望在哪些方面扩展这种差异化?
Sam Altman:推理是我们目前最重要的工作重点。
我认为这是解锁下一个巨大价值跃升的关键。这将以多种方式提升模型的能力。我们还会做多模态工作,也会增加我们认为对用户使用体验至关重要的其他功能。
主持人:你如何看待推理和多模态工作?挑战在于你想要实现什么目标。我很想了解一下。
Sam Altman:特别是在推理和多模态方面,我希望它能顺利完成,尽管显然这需要不少努力,但你知道,像婴儿和幼儿虽然语言还不成熟,但依然能做出相当复杂的视觉推理。所以,这显然是可行的。
主持人:完全正确,视觉能力将会在所设定的新推理时间范式下如何扩展?
Sam Altman:说到这个问题,我不太想剧透,我预计基于图像的模型会有快速进展。
主持人:OpenAI 如何在核心推理方面取得突破?我们是否需要开始推动强化学习作为路径,或是探索 Transformer 之外的其他新技术?
Sam Altman:这是两个问题:一个是我们如何做,另一个是大家最喜欢的问题—— Transformer 之后会是什么?至于我们如何做,这是我们独特的「秘方」。
复制已知有效的东西非常容易。
人们不谈论为什么这如此容易的原因之一,是你需要有信心去相信某些事情是可行的。
所以,当一个研究实验室做出某些突破时,即使你不完全知道他们是怎么做的,复制它也变得相对容易。你可以在 GPT-4 的复制中看到这一点,我相信你在 0 和 1 的复制中也会看到。
真正困难的地方, 我最为自豪的,正是我们的文化能够反复做出全新且完全未经验证的创新。
很多组织——我并不是只说 AI 研究——说自己具备这种能力。然而能够做到这一点的组织非常少,无论哪个领域。我认为在某种意义上,这正是推动人类进步的最重要因素之一。
所以,有时我会幻想退休后能做的一件事,就是写一本书,分享我关于如何建立一个能够创新和开创文化的组织的经验,而不是单纯复制他人做过的事。
因为我相信世界上应该有更多这样的组织。
尽管这是由人类才能所限,但实际上有很多人才被浪费,因为我们并不擅长创建这样的文化或组织方式。所以我真的希望能看到更多这样的组织,而这也正是我们最特别的地方。
主持人:Sam,人类的才华是怎么被浪费的?
Sam Altman:世界上有很多非常有才华的人,他们没有充分发挥自己的潜力,因为他们在不好的公司工作,或者生活在一个没有支持优秀公司的国家,或者有很多其他原因。
我的意思是,关于 AI,我最兴奋的一件事是,希望它能帮助我们大大提高现在的状况,帮助每个人充分发挥他们的潜力,而现在我们离这个目标还远远不够。
世界上有很多人,我相信,如果他们的生活轨迹稍微不同,肯定会成为出色的 AI 研究人员。
主持人:你过去一年经历了不可思议的高速增长,考虑到你所说的写书和退休,如果回顾过去 10 年的领导变化,你认为自己在领导力上发生了哪些最显著的变化?
Sam Altman:我觉得过去几年对我来说最不寻常的地方就是变化的速度。
在一家正常的公司,你有时间从零到一亿的收入,一亿到十亿,十亿到百亿,不需要在两百年内完成这些目标,也不需要像传统的硅谷初创公司那样快速构建公司,服务大量客户什么的。
我们不得不如此迅速地做这些事。其实有很多事情我原本应该有更多时间去学习的,但实际上时间远远不够。
主持人:有什么是你不知道的,但你希望有更多时间去了解的吗?
Sam Altman:我想说,嗯,我知道的一件事,就是从我脑海中那一长串的清单里突然浮现的,是公司要把注意力集中在如何实现下一个 10 倍增长,而不仅仅是下一个 10% 的增长,实际上需要付出非常大的努力。
这是一个相当艰难的挑战。实现下一个 10% 的增长,做的方法依然和过去一样,但要从一个公司做到收入从十亿到 100 亿美元,所需的变化是巨大的。
这不是那种「我们继续做上周的事就能行」的思维方式。
在一个人们几乎没有时间掌握基础知识的世界里,因为增长实在太快,我严重低估了持续迈向下一个大步骤的同时,还要不忽略其他必须做的事的工作量。
这其中有一个很大部分是内部沟通,如何分享信息,如何构建框架,让公司能够更好地思考更大、更复杂的事物,每 8 个月、12 个月就要更新一次思维方式。
此外,还有很重要的一部分是规划,如何平衡今天和下个月的需求,同时为未来一两年能够顺利执行所需的基础设施提前规划,比如计算能力建设,甚至像为快速扩张的公司在旧金山这样的大城市提前预定办公空间,这实际上是非常有挑战性的。
所以,我认为要么没有现成的「操作手册」,要么有人有「秘密手册」但没告诉我们,或者我们所有人都是在摸索中前行,但这一路上我们有很多东西是需要即兴学习的。
主持人:我不知道我问这个会不会惹麻烦,但我还是得问。
Keith Boy 做了一个演讲,他提到你应该雇用非常年轻的员工,30 岁以下,这是彼得·蒂尔教给他的,也是建立伟大公司的秘诀。
我很感兴趣,当你考虑到你退休后写的这本书和这个建议时,你认为通过雇佣非常年轻、充满野心的 30 岁以下员工,来建立伟大的公司,这就是关键机制吗?
Sam Altman:你怎么看?我大概 30 岁左右开始创立了 OpenAI,或者差不多吧。所以我当时并不算特别年轻,但似乎一切都挺顺利。
主持人:你如何看待雇佣那些不到 30 岁,充满青春活力但经验较少的年轻人,还是那些经验丰富、知道如何完成任务的人?
Sam Altman:很明显,这个问题的答案是,你可以通过雇佣这两类人来取得成功,就像我们做的那样。
就在这个之前,我还在给某人发 Slack 消息,提到我们最近在一个团队中雇佣了一个人。我不知道他多大年纪,但大概是 20 出头,他的工作简直是疯狂地优秀。我就在想,能不能找到更多像这样的人?
他真的是太聪明了,我不理解为什么这些人这么年轻就这么优秀,但显然这种情况是存在的。当你能找到这样的人时,他们会带来令人惊叹的新鲜视角、能量和其他一些东西。
另一方面,当你设计一些人类历史上最复杂、最昂贵的计算机系统,实际上是任何类型的基础设施时,我是不会冒险雇用一个刚起步、经验不足的人,尤其是在那些风险更高的地方。
所以你需要两类人。实际上,我认为你真正需要的是无论年龄大小,都具备极高才能的人。我认为只雇用年轻人,或者只雇用年长的人,这是一个错误的战略。
这个框架的思维方式并不完全符合我,但其中有一点我能认同的,就是我在 Y Combinator 中学到的一个教训——没有经验并不意味着没有价值。
在职业生涯初期,有些人具有巨大的潜力,能够创造出巨大的价值。我们作为一个社会应该对这些人下注,这是非常值得的。
Scaling Laws 会失效吗
主持人:继续回到我准备的一些问题了。
Anthropic 的模型有时被认为在编程任务上表现得更好,为什么会这样?你觉得这公平吗?开发者应该如何在选择 OpenAI 或其他提供商时做出决定?
Sam Altman:他们的模型确实在编程方面表现得很好,这是令人印象深刻的。我认为开发者通常会使用多个模型,我不确定在我们进入更多「Agent 化」世界的过程中这一点会如何演变。
但我认为,最终会有很多 AI 随处可见。我们目前谈论或思考 AI 的方式似乎有些不对。如果我要描述的话,我们将会从谈论模型转变为谈论系统,但这还需要一段时间。
主持人:你认为 Scaling Laws 会适用于多少次模型迭代?过去常常有一种说法认为这种情况不会持续太久,但似乎比人们预期的要持续得更久。
Sam Altman:不去详细讨论如何实现,你提到的核心问题是模型能力提升的轨迹是否会像现在这样持续下去? 我相信答案是,会持续很长时间。
主持人:你有没有曾经怀疑过这个过程?
Sam Altman:完全有过。我们曾遇到过很多我们无法理解的行为,也经历过训练失败,各种各样的问题。在接近某一阶段结束时,我们必须找到新的范式,才能继续推进。
主持人:哪一个最难应对?
Sam Altman:嗯,当我们开始做 GPT-4 时,遇到了一些问题,让我们非常困扰,真的不知道怎么解决。最终我们解决了,但的确有一段时间,我们根本不知道该如何构建这个模型。
然后,在转向 o1 和推理模型的过程中,这也是我们很久以来一直期待的,但这条道路的研究过程漫长且曲折,直到我们终于走到今天。
主持人:如果训练过程中遇到失败,保持士气是否很困难?你是如何在这些时刻保持士气的?
Sam Altman:你知道,我们这里有很多人都非常兴奋地想要构建 AGI(通用人工智能),这是一个非常有动力的事情,没有人指望这会是一条简单、直线通向成功的路。
历史上有一句名言,我记得可能不完全准确,但意思大概是:「 我从不祈祷求神站在我这边,而是希望自己站在神的一边。」
投注于深度学习就像是站在天使那一边。你就是相信,最终它会奏效,尽管过程中会遇到很多大障碍。因此,深信这一点对我们来说很有帮助。
主持人:最近我听到一句很有意思的名言:生活中最重要的不是铁或金,而是未做出的决定。你最困扰的未做出的决定是什么?
Sam Altman:每天都不一样,没有固定的重大决定。确实有一些比较大的决定,比如我们是否要押注下一个产品,或者是否以某种方式或其他方式构建下一个计算机系统,这些都是高风险的单向决策。
我和其他人一样,可能会拖延这些决定。但大多数情况下,困难在于每天都会有一些新的「51 对 49」(形容难以抉择)决策,它们一开始就是「51 对 49」,我并不觉得自己能做得比别人更好,但我还是得做出这些决定。
问题不在于某一个特定的决策,而是它们的数量。
主持人:有没有一个共同点,就是当决定是「51 对 49」时你会打电话给谁?
Sam Altman:我认为依赖一个人来处理所有事情的做法是不对的。
而对我来说,正确的做法是拥有 15 到 20 个人,每个人在特定领域有很好的直觉和背景,你可以「打电话给朋友」,请他们成为最好的专家,而不是试图让一个人通通都能做。
主持人:关于艰难决定,我想谈一下半导体供应链问题。你今天有多担心半导体供应链和国际紧张局势?
Sam Altman:我想这样量化这种担忧:它不是我最担心的问题,但它在所有问题中大概排在前 10% 以内。
主持人:我可以问一下你最担心的问题是什么吗?
Sam Altman:这其实是我们整个领域所要做的事情的复杂性。虽然我觉得 AI 最终会运作良好,但它确实是一个非常复杂的系统。
这种情况在每个层级上都是分形的。所以你可以说这在 OpenAI 内部也是如此,在任何一个团队内也是如此。
「APPSO 注释:分形(Fractal)通常指的是一个整体在不同尺度上重复出现的自相似模式。在这里,它被用来比喻公司内部不同层级上的决策复杂性是相似的。」
例如,你刚才提到的半导体问题,需要平衡电力供应、做出正确的网络决策,确保及时获得足够的芯片,并应对可能出现的任何风险。同时,还需要有充分的研究准备,以便能够应对这些挑战。
这样,你就不会完全受阻,或者拥有一个无法充分利用的系统,导致你无法用合适的产品来支撑高昂的系统成本。
因此,供应链听起来可能像是一个简单的管道,但实际上,每个层级的整体生态系统复杂性,就像分形图案一样,这是我之前在任何行业中都未曾见过的。
某种程度上,这可能是我最担心的问题。
主持人:我觉得很多人将这波热潮与互联网泡沫做比较,特别是在兴奋和投资银行的方面。我认为不同的是,大家花的钱更多了。
埃里森曾说,进入基础模型竞争的起始成本为 1000 亿美元。你同意这个说法吗?看到这个说法时,你是不是觉得「嗯,这有道理」?
Sam Altman:不,我认为成本会低于这个数字。
但这里有一个有趣的点,大家总是喜欢用以往技术革命的例子来将新的技术置于更熟悉的背景中。
AI 领域,我认为这是一个坏习惯,总的来说。虽然我理解人们为什么这么做。而且,我觉得人们拿来类比 AI 的例子特别糟糕。互联网显然与 AI 很不同。
你提到的一个成本问题,无论是 100 亿还是 1000 亿,或者其他的竞争成本问题,互联网革命的一个定义性特征是它其实很容易启动。现在另一点更接近互联网的是,对许多公司来说,这只是互联网的延续。
就像是别人开发了这些 AI 模型,你可以用它们构建各种出色的东西。这就像是为技术提供了一个全新的基础工具。但如果你是在构建 AI 本身,那就完全不同了。
另一个例子是人们用电力,不过,我觉得这个类比或许有很多地方不对。
说真的,晶体管就像是一个全新的物理发现。它具有令人惊叹的扩展性,迅速渗透到各个领域。
你知道,像摩尔定律这样的东西,我们现在也能想象出一堆类似的 AI 法则,告诉我们 AI 进步的速度。而且,整个科技行业都从中受益了。
产品和服务的交付中有大量晶体管,你并不会觉得这些是晶体管公司,但其背后有一个非常复杂且昂贵的工业过程,伴随着庞大的供应链和令人惊讶的进步。
基于这一简单的物理发现,它推动了整个经济的巨大跃升,尽管你大部分时间并不会意识到这一点,也不会说「哦,这是一个晶体管产品」。
就像是,「哦,好吧,这个东西能处理信息。」你甚至不会特别在意这一点,只是理所当然地接受了。
主持人:Sam,我很想和你做个快速问答环节。接下来我会说一些简短的陈述,你给我你最直接的想法。假如你今天是 23、24 岁,拥有现在的基础设施,你会选择做什么?如果今天重新开始的话。
Sam Altman:我会做一个 AI 驱动的垂直领域产品。我举个例子,就是最好的 AI 辅导产品,或者你知道的,能教人学习任何领域的 AI,比如 AI 律师,或者 AI CAD 工程师之类的。
主持人:你提到过你的书,如果你要写一本书,你会给它起什么名字?
Sam Altman:其实我还没有确切的书名,也没想过这个,只是觉得希望有一本这样的书,因为我觉得它能释放人类的巨大潜力。所以也许它会和「人类潜力」有关。
主持人:在 AI 领域,有没有一个大家都忽视的东西,实际上应该更多关注的?
Sam Altman:我希望看到的,是能解决这个问题的多种方法,但就是关于一种能够理解你整个生活的 AI。
它不需要真的拥有无限的上下文,但应该有一种 AI Agent,能够了解关于你的一切,能够访问你所有数据的类似的东西。
主持人:过去一个月里,最令你惊讶的事情是什么?Sam。
Sam Altman:一个我不能谈论的研究结果,但它非常惊人。
主持人:你最敬佩的竞争对手是谁?为什么?
Sam Altman:我想,我现在有点敬佩这个领域里的每一个人。
我觉得整个领域有很多令人惊叹的工作,充满了非常有才华、非常努力的人们。我并不是在回避问题,而是说,我可以指出很多超级有才华的人,他们在这个领域做出了非常出色的工作。
主持人:那是一个人吗?
Sam Altman:其实不是。
主持人:告诉我,你最喜欢的 OpenAI API 是哪个?
Sam Altman:我觉得新的 Realtime API 非常棒,但我们现在有很多——我说我们现在的 API 业务非常庞大,里面有很多很棒的东西。
主持人:今天,你最敬佩欣赏谁?Sam。
Sam Altman:可能是 Cursor 团队。
实际上,现在有很多在AI领域做着令人难以置信的工作的人,但我觉得真正实现他们所做的工作,创造出那样的东西,这种体验创造了巨大的价值。人们以前没能将这些元素拼凑在一起,这一点非常了不起。
当然,在考虑这个问题时,我故意没有提到 OpenAI 的任何人,否则我会列出一份长长的 OpenAI 人员名单。
主持人:你怎么看待延迟和准确性之间的权衡?
Sam Altman:你需要一个可以调节的控制器,以便在两者之间进行选择。就像你现在需要快速反应一样,我可能反应不够快,但在这个情境下,我宁愿避免多想几分钟。
如果你需要立即反应,那么延迟是你关注的重点。但如果你对我说,Sam,我希望你能做出一项新的重要物理发现,你可能愿意等待几年。因此,答案是,这应该由用户来控制。
主持人:我想问一下,虽然我们很少讨论。你认为自己作为领导者,最希望在哪些方面提升自己?作为 CEO,你今天最想改进哪个方面?
Sam Altman:我现在最挣扎的事情是,我比以前更加不确定我们产品战略的具体细节是什么。
我觉得产品是我相对较弱的领域,目前公司非常需要我在这个领域提供更强和更清晰的愿景。
我们有一位出色的产品负责人和一支优秀的产品团队,但这是一个我希望自己能更强大的领域,我现在深刻感受到这个不足。
主持人:Kevin 是你隐藏的杀手锏吧。我认识 Kevin 很多年了,他非常出色。Kevin 非常棒,在你看来,是什么让 Kevin 成为一位世界级的产品领导者?
Sam Altman:自律是我想到的第一个词。
主持人:在专注方面吗?
Sam Altman:专注于我们要拒绝的事情,真正站在用户的角度去思考我们为什么要做某件事或不做某件事,真正努力避免那些不切实际的梦想。
主持人:我们有一个五年的规划,如果你有一根魔法棒,可以描绘五年和十年后的场景,你能为我描绘这幅画吗?五年和十年后的情况?
Sam Altman:我的意思是,我可以很容易地描绘未来两年的情景,但如果我们是对的,开始制造出如此出色的系统,比如,帮助我们在科学进展方面取得突破。
我其实想说,我认为五年后,我们会看到技术本身的进步速度非常惊人。
你知道,人们会说,AGI 时刻已经来临又过去了,不管怎么样,进步的速度简直太疯狂了,我们正在发现有关 AI 研究的全新内容,同时也在发现所有其他科学领域的全新成果。
那种感觉就像,如果我们现在坐在这里回望这一切,会觉得它非常疯狂。
然后,预测的第二部分是,社会本身实际上变化惊人地小。
举个例子,如果你五年前问人们计算机是否会通过图灵测试,他们会说不会。然后如果你说,如果有一个神谕告诉你它会通过,他们会说,那将是对社会的一个疯狂、令人震惊的变化。
但实际上,我们确实在某种程度上满足了图灵测试,当然是大致上,社会并没有发生太大变化,它只是快速地过去了。这就是我预期会继续发生的一个例子,进展的方向。
科学进步不断超越普遍预期,而社会变化在我看来相对健康,但变化不大。从长远来看,社会将会发生改变。
主持人:你真了不起。我有一份问题清单,但我其实没有完全按照它来提问。
感谢你耐心地回应我针对各种问题的探讨。也感谢各位的到来,我很高兴我们今天能够完成这次活动,Sam,非常感谢你使得这一切成为现实。
Sam Altman:谢谢。