在前段时间刚刚结束的2023年GTC大会之后,英伟达CEO黄仁勋(Jensen Huang)接受了知名分析师Ben Thompson的采访,原文名为《An Interview with Nvidia CEO Jensen Huang About AI’s iPhone Moment》,笔者在通读全文之后,将重点进行了总结和解读,供各位参考。
ChatGPT会给英伟达带来什么影响
ChatGPT和生成式AI的特性
英伟达商业策略的转变
业务策略和公司战略的变化
关于DGX Cloud
关于英伟达与Oracle、Azure和谷歌合作
关于合作哲学&英伟达与初创企业的关系
首先,是ChatGPT带来的影响:站在英伟达的角度,ChatGPT带来的影响和变化有哪些?
如果我们往前看,在2023年2月英伟达的财报会议上,CEO黄仁勋的原话是这样的:"无论当时的具体观点是什么,现在这些观点,都已发生了巨大的变化。"
GPT-3已经出来一段时间了,在此之前,ChatGPT的雏形包括WebGPT和InstructGPT,但是,正是ChatGPT的到来,彻底点燃了整个行业。
如何理解“ChatGPT出现点燃了整个行业”这句话?
所有用户关注的关注点,主要集中于ChatGPT的易用性和解决问题的能力。
注意,这里的所有用户,包括对计算机不甚了解的用户,也包括计算机科学家,比较显眼的主要在于ChatGPT的推理能力与解决问题的能力。于是乎,这里就出现了一些迹象:
首先:C端用户开始关注ChatGPT
之后:云计算和每个软件公司开始关注ChatGPT
再然后:创业者和风险投资开始进来这个赛道。
ChatGPT和生成式人工智能的特性:
一是ChatGPT的厉害之处在于,所有用户接受人工智能这个事实的“拐点”提前到来了,因此,训练这件事本身的预算和优先级也被调高,表现出来的就是(计算)需求上升的原因之一;
二是“编程”的定义,被扩张了,更多的事能被自动化
对于计算平台来说,无论是工作站、个人电脑、互联网、云、移动云,在编程这件事上,本质是相似的,在每一个平台上,我们都在以不同的方式编程,从需求出发,编写不同的应用程序。
不过工作站、个人PC和互联网等云平台的影响力(覆盖面)完全不同。
计算机工作站可以覆盖数十万人;
个人PC可以覆盖数亿和数十亿;
移动设备可以覆盖数十亿及以上;
如果从今天的应用格局来看,AppStore里大概有500万个应用;
重要的网站大概有数十万个;
那么,大型语言模型上会长出来多少个应用?
我认为这个数字将会是以数亿级计量,所有人都可以自己编写属于自己的应用。
这就等同于阶段性的范式转变:差异+拐点,这里将涌现全新的计算模式。
而这正是公司、个体和各个平台目前正在面临的变革和机遇。
英伟达对ChatGPT的看法:在ChatGPT横空出世之后,在商业上,英伟达有哪些与之前不同的策略?
首先,是要对市场需求快速做出反应,市场对算力的需求在加速。英伟达也会加强培训,因为几乎所有知名云服务提供商都已经在研究大语言模型,现在大家也意识到,必须更快地进入下一层次:不仅仅是研究方面,还有推理方面。要更快地训练这些模型,更快拿出来更大的模型,并且迅速开发支持模型,用于Fine-tuning、alignment 、guard railing和augmenting ,以及围绕这些大型语言模型的所有支持模型。
第二,因为生成式模型的易用性,于是它被连接到微软办公室和谷歌doc,突然间,生成式人工智能与很大的应用程序和网络浏览器相连接,因此,推理需求迅速飙升。
所以我认为这两件事都在发生,需求的增加,交付的紧迫性,这两件事都在同时发生。
在ChatGPT出现之后,英伟达的策略还有什么变化?思考业务和战略的角度有什么变化?
主要是推理(Inference)业务,推理业务的规模已经经历过步骤层面的功能,毫无疑问,现在正在做的推理类型,我们已经看到,目前已经有各种视频的制作过程,应用了生成式人工智能的功能,从而给视频的背景增强效应,对主体进行增强,调光等等等等。所有这些生成式人工智能工作,全部都是在云端完成的。
拿RunwayML举例子,它基本上是用生成式AI进行电影级别质量规模的视频编辑,这就需要不同类型的GPU。
然后拿大语言模型来说,整个模型超过1750亿个参数,在大型语言模型推理中,每个Token的响应时间真的很重要,比如说,如果我们处在这样一个场景:无论是整在写一封长信,或者在写一个相对复杂的程序,人们更期待的是实时互动。如果一旦突然掉线,用户的耐心就会受到挑战。
通过浏览器,每个企业都能即时接入 AI 超级计算机,那么,英伟达推出DGX Cloud,是基于什么考量?
随着当前的算力需求不断攀升,出现的需求是,企业均需要超级计算能力,但是对于很多不具备AI能力与团队搭配的企业,又该怎么办?
基于这样的需求,英伟达推出DGX Cloud,DGX Cloud主要和微软Azure、甲骨文Oracle OCI和谷歌云Google GCP合作,而DGX Cloud是一项月租服务,这项服务可以为企业提供训练自己的生成式AI模型和其他应用程序所需的超算能力,企业直接应用这项服务,能够降低大型模型训练和开发时间。
Jensen Huang的原话是这么说的:
We’ve been very transparent about and very consistent about our desire to build a computing platform that’s available everywhere and this computing platform is built at data center scale.
我们没藏着掖着,大家都希望英伟达的AI计算能够在每一朵大云(数据中心)上面出现。
Today’s computers is not a PC, today’s computer is a data center, the data center is the computer and you have to orchestrate that entire fleet of computers inside the data centers as if it’s one.
虽然数据中心计算机很多,但它们并不是有机的整体,所以计算归计算,管理归管理,要分开,而通过软件使其分开,好管理。(言外之意就是无论你的计算中心有多少台机器,看起来都像只有一台超大的)
That’s why they call it single pane of glass, it’s managing one computer and that’s why it has to be software-defined. That’s why you have to have a separation of the compute plane and the control plane.
这就是为什么它被称之为“单一管理平台”,而这个“单一管理平台”管理的“这台超大计算机”必须是“软件定义的一大堆计算机的综合”,必须把“Control”和“Compute”分开(说白话就是,调度的,和干活儿的分开)
All of those architectural reasons leads up to, basically, the data center is the computer. We build our entire system full stack, and then we build it end-to-end at data center scale but then when we go to market, we disaggregate this entire thing.
所以,折腾这些全栈设施(软件和辅助硬件)就是为了让每个数据中心(物理硬件)都能够用上,变成一台超大的机器,然后用户来使用的时候,我们再切出一小块来让他用到
This is the miracle of what we do, we’re full stack, we’re data center scale, we work in multiple domains, we have quantum computing here, we have computational lithography there, we have computer graphics here and this architecture runs all of these different domains, in artificial intelligence and robotics and such and we operate from the cloud to the edge and we built it in a full system, vertically integrated, but when we go to market, we disaggregate everything and we integrate it into the world’s computing fabric.
意思就是:我们英伟达超厉害,我们啥都会,我们是全才,甚至还会客户的领域,我们能横切系统,还能竖切系统,你需要啥,我就切一块给你。
在英伟达与Oracle OCI合作的案例中,英伟达的团队与甲骨文架构团队一起工作。共同去探讨:“究竟什么是整合到甲骨文云架构中的最佳方式",在这块英伟达不会规定的很死,并不是说,英伟达提供了自己的系统,甲骨文一个人就可以玩起来。
我们和甲骨文密切合作,主要是为了搞清楚——"在甲骨文的云架构里,什么是高效的的架构,可以在英伟达整个技术堆栈中发挥最好的性能"。英伟达的整个技术堆栈必须以原生的方式运行,包括协调层,系统管理层或分布式计算层等等,所有这些都必须在本地运行,因此我们必须与云厂商密切合作,以确保他们的云和我们的软件架构能够和谐地一起工作。
与Azure合作时:主要会考虑“到底什么是计算的最佳方式?如何能做到安全整合?如何能做到更优的链接存储?如何最好地托管它,使有很多私人数据安全问题和可能有工业法规问题的客户能够最好地管理它?"
因此,有相当多的合作围绕着为这些不同需求,进行架构的设计。
问题:那么,如果有客户要使用DGX云,是否会选自己想要的云厂商?是否必须与甲骨文、Azure或谷歌云建立关系?还是由Nvidia来促成这种合作,去告诉Nvidia我们的需求,然后Nvidia会帮忙选择云厂商?
Huang:这取决于你,用户可以由英伟达来协助实施,也可以自己根据自己之前和云厂商的合作进行部署。对Azure来说,DGX Cloud对企业的吸引力也可以之前的云基础结合,那么无论是微软Azure还是谷歌云,都可以在这里找到自己的生态位。
问题:为什么没有AWS?
我们和AWS会有很多其他方面的合作。作为英伟达,我们希望以这种方式与所有人合作,这和我们与惠普、戴尔和联想合作是一样的,这些品牌,他们在英伟达每个平台上的上市时间并不总是同时,但是我们的合作哲学,是一致的。我们有大型团队与亚马逊合作开发SageMaker。他们需要英伟达大型团队来加速SageMaker。
英伟达在做的事情,与终端用户和开发者都进行了极其深入的合作,和大量垂直领域合作(医疗保健、汽车,当然还有大量人工智能初创企业,大约有10000家AI初创企业)如果拿视频游戏行业举例子,基本直接覆盖几乎所有的开发商。英伟达和几乎所有的汽车公司都有直接合作,正在与几乎所有的药物研究公司合作,我们的合作伙伴,还包括台积电和ASML。
在整个采访中,Jensen Huang还有一句话,让我记忆深刻:
Notice the way I’ve explained everything so far is exactly that and there’s no inconsistency between celebrating the success of our partners, even if it’s in an abstraction layer where we are further below, versus in conserving our own energy to go work on things that only we should do and we can do, it’s just not a conflict to me. I’m really happy when AWS does well, I’m really happy when OpenAI does well and this is our attitude about our partners and ecosystem, whether they use CUDA or not, it just doesn’t matter to us. CUDA has great value to us, whether it has great value to somebody else or not, so what? The most important thing is that they’re able to do whatever it is they’re trying to do as easily as possible, as cost effectively as possible. If one of our partners is the best answer or if even somebody else is the best answer, so be it. We move on.
大概意思就是,英伟达会对合作伙伴的成功非常开心,也会专门保留自己的精力,去处理只有我们应该做而且能够做的事情。无论是当AWS 还是 OpenAI ,他们做得好时,我也真的会很高兴,而这也就是我们对合作伙伴和生态系统的态度,无论他们是否使用 CUDA,这对我们来说都不重要。CUDA 对英伟达具有重要价值,最重要的,所有人都可以通过CUDA能够以尽可能简单、尽可能低廉的成本实现大家的目标。就算是如果别人有最好的方案,我们也为他们感到开心,但我们英伟达,会持续前进。
孙17779130177 2024-12-18
摩尔力传感器 2024-12-18
七噩DreamStars 2024-12-18