当前位置:首页|资讯|微软|OpenAI|ChatGPT

微软CTO透露与OpenAI合作细节,克服了“意识形态分歧”

作者:未尽研究发布时间:2023-05-31

近日,微软首席技术官 Kevin Scott有了一个新职务:AI 执行副总裁,主要负责微软的 AI 版块,包括与 OpenAI 和 ChatGPT 的合作关系,还掌控着微软的GPU采购预算和分配大权!

Kevin在微软Build 大会上展示了全新的人工智能助手工具Copilot。GitHub Copilot已经在帮助数百万开发人员编写代码,目前该公司正在将 Copilot 添加到从 Office 到 Windows 终端的各种场景中。

‍微软非常重视 Copilot,正与 OpenAI 合作构建这些 Copilot,Kevin 则负责管理这个合作项目。为什么微软决定与一家初创公司合作,而不是在内部构建人工智能技术?两家公司‍在哪些方面存在分歧?如何解决分歧?微软会自主开发什么产品?负责微软整体 GPU 预算的Kevin又将如何花掉这笔钱?

美国科技媒体the Ver‍ge主编Nilay Patel就以上问题与微软CTO Kevin Scott展开了精彩对话,以下为我们摘译的文字实录:‍

Kevin Scott,来源The Verge

微软与OpenAI

你是推动与 OpenAI 合作的人之一。为什么要建立这种合作关系?与他们合作和自己构建相比,优缺点是什么?

这是一个非常好的问题。在我们刚开始讨论这种合作时,我们听到了各种不同的声音。我们的指导原则是:微软是一家平台公司。我们需要确保一件事:我们正在构建的平台能够满足人工智能领域雄心勃勃的人们的需求,他们代表最高的水平,同时也抱有最高的期望。最好的方式就是有一个微软外部的合作伙伴,当他们告诉我们“这已经足够好了”或“这还不够好”时,他们不会受到大公司内部发生的一系列事情的影响。

当我们与OpenAI 建立最初的合作伙伴关系时,它只需要帮助我们推动构建AI 超级计算机的方式,并将我们自己的AI 超级计算平台扩张到更大规模,这就已经是巨大的成功了。事实证明,我们在这个平台愿景上是一致的。我们在前行的道路上看到,这些模型将能够训练一件事并将它用于很多不同的事情,这是一种与过去几十年截然不同的机器学习方式。OpenAI对自己所做的事情是有平台愿景的。我们是一家平台公司,我们可以一起构建该平台。

你不同意OpenAI 的哪些方面?

这真的很有趣——它会随着时间而改变。老实说,就我个人而言,Sam (OpenAI CEO)和我的分歧相对较少。但是两边的团队在整体方法上存在意识形态分歧。

如果你是一名机器学习专家,那么将经历工作方式上的巨大转变:从自始至终由自己训练数据集,变为依赖基础模型。当突然有人告诉你,你不仅要换一种工具去使用,而且还指导你该如何使用它们时,我猜任何热爱技术、并热爱工具的专业人士面对这种情况都会有同样的反应。我们的分歧点在这里。

我认为现在的分歧比以前少了。每个人都越来越相信这些东西很强大,而且它们可能会变得更强大。

你依赖OpenAI 做什么?以及你希望微软团队做什么?

OpenAI正在开发我们现在所依赖的一系列核心人工智能技术。他们有一个 OpenAI 模型。在许多情况下,模型还伴随着一大堆其他东西——很少只有一个模型。你需要一整套用于构建完整应用程序的套件,因此我们自己构建了所有这些。显然我们彼此间应该密切合作,定义基础设施应该是什么样子,我们必须尽力构建并扩大规模。然后我们双方在实施和部署方面一起做一大堆工作。

我们和OpenAI共同运营一个“部署安全委员会”。我们推出的所有包含OpenAI 模型的东西,无论是OpenAI正在做的还是微软正在做的,我们都有一组由 OpenAI 和微软的专家团队来审查所有红队分析和已经完成的专家报告,然后我们共同决定是否继续部署。所以,我们所做的事情往往更多是基础设施性质的。他们更倾向于模型科学方面。他们有产品,我们有产品,然后我们超级深入地合作,去实施部署。

马斯克公开说微软控制着OpenAI,这是真的吗?

哦,天哪,我们不控制OpenAI。他们是合伙人。我也不控制在微软工作的机器学习工程师。我们就需要共同努力完成的事情达成一致,并且有一系列协议来确保我们达成目标。我们既不会在任何传统意义上控制,也不会在精神上控制,而且我也不想这么做。所以,我一开始说的是我们需要微软职权范围之外的人来推动我们。否则,我们的雄心就会出错。作为一家大型科技公司,很容易孤立无援,只是看到,“这就是我正在做的,这是我的东西,这就是我一直以来的方式”……我的意思是,微软是一个古老的公司,我们已经快50岁了。只有一个独立的合作伙伴,他们有自己的雄心,他们自己想做的事情……我们有紧密的联系,但独立性对于我们建立成功的合作伙伴关系确实至关重要。

你现在的团队架构如何?

我们有一大群人在公司内部从事AI 方面的工作。Scott Guthrie 负责管理名为 Cloud+AI 的团队,里面有一个小组叫做AI Platform。AIPlatform 负责公司的所有基础设施,包括第三方和越来越多的自有 AI 平台。Bing下面有一个庞大的 AI 团队,是全公司最好的AI 团队之一。体验和设备部门有一个 AI 团队,负责Office 和 Windows 以及许多其他以应用程序为中心的产品。他们的任务是,“这是 AI 提供的最佳功能。我们如何将其应用到我们的产品中?”我们在微软研究院有大量的 AI 研究人员,他们都向我汇报。我协调整个公司的所有这些活动。每个人都向我的一位同事汇报,我拥有整个公司的GPU 预算。

你是如何做有关GPU预算的决定?你通常如何做决策?

好吧,我分配资金的方式,以及在哪些项目上分配多少人员,并不完全和Sergey Brin(谷歌创始人之一) 在创立谷歌初期提出的70-20-10概念一致,我们将大部分资金放到那些有可靠的可量化证据表明将从更多投资中受益的项目,或者将产生业务影响、为我们带来投资资本回报的项目。

这是投资组合中最大的部分,85-90%的投资是在正在发挥作用、将从更多投资中受益的事情上。其余 15% 投资是试图播下足够多的种子,让最聪明的人尝试做一些违反直觉或现阶段不明显甚至是完全不在预期中的事情。

这就是我们通常考虑做事的方式。以微软的规模而言,15%已经很多了。公司内部到处都有类似的小小的种子投资。

这甚至是我们考虑与其他人合作的方式。我知道大家可能认为OpenAI 的投资很大。但就微软的收入流和公司规模而言,第一轮投资在财务上并没有太大风险。这是其中一粒种子,“这看起来会奏效。让我们投入一些资源,看看我们能否将其推进到下一步。”这就是我们做出这些决定的方式。

当你使用集中的GPU 预算构建像Copilot 这样的产品时,你如何将所有团队聚集在一起并说,“这就是我们要做的方式。这些是我们产品应该是什么样的原则,这些是我们必须要加上的护栏”?

在过去的几年里,这件事实际上变得容易多了,主要是因为我们已经练习了一段时间。因此,在与OpenAI 交易之前大约一年,我们所做的一件事就是,我在公司内部开始了集中审查机制,这是一个名为AI 365 的系列会议,已经持续了五年。我们最近刚刚对其进行了重构。AI 365 有几个目标,第一是:让公司中所有以重要方式从事 AI 工作的人,让所有这些人看到其他人在做什么,并了解雄心勃勃的 AI 和一般雄心的AI 之间的区别。随着时间的推移,在 Satya(微软CEO) 与我和其他人,以及在同行的推动下,我们慢慢地达到了这样一致看法:每个人都对AI 的发展方向以及目标水平有一个看法。让人们同意依赖某些核心基础设施需要花费更长的时间,因为工程师总是希望从头开始构建自己的东西。还有一些事情是没有商量余地的:我们有一个负责任的人工智能流程,它将以一种方式为整个公司运行,你不能选择退出。

你在一开始就设置了该过程。[现在]你推出了很多产品。但很明显,你在那个过程中也会有外部压力源,“哦,天哪,突然之间每个人都想使用ChatGPT,”突然之间,你正在与谷歌竞争,谷歌也正在推出产品。这如何强调这种过程和结构?

我们有五年的时间来实践这个过程,实际上是非常好的,否则,我认为一切都会变得火上浇油。我们现在的优势是,至少我们清楚我们自己对技术的看法、也清楚我们可以用它做什么。我们知道如何解决一些最棘手的问题。我们没有一堆奇怪的分区比赛。我们不会让这个研究小组和那个拥有数十亿美元GPU 资源的研究小组做完全相同的事情。

我们甚至没有产品部门会说,“我只是要去构建我自己的东西,因为我不想依赖核心东西,”或者,“哦,我正在运行一个研究项目。我不关心这些东西将如何部署。”我们对我们正在做的事情有真实的观点。再强调一次,这是一个务实的观点,因为这些东西非常复杂且昂贵,并且具有与之相关的真正风险。所以你只需要以一种相互协调的方式来做。

你认为它可以以另一种方式运作吗?例如,Sam Altman 将在国会面前发言。那是一次非常愉快的听证会,非常友好的。他说,“请规范我们。”国会说,“从来没有人要求我们对其进行监管。”然后你将制定一些有利于拥有大量资金、与微软建立重要合作伙伴关系的大公司的法规。从好的方面来说,你可能需要这样做,因为这些东西太贵了。你必须为如此多的GPU 和高端机器学习专家付费。另一方面,如果你有一个由小公司组成的生态系统,它们都在竞争,你可能会获得更丰富的体验或产品,或者不同的安全方法。平衡点在哪里?

我认为我们应该两者兼得。我认为没有什么推理可以排除另一样。我想很多人确实相信这一点,就像流传的谷歌备忘录一样,“哦,天哪,他们的开源做得很好。”

我根本不赞成那个理论,也不赞成仅仅因为我们正在构建一个大平台,开源的东西就无关紧要。显然,开源社区现在正在做一些疯狂有趣的事情。

对于企业家来说,有一个务实的事情:你想使用什么工具来构建你的产品,让自己快速进入市场?我一直在创业公司工作,我一生的大部分时间都在努力干小事情,这些小事情拼在一起努力变成一件大事情。很多人在这种创业模式下犯的错误是,他们迷恋基础设施,忘记他们真的必须构建人们想要的产品。

毋庸置疑的一点是,这些模型根本不是产品。它们是基础设施,是你用来制作产品的积木,但它们本身并不是产品。试图构建以基础设施为首要任务的人,最终得到的结果可能与以构建基础设施为首要任务的企业是相同的——除非后者是一家平台公司。你只需要让你的商业模式适合你正在做的事情。对于一些大型模型来说,你正在构建的是一个平台,有点像操作系统、编译器、智能手机或诸如此类的东西。

所以问题是,如果你想编写智能手机应用程序,你是否认为你必须构建电容式触摸屏、手机和电池并从头开始编写移动操作系统?或者你只是依赖平台提供商,编写你的应用程序,然后去满足客户的需求?或者你真的必须为自己构建一个完整的平台才能获得产品吗?

回到你之前关于抽象的观点:抽象是有原因的。它让我们可以更快地完成我们想做的有意义的事情。所以每次你想编写Windows 应用程序或 PC 应用程序时,你都不会编写Windows 或 Linux。会有一些这样的工具,它们就足够了。有几个就很好。

让我们以两个大问题结束。第一,我们已经讨论了很多关于模型和数据,以及它们能够做什么的问题。关于训练数据,网上有一场大战,还有法律和版权之争。关于是否应该将艺术家和作家纳入到训练数据中,存在着道德上的争辩。好莱坞发生了编剧罢工,其中包含一些对人工智能的担忧。在某个时候,Copilots,即生成式AI,将能够创作出相当不错的诗歌。我会说,现在,他们真的无法做到这一点。你认为微软或OpenAI 或谷歌应该开始支付报酬给那些创作内容被纳入模型的人吗?

或许。我不确定。从事创造性工作的人确实应该因为他们所做的工作而获得不错的报酬。但我不清楚我们是否会真的到你说的那一步。值得指出的一点是,我们喜欢消费我们自己生产的东西。我们现在可以出品一套关于计算机扮演各种角色的影视节目,表演技巧比任何人类都要高超。但没人愿意看,它们演得再好又有谁在乎呢?我们喜欢关于人的戏剧。而且我认为,当涉及创意输出的消费时,我们愿意消费的部分原因是可以与其他人建立联系。

这就是为什么我对这些Copilot 协助下的 AI 愿景感到非常兴奋。我更愿意构建能够帮助那些有创造力的人去做他们目前无法想象的事情,而不是因为机器人太好了,所以我们不需要更多创造者的世界。我不认为那是我们想要的。因为这不是我们想要的,所以我认为你说的情况可能不会发生。

从你作为 CTO的角色,帮助设计和搭建架构,并从全局做广泛的系统性思考,你如何将这些纳入到未来的开发中?“嘿,我们不应该彻底消灭整个楼层的作家”?

我认为首先要认真考虑你希望平台做什么。在构建平台时,你可以决定要在平台中鼓励什么。我们想让人们真正轻松地构建辅助工具。真正有趣的事情是,拥有一个不开放的平台是件好事,因为你可以获取模型权重并根据需要修改它们,获得开发人员密钥并开始制作API去调用这些模型是相当容易的事情。当可以扩大规模时,进行这些API 调用的单位成本将变得非常便宜,然后你可以开始考虑做各种其他在经济上不可行的事情。

我不知道你是否看过Sal Khan 的 TED 演讲,真的很棒。一段时间以来,他一直在攻击的是这个二西格玛问题,即控制其他一切的想法——能够获得高质量、个性化教学的孩子比没有获得高质量、个性化教学的孩子表现得更好,取得的成就更多。因此,如果你相信这些数据——它们似乎非常明确,你就可以制定一个愿景或目标,说:“我认为地球上的每个孩子和每个学习者都应该获得高质量、个性化的指导。”我想我们都同意这是一个非常合理非常不错的目标。但是你可以想象一下,如果没有人工智能这样的工具辅助的话,这样做的经济效益将会如何?

如果你有这样一个平台,随着时间的推移,它的单位经济效益呈指数级增长,那么你就可以开始考虑此类超级艰巨的挑战。这才是一个好的平台。

通用人工智能,取决于你如何定义它

我认识很多 AI研究人员,他们认为我们刚刚向通用人工智能(AGI)迈出了一大步。现在有人认为AGI是五年后的事。你认为我们在哪里?

我仍然不确定 (AGI)五年之后就会到来。这是一件很奇怪的事情。过去一年发生的事迫使你思考一件事:当你说 AGI 时,你指的是什么?我认为人们在说这个词时有不同的意思,这真的很有趣,而且对于它到底是什么,我们没有一个很好的定义。

我真的相信,随着时间的推移,拥有更强大的系统来完成更复杂的认知性任务是一件好事,你可以从“嘿,告诉我这句话的情感是什么”到“嘿,我希望你为我写一篇关于哈布斯堡王朝女皇及其对女权主义的影响的文章。”实际上我在几个月前就这样做了。

写得怎么样?

不错。我妻子是历史学家。她对此有一些小抱怨,说它有点像八年级学生写的作文。我认为,在未来,你可以让系统执行更复杂的任务,这些任务需要多个步骤并访问一堆不同存储库中的信息。我认为所有这些都是有用的。当它汇聚到某个点时,你看着它会说,是的,这就是AGI……谁知道呢?是五年吗?这完全取决于你对AGI 的定义。

有些人认为我们会不小心得到奇点——奇怪的、奇怪的超级智能的东西……我们不会偶然得到它。我知道在给这些系统的“打地基”是什么样子,我也知道我们正在实施的所有保障措施——

这不会像电影里彼得·帕克把错误的插头插入错误的插槽,然后——

不,这不是事情的运作方式。此外,我认为我们现在遇到的一个问题是,人们总是在谈论尚未具备的能力,而这令人害怕。“哦,好吧,如果你无法预测 GPT-4 中即将出现的能力,那么还有什么未来的能力是你无法预测的?仅仅因为你不能预测GPT-4 比 GPT-3.5 更能讲笑话,并不意味着你不能采取一整套措施来确保超级奇怪的事情不会发生。

无论如何,我在这些通用超级人工智能对话中并没有发现值得欣慰的地方,因为从狭义上讲,我们可能需要某种形式的超级智能。你可以说,“嘿,我希望你去开发一种治疗癌症的方法,一组可以治愈这一系列癌症的化合物或 mRNA 疫苗。”如果AI能做到,我想你会想要它去做的。所以我说不好。其中一些对话对我来说有点奇怪。

你的意思似乎是,“这是一步,但它甚至不是最重要的一步。”

这不是最重要的一步。人们现在正在想象的一些场景,不是不可避免的。你可以想到一大堆风险。与其沉浸在内心的偏执中,不如让我们把注意力集中在我们已经面临的风险上,比如气候变化,以及人口老龄化。我们已经面临一堆非常困难、棘手的问题,这些问题可能比一些未来主义的场景更值得关注。

必应对话机器人,当初亮相何以“出轨”

你们推出了带有ChatGPT 的 Bing。我的朋友Kevin Roose是《纽约时报》的专栏作家,他发现自己与 Bing 的对话可以用“非常饥渴”来形容。Bing 试图挑逗 Kevin。这是一种没有任何防范措施的“尚未出现的”行为,对吧?你预见到了吗?

Kevin联系了在微软负责公关事务的Frank Shaw,说他准备写写这个故事。在他这样做之前,我打电话和他聊了聊。他所做的非常完美……我们没有预料到,有人会在Bing 聊天会话上花几个小时尝试让 Bing 脱离正轨—— 他还真的这么做了。

公平地说,Bing的早期版本很快就出轨了。

技术上发生的事是这样的:因为它们只是试图预测下一个词,所以当你对它提一些非常奇怪的要求是,你可以沿着这种预测的路径一直走下去,接下来所有可能发生的事情的概率都差不多是一样的。因为是在陌生的领域,机器的工作方式是,它随机选择一些东西,然后接下去完成。所以后面就出现了这样的事情:“我真的很爱你。你还是离开你老婆吧,我跟你说说我荣格的影子……”

这是微软为那个版本的Bing 所做的最好的营销。在《泰晤士报》的头版,Bing宣告“我认为你应该离开你的妻子。”令人难以置信的吸引媒体关注的时刻。那件事发生了,但是你需要召开某种后续会议,对吧?

是的,后续会议是我们按计划进行的。我们不知道会发生这样的事情,但我们知道可能会出现一些我们在为系统所做的测试中没有预料到的事情。测试非常全面。我们已经建立了一大堆系统,可以让我们非常快速地处理突发情况。我们做了两件事:一是限制对话的次数,并强制定期重置。

然后我们在元提示中做了一些调整,并构建了一个完整的验证套件。我们进行了更改,按下了按钮,运行了评估套件——一切都很好。我们按下按钮并部署,几个小时后,没人能再这样做了。

大家都读到了这篇文章,而糟糕的是,微软内部负责所有安全工作的人——不仅付出了所有努力来确保系统安全,而且还随时待命全身心解决问题的几百号人——他们一边读文章一边问自己,“你在做什么?”他们感觉很糟糕,这才是最难的事。事实上,我们推出了一款产品,它所做的事情仍然完全符合我们发布的透明、负责任的AI 标准——它并没有做任何不安全的事情,它只是做了一件令人不安的事情。软件如果出现用户界面bug,正常的处理方法是修复错误并向触发它的客户道歉。这篇文章恰好是《纽约时报》历史上阅读量最高的报道之一。很有意思。

对我来说,从这件事里学到的最大教训是,在这些系统中,有一些明明白白的界限是绝对不能跨越的,你要非常非常确定你在部署产品之前已经进行了测试。然后,有趣的一点是,有些人对此感到不安,而有些人则不然。我如何选择去满足哪个偏好?


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1