当前位置:首页|资讯|阿尔特曼|马斯克|扎克伯格|ChatGPT|人工智能

Lex Fridman、Sam Altman对话摘要,从高维度看 ChatGPT 是什么?

作者:BImpact发布时间:2023-04-19

原标题:Lex Fridman、Sam Altman对话摘要,从高维度看 ChatGPT 是什么?

编辑/宇婷

Lex Fridman(莱克斯·弗瑞德曼)是麻省理工学院的研究科学家、人工智能研究员,也是一位知名的播客主播。他曾在同名播客里,访谈过马斯克、扎克伯格等知名企业家。

最近,Lex与OpenAI CEO Sam Altman(山姆·阿尔特曼)进行了一次接近两个半小时的对话。

我真的觉得ChatGPT是让我们能够更深入地了解人类自己,反思我们自己的生存、智慧和推理过程。这一点Lex也提到。

以及我非常赞同Sam的价值观——我们会推出一些有很多缺陷的东西。我们希望在风险较低的时候犯错,同时每次迭代都能变得更好。‍‍‍

16、19、20的摘录,Sam的回答非常有艺术性。‍

我看了源码资本(ID:sourcecodecapital)的整理,我觉得其中有一些问题和观点的碰撞挺有意思的。摘录出来给我的读者们。

1、从高维度来说,GPT-4是一个人类在未来会回头翻看的AI系统。是一个非常早期的人工智能,它运行缓慢、有错误,很多事情做得不好。需要几十年的演变。

2、GPT的所有版本中的哪一个真正具有突破性?Sam会选择ChatGPT。关键的并不是底层模型,而是它的可用性,包括RLHF(Reinforcement Learning from Human Feedback)和与之交互的接口。RLHF解决的并非仅仅是对齐问题,它能帮助构建更好、更有用的系统,而这也是人们往往忽视的一点。实际上,这是一个我认为业外人士不太了解的问题。对齐和性能提升其实是相辅相成的,更好的对齐技术会带来更强大的模型,反之亦然。这种区分很模糊,我们所做的工作包括让GPT-4更加安全和对齐,看起来与其他研究和工程问题的解决非常相似。

3、RLHF是利用人类反馈来做调整的方法,最简单的版本就是展示两个输出,询问哪一个更好,哪一个人类读者更喜欢,然后用强化学习将其反馈到模型中。这个过程用相对较少的数据就能让模型变得更有用。所以rlhf让模型与人类期望的目标保持一致。对齐(alignment)的感觉。

4、它更容易让你得到你想要的。你第一次就能做对更多的事情。易用性很重要,即使基本功能以前就存在。

5、我们从许多不同的来源整合这些数据,付出了巨大的努力。包括很多开源信息数据库、通过合作关系获得的资料、还有互联网上的东西。‍‍

6、内容实在太多了,我们的任务不是去寻找更多,而是去筛选。‍‍

7、像任何新的科学分支,我们将发现一些不符合数据的新事物,并需要提出更好的解释。这是科学发现的持续过程。但是,就我们现在所知道的,甚至我们在GPT-4博客文章中所发布的,我认为我们都应该对目前能够预测到这种程度感到惊讶。

8、评估过程的开源,我认为那会非常有帮助。但是真正重要的是,我们投入了这么多的精力、金钱和时间来完成这个项目,从中得到的结果对人们有多大的价值?它能给人们带来多少快乐?它能否帮助人们创造一个更美好的世界、新的科学、新的产品、新的服务等等,这是最重要的。或者我们把它理解为一组特定的投入,能为人们提供多大的价值和效用。我认为我们对此有了更好的了解。我们是否了解模型为什么会做一件事而不做另一件事?并不是,至少不总是这样,但我会说我们正在逐步揭开更多的神秘面纱。

9、人类知识和人类智慧有区别吗?我觉得GPT-4也充满了智慧。从知识到智慧的飞跃是什么?关于我们如何训练这些模型的一个有趣之处是,我怀疑太多的处理能力被用于将模型作为数据库,而不是将模型作为推理引擎。这个系统真正令人惊叹的地方在于,它可以在某种程度上进行推理。从吸收人类知识的过程中,它产生了这种“推理”能力,无论我们如何讨论这个问题,在某种意义上,我认为这在现在将增加人类的智慧。而在另一些意义上,你可以用GPT-4做各种事情,然后说它似乎完全没有智慧。

10、作为一个工具,我们希望它能够帮助人们更好地完成他们的工作,提供有价值的信息和见解。虽然我们可能永远无法完全了解它的工作原理,但我们仍然能够不断改进和优化它,使其更加有用、智能和可靠。

11、它为我们提供了一个独特的机会,让我们能够更深入地了解人类知识、智慧和推理过程。(Lex)‍

12、有些看起来应该很明显且容易的事情,模型却很难处理,计算字符、计算单词之类的东西对于这些模型来说是很难做好的。因为模型的架构方式让它们不会很准确。

13、我们把它推向公众,因为我们认为让世界尽早获得这项技术,对塑造它的发展方式、帮助我们发现事物的好坏是非常重要的。每次我们推出一个新模型,外部世界的集体智慧和能力帮助我们发现我们无法想象的事物。这些事物包括模型可以做的伟大的事、新功能以及我们必须解决的真正弱点。因此,这种迭代的过程,发现事物的优点和缺点,快速改进它们,让人们有时间感受这项技术,与我们共同塑造并提供反馈,我们认为这非常重要。

14、我们做了一种权衡,也就是说,我们会推出一些有很多缺陷的东西。我们希望在风险较低的时候犯错,同时每次迭代都能变得更好。

15、随着时间的推移,给用户更多的个性化控制和粒度控制可能是解决方案。

16、对于规则制定,OpenAI必须参与其中。我认为让联合国之类的组织去做这件事然后我们接受他们的结果是行不通的。因为我们负责推出这个系统,如果出问题,我们必须修复并对结果负责。我们比其他人更了解即将到来的事物以及哪些事情更容易实现。所以我们必须积极参与。我们必须在某种程度上负责,但不能仅有我们的意见。

17、我认为人们主要想要的是一个符合他们世界观的模型。

18、我敢肯定它有各种各样的微妙影响,我可能不完全了解,但我没有察觉到很多。我们很高兴承认我们的错误,因为我们希望越来越好。我认为我们在倾听所有的批评意见方面做得相当好,深入思考,内化我们同意的观点;至于那些让人喘不过气的博眼球新闻,就尽量忽视它们。

19、我们在OpenAI擅长的一点是,赢得很多小胜利,并将它们相乘,这样每一个可能都是一个相当大的飞跃,但实际上是它们的乘法效应以及我们投入的细节和关注使我们取得这些大飞跃,然后从外面看起来就像我们可能只是做了一件事,从3到3.5再到4。但实际上是几百个复杂的事情。

20、我认为重要的是获得最佳性能。而且,我认为Open AI里有一件非常好的事情是,我们非常追求真理,只做任何能提供最佳性能的事情,不管它是否是最优雅的解决方案。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1