当前位置:首页|资讯|ChatGPT

AI教父Hinton最新采访万字实录:ChatGPT和AI的过去现在与未来 |GGView

作者:GGV纪源资本发布时间:2023-06-21

原标题:AI教父Hinton最新采访万字实录:ChatGPT和AI的过去现在与未来 |GGView

GGV有话说:

杰弗里·辛顿(Geoffrey Hinton)被公认是人工智能的教父,数十年前他就支持和推动了机器学习,随着像ChatGPT这样的聊天机器人引起广泛关注,CBS的主持人于2023年3月初在多伦多的Vector研究所采访了Hinton。

全长40分钟的采访视频最近放了出来,整个采访干货满满,非常精彩。

今天的GGView对采访内容进行了翻译整理,和大家分享。

来源:Web3天空之城(ID: Web3SkyCity)

问:您如何描述当前AI机器学习领域的时刻?

答:我认为这是一个关键时刻。ChatGPT表明,这些大型语言模型可以做一些令人惊奇的事情。普通公众突然开始关注这个领域,因为微软发布了一些产品,他们突然意识到了大公司在过去五年里所知道的东西。

问:你第一次使用ChatGPT时的想法是什么?

答:在ChatGPT前,我已经使用了许多类似的东西,所以ChatGPT并没有让我感到惊讶。GPT-2(这是早期的一种语言模型)让我惊讶,谷歌的一个模型也让我惊讶,它实际上可以解释为什么一个笑话很好笑。它用自然语言告诉你为什么一个笑话很好笑。当然,并非所有笑话都可以,但对于很多笑话,它都可以告诉你为什么它们好笑。

问:如果ChatGPT并不那么令人惊讶或令人印象深刻,那么您对公众对它的反应感到惊讶吗?因为反应很大。

答:是的,我认为每个人都有点惊讶于反应如此之大。这是最快增长的应用程序。也许我们不应该感到惊讶,但研究人员已经习惯于这些东西实际上是有效的。

问:你在AI领域一直处于领先地位,半个世纪都领先于其他人,对吗?

答:其实不然。在AI领域,有两种思路。一种是主流AI,另一种是关于神经网络的。主流AI认为,AI是关于推理和逻辑的,而神经网络则认为,我们最好研究生物学,因为那些才是真正有效的东西。所以,主流AI基于推理和逻辑制定理论,而我们基于神经元之间的连接变化来学习制定理论。从长远来看,我们取得了成功,但短期内看起来有点无望。

问:回顾过去,了解你现在所知道的,你认为当时你是否可以说服人们?

答:我当时可以说,但那并不能说服人们。我可以说,神经网络在20世纪80年代没有真正奏效的唯一原因是计算机运行速度不够快,数据集不够大。然而,在80年代,一个重要的问题是,一个拥有大量神经元的大型神经网络,计算节点和它们之间的连接,仅通过改变连接的强度,从数据中学习,而没有先验知识,这是否可行?主流AI的人认为这完全荒谬。尽管这听起来有点荒谬,但它确实有效。

问:您是如何知道或为什么相信这种方法会奏效的?

答:因为大脑就是这样。你必须解释我们是如何做到这些事情的,以及我们是如何做到那些我们没有进化出来的事情的,比如阅读。阅读对我们来说是非常新近的,我们没有足够的进化时间来适应它。但我们可以学会阅读,我们可以学会数学。所以一定有一种在这些神经网络中学习的方法。

问:昨天,曾与您共事的Nick告诉我们,您并不是真正对创建AI感兴趣,您的核心兴趣是理解大脑是如何工作的。

答:是的,我真的想了解大脑是如何工作的。显然,如果你关于大脑工作原理的错误理论带来了好的技术,你可以利用这一点来获得资助。但我真的想知道大脑是如何工作的。我认为目前人工神经网络与大脑实际工作原理之间存在一定的分歧。我认为它们现在走的是不同的道路。

问:那么我们现在还没有采取正确的方法?

答:这是我的个人观点。

问:但所有大型模型现在都使用一种叫做反向传播的技术,而这种技术是您帮助推广的。

答:我认为大脑并不是在做这个。有两条通往智能的不同道路。一条是生物学途径,另一条是我们所拥有的模拟硬件途径。我们必须用自然语言进行沟通,还要向人们展示如何做事情,模仿等。但我们在交流方面做得很糟糕,与现在运行在数字计算机上的计算机模型相比,我们的交流能力差得多。计算机模型之间的沟通带宽非常大,因为它们是相同模型的克隆,运行在不同的计算机上。正因为如此,它们可以查看大量的数据,因为不同的计算机可以查看不同的数据,然后它们结合了它们所学到的东西,远远超出了任何人能够理解的范围。尽管如此,我们仍然比它们聪明。

问:所以它们就像是天才白痴吗?

答:对,ChatGPT知道的比任何一个人都多。如果有一个关于知识量的比赛,它会轻松击败任何一个人。它在智力竞赛中表现出色,可以写诗,但在推理方面并不擅长。我们在推理方面做得更好。我们必须从更少的数据中提取我们的知识。我们有100万亿个连接,其中大部分是通过学习得到的,但我们只活了十亿秒,这并不算很长的时间。像ChatGPT这样的东西,它们在许多不同的计算机上运行了比我们更长的时间,吸收了所有这些数据。

问:1986年,您在《自然》杂志上发表了一篇文章,提出了一个想法:我们将拥有一个由单词组成的句子,并预测最后一个单词。

答:是的,那是第一个语言模型,基本上就是我们现在在做的事情。1986年是很久以前的事情了。

问:为什么那时候人们还没有说“哦,好吧,我认为他找到了方法”?

答:因为那时候,如果你问我用多少数据训练了那个模型,我有一个简单的家庭关系模型,有112个可能的句子,我用其中的104个进行了训练,然后检查它是否正确预测了最后8个。它在预测最后8个方面表现得相当好,比符号AI更好。问题是那时候的计算机还不够强大。现在的计算机速度快了数百万倍,可以进行数百万倍的计算。我做了一个小计算,如果我拿1986年的计算机去学习一些东西,它现在仍在运行,但还没有完成。现在,学习这些东西只需要几秒钟。

问:你知道这是你的制约因素吗?

答:我并不知道,但我相信那可能是我们的制约因素。但人们对这样的说法嗤之以鼻,好像这是一个借口:“如果我有更大的计算机和更多的数据,一切都会好起来。现在它不起作用是因为我们没有足够的数据和计算能力。”这种观点被当作对事物无法正常运作的一种狡辩。

问:在90年代从事这项工作很困难吗?

答:在90年代,计算机在不断发展,但是那时确实有其他学习技术,在小型数据集上表现得和神经网络一样好,而且更容易解释,背后有更为复杂的数学理论。所以,在计算机科学领域,人们对神经网络失去了兴趣。但在心理学领域,他们仍然对神经网络感兴趣,因为心理学家对人类可能如何学习感兴趣,这些其他技术甚至比反向传播还不合理。

问:这是您背景的一个有趣部分,您之所以投身于这个领域,并非因为对计算机感兴趣,而是因为对大脑感兴趣。

答:是的,我原本对心理学感兴趣,后来我决定,如果不了解大脑,我们永远无法理解人类。在70年代,有一种时髦的观点认为,你可以在不关心大脑的情况下做到这一点,但我觉得那是不可能的。你必须了解大脑是如何运作的。

问:现在我们快进到2000年代,您回顾过去,是否认为有一个关键时刻,当时您觉得我们这一方将在这场争论中获胜?

问:那么2012年发生了什么大事呢?

这个系统是怎么工作的呢?有一个人叫李飞飞,和她的合作者创建了一个大型图像数据库,包含了1000个不同类别的100万张图像。你需要查看一张图像,并对图像中的主要物体进行最好的猜测。所以,这些图像通常会在中间有一个物体,比如子弹头火车或者哈士奇之类的东西。其他系统的错误率是25%,而我们的错误率是15%。几年之后,15%的错误率降到了3%,这已经接近人类水平了。

你可以这样做:首先,你可以制作特征检测器,检测像素的小组合。然后在下一级别,你可能会说,假设我有22个边缘检测器,它们以一个细角相连,那可能就是一只喙。然后在更高的层次上,我们可能有一个探测器,它会说,嘿,我找到了这个类似喙的东西,还找到了一个圆形的东西,它们在空间关系上大致是一只鸟的眼睛和喙。所以下一个级别,你会有一个鸟类探测器,它会说,如果我看到这两个特征,我认为这可能是一只鸟。你可以想象通过手动连接这些特征检测器。而反向传播的思想就是在一开始随机设置连接权重,然后根据预测结果调整权重。如果预测出现错误,那么你就通过网络反向计算,并提出以下问题:我应该如何改变这个连接强度,使其更不容易说出错误答案,更容易说出正确答案?这称为误差或差异。然后,你要计算每个连接强度如何进行微调,使其更容易得出正确答案,更不容易得出错误答案。

一个人会判断这是一只鸟,然后将标签提供给算法。但是反向传播算法只是一种计算方法,用于确定如何改变每个连接强度,使其更容易说鸟,更不容易说猫。算法会不断尝试调整权重。现在,如果你展示足够多的鸟和猫,当你展示一只鸟时,它会说鸟;当你展示一只猫时,它会说猫。事实证明,这种方法比手动连接特征检测器要有效得多。

这就是我的学生在图像数据库上所做的事情。他们让这个系统工作得非常好。这些学生非常聪明,事实上,其中一名学生,他是ChatGPT背后的主要人物之一。那是人工智能的一个巨大时刻,他实际上参与了这两个项目。

值得称道的是,那些曾经坚定反对神经网络的人,当看到这种方法成功时,他们做了科学家通常不会做的事情,也就是说:“哦,它有效,我们会采用这个方法。”人们认为这是一个巨大的转变。因为他们看到这种方法比他们正在使用的方法更有效,所以他们很快就改变了立场。

当人们既在思考机器,也在思考我们自己的思维方式时,我们常常认为,输入是语言,输出是语言,那么中间一定也是语言。这是一个重要的误解。实际上,这种观点并不正确。如果这是真的,那么被称为符号人工智能的方法应该非常擅长进行机器翻译,比如把英语转换成法语。你会认为操作符号是实现这一目标的正确方法。但实际上,神经网络的效果更好。当谷歌翻译从使用符号方法转向神经网络时,效果大大提高了。我认为,在中间的部分,你会发现有数百万个神经元,它们中的一些是活跃的,一些则不是。符号只能在输入和输出处找到,而不是在整个过程中。

因此,我认为有一段时间,我们仍然需要编码人员。我不知道这段时间会有多长,但我们需要的编码人员会减少。或者,我们可能需要相同数量的编码人员,但他们将能够实现更多的成果。

问:我们在这里谈论的是一家初创公司,昨天我们拜访了他们。你是他们的投资者,那么,什么是说服你的投资理由呢?

答:首先,他们是好人,我曾与其中的几位合作过。其次,他们是第一批意识到需要将Google、OpenAI等开发的大型语言模型带给企业的公司。这对公司来说将非常有价值,因此,他们一直在努力实现这一目标,而且在这方面取得了领先地位。所以,我认为他们会成功的。

问:你曾经提到过一个我觉得非常有趣的观点,那就是未来可能会有一种新型计算机,专门解决这个问题。这个观点是什么?

答:我们有两种途径来理解智能:一种是生物途径,其中每个大脑都是不同的,我们需要通过语言来在不同的大脑之间传递知识;另一种是目前的AI神经网络版本,你可以在不同的计算机上运行相同的模型,实际上它们可以共享连接权重,因此它们可以共享数十亿个数字。

问:为什么我们不坚持使用数字计算机呢?

答:因为电力消耗。你需要很多电力。虽然随着芯片的改进,电力需求在减少,但运行数字计算机仍然需要大量的电力。你必须让计算机以高电力运行,以便它能够精确地以正确的方式工作。然而,如果你愿意让计算机以较低的电力运行,比如大脑所做的那样,你会允许一些噪声等,但特定系统会适应该特定系统中的噪声,整个系统将正常工作,尽管你没有以如此高的电力运行它以便它能精确地按照你的意图进行工作。大脑的运行功率是30瓦,而大型AI系统需要像兆瓦这样的功率。所以我们在30瓦上进行训练,而大型系统则使用兆瓦,它们有很多相同的东西。所以你知道,我们在谈论功率需求方面的1000倍差距。因此,我认为会有一个阶段,我们会在数字计算机上进行训练,但一旦某个AI系统训练完毕,我们会将其运行在非常低功耗的系统上。所以,如果你想让你的烤面包机能和你对话,你需要一个只花费几美元的芯片,而且它能运行像ChatGPT这样的程序,那么最好是一个低功耗和低芯片。

问:你认为接下来这项技术将做些什么,以影响人们的生活?

答:很难选一个。我认为这将无处不在。它已经开始无处不在了,ChatGPT只是让很多人意识到了这一点。它将无处不在。但实际上,当谷歌进行搜索时,它会使用大型神经网络来帮助决定向你展示什么最佳结果。我们现在正处于一个过渡点,其中ChatGPT像一个“白痴天才”,它也并不真正了解事实真相。它接受了大量不一致的数据训练,试图预测下一个网络用户会说什么。人们对很多事情有不同的观点,而它必须有一种混合所有这些观点的方式,以便可以模拟任何人可能说的话。这与一个试图拥有一致世界观的人非常不同,特别是如果你想在世界上采取行动,拥有一致的世界观是非常有益的。

我认为接下来会发生的一件事是,我们将朝着能够理解不同世界观的系统发展,并且能够理解,好吧,如果你有这个世界观,那么这就是答案。而如果你有另一个世界观,那么答案就是另一个。我们得到我们自己的真相。

问:那么这个问题是不是因为,你和我可能都相信(除非你是一个极端的相对主义者),实际上在很多话题上,甚至在大多数话题上,确实存在一个事实真相,比如地球实际上并不是平的,只是看起来平而已,对吧?

答:是的,所以我们真的想要一个模型说,好吧,对某些人来说,我们不知道吗?这将是一个巨大的问题,我们目前还不知道如何处理。目前我并不认为微软知道如何处理这个问题。他们也不知道。这似乎是一个巨大的治理挑战。谁来做这些决策?这是非常棘手的事情。你可不希望某个大型盈利公司来决定什么是真实的。但他们正在控制我们如何使用这些东西。谷歌目前非常小心,不要那样做。谷歌会做的是将你引向相关文件,这些文件中会有各种各样的观点。

问:那么他们还没有发布他们的聊天产品,至少在我们谈话的时候还没有,对吧?

答:是的,但我们已经看到,至少那些已经发布聊天产品的人觉得有些事情他们不希望用他们的声音说出来,所以他们会去干预它,以免说出冒犯人的话。是的,但这种方式你能做的事情是有限的。总会有你想不到的事情,对吧?是的。所以我认为谷歌在发布聊天机器人时会比微软更谨慎,并且它可能会附带很多警告,这只是一个聊天机器人,不要一定相信它所说的。在标签上小心,或者在干预方式上小心,以免做出糟糕的事情。所有这些方面都要小心。在如何将其作为产品呈现以及如何进行训练方面要小心。是的。并努力防止它说出不好的东西。但是,谁来决定什么是坏事呢?有些坏事是相当明显的,但是很多最重要的事情并不是那么明显。所以,目前这是一个很大的悬而未决的问题。我认为微软发布ChatGPT是非常勇敢的。

问:你是否认为这是一个更大的社会问题,我们需要监管或大规模公共辩论来处理这些问题?

答:当涉及到真相问题时,我的意思是,你是否希望政府来决定什么是真实的?这是个大问题,对吧?你也不希望政府来做这件事。我相信你已经对这个问题进行了深入的思考很长时间,我们如何在你只是将它发送到世界和我们找到策展它的方法之间找到平衡?像我说的,我不知道答案,而且我不相信有人真的知道如何处理这些问题。我们必须学会如何快速处理这些问题,因为这是一个当前的大问题。但是,关于如何完成这件事,我不知道,但我怀疑,作为第一步,至少这些大型语言模型必须了解到,存在不同的观点,以及它所作出的补充是相对于一个观点的。

问:有些人担心,这可能会很快蔓延开来,我们可能无法为此做好准备。这让你担忧吗?

答:确实有点。直到不久前,我认为在我们拥有通用人工智能之前还需要20到50年的时间。而现在我认为可能是20年或更短时间。有些人认为可能只有5年,那是荒谬的。但现在我不会完全排除这种可能性,而几年前,我会说绝不会发生这种情况。

问:有人说AI可能对人类构成巨大危险,因为我们不知道一个比我们聪明得多的系统会做什么。你是否也有这种担忧?

答:我确实有点担忧。显然,我们需要做的是使这种技术与人类互补,让它帮助人们。我认为这里的主要问题之一是我们所拥有的政治体系。即使说美国、加拿大和一群国家表示,好的,我们将建立这些防护栏,那么你如何保证呢?特别是对于像自主致命武器这样的事物,我们希望有类似日内瓦公约的东西,像化学武器一样。人们认为这些武器是如此恶心,以至于他们不再使用它们,除非有充分理由。但我认为,基本上他们不再使用这些武器。人们希望为自主致命武器达成类似的协议,但我认为他们不太可能达成这样的协议。

问:这是这个问题最尖锐的版本,你可以笑它,也可以不回答,但是你认为AI消灭人类的几率是多少?我们能否对此给出一个数字?

答:这个几率介于0%和100%之间。我认为这并非不可能。就我所说,如果我们明智的话,我们会努力发展它,以免发生这种情况。但是,令我担忧的是政治局势。确保每个人都明智行事是一个巨大的政治挑战。这似乎是一个巨大的经济挑战,因为你可能会有很多个体追求正确的道路,然而,公司的利润动机可能不会像为他们工作的个体那样谨慎。也许吧,我只真正了解谷歌,这是我唯一的工作公司。他们一直是最谨慎的公司之一。他们对AI非常谨慎,因为他们有一个提供你想要的答案的出色搜索引擎. 他们不想损害它。而微软则不太关心这个问题。如果搜索消失了,微软可能都不会注意到。当没有人追赶他们的时候,谷歌采取缓慢的策略是容易的。谷歌一直处于领先地位。Transformers是在谷歌发明的,大型语言模型的早期版本也是在谷歌。

问:是的,他们抓住了这个机会。

答:他们更加保守,我认为这是正确的。但现在他们感受到了压力。所以他们正在开发一个名为“Bart”的系统,他们将发布该系统。他们正在对它进行大量的测试,但我认为他们会比微软更谨慎。

问:有人说这些大型模型只是自动补全,这种说法对吗?

答:从某种程度上来说,这些模型确实是自动补全。我们知道这些大型语言模型只是预测下一个词。这并不简单,但确实如此。它们只是预测下一个词,所以它们只是自动补全。但是,问问自己一个问题:要准确预测下一个词,你需要了解到目前为止所说的内容。基本上,你必须理解已经说过的话来预测下一个词。所以你也是自动补全,只不过与它们一样。你可以预测下一个词,虽然可能不如ChatGPT那么准确,但为了做到这一点,你必须理解句子。

让我举一个关于翻译的例子。这是一个非常具有说服力的例子。假设我要把这句话翻译成法语:“奖杯太大了,它放不进行李箱。”当我说这句话时,你会认为“它”指的是奖杯。在法语中,奖杯有特定的性别,所以你知道该用什么代词。但如果我说:“奖杯放不进行李箱,因为它太小了。”现在你认为“它”指的是行李箱,对吧?在法语中,行李箱的性别也不同。所以为了把这句话翻译成法语,你必须知道,当它放不进去是因为太大时,是奖杯太大;而当它放不进去是因为太小时,是行李箱太小。这意味着你必须了解空间关系和容纳等概念。

为了进行机器翻译或预测那个代词,你必须理解所说的内容。仅仅把它当作一串单词是不够的。

问:你在这个领域的工作经历比任何人都长,你描述进展就像是“我们有了这个想法,尝试了一下,然后它奏效了。”所以我们有了几十年的反向传播,我们有了Transformer这个想法,但还有数百种其他想法还没有尝试。

答:是的,我认为即使我们没有新的想法,只是让计算机运行得更快、获取更多数据,这些东西也会变得更好。我们已经看到,随着ChatGPT规模的扩大,使其更优秀的并不是全新的想法,而是更多的连接和更多的训练数据。但除此之外,还会有像变换器这样的新想法,它们将使其运作得更好。

问:我们离让计算机自己想出改进自己的方法还有多远?

答:呃,我们可能很接近了。然后它可能会变得非常快。这是一个问题,对吧?我们必须认真思考如何控制这一点。

问:是的,我们能做到吗?

答:我们不知道,我们还没有到那个地步,但我们可以尝试。

问:好吧,这似乎有点令人担忧。作为这个行业的教父,你是否对你带来的这些成果感到担忧?

答:有一点。另一方面,我认为不论发生什么,这几乎都是不可避免的。换句话说,一个人停止研究不会阻止这种情况的发生。如果我的影响只是让它提前一个月发生,那么这就是一个人所能做的极限了。有这个想法,我可能说错了,那就是短跑道和长起飞。

问:也许我们需要时间准备,或者也许如果它发生得很快,那么人们会在问题上感到紧迫,而不是像现在这样慢慢发展。你对此有什么看法?

答:我认为有时间准备是好的。所以我认为,现在就担心这些问题是非常合理的,尽管在接下来的一两年内不会发生。人们应该思考这些问题。

问:我们还没有谈到工作岗位的替代,这是我的疏忽,对不起。这个技术是否会不断吞噬工作,一个接一个?

答:我认为它将使工作不同,人们将从事更有创造性的工作,而较少从事例行工作。

问:那么如果它可以评价诗歌和制作电影,还有什么工作算什么有创造性的工作?

答:如果你回顾历史,看看自动取款机,这些现金机出现时,人们说这是银行柜员的终结。但实际上,它并没有终结银行柜员的职位。现在银行柜员处理更复杂的事情,并且需要编码人员。所以人们说,这些工具可以进行简单的编码,并且通常能够正确地执行,你只需要让它编写程序,然后检查它,这样你就能够快速工作10倍。你可以只用10%的程序员,或者你可以使用相同数量的程序员,生产10倍的东西。

我认为会有很多这样的例子,一旦这些工具开始有创造性,就会创造出更多的东西。这是自工业革命以来最大的技术进步。

问:这是另一次工业革命吗?这是什么?人们应该如何看待它?

答:我认为它在规模上与工业革命、电力、甚至是轮子的发明相当。我在人工智能方面取得了领先地位有一个原因,那是因为加拿大授予机构的政策。这些机构没有很多钱,但他们利用其中的一些资金来支持出于好奇心的基础研究。在美国,资金是必须声明你将会生产什么产品的。在这里,一些政府资金——相当多的资金,是给教授的,让他们雇用研究生和其他研究人员探索他们感兴趣的事物。如果他们在这方面表现出色,那么三年后他们会获得更多的资金。这就是支持我的资金,是基于出于好奇心的基础研究的资金。我们之前也看到过这种情况,即使几十年来没有能够展示出太多的成果。

另一个发生的事情是,有一个叫做“加拿大高等研究所”的组织,为加拿大擅长的领域的教授提供额外的资金,并为分布在不同地方的教授提供相互交流的资金,例如温哥华和多伦多,也与美国、英国和以色列等其他地区的研究人员互动。CFR在人工智能领域设立了一个项目,最初是在20世纪80年代建立的,这是将我带到加拿大的项目,那时是基于符号的人工智能。

问:哦,我知道了,你是怎么来的?

答:我很奇怪,有点不寻常,因为我做了一些大家都认为是无意义的东西,但他们认识到我擅长这种“无意义”的东西,所以如果有人要做这种东西,那一定是我。我的一封推荐信写道:“你知道我不相信这些东西,但如果你想找一个人来做这个,就找Geoffrey吧。”在那个项目结束后,我回到英国待了几年,然后回到加拿大,他们决定资助一个基于深度学习的项目。

问:我认为你对“感知”的定义也有一些不满意,对吗?

答:是的,当涉及到“感知”的时候,我很惊讶人们会自信地宣称这些东西是没有感知的。当你问他们“感知”的意思是什么时,他们会说他们不太清楚。那么如果你不知道“感知”的意思,你怎么能自信地说它们没有感知呢?所以也许它们已经有感知了,谁知道呢。我认为它们是否有感知取决于你对“感知”的定义,所以你最好在回答这个问题之前先定义一下你对“感知”的理解。我们认为它是否有感知重要吗,还是只关注它是否能有效地表现出有感知的状态?

问:这是一个非常好的问题,很重要。那你的答案是什么?

答:我没有答案。好吧,因为如果它没有感知,但出于某种原因它认为它有感知,并且它需要实现与我们利益相悖的目标,但它相信它符合自己的利益,那么这真的很重要吗?我认为一个很好的例子可以想到的是一种自主的致命武器。说它没有感觉这也对,但是当它在追逐你并射击你时,你会开始认为它有感觉。我们并不真的关心,这不再是一个重要的标准了。我们正在开发的这种智能与我们的智能非常不同,它是某种伺候无知者的工具,它和我们不一样。

问:但是你的目标是让它更像我们,你认为我们会实现这个目标吗?

答:不是,我的目标是理解我们。我认为理解我们的方式是通过构建像我们一样的东西。我说过的那位物理学家理查德·费曼曾经说过,你不能理解一件事情,除非你能够构建它。

问:所以你一直在构建。

答:所以我一直在构建。

温馨提示:虽然我们每天都有推送,但最近有读者表示因平台推送规则调整,有时候看不到我们的文章~

欢迎大家进入公众号页面,右上角点击“设为星标”点亮⭐️,收藏我们的公众号,新鲜内容第一时间奉上!

*文章观点仅供参考,不代表本机构立场。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1