OpenAI首席技术官Mira Murati,对ChatGPT和DALL-E的快速增长做出不可磨灭的贡献,本次访谈中她点出了技术问题和产品演进方面的重要性。成长于阿尔巴尼亚的Mira,最初在特斯拉工作,最终加入OpenAI。作为通用人工智能(AGI)的支持者,她对AI的未来持乐观态度,但也清醒地认识到AI带来的现实风险。
DALL-E和特别是这个新版本[DALL-E 3,与ChatGPT集成,让用户创建提示]的最佳用例是什么?
米拉·穆拉蒂Mira Murati:我们刚刚推出了研究预览,因此我们尚未看到人们如何广泛使用它。最初,我们非常关注可能出现的问题。
但在“好”用例方面,我认为有创造性的用途。您可以做一些真正定制的东西——比如,孩子对青蛙很感兴趣,并且想实时制作一个关于它的故事,那么他们可以创作故事。因此有很多创造力和共同创造。我认为在工作场所,原型设计思想会更加容易。这加快了构建任何东西的早期迭代周期。
您有一些额外的产品新闻。您能向我们介绍一下这里最重要的亮点吗?
总的来说,这是我们过去两年一直在讨论的内容,即我们的目标是实现AGI(通用人工智能),我们希望以确保AGI对人类有益的方式实现这一目标,我们正在构建的东西最终是有益的。为了做到这一点,需要这些模型在文本、图像和语音以及不同的模态中具有对世界的稳定概念。
因此,我们正在将所有这些模态汇集在一起,放入ChatGPT。我们将DALL-E 3引入ChatGPT,我们预感这事非同小可,和它之间的互动或许很有趣。还有[另一种]模态是语音。现在我们可以实时与ChatGPT交流。
基本上,这一切的发展方向是,它使人们能够以非常自然的方式与技术进行交互。
人们对产品的兴趣不仅仅在于产品本身,还在于产品背后的人。您认为最具塑造性的经历是什么,这些经历塑造了您今天的样子?
肯定是在阿尔巴尼亚的成长时光。但同时,我一开始在航天领域工作,而我在特斯拉的时光肯定是一个非常具有塑造性的时刻——经历整个车辆设计和部署的经历。当然还有来到OpenAI。从我加入时只有40或50人的研究实验室,到现在我们是一个拥有数百万用户和大量技术人员的全面产品公司。OpenAI现在有大约500名员工。
您是如何遇到Sam的,以及您是如何首次加入OpenAI的?
那时在特斯拉从事AI应用工作,但我对通用智能更感兴趣,并不确定那时候是否能成功,但我知道即使我们只是很接近,沿途构建的东西仍是不可思议的,并且这肯定是人类技术中最重要的一组。为了成为其中一员,我毫不犹豫加入OpenAI,因为当时只有OpenAI和谷歌拥有的]DeepMind在进行这个项目。真正让我感同身受的是OpenAI的使命,为了构建一个造福人类的技术。在它还是非营利性组织时我毅然加入,而现实是由于昂贵的超级计算机,自那时以来我们不得不开始发展壮大。2019年,OpenAI转变为营利性公司,尽管仍由非营利性董事会管理。
那时,我记得与Greg [Brockman]、Ilya [Sutskever]、Wojciech [Zaremba],然后是Sam见面。现在证明,我们配合得不错。
回到当初你发布ChatGPT的时候。你有没有意识到它会这么大,会吸引这么多关注?
没有。我们想过它会声名鹊起,而且我们也做好了准备。后来正如你所见,所有准备在几个小时后就完全失去意义。我们不得不适应和改变我们的运作方式。但我认为这实际上是我们正在做的一切的关键,因为技术的进步速度是非常快的。
我们在ChatGPT上也不得不这样做。我们一直在内部使用它。而我们自己对它的印象并不是很深刻,因为我们已经在使用GPT-4了。所以我们并没有认为外界会有如此大的反应。
随着ChatGPT的发布,一场军备竞赛发生了。有Google,显然还有其他一堆竞争对手。这样做的不利之处是什么?
我认为不利之处在于在安全方面陷入底线竞赛。
这是一个很大的不利之处。
是的。我们每个人都必须承诺不这样做,并抵制压力。我认为OpenAI有正确的激励机制来做到这一点。但我同时认为竞争是好的,它可以推动进步,可以使人们更有可能得到他们喜爱的产品。但如果每个人主要是被这个动机驱使的,而忽视了风险和利害关系,那才是一个巨大的问题。
您是否确信随着这场竞争不断加剧——而您的投资者期望获得回报——这些激励可以承受所有这些压力?
我对我们的激励结构和我们在那方面的设计感到有信心。我们与合作伙伴一起,我们的结构非常一致。现在,我认为更难以确信的部分是,能够预测新兴能力并在一些部署风险之前采取行动。因为在一天结束时,您需要制度化和运营这些东西,它们不能仅仅是政策和想法。
您如何确保在每一次新的迭代中都在思考这个问题?当您考虑最坏情况的情景时,这些对话是什么样子的?
它始于内部团队,对吧?甚至在我们有原型之前,我们就在认真考虑我们正在使用的数据,并确保我们对其不同方面感到满意。这是一个非常迭代的循环,我们在其中学到了很多东西,并且我们在这个过程中进行了迭代。
一旦我们有了原型,我们做的第一件事是在内部进行测试,并在我们担心的特定领域中安排红队人员(专家,其职责是找出漏洞)。比如,如果我们发现模型在制作逼真面孔方面非常出色,那么我们将进行红队测试,看看这个模型可以做到多糟糕?滥用和有害的偏见是什么样的?基于这些发现,我们回去给出解决措施。但每次有干预时,我们都要审查输出的结果,因为要确保有某种平衡——没有使产品变得完全无用或非常打击人。这是一个困难的平衡,使其既有用又美妙,同时安全。
因此,现在对于DALL-E 3,如果提示中有关于制作我们定义的具有敏感特征的面孔的内容,那么模型将拒绝请求。但您也不希望拒绝用户实际上希望模型执行的一些不好的事情。所以这是我们需要处理的一种微妙性,但您需要从某个地方开始,而现在我们更保守和不那么宽容,因为技术是新的。然后随着我们更多地了解模型正在做什么并从红队人员那里得到更多的输入,我们可以使用这些数据使我们的策略或用例更加微妙,对技术所做的事情更加宽容。这是一个趋势。