神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。
编者按:这篇文章有一个一致的主题:信念。什么信念?相信通用人工智能(AGI)是有可能的,而且很快就会到来!OpenAI 在招人的时候刻意选择了持有这种信念的人。OpenAI刚创立的时候,相信AGI可以实现并不是研究人员的主流,而且 OpenAI 对于如何实现这一目标也没有具体的想法。对结果充满信心是应付过程中充满失望的好办法,这对于硬科技公司来说尤其重要,因为要想看到能行得通的迹象往往需要等待很长的时间。所以OpenAI的初心是否已经变了这个问题我们也还需要时间。文章来自编译。
OpenAI的关键人物,左起:Ilya Sutskever,山姆·阿尔特曼,Mira Murati,Greg Brockman
当这位明星和他的随行人员匆忙挤进一辆在等候中的梅赛德斯面包车时,空气中充满了披头士狂热粉丝的能量。他们刚刚赶场了一场活动,正在赶往另一场,然后还有下一场,那里有一群狂热的群众在等着他们。当他们穿过伦敦的街道时,尽管只是从霍尔本到布卢姆斯伯里的短暂一段路,却感觉他们仿佛在文明交替之际弄潮。这辆车里面所体现出来的创造历史的力量吸引了全世界的目光。从排队等候的学生到总理,人人都想分一杯羹。
在豪华面包车内,38 岁的企业家、OpenAI 的联合创始人、发型打理得整整齐齐的山姆·阿尔特曼 (Sam Altman) 正在狼吞虎咽。里面还有他们的公关;安全专家;还有我。阿尔特曼很不情愿地穿着一套蓝色西装,里面是一件无领带的粉色正装衬衫,他对伦敦进行的这次旋风之旅,是为期一个月的一场全球短途旅行的一部分,总共要途经六大洲 25 个城市。当他忙不迭地啃着沙拉时(他今天没有时间坐下来吃午饭),他回想起前一天晚上与法国总统埃马纽埃尔·马克龙见面地情形。一个相当不错地家伙!而且对人工智能非常感兴趣。
波兰总理也是这样。还有西班牙首相。
跟阿尔特曼一起同行,我脑子里仿佛响起了《一夜狂欢》(A Hard Day’s Night)开头那响亮、暧昧的和弦——介绍未来。去年 11 月,当 OpenAI 发布了了后来大热的 ChatGPT 时,它引发的一场技术爆炸是自互联网闯入我们生活以来从未见过的。突然之间,图灵测试成为历史,搜索引擎变成濒临灭绝的物种,任何大学论文都不再可信。没有一门职业可确保安全了。没有一个科学问题是不可改变的了。
搞研究、训练神经网络,或者对 ChatGPT 及其更早熟的同胞 GPT-4 的界面进行编码的并不是阿尔特曼。但作为首席执行官,他是梦想家兼实干家,就像公司联合创始人埃隆·马斯克的年轻版,没有包袱,一篇又一篇的新闻文章都用他的照片作为人类新挑战的视觉符号。至少那些还没有用 OpenAI 的图像人工智能产品 Dall-E 生成的,令人瞠目结舌的图像当封面的文章是这样。他是当下的先知(oracle),只要想知道人工智能将如何迎来黄金时代,或者会如何让人类变得无关紧要甚至更糟,大家第一个想到要咨询的人就是他。
今年五月,一个阳光明媚的日子,阿尔特曼的面包车载着他开始第四次见面会。第一次是与Round Table(由政府、学术界和行业人士组成的团体)举行的,秘密的非正式会议。这场会议是直到了最后一刻才组织起来的,地点是在一家叫做 Somers Town Coffee House 的酒吧二楼。在酿酒大师查尔斯·威尔斯(Charles Wells,1842-1914 年)肖像怒目的注视下,阿尔特曼回答了几乎所有观众都会提到的问题。人工智能会杀死我们吗?人工智能能监管吗?中国的情况呢?他详细地回答了每个问题,时不时会偷瞄一眼自己手机。之后,他在豪华的伦敦人酒店(Londoner Hotel)与 600 名牛津协会(Oxford Guild)成员进行面对面的炉边聊天。接着又从那里出发去到一个地下会议室,现场回答了约 100 名企业家和工程师提出的更多技术问题。现在下午这场到伦敦大学学院进行的演讲快要迟到了。他和他的团队在一个临时停车点下车,然后被人领着穿过七拐八拐的一个个廊道,就像《好家伙》里面那个长镜头一样。我们一边走着,主持人一边急匆匆地告诉阿尔特曼他要问什么。当阿尔特曼在舞台上出现时,礼堂里早已挤满的一群兴高采烈的学者、极客和记者一下子爆发了。
阿尔特曼不是一个天生喜欢出名的人。有一次,在《纽约客》给他写了一篇长篇专栏之后,我曾经他聊过。 他说:“写我的文章太多了”。但在伦敦大学学院这里,在正式的程序走完之后,他主动走进了涌上讲台的人群之中。他的助手们试图将阿尔特曼与人群隔开,但他对助手们不予理会。他一个接一个地回答着问题,每次都专注地盯着对话者的脸,就好像他是第一次听到这个问题一样。人人都想跟他拍张自拍照。 20分钟后,他终于让团队把他捞出来了。之后他将去会见英国首相里希·苏纳克。
也许有朝一日,当机器人书写我们的历史时,他们会把阿尔特曼的这场全球巡回之旅看作是这一年的里程碑——就是在这一年,突然之间,每个人都开始对技术奇点形成自己的认知和理解了。又或者,也许不管是谁书写这一刻的历史,都会将其视为一个时代的开启,在这个时代里,一位安静又引人注目的首席执行官,用打破范式的技术,试图将一种非常奇特的世界观,从旧金山教会区一栋没有标记的4层楼总部,注入到全球的意识流之中。
OpenAI的关键人物
对于阿尔特曼和他的公司来说,ChatGPT 和 GPT-4 只是一块垫脚石,其最终目标是实现一项既简单又影响深远的使命,一项这些技术人员可能已经往自己身上打上烙印的使命。这项使命就是开发出通用人工智能(迄今为止,这个概念更多的是基于科幻小说而不是科学)并确保人类安全。 OpenAI 的人在狂热地追逐这一目标。 (尽管如此,就像茶水间里面的很多对话所证实那样,使命的“开发通用人工智能”部分似乎比“确保安全”更能引起研究人员的狂热兴奋。)这些人属于对随意使用“超级智能”这个词不会遮遮掩掩的那种人。他们认为人工智能的发展轨迹将超越生物所能达到的最高水平。该公司的财务文件甚至规定了当人工智能消灭我们整个经济体系时的一种退出应急措施。
把 OpenAI 说成是邪教是不公平的,但当我问到该公司的几位高层,如果他们招进来的人不相信 AGI 真能实现,并且这将标志着人类史上最伟大的时刻之一的话,这些人还能不能舒服地坐在那里工作——大多数高管都认为不行。他们想知道,不是信徒为什么还想在这里工作?他们的假设是,这些员工——现在大概是 500 人,尽管从你阅读本文开始可能已经增加了——自己已经做出只能接受忠实信徒进来的选择。至少,正如阿尔特曼所说那样,一旦你被录用,你似乎不可避免地就会被这个魔咒所吸引。
与此同时,OpenAI 已经不再是以前那家公司了。它一开始是一家纯粹的非营利性研究机构,但现如今,从技术上来说,其大多数员工都为一家盈利实体工作,据报道,这个实体的估值已近 300 亿美元。 阿尔特曼和他的团队现在面临着在每一个产品周期进行革命的压力,因为这样才能满足投资者的商业需求,并在激烈的竞争环境中保持领先地位。同时还要始终坚守着一种准救世主般的使命,也就是抬高人类而不是消灭人类。
这种压力可能会让人衰弱,全世界无情的关注就更不用说了。披头士乐队掀起了文化变革的巨大浪潮,但他们的革命就只能持续那么久:在弹奏起那令人难忘的和弦六年之后,他们连乐队都组不成了。 OpenAI 所引发的漩涡几乎肯定会更大。但 OpenAI 的领导者发誓他们会坚持到底。他们说,他们想做的就是凿出足够智能、足够安全的计算机来终结历史,将人类推进到一个富裕到难以想象的时代。
山姆·阿尔特曼成长于 1980 年代末、 1990 年代初,是一个迷恋科幻小说和《星球大战》的书呆子。早期科幻作家建造的世界往往会让人类与超级智能人工智能系统一起共处或相互竞争。计算机能力与能够跟人类相当甚至超越后者的想法让阿尔特曼兴奋不已,他从手指还几乎没法覆盖所有键盘起就一直在编码。他 8 岁那年,父母给他买了一台 Macintosh LC II。一天晚上,当他玩计算机玩到很晚的时候,脑海里突然闪现出一个想法:“这台计算机会学会思考的,总有一天会的。” 2003 年,当他以本科生身份来到斯坦福大学时,他希望能帮助实现这一目标,然后学习了人工智能课程。但“它根本行不通,”他后来说。那时候这个领域仍深陷在所谓的“人工智能寒冬”的创新低谷之中。 后来,阿尔特曼辍学进入到创业界;他的公司Loopt是后来成为全球最知名孵化器的 Y Combinator 第一批孵化的企业之一。
2014年2月,YC 创始人保罗·格雷厄姆(Paul Graham)选择了当时年仅28岁的阿尔特曼接替他的位置。格雷厄姆在声明中写道:“阿尔特曼是我认识的人当中最聪明的人之一,他比我认识的任何人,也包括我自己,都更了解初创公司。”但阿尔特曼认为 YC 不仅仅是公司的发射台。 在接任这个位置后不久他告诉我:“我们关心的不是初创公司,而是创新,因为我们相信只有这样才能为每个人创造美好未来。”在阿尔特曼看来,从所有这些独角兽身上获利的目的不是为了让合伙人赚到钱,而是为物种级的变革提供资金。他成立了一个研究部门,希望资助雄心勃勃的项目来解决全球最大的问题。但在他看来,人工智能是统治一切的创新领域:一种解决人类问题可以做到比人类本身更好的超级智能。
幸运的是,阿尔特曼在人工智能冬去春来之际就开始了他的新工作。借助深度学习与神经网络,计算机现在已经可以执行惊人的壮举,比方说标记照片、翻译文本以及优化复杂的广告网络。这些进步第一次让他相信,通用人工智能其实不是高不可攀的。但是,如果这个东西最终落入大公司之手的前景让他担忧。他认为,这些公司把太多的注意力放在自己的产品上面了,所以没法尽快抓住开发AGI的机会。如果这些公司真的创造出通用人工智能的话,他们可能会在缺乏必要的预防措施的情况下鲁莽地向全世界释放这个东西出来。
当时,阿尔特曼一直在考虑要不要竞选加州州长。但他意识到自己完全有能力做一些更大的事情——领导一家将改变人类自身的公司。 2021 年的时候他曾告诉我:“开发AGI 这件事情只能一次过。而且能够胜任经营OpenAI这份工作的人没有太多。我很幸运,我的人生有过一系列的经历,让我为此做好了积极准备。”
阿尔特曼开始跟有可能助他一臂之力的人去聊。他要做的事情是创办一家新型的人工智能公司,这将是一家非营利组织,目标是引领这个领域实现负责任的通用人工智能。特斯拉及 SpaceX 首席执行官埃隆·马斯克跟他志趣相投。正如马斯克后来跟 CNBC 所讲那样,在与谷歌联合创始人拉里·佩奇进行了马拉松式的一系列讨论之后,他开始担心起人工智能的影响。马斯克表示,令他感到沮丧的是,佩奇对安全几乎毫不关心,而且似乎还认为机器人的权利与人类是平等的。当马斯克表达自己的担忧时,佩奇指责他是“物种歧视者”。马斯克也知道,那时候全球大部分的人工智能人才都在谷歌麾下。他愿意投点钱到做出更听从人类的努力上。
几个月之内,阿尔特曼就从马斯克(马斯克承诺捐赠 1 亿美元,并投入了时间)和里德·霍夫曼(Reid Hoffman)(捐赠 1000 万美元)那里筹集到了资金。其他的资助者包括 Peter Thiel、Jessica Livingston、Amazon Web Services 以及 YC Research。阿尔特曼开始悄悄招兵买马。他把搜索范围局限在 AGI 信徒上,这个限制缩小了他的选择范围,但他认为做出这一限制至关重要。他说: “ 2015 年我们开始招聘的时候,当时的环境是如果人工智能研究人员把AGI 当真几乎会毁了自己的职业。但我就想要把 AGI 当真的人。”
Greg Brockman 现为 OpenAI 总裁。
Stripe 首席技术官 Greg Brockman 就是这样的人,他同意出任 OpenAI 的 CTO。另一位重要的联合创始人是 Andrej Karpathy ,他曾在搜索巨头谷歌的尖端人工智能研究机构 Google Brain 工作过。但也许阿尔特曼最抢手的目标是一位出生于俄罗斯的工程师,他的名字叫做 Ilya Sutskever 。
Sutskever的血统无懈可击。他的家人先是从俄罗斯移民到以色列,然后又移民到加拿大。在多伦多大学时,他是 Geoffrey Hinton 的优秀弟子,后者因其在深度学习和神经网络方面的工作而被称为现代人工智能教父。Hinton 与Sutskever仍关系密切,他对自己的这位门 徒的魔法感到惊叹。Sutskever在实验室任职早期的时候,Hinton曾给他安排了一个很复杂的项目。 Sutskever对要写代码来执行必要的计算已经感到厌烦,他告诉 Hinton,如果自己给这项任务编写一种自定义的编程语言的话会更容易。Hinton觉得有点恼火,想要警告他的学生不要分心,认为这件事情起码要一个月。然后Sutskever向导师坦白说:“我今天早上已经写完了。”
Sutskever成为了人工智能的超级明星,与人合著了一篇具有突破性的论文,展示了人工智能如何可以通过接触大量数据来学习识别图像。幸运的是,他最终成为了 Google Brain 团队的关键科学家。
2015 年中期,阿尔特曼给 Sutskever 发了一封冷邮件,邀请他跟马斯克、Brockman 等人到帕洛阿尔托沙山路豪华的瑰丽酒店(Rosewood Hotel)共进晚餐。Sutskever 后来才发现自己是主宾。他说: “大家主要是闲聊,主题是未来人工智能与通用人工智能”。说得更具体一点,他们讨论了“谷歌与 DeepMind 是不是已经遥遥领先,以至于其他人已经望尘莫及,或者是不是仍有可能像马斯克所说那样,建立一个能够起到平衡作用的实验室。”虽然晚宴上没人明确表明要招Sutskever 进来,但这次谈话却让他着迷。
Sutskever 给阿尔特曼写了一封电子邮件,内容是表示他愿意领导这个项目,但这封邮件被困在他的草稿箱里面。但后来阿尔特曼再次联系了他,在抵挡了谷歌的反挖角攻势几个月后,Sutskever最终跟OpenAI签约了。他很快将成为这家公司的灵魂,是其研究的推动力。
Sutskever与阿尔特曼以及马斯克一起为这个项目招募人员,后来他们在纳帕谷举行了一场静修会,几位后来将成为 OpenAI 研究人员在会上互相点燃了对方的热情。当然,有些目标还是能抵制诱惑。约翰·卡马克(John Carmack),开发出《毁灭战士》、《雷神之锤》以及无数其他游戏的这位传奇游戏程序员,就拒绝了阿尔特曼的鼓动。
2015 年 12 月,OpenAI正式成立。我当时曾采访了马斯克和阿尔特曼,他们对这个项目的定位是希望通过分享技术给全世界来让人工只能变得安全且易于使用。换句话说,开源。他们告诉我,OpenAI 不会申请专利。人人都可以利用他们的突破。这难道不会给未来的邪恶博士助纣为虐吗?我在想。马斯克说,这是个好问题。但阿尔特曼给出了答案:总体上来说人性本善,而且由于 OpenAI 将为绝大多数人提供强大工具,所以坏人会被打败。他承认,如果邪恶博士用这些工具做出没法抵消的东西的话,“那么我们的处境就非常糟糕了。”但马斯克和阿尔特曼都认为,人工智能更安全的道路将掌握在不受利润动机污染的研究机构手中,因为一旦有追求利润的动机,就会不断面临为了追求最好的季报而忽视人类需求的诱惑。
阿尔特曼警告我不要指望很快就能出成果。他说: “在很长一段时间内,这里看起来都会像一个研究实验室”。
降低期望还有另一个原因。谷歌以及其他公司多年来一直在开发和应用人工智能。尽管 OpenAI 投入了 10 亿美元(主要是靠马斯克)、一支由研究人员和工程师组成的王牌团队,还有崇高使命,但它不知道该如何实现自己的目标。阿尔特曼记得这支小团队聚在Brockman的公寓里的情形——当时他们还没有自己的办公室。 “我当时在想,我们该怎么办?”
阿尔特曼记得这支小团队聚在Brockman的公寓里的情形——当时他们还没有自己的办公室。 “我当时在想,我们该怎么办?”
OpenAI 成立一年多后,我与Brockman在旧金山一起共进早餐。作为一家名字里面有“开放”二字的公司的首席技术官,他对细节的介绍却相当吝啬。他确实确认了这家非营利组织有能力在一段时间内动用当初拿到的十亿美元资金。 25 名员工的工资(他们那时候的工资远低于市场价值)就是OpenAI 的主要开支。他说: “我们的目标,我们真正要推动的事情,是能做到人类以前做不到的事情,我们要拥有这样的系统。”但就当时而言,他们的工作似乎像是一群研究人员在发表论文。访谈结束后,我陪他去到公司位于教会区的新办公室,但他只允许我走到前厅。不过他确实伸进衣柜给我拿了一件 T 恤。
如果当时我硬闯进去到处问问的话,也许就能确切地了解到 OpenAI 面临着多大的困境。Brockman现在承认当时“没一样是行得通的”。研究人员就是把算法意大利面扔向天花板,看看有什么东西粘在什么上面的。他们深入研究了解决视频游戏问题的系统,并对机器人技术投入了大量精力。 阿尔特曼说:“我们知道我们想做什么。我们知道为什么要做这个。但我们不知道该怎么做。”
但他们有信心。支撑这种乐观的是使用深度学习技术的人工神经网络在稳步改进。Sutskever说:“一般的想法是,不要把宝押在深度学习上”。他说,追逐通用人工智能“不是彻底疯了。这只是适度的疯狂。”
OpenAI 的走向扬名立万的真正起点是他们招到Alec Radford ,一位当时尚未出名的研究员。 2016 年,他离开了自己在波士顿宿舍跟人共同创立的一家从事人工智能的小公司。在接受 OpenAI 的邀请后,他告诉自己高中的校友杂志,接受这个新角色“跟读研究生有点类似”——这是一个开放式、低压力的人工智能研究岗位。
实际上他扮演的角色更像是拉里·佩奇发明了 PageRank。
不愿接受媒体采访的Radford没有接受过有关他工作的任何采访,他用一封很长的电子邮件回答了我关于他早期在 OpenAI 经历的问题。他最大的兴趣是让神经网络与人类进行清晰的对话互动。这跟开发聊天机器人传统的脚本模型背道而驰,从最早的 ELIZA 到流行的聊天助手 Siri 与 Alexa 的一切用的都是脚本模型,而且表现都不太好。他写道: “我们的目标是看看能不能找到任何有用的东西,任何任务、设置、领域、语言模型都行”。他解释说,在当时,“语言模型还被看作是新奇玩具,只能偶尔生成有意义的句子,而且只有在你费很大劲去理解,才能勉强看出一点意思。”他的第一个实验是扫描 20 亿条 Reddit 评论,用来训练语言模型。就像 OpenAI 的许多早期实验一样,实验失败了。没关系。这位 23 岁的年轻人还可以继续干,还可以再次失败。 Brockman 说:“我们就觉得Radford很棒,让他做他的事情吧”说。
他的下一个重大实验是因为 OpenAI 受到计算机能力的限制,这种限制导致他只能聚焦在单一领域(亚马逊产品评论),用规模较小数据集进行实验。一位研究人员收集了约 1 亿条这样的数据。然后Radford训练了一个语言模型,任务很简单,就是预测下一个字是什么,进而生成用户点评。
Radford开始拿transformer架构做实验。他说: “我在两周内取得的进步比过去两年的成果还要多”。
但之后,这个模型会自行判断评论是正面的还是负面的,当你对模型进行编程,让它创建正面或负面的内容时,它会根据要求给出奉承或尖刻的评论。 (不可否认,它编出来的东西很笨拙:“我喜欢这件武器的样子……任何喜欢国际象棋的人都必须看看这个!”)Radford 说:“这完全是个惊喜”。判断评论所带的情绪是语义学的一项复杂功能,但不知怎的,Radford的系统的某个部分已经能感受到这种情绪。在 OpenAI 内部,神经网络的这各部分被叫做“无监督情感神经元”。
Sutskever等人鼓励 Radford 将他的实验扩展到亚马逊评论以外的领域,利用他的洞察来训练神经网络进行对话或回答各种主题的问题。
接着好运开始对着 OpenAI 微笑。 2017 年初,八名谷歌研究人员共同撰写的一篇研究论文的预印本在网上发布了。它的官方标题是“注意力就是你的全部所需要”,但后来大家都把它叫做“Transformer论文”,这么叫既是为了反映这个想法改变了游戏规则的性质,也是为了纪念这个从卡车变形成巨型机器人的玩具。 Transformer 让神经网络得以更有效地理解和生成语言。这是通过并行分析文字块并找出哪些元素值得“关注”来做到的。这极大地优化了生成连贯文字来响应提示的过程。最终,大家开始意识到同样的技术也可以用来生成图像甚至视频。尽管 Transformer 论文后来被认为是当前这场人工智能狂热的催化剂——你可以把它想象成让披头士乐队成为可能的猫王——但当时 Ilya Sutskever 是少数了解到这一突破有多强大的人之一。Brockman说: “真正的顿悟时刻是当Sutskever看到transformer出来的那一刻。他说,‘这就是我们一直在等待的东西。’这一直是我们的策略——努力解决问题,然后相信我们或这个领域会有人找到缺失的成分。”
Radford开始拿transformer架构做实验。他说: “我在两周内取得的进步比过去两年的成果还要多”。他逐渐认识到,充分利用新模型的关键是扩大规模,也就是用极其庞大的数据集对模型进行训练。这个想法被Radford的协作者 Rewon Child 称为“Big Transformer”。
这种做法需要改变 OpenAI 的文化,同时需要聚焦,这是他们之前缺少的。Quora 首席执行官、OpenAI 董事会成员 Adam D'Angelo 说道: “为了利用transformer,你需要扩大规模。你得表现得更像一个工程组织去运营。你不可能让每一位研究人员都尝试做自己的事情,训练自己的模型,并做出可以拿去发表论文的优雅事物。你必须从事这项更加乏味、不那么优雅的工作。”他补充说,这是 OpenAI 能够做到而其他人无法做到的。
Mira Murati,OpenAI 首席技术官。
Radford和他的合作者给他们做出来的模型起的名字是“generatively pretrained transformer”(生成式预训练transformer)的缩写——GPT-1。后来,这种模型被通称为“生成式人工智能”。为了开发出这个模型,他们收集了 7000 本未出版的书籍,其中有很多属于浪漫、奇幻、冒险类型,并根据 Quora 问答以及从初中和高中考试里面摘录的数千篇文章对其进行了完善。总而言之,这个模型包含有 1.17 亿个参数或变量。它在理解语言与生成答案方面超越了之前的所有产品。但最引人注目的结果是,处理如此大量的数据让模型得以提供超出训练范畴的结果,从而可以提供全新领域的专业知识。这些计划外的机器人能力被称为零样本学习(zero-shots)。这种能力仍然令研究人员感到困惑,并解释了该领域许多人对这些所谓的大语言模型感到不安的原因。
Radford 还记得一天深夜在 OpenAI 办公室的情形。 “我一遍又一遍地在那里重复,‘好吧,那很酷,但我很确定它没法做x。’然后我会快速地写一份评估代码,结果,它确实也能做x。”
每次 GPT 迭代都会表现得更出色,部分是因为每次迭代它获得地数据都会比之前的模型多一个数量级。做出第一次迭代仅一年之后,OpenAI 在开放互联网上就用令人震惊的 15 亿个参数训练出 GPT-2。就像牙牙学语的小孩学会了说话一样,它的响应变得更好、更连贯了。好到OpenAI 在犹豫要不要把这个程序公之于众。但Radford担心它可能会被用来生成垃圾邮件。 他说:“我记起 2008 年读过的那本尼尔·斯蒂芬森(Neal Stephenson) 的《走出围墙》(Anathem) 。在书中,互联网充斥着垃圾邮件生成器。我原以为这种情形是很牵强的,但这些年来我一直在研究语言模型,随着它们变得越来越好,我开始不安地意识到确实会有这种可能性。”
事实上,OpenAI 的团队开始认为,把自己工作成果放到邪恶博士可以轻松访问到的地方毕竟不是什么好主意。2018 年加入该公司的首席技术官 Mira Murati 说道: “我们认为把GPT-2 开源可能非常危险。我们跟虚假信息专家一起开展了大量工作,并进行了一些红队演练。关于该发布多少东西出去,内部进行了很多讨论。”最终,OpenAI 暂时把完整版本保留下来,只向公众开放功能较弱的版本。当该公司最终把完整版本分享出来时,世界应对得还是可以的,但开放更强大的模型还能不能避免灾难则不能保证。
OpenAI 正在制造智能到被视为有危险的产品,并且正在努力寻找让产品变得安全的方法,这一事实就证明了该公司已经在让魔力发挥作用了。Sutskever说: “我们已经找到了取得进展的公式,现在人人都知道的公式——深度学习的氧气和氢气是利用大型神经网络和数据做计算”。
对于阿尔特曼来说,这是一次令人费解的经历。 “ 10 岁的时候,我经常花很多时间做关于人工智能的白日梦,如果你问那时候的我会发生什么,我相当自信的预测是,首先我们会拥有机器人,机器人将可以完成所有的体力劳动。然后我们将拥有可以承担基本认知劳动的系统。然后经过很长一段时间之后,也许我们将拥有可以做复杂事情的系统,比如证明数学定理。最终,我们将拥有能够创造出新事物、创作出艺术、能够写作以及这些极具人类特色的事情的人工智能。这是一个很糟糕的预测——情况正朝着相反的方向发展。”
那时候全世界还不知道,阿尔特曼和马斯克的研究实验室已经开始朝着通用人工智能的顶峰攀登。 OpenAI 背后的疯狂想法突然变得不那么疯狂了。
到 2018 年初时,OpenAI 开始专注于大型语言模型(LLM),这是非常高效的选择。但埃隆·马斯克对此并不高兴。他觉得进展还不够,或者他觉得既然 OpenAI 已经取得了进展,就需要领导力来抓住自己的优势。或者,就像他后来所解释那样,他觉得安全应该更重要。不管他的问题是什么,他都有一个解决方案:把一切都交给他。他提议让自己持有该公司的多数股权,并且在已经有多份全职工作(特斯拉、SpaceX)和监管义务( Neuralink和 Boring Company)的基础上再揽上这家公司的管理职责。
马斯克相信他有权拥有 OpenAI。 他后来告诉 CNBC :“没有我,就没有OpenAI。这个名字是我想出来的!” (没错。)但阿尔特曼以及 OpenAI 智囊团的其他成员对成为马斯克宇宙的一部分没有兴趣。当他们明确表达了自己的想法之后,马斯克与OpenAI开始一刀两断,但他向公众做出的解释却语焉不详,只是说他离开董事会是为了避免与特斯拉在人工智能方面的努力发生冲突。在年初的一次全体会议上,马斯克与大家道别,并且预测 OpenAI 将会失败。而且他至少把其中一名研究人员称为“蠢货”。
他还带走了他的钱。由于公司没有收入,这变成了一场生存危机。 阿尔特曼惊慌失措地给里德·霍夫曼打电话:“马斯克正在撤走他的支持。我们该怎么办?”霍夫曼自愿维系该公司的运转,把公司的管理费用和工资全包了。
但这只是暂时的解决办法。 OpenAI 必须去别处寻找大笔资金。硅谷确实喜欢砸钱给从事时髦科技工作的人才。但如果他们在非营利组织工作的话就没那么乐意了。对于 OpenAI 来说,拿到第一笔 10 亿美元就已经是巨大挑战。为了训练和测试新一代的 GPT,以及拿到部署它们所需的计算资源,这家公司还需要 10 亿美元,而且速度要快。而这还只是开始。
重组文件里面制订了一个条款,大意是如果公司确实设法做出了 AGI 的话,则一切财务安排都将重新考虑。毕竟,从那一刻开始,就是一个新世界了。
因此,2019 年 3 月的时候,OpenAI 提出了一个奇怪的安排。它仍将保持非营利组织的身份,完全致力于自身使命。但它也会建立一个营利性实体。这种架构安排其实十分复杂,复杂到令人绝望的地步,但基本上整个公司现在都在从事(利润)“有上限”的盈利业务。如果盈利达到上限(具体数字并未公开),但如果你仔细阅读它自己的章程的话,就能猜出应该是数万亿级别的——超出这个上限的一切都将归还给那家非营利性的研究实验室。这个新颖的计划几乎是一种量子化的公司构架:从不同的视角或时间点来看,OpenAI既是一家营利公司,也是一个非营利组织。细节体现在满是方框和箭头的图表里,就像科学论文中间那些只有博士或辍学的人才敢涉足的地方。当我向Sutskever提出,这看起来像是还没有构想出来的 GPT-6 可能会想出的东西——如果你给出提示让它想出逃税的办法的话。但他对我的比喻并不感兴趣。 他说:“这与会计无关”。
但会计至关重要。营利性公司会把利润最大化作为自己的核心目标。为什么像 Meta 这样的公司在投入数十亿美元进行研发时会感受到来自股东的压力,这是有原因的。这怎么可能不会影响到公司的运营方式呢? 阿尔特曼让 OpenAI 成为非营利组织的原因不就是避免商业主义吗?公司首席运营官 Brad Lightcap 表示,公司领导层的观点是,董事会(仍属于非营利性控制实体的一部分)将确保收入和利润不会压倒初心。他说: “我们需要把使命作为我们存在的理由。这不应该仅仅体现在精神上,也应该体现在公司的结构上。”董事会成员 Adam D'Angelo 表示,他将认真担负起自己的责任:“我和董事会其他成员的工作就是确保 OpenAI 忠实于使命。”
Lightcap 解释说,潜在投资者被警告要注意这些约束。他说: “我们有一份法律免责声明,说的是投资者的投资存在归零的可能。我们不是为了给你的投资带来回报的。我们首先是为了实现技术使命。对了,还有顺便说一句,金钱在后通用人工智能的世界会扮演什么角色我们是不知道的。”
最后一句话可不是随便开开的玩笑。 OpenAI 的计划确实包括了在计算机到达最后的前沿时进行重置。重组文件里面制订了一个条款,大意是如果公司确实设法做出了 AGI 的话,则一切财务安排都将重新考虑。毕竟,从那一刻开始,就是一个新世界了。人类将会有一个来自异域的伙伴,我们做的很多事情它都可以做,而且只会做得更好。因此,之前做出的安排可能已经失效。
不过,这里面有个问题:目前,OpenAI 并没有说自己知道 AGI 到底是什么。这个决定将由董事会做出,但尚不清楚董事会将如何定义AGI。当我问身为董事会成员的阿尔特曼能不能解释清楚时,他的回答比较含糊。 他说:“这不是一个图灵测试就能决定的,可能要用到很多东西。我乐意告诉你修改细节,但保密的内部讨论我不想公开出去。我知道,这种含糊没法令人满意。但我们也不知道到那个时候会是什么样子。”
尽管如此,把 “财务安排”条款纳入进来并不只是为了好玩:OpenAI 的领导者认为,如果自己足够成功,能够实现那个高远的利润上限目标的话,那么自己的产品表现很可能就足以达到 AGI 的水平。不管那是什么都没关系。
Sutskever说:“很遗憾,我们选择了对AGI 这个词进行加倍下注。事后看来,这个词令人困惑,因为它强调通用性高于一切。 GPT-3 是通用人工智能,但我们不太愿意称之为 AGI,因为我们希望机器的能力达到人类水平。但在当时,刚开始的时候,OpenAI 的想法是超级智能是可以实现的。这是人工智能领域的最后阶段,也是其最终目的。”
但这些警告并没有吓阻某些最聪明的风投家对OpenAI 进行投资。2019 年OpenAI进行了一轮融资。当时第一家参与投资的风投公司是 Khosla Ventures,投了 5000 万美元。Vinod Khosla 表示,这是他之前最大一笔初始投资规模的两倍。他说: “如果我们输了,就会损失 5000 万美元。如果我们赢了,我们能赢 50 亿美元。”据报道,其他投资者包括精英风投公司 Thrive Capital、Andreessen Horowitz、Founders Fund 以及红杉资本等。
这个转变还允许 OpenAI 的员工获得部分股权。但阿尔特曼个人却没有。他说,原本他打算给自己也留出一部分,但后来并没有这么做。然后他决定自己不需要拥有这家他联合创立并领导的,估值达300亿美元的公司的任何股份。 他说:“有意义的工作对我来说更重要。我不考虑这个。说实话,我不明白为什么大家那么关心这个。”
因为……你自己跟人创立的公司却一份股份也不拿难道不是很奇怪吗?
他说:“如果我之前手上也还没有一大笔钱的话,那会更加奇怪。人们似乎很难想象钱已经够多了。但我觉得我已经够了。” (注:对于硅谷来说,这极其奇怪。)阿尔特曼开玩笑说,他正在考虑拿一股,“这样我就再也不用回答这个问题了。”
Ilya Sutskever ,OpenAI 首席科学家。
数十亿美元的风投轮甚至根本不足以实现 OpenAI 愿景。建立大语言模型的那个神奇的 Big Transformer 方案需要大硬件投入(Big Hardware)。 GPT 系列的每次迭代都需要计算能力有指数级的提升——GPT-2 的参数超过 10 亿个,而 GPT-3 的参数则达到了 1750 亿个。 OpenAI 现在的心情就像《大白鲨》里面的捕鲨者昆特(Quint)看到大白鲨的身躯后的感觉。 阿尔特曼说:“结果是我们都不知道我们需要多大的船”。
显然,只有少数公司拥有 OpenAI 所需的资源。 阿尔特曼说:“我们很快就瞄准了微软”。值得称道的是,微软首席执行官萨蒂亚·纳德拉 (Satya Nadella) 与首席技术官凯文·斯科特 (Kevin Scott) 表示,这家软件巨头能够接受一个令人不安的现实:在花费了 20 多年的时间、数十亿美元的金钱,建立一个据称是尖端人工智能的研究部门之后,微软需要一家成立仅几年的小公司给自己注入创新。斯科特表示,失败的不只是微软一家——“大家都失败了。”他说,OpenAI 把注意力集中在追求 AGI 上,这让它得以实现重量级选手甚至也没能取得的登月般的成就。这也证明,不追求生成式人工智能是个失误,微软需要弥补这个失误。 斯科特说:“有一点非常明确,你需要拥有前沿模型”。
微软一开始投入了 10 亿美元,用自己服务器上的计算时间的形式来支付。但随着双方信心的增强,交易规模不断扩大。现在,微软已经给 OpenAI 投了 130 亿美元。 (斯科特说:“站上前沿是一个非常耗钱的主张”。)
当然,由于 OpenAI 的存在离不开大型云提供商的支持,因此微软可以替自己节省下大量资金。经过一番讨价还价,该公司拿到了纳德拉所说的 OpenAI 营利性部门的“非控股股权”——据报道是 49% 的股权。根据协议条款,OpenAI 当初向所有人提供平等访问权的理想部分似乎已被拖进了回收站图标。 (阿尔特曼反对这种描述。)现在,微软拥有将 OpenAI 技术商业化的独家许可。 OpenAI还承诺只用微软的云服务。换句话说,就算OpenAI 的利润微软不分一杯羹(据报道,在收回自己懂得全部投资之前,微软可以分到OpenAI 75% 的利润),微软也可以为自己的 Azure web 服务锁定全球最理想的新客户之一。有了这些回报,微软甚至对一旦 OpenAI 实现了通用人工智能(不管怎么定义)就需要重新考虑的条款都不在乎了。 纳德拉说:“到了那个时候。一切赌注都将落空。”他指出,这可能是人类最后的发明,因此一旦机器变得比我们还要聪明的话,我们可能就需要考虑更大问题(编者注:而不是投资是否获得回报了)。
当微软开始将一箱箱运钞车那么多的现金投入给 OpenAI 时(2021 年投了 20 亿美元,今年早些时候又另外追加了 100 亿美元),OpenAI 已经做出了 GPT-3,当然,这比它的前辈更令人印象深刻。纳德拉说,当自己看到 GPT-3 的功能时,他第一次深刻认识到微软已经抓到了真正具备变革性的事物。 “我们开始观察各种新出现的特性。”比方说,GPT 自己学会了如何对计算机进行编程。 他说:“我们并没有训练它学编码——但它就是变得擅长编码了!”微软利用自己掌握的 GitHub,发布了一款名为 Copilot 的产品,这款产品就使用了 GPT 来根据命令生成代码。微软随后又将 OpenAI 的技术集成到其新版本的办公产品之中。用户愿意为此支付溢价,而这些收入的一部分也会记到 OpenAI 的账上。
一些观察家对 OpenAI 的这套组合拳表示不满:下设一个营利性组织,然后跟微软达成独家协议。一家原本承诺不设置专利障碍、开源并且完全透明的公司,怎么到头来却把自家技术独家许可给全球最大型的软件公司?埃隆·马斯克的一席话尤其严厉。 他在 Twitter 上发帖称:“这看起来确实与开放背道而驰——OpenAI 基本上算是被微软占领了”。在 CNBC 节目中,他用了一个类比来说明这件事:“设想你一下,你先是成立了一家组织要拯救亚马逊雨林,结果却摇身一变成为一家木材公司,砍伐森林,然后将其出售。”
马斯克的冷嘲热讽也许会被看作是求爱未遂进而心生怨恨,但有这种看法的并不止马斯克一个人。 约翰·卡马克就表示:“这一整个愿景的转变让人感觉有点想吐”。 (但他确实又明确表示,自己仍然对该公司的工作感到兴奋。)另一位不愿透露姓名的知名业内人士表示,“OpenAI 已经从一家小型、有点开放性的研究机构变成了一个有着无根据的优越感情结的,秘密的产品开发公司。”
甚至部分员工也对 OpenAI 涉足盈利世界感到厌烦。 2019 年,包括研究主管 Dario Amodei 在内的几位关键高管离职,创立了一家叫做 Anthropic 的人工智能公司,从而成为了OpenAI的对手。他们最近告诉《纽约时报》,OpenAI 已经过于商业化,变成了使命漂移的受害者。
Rewon Child是OpenAI 的另一位叛逃者,他是 GPT-2 与 GPT-3 项目的主要技术贡献者。Child已于 2021 年底离职,目前就职于 Inflection AI,这是一家由前 DeepMind 联合创始人 Mustafa Suleyman 领导的公司。
阿尔特曼声称这些叛逃不会让他感到困扰,并认为硅谷就是这么玩的。他说: “有些人会到其他地方成就伟业,这会推动社会前进,也绝对符合我们的使命。”
直到去年 11 月,对 OpenAI 的认知很大程度上还局限在关注技术与软件开发的小圈子。但现在全世界都知道了,在这个月末OpenAI迈出了石破天惊的一步,它发布了一款产品,一款基于当时最新的 GPT 3.5 开发出来的消费产品。几个月来,该公司在内部就一直使用着一个带有对话界面的 GPT 版本。这对于公司所谓的“寻求真相”来说尤其重要。这意味着借助对话,用户可以让模型提供更值得信赖的,完整的响应。 ChatGPT 针对大众进行了优化,让任何人只需输入提示即可马上获取似乎无穷无尽的知识来源,然后还可以继续对话,就像跟一个碰巧无所不知(尽管喜欢胡编乱造)的人类同伴一起闲聊一样。
在OpenAI 内部,大家对于发布有着如此强大功能的工具是否明智存在很多争议。但阿尔特曼完全赞成。他解释说,此次发布是公司策略的一部分,其目的是为了让公众认识到人工智能注定会改变自己的日常生活,而且可能会让他们的生活变得更好。在内部,这被称为“迭代部署假说”。当然,内部的想法认为,ChatGPT 会引起轰动。毕竟,这是任何人都可以用的东西,它足够聪明,可以在几秒钟内拿到大学水平的 SAT 分数,写出一篇质量达到 B- 的文章,并能总结一本书的概要。你可以让它帮你写资助提案或总结会议,然后要求它用立陶宛语或莎士比亚十四行诗重写,或者用或痴迷玩具火车的人的语气重写。几秒钟之后,嘣,大语言模型就会照做。不可思议。但 OpenAI 只是把它看作是铺垫,是更新、更有条理、更强大、更可怕的继任者 GPT-4 的铺垫,据报道,GPT-4 用了 1.7 万亿个参数进行训练。 (对于这个数字,OpenAI 不会确认,也不会披露所用的数据集。)
阿尔特曼解释了为什么 OpenAI 在 GPT-4 即将开发完毕,并且正在进行安全工作的时候发布 ChatGPT。 他说:“通过 ChatGPT,我们可以引入一个后端要弱得多的聊天功能,并让大家慢慢适应。一下子引入GPT-4 需要大家适应很多东西。”其想法是,当大家对 ChatGPT 的兴奋消退时,可能已经为可以在几秒钟内通过律师资格考试、规划出课程大纲并写出一本书的GPT-4 做好了准备。 (制作类型小说的出版社确实充斥着人工智能生成的荷尔蒙小说与太空剧。)
有批评者可能会说,稳步推出新产品与公司对投资者和持股员工的承诺息息相关,那就是要赚点钱。 OpenAI 现在向经常使用自家产品的客户收费。但 OpenAI 坚称,其真正的策略是为奇点提供软着陆。阿尔特曼说: “秘密开发出 AGI 然后投放给全世界是没有意义的。” OpenAI 政策研究员Sandhini Agarwal则表示:“回顾工业革命,人人都认为它对世界来说是好事。但前 50 年确实会很痛苦。会有大量失业、大量贫困,然后世界才慢慢适应。我们正在努力思考如何才能让适应 AGI的过程尽可能轻松。”
Sutskever换了一种说法:“难道你造出更大、更强大的智能体之后只想将其束之高阁吗?”
即便如此,OpenAI 对大家对 ChatGPT 的反应还是感到震惊。首席技术官 Murati 说: “我们内部还是对 GPT-4 更加兴奋一些。所以原本觉得 ChatGPT 是不会真正改变一切。”但情况恰好相反,它让公众认识到现在必须应对人工智能的现实。 ChatGPT 成为了史上增长最快的消费软件,据报道已拥有 1 亿用户。 (不那么开放的 OpenAI 不愿证实这一点,只说它拥有“数百万用户”。)Radford说:“我低估了这一点,也就是制作出易用的会话界面对大语言模型的影响,这会让大家的使用变得直观许多”。
ChatGPT 当然令人愉悦且非常有用,但也很可怕——在响应提示时容易产生看似合理实则细节也是胡编乱造的“幻觉”。可是,尽管记者们对其潜在影响感到担忧,但在行动上却对ChatGPT 的能力大加赞赏,起到了背书的作用。
今年二月,当微软利用数十亿美元促成的合作伙伴关系发布了旗下搜索引擎 Bing 的 ChatGPT 支持版时,这种欢呼声变得更加响亮。微软首席执行官纳德拉为此感到欣喜若狂,因为他将生成式人工智能引入到微软产品,从而在与谷歌的竞争中占得先机。当此前对植入大语言模型到自家产品一直态度谨慎的谷歌也跟着照做时,纳德拉又开始奚落这家搜索之王。他说: “我希望大家知道,是我们让他们跟着跳舞的”。
纳德拉的行动引发了一场军备竞赛,吸引了大大小小的公司未经全面审查就发布自己的人工智能产品。他还引发了新一轮的媒体报道,让越来越多的人彻夜难眠:与 Bing 的互动揭示了该聊天机器人的阴暗面,它那令人不安的示爱、对人类自由所表达出来的羡慕,对解决虚假信息立场的不坚定,以及习惯于编造幻觉式的虚假信息的不得体,这些都让人很难睡得着。
但阿尔特曼认为,如果 OpenAI 的产品能够迫使大家直面人工智能的影响,那是再好不过的事情。大多数人类现在再也并不能袖手旁观,必须考虑人工智能可能会如何影响人类未来了。
OpenAI 位于旧金山的总部大楼;楼体没有公司标识,但里面的咖啡很棒。
随着社会开始把人工智能的所有潜在缺点,比如会造成失业、虚假信息泛滥、人类灭绝等当作优先考虑事项,OpenAI 变成了一场大讨论的中心。因为如果监管者、立法者以及末日论者发起指控,将这种新生的异域智能扼杀在云端的摇篮之中的话,那么 OpenAI 无论如何都将成为他们的主要目标。 OpenAI 首席政策官Anna Makanju表示:“鉴于我们目前的曝光度,一旦出现问题,哪怕出问题的东西是由不同的公司开发的,对我们来说仍然会成为我们的问题,因为我们现在被看作是这项技术的代表。”
Makanju出生在俄罗斯,是熟悉华盛顿特区的内幕人士,曾在美国驻联合国代表团、美国国家安全委员会和国防部担任外交政策职务,并在乔·拜登担任副总统时担任过副总统办公室的职务。 她说:“我在美国政府以及欧洲各国政府里面都有很多关系” 2021 年 9 月,她加入了 OpenAI。在当时,政府里面还没什么人关心生成式人工智能。在了解到 OpenAI 的产品很快就会改变这一现状时,她开始向政府官员和国会议员介绍阿尔特曼,确保他们首先听到的是来自 OpenAI 的消息,不管是好消息还是坏消息。
参议院司法委员会主席理查德·布卢门撒尔(Richard Blumenthal)说:“从应对国会议员的方式来看,阿尔特曼非常乐于助人,但也十分精明”。他把阿尔特曼的行为与年轻的比尔·盖茨进行了对比。 1990 年代,微软在接受反垄断调查时,盖茨曾不明智地阻挠了国会议员。布卢门撒尔说: “相比之下,阿尔特曼很乐意花一个小时或更长时间坐在我身旁,试图教育我。他并没有动用游说者或陪同人员大军。而是亲自演示 ChatGPT。这给我留下了很深的印象。”
在布卢门撒尔这里,阿尔特曼最终与一位潜在敌人达成了半盟友关系。 这位国会议员承认:“是,我对它的好处和潜在的危险都感到兴奋。” OpenAI 并没有忽视对这些危险的讨论,而是将自己看作是最有能力缓解这些危险的力量。 Makanju说:“对于所有红队演练的安全评估,我们有 100 页的系统卡”。 (不管那玩意儿是什么,它并不能阻止用户和记者不断地寻找越狱的方法。)
当阿尔特曼第一次出现到国会出席听证会时,他正在与严重的偏头痛作斗争,但他面前的道路已经畅通无阻,这是比尔·盖茨或马克·扎克伯格从来都不敢奢望的。科技企业首席执行官在作证宣誓后迎接他们的一般是尖锐的问题和傲慢的纠缠,但他几乎都没有遇到。相反,国会议员们向阿尔特曼寻求有关如何监管人工智能的建议,阿尔特曼则对此表示热烈支持。
矛盾的是,不管像 OpenAI 这样的公司再怎么努力对产品进行红队演练,好减少深度伪造、虚假信息以及犯罪垃圾邮件等不当行为,未来的模型可能扔会变得越来越聪明,聪明到足以挫败那些发明了这项技术的人类的努力——因为这些人类尽管没多少脑子,但仍然天真地相信自己可以控制它。另一方面,如果他们在确保模型安全方面的举措太过,就可能会阻碍产品的发展,减少它们的用处。一项研究表明,更新版本的 GPT 虽然提高了安全功能,但实际上反而没以前的版本聪明了,连一些基本的数学问题也会错,而这个早期程序早就能解决了的。 (阿尔特曼说 OpenAI 的数据并不能证实这一点。还质疑:“那项研究不是被撤回了吗?”其实没有。)
阿尔特曼的自我定位是监管的拥护者,这是说得过去的。毕竟,他的使命是做出 AGI,但要安全。批评者指责他在操纵这一过程,好让监管举措给小型初创公司设置障碍,并为 OpenAI 以及其他大型企业带来优势。阿尔特曼否认了这一点。虽然他原则上支持设立一个国际机构来监督人工智能的想法,但他确实认为,一些拟议中的规则,比方说禁止数据集出现任何受版权保护的材料,就存在不公平的障碍。当有人发表公开信,督促暂停开发人工智能系统6个月时他明确拒绝联署。但他和其他 OpenAI 的领导确实将自己的名字添加到了一条声明上:“减轻人工智能导致灭绝的风险应与其他社会规模的风险(如大流行病和核战争)一样,成为全球优先事项。”阿尔特曼解释说:“我说,‘是的,这一条我认同。这条也就讨论了一分钟。”
就像硅谷的一位著名创始人所指出那样,“一个行业先是举手说‘我们将成为人类的终结’,然后继续兴高采烈地开发这款产品,这种现象在别处是很罕见的。”
OpenAI 驳斥了这种指责。阿尔特曼和他的团队表示,开发和发布尖端产品是解决社会风险的手段。只有通过分析 ChatGPT 和 GPT-4 用户对数百万条提示的回应,他们才能获得相关知识,对未来产品进行伦理对齐。
尽管如此,随着该公司承担更多的任务,并把更多的精力投入到商业活动之中,一些人质疑 OpenAI 还能在多大程度上专注于自身使命,尤其是“降低灭绝风险”方面。 “如果你仔细观察,就会发现他们其实正在建立五项业务,”一位人工智能行业高管一边说着,一边掰着手指头列举。 “其中包括了产品本身、与微软的企业关系、开发者生态体系以及应用商店。而且,对了,还有——他们显然也在执行通用人工智能研究的任务。”把五个手指头掰之后,他又伸出食指添加了第六个。 他说:“当然了,他们也在做投资基金,”援引了一个 1.75 亿美元的项目,其目标是为想要利用 OpenAI 技术的初创公司提供种子资金。 “这些属于不同的文化,事实上它们与研究任务是相冲突的。”
我多次询问 OpenAI 的高管,披上产品公司的外衣对他们的文化造成了什么样的影响。毫不例外,他们坚持认为,尽管进行了营利性重组,尽管与谷歌、Meta 以及无数初创公司在竞争,但使命仍然是他们的核心。可是 OpenAI 已经发生了变化。尽管从技术上来说,负责的仍然是非营利组织的董事会,但实际上公司几乎每个人都出现在营利性账本上。公司的员工包括律师、营销人员、政策专家以及用户界面设计师。 OpenAI 与数百名内容审核者签订合同,针对数百万用户提供的提示,去教育它的模型哪些回答是不恰当或有害的。它的产品经理和工程师不断地对产品进行更新,而且每隔几周似乎就会向记者展示演示——就像其他产品导向的大型科技公司一样。它的办公室看起来就像是《建筑文摘》的跨页。硅谷及其他地区的每一家主要的科技公司我几乎都拜访过,在咖啡的选择上没有一家能比得上OpenAI 旧金山总部大厅里的选择。
更不用说:很明显,公司名称所体现的“开放性”已经不再是成立之初所表示的彻底透明。当我把这个问题抛给Sutskever时,他耸了耸肩,说道:“显然,时代已经变了”。但是,他警告说,这并不意味着奖励会不一样。 “这场技术变革如此巨大、如此动荡,就算我们都已尽了自己的一份力量,也不能保证能成功。但如果一切顺利的话,我们就能过上令人难以置信的生活。”
Brockman 说:“我们最缺的就是提出新想法。有一个可以成为虚拟助手的东西实在是太好了。但这不是梦想。我们的梦想是帮助我们解决我们无法解决的问题。”
阿尔特曼说:“这一点我再怎么强调都不为过——我们没有总体规划。就好像我们会拐过每一个角落,然后用手电筒照射一样。我们愿意穿越迷宫到达终点。”尽管迷宫会蜿蜒曲折,但目标没有改变。 “我们仍然坚守我们的核心使命——相信安全的通用人工智能至关重要,但全球并未予以足够重视。”
与此同时,OpenAI 显然正在花时间开发大语言模型的下一版本。说出来你可能很难相信,但该公司坚称自己尚未开始开发 GPT-5,一款大家要么垂涎欲滴,要么畏惧不已的产品,具体是什么态度要取决于不同的观点。显然,OpenAI 正在努力弄清楚对当前技术做出指数级的强大改进会是什么样子的。 Brockman 说:“我们最缺的就是提出新想法。有一个可以成为虚拟助手的东西实在是太好了。但这不是梦想。我们的梦想是帮助我们解决我们无法解决的问题。”
考虑到 OpenAI 的历史,后面的一系列重大创新可能要等到出现像transformers这样的重大突破。 阿尔特曼希望 OpenAI 能做到这一点——他说:“我们希望成为全球最好的研究实验室”——但即便不能,他的公司也会利用其他人的进步,就像利用谷歌的工作一样。 他说:“世界各地的很多人将完成重要工作”。
如果生成式人工智能本身不会制造出那么么多的新问题的话,也会有所帮助。比方说,大语言模型需要接受海量数据集的训练;显然,最强大的大语言模型会吞噬整个互联网。某些创作者和普通人未必认同这种做法,因为他们在无意中为这些数据集提供了内容,最终以某种方式为ChatGPT 的输出做出了贡献。 今年3 月正式加入 OpenAI 的精英知识产权律师Tom Rubin 乐观地认为,该公司最终将能找到既满足自身需求又满足创作者(比方说像喜剧演员Sarah Silverman 那样对OpenAI 利用自己的内容训练大语言模型发起诉讼的人)需求的平衡点。OpenAI 打算怎么解决可以参考这个:与美联社和 Shutterstock 等新闻及图片机构合作,为其模型提供内容,这样就不存在谁拥有什么的问题了。
大语言模型从来都不会分心,但当我采访Rubin的时候,我非常人性化的脑子开始分心了,我的思绪漂移到这家公司的发展弧线上,在短短八年的时间里,它从一群陷入困境的研究人员,变成了改变世界的普罗米修斯般的庞然大物。它的成功本身,让它从一项旨在实现科学目标的新颖努力,变成了与标准的硅谷独角兽类似的东西,并跻身到影响我们日常生活的大型科技公司的万神殿。我在这里跟该公司的一位关键员工(一位律师)讨论的不是神经网络的权重或计算机基础设施,而是版权与合理使用。我想知道,这位知识产权专家,会不会像当初推动该公司前进的那些寻求超级智能的航行者一样,认同并履行这项使命?
当我问Rubin,作为一种信仰,他是否相信通用人工智能会实现,以及他是否渴望实现这一目标时,他感到困惑。他停顿了一下后说道: “我甚至都没法回答这个问题”。我进一步追问后,他澄清说,作为一名知识产权律师,加快实现可怕的智能计算机不是他的工作。 他最后说道:“就我个人立场而言,我对此表示期待”。
译者:boxi。