划重点:
腾讯科技讯 据国外媒体报道,OpenAI联合创始人兼首席执行官山姆·奥特曼(Sam Altman)最近在参加哈佛大学和风投公司Xfund联合举办的一系列活动中,接受了全球社会商业研究所(BiGS)的专访,就人工智能技术的进步和安全、政府与科技行业如何有效互动、人工智能对美国劳动力市场的潜在影响以及企业应如何适应这些变革等话题进行了探讨。
20年前,当奥特曼还只是斯坦福大学的一名本科生时,他就被人工智能研究所吸引,尽管当时这一领域尚未如今天这般炙手可热。他说:“在我看来,如果人工智能能够发挥其应有的效用,那将是最酷、最重要、也最令人激动的事情。因此,我坚信这是值得我全力以赴去追求的事业。我对于那些虽然成功几率不高,但行之有效且真正重要的东西,总是怀有无尽的热爱。”
在被问及若能与大学时代的自己对话,会给出何种建议时,奥特曼深思后答道:“我想告诉你,你可以在这个世界上留下你的印记。无需等待,无需得到任何人的许可。即便你在这个世界上默默无闻,即便你拥有的资源微乎其微,你依旧有能力成就非凡。”
面对先进人工智能可能带来的潜在威胁,一些人质疑奥特曼对技术进步的坚持。去年,他亲自签署了一封警示信,将人工智能描绘为可能导致人类灭绝的风险;在国会作证时,他更是直言不讳:“如果这项技术失控,后果将不堪设想。”
然而,他对于通过减缓技术进步来减轻这些威胁的方法也持怀疑态度。在踏入人工智能研究领域的初期,他并未预见其将发展到如今这般高度。他说:“即使时至今日,我们所做出的那些至关重要的决策,在当初我们也未曾意识到其重要性。”
奥特曼进一步强调,技术的进步总是难以预测,监管亦非易事。他说:“在OpenAI的某个角落,此刻或许正有人在进行着某项至关重要的发现——我并不知道具体是什么,但我确信这样的突破在统计学上一定会发生——而这可能会极大地塑造我们的未来。”
奥特曼补充道:“从表面上看,我完全同意我们应该承担更大责任,并做出正确的决策,但很多时候,我们并不知道这样的时刻何时会到来。”他强调,对于技术进展的结果,我们必须保持高度的警觉和控制:“决定是否部署GPT-5,决定阈值应该设定在哪里——这些都是我们极为关注的问题。”
关于如何迅速开发和部署新的人工智能技术,很大一部分的决策权掌握在像OpenAI这样的私营营利性公司手中,这也让一些人担忧权力的过度集中。这种担忧在去年的11月达到顶峰,当时奥特曼一度被罢免OpenAI首席执行官的职位,原因部分与安全问题相关,但过去十几天后,他又恢复了这一职务。
奥特曼还探讨了私营部门在人工智能开发过程中所面临的挑战。他坦言:“我认为,人工智能在私营企业的开发令人兴奋,但在不同的时代或不同的世界格局下,它或许会在政府中生根发芽。”
既然当前并未如此,那么政府和行业之间的“共同理解”就显得尤为重要。然而,他指出,目前这两组人对于未来几年人工智能的发展前景存在显著的分歧。为了促进双方之间的对话和理解,奥特曼在4月下旬加入了美国国土安全部的人工智能国家安全委员会。
奥特曼表示,如果能回到2015年,即他与人共同创立OpenAI的那一刻,他会选择将OpenAI作为一个营利性公司起步,而非像该组织在2019年之前那样作为非营利性公司运营。OpenAI的官方网站明确指出,先进人工智能的发展需要巨大的资源投入,这是非营利模式难以长期维持的。
随着OpenAI向利润驱动的结构转变,它开始采取闭源策略,其底层代码和实现细节不再对公众开放。这一决策使得许多学术界的研究人员无法深入研究该模型,他们不得不转向其他变通措施,如分析ChatGPT输出中的模式。
面对这些挑战,奥特曼表示OpenAI已经开始进行学术合作,他说:“例如,我们允许学术研究人员访问GPT-4的基本模型权重。”尽管目前关于这一计划的公开信息有限,但他强调,“找到与学术界合作并打破壁垒的方法显得至关重要。”
在学术界,研究人员正努力解决的一个核心问题是:人工智能模型是如何产生输出的。目前,ChatGPT的内部机制仍不清楚,尽管学术研究人员正在努力研究这一问题,但难度极大,尤其是针对闭源的ChatGPT。一些人认为,在开发自主模型或将人工智能应用于医疗保健等高风险环境之前,深入了解这些机制至关重要。
谈及这一挑战,奥特曼表示:“我们正在朝着这个方向努力。”当被问及OpenAI是否也在研究这一问题时,他坦言:“我没有任何具体的信息表明我们已经完全破解了它。”但他也指出,“完全理解”ChatGPT如何产生输出可能并非一个可行的目标。他进一步解释:“我认为我们能从重要的方面理解这些系统吗?是的。我能说我们能够准确地理解每个人工神经元在做什么吗?我不确定。但我甚至不确定这是否是一个值得我们关注的问题。”
奥特曼强调,政府应当展现出积极主动的态度,与科技行业紧密合作,深入探究这些即将到来的变革将如何深刻影响劳动力市场,以及我们如何在未来社会中培养和掌握所需的技能。
他说:“人工智能领域最重要的任务之一,便是明确政府在这一波科技浪潮中的角色定位,以及我们如何预见并应对未来几年内的技术进步。人工智能的迅猛发展,无疑使这一任务变得愈发重要和紧迫。这看似是一个具有启发性的初步尝试,它促使业界精英与政府中的决策者进行对话,共同探讨如何有效利用这项技术,并为其制定合适的监管措施。”
奥特曼明确表示,尽管人工智能已在众多行业中得到广泛应用,但随着机器学习的不断成熟,其对商业运作的影响将变得愈发显著和深远。
奥特曼说:“考虑到经济变革的广泛影响,我们不得不深入思考社会契约的演变趋势,以及这种演变对于我们的社会意味着什么。以资本与劳动力之间的平衡为例,这仅仅是众多值得我们关注的议题之一。这些议题将引发深入的社会辩论,需要我们的共同关注和努力。”
他补充称:“值得一提的是,我们采取的逐步部署、迭代优化的战略,正是为了应对这一挑战。我们选择在部署过程中逐步推出新的系统,而不是经过十年的漫长等待,然后一次性将成熟的人工智能技术推向世界。这种战略为我们提供了宝贵的时间,让我们能够进行深入的对话,展开激烈的辩论,收集反馈意见,并对技术进行必要的调整。”
奥特曼表示,随着人工智能的普及和应用逐渐广泛,员工应当预见他们所从事的工作在未来必将发生深刻变化。他指出,这种工作方式的转变势必导致一部分岗位的消失和就业结构的调整,但员工们应当被明确告知这一变化对他们所扮演角色的具体影响。
奥特曼称:“未来几十年,工作的形态将发生翻天覆地的变化。我们难以预知未来的工作将呈现何种形态,但可以肯定的是,它们将与我们现在所理解的真正的工作大相径庭。因此,在制定相关政策时,我们需要保持灵活性,确保政策能够跟上科技发展的步伐。有些政策在理论上听起来很有吸引力,但如果技术的发展方向与我们的预期大相径庭,那么这些政策可能就无法发挥应有的作用。因此,我们需要保持警惕,不断调整和完善我们的政策体系。”
奥特曼接着称:“我认为,一个具有吸引力的想法是,为先进的人工智能系统设立一个类似于国际原子能机构(IAEA)的监管机构。我们可以规定,任何拥有世界上排名前十、超过某一阈值的人工智能系统的组织,都必须接受这一机构的监管。这样,我们就能确保人工智能技术的发展始终在可控的范围内,避免其对社会造成不可挽回的损害。”
在被问及是否曾有过一种豁然开朗的感觉,比如洞察到人工智能的潜力远超最初设想时,奥特曼表示:“我确实有过这样的体验。那是当我们首次发现,通过扩大语言模型的规模可以如此精准且可预测地提升其性能时。在我们创立OpenAI之初,我们就已经敏锐地意识到了深度学习的巨大潜力。并且我们坚信,这种潜力会随着模型规模的扩大而愈发显著地展现出来。”
本文来自“腾讯科技”,编译/金鹿,36氪经授权发布。