来源丨创业邦(ID:ichuangyebang)
编辑丨及轶嵘
近日,ChatGPT之父阿尔特曼在OpenAI官网发布了他对AGI(通用人工智能)的看法和未来的计划。
阿尔特曼说,AGI可能带来严重的滥用、重大事故和社会混乱的风险。OpenAI希望通过制定一些原则来确保AGI的好处最大化,并控制它的潜在风险。原则包括:
*让AGI成为放大器,促进人类最大程度繁荣;
*确保AGI的访问权和治理得到广泛和公平的分享;
*通过部署功能较弱的版本来不断学习和适应,减少押宝“一次性成功”。
阿尔特曼说,成功过渡到一个拥有超级智能的世界可能是人类历史上最重要、最有希望、最可怕的项目。AGI距离成功还很遥远,但赌注之大(好处和坏处都是无限的)有望让我们所有人团结起来。
以下是创业邦整理的全文,内容经编辑处理:
我们的使命是确保AGI(即比人类更聪明的AI系统)能够造福全人类。
如果AGI得以成功创建,这项技术可以通过增加丰富度、赋能全球经济、以及助力发现能带来无限可能的科学新知,来帮助人类提升能力。
AGI有赋予每个人不可思议的新能力的潜力。我们可以想象有这样一个世界,所有人都可以获得几乎所有认知的帮助,为人类的才智和创造力提供巨大的力量倍增器(force multiplier)。
但另一方面,AGI也会产生严重的滥用、重大事故和社会混乱的风险。由于AGI对社会产生的价值如此之高,我们认为,永久性地终止它的发展是不可能的,也是不可取的。相反,社会和AGI的开发者必须想办法把事情做对。
虽然我们无法准确预测会发生什么,而且目前的进展也可能会受挫,但我们可以阐明我们最关心的原则:
我们希望AGI能够为人类在宇宙中最大程度的繁荣赋能。我们不希望未来是一个不合格的乌托邦,我们希望将好的方面最大化,将坏的方面最小化,让AGI成为人类的放大器。
我们希望AGI的好处、访问权和治理得到广泛和公平的分享。
我们希望能够成功地应对那些巨大的风险。在面对这些风险时,我们承认,理论上看似正确的事情,在实践中往往比预期更奇怪。我们认为,我们必须通过部署功能较差的版本来不断学习和适应,最大程度地减少指望获得“一次性成功”(one shot to get it right)的情况。
短期来看
为了迎接AGI,我们认为现在有几件事非常重要。
第一,随着我们不断创建更强大的系统,我们希望部署它们,并获得在真实世界中操作它们的经验。我们相信这是谨慎导入和管理AGI的最佳方式——逐渐过渡到AGI世界比急速过渡要好。我们期望强大的AI能够加速世界的进步,但我们认为一个逐步适应的过程更好。
渐进的过渡,让民众、政策制定者和机构有时间了解正在发生的事情,亲身体验系统的好处和缺点,让经济做出相应的调整,并实施监管。它还允许社会和AI共同进化,并允许大家在风险相对较低的情况下弄清楚自己想要什么。
目前,我们认为,成功应对AI部署挑战的最佳方法,是采用快速学习和谨慎迭代的紧密反馈循环。社会将面临一些重大问题,包括AI系统被允许做什么、如何应对偏见、如何处理工作岗位流失等。最佳决策将取决于所采用的技术路径。与任何新领域一样,目前为止大多数专家预测都是错误的。在真空中做规划非常困难。
总体来说,我们认为世界更多地使用AI会带来好处,我们希望推广它(通过将模型放入API,将它们开源等)。我们相信,民主化的访问权也会带来更多和更好的研究、分散的权力、更多的益处,以及更多的人会贡献新的想法。
随着我们的系统越来越接近AGI,我们对模型的创建和部署变得越来越谨慎。相较于社会通常对新技术应用的态度,以及许多用户的希望,我们的决定更加谨慎。AI领域的一些人认为AGI(和后继系统)的风险是虚构的。如果结果证明他们是对的,我们会很高兴,但我们会把风险当作真实的存在。
在某些时候,利弊之间的平衡可能会发生变化。比如,在发生授权恶意行为者、造成社会和经济破坏以及加速不安全的竞赛的情况下,我们将实质性地改变我们的部署计划。
其次,我们正在创建更加一致和可控的模型。一个早期的例子是我们从GPT-3的第一个版本到InstructGPT和ChatGPT的转变。
我们认为重要的是,社会就使用AI的极其广泛的边界达成共识,在这些边界内,个人用户有很大的自由裁量权。我们最终的希望是全世界的机构就这些广泛的边界应该在哪里达成一致。但在短期内,我们计划对外部输入进行实验。世界上的机构需要加强其能力和经验,以便为有关AGI的复杂决策做好准备。
我们产品的“默认设置”(default setting)可能会相当克制,但我们计划让用户能够轻松地更改他们正在使用的AI的行为。让每个人自己做决定,观念多样性有巨大的内在力量,这两点是我们的信仰。
随着我们的模型日益强大,我们需要开发新的对齐技术(alignment technology)。我们的短期计划是使用AI来帮助人类评估更复杂的模型的输出,并监控复杂系统。从长远看,使用AI来帮助我们提出新的想法,以实现更好的对齐技术。
重要的是,我们认为经常需要在AI安全和能力两方面共同进步。将它们分开讨论是错误的二分法,因为在很多方面它们是相关的。我们最好的安全工作来自与我们最有能力的模型一起工作。换句话说,提高安全与能力进步的比率很重要。
第三,我们希望就三个关键问题开展全球对话:如何治理这些系统,如何公平分配它们产生的收益,以及如何公平共享访问权限。
除此之外,我们还尝试以一种让我们的激励与良好结果保持一致的方式来建立我们的架构。我们的章程中有一个条款是关于协助其它组织提高安全性,而不是在后期AGI开发中与他们竞争。我们对股东获得的回报设定了上限,这样我们就不会冒险和无节制地获取价值。我们有一个非营利组织来管理我们自己,让我们为人类的利益而经营(并且可以凌驾于任何营利利益之上),包括让我们做一些事情,比如在安全需要的情况下,取消我们对股东的股权义务,并资助世界上最全面的UBI(Universal Basic Income,普遍基本收入)实验。
我们试图完善我们的架构,以便让激励措施与良好结果保持一致。
我们认为在发布新系统之前提交独立审计是很重要的。我们将在今年晚些时候更详细地讨论这个问题。在某些情况下,在开始训练未来系统之前获得独立审查可能很重要,最终,同意限制用于创建新模型的计算能力的增长率。我们认为一些关于AGI的公共标准很重要,包括何时应停止训练、确定模型可以安全发布,或从生产使用中撤出模型。最后,我们认为重要的是世界主要国家的政府对超过一定规模的训练有洞察力。
长远来看
我们认为人类的未来应该由人类自己来决定,而且与公众分享进展的信息非常重要。所有试图建立AGI的努力都应该接受严格的审查,重大决策需要进行公众咨询。
第一个AGI将只是智能连续体上的一个点。我们认为进展很可能会从那里继续下去,可能会在很长一段时间内保持我们在过去十年中看到的进展速度。如果这是真的,世界可能会变得与今天截然不同,风险可能会非常大。一个错位的超级智能AGI可能会对世界造成严重的伤害;一个拥有超级智能的不好的政体也会导致这种情况发生。
有足够能力加速自身进步的AGI,可能会导致重大的变化以惊人的速度出现(即使过渡开始缓慢,我们预计它在最后阶段也会很快发生)。我们认为慢慢起飞,安全更容易得到保证。而且,在关键时刻如何协调让AGI各方共同减速可能很重要(即使在不需要这样做来解决技术对齐问题的世界中,也要给社会足够的时间来适应)。
成功过渡到一个拥有超级智能的世界可能是人类历史上最重要、最有希望、最可怕的项目。距离成功还很遥远,但赌注之大(好处和坏处都是无限的)有望让我们所有人团结起来。
我们可能进入一个繁荣程度无法想象的世界。我们希望为世界贡献一个与这种繁荣相一致的通用人工智能。
原文:https://openai.com/blog/planning-for-agi-and-beyond/