从最初只有十来个人的小团队,到如今的 300 人;从起步拿到 10 亿美元启动资金,到创造了估值约为 300 亿美元的 AI 独角兽“神话”,OpenAI 用 GPT 系列、Whisper、DALL-E 2 不仅打开了 AIGC 的新大门,也让自己在 AI 领域站稳了脚步。
然而,正所谓树大招风,因为在 AI 法律法规、规范标准还不完善的情况下,技术先行引发了很多部门以及竞争者的关注。
5 月 16 日,OpenAI CEO Sam Altman、IBM 首席隐私与信任官 Christina Montgomery、纽约大学名誉教授 Gary Marcus 三人在美国参议院就各自公司与机构制造的人工智能技术存在的潜在危险进行作证,唇枪舌战。
好在与以往科技大佬站在听证会上“腥风血雨”的场景不同,Sam Altman 等人参加的这一场听证会竟意外地“和谐”,甚至 Sam Altman 反向敦促立法者早日对 AI 实现监管,为 OpenAI 的 GPT-4 等先进人工智能系统的组织实施许可要求和其他法规。
此外,Sam Altman 在准备的证词中也进一步解释了外界对于 OpenAI、AI 大模型的部分争议与潜在担忧,回应有关 AI 研发与立场的疑问。
OpenAI 是一个完全独立的公司,AGI 技术专利由非营利组织管理。
其实自 OpenAI 爆火以来,其一直处于风口浪尖,甚至此前马斯克曾直言怒批,「OpenAI 闭源且逐利由微软实际掌控」。
针对这一质疑,马斯克在证词中再次声明,创建于 2015 年的 OpenAl,旨在确保人工智能(AGl)惠及全人类。
Sam Altman 表示,OpenAl 内部有一个不同寻常的结构,以确保它始终专注于这一长期使命:
首先,OpenAI 结构中的主要实体是其非营利组织,它是一个 501(C)(3) 公益组织。
第二,OpenAI 的营利性业务受到利润上限的限制,并在一个由非营利组织完全控制的子公司之下。
第三,因为董事会是为非营利组织服务的,所以每个董事必须履行他们的受托责任,以促进其使命——安全 AGI 能够普惠众人。虽然营利性子公司被允许赚取和分配利润,但它必须服从这一使命,非营利组织的主要受益者是人类,而不是开放性投资者。
第四,董事会保持大多数人的独立性。独立董事不持有 OpenAl 的股权。
第五,投资者和员工的利润是由具有约束力的法律承诺所限定的。非营利组织为人类的利益保留所有的剩余价值。
Sam Altman 称,这种结构使 OpenAI 能够优先考虑安全和有益的 AI 开发,同时帮助其获得必要的资本来开发越来越强大的 AI 模型。
例如,在今年 1 月份,微软宣布对 OpenAl 进行多年、数十亿美元的投资,这是继 2019 年和 2021 年的投资之后的又一次投资。这项投资为 OpenAl 提供了必要的资本和先进的超级计算基础设施,以开发、测试和改进他们的技术。
微软是 OpenAl 的一个重要投资者,OpenAI 重视他们与自家公司的价值观和长期愿景的独特结合,包括微软对建立值得信赖和安全的 AI 系统和产品的共同承诺。
同时。OpenAl 仍然是一个完全独立的公司,由 OpenAl 非营利组织管理。微软在董事会中没有席位,也不控制 OpenAl。此外。AGl 的技术专利明确地保留给非营利组织来管理。
在证词中,Sam Altman 说道,“从根本上说,目前这一代的语言模型是大规模的统计预测机器--当模型得到一个人的请求时,它试图预测一个可能的反应。这些模型的操作类似于现代智能手机、电子邮件或文字处理软件的自动完成功能,但规模更大、更复杂。利用这一技术的变种,Al 工具也能够学习图像和文本描述之间的统计关系,然后根据自然语言输入生成新的图像。”
截至目前,OpenAI 已经发布了 GPT-2、GPT-3、ChatGPT、GPT-4、DALL-E 等多款产品。
与此同时,Sam Altman 在听证会上再次保证:未来六个月,OpenAI 没有训练 GPT-5 的计划。
只因为,先要暂缓进度,自愿改进可能存在的问题。
那么究竟存在什么问题?
根据 Sam Altman 的说法,在发布每个新版本的模型之前,OpenAl 都会进行广泛的测试,让外部专家参与反馈,利用人类反馈强化学习(RLHF)等技术改进模型的行为,并通过安全和检测系统检测。
以最新发布的 GPT-4 为例,OpenAI 在评估、测试和改进该系统环节累计花费了 6 个月的时间,最后才对外公开。
其中,OpenAI 走的每一步,都制定了缓解措施。譬如对用于训练模型的数据进行调整,即所谓的预训练阶段。在预训练阶段之后,OpenAI 塑造 GPT-4 行为的主要方法是让人们对模型的反应提供反馈,以帮助模型以更安全和更有用的方式作出反应。另外,模型也会尝试拒绝有害的请求,并在面对敏感请求时作出更适当的反应。当被要求生成不允许的内容(如官方的使用政策所定义的)时,GPT-4 有 99% 以上的时间拒绝这样做。
不过,Sam Altman 也坦言,「我们努力在部署前了解和预防风险。然而,我们无法预测技术的每一次都是有益使用、或潜在滥用。这在很大程度上是因为这些系统仍然是由人指挥的。」
事实上,人为 AI 模型带来了极大的不确定性。
因为这些潜在的问题,就在今年 3 月,非营利性的 "生命的未来研究所 "(Future of Life Institute)发出一封公开信,强烈呼吁:暂停训练比 GPT-4 更强大的系统,期限为六个月,理由是这些模型对社会和人类存在潜在风险。
该公开信指出,如果这种暂停不能迅速实施,政府应该介入并制定暂停令。
其中图灵奖得主 Yoshua Bengio、伯克利计算机科学教授 Stuart Russell、特斯拉 CEO 埃隆·马斯克等数千名 AI 专家公开支持了这一封信。
在这场听证会上,Altman 表示,迭代发布更好,因为 "去秘密建立一个超级强大的人工智能系统,然后把它一下子扔到世界上,我认为不会有好结果。"
"我们战略的很大一部分是在这些系统相对较弱和极不完善的时候,想办法让人们对它们有经验......并弄清楚我们需要做什么来使它更安全和更好," Altman 说道。
对此,参议院司法小组委员会主席 Richard Blumenthal 要求道,"应该要求人工智能公司测试他们的系统,披露已知的风险,并允许独立研究人员进入。"
他说:"在有些地方,人工智能的风险是如此之大,以至于我们应该施加限制,甚至禁止它们的使用,特别是当涉及到为营利而进行的商业侵犯隐私以及影响人们生活的决定时。"
当然,要说 Sam Altman 这一次能够在美国国会上应对自如,不仅仅是因为其「社牛」的社交风格,更是因为他做好了充足的准备。
“我们认为政府的监管干预对于减轻日益强大的模型的风险至关重要,”Altman 率先分享了他的想法。
其次,在点名要与政府机构合作之后,Sam Altman 迅速给出了三个合作方向:
首先,至关重要的是,AI 公司--特别是那些致力于最强大的模型的公司--要遵守一套适当的安全要求,包括在发布和公布评估结果之前进行内部和外部测试。为了确保这一点,美国政府应该考虑对开发和发布超过关键能力门槛的 AI 模型进行许可或注册要求,以及对完全遵守这些要求的公司进行奖励。
第二,AI 是一个复杂和快速发展的领域。AI 公司必须满足的安全要求必须有一个足够灵活的管理制度,以适应新的技术发展。美国政府应考虑促进多利益相关方的合作,广泛纳入专家和组织的意见,以制定和定期更新适当的安全标准、评估要求、披露做法以及需要许可或注册的 AI 系统的外部验证机制。
第三,OpenAI 并不是在独自开发这项技术。政策制定者必须考虑如何在全球范围内实施许可条例,并确保在 AI 安全方面的国际合作,包括审查潜在的政府间监督机制和标准制定。
最后,Altman 表示,“现在是从事 Al 技术工作的一个重要时期。六个月前,没有人听说过 ChatGPT。现在,ChatGPT 是一个家喻户晓的名字,人们正从它那里获得重要的好处。我们也明白,人们理所当然地对 Al 技术感到焦虑。我们非常认真地对待这项技术的风险,并将在未来继续这样做。我们相信,政府和行业能够共同管理风险,以便我们都能享受巨大的潜力。”
Altman 的立场无疑也表明,AI 大模型不能由某个企业、组织来主导,而是要有合规的标准加以束缚,当然,这也是国内外 AI 发展都需要的。
参考:
https://www.judiciary.senate.gov/imo/media/doc/2023-05-16%20-%20Bio%20&%20Testimony%20-%20Altman.pdf
https://arstechnica.com/tech-policy/2023/05/ai-technology-can-go-quite-wrong-openai-ceo-tells-senate/
本文来自微信公众号“CSDN”(ID:CSDNnews),整理:屠敏,36氪经授权发布。