当前位置:首页|资讯|OpenAI

OpenAI CEO最新分享:过去我们生活在一个相当静态的世界,但这将发生巨大变化

作者:Tech商业发布时间:2023-06-24

生成式人工智能技术可能是历史上最大的技术革命,而此类技术的领导者可能是世界上最有权势的人之一。这位领导者、OpenAI 首席执行官山姆阿尔特曼 (Sam Altman)本周四上午在旧金山科技峰会上发表了讲话,并带来了他特有的认识:

在人类生存威胁与AI技术的关系上,Sam Altman表示,我们正处于一条技术指数曲线上,但现在的节点,在人类进化史上并不那么重要。“过去几十年来,我们生活在一个相当静态的世界”,“这将会发生巨大的变化。”

人们基于AI技术风险要求停止开发,但Sam Altman称,AI技术的好处是巨大的,地球上的每个人都有机会获得比今天任何人都更好的优质教育、医疗保健,这将是变革性的。 他认为 “这将是人类在技术方面,必须迈出的最重要的一步”

 

对于不持有OpenAI股权,Altman表示,尽管“拥有足够的钱这个概念,并不是一个容易被人们接受的想法”。但他仍然认为对比起钱,他现在更想要的是,有趣的生活,影响力。他从OpenAI事务中得到了“很多自私的好处”。

Altman在峰会中还提到在AI技术发展上,“人们不应该信任他”。因为他认为这项技术本身以及它的好处、它的获取、它的治理属于全人类。“你不应该信任一家公司,当然也不应该信任一个人。”

以下是Sam Altman在峰会上最受关注的观点:

1、关于未来人工智能带来的生存威胁:

人工智能技术将导致人类生存和劳工就业风险的问题多次被提上热议。Sam Altman认为,“我们正处于一条指数曲线上,而且是一条相对陡峭的曲线,人类对指数曲线的直觉非常糟糕。总的来说,这(现在的节点)在我们的进化史上显然并不那么重要。因此,考虑到我们都有这个弱点(无法直接感知所处的历史节点),我认为我们必须真正说服自己说,GPT-4 并不像你所说的那样存在风险,但我们对 GPT-9 有多大把握?不会吗?如果可能的话,即使情况很糟糕的可能性很小,也值得关注。”

针对短期内人们已经发出的担忧——人们担心新工具对他们自己的工作可能意味着什么。最近的一项调查发现,36% 的员工担心人工智能会取代他们的工作。

Sam Altman 淡化了该技术取代工作岗位的潜力,并表示该技术反而会给人类带来“更高的期望”。

Sam Altman乐观认为“当你为人们提供更好的工具时,他们就会在更高的水平上运作,” “对我们所有人的期望都会提高,人们做事的能力也将会提高,我们将把我们的工作变成‘谁知道什么’——有些工作将完全消失,当然也会有一些全新的工作”。

“我很难想象一个没有人类医生的世界,但即使作为一名医生的日常经历是完全不同的。”

过去几十年来,我们生活在一个相当静态的世界,”他说。“我认为这将会发生巨大的变化。

“能够在这样的世界中蓬勃发展,以及如何保持灵活性、学习以及快速适应新事物——这可能是最重要的技能之一。

2、为什么不应该停止开发这种有潜在危险的技术:

在已知存在风险的前提下,为什么不停止继续开发?Sam Altman表示,“我认为这里(AI技术)的好处是巨大的,你知道地球上的每个人都有机会获得比今天任何人都更好的优质教育、医疗保健,并使其真正在全球范围内提供。这将是变革性的。我们将看到的科学进步——我坚信,生活质量的真正可持续改善来自科学技术进步。我认为结束贫困是件好事。也许你认为阻止一项可以做到这一点的技术是件好事;我个人不这么认为。”

 “我认为这将是人类在技术方面,必须迈出的最重要的一步”, “我真的很关心这一点。”

当被问及人工智能的潜在监管环境时,奥尔特曼表示,人们对人工智能技术可能变得危险的观点非常感兴趣。他说:“我们在世界各地进行了很多对话,讨论国际机构(由于缺乏更好的词)应该如何管理超级智能。”

“我们如何拥有许可框架;我们如何在训练期间、训练后以及部署之前进行测试,以确保没有人会意外地做出一些非常糟糕的事情。”Sam Altman此前在美国国会听证会上表示,他希望人工智能开发获得许可。近几个月来,Altman还经常出现在各国媒体的头条上,与世界各地的官员谈论人工智能问题。

上个月,Sam Altman签署了一份简短声明,其中包括 350 多名高管和研究人员的支持,称“减轻人工智能带来的灭绝风险,应该与流行病和核战争等其他社会规模风险一起成为全球优先事项。”

尽管技术领导者发出了可怕的警告,但一些人工智能研究人员认为,人工智能还不够先进,不足以证明人工智能会毁灭人类的担忧,而且关注世界末日场景只会分散人们对算法偏见、种族主义等风险的注意力。

3、关于被责指责“呼吁监管”只是为了保护OpenAI当前的领导地位:

Sam Altman称,“我们不认为低于某个非常高能力阈值的小型初创公司和开源模型应该受到大量监管。我们已经看到了试图过度监管科技的国家所面临的后果。我认为这不是我们想要的。”

“你可以指出,我们正试图在这里进行监管捕获或其他什么,但我只是认为这是一种理智上不诚实的回应。”

“我认为人们训练的模型远远超出了我们今天拥有的任何模型规模,但如果超出了某些能力阈值,我认为应该需要通过一个认证过程。我认为应该进行外部审核和安全测试。就像我们关心安全的许多其他行业一样,我们也这样做。”

4、关于与中国合作制定人工智能发展的安全规则:

在与中国制定安全规则合作方面,Sam Altman表示出信心,他认为合作是可能发生的。“我认为美国经常说的这句话,就像‘与中国合作是不可能的,这完全不可能’被断言为事实,人们试图让它成为现实;但我不清楚这是真的。我怀疑不是这样的。”

5、关于OpenAI模型中的偏见:

OpenAI的GPT模型产品中,人们发现输出的结果可能存在偏见。Sam Altman称,“最近的一项研究表明,发布的模型 GPT-4 在隐性偏差测试中的偏差比人类要小,甚至是那些自认为已经真正训练过自己擅长此方面的人。如果你看看不同模型的进展,甚至我们的一些最大的批评者也会说,他们从(其他)模型中得到了很多偏见。我认为这样(多种)的模型可以成为减少世界偏见的力量,而不是增强偏见。”

6、关于没有持有OpenAI股权,以及他自己的个人动机:

我学到的一个教训是,拥有足够的钱这个概念并不是一个容易被人们接受的想法。我有足够的钱。我更想要的是,有趣的生活,影响力;比如,可以参与对话。所以我仍然从中得到了很多自私的好处。比如,我还能用我的时间做什么?这真的很棒。我无法想象还有比现在更有趣的生活,也无法想象比这更有趣的工作了。”

Sam Altman 表示的是,他在 OpenAI 中不持股权并没有让他感到困扰。他不需要当下估值高达270 亿美元的OpenAI股权,因为他已经拥有“足够的钱”,但这位38岁的技术人员承认,成为世界非官方人工智能领军人物还有很多其他好处——这些“自私”好处给他带来激励。

Sam Altman称,OpenAI 在一个非营利组织的治理下运营,他是该组织的董事会成员。为了保持董事会对公司的多数独立性,Altman 最初选择不持有 OpenAI 任何股份。Altman 此前曾担任 Y Combinator 的首席执行官,Y Combinator 是一家硅谷初创公司“加速器”,旗下支持的公司目前价值数十亿美元,包括爱彼迎、Stripe等。 

今年上半年以来,Sam Altman一直在进行世界各地出行,从特拉维夫、迪拜到华盛顿特区,会见立法者并讨论人工智能的危险和好处。事实上,本周四的科技会议当天晚上Sam Altman就有“非常重要的事情”——与印度总理纳伦德拉·莫迪在白宫共进晚餐。

值得注意的是,Altman 否认 OpenAI 存在任何经济利益的言论,并不意味着 OpenAI 将停止追求商业机会或产生收入。OpenAI近月已经开放升级订阅付费版本的GPT技术服务。

 7、关于世界是否应该信任Sam Altman:

“世界是否应该相信Sam Altman”,这是一个看起来有些奇怪的问题,但Sam Altman确实回答了否定的答案。Sam Altman称,“你不应该。这里没有人值得信任。我没有超级投票权股份。董事会可以解雇我。我认为这很重要。我们]认为这项技术、它的好处、它的获取、它的治理属于全人类。如果这真的有效,那么它就像是一项非常强大的技术,你不应该信任一家公司,当然也不应该信任一个人。”

本文来自微信公众号“Tech商业”(ID:InnoBusiness),作者:Tech商业,36氪经授权发布。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1