【导读】前段时间,OpenAI CEO Sam Altman和CTO Mira Murati在WSJ的专访里,探讨了AGI、未来GPT的发展、以及AI对人类的影响。
在2023年《华尔街日报》(WSJ)的科技新闻发布会上,OpenAI的首席执行官Sam Altman和首席技术官Mira Murati讨论了人工通用智能(AGI)、未来GPT模型的发展,以及人工智能对人类的影响。
而九年前,Sam Altman在《华尔街日报》会议上表示人工智能导致人类失业,是个不需要太担心的很久以后才会发生的事。
不到十年时间,Altman和他共同创立的公司OpenAI发布了名为ChatGPT的人工智能聊天机器人。
它能够撰写电子邮件、商业计划、甚至是代码,而这在九年前是难以想象的。
在讨论当下人工智能对人类社会带来的冲击和影响时,Altman仍然乐观,但比九年前更加慎重。
AGI,这个概念从诞生起,就被人们赋予了无限美好的想象。
Altman同样如此,他认为AGI会是人类有史以来最杰出的造物。
有了这个伟大的工具,人类就能够解决现今世界上的各种问题,并为人类自己、彼此和世界创造出难以想象的新鲜事物。
那时候,人类会有更具创意的自我表现手段。但Altman肯定,这些变化将为人类带来巨大的好处。
「再过九年,华尔街日报邀请我时,你们可能会提问:那时候我们为什么会认为人类不想要AGI到来呢?」
那么AGI将会在什么时候出现?人们又要如何分辨AGI的到来?
Altman将AGI定义为我们还没有的东西。十年前,人们可能会觉得像GPT-4或GPT-5就是AGI。
但现在,GPT-4只是被人们看作为一个还不错的「小聊天机器人」。
人们对AGI的基准门槛要求变得越来越高,这要求人们对人工智能付出的努力也越来越多。
Altman表示,「人类现在已经足够接近AGI的阈值,提升AI的能力变得不那么重要。我们当前面临的问题是如何定义AGI。」
OpenAI自成立后已发布了多个版本的GPT,每个版本都比上一个更强大。
今年3月,OpenAI发布了最新的模型——GPT-4。但关于OpenAI的下一个模型,人们依旧充满了期待:GPT-5是否正在研发?
面对这个问题,OpenAI的CTO Mira Murati的回答是,「我们还没到这一步」。
但她也表示,OpenAI一直致力于下一件事,如减少模型幻觉:未来发布的GPT-5将致力于解决现在困扰模型的幻觉问题。
Mira表示,虽然GPT-4已经在幻觉问题上取得了很大的进展,但离完全解决幻觉问题还有一段距离。
但OpenAI一直沿着解决问题的正确的轨道:人类反馈强化学习(RLHF),让模型输出真正可靠的内容。
并且,OpenAI还通过整合多种技术来减少模型幻觉问题,如为模型增加检查和搜索的能力,为模型提供更多的事实数据,以保证用户能够从模型中获得更多的事实输出。
但对OpenAI来说,版权一直是个争议。
不仅是用来训练模型的数据、模型生成的内容也常常涉及到版权保护问题。
多个出版商、以及作家都对OpenAI的侵权行为多有抗议。
而Altman从另一个角度讨论了数据使用以及数据所有权问题。
在未来,OpenAI的新模型将成为每个人都能使用的基础设施,这意味着思考数据所有权和经济流动的方式都会发生改变。
现在,OpenAI正在努力与不同的数据版权所有者建立合作关系,但随着模型的智能和能力变得越来越强,未来训练模型所需的数据也会变得越来越少。
但当前的模型,在训练时仍然需要尽可能多的人类所生产的每个数据。不过,Altman表示这不会是模型未来长期发展的路径,因为未来真正重要的是有价值的数据。
随着OpenAI在技术上的进步,关于数据和所有权的讨论将会发生转变。
首先是人类与AI的关系问题。
9月25日,OpenAI为GPT-4加入了更多的个性化功能。现在,ChatGPT可以看、听和说话。
新增的GPT-4的语音功能相当人性化,与人的交流十分自然。
可以预见的是,无处不在的AI即将成为人类生活的现实。
未来,我们无法避免与人工智能的交互,而这带来了一个问题:人类应该如何对待自己与人工智能的关系。
而训练模型的OpenAI以及其他公司,在某种程度上能够控制与人们缔结起关系的人工智能。
这将是一个令人不安的未来,这些人工智能很可能会成为人类的朋友、甚至是伴侣。
但Altman明确表示,自己不希望人们与人工智能建立起超出人类朋友的亲密关系:人工智能与人类不同,也许这些系统充满了个性,但这与人性无关。
因此,与人工智能交流时,要和人类交流有所区别。
「我们之所以将模型命名为ChatGPT而不是一个人的名字,是为了让用户明确和自己交流的是一个人工智能,而不是真正的人类。」Altman强调了这点。
但就像人们拥有有很多不同的关系那样,人也会与人工智能建立起特别的关系。但最终,人们会意识到人工智能与人类是不同的,但我们与其建立起的关系不会因此而破裂。
另一方面,AI的迅速发展也让人们担心其带来的不可控风险:利用这些系统进行犯罪以及对就业市场的冲击。
如命令AI入侵计算机系统或设计生化武器等。
这并非是遥不可及的未来,从生成式AI潮爆发后,利用AI进行诈骗和网络攻击的行为已屡见不鲜。
但Altman认为,在技术发展的过程中,这些负面的影响是不可避免的。
我们要去解决的是技术带来的风险,而不是放弃发展。后者对人类来说,仍然是一种道德上的失败。
而在人类历史上,几乎每一次技术革命都会深刻地影响就业市场,或是发生彻底的颠覆或是一半的工作岗位都会消失。
但事实上,旧的工作消失后,新的工作就会诞生。这正彰显了人类的进步,问题在于我们的社会适应变化的速度。
在两代人、最多三代人的时间内,人类就可以适应几乎任何程度的就业市场变化。
也许会有人不愿意、不喜欢改变自己的工作,但工作的性质是会变化的。
对一个狩猎采集的原始部落里的人来说,在电脑前敲敲字也不可能是真正的工作。
「工作仅仅是人类试图用一些愚蠢的地位游戏来娱乐自己。」Altman说道。
真正的挑战是应对就业市场革新的过渡。
社会需要采取行动来确保人们在这个过渡中不会受到伤害,仅仅提供普遍基本收入是不够的,人们需要拥有主动权和影响力,参与对未来的建设。
这也是OpenAI为什么如此坚决地推广ChatGPT的原因。
虽然不是每个人都能够使用人工智能技术,但随着越来越多人的参与,人们将有机会思考并划定未来发展的方向。
这是我们最应重视的事。
参考资料:
https://www.youtube.com/watch?v=byYlC2cagLw
本文来自微信公众号“新智元”(ID:AI_era),编辑:Lumina,36氪经授权发布。
美女拒绝emo芽2 2024-12-19
凯立德生物 2024-12-19
DiskGenius数据恢复 2024-12-19
开疆聊工控 2024-12-19