“我们自己有点害怕ChatGPT,但人们应该很高兴看到这一点。”
围绕ChatGPT风险和人工智能将如何重塑社会,OpenAI首席执行官Sam Altman和首席技术官Mira Murati近日接受美国ABC新闻采访。
在采访中,主持人的提问算得上“尖锐”:为什么在你们能够确保安全之前就公布ChatGPT、它可能带来的最坏结果有哪些、AI的出现是否会让百万人失业,甚至涉及Sam和马斯克之间的关系等等问题。Sam的回答帮助我们窥探这家开发出即将带来生产力技术革命的公司,是如何看待自己产品的。
我们对这段访谈中的重要问题进行了节选:
01
对话CEO Sam Altman
Q
ChatGPT的发布既令人兴奋又恐惧。一方面它有强大的能力,但另一方面有巨大的未知以及可能产生不好的影响,你怎么看?
Sam
我们必须时刻保持谨慎,我认为这件事不是在实验室内能够完成的,而是要把这些产品放到社会中去使用,与现实世界进行接触,在风险很小的时候犯错误,收集这些错误信息,并在未来的系统中进行改进,这在OpenAI中形成了一个紧密的反馈循环,让我们能够避免AI技术导致一些非常恶劣的后果。其实我们是有点害怕AI技术的,但总体来看,我认为人们反而应该为我们已经产生的微小恐惧而感到高兴。
Q
你是指你个人产生了微小的恐惧?
Sam
如果我否定,你不会相信,也不会信任我从事这份工作。
Q
AI技术可能导致的最坏的结果是什么?
Sam
其实有非常多可能的结果,这其中我最大担心的是用于制造大规模虚假信息、编写网络病毒,我们试图讨论解决这个问题。
Q
为什么在还不确认安全的时候,就公布了ChatGPT?
Sam
这是人类迄今为止开发的最伟大的技术。我们每个人都可以拥有一个量身定制的老师,帮助我们学习、帮助我们做事情、提供给我们关于医疗的建议。我们可以用AI来解决全新的问题。我们可以和AI一起合作创造美妙的事物。
但巨大的潜力同样带来潜在不利因素,人们还需要时间适应这项技术,去了解它的风险。如果我们只在小实验室秘密开发,在没有接触真实世界的情况下,直接把ChatGPT问世,只会产生更多的风险。
Q
是否有一个开关可以立即终止这个系统?
Sam
是的。我们可以立刻禁用它。
*有网友开玩笑称,Sam Altman总是带着这个“核背包”,如果GPT失控,Sam可以用它远程引爆数据中心。
Sam Altman总是带着这个“核背包”
Q
人们不应该用它做什么?
Sam
我要提醒的一点是关于“幻觉”。ChatGPT能够自信地陈述观点,你使用得越多,就会越信赖它,而不是把它当作一个语言模型,去检验它提供的答案。
Q
如果模型中有一堆错误的信息,不就会生产出更多错误的信息?
Sam
这是个很棒的问题。我认为正确的方式是去创建一个推理引擎,而不是事实数据库。模型可以充当事实数据库,但这不是他们真正的用武之地。我们训练模型去接近更加理性的事物,而不是引用。
Q
AI的出现会让百万人失业?
Sam
事实证明,我们推动的这项技术,朝向成为人类工具的方向发展。成为人类的放大器。
人们使用ChatGPT有一个使用曲线,一开始是怀疑,逐渐熟悉后开始感到害怕,再使用,然后帮助我们更好地完成工作。人类历史上每一次技术进化都会带来工作机会的消失,我们能从中得到你这个问题的答案。人类对新事物的需求和对创造力的渴求是无限的,这些需求会产生新的工作机会。我们会发现新的事情、新的岗位。我们当然不知道未来是什么,但一定会有各种奇妙的事物出现。
所以,变化不是我担心的。我最担心的是变化的速度。
Q
你们如何决定哪些事情放进OpenAI中,哪些不应该有?
Sam
我们有政策小组、安全小组,并与世界上的其他团体保持交流。GPT4完成得很早,大概是7个月之前,这期间内部始终在与外界沟通和交流。
Q
马斯克是早期投资者,但已经离开。他提出我们需要“真实的 GPT”,他说得对吗?
Sam
我认为他说的是对的,我们希望AI能提供真实的内容。但我没看到他完整的话语,我不知道他想表达的意思。
Q
你和马斯克还说话吗?
Sam
是的。我非常尊重他,但我们对AI有不同的意见,在本质问题上,我们的分歧大过一致。
02
对话CTO Mira Murati
Murati于1988年出生于阿尔巴尼亚。2011 年在高盛实习,在加入 OpenAI之前,她在特斯拉工作了三年。随后,她于 2018 年加入 OpenAI,后来成为首席技术官,负责监督 ChatGPT,同时,她也是人工智能监管的倡导者之一。
Q
作为ChatGPT的最主要构建人之一,你最担心的安全问题是什么?
Mira
这是一项非常通用的技术,每当你拥有如此通用的东西时,是很难预先知道所有功能、潜在影响、局限性等等。
Q
有人能够引导这个系统产生负面的结果吗?
Mira
答案是肯定的,人们可以引导AI产生负面结果,但同时这也是我们放出这项技术的原因,我们需要从用户使用的反馈中学习怎样规避这些负面结果。比如在GPT-4中问如何制造一枚炸弹,那么相较于上一个版本,GPT-4更有可能拒绝回答这个问题。
Q
随着时间推移,AI会更像人类吗?
Mira
我们到了一个奇点,AI已经能够进行大量认知,以及替代人类在某一些领域的工作。
Q
你和你的团队作出一些选择,如何确定哪些是对的,哪些是错的?
Mira
随着我们取得技术上的进展,这些选择和决策变得更加困难和微妙。我们试图让用户可以用一种自定义、个性化的方式使用,为用户提供灵活性和选择,让AI符合用户个人的价值观和信仰,这非常重要,我们在努力。
Q
换句话说,未来每一个人都可以拥有一个为自己量身定制的AI?
Mira
是的。为了安全,我们正在建立一些宽泛的边界,在边界之内,人们有很多选择,让AI代表自己的信念和价值观。
Q
我们如何考虑负面后果?
Mira
我们正在打造一个非常强有力的系统,这一定会产生潜在的风险,但我们也在尽力提前预测和预防这些风险。这是OpenAI这家公司为什么存在,以及这是我们努力的目标。
通过这次访谈我们发现,OpenAI对ChatGPT的诞生和发展抱着相当理性和克制的态度,但这并不能打消人们对AI技术的担忧。AI技术可能带来人类史上最大规模的技术革命,提高生产效率,变革生产方式,但和其他生产力革命一样,这也会导致大规模失业和其他潜在风险,且我们很难预测。如何利用AI新技术的同时,将其危害降到最低,这将是未来相当长时间内恒久的话题。
ChatGPT 问答
问
怎么预测AI技术为人类社会带来的潜在风险?
答
ChatGPT:AI 技术为人类社会带来的潜在风险包括但不限于以下几点:
人工智能失控:AI 系统可能变得无法控制,甚至产生对人类的威胁。这可能会导致自我复制、自我进化,甚至超出人类的控制能力。
数据隐私泄露:AI 系统需要大量的数据才能进行学习和决策,但这些数据往往包含个人隐私信息。如果这些数据被恶意使用,就可能导致隐私泄露和身份盗窃等问题。
人类工作被替代:AI 技术的进步可能会导致大规模的人类工作被机器取代,进而导致失业和社会不稳定。
人工智能歧视:由于 AI 系统的决策依赖于训练数据,如果数据包含偏见或歧视性,AI 系统就可能对某些群体或个人做出不公正的决策。
恶意攻击:AI 系统可能被恶意攻击或利用,例如攻击能源系统、金融系统、交通系统等,造成社会和经济崩溃。
预测 AI 技术带来的潜在风险需要综合考虑多种因素,如技术的发展方向、应用场景、政策和法律环境、社会文化等。对于潜在的风险,我们需要采取适当的预防和管理措施,例如制定合适的法律法规、建立监管机制、推进技术安全性的研究等。同时,我们也需要加强公众的理解和参与,以确保 AI 技术的发展符合人类的利益和价值观。
作者:鹤山 排版:骆伟玲
图片源于Q仔互联网冲浪所得,若有侵权,后台联系,Q仔滑跪删除~