出品 | 搜狐科技
编辑 | 梁昌均
当地时间1月11日,微软创始人比尔·盖茨在个人博客上传了和OpenAI CEO 山姆·奥特曼的访谈,这场访谈发生在奥特曼去年11月底被董事会解雇风波前。
“在我录制完这一集后不久,山姆被解除了OpenAI CEO的职务,我一时感到不可思议,随后在几乎获得所有OpenAI员工的支持下,山姆回来了。”盖茨在访谈发布前还联系了奥特曼,询问他的现状。
奥特曼则表示,OpenAI团队从未像现在这样富有成效、乐观,这是真正成长的时刻,并成为一家准备好迎接挑战的公司。随后这场半个多小时的对话中,两人谈到了人工智能发展、趋势和监管等问题。
多模态、推理和个性化是趋势,成本正在快速下降
盖茨表示,最初对OpenAI快速发展充满疑问,称没想到ChatGPT变得这么好,并不理解背后的逻辑。
奥特曼认为,目前在AI可解释性方面和人脑类似,随着时间的推移会有更多进展,从而能够理解人工神经网络。“目前的理解程度很低,它们规模很大。”
盖茨判断,未来五年内将弄明白这些问题,就AI训练效率和准确性而言,这种理解会比现在做得更好。奥特曼对此也表示赞同,随着理解的加深,技术发展就会变得更好。
对于未来GPT模型的关键里程碑发展,奥特曼认为是多模态,从语音、到图像,再到视频,包括输入和输出。“我们已经推出了图像和音频,反响比我们预期的要好得多。”
不过,奥特曼表示,未来也许最重要的进步将是推理能力。他提到,目前GPT-4只能以极其有限的方式进行推理,可靠性也有待提升,人们总是希望每次提问都得到最佳的答案。
此外,可定制性和个性化也非常重要,人们想从GPT-4中得到很多不同的东西,比如不同的风格、不同的组合等。“我们会让一切成为可能。”奥特曼说。
双方还谈论了大模型的成本问题。奥特曼提到,GPT-3是OpenAI推出时间最长、优化时间最长的模型,在推出三年多时间里,已能够将成本降低40倍,GPT-4没有那么多时间,但会继续降低成本。
“我们正处于最快速的成本下降曲线上,比摩尔定律还要好。”奥特曼说,如果把智力成本降低到接近于零,将是推动社会转型的关键。他表示,智力成本、能源成本是两大限制因素,如果能同时推动这两方面成本降低,将会带来巨大变革。
AI是迄今最快的技术革命,将改变劳动力市场
对于AI和大模型所能带来的变革作用,盖茨表示人工智能可以提高生产力,帮助解决一些棘手的问题。比如给孩子们当家教,帮助激励他们,或者发现治疗阿尔茨海默症的药物,以及如何帮助减少战争,让人类和睦相处。
奥特曼表示,现在有可以完成任务的人工智能系统,它们可以做任务,最终将能够做更多今天认为是工作的事情,而我们也将找到新的工作和更好的工作。
他认为,如果给人们提供更强大的工具,不仅可以使得工作更好,还可以推动创造新的东西,去做更多复杂的事情,如让AI去创办或经营一家公司,或者去发现新的物理规律。
“在未来五年或十年内,AI将会迎来非常快速的发展曲线。”奥特曼认为,编码是他目前最感兴趣的一个能提高生产力的领域,医疗和教育也是感到非常兴奋的两个领域。
盖茨表达了对AI快速发展引起的担忧,它在很多领域都达到了人类的水平。“我想你和我确实有些担心,这是个好事,但它会迫使我们比以往任何时候都要更快地适应。”
“人类并不是没有超强的适应能力,过去的伟大技术革命中已看到了这一点。”奥特曼说,每一次技术革命越来越快,而这次将是迄今为止最快的一次。“这是我觉得有点可怕的地方,但这是社会必须适应的速度,劳动力市场将会发生变化。”
盖茨认为,现在ChatGPT已经能做白领的事情,如果未来机器人的手和脚达到人类水平,而且价格也不是贵得离谱,可能会迅速改变很多蓝领工人的就业市场。
奥特曼表示,对机器人的发展感到超级兴奋,但这首先需要智力和认知,然后才能弄清楚如何让它适应物理世界,从构建语言模型的方式开始更容易。他透露,OpenAI已经开始对机器人公司进行投资。
“几年前,我们认为AI将首先影响蓝领工作,其次是白领工作,因为创造力是人类的魔法,但现在完全是相反的趋势。”奥特曼解释称,对创造性的工作而言,GPT模型的幻觉不是错误,它会帮忙发现新的东西,但如果是要机器人,则要求非常精确。
未来会诞生超级强大的系统,需要全球共同监管
盖茨还提到了和奥特曼此前共同参加的美国议会举办的AI监管会议,认为现在对AI的认识存在两极分化,而且现在也无法确认如何到底监管AI。
奥特曼表示,AI这项技术将会影响社会、地缘政治力量平衡,以及很多事情。“AGI将是自己做过的最后一件艰难的事情,但我们将拥有比我们更聪明的系统,现在这是一条不可阻挡的技术路线。”
他乐观地认为,未来会诞生非常强大的系统,超过GPT-4模型10万或100万倍计算能力的系统,那就需要一个全球监管机构,关注这些超级强大的系统,因为它们确实具有全球影响力。
奥特曼提到,目前大模型已经出现很多问题,模型能生成什么、如何看待版权,不同的国家有不同的想法,并重申希望在AI领域成立类似国际原子能机构的全球监管机构。
盖茨则对这种强大的监管方式提出了疑问,认为全球在气候、恐怖主义等问题上都很难合作,让技术发展放缓也很难执行。
对此,奥特曼表示,放缓技术发展很困难,但对超过某种极高阈值的计算集群和模型接受国际武器核查人员的安全检查,在训练期间和部署之前通过一些测试,是可能的一种方式。
“以前我不太确定,但今年我在世界各地旅行,并与许多需要参与这项计划的国家元首进行了交谈,几乎得到了普遍支持。”奥特曼说,这不会解决所有问题,某些小系统仍然会出现问题,甚至可能会出现非常严重的错误,但这种方式可以帮助应对最大的风险。