文|猎云网 邵延港
历史上常有许多伟大发明的缔造者,晚年时感慨悔创事业,如罗伯特.奥本海默和爱因斯坦后悔制造原子弹,塑料袋发明者马克斯·舒施尼最终自杀,AK47的发明人卡拉什尼科夫后半生都在自责中度过…
因为科学是把双刃剑,当代依然有科学家为自己所创造的事物陷入矛盾中。
近半年里,人工智能时刻能蹿升为社会焦点,关于AI两面性的讨论正在持续。作为与杨立昆、约书亚·本吉奥三人并称为人工智能领域三位奠基人之一的“AI教父”杰弗里·辛顿(Geoffrey Hinton),业界也在期待他的看法。
但是,在美国当地时间5月1日,这位75岁的图灵奖得主却突然宣布从谷歌离职。辛顿从谷歌离职也引起极大反响。对于离职的原因,辛顿发推文称,他离开谷歌是为了可以公开地谈论人工智能的危险。此外,辛顿也表示,对自己的毕生工作,感到非常后悔。AI教父为宣传AI的危险不惜离职,也引起了外界诸多看法,但也表明了辛顿此时对AI的态度。
入职谷歌十年,深度学习泰斗离职
据悉,辛顿的离职消息是由纽约时报的采访文章中爆料出来的。报道称,辛顿已经在4月份提出了辞职,并于周四直接与谷歌CEO进行了交谈。
对于谷歌来说,辛顿的地位极为重要。辛顿从事脑神经研究三十余年,在深度学习领域有极高的成就。
2012年,还同时担任多伦多大学教授身份的辛顿,和自己的两名研究生在加拿大创立了一家专注于语音和图像识别技术的研究公司DNNresearch。第二年,谷歌就宣布收购这家只有三人的初创公司。辛顿也是从彼时起开始为谷歌“大脑”神经网络项目工作。
辛顿在谷歌任职至今已有十年,年龄也到了75岁。此外,在2019年3月,辛顿同其他两位人工智能奠基人一同获得了美国计算机协会颁发的“图灵奖”。
在科技巨头的人工智能布局中,辛顿为谷歌的AI发展做出了很大贡献,基于他的专业领域,让谷歌的图像识别和安卓系统音频识别能力大幅提升。当前,在AI领域的竞争格局中,凭借OpenAI和ChatGPT,微软的影响力已经远远超过谷歌。
此时辛顿离职,对于谷歌来说无异于巨大损失。
在离职消息曝出当天,辛顿在社交平台发文称:“在今天的《纽约时报》上,凯德·梅茨暗示我离开谷歌是为了批评谷歌。实际上,我离开是为了谈论人工智能的危险,而无需考虑这对谷歌有何影响,谷歌的行为非常负责任。”此外,辛顿还表示离职也有年龄的原因,他说:“我 75 岁了,是时候退休了。”
根据辛顿的表述,其离职是为了谈论人工智能的危险。辛顿被称为AI教父,推动了计算机深度学习的实用性先河。在外界看来,辛顿的离职属实突然,因此也有人劝说其可以坚持留下来,继续促进生成式AI的安全发展,但目前辛顿在谷歌已经是离职状态。
“AI教父”陷入AI恐慌?
据了解,辛顿出身于“科学世家”,其家族多数成员都有学术背景,他的高祖父因“布尔检索”闻名于世,叔叔是一名经济学家,完善了GDP的概念,父亲是一位昆虫学家,母亲是一位教师。因此,辛顿会对深层次的科学研究有兴趣。
辛顿一直致力于理解大脑神经元,开创了一种通过分析数据来学习技能的数学系统,即神经网络。如今“神经网络”被视为人工智能技术的基础技术,在过去的30多年里,他研究了使用神经网络进行机器学习、记忆、感知和符号处理的方法,发表了超过200篇论文以及数十件专利申请,在全球人工智能领域被广泛认可。
据相关信息,辛顿对神经网络如此着迷的原因,源自20世纪60年代,他高中时期的朋友告诉他,人脑的工作原理就像全息图一样,需要大量记录入射光被物体多次反射的结果,然后将这些信息存储进一个庞大的数据库中。1973年,辛顿在多个领域进行尝试后,转到英国爱丁堡大学攻读人工智能专业,继续他的神经网络的探索和研究,并于1978年获得人工智能博士学位。
后来,辛顿来到卡内基梅隆大学致力于深层次人工智能的研究,但不久后,辛顿发现自己的研究资金都来自美国国防部,自己的研究成果最终可能被应用于军事目的。辛顿不愿制造杀人机器,于是在1987年去了加拿大做研究工作。
2004年,辛顿参与创立了由物理学、神经科学和工程学领域的精英组成的团体研究项目,神经计算和自适应感知。只是由于缺乏数据和计算能力,该项目的有效性受到了限制,但辛顿对这项技术有坚定信念。
直到2012年,辛顿的研究终于有了成果。在当年的图像网比赛中,辛顿和两名学生组成的团队以高出第二名10%的正确率拿下比赛冠军。这是深度学习首次运用在图像识别领域,自此,深度学习开始向其他领域推广。
值得注意的是,当年参与比赛的两名学生杨立昆和Ilya Sutskever,一个同为AI奠基人之一,另一个是OpenAI联合创始人和首席科学家,也是机器学习领域的顶尖学者。
在人工智能领域具有较高的话语权,辛顿也被人称作“AI教父”。只是现在AI的开创者却要离职去宣传AI的危险。
在相关媒体的报道中,辛顿直接发出警示:注意,前方有危险,前方有危险,前方有危险!并表示,我对自己的毕生工作,感到非常后悔。
在ChatGPT问世前的多年时间里,马斯克一直坚持“AI威胁论”。2018年马斯克还宣称“人工智能比核武器更危险”,主要是马斯克担忧人工智能的进化可能脱离人类的控制,因此呼吁加强对人工智能的监管,以确保其安全可控。此外,马斯克也开始与OpenAI唱对台戏,注册了一家名为“X.AI”的人工智能公司,做“TruthGPT”,用一种开源、真实的方式表现对OpenAI的闭源和安全方面担忧。
ChatGPT问世后,辛顿曾表示,人工智能可能发展到对人类构成威胁“并非不可想象”的地步。随后,Robust.AI创始人盖瑞·马库斯以及马斯克也加入进来,宣传“AI威胁论”。
在今年3月末,未来生命研究所发布了一封极具影响的公开信,其中呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。据了解,辛顿、马库斯和马斯克也签署了这封公开信。
同其他科技巨头相比,谷歌对于AI的态度稍显谨慎。此前因称“人工智能聊天机器人已经拥有自我意识”而被谷歌解雇的工程师,曾说过,谷歌内部在2021年也曾研发过类ChatGPT的应用工具,但一直没有公布。此外,该工程师还认为谷歌在人工智能领域是在“以他们认为安全和负责的方式”行事,并不是被 OpenAI 这样的组织所左右。
辛顿在谷歌任职十年,也在影响着谷歌的AI研究方向。早在多年前,辛顿就曾公开表示,即便作为全球人工智能领域最权威的研究者之一,他也不知道AI革命接下来将会把人类带向何处。“在人工智能这个领域,很难预测五年以后的事情,毕竟事情往往并不会像你期待的那样如期而至。”
受离职消息的影响,人们对辛顿的看法也产生了诸多争议,有人认为辛顿大可不必为此离职,也有人认为背后是为了拖延OpenAI的扩张节奏。但“AI教父”下场警示AI的“副作用”,也值得世人对AI的发展方向进行思考。