半个月前,美国人工智能研究实验室OpenAI再次发布新作——ChatGPT-4。
与之前相比,GPT-4不仅展现了更加强大的语言理解能力,还能够处理图像内容,在考试中的得分甚至能超越90%的人类。升级后的GPT-4再一次颠覆了人类对AI的认知。
卓越的新性能、飞快的更新速度,让ChatGPT-4在全球范围内掀起波澜,也再一次将AI与人类关系的伦理讨论话题推向高潮。
人类和AI的关系,会迎来历史拐点吗?
GPT的升级之旅
ChatGPT于2022年11月30日首发,之后迅速在社交媒体上走红,短短5天注册用户数就超过100万,两个月用户突破1亿,成为史上增长最快的消费者应用。
在发布之初,它就能完成撰写邮件、视频脚本、文案、翻译等任务。仅仅3个多月后,ChatGPT再次进化。之前的热度甚至还来不及冷却,就已经被AI迭代升级的速度追上了。
GPT-4拥有更强大的识图能力,文字输入的上限提升到了2.5万字,它能更加流畅准确地回答用户的问题,能写歌词,写创意文本,且风格多变。谱曲、报税、写诗,甚至美国律师资格考试等,ChatGPT-3.5做不到的,GPT-4轻松拿下。
发给聊天机器人一张图表,它不但能看懂,还能给你如此这般做一番运算,发来一段对图表的解读。你不服气,又扔过去一张无厘头的梗图,它不但能看懂这张图里有车有人,还能告诉你之所以好笑是因为“这个男人在出租车上面熨衣服”。
这不是畅想,而是GPT-4已经具备的能力。在官方演示视频中,OpenAI总裁兼联合创始人格雷格·布罗克曼(Greg Brockman)用笔和纸画了个网站展示给GPT-4,后者仅用1到2秒的时间,就生成了网页代码、制作出了几乎与图中一模一样的网站。
实验表明,GPT-4在部分专业测试和学术基准上,表现出了与人类相当的水平。
从司法考试排名倒数10%、SAT数学考试590分,生物奥林匹克竞赛排名前69%,发展到了司法考试排名前10%、SAT数学考试700分、生物奥林匹克竞赛排名前1%。它的英文准确度提升到85.5%,中文准确性提升到80.1%,事实准确性大幅提升,就像一个成绩突飞猛进的“学霸”。
它变得更“聪明”了。甚至可以预见,它还会越来越“聪明”。
大佬联名叫停
ChatGPT飞快的进化速度令人咋舌,也引发了更多的担忧。
一直以来,对于人工智能,专家们所持的观点大相径庭。在ChatGPT-4横空出世后,这个问题的争论变得更激烈了。
一群AI技术研究学者、投资者,正在把AI的迅猛发展视为一场“失控的竞赛”。在GPT-4 诞生两周之际,一封公开信开始在社交媒体发酵。
在这封由非营利性的“未来生活研究所”发布的公开信中,指出了最近几个月,人工智能实验室陷入了一场失控的竞赛,他们没有办法理解、预测或可靠地控制自己创造的大模型。而大量研究也表明,得到顶级AI实验室的认可、具有人类竞争智能的AI系统,可能对社会和人类构成深远的风险。
因此,公开信呼吁,所有AI实验室应立即暂停训练比GPT-4更强大的AI模型,为期至少6个月,直到制定并实施一套共享的安全协议。信中还说:“只有当我们确信强大的人工智能系统的效果是积极的,其风险是可控的,才应该开发。”
截至目前,这封信已经得到了包括图灵奖得主Yoshua Bengio、苹果公司联合创始人史蒂夫·沃兹尼亚克、特斯拉CEO埃隆・马斯克、纽约大学名誉教授Gary Marcus、UC伯克利教授Stuart Russell以及《人类简史》作者Yuval Noah Harari等1000多名人工智能专家和行业高管的公开签名支持。
因为签名名单中大佬含量过高,这封公开信在社交网络持续发酵,已在国外AI社区引起了极大的关注与讨论。
支持的人认为对于AI的恐慌是合理的,因其训练效率太高,智能的水平每天都在膨胀。反对的人甚至贴出了爱迪生指示人画的交流电害死人的宣传海报,认为这不过莫名的指控,在别有用心的势力在误导不明真相的群众。
AI消灭人类?
值得关注的是,发布公开信的“未来生活研究所”是由MIT物理学终身教授泰格马克创立的一家非盈利研究机构,创立于2014年,一直关注“开发与人类相当的人工智能技术过程中出现的风险”,霍金、马斯克都是这家机构的科学顾问。
也是在这一年,霍金开始通过公开媒体发表对于人工智能技术最终将取代人类的一系列“预言”。霍金在BBC采访中表示:“人工智能技术的研发将敲响人类灭绝的警钟。这项技术能够按照自己的意愿行事并且以越来越快的速度自行进行重新设计。人类受限于缓慢的生物学进化速度,无法与之竞争和对抗,最终将被人工智能取代。”
同年10月,马斯克在麻省理工学院AeroAstro百年学术研讨会上发表讲话将人工智能称之为“我们面临的最大威胁”。他说:“随着人工智能的发展,我们将召唤出恶魔。”他也多次在推特上强烈宣传:“人类应该像监管食物、药品、飞机和汽车一样来监管人工智能。”
去年12月,面对横空出世的ChatGPT,马斯克在推特上曾公开表示:“ChatGPT好得吓人。我们离强大且危险的AI不远了。”
马斯克等人的担忧似乎正在得到验证。在近期的公开访谈中,“ChatGPT之父”萨姆·阿尔特曼说,GPT系列为何会出现推理能力,OpenAI的研究者自己搞不明白。他们只知道,在不断测试中,人们忽然发现:从ChatGPT开始,GPT系列开始出现了推理能力。
阿尔特曼还在访谈说了这样惊人的一句:“AI确实可能杀死人类。”
结语
事实上,自从人工智能话题起风以来,关于“AI会不会消灭人类”、“人类被AI取代”的讨论就不绝如耳。有人调侃称,“每当有AI进步一次,相关的伦理讨论和科技恐慌就要卷土重来一次。”
这一次,由ChatGPT所带来的争议,显然比以往任何时候都要来得更为猛烈。
如果一个月前,社交媒体上许多人对于AI和人类未来的担忧,更多还是一种调侃和玩笑,那么短短一个月之后,实验数据证明了这种可能性并不只是玩笑。归根结底,AI变革速度之快已经突破了大家的认知想象,而人类社会似乎还没有做好相应的准备。
在AI不具备自我意识的阶段,人工智能对人类的毁灭性风险几乎为0。但从AI发展的大趋势来看,从1997年的“深蓝”到2016年的“阿尔法狗”,从2022年的ChatGPT再到4个月后的GPT-4,AI的发展速度呈指数级上升,出现黑天鹅事件的几率也变得越来越大。
横空出世的ChatGPT,让全世界相关机构都在疯狂冲刺,卷到无所遁形。各家争夺的除了当前市场,还有关未来AI时代的定义标准与话语权。而这个话语权,已经事关整个人类科技的未来发展。
而今,AI的发令枪已经叩响,而如何预防AI时代可能带来的潜在风险,确保技术不被滥用,也确有必要尽快提上日程。
- END -