当ChatGPT以迅雷不及掩耳之势火爆全球之后,人类对AI的极速进化担忧也愈发强烈。
上千名科学、企业家呼吁暂停巨型 AI 实验
日前,生命未来研究所(Future of Life)发布了一封《暂停大型AI研究》的公开信,其呼吁所有AI实验室立即暂停比GPT-4更强大的人工智能系统的训练,至少6个月。
据公开信表示,大量研究表明且得到顶级 AI 实验室的认可,具有人类竞争智能的 AI 系统可能对社会和人类构成深远的风险。正如广泛认可的Asilomar AI 原则中所述,高级 AI 可能代表地球生命史上的深刻变化,应以相应的关怀和资源进行规划和管理。不幸的是,这种级别的规划和管理并没有发生,尽管最近几个月人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,没有人——甚至他们的创造者——都无法理解、预测、或可靠地控制。
公开信强调,我们不应该冒险失去对文明的控制,不得将此类决定委托给未经选举产生的技术领导者。 只有当我们确信它们的影响是积极的并且它们的风险是可控的时候,才应该开发强大的人工智能系统。
其呼吁所有 AI 实验室立即暂停至少 6 个月的训练比 GPT-4 更强大的 AI 系统。这种暂停应该是公开的和可验证的,并且包括所有关键参与者。如果不能迅速实施这种暂停,政府应介入并暂停。
人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。但这并不意味着总体上暂停 AI 开发,只是从危险的竞赛中倒退到具有紧急功能的更大的不可预测的黑盒模型。
与此同时,AI 开发人员必须与政策制定者合作,以显着加快开发强大的 AI 治理系统。人工智能研究和开发应该重新聚焦于使当今强大的、最先进的系统更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。
最后,公开信称,我们人类已经暂停了其他对社会有潜在灾难性影响的技术,对于人工智能技术,也应该如此对待。
截止最新,这封公开信已有超1100人签署。名单中,特斯拉创始人马斯克、苹果联合创始人斯蒂夫·沃兹尼亚克、谷歌DeepMind首席执行官Demis Hassabis等在内的多名人工智能专家和行业高管等赫然在列。
AI可能会威胁到人类生存?
值得一提的是,近来对AI的担忧声愈发高涨。
作为“AI威胁论”支持者的马斯克此前曾多次表达对人工智能的担忧。早前在ChatGPT 刚刚大火之际,他就曾发推文表示,OpenAI和创建初衷背道而驰。
OpenAI最初是作为一家开源的非营利性公司而创办的,其目的是为了抗衡谷歌,但现在它已变成一家闭源的营利性公司,被微软有效控制。
他也曾在多次讲话中谈到,人工智能是未来人类文明最大的风险之一。
日前,高盛也预警表示,大语言模型可能威胁 3 亿工作岗位。ChatGPT 等生成式人工智能系统的最新突破,将给全球劳动力市场带来重大颠覆。全球就业市场仍将受到大语言模型的严重冲击,预计将有 3 亿个工作岗位被生成式 AI 取代。
除了会抢走饭碗之外,也有一种观点认为,OpenAI 创始人兼首席执行官 Sam Altman还表示,AI 可能毁灭人类,必须开发新技术来解决。
OpenAI创始人兼首席执行官Sam Altman3月25日在接受科技博客主Lex Fridman的采访时表态,他不会回避“人工智能可能杀死全人类”的说法。
在访谈中,Fridman提到了人工智能研究者、LessWrong研究所创始人Eliezer Yudkowsky此前指出“人工智能可能杀死所有人”的观点,并认为,当人工智能发展为超级智能时,几乎无法与人类站在统一战线上。
对于此,Altman回应道:
“我认为有这种可能性,并且承认这一点很重要,因为如果我们不谈论它、不把它视为潜在的事实,那么我们就不会投入足够的努力去解决这个问题。”
“我认为我们必须开发新的技术来解决这个问题…我所知道的解决这类问题的*方法就是不断迭代,尽早学习。”
不过反观当下,整体来看人工智能仍是当前科技发展的重要方向之一。
这一次的反AI浪潮,科技人士们对 AI 的潜在风险和负面影响表达的担忧,也会提高公众意识和引起相关政策制定者的关注而发起行动,也将对行业发展所制定相关政策和技术标准的制定产生影响,同时促进 AI 技术的合理发展和应用。