一个人类与技术相伴的原则也再次被高度强调:只有可控的人工智能才有未来
日前,特斯拉CEO埃隆·马斯克率数百位科技行业高管在一封公开信中呼吁,所有人工智能实验室应立即暂停比GPT-4更强大的人工智能系统训练,暂定时间是6个月以上,直到各界共同制定出一套能顺利实施并由独立专家审计的安全协议。
据报道,截至目前,在这一公开信上签名的有1126人,除马斯克之外,还包括苹果联合创始人史蒂夫·沃兹尼亚克、Stability AI的创始人穆斯塔克、Skype的联合创始人和Pinterest联合创始人以及一位图灵奖得主。
公开信给出的理由是,“高级人工智能可以代表地球生命史上的深刻变化,应该投入相应的关注和资源进行规划和管理。但不幸的是,这种级别的规划和管理并未发生。在最近几个月,人工智能实验室被锁在一场失控的竞赛之中,大家争相开发和部署更强大的人工智能系统,以至于没有人能够完全理解、预测或可靠地控制这些进程,即使他们的创造者也不能。”
↑资料图。图据ICphoto
也就是说,对于高级AI,人们目前还不能够完全理解、预测和控制,因此需要在制定可控协议和措施之后进行研发,才能保障对人类社会的安全。而据报道,欧洲刑警组织近日也提出警告,“大型语言模型检测和重现语言模式的能力,不仅有助于网络钓鱼和在线欺诈,而且通常还可以用来冒充特定个人或群体的讲话风格。这种能力可能会被大规模滥用,以误导潜在受害者将他们的信任交给犯罪分子。”此外,一些人担忧人工智能可能引发的军备竞赛,以及带来的更大风险。
不要忽视AI可能对人类社会造成的伤害。借此,一个人类与技术相伴的原则也再次被高度强调:只有可控的人工智能才有未来。
但也有人对暂停AI研发不以为然,认为是杞人忧天,尽管AI技术的发展可能带来一定风险,但呼吁暂停AI研发并非解决问题的最佳途径。AI技术的进步为人类社会带来了巨大的机遇,就算AI技术可能带来风险,也不能将责任仅仅归咎于技术本身。在很大程度上,风险的产生与管理层次、政策制定以及人们对技术的应用方式密切相关。因此,需要在多个层面采取措施,确保AI技术的健康发展。
实际上,可以通过加强AI技术的监管和管理,引导其朝着更加可控、可预测的方向发展。政府、企业和研究机构可以共同制定一套合理的安全规范,确保AI技术在研发和应用过程中遵循一定的道德和安全标准。此外,AI技术的开发者还应与相关政策制定者合作,加快构建健全的AI治理体系。
显然,暂停AI研发和反对暂停AI研究都有理由,而且其理由有交集:AI有风险,要加强对AI的监管。在此情况下,一个可能更好的做法是,不必暂停AI研发,但是国际社会和社会各界要马上制定全球和全社会能执行的一套监管措施,一边研发,一边制定规则,双管齐下,对AI的发展可能更为有利。
现阶段,可以举行关于以ChatGPT为代表的人工智能听证会,判断其风险,并且在此基础上提出监管规则。事实上,这在科研中已有先例。2010年5月20日,由美国科学家克雷格·文特尔主持的研究团队宣布,世界首例人造生命——完全由人造基因控制的单细胞细菌诞生。该项实验表明,新的生命体不一定要通过“进化”来完成,也可以在实验室里“被创造”。消息传出,立即引起社会各界的强烈反响,许多科学家对这一成果给予了积极评价,但也不乏忧虑之声。
于是,在华盛顿国会山,举行了一场题为“合成生物学发展及其对医疗卫生和能源意义”的听证会。听证会的结论是,合成生物学技术现阶段还不会立竿见影地引起环境、安全及伦理方面的严重问题,但需要密切关注其未来发展情况。时至今日,人造生命尚未对人类社会和环境造成危害。
有鉴于此,对于以ChatGPT为代表的人工智能也不妨召开听证会,先要明确其是否对人类社会有威胁,以及威胁多大。其次在后续讨论中,应当为AI立规矩。在联合国教科文组织《全球人工智能伦理建议书》中,提出了一个基本原则极为重要:将伦理视为对人工智能技术进行规范性评估和指导的动态基础,以人的尊严、福祉和防止损害为导向。现阶段可以此为指南,制定相应的规则和措施,尤其是在研发ChatGPT的国家和地区,应该制定人工智能研发和使用的规范。
红星新闻特约评论员 张田勘
编辑 赵瑜
红星评论投稿邮箱:hxpl2020@qq.com