参考消息网6月14日报道新加坡《联合早报》6月5日刊登题为《密切关注人工智能发展趋势》的社论。全文摘编如下:
欧盟正在草拟第一部监管人工智能(AI)的法律框架,以确保欧洲人在未来使用人工智能时能有安全和可信赖的环境。
建议的框架除了要能对一套人工智能系统进入市场之前进行合格评定,以及投入使用后能采取执法行动等措施之外,特别关注人工智能系统可能产生的风险,为此定义了四个层级:无法接受的风险、高风险、有限风险以及低或无风险。
近期,由于美国硅谷科企推出的ChatGPT等相关产品引领潮流,人工智能的发展分外受到世人关注。但人工智能带来的影响远超聊天机器人。
一般人大多相信它能产生突破性的正面效果,包括医疗技术、生产能力、无人驾驶等;也有更多人在讨论它可能带来的经济变局、就业冲击等效果。同样在美国,一群研发人工智能的科技企业家和研究者,却不断发出警告并联署公开信,要求政府介入监管人工智能的研发与应用。
这显示人工智能的演进已经到了关键时刻,稍有不慎就可能出现失控的风险,而人类专家可能无法应对后果。
欧盟在解释制定法律框架的原因时就举例:人类常常无法了解人工智能系统为什么作出某种决定或预测,并采取某个行动,因此可能很难判断在诸如聘用决定或公共福利计划中有没有不公平现象。
除了类似的公共事务,人工智能研发实力最强大的美国业界,主动出面要求监管,也说明很可能存在必须及时关注的各种人文与法律等漏洞,需要公权力介入。美欧学界和业界都发现,如果任由人工智能产业和其他产业一样,让企业之间自由竞争,最终的后果或许无人可以承担。
由于涉及尖端技术,绝大多数国家在人工智能领域都只能是接受者,作为积极迈向智慧国的新加坡,近年来使用涉及人工智能产品的深度与广度越来越大,也出现一些行业数码化的受害者,因此对国际社会在这方面的发展应该密切关注。
关注人工智能发展的国际专家积极发出警觉和感到不安,主要理由包括以下几点:一是在技术上,目前的人工智能与过去的任何科技突破都有着本质上的不同,不再是单纯反映人类意志与思维的产品。例如印刷业再怎么发展,都需要根据人类创作的内容印刷与传播,从新闻内容到宗教文献都一样。但人工智能已经有了自主操作与生成内容的可能,或许不久后甚至能编造自己生成的各类内容,而人类无法分辨真假。二是在自由思想上,人工智能的发展比各种类型的宣传机器更强大,可能被用于商业与政治领域,进行无意识的渗透和影响,破坏民主制度的公平性和自主性。三是在经济上,即便法律规范能消除前文的顾虑,但人工智能为产业所带来的强大效率,可在短时间内让低端产业重新在发达国家出现,例如用不着大量人工的传统制造业可重新回到发达国家,全球化分工进一步瓦解,将导致依赖这些产业的穷国经济一夕崩溃。另外,无论是在先进或落后国家,它都极可能夺走人们的饭碗,甚至摧毁不少行业。这些问题已经超出法律规范,急需国际社会在“适者生存”的商业规则之外,建立更多共识。
不久前,数以千计的人工智能业者和关注者集体发出公开信,要求企业界暂停研发至少半年,以便人类后退一步,制定规范。其顾虑便是人工智能的演进速度之快,可能从根本上颠覆人类所能想象的局面。美欧等发达国家试图制定法律规范是重大的进展,但在世界处于断链脱钩的情况下,相关规范如果因大国的猜疑与相互排斥而不能取得全人类共识,甚至敌对的科技大国铆足全力争相研发与利用人工智能技术,会不会在十年内演变成新型而更强大的人工智能“战争”,恐怕更令人警惕。
新技术的研发是人类的智慧结晶,包括人脸或声纹辨识等科技,今天已广泛使用,并被视为更安全的保障。但技术更新越来越精密,掌握技术能力者一旦拿来做坏事,绝大多数人都无法分辨真伪。通过人工智能所制造的信息战,无论是政治类、商业类或存心的诈骗,对很多人而言都是风险。因此除了期待发达国家早日建立周全的监管框架,我们也有必要根据自身国情,尽快完善监管规划,把风险降到最低。