人工智能行为失当,谁来为此负责,是当前人工智能治理方面的一个关键问题。例如公司依赖算法处理业务决定,却因算法的不成熟导致公司亏损,进而大规模裁员,最终结果由“无辜”的劳动者承担。亦或是利用生成式人工智能对原创作品进行大规模“二次创作”获利,但是原创却没能获利,产权“形同虚设”。
这些案例都引发了有关人工智能责任性风险的思考,是否赋予人工智能在重要领域的决策权?人工智能决策带来的负面效果谁来担责?
目前技术进攻的方向是,人工智能在摆脱人类的控制后,仍然能够凭借模拟人类认知神经网络并根据面对的场景做出合理的决策和独立的行动,人工智能能够通过自我学习完成相应的工作任务,成长为和人类一样的硅基“生命体”,外界不再对其程序设定进行干预。
然而作为算法的产物,人工智能难以向人一样兼容“客观决定”与“道德修养”。人工智能可以作为人类的“辅助智能”,但反过来,依赖人工智能作为“上层”做出重大决定可能会产生难以想象的影响。因为人工智能缺乏“可问责性”的“身体”,所以不存在对其“惩罚”的条件,但人工智能的“试错成本”却往往由人类支付,而且成本可能大到我们人类无法承担。这种成本与收益的不对等,过错方与承受方的不对等,如果处理不好,将会对人类社会秩序产生巨大挑战。
上映于2023年1月22日的《流浪地球2》就演绎了两段有关人工智能责任性风险的桥段,第一个就是量子计算机Moss从550A进化到了550W,进行了无数次迭代和进化。但是Moss充满了矛盾型,一面是保护人类,通过算力精确计算出每次灾难的时间告知人类,另一面又理智地履行延续人类文明的已授权命令。矛盾下,它最后自作主张地运行了毁灭人类的程序。
另一段讲述了,为将月球驶向正确轨道,需要在月球引爆核武,但是所有的核武器只能靠手动引爆,这时队伍50岁以上的人员自愿引爆核武器慷慨就义,“危难当前,唯有责任”,这是应对突发情况时,人工智能不可能做出的决定,也无法替代人类的责任性。
在电影的最后,地球踏上了流浪之旅,人们也开始畏惧人工智能的能力,最终敲定对于AI的最佳处理便是把AI技术和自动化装置仅保留在领航员空间站上,同时所有人工智能做出的决策都要经过安理会确认。通过这个影片我们看到了人工智能一旦拥有至高的“决策力”,将有可能对人类产生毁灭的影响,也看到了在重大的决定性时刻,或许只有人类才能承担重大的责任,最后我们来看到,未来人类最终会通过限制人工智能行使决策来解决人工智能责任性风险。
《流浪地球2》的这几个桥段是对人工智能的“思想实验”,也在警示我们需要警惕人工智能责任性伦理风险可能带来的重大影响。回归现实世界,虽然没有出现电影中这般重要的后果,但是人工智能责任性风险的案件已多次发生。
例如2021年11月,在线房地产交易巨头Zillow向股东表示,将在未来几个季度结束Zillow Offers业务,并裁员25%,也就是约2000名员工,而这主要归咎于Zillow用于预测房价的机器学习算法出现错误而导致了一系列后果。
Zillow Offers是一个程序,Zillow通过该程序根据机器学习算法得出的房屋价值“Zestimate”指数,并对房产进行现金报价,这么做是为了对房产快速进行翻新转售。因全球疫情爆发和家庭装修劳动力短缺等黑天鹅事件,导致算法出现了较大偏差,最终公司高估市场房屋价格过量收购房屋,使2021年第三季度的库存价格减记为3.04亿美元。
人工智能责任性风险对产权也带来一定挑战。例如图片提供商Getty Images起诉人工智能公司Stability AI Inc .,指控后者滥用超过1200万张Getty照片来训练其Stable Diffusion AI图像生成系统。Getty Images的核心竞争力是与全球几千位摄影师签约,卖点就在于创新和创意,而Stability AI在未经许可的情况下复制了数百万张照片,并利用这些照片训练Stable Diffusion,根据用户提示生成更准确的描述,创造商业价值。Stable Diffusion的出现无疑是用算法和电子成像取代了人类视觉的创新。这是对几千位摄影师创作成果的不尊重与“盗窃”,虽然没有像“AI换脸”那般对受害者进行直接伤害,但它可能造成摄影师的失业甚至更恶劣的影响。
人工智能带来生产效率提升的同时,其潜在的“使用成本”也是之前三次技术革命无法比拟的。这就需要国际合作来完善责任机制与法律机制,明确人工智能系统的责任归属和追究机制。秉持人工智能是人类的“辅助智能”,人永远作为“上层建筑”的原则,并明确责任认定,避免“无辜”的人为人工智能“背锅”,只有这样,人工智能的责任性风险才能有所降低。
(本文首发钛媒体APP,作者|谷硕,编辑|刘洋雪)
更多详细内容请见《2023全球人工智能伦理治理报告》,获取方式如下: