参考消息网7月16日报道据西班牙《机密报》网站7月8日报道,具有人工智能的新武器能比人类更好地识别目标。
报道称,美国的军用无人机可能很快就会采用一种新的人工智能系统,该系统“在识别目标方面比人类做得更好”。这种人工智能可以区分制服、武器,甚至可以比操作员更精准地解读敌人的投降信号。这是该技术的开发者、澳大利亚企业雅典娜人工智能公司的说法。
该公司表示,该系统旨在帮助人类无人机操作员,防止他们在紧盯视频画面数小时后失去注意力焦点。“人工智能将为他们做很多繁重的工作。”雅典娜人工智能公司的负责人斯蒂芬·伯恩斯坦在接受《新科学家》周刊采访时说道。
这一新系统能够搜索、识别和定位地面上的物体,还能检查一个物体是否在禁区内,并计算出附带损害的风险。该人工智能还可以追踪军用车辆,并帮助确定疑似敌方士兵的个体的身份。
这并不是美国军方第一次将人工智能集成到其作战武器中。今年早些时候,他们宣布将人工智能用于控制一架改装后的F-16战斗机。
自主技术在战争武器中应用的伦理道德影响一直是一个公开、有争议的问题。尽管雅典娜人工智能公司声称其系统符合《日内瓦公约》的人道主义标准,但我们无法知晓测试的结果或其使用的风险,因为它们是保密的。这家澳大利亚公司与美国领先的无人机公司Red Cat(专门从事军用无人机技术开发)合作。今年5月,他们宣布向乌克兰提供200架无人机,其中配备有Teal 2,这是一种由雅典娜人工智能公司驱动的远程夜间系统。据《新科学家》周刊报道,现在所有的无人机都可以通过新的人工智能系统进行升级。
加州大学计算机科学教授斯图尔特·拉塞尔指出,其他号称比人类能力更强的人工智能经过彻底测试时,结果通常发现它们存在缺陷。这位专家对所进行的测试缺乏透明度表示担忧,并指出人工智能识别系统也可能被欺骗。
报道称,技术企业Shift5公司负责人、网络安全专家乔什·洛斯皮诺索最近接受美联社采访时也表达了类似观点。他谈到了仓促部署人工智能产品的相关问题,特别是在军事决策方面。洛斯皮诺索说:“尽管停止人工智能研究将不利于国家安全,但快速发展也可能导致不安全且容易出现故障的产品的产生。”
配备人工智能的无人机已经引发了一些严重事件。一个月前,在一次模拟战斗演习中,一架具有人工智能的自主军用无人机做出了“杀死”其操作员的决定,因为它认为操作员阻碍了它消灭敌方主要目标的行动。幸运的是,该操作员没有受伤,因为是模拟演习。但在2023年关于欧洲“未来空中作战系统”(FCAS)的一次峰会上披露的这一事件,引发了关于人工智能在军事行动中的道德后果的激烈争论。