人工智能不断塑造着国防格局,在带来前所未有的机遇的同时,也带来了一系列令人担忧的问题。
随着国家迈向一个越来越由人工智能主导的未来,人们越来越担心当前和未来的发展如何影响武器化、协调、削弱、侵蚀认识论、价值锁定、欺骗、偏见和潜在的失业等。然而,这些挑战与巨大的潜在利益并存,包括提高国防应用的效率、准确性和战略优势。
人工智能是一个广义术语,指的是旨在模仿人类智能的计算机系统。它可以通过编程来学习、推理、解决问题、感知甚至解释语言。人工智能的两个重要子集是机器学习和深度学习,前者是系统从数据中学习以提高性能,后者则是一种以人脑为模型的更复杂的机器学习形式。
目前,人工智能和机器学习的几项关键进展已经显示出重塑军事和国防部门的巨大潜力。包括:
自主系统:自主系统的开发,特别是无人机和无人驾驶车辆,一直是取得进展的关键领域。这些系统可以处理一系列任务,从侦察任务到后勤支持,甚至是直接战斗场景。它们可以在危险的环境中行进,从而降低人类士兵的风险。
人工智能还被用于创建高度逼真的战斗模拟训练。这些虚拟环境可以复制各种场景和条件,为士兵提供多样化的综合训练体验。
通过智能指挥和控制系统,这些技术可以帮助处理和解释现代战争中产生的大量数据。这可以为指挥官提供全面、近乎实时的战场图片,帮助决策和战略规划。
正如前面对人工智能潜力的考察所表明的那样,国防部门的变革机遇是深远的,标志着效率、战略优势和精确度提高的未来。
然而,当我们过渡到这些前景光明的领域时,社会也必须正视这一革命性技术带来的一系列问题。全面了解这些潜在的挑战与把握机遇以确保安全、负责和平衡地将人工智能集成到我们的国防系统中同样重要。
从这一角度出发,我们将明确与在国防领域采用人工智能相关的值得关注的问题。
“ 协调”是指确保人工智能系统的目标和行动与人类意图保持一致。人工智能的复杂性、独立学习的能力以及决策过程可能缺乏透明度,都会导致一致性问题。调整不当的人工智能可能会导致意想不到的后果,在完成任务的同时造成伤害。其后果可能从军事行动中的附带损害到国防后勤中的广泛破坏。解决这个问题需要对人类价值观进行明确的编程、持续监控、人工智能决策过程的透明度以及纠正其行为的反馈机制。
对“削弱”的担忧源于对人工智能的过度依赖,随着时间的推移,这可能导致人类基本技能和能力的下降。随着人工智能接管更多任务,军事人员在这些任务上的熟练程度可能会降低,从而可能影响作战准备。这就需要采取一种平衡的方法,用人工智能来增强而不是取代人的能力。要保持人类对人工智能辅助军事任务的熟练程度,定期培训和技能进修至关重要。
我们知识体系的侵蚀,或"侵蚀的认识论",指的是由于过度依赖人工智能而导致的知识体系的潜在退化。如果国防部门不加批判地接受人工智能系统的产出,而不充分理解或质疑这些产出是如何产生的,就可能导致错误的战略和国家安全决策。
为此,需要加强对国防人员的人工智能教育和培训。这不仅包括培训如何使用人工智能系统,还包括传授对其基本决策过程的理解。
与此同时,培养一种重视批判性思维、将人类直觉和机器智能视为互补力量的文化也至关重要,在这种文化中,人们愿意对人工智能的产出提出质疑。此外,设计更加透明的系统,为其决策提供可以理解的解释,可以确保更好的审查和理解,有助于防止对人工智能的"黑箱"感知。
“ 价值锁定”是指这些系统放大或巩固现有价值观、信念或偏见的风险,可能对国防行动构成挑战。这可能导致基于嵌入式偏见的决策失衡,甚至由于人工智能系统中反映的不同文化或伦理价值观而影响国际合作。
减轻这种风险需要采取一些基本措施。首先,对人工智能系统的偏见进行持续测试和审计应该是一个标准程序。
其次,在为人工智能系统设定目标和价值观时纳入不同的观点,让来自不同领域的专家参与进来,有助于确保价值观的平衡体现。
该解决方案涉及使用广泛的代表性训练数据。对AI系统中的偏差进行持续审计可实现实时检测和纠正。
此外,关键决策的人机交互方法增加了额外的审查层,有助于管理和减轻可能影响军事能力和任务成功的偏见,最终最大限度地提高人工智能对国防行动的有益贡献。
人工智能系统被利用进行“欺骗”的潜力超出了创建“深度伪造”,即扭曲现实的数字操纵视频或图像。一个问题是人工智能驱动的网络欺骗,人工智能可以用来发起复杂的网络攻击,掩盖入侵,甚至创建诱饵目标来转移国防资源。这种欺骗性策略可能会损害威胁检测能力、中断通信渠道并破坏关键任务系统。
另一个是人工智能增强的心理行动,人工智能可以用来定制虚假信息活动,以利用个人或群体的敏感性,破坏士气,造成混乱并侵蚀对指挥结构的信任。人工智能也可用于战场欺骗。
人工智能的崛起引发了对失业的担忧,从手工角色延伸到国防部门的战略角色。这种转变可能会扰乱关键作用,造成社会经济影响,影响士气并减少军队积累的知识和经验。缓解这些问题需要积极主动的规划。技能提升和再培训计划可以为与人工智能集成的未来做好准备,促进他们有效管理人工智能系统的能力。
最后,人们担心人工智能本身的“武器化”,人工智能驱动的武器突破了科幻小说的范围,成为有形的现实。人工智能和自主系统的快速发展使武器编程能够独立选择和攻击目标,打开了具有多方面影响的潘多拉盒子。
然而,除了这些潜在的用途之外,担忧也显得尤为重要。首先,人工智能做出自主决策的能力引发了关于战争问责制的严重伦理、道德和法律问题。如果自主武器做出导致意外平民伤亡的错误决定,谁应该承担责任?我们如何确保人工智能武器遵守战争规则和国际法?
虽然这些问题无疑至关重要,但它们并不是我们在人工智能武器化时代努力解决的唯一问题。还有一个同样紧迫的担忧:在全球人工智能和军事能力军备竞赛中落后的风险。世界各国都在积极追求人工智能技术,以增强其军事能力。
跟不上人工智能进步步伐的国家也可能发现自己在战场上处于战略劣势。这场比赛不仅仅是为了保持平等;这是关于塑造战争的未来,使积极参与人工智能开发成为国家安全问题。
为了解决这些复杂性,必须采取多管齐下的方法。确实应该考虑严格的国际监管、人工智能武器开发的透明度和健全的问责制度。但除此之外,各国还应该投资于自己的人工智能发展,以跟上全球进步的步伐。他们应该合作,而不仅仅是竞争,为人工智能在国防中的使用建立国际标准和规范,就像我们在核武库方面所做的那样。
解决这些问题需要采取综合办法。健全的道德准则、严格的测试、透明度和培训至关重要。我们必须专注于用人工智能增强人类的能力,而不是取代他们。人工智能治理需要确保与人类价值观保持一致,我们必须对潜在的欺骗或偏见保持警惕。
尽管存在这些担忧,但将人工智能整合到国防领域提供了巨大的机会。目标不应是阻止进展,而应是深思熟虑地管理进展。通过主动承认和解决这些问题,我们可以帮助塑造一个未来,在这个未来中,人工智能在不影响安全性、能力、准备或社会价值的情况下为防御做出重大贡献。
本文来源:系统仿真学报公众号
关注公众号了解更多
会员申请 请在公众号内回复“个人会员”或“单位会员
欢迎关注中国指挥与控制学会媒体矩阵
CICC官方网站
CICC官方微信公众号
《指挥与控制学报》官网
国际无人系统大会官网
中国指挥控制大会官网
全国兵棋推演大赛
全国空中智能博弈大赛
搜狐号
一点号