当前位置:首页|资讯|人工智能

美智库发文阐述人工智能在国防领域的应用

作者:全球技术地图发布时间:2023-08-10

原标题:美智库发文阐述人工智能在国防领域的应用

美智库发文阐述人工智能在国防领域的应用

2023年7月25日,美《国防杂志》发表文章《人工智能在国防领域的应用:解决问题,抓住机遇》,文中指出,人工智能正不断塑造新的国防格局,在自主系统、预测分析和网络安全方面创造机遇,同时也带来了一系列挑战。航天防务对本文进行了编译,供参考。

人工智能是一个广义的术语,指的是旨在模仿人类智能的计算机系统。它可以被编程来学习、推理、解决问题、感知甚至解释语言。人工智能的两个重要子集是机器学习(系统从数据中学习以提高性能)和深度学习(以人脑为模型的更复杂的机器学习形式)。

人工智能在国防领域的潜力巨大。它可以简化行动、增强决策并提高军事任务的准确性和有效性。无人机和自动驾驶汽车可以执行对人类来说危险或不可能完成的任务。人工智能驱动的分析可以通过预测和识别威胁来提供战略优势。目前,人工智能和机器学习的几项关键进展已显示出重塑军事和国防部门的巨大潜力。包括:自主系统、预测分析、网络安全

自主系统:自主系统的开发,特别是无人机和无人车,一直是一个关键的进步领域。这些系统可以处理一系列任务,从侦察任务到后勤保障,甚至直接参与作战。它们可以在危险的环境中穿行,从而降低士兵的风险。

预测分析:高级人工智能/机器学习模型用于预测分析,以预测潜在威胁或维护需求。他们可以通过分析大量数据发现人类分析师无法辨别的模式和趋势,从而有助于主动防御战略和有效的资源分配。

网络安全:人工智能和机器学习在对抗网络威胁方面变得至关重要。这些技术可以比传统方法更快地识别和响应潜在威胁,而且通常是实时的。他们还可以从每次攻击中学习,不断提高防御能力。

人工智能还被用来创建高度逼真的作战模拟训练。这些虚拟环境可以通过复制各种场景和条件,为士兵提供多样化且全面的训练体验。

通过智能指挥和控制系统,这些技术可以帮助处理和解释现代战争中产生的大量数据,从而为指挥官提供全面、近乎实时的战场情况,帮助决策和进行战略规划。正如前面对人工智能潜力的考察所示,国防部门的变革机遇是深远的,这意味着未来效率、战略优势和精确度都会提高。

人工智能不断塑造国防格局,带来前所未有的机遇,同时也带来一系列问题。人们越来越担心人工智能的发展将产生武器化、一致性、削弱、认知侵蚀、价值锁定、欺骗、偏见和潜在失业等方面的影响。然而,这些挑战与巨大的潜在好处并存,包括提高国防应用的效率、准确性和战略优势。

武器化:人们对人工智能本身的“武器化”感到担忧,人工智能驱动的武器超出了科幻小说的限制,成为有形的现实。人工智能和自主系统的快速进步使得武器编程能够独立选择和攻击目标,打开了具有多方面影响的潘多拉魔盒。由人工智能驱动的自主武器可能涵盖从具有先进瞄准能力的导弹系统到能够在最少人为干预的情况下进行监视或攻击的自主无人机等。人工智能还可以用于网络战,为自动化攻击或防御提供动力,其运行速度是人类无法比拟的。此外,人工智能可以管理广泛的数据收集,帮助识别威胁和制定战略决策。

然而,除了这些潜在用途之外,人们的担忧也日益凸显。一是人工智能的自主决策的能力引发了有关战争责任的伦理、道德和法律问题。如果自主武器做出错误决定导致意外平民伤亡,谁应该承担责任?如何确保人工智能武器遵守战争规则和国际法?二是为了避免在全球人工智能和军事能力军备竞赛中落后,世界各国都在积极寻求人工智能技术来增强其军事能力。跟不上人工智能进步的国家也可能会发现自己在战场上处于战略劣势。这场比赛不仅仅是为了保持平等,它关系到塑造战争的未来,使积极参与人工智能开发成为国家安全问题。

为了解决这一问题,必须采取多管齐下的方法。一是应该考虑严格的国际监管、人工智能武器开发的透明度和健全的问责制度。此外,各国还应该投资自己的人工智能开发,以跟上全球进步的步伐。他们应该合作,而不仅仅是竞争,为人工智能在国防中的应用建立国际标准和规范,就像在核武库方面所做的那样。二是专注于用人工智能增强人类能力,而不是取代它们。人工智能治理需要确保与人类价值观保持一致,必须对潜在的欺骗或偏见保持警惕。

一致性:“一致性”是指确保人工智能系统的目标和行动与人类意图保持一致。人工智能的复杂程度、独立学习的能力以及决策过程中透明度的缺乏都会导致一致性问题。人工智能失准可能会导致一系列后果,在完成任务的同时造成伤害。其后果可能包括从军事行动的附带损害到国防后勤的广泛破坏。

为了解决这一问题,需要对人工智能的“价值观”进行明确的编程、持续的监控,提高人工智能决策过程的透明度,并建立纠正其行为的反馈机制。

削弱:对“削弱”的担忧源于对人工智能的过度依赖,随着时间的推移,这可能会导致人类基本技能和能力的下降。随着人工智能接管的任务数量增多,军事人员对这些任务的熟练程度可能会降低,从而影响作战准备情况。

为了解决这一问题需要采取一种平衡的方法,利用人工智能来增强而不是取代人类的能力。定期培训和技能更新对于保持人类在人工智能辅助军事任务中的熟练程度至关重要。

认知侵蚀:“认知侵蚀”是指由于过度依赖人工智能而导致知识系统潜在退化。如果国防部门不加批判地接受人工智能系统的输出,而不充分理解或质疑这些输出是如何产生的,则可能会导致错误的战略和国家安全决策。

为了解决这一问题,一是需要加强对国防人员的人工智能教育和培训。这不仅包括培训使用人工智能系统的方法,还包括对人工智能系统基本决策过程的理解。二是培养一种重视批判性思维并将人类直觉和机器智能视为互补力量的文化,在这种文化中,人们愿意对人工智能的产出提出质疑。三是为人工智能设计更透明的系统,为决策提供易懂的解释,防止人工智能成为“黑匣子”。

价值锁定:“价值锁定”是指人工智能系统存在放大或巩固现有价值观、信念或偏见的风险。这种风险可能导致基于嵌入偏见的决策出现偏差,甚至由于人工智能系统中反映的不同文化或伦理价值观而影响国际合作。

为了解决这一问题需要采取一些措施。一是对人工智能系统进行持续测试和审计以消除偏见应该成为标准程序。二是在为人工智能系统设定目标和价值观时纳入不同的观点,让来自不同领域的专家参与进来,有助于确保价值观的平衡表达。三是提高人工智能开发的透明度,使人工智能系统的决策过程和训练数据接受审查,从而帮助人们识别和解决潜在的价值锁定偏差。

欺骗:人工智能系统被利用进行“欺骗”的可能性超过了创建“深度伪造”即扭曲现实的数字处理视频或图像的范围。其中一个问题是人工智能驱动的网络欺骗。人工智能可用于发起复杂的网络攻击、掩盖入侵,甚至创建诱饵目标来转移国防资源。这种欺骗策略可能会损害威胁检测能力、扰乱通信渠道并破坏关键任务系统。另一个问题是人工智能增强的心理行动,人工智能可用于定制虚假信息活动,以利用个人或群体的敏感性,破坏士气,造成混乱并削弱对指挥结构的信任。人工智能也可用于战场欺骗。

为了解决这一问题需要采取一些措施。一是部署能够识别人工智能生成的欺骗模式的机器学习算法,这对于预防网络攻击或虚假信息活动至关重要。二是利用好数字取证这一重要工具。对数字证据的严格分析可以发现人工智能驱动的欺骗的迹象。三是提高国防人员的认识。最新人工智能欺骗策略的定期培训可以帮助人员识别潜在威胁。培养对未经证实的信息持怀疑态度的文化也可以加强对人工智能增强心理操作的防御。

偏见:从价值锁定来看,还有一个相关的问题——“偏见”。人工智能系统接受训练的数据,可能会无意中传播偏见。在国防领域,这些偏见可能会影响关键功能:从指挥、控制、通信、计算机、情报、监视和侦察活动到威胁识别和任务规划。所有系统都存在固有的偏见。关键在于识别和减少可能影响军事准备和能力的偏见。如果缺乏管理,偏见可能会扭曲战略决策,从而损害态势感知和其他关键防御功能的有效性。

为了解决这一问题,一是使用广泛的代表性培训数据。对人工智能系统中的偏差进行持续审核可以实现实时检测和纠正。二是使用关键决策的人机交互方法增加额外的审查层。这一方法有助于管理和减轻可能影响军事能力的偏见,最终最大限度地发挥人工智能对国防行动的有益贡献。

失业:人工智能的崛起引发了人们对失业的担忧,从手工角色扩展到国防部门的战略角色。这种转变可能会扰乱关键作用,造成社会经济影响,影响士气并减少军队积累的知识和经验。

为了解决这一问题需要采取一些措施。通过技能提升和再培训计划帮助人员为未来与人工智能相结合做好准备,提高他们管理人工智能系统的能力。

尽管存在一系列的问题,但是将人工智能整合到国防领域仍提供了巨大的机遇。当前的目标不应该是阻止进展,而应该是深思熟虑地管理进展。通过主动承认和解决这些问题,使人工智能在不影响安全、能力或社会价值的情况下,为国防做出重大贡献。

人工智能是一个广义的术语,指的是旨在模仿人类智能的计算机系统。它可以被编程来学习、推理、解决问题、感知甚至解释语言。人工智能的两个重要子集是机器学习(系统从数据中学习以提高性能)和深度学习(以人脑为模型的更复杂的机器学习形式)。

人工智能在国防领域的潜力巨大。它可以简化行动、增强决策并提高军事任务的准确性和有效性。无人机和自动驾驶汽车可以执行对人类来说危险或不可能完成的任务。人工智能驱动的分析可以通过预测和识别威胁来提供战略优势。目前,人工智能和机器学习的几项关键进展已显示出重塑军事和国防部门的巨大潜力。包括:自主系统、预测分析、网络安全

自主系统:自主系统的开发,特别是无人机和无人车,一直是一个关键的进步领域。这些系统可以处理一系列任务,从侦察任务到后勤保障,甚至直接参与作战。它们可以在危险的环境中穿行,从而降低士兵的风险。

预测分析:高级人工智能/机器学习模型用于预测分析,以预测潜在威胁或维护需求。他们可以通过分析大量数据发现人类分析师无法辨别的模式和趋势,从而有助于主动防御战略和有效的资源分配。

网络安全:人工智能和机器学习在对抗网络威胁方面变得至关重要。这些技术可以比传统方法更快地识别和响应潜在威胁,而且通常是实时的。他们还可以从每次攻击中学习,不断提高防御能力。

人工智能还被用来创建高度逼真的作战模拟训练。这些虚拟环境可以通过复制各种场景和条件,为士兵提供多样化且全面的训练体验。

通过智能指挥和控制系统,这些技术可以帮助处理和解释现代战争中产生的大量数据,从而为指挥官提供全面、近乎实时的战场情况,帮助决策和进行战略规划。正如前面对人工智能潜力的考察所示,国防部门的变革机遇是深远的,这意味着未来效率、战略优势和精确度都会提高。

人工智能不断塑造国防格局,带来前所未有的机遇,同时也带来一系列问题。人们越来越担心人工智能的发展将产生武器化、一致性、削弱、认知侵蚀、价值锁定、欺骗、偏见和潜在失业等方面的影响。然而,这些挑战与巨大的潜在好处并存,包括提高国防应用的效率、准确性和战略优势。

武器化:人们对人工智能本身的“武器化”感到担忧,人工智能驱动的武器超出了科幻小说的限制,成为有形的现实。人工智能和自主系统的快速进步使得武器编程能够独立选择和攻击目标,打开了具有多方面影响的潘多拉魔盒。由人工智能驱动的自主武器可能涵盖从具有先进瞄准能力的导弹系统到能够在最少人为干预的情况下进行监视或攻击的自主无人机等。人工智能还可以用于网络战,为自动化攻击或防御提供动力,其运行速度是人类无法比拟的。此外,人工智能可以管理广泛的数据收集,帮助识别威胁和制定战略决策。

然而,除了这些潜在用途之外,人们的担忧也日益凸显。一是人工智能的自主决策的能力引发了有关战争责任的伦理、道德和法律问题。如果自主武器做出错误决定导致意外平民伤亡,谁应该承担责任?如何确保人工智能武器遵守战争规则和国际法?二是为了避免在全球人工智能和军事能力军备竞赛中落后,世界各国都在积极寻求人工智能技术来增强其军事能力。跟不上人工智能进步的国家也可能会发现自己在战场上处于战略劣势。这场比赛不仅仅是为了保持平等,它关系到塑造战争的未来,使积极参与人工智能开发成为国家安全问题。

为了解决这一问题,必须采取多管齐下的方法。一是应该考虑严格的国际监管、人工智能武器开发的透明度和健全的问责制度。此外,各国还应该投资自己的人工智能开发,以跟上全球进步的步伐。他们应该合作,而不仅仅是竞争,为人工智能在国防中的应用建立国际标准和规范,就像在核武库方面所做的那样。二是专注于用人工智能增强人类能力,而不是取代它们。人工智能治理需要确保与人类价值观保持一致,必须对潜在的欺骗或偏见保持警惕。

一致性:“一致性”是指确保人工智能系统的目标和行动与人类意图保持一致。人工智能的复杂程度、独立学习的能力以及决策过程中透明度的缺乏都会导致一致性问题。人工智能失准可能会导致一系列后果,在完成任务的同时造成伤害。其后果可能包括从军事行动的附带损害到国防后勤的广泛破坏。

为了解决这一问题,需要对人工智能的“价值观”进行明确的编程、持续的监控,提高人工智能决策过程的透明度,并建立纠正其行为的反馈机制。

削弱:对“削弱”的担忧源于对人工智能的过度依赖,随着时间的推移,这可能会导致人类基本技能和能力的下降。随着人工智能接管的任务数量增多,军事人员对这些任务的熟练程度可能会降低,从而影响作战准备情况。

为了解决这一问题需要采取一种平衡的方法,利用人工智能来增强而不是取代人类的能力。定期培训和技能更新对于保持人类在人工智能辅助军事任务中的熟练程度至关重要。

认知侵蚀:“认知侵蚀”是指由于过度依赖人工智能而导致知识系统潜在退化。如果国防部门不加批判地接受人工智能系统的输出,而不充分理解或质疑这些输出是如何产生的,则可能会导致错误的战略和国家安全决策。

为了解决这一问题,一是需要加强对国防人员的人工智能教育和培训。这不仅包括培训使用人工智能系统的方法,还包括对人工智能系统基本决策过程的理解。二是培养一种重视批判性思维并将人类直觉和机器智能视为互补力量的文化,在这种文化中,人们愿意对人工智能的产出提出质疑。三是为人工智能设计更透明的系统,为决策提供易懂的解释,防止人工智能成为“黑匣子”。

价值锁定:“价值锁定”是指人工智能系统存在放大或巩固现有价值观、信念或偏见的风险。这种风险可能导致基于嵌入偏见的决策出现偏差,甚至由于人工智能系统中反映的不同文化或伦理价值观而影响国际合作。

为了解决这一问题需要采取一些措施。一是对人工智能系统进行持续测试和审计以消除偏见应该成为标准程序。二是在为人工智能系统设定目标和价值观时纳入不同的观点,让来自不同领域的专家参与进来,有助于确保价值观的平衡表达。三是提高人工智能开发的透明度,使人工智能系统的决策过程和训练数据接受审查,从而帮助人们识别和解决潜在的价值锁定偏差。

欺骗:人工智能系统被利用进行“欺骗”的可能性超过了创建“深度伪造”即扭曲现实的数字处理视频或图像的范围。其中一个问题是人工智能驱动的网络欺骗。人工智能可用于发起复杂的网络攻击、掩盖入侵,甚至创建诱饵目标来转移国防资源。这种欺骗策略可能会损害威胁检测能力、扰乱通信渠道并破坏关键任务系统。另一个问题是人工智能增强的心理行动,人工智能可用于定制虚假信息活动,以利用个人或群体的敏感性,破坏士气,造成混乱并削弱对指挥结构的信任。人工智能也可用于战场欺骗。

为了解决这一问题需要采取一些措施。一是部署能够识别人工智能生成的欺骗模式的机器学习算法,这对于预防网络攻击或虚假信息活动至关重要。二是利用好数字取证这一重要工具。对数字证据的严格分析可以发现人工智能驱动的欺骗的迹象。三是提高国防人员的认识。最新人工智能欺骗策略的定期培训可以帮助人员识别潜在威胁。培养对未经证实的信息持怀疑态度的文化也可以加强对人工智能增强心理操作的防御。

偏见:从价值锁定来看,还有一个相关的问题——“偏见”。人工智能系统接受训练的数据,可能会无意中传播偏见。在国防领域,这些偏见可能会影响关键功能:从指挥、控制、通信、计算机、情报、监视和侦察活动到威胁识别和任务规划。所有系统都存在固有的偏见。关键在于识别和减少可能影响军事准备和能力的偏见。如果缺乏管理,偏见可能会扭曲战略决策,从而损害态势感知和其他关键防御功能的有效性。

为了解决这一问题,一是使用广泛的代表性培训数据。对人工智能系统中的偏差进行持续审核可以实现实时检测和纠正。二是使用关键决策的人机交互方法增加额外的审查层。这一方法有助于管理和减轻可能影响军事能力的偏见,最终最大限度地发挥人工智能对国防行动的有益贡献。

失业:人工智能的崛起引发了人们对失业的担忧,从手工角色扩展到国防部门的战略角色。这种转变可能会扰乱关键作用,造成社会经济影响,影响士气并减少军队积累的知识和经验。

为了解决这一问题需要采取一些措施。通过技能提升和再培训计划帮助人员为未来与人工智能相结合做好准备,提高他们管理人工智能系统的能力。

尽管存在一系列的问题,但是将人工智能整合到国防领域仍提供了巨大的机遇。当前的目标不应该是阻止进展,而应该是深思熟虑地管理进展。通过主动承认和解决这些问题,使人工智能在不影响安全、能力或社会价值的情况下,为国防做出重大贡献。

免责声明:本文转自航天防务,原作者李亚莲。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!

转自丨航天防务

作者丨李亚莲

研究所简介

国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。

地址:北京市海淀区小南庄20号楼A座

电话:010-82635522

微信:iite_er


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1