当前位置:首页|资讯|人工智能|自动驾驶|汽车

基于人工智能的军事决策过程中的未来战争与责任管理!

作者:中国指挥与控制学会发布时间:2023-07-18

原标题:基于人工智能的军事决策过程中的未来战争与责任管理!

摘要:人工智能(AI)技术在军事用途中的应用正在快速增长。因此,自主武器系统已经能够侵蚀人类的决策权。一旦部署了此类武器,人类将无法改变或中止其目标。尽管自主武器拥有重要的决策权,但目前它们无法做出道德选择。本文重点介绍人工智能在军事决策过程中的伦理影响,以及具有机器学习 (ML) 功能的人工智能系统的特征如何与人类决策协议相互作用。作者认为,在未来,这些机器可能能够做出类似于人类做出的道德决定。基于严格的技术、道德和文化参数对人工智能系统进行详细而精确的分类,对于确定哪种武器适合特定任务和最合乎道德至关重要。

关键词:人工智能、机器学习、致命自主武器系统、决策、军事伦理、指挥官责任

人工智能技术在军事用途中的应用正在快速增长。人工智能技术已经支持几个新的系统和平台,包括动能和非动能(例如,具有爆炸性有效载荷或网络攻击的自主无人机)。尽管人类在部署此类武器中的作用仍然极为重要,但人工智能的使用越来越多,使得武器能够侵蚀人类的决策权。人类可以完全控制半自主武器系统。他们拥有部分控制权,但最终保留了覆盖受监督自治系统的能力,最终无法控制无监督自治系统。在最后一种情况下,一旦部署了这些系统,人类将无法改变或中止其目标。

可能最具争议的武器是无人监督的自主武器,因为一旦部署,人类就没有能力控制它们。尽管目前可用的此类武器数量有限,但很可能继续开发自主武器,其适用性将扩大。1

学者和从业人员之间关于使用这些武器系统的辩论主要集中在其潜在目标上;然而,在这篇文章中,作者建议我们应该将这些武器系统的使用视为任务的一部分。半监督和监督自主武器系统将由军事运营商部署以支持任务,而自主武器将被赋予任务完成。我们处理的核心问题是,尽管自主武器可能被授权完成任务,因此将拥有重要的决策权,但它们很可能无法做出道德选择。事实上,自主武器系统仍然缺乏的是,如果分配的任务可能产生不可预见的不道德后果,探索和考虑替代行动方案的能力。例如,在一枚巡飞弹药被赋予摧毁雷达站的任务后,在攻击的关键时刻,一辆载有家人的民用车辆可能会经过目标。自主武器系统将继续执行其任务,并可能忽略任何可能的不道德附带损害。

因此,人工智能在战场上的部署引发了关于责任差距问题的重要争论。关于致命自主武器系统(LAWS)的使用,Ann-Katrien Oimann详细探讨了当前关于责任差距问题的辩论。她指出了两个主要立场,即那些认为可以通过采用三种不同的方法(技术解决方案、实际安排和追究系统责任)来填补负责任的差距问题的人,以及那些认为问题无法解决的人。2作者认为,有一种办法在某种程度上有可能弥合这些显然不可调和的立场。事实上,根据严格的参数对人工智能系统进行详细和精确的分类,对于确定哪种武器适合特定任务至关重要。这些参数可能具有技术、道德和文化性质。例如,假设具有执行给定任务的正确功能的特定 AI 系统可用。在这种情况下,故意使用不同人工智能系统的指挥链应该对潜在的不道德结果负责。但是,如果使用了正确的AI系统,但它做出的决定导致了意想不到和不道德的结果,则该事件应被视为该决定是由人类善意做出的。最后一个案例清楚地表明,为什么文化因素,即人类愿意接受人工智能潜在有害的决定,将在人类决策过程中的人工智能整合中发挥决定性作用。

今天的自主武器无法做出道德选择这一事实并不一定意味着它们永远无法做出道德决定。作者认为,在未来,这样的机器可能能够做出类似于人类做出的道德决定。

因此,必须尽可能多地探索和确定哪些机器决策,特别是道德决策,可以为人类所接受。如果不这样做,可能会产生两个影响。一方面,那些对人工智能系统过于自信的人可能倾向于接受所有自动化决策,认为计算机比人类敏锐得多。另一方面,那些对计算机决策持怀疑态度的人,因为他们认为计算机永远不符合足够的道德标准,可能不会接受任何人工智能生成的决定。他们可能会放弃这项技术在速度和准确性方面可能为军事决策提供的潜在好处。挑战在于开发一种人工智能驱动的决策方法,在过度自信和怀疑阵营之间确定中间地带。

技术因素和人工智能星系

自主技术将继续增加人工智能的作用,但更重要的是,它们将依靠机器学习来发展模仿人类思维和行为的能力。目前,尽管人工智能试图模拟人类智能,但它仍然缺乏人类的好奇心或主动性来学习如何做它没有编程的事情。3在人工智能领域,重要的是要注意人工智能狭义智能(ANI)系统所扮演的角色,该系统可以执行仅限于特定区域的任务(谷歌地图可以绘制路线,但不能预测天气);以及更类似于人类智能的通用人工智能 (AGI) 系统,因为它在决策时具有“看到整体的能力”。4虽然已经有许多高效ANI系统的例子,但目前证明不可能开发出可靠的AGI系统来支持决策过程。5因此,本文将主要提及 ANI,将它们标识为 AI 系统。关于机器学习,James E. Baker将其定义为“计算机使用算法,计算和数据来学习更好地执行编程任务从而优化功能的能力。6

尽管能够在优化资源的同时提供更好、更快的输出,但被编程为下棋的机器永远不会主动学习如何玩不同的游戏,例如跳棋,因为它们仅限于执行编程的那些动作。作者并不排除人工智能系统可能以不可预测的方式运行的事实。本文基于对它可能发生的担忧。这意味着,如果一个人工智能系统被编程为执行某个动作(玩一个特定的游戏),该系统将提高它玩这个游戏的技能,但它不会主动学习另一个游戏。

这些机器基本上是被动的,但它们在其特定用途的范围内变得更加主动。在过去的二十年中,ML在某些应用程序中的集成改善了AI的积极态度。布莱恩·大卫·约翰逊(Brian David Johnson)正确地指出,我们应该期望“所有技术都将使用AI和ML。该术语的使用可能变得毫无意义,因为AI和ML将被一般软件所包含。7例如,考虑谷歌巢恒温器;这个家装小工具观察用户的行为和生活模式(例如,用户在前几天做了哪些更正?用户什么时候离开家或回来?在一天或一周的不同时刻设置温度值。然而,这种积极态度的改善仍然远远不能反映人类大脑在没有被指示的情况下探索和学习新事物的好奇心。

AI和ML的集成将允许创建可以模仿人类大脑行为的机器。斯图尔特·J·拉塞尔(Stuart J. Russel)和彼得·诺维格(Peter Norvig)提出了一种分类法,根据这些系统“理性思考;理性行事;像人类一样思考;并像人类一样行事。8机器将能够理性地思考和行动,采用明确定义什么是理性对错的标准。9什么是对的,什么是错的,遵循一个静态的行动过程,因此它不会改变。这些机器的一般期望是,给定一组特定的输入,输出将随着时间的推移保持不变。当这些系统的局限性必须在没有正确或错误答案模型的情况下做出决定时,就会出现。像人类一样思考和行动的机器不是指理性,而是试图像人类一样行事。这种差异意味着可以从所有其他事物中的经验中学习的可能性。ML 使机器能够从经验中学习。10但是,如果参考模型基于真的或假的答案,则它们不足以复制人类行为。

人类决策的复杂性需要一种方法,这种方法应该超越计算机算法的典型是或否的二进制逻辑。Bahman Zohuri和Moghaddam Masoud详细分析了模糊逻辑的概念:“一种基于'真度'的计算方法,而不是现代计算机所基于的通常的'真或假'(1或0)布尔逻辑。11模糊逻辑是构建有效人工智能系统的基础,因为它处理决策,不仅将它们分类为完全正确或错误,而且还将这些类别之间的连续统一体分类。可以说,ML和模糊逻辑的结合允许创建自治系统,这些系统可以有效地模仿人类的推理和决策,其独特的能力是从经验中学习并表达判断,例如,几乎正确或不完全错误。

伦理因素:人工智能在决策中整合的伦理方面

人工智能系统在道德领域发挥作用,但它们作为道德代理人的资格需要考虑。詹姆斯·摩尔(James H. Moor)通过伦理代理的不同类型分析了不同机器伦理的本质。他区分了具有隐性代理的机器,其固有设计可防止不道德行为的机器(即“检查和报告药物相互作用的药房软件”);明确的代理,能够“明确表示道德,然后在这种知识的基础上有效运作”的机器;以及完全的道德代理,拥有“意识、意向性和自由意志”的机器。12目前,还没有具有这三个特征的机器;然而,根据摩尔的说法,人工智能系统足够道德,可以充当道德代理,对其特定功能具有所有必要的限制。13人类可以评估机器的道德规范,并在为特定目的而构建时将其用于特定和有限的部门,例如为救灾行动设计的跟踪和分类系统。14如果人类能够达到完全道德能动性的地位,那么人类可以完全信任用于不受约束的通用目的的人工智能系统的伦理。然而,“窄”AI(ANI)是目前唯一可用的系统。

使用人工智能系统来支持自动驾驶汽车引发了一场有价值的辩论,即如何将道德规范整合到人工智能系统中,以培养他们做出道德决策的能力。Vincent Conitzer等人发现,在这个领域,仅靠理性主义的伦理方法可能会导致最大化效用的决定,但可能并不完全合乎道德。15他们建议,最初的理性主义方法应该在以后整合到基于“人类标记实例”的机器学习方法上。16因此,在一个系统学会了如何遵循严格的理性主义方法进行决策之后,人类应该继续向这些系统提供信息,说明在各种不同的情况下什么是正确的道德决策。

诺亚·古道尔(Noah Goodall)在《自动驾驶汽车碰撞期间的道德决策》(Ethical Decision Making in Automatic Vehicles Crashes)一书中采用了类似的方法,但采用了更明确的实际行动序列,以更好地将道德规范整合到自动驾驶汽车的人工智能系统中。古道尔确定了道德人工智能系统开发的三个阶段。在第一阶段,车辆使用理性主义的道德体系(例如,结果主义),根据一般结果(例如,伤害比死亡更可取)采取行动以尽量减少碰撞的影响。17在第二阶段,在第一阶段建立的规则的基础上,车辆将学习如何在一系列真实世界和模拟碰撞场景中观察人类选择做出道德决策。18第三阶段也是最后阶段需要自动驾驶汽车使用“自然语言”解释其决策,以便人类可以理解和纠正其高度复杂且可能难以理解的逻辑。19这种能力将帮助人类理解为什么车辆会做出某些甚至意想不到的选择,开发人员将能够理解,更重要的是,纠正错误的行为和决定。20

Conitzer等人和Goodall同意分阶段的人工智能培训,该培训从实施结果主义方法开始,然后整合基于人的经验和专业知识。21技术进步的快速发展使我们相信,可能很快我们将能够在人工智能系统中建立一个有效的道德框架。开发人员可以采用自上而下或自下而上的方法将道德规范构建到人工智能系统中。对于前者,开发人员将把所有想要的道德原则(即“阿西莫夫机器人三定律、十诫或......康德的绝对命令》)。22通过自下而上的方法,机器将在没有特定道德或伦理知识基础的情况下从多种情况下的人类行为中学习。23

假设技术可以支持完全道德主体AI的发展,那么这样的机器将是进化最快的AI系统。自上而下方法的应用将降低主要从经验中学习的能力,因为机器主要依赖于由有限数量的个人输入的人类标记数据或指令,而不是访问特定动作/行为的整个人类经验。自下而上的方法将使机器暴露在人类的自然缺陷和不当行为中,并允许开发像人类一样可能犯错误的机器。可以说,最后一种情况可能会导致人类过度依赖一个系统,尽管该系统与人类一样不准确,但由于其速度和用户友好性,可能更有效。

最终,对人工智能系统的完全依赖可能会在责任和问责链中造成差距,最终可以“与使用该系统的军事运营商或指挥官保持距离并减轻其责任”。33风险在于,人类觉得自己没有任何责任,可能没有考虑人工智能系统所做决策的伦理影响。然而,在所有那些没有明显、不可预测的技术故障的情况下,全自主武器系统在执行指定任务时所犯错误的责任应由其指挥链承担。

未来战场环境:在决策过程中利用人工智能的优势

在不久的将来,战斗人员将面对能够在空中、陆地、海上、太空和网络空间同时进行的多域作战(MDO)的敌人。在MDO中,人类可能会发现很难做出快速的,更重要的是及时的决策。正是在这样的环境中,自动化系统对于支持人工智能的人类出圈决策过程将非常有益。34这种支持对于节省时间和在敌人身上获得优势至关重要。Anupam Tiwari和Adarsh Tiwari指出,“通常,时间表主要取决于移动设备或人员所需的时间,甚至只是弹药移动到目标的时间。重要的是不要夸大在这些情况下加速决策过程的价值。35然而,这种办法没有考虑到决策过程的持久性;相反,这种办法没有考虑到决策过程的持久性。一旦总部发布命令,部队在战场上移动,观察-定向-决策-行动(OODA循环)循环将继续运行,以保持秩序与共同作战图的变化保持一致。出于这个原因,人工智能系统可能比看起来更相关。

此外,关于OODA循环,机器和人类做出决策的方式有相似之处。例如,Amitai和Oren Etzioni表示,自动驾驶汽车“被编程为收集信息,处理信息,得出结论,并相应地改变它们的行为方式,而无需人工干预或指导。36这些车辆被编程为以与军队通过OODA循环相同的方式接近决策过程。

如果“定向”阶段以定义一些行动方案 (COA) 结束,则下一阶段是对这些 COA 进行比较和加权以做出决定。假设人工智能系统的完全可靠性,他们可以决定人类应该实施什么选项。事实证明,时间是成功的关键资源,在不久的将来,似乎每一分之一秒都可能是决定性的。人类不太可能以与AI / ML相同的速度自给自足地管理情况。45经过训练以实现模糊逻辑的改进自治系统可以提供准确和快速的决策。46

在“行动”阶段,人工智能可以改善部队保护。事实上,AI/ML系统有能力运行机器人和自主系统(RAS)。正在测试许多不同的RAS类型,以减少人类参与战斗并提高武装部队的表现。能够依靠先进的自主性,使RAS能够在更长的时间和更远的距离内执行危险任务,同时减少处于危险中的人员数量。47

平衡技术、道德和文化因素

在未来技术创新的应用中,在人类对人工智能的两种极端方法之间确定一个中间点至关重要。一方面是绝对的怀疑,另一方面是对使用人工智能的无条件信任。作者认为,确定这样一个中间点应考虑三个因素:技术、伦理和文化。48这个中间点的位置实际上可能有时比另一侧更靠近一侧,这取决于三个因素中每个因素的相关性。

图1. 因素平衡

资料来源:作者提供,MCUP改编。

在图 1 中,在轴的原点,三个因素处于各自的最小值。最小值表示技术不支持数据处理的条件;道德不能被纳入决策;而且,从文化的角度来看,不可能接受机器可以代表人类做出决定。三角形代表三个因素达到平衡的点,为适合有效和道德决策的人工智能系统创造条件。虚线箭头表示从原点到平衡点的距离。

尽管目前这个平衡点已经远离了原点,但人工智能远非具有道德维度的决策的完全可信支持。可以再次使用GPS导航仪的示例来描述当前情况。该技术允许处理相关数据,以确定个人在世界中的位置,将其与不同的地理点相关联,并评估所有变量(时间,空间和法律),为该个人提供到达终点的最佳路径。这种选择的道德含义很简单,以至于可以通过基本的功利主义模型使这个决定在道德上被接受,这种模型使主体的幸福最大化,同时减少他们的痛苦。

如果主题的优先级是旅行的持续时间,人工智能将开发一条路径,尽管它是一条更长的路线,可能需要一些通行费,但与其他选项相比,它仍然是最快的。此外,像谷歌地图这样的应用程序正在实施新功能来计算节省汽油消耗的路线,以帮助减少一氧化碳。2排放。最后,人类现在习惯于使用GPS,并且已经接受了一种文化,这种文化很容易接受这种工具来支持决策。也可以得出结论,人类信任GPS导航仪,因为技术,道德和文化这三个因素融合在一起,形成平衡的,相互支持的互动。这个例子表明,人类信任GPS,因为他们习惯了它的AI(文化因素),它可以正确地进行数学(技术因素),而不会产生不道德的风险(道德因素)。

但是,如果这些因素中的一个或多个失衡,那么人类依赖人工智能系统是不安全的。例如,想象一下当三个因素之一损害整体平衡时会发生什么是很有趣的。ML技术可能会改善决策,为人类带来质的飞跃。然而,由于其硬件和软件的固有设计,这种技术可能会受到缺乏透明度的影响,这可能会影响人类控制AI / ML系统的方式。49

应该抵消可能缺乏透明度的问题;首先,通过适合满足任务特定要求的道德框架,使机器的决定在道德上是可以接受的; 其次是人类使用这项技术的习惯有所改善。第一种缓解措施避免了道德上不需要的二阶和三阶效应,而第二种缓解措施则减少了人类对未知事物的自然恐惧。后一个方面值得更多解释。

人类在决策中的优势仍然存在,但在这种优势还不够的情况下,人工智能可能仍然非常有帮助。例如,始终看到大局的能力,加上坚实的道德背景,使人类在广谱决策中更加敏锐。尽管如此,人工智能每秒处理更多数据的能力可以使人工智能在狭窄和特殊的情况下起决定性作用。人类将不得不承认,在某些情况下,他们最好的决定可能比人工智能系统最糟糕的决策更糟糕。事实上,当敌人发动导弹攻击时,关于反导弹炮兵反应的准确但较晚的人类决定比尚未完全正确的人工智能决定更危险。这至少可以减轻由于人工智能的决策速度而造成的损害。未来,技术改进将允许设计越来越精细的人工智能系统,能够做出与人类相同类型的决策。然而,人类将根据他们的知识或通过他们的经验直接(自上而下)或间接(自下而上)训练这些人工智能系统。50我们有理由相信,在训练结束时,人工智能系统将能够非常密切地复制人类推理的动态;这样的推理有望包括伦理思维,并将具有与人类伦理思维相同的谬误。尽管如此,人类应该将依赖人工智能作为其文化的一部分,特别是当情况需要在非常有限的时间内处理不成比例的数据时。因此,人工智能系统极有可能仍然会犯错误,但在某些条件下(例如,可用时间和数据量),它们可能比人类更可靠。

机器的易错性可能不是问题,但人类几乎无法接受它。问题在于,在某些情况下,特别是那些涉及人们安全的情况下,如果由人类而不是机器犯同样的错误,可能更容易容忍。这种对人工智能系统的不信任背后有两个原因:首先,人们认为人类可能会犯错误,而机器应该是完美的;其次,当人工智能系统出错时,没有人可以责怪。事实上,可以惩罚犯错的人,但不能惩罚机器。51

虽然这两个原因使得很难接受机器关于人类安全的决定,但决策支持工具的必要性是人类文化倾向的基础,即接受人工智能系统可能完全或部分代表他们做出决定。

人类致力于研究和开发新技术,因为他们相信这些技术将改善人类的福祉和人们的生活质量。这种看法会影响人类愿意依赖人工智能的程度。人类越难保证特定任务的高标准速度和效率,他们就越觉得需要技术支持以提高他们的性能,因此,他们将更愿意依赖机器。因此,只要人类将机器最差的性能视为与人类在同一动作上的最佳性能相比更好的输出,他们就可以安全地依赖人工智能系统。

结论

在看到人工智能在提高人类道德决策效率方面的潜力之后,个人必须尽一切努力定义客观参数,以确定人工智能系统的平衡点。人工智能系统应该被编目并与某些情况条件(例如,紧急性或要处理的信息量)相关联,以允许用户确定哪些系统为他们的目的带来最大利益。

这样,军事指挥官可以更好地决定在什么情况下使用哪些工具。指挥官可以大大减少在决策过程中投入的时间,并意识到给定系统的不完全适用性,并实施必要的安排以减轻可能错误的影响。这个过程的重要性在于,人工智能已经普及,所有竞争对手都可以使用。因此,无法优化人工智能系统的使用将意味着从相当大的劣势开始,这可能会损害实现和保持对敌人主动权的能力,从而接受按照敌人的条件进行战斗。人工智能在军事决策过程中的应用很可能是不可避免的,因此,军事领导人和人工智能开发人员可能会研究如何将道德规范纳入人工智能系统。有不同程度的道德机器,从基本功利主义框架的实施,到道德上更复杂和精密的系统。这些不同类型的机器将能够在决策过程的不同复杂阶段执行。

军事领导人应该对他们做出的决定负责。当人工智能系统用于支持其决策过程时,这种问责制也必须持续存在。拥有一个目录,确定哪种设备适合以及在不同情况下用于什么目的,这是将责任分配给正确个人的基本条件。如果指挥官故意不为特定任务使用适当的设备,他们应对决定负责。然而,如果指挥官选择了正确的设备,但设备失败了,并且如果对其他参与者的责任(例如,人工智能设计师,代码开发人员)的后续调查确定没有一个参与者有直接责任,那么人类可能应该接受结果是不可预测的。

未来的研究应该研究如何在平衡点为三个因素的权重赋值。就技术而言,它可以是依赖或不拥有特定技术特征或某些组件的简单而有效的方法。关于伦理学,定义一个与纯粹基于功利主义逻辑的特定伦理模型相关的价值尺度可能会有所帮助,或者还可以考虑更深刻的影响或评估二阶和三阶效应。最后,文化因素可能是克服的最具挑战性的障碍,因为它具有主观性,并且在某种意义上是短暂的。但是,诸如在人群中的扩散或设备使用的时间等参数可以作为建立值的起点。

尾注

  1. 无监督自主武器的使用正在迅速增长,其使用已被证明是一种优势。 在2020年纳戈尔诺 - 卡拉巴赫战争期间,阿塞拜疆对亚美尼亚使用了以色列制造的IAI HAROP游荡弹药,并取得了出色的效果,这证明这种武器可以非常强大。 见布伦南·德弗劳,“在乌克兰及其他地区游荡弹药”,岩石战争,22 年 2022 月 日。
  2. ML并不排除培养好奇心。 然而,如果人类不指导人工智能/机器学习系统,它们就无法学习一些东西。 例如,基于AI/ML系统的恒温器可以学习如何提高人类在家中的舒适度,但在人类改变算法之前,学习如何下棋并不奇怪。
  3. Fjelland,“为什么通用人工智能不会实现”,7。
  4. 詹姆斯·贝克,《半人马的困境: 即将到来的人工智能革命的国家安全法》(华盛顿特区: 布鲁金斯学会出版社,2020 年),第 14 页。
  5. 布莱恩·大卫·约翰逊,“自主感知技术和道德商业的未来”,在道德@工作: 近期的困境以及您的组织如何解决它们,克里斯·奥斯特加德编辑(德意志州米德尔敦: 重新人性化出版,2022 年),第 69 页。
  6. Stuart J. Russell和Peter Norvig,《人工智能: 现代方法》(Hoboken,NJ: Pearson,2009),2-5。
  7. 作者同意这样一个事实,即强烈的康德道德行为观适用于人类是不可信的。 在这里,我们专注于其行为由它们收到的特定输入决定的机器。 正如Russel和Norvig所说,机器理性思考,理性行动。 为了像人类一样思考并像人类一样行事,他们需要使用ML并采用非二进制逻辑方法。
  8. 人工神经网络(ANN)是在机器上实现学习技能最常用的解决方案之一。 这项技术的主要思想是模仿人脑在人工神经节点不同层中的神经连接。 不正确的输出会在内部和隐藏的神经层中产生适应,直到结果正确。 因此,经验更丰富的机器会更有效。 然而,这项技术仍然存在透明度问题,因为就像人脑一样,尚不清楚机器如何管理这些适应。 这种缺乏透明度可能会阻止人类理解在误报输出的情况下是否以及为什么发生故障。
  9. Bahman Zohuri和Moghaddam Masoud,神经网络驱动的人工智能(Hauppauge,NY: Nova Science Publishers,2017),15-17。
  10. James H. Moor,“机器伦理的本质、重要性和难度”,IEEE Intelligent Systems 21,no. 4 (2006): 19–20,https://doi.org/10.1109/MIS.2006.80。
  11. 摩尔,“机器伦理的性质、重要性和难度”,20。
  12. 摩尔,“机器伦理的性质、重要性和难度”,20。
  13. Vincent Conitzer等人,“人工智能的道德决策框架”,AAAI人工智能会议论文集31,第1期(2017): 1-5,https://doi.org/10.1609/aaai.v31i1.11140。
  14. Conitzer等人,“人工智能的道德决策框架”,1-5。
  15. Noah J. Goodall,“自动驾驶汽车碰撞期间的道德决策”,运输研究记录2,424,第1期(2014): 7-12,https://doi.org/10.3141/2424-07。
  16. 古道尔,“自动驾驶汽车碰撞期间的道德决策”,7-12。
  17. 古道尔,“自动驾驶汽车碰撞期间的道德决策”,7-12。 在ANN的隐藏层中发生的事情对人类来说是模糊的。 软件开发人员无法理解基于ANN的机器如何达到其输出以及它们在此过程中如何自我纠正。 将机器语言翻译成自然语言的接口将有助于理解机器的工作原理以及可能发生错误的地点和原因。
  18. 古道尔,“自动驾驶汽车碰撞期间的道德决策”;Alan F. Winfield和Marina Jirotka,“道德治理对于建立对机器人和人工智能系统的信任至关重要”,皇家学会哲学学报A: 数学,物理和工程科学376,第2,133期(2018): https://doi.org/10.1098/rsta.2018.0085
  19. Conitzer等人,“人工智能的道德决策框架”,1-5;古道尔,“自动驾驶汽车碰撞期间的道德决策”。
  20. Etzioni和Etzioni,“将伦理纳入人工智能”,406-7。
  21. Etzioni和Etzioni,“将伦理纳入人工智能”,405-6。
  22. Zohuri 和 Masoud,神经网络驱动的人工智能,15-17;Etzioni和Etzioni,“将伦理纳入人工智能”,403-18。
  23. Etzioni和Etzioni,“将伦理纳入人工智能”,403-18。
  24. Etzioni和Etzioni,“将伦理纳入人工智能”,406-7。
  25. Etzioni和Etzioni,“将伦理纳入人工智能”,407。
  26. Forrest E. Morgan 等人,人工智能的军事应用: 不确定世界中的伦理问题(加利福尼亚州圣莫尼卡: 兰德,2020 年),xiii-xiv,https://doi.org/10.7249/RR3139-1。
  27. 贝拉比,“人工智能武器能做出道德决定吗? ”,95-97。
  28. 摩根等人,人工智能的军事应用。
  29. Anupam Tiwari 和 Adarsh Tiwari,“决策 OODA 中的自动化: 循环、螺旋或分形”,i-manager's Journal on Communication Engineering and Systems 9,第 2 期(2020): 1–8,http://dx.doi.org/10.26634/jcs.9.2.18116。
  30. Tiwari 和 Tiwari,“决策 OODA 中的自动化”,第 16-17 页。
  31. Etzioni和Etzioni,“将伦理纳入人工智能”。
  32. AI-ML的计算速度在不断增长,不考虑量子计算。 出于这个原因,人工智能能够处理大量信息的期望是现实的。 如果提供给算法的信息(任何数量的信息)是准确的并且具有正确的标准,人工智能将继续提供越来越好的结果。 问题是当大量信息未经过滤且没有正确应用正确的标准时提供给人工智能时。
  33. Daniels J. Owen,“用人工智能加速 OODA 循环: 一个有用或限制的框架”(论文,联合航空航天力量会议,7 年 9 月 2021 日至 159 日),第 67- 页。
  34. 欧文,“用人工智能加速OODA循环”,159-67;贝克,《半人马的困境》,第30-31页。
  35. 美国陆军机器人和自治系统战略(弗吉尼亚州尤斯蒂斯堡: 美国陆军训练和条令司令部,2017 年),10。
  36. Tiwari 和 Tiwari,“决策 OODA 中的自动化”,第 1-8 页。
  37. 费尔南多·德拉克鲁兹·卡拉瓦卡,“跨域同步的动态 C2: 高级领导者视角”(论文,联合航空航天力量会议,7 年 9 月 2021 日至 81 日),第 89- 页。
  38. Tiwari 和 Tiwari,“决策 OODA 中的自动化”,第 1-8 页。
  39. 欧文,“用人工智能加速OODA循环”,159-67。
  40. 欧文,“用人工智能加速OODA循环”,159-67。
  41. Michael Doumpos和Evangelos Grigoroudis编辑,多准则决策辅助和人工智能: 链接,理论和应用(英国奇切斯特: John Wiley & Sons,2013),34。
  42. 美国陆军机器人和自主系统战略,3。
  43. 这个想法并不一定背离大多数文献。 这个想法旨在为在决策过程中使用人工智能时如何分配责任提供更好的方法。 定义参数,明确将每个人工智能系统与其可能的就业领域联系起来将是有益的。 例如,定义针对特定情况选择正确 AI 系统的责任。 这种选择不应该只与以下问题联系在一起: 这个系统能够做出这个决定吗? 它还应该理解与决策过程中的道德能力以及人类对该特定人工智能系统的接受率有关的问题。
  44. Alan F. Winfield和Marina Jirotka,“道德治理对于建立对机器人和人工智能系统的信任至关重要”,皇家学会哲学学报A: 数学,物理和工程科学376,第2,133期(2018): 6,https://doi.org/10.1098/rsta.2018.0085。
  45. Etzioni和Etzioni,“将伦理纳入人工智能”,403-18。
  46. 亚历山大·麦克纳马拉,“大多数公众认为'人工智能不应该犯任何错误'”,《科学焦点》,6 年 2020 月 日。

本文来源:未来科技前沿

关注公众号了解更多

会员申请 请在公众号内回复“个人会员”或“单位会员

欢迎关注中国指挥与控制学会媒体矩阵

CICC官方网站

CICC官方微信公众号

《指挥与控制学报》官网

国际无人系统大会官网

中国指挥控制大会官网

全国兵棋推演大赛

全国空中智能博弈大赛

搜狐号

一点号


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1