当前位置:首页|资讯|ChatGPT

ChatGPT军事运用的几个误区

作者:中国指挥与控制学会发布时间:2023-05-13

原标题:ChatGPT军事运用的几个误区

2022年12月,国际知名OpenAI公司发布了ChatGPT3.5。仅仅不到3个月,OpenAI公布了最新版本GPT-4。与3.5版本相比,GPT-4在识图能力、回答准确性等方面能力得到跃升。ChatGPT的横空出世掀起一波巨浪,有人把它喻为互联网革命后的又一次人类技术的大进步,甚至把它与工业革命对人类社会的进步作用相比肩。恩格斯曾预言:“一旦技术上的进步可以用于军事目的并且已经用于军事目的,它们便立刻几乎强制地,而且往往是违反指挥官的意志而引起作战方式上的改变甚至变革。”那么,ChatGPT能否应用于军事目的,会不会像互联网技术一样引起作战方式的变革呢?单从目前ChatGPT的功能及原理来看,至少现在还不能对军事领域产生较大的影响,其理由有以下几点。

ChatGPT还不具备军事智能

ChatGPT到底有没有出现人类智能,进而拥有军事智能?有人认为ChatGPT能够写诗、编代码、绘画、写论文等等这些人类需要智能,而且是高智能才能完成的工作。因而ChatGPT应该已经具备了人类的一些智能。这种说法犯了一个错误,错误事实在于把结果与过程等同起来。如一个简单的计算器能算出9位数的平方根,而人类几乎极难完成,但不代表计算器比人类聪明。

再分析ChatGPT为何有如此的能力,实际上ChatGPT是一个大语言模型,其技术根源是运用“无限猴子定理”,形象的比喻ChatGPT是一只升级版的,讲逻辑、懂道理、会表述的猴子。“无限猴子定理”认为,让一只猴子在打字机上随机地按键,当按键时间和按键次数达到无穷时,猴子几乎必然能够打出任何给定的文字,比如莎士比亚的全套著作。当猴子在无穷的某一时刻打出一段莎士比亚著作中某一句话时,只是纯粹的巧合、运气与概率。

如何在接近无穷次的语句挑出契合人类思维和表述习惯的答案,ChatGPT开始运用贝叶斯定理进行反向推理。贝叶斯定理看起来平淡无奇,但给人类提供了探知未知概率的方法。人们首先有一个先验猜测,然后结合观测数据,修正先验,得到更为合理的后验概率。这就是说,当你不能准确知悉某个事物本质时,你可以依靠经验去对未知世界的状态步步逼近,从而判断其本质属性。ChatGPT正是运用了贝叶斯的“逆向概率”,把贴近人类常用表达的字词留下,无用的字词撇去,从而得到一句符合人类逻辑的话。因而,ChatGPT的核心原理是概率论,是贝叶斯定律的胜利。

从ChatGPT底层技术的运用逻辑,不难看出ChatGPT仍然是数学和计算机科学相结合的产物。无论它产生的结果多么贴近人的答案、出乎人的意料、超越人的能力,但它仍然不具备人类的智能,更不可能产生人类智能。从这个角度来看,ChatGPT和过去出现的机器学习、深度学习等一样,只是人工智能的另一个产品,是倾向于自然语言处理系统的。它目前难以形成人类智能,也就不可能出现军事智能,更不会引起作战方式的变革。

ChatGPT还不是好参谋

判断人与机器的区别,最经典的测试是图灵测试。让无关的第三人,从人与机器的对话中,能否准确区分于人与机器。如果把这一测试应于ChatGPT与人类之间,或许能够骗过第三人,把机器看作人。可见, ChatGPT在自然语言处理方面的杰出能力。

ChatGPT跟提问人之间这种往复交谈的过程,看上去似乎真的就是一个有思维的人,但严格来说,ChatGPT并不是对它所说的那些东西有了理解。它仍然是一种概率算法,只不过是它的算法、参数等等极为强大。 OpenAI的 GPT-3 模型具有 1750 亿参数量,ChatGPT-3.5,参数数量应该多于1750 亿,ChatGPT4.0技术相比之前的几个版本来说模型规模更大,预计将包含数万亿个参数。这些参数指的是在训练模型前需要预先设置的参数,这些接近天文数字的巨量参数是Chatgpt的能源,是其生存发展的养分。

ChatGPT能否直接运用军事决策辅助呢? 回答却是否定的。我们确实可以通过ChatGPT询问一些关于时事政治、气候地理、军事实力、经济水平等一些与军事领域密切相关的问题,得到一些超乎“意外”的信息,但这些信息的来源是互联网,这些信息的基础是互联网的认知,是基于互联网上所有信息的综合,是互联网自己的答案。

一方面,由于互联网上有关军事理论、军事装备、作战战法、战争案例、力量部署等等信息资源的天然缺陷。无论它引用或综合了某一论坛、某一网站、某一网友的结论,或者从零样本或少量样本中生成具有语法和语义正确性的新军事信息方案,看上去是哪样的“完整”,但由于其信息本源是残缺的,信息来源是无事实依据的,其答案就不可信了。因为,假消息是军事决策领域的最大忌讳; 另一方面,一旦数据源本身或者算法存在偏见和错误,其结论同样会继承错误和偏见。

同样,如果ChatGPT的技术直接移植到军事情报领域,但由于缺乏庞大、巨量的既往信息资源和每天产生的海量信息资源的支持,其也难以做出“完美”的决策。诚然,ChatGPT能够协助指挥员快速生成标准的军用文书,提升参谋人员作业的效率;ChatGPT能够突破语言文字交流壁垒,让交流沟通和信息获取更加顺畅,但这些能力不是参谋的核心能力,只是参谋的基本素质,只是一个工具,本身需要人来掌握。因而,其离一名优秀的参谋还有相当大的距离,不是其能力不够,而是其头脑中的真实军事信息、数据缺乏,难以提出适合的、科学的建议和方案。

ChatGPT还不能进行决策对抗

军事斗争是人类特殊的一个领域,它需要进行博弈,需要基于对方的态势,下一步可能的行动,决策自己的行动,再预测对方的行动,对己方应对行动作出安排。其遵循的是“观察-调整-决策-行动”的OODA循环,最基本的博弈策略是对方更快更好地完成OODA循环,比拼的是谁能够在短时间完成OODA循环。显然,ChatGPT是无法完成这一决策环的。ChatGPT的专长是生成“与人类作品类似”的文本,它不能生成“与战场适应”作战方案。ChatGPT能够生成符合语法的文字,但它目前还不能进行数学计算、逻辑推理等等另一些复杂的工作。军事领域的斗争策略确实可以用文字来显示,但真正对文字起作用是人的思维对周围信息的感知、环境的判断形成的决策。加之,战场环境信息瞬间万变,理性决策和非理性决策充斥整个斗争过程。ChatGPT是无法适应这一变化的。人们也经常发现ChatGPT “一本正经”地“胡说八道”,其原因是因为对它没有听过的东西,无法给出正确的回答。在对话连贯性上,一旦进行长时间对话,ChatGPT的回话会上下不一致,容易生成不合理或矛盾的回答,这些虚假、不确定信息会导致出现重大指挥失误。

哲学家笛卡尔的一句名言,“我思故我在”,他这句名言有两个“我”,分别代表不同的“我”。前一个我对后一个我进行观察,有一个永远质疑“我”的“我”。 对比应用到战争博弈,也是同样有两个我,我对我的观察,我对我的质疑,我对我的判断。要想用人工智能去模拟一个自我,得先要知晓我的认知,而问题是我的认知又恰恰是不能被观察和认识的,也就更无法模拟了。同样,在军事斗争的最高形式——战争指挥上,就是两个“大我”的博弈。既然,最底层的我是不能被模拟的,后面的我更不能被认知。这就决定了ChatGPT无法具备人的主观能动性,不会有非理性思维的能力,也就无法去设定战争目标,进而去实现战争目标。它强大的推理能力、计算能力,都是用来人为实现战场目标而服务的。决策的本身是人的目标对抗,ChatGPT还不具备自主对抗的能力。

虽然ChatGPT暂时还不能广泛直接运用于军事领域,但人类在ChatGPT发明、升级、改造过程中获得的知识、积累的经验和取得的技术进步等成果,却让人类越来越接近通用强人工智能。ChatGPT锻炼和提升人的思维能力、提出问题的能力、超越ChatGPT能力的能力,却是军事斗争领域一直以来推崇的。或许不能断言:未来谁掌控ChatGPT,谁就赢得斗争的主动权,但至少有一点可以肯定:ChatGPT给予一方在军事谋略能力的辅助和信息综合能力的提升,一旦超越了对手,也等于间接地掌握了斗争的主动权,胜利的天平就倾向了这一方。

图片来源于网络,转载请注明来源

投稿邮箱: jsb@gmw.cn


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1