美国新闻网站Axios 5月1日报道,基于机器学习的老式人工智能已经深深融入美国军方,被用于从供应链分析到解释卫星数据等方方面面。但是,快速发展的生成式人工智能却在五角大楼的应用中遇到了诸多阻碍。军事专家表示,为了做到负责任地使用这一技术,将进一步测试和评估它的优点和局限性。
2023年9月,太空军暂停了使用生成式人工智能。今年6月,美国海军首席信息官拉思本指出,虽然生成式人工智能可以成为一种力量倍增器,但商用模型应用显示,它存在固有的的安全漏洞,不推荐军事应用。
生成式人工智能存在的主要问题有:
胡佛研究所战争游戏和危机模拟项目主任施耐德和AI研究员兰帕斯研究发现,生成式人工智能大型语言模型存在潜在的危险倾向,有可能采取核行动。他们测试了来自OpenAI、Anthropic和Meta的大型语言模型来模拟战争游戏等的情境。测试中发现,这些人工智能更倾向于建议事态升级、军备竞赛、冲突甚至使用核武器,而不是选用其他替代方案。
人工智能模型对军事术语的理解不太精准,立法者也担心它的数据处理方式。军事和情报专家指出,AI模型可以筛选大量数据,但无法告诉你它们如何得出特定的答案或建议的。
生成式人工智能不擅长处理突发事件。
军方的数据所有权很严格,五角大楼任何人都难以用这些数据作为生成式人工智能的用例。
许多指认人士称,生成式人工智能在社交媒体上都不够可靠,更不用说军事应用了。他们认为,五角大楼放缓采用这项新技术是明智的。国防部和各军种需要采取渐进式方式,以弄清楚在何处应用人工智能,并让其服务于国家利益。
———— / END / ————
关注公众号了解更多
会员申请 请在公众号内回复“个人会员”或“单位会员
欢迎关注中国指挥与控制学会媒体矩阵
CICC官方网站
CICC官方微信公众号
《指挥与控制学报》官网
国际无人系统大会官网
中国指挥控制大会官网
全国兵棋推演大赛
全国空中智能博弈大赛
搜狐号
一点号