在数字化战争的新纪元,人工智能已成为战场上的新星。美国国防部近日宣布,将与初创公司Scale AI协作,测试生成式AI模型在军事领域的应用潜力。
据香港IDC新天域互联了解,这家坐落于旧金山的企业将为五角大楼量身打造一套工具和数据集框架,帮助它们评估和提炼大型语言模型的能力。这个框架将包括衡量模型性能、为战场上的战士提供实时反馈、以及创建专门的公共部门评估集,用于测试AI模型在军事支持应用中的表现,例如整理行动报告后的发现。
大型语言模型分析和生成文本的能力,将用于提升五角大楼搜集情报、规划作战行动,从而在战场决策中起到助力作用。
想象一下,战斗指挥官能够实时获取他们需要的所有战略信息。"想象一下那些战斗指挥官不再需要通过PowerPoint或组织内部的电子邮件来获取信息——情况认知的反应时间从一两天缩短到了十分钟。"国防部首席数字和人工智能官员Craig Martell在Defense Data和AI Symposium上这样阐述。
但AI在快速处理大量信息的同时,也存在安全隐患。军事数据往往极为敏感,官员们担心,一旦这些信息进入大型语言模型,可能会因为即时注入攻击或API滥用而导致数据泄露。
最大的障碍是这些模型倾向于产生不准确或虚假信息,这种现象被称为“幻觉”。引入Scale AI,五角大楼希望能测试不同模型的性能,以识别潜在风险,在考虑使用这些模型支持战斗或情报收集之前。
据报道,这家初创公司将编制“保留数据集”,里面包含对军事用途有用的有效响应示例。国防部官员随后可以比较不同模型对相同提示的响应,并评估其实用性。
去年,国防部成立了Task Force Lima——一个由曾在共享出行公司Lyft担任机器学习负责人的Martell领导的团队,专门研究生成式AI的军事应用。
Martell在当时解释说:“国防部有责任负责任地采用生成式AI模型,同时确定适当的保护措施,并减轻可能由于诸如训练数据管理不善等问题而导致的国家安全风险。我们还必须考虑到对手将如何利用这项技术,并试图破坏我们自己的AI解决方案。”
尽管如此,出于担心军事机密可能被泄露或提取,像ChatGPT这样的工具在内部暂时被禁用。美国太空军告诉员工不要使用该软件。
对于此事,Scale AI选择了保持沉默