近日,美国国防部承认,今年在伊拉克和叙利亚的85次空袭中,机器学习算法被用于识别目标,这是美方首次承认人工智能技术已应用于实战。
人工智能首次用于实战
据彭博社报道,负责中东、中亚和南亚部分地区的美国**司令部在今年2月2日的七次空袭中使用了军事人工智能项目M**en的目标识别算法,覆盖了伊拉克和叙利亚的多个地点。
美国司令部首席技术官斯凯勒·摩尔(Schuyler Moore)表示,在哈马斯去年对以色列感到惊讶之后,军方开始在作战行动中部署“M**EN项目”计算机视觉系统。
10月7日,一切都变了,“摩尔告诉彭博社,”我们立即开始高速奔跑,比我们习惯的要快得多。 ”
这些物体识别算法用于识别潜在目标,并最终由人类**系统操作。 据报道,美国使用该软件来识别敌方火箭、导弹、无人机和民兵设施。
事实上,早在2017年,五角大楼就开始开发代号为“M**EN”的军事人工智能项目,并寻找一家能够为无人机拍摄的图像开发物体识别软件的公司。 2017年,美国海军陆战队上校德鲁·库克(Drew Cuckor)表示,五角大楼希望将M**EN软件与该平台集成,以收集情报。
虽然谷歌因其员工将人工智能用于战争而退出了该项目,但其他硅谷科技公司很乐意帮助推动 M**en 项目。
使用大型语言模型改造战场
美军不满足于使用目标识别机器学习算法来提高空袭的准确性和效率,而基于大型语言模型的“战场大脑”才是真正能够改变战场态势的关键技术。 大型语言模型分析和生成文本的能力可以提高五角大楼收集情报和规划行动以指导战场决策的能力。
2023年,随着大型语言模型的出现,美国加速了人工智能技术的军事化。
2023 年 8 月,美国国防部成立了利马特遣队,研究工程智能可以为军队做些什么,其既定目标是保护特遣队,该特遣队由国防部副部长凯瑟琳·希克斯 (Kathleen Hicks) 组成,由人工智能首席办公室领导。 它将分析不同的工具,如大型语言模型,并弄清楚如何将它们集成到军队的软件系统中。
2023 年 10 月,美国人工智能安全局成立了人工智能安全中心,负责监督人工智能的发展并将其整合到国防和防御系统中。 根据美国国防部的说法,人工智能安全中心将集中管理关键系统中人工智能应用的最佳实践,以及评估和风险框架。
美国国防部首席人工智能官克雷格·马爹利(Craig Martell)上周在上周的“国防优势:国防数据和人工智能研讨会”上描绘了一个大型语言模型指导作战决策的场景:“想象一下,在这样一个世界里,作战指挥官可以看到他们做出战略决策所需的一切,态势感知(在战场上)的周转时间从一两天减少到10分钟。 ”
尽管马特尔的想法足够诱人,但美方的“大规模示范作战”计划似乎并不顺利。 “在过去的60到90天里,我们有更多的机会识别目标,”摩尔透露,并补充说,美国司令部也在尝试运行人工智能推荐引擎,看看它是否可以建议在军事行动中使用的最佳组合,并制定攻击计划。 然而,该技术“往往不足”。
军事大型语言模型的挑战
军用大型语言模型最大的障碍是,目前大型语言模型的准确性还远远达不到能够独立可靠运行的“军用水平”。 “没有一种算法可以完全自主地运行,得出结论,然后进入下一步,”摩尔指出,“涉及人工智能的每一步最终都需要人工检查。 ”
数据安全也是美国关注的人工智能安全问题。 虽然ChatGPT是目前最强大的大型语言模型应用(OpenAI在一个月内修改了使用政策,默许军方使用),但美国国防部显然不能接受通用大语言模型ChatGPT普遍存在的数据安全问题。 据报道,美国军方已禁止在内部使用ChatGPT等工具。 例如,美国太空部队告诉工作人员不要使用ChatGPT,因为担心军事机密可能会被泄露或提取。
由于军事数据通常高度敏感,美国军方担心,如果数据进入大型语言模型,即时注入攻击或 API 滥用可能会导致数据泄露。
为了寻找ChatGPT的理想替代品,美国国防部正在加紧努力整合和测试人工智能的作战能力。 例如,美国国防部正在与初创公司Scale AI合作,测试军事生成式AI模型。
军用大型语言模型进入实战最大的安全问题是容易产生不准确或虚假的信息,即所谓的机器幻觉。 五角大楼认为,通过引入Scale AI,可以测试不同模型的性能,以识别潜在风险,然后再考虑使用它们来支持行动或情报。
ScaleAI 负责为五角大楼开发一个工具和数据集框架,以评估军事大型语言模型。 该框架的功能包括“测量大型模型性能,向作战人员提供实时反馈,以及创建专门的公共部门评估集来测试军事应用的人工智能模型。
美国国防部有责任在采取适当保护措施的同时追求生成式人工智能模型,并减轻训练数据管理不善等问题可能带来的风险,“美国国防部首席人工智能官马特尔说。 ”