在数字战争的新时代,人工智能已成为战场上的一颗冉冉升起的新星。 美国国防部最近宣布,它将与初创公司Scale AI合作,测试生成式AI模型在军事应用中的潜力。
据总部位于香港的IDC称,这家总部位于旧金山的公司将建立一套为五角大楼量身定制的工具和数据集框架,以帮助他们评估和完善大型语言模型的能力。 该框架将包括衡量模型性能,为战场上的战斗机提供实时反馈,并创建一套专门的公共部门评估,以测试人工智能模型在军事支持应用中的表现,例如整理作战报告的调查结果。
大型语言模型分析和生成文本的能力有望提高五角大楼收集情报和计划作战行动的能力,从而有助于在战场上做出决策。
想象一下,战斗指挥官能够实时获得他们需要的所有战略信息。 "想象一下,这些战斗指挥官不再需要通过 PowerPoint 或组织内的电子邮件访问信息——情境响应时间已从一两天缩短到十分钟。 "国防部数字和人工智能负责人克雷格·马爹利(Craig Martell)在国防数据和人工智能研讨会上表示。
然而,虽然人工智能可以快速处理大量信息,但它也存在安全风险。 军事数据通常非常敏感,人们担心一旦这些信息进入大型语言模型,就可能导致由于即时注入攻击或 API 滥用而导致数据泄露。
最大的障碍是这些模型往往会产生不准确或虚假的信息,这种现象被称为“幻觉”。 随着Scale AI的引入,五角大楼希望测试不同模型的性能,以识别潜在风险,然后再考虑使用它们来支持战斗或情报收集。
据报道,这家初创公司将编制一个“保留数据集”,其中包含可用于军事用途的有效应对措施示例。 然后,国防部可以比较不同模型对同一提示的响应,并评估其有用性。
去年,美国国防部成立了利马特遣队(Task Force Lima),该团队由马爹利(Martell)领导,他曾在拼车公司Lyft领导机器学习,致力于生成式人工智能的军事应用。
马爹利当时解释说:“国防部有责任负责任地采用生成式人工智能模型,同时确定适当的保障措施并减轻因训练数据管理不善等问题而可能产生的风险。 我们还必须考虑我们的对手将如何利用这项技术并试图破坏我们自己的人工智能解决方案。 ”
尽管如此,ChatGPT 等工具在内部暂时禁用,因为担心军事机密可能会被泄露或提取。 美国太空部队告诉员工不要使用该软件。
对此,Scale AI选择保持沉默。