科学幻想和现实世界之间的界限变得越来越模糊。 人工智能是2023年最热门的词之一,现在人工智能已经渗透到人们的日常生活中。
根据周三的新闻报道,美国空军目前正在开发新一代更便宜的战斗机,这要归功于现有军用飞机和先进飞行软件的成本飙升,而这一切的关键因素是人工智能飞行员。
这一消息是在美國防部正式確認新一波巴以戰爭後發出的,美方已經利用人工智慧確定攻擊目標並消除它。 据说这是人工智能技术在当代战争中的首次正式应用。
美国家第一度公共做跟人工智能攻击打“敌方目标”。
一日之在美国家军队团队目的85片目标
据央视军事新闻网报道,美国**委内瑞拉科技总监斯凯勒·摩尔2月26日证实,2月份对中东多个地区的空袭使用了AI(AI)系统,以帮助瞄准袭击。 2月3日,对伊拉克和叙利亚的反美势力发动了重大反击。
*截图。 斯凯拉·摩尔(Skylar Moore)是中东的一名军人,他透露了一种可以自主学习和识别目标的人工智能,这对美国在中东的团队起着至关重要的作用。
仅在2月2日,人工智能系统就帮助美方识别了中东地区的85次空袭。 这些行动包括美国飞机和对伊拉克和叙利亚七个基地的空袭。 美国国防部证实,上述袭击完全破坏了,或者更确切地说,完全损坏了当地的火箭,导弹,无人机以及军事设施的储存设施。
“我们使用计算机视觉来识别潜在的危险区域,”摩尔在接受采访时说。 在过去 60 到 90 天内,"我们还有更多"击中目标",尤其是那些在中东被敌人布设的大量导弹发射器的人。
据她介绍,人工智能系统有助于识别也门胡塞武装的导弹发射器以及红海地区的船只。 美国中央司令部证实,2月份对胡塞武装进行了空袭,摧毁了大量导弹和几艘无人舰艇。
报道还提到,尽管美国队此前曾公开表示使用人工智能收集信息,但摩尔的声明首次证实了美国队正在使用人工智能来识别和攻击敌人。
制备现在6年
巴勒斯坦和以色列战争结束后美国家军队广场之高手人工作聪明正式输入做跟
据悉,这项针对攻击目标的人工智能技术是由“M**en计划”(Project M**en)开发的,自2017年以来,一直被视为美国国防部的核心人工智能技术,可以通过无人机拍摄的图像和完整的运动视频自动识别。
据悉,M**en计划的重点是,美国团队利用谷歌的人工智能来分析无人机拍摄的图像,以便进行更多的人工检查。 尽管如此,该计划还是让谷歌的员工感到不安。 2018年,数千名谷歌员工联合起来呼吁谷歌停止与美国国防部的合作。 几个月后,谷歌宣布终止与国防部的合同,该合同原定于2019年结束。
项目 M**en”。
不过,摩尔透露,在谷歌退出后,国防部并没有放弃对人工智能算法和卫星射击的实验。 去年,美国军方进行了一系列电子训练,以测试这种方法的有效性。 在哈马斯于明年10月7日袭击以色列之后,美国团队加紧使用人工智能,将这种定位算法应用于实战。
她还表示,经过一年的数字培训,美国团队已经能够“非常顺利地过渡到M**en系统”。 “10月7日,一切都变了。 摩尔回答道。 “我们的速度越来越快。 ”
有研究认为,M**en系统的功能不仅限于识别特定目标,而是通过对海量信息的综合分析,确定作战目标的位置和可能的危险,进而有效了解作战环境。 更重要的是,马文还可以通过制作精确的数据和优化军队的配置来为后勤和规划提供支持。 这就是所谓的“AI”,也就是所谓的“新游戏规则”。
*截图。 与此同时,美国并不是唯一一个实现这一“飞跃”的国家。 以色列军方此前也曾表示,他们将使用人工智能来确定加沙的袭击地点。 乌克兰方面还表示,他们在美国的协助下,利用人工智能技术,成功地将俄罗斯军队打回了原来的样子。
自俄乌战争开始以来,美国就通过卫星信息和m**en技术向乌军指出了俄罗斯装备的具体位置,然后乌军将利用全球定位系统定位导弹进行打击。 一位知情人士表示,对基辅的援助也有助于国防部完善人工智能的手段。 据一位不愿透露姓名的知情人士透露,M**en 在援助乌克兰的前十个月里经历了 50 多次改进。
人工智能跟军事“日益整合”。或开始灾难
联合国秘书长一次又一次提醒人工智能
然而,随着人工智能与战争的“日益融合”,也引发了诸多疑问,如何将人工智能从研究走向实战,成为各国军事领导人面临的难题。
快速采用人工智能的支持者指出,在今天的战争中,战争将“以人脑难以适应的速度进行”。 然而,一些科学家担心,目前可用的网络和数据无法应对当前的情况,一线人员不愿意将自己的生命献给他们不知道它是否能起作用的计算机软件。 伦理学家担心,将潜在的死亡决定交给机器人将导致灾难性的后果。
摩尔强调,马文的人工智能能力主要用于检测可能的敌人,而不是针对特定目标识别或部署**。 她说,美国中央司令部在去年年底的一次测试中测试了人工智能推荐引擎,并表明这些系统“经常无法满足”用户的需求,例如提出攻击序列或最佳**。
因此,军方经常检查和验证人工智能系统的目的,并就如何发起攻击以及使用哪种攻击提供建议。 “没有算法只是简单地进行数学运算,然后得出一个结果,然后进行下一步,”她说。 “所有与人工智能相关的步骤都将由某人审查。 ”
然而,根据最近的报道,美国计划将其计算系统扩展到自治领域。 美国国防部去年发布了指导意见,要求指挥官和作战人员在使用暴力时要有“合理的人类判断”,这意味着官员们可能会觉得人们有责任监督而不是直接决策。
对于一些活动人士来说,允许机器人杀人是一个“严重的警告”。 一个叫的名字"阻止杀手机器人"该组织是一个人权组织和学术组织,表示美国目前的保证“不充分”。
古特雷斯在2018年说:“一台机器可以在没有人为干预的情况下夺走另一个人的生命,这是一种道德排斥,在政治上是不可接受的,应该被取缔。 古特雷斯在过去一年中再次对人工智能发出警告,称开发不基于人类判断的人工智能(AI)是“绝对不可能允许的”,并强调目前最紧迫的任务是监管。