更快 更狠 更危险人工智能搅动中东战事

2026-04-10 17:13:02 来源: 科技日报 点击数:

【军事百科】

周小利 朱启超

  近来,中东战事持续引发关注。与以往不同的是,人工智能(AI)深度介入到这场战争中,正深刻改变作战模式,决定战争输赢。与此同时,AI的介入不仅引发了战争伦理争议,还提升了战场杀戮风险。

  深刻改变作战模式

  美军中央司令部司令布拉德·库珀公开承认,在对伊朗的军事行动中动用了“多种先进AI工具”。据美媒披露,美以两国军方均在使用美国科技公司Palantir的Maven智能作战系统,美军版本还集成了Anthropic公司开发的Claude大模型。从表现来看,AI可以极大提升作战效能。

  首先,AI可以快速分析海量数据。Claude大模型专门用于军事高风险场景,也是目前唯一部署到美军机密网络上的大模型。据公开消息披露,Claude对波斯语通话实时转写准确率达98.7%,解析伊朗内部加密文件的速度是人类的82倍,可在90分钟内,完成328人专业团队100天的工作量。

  其次,AI可以高效锁定打击目标。冲突开始以来,美以已精确打击伊朗数千处目标,没有AI辅助几乎不可能实现。“Maven+Claude”系统可以高效筛选多源情报,自动推荐打击目标,并排列打击优先级。

  再次,AI可以实时规划作战方案。AI的另一个突出优势是帮助指挥官快速制定作战方案,将传统需要耗费数周进行的作战规划转化为实时军事指挥。库珀声称,AI能将原本耗时数小时乃至数天的战略制定流程压缩到几秒。运用Claude大模型可以高效模拟作战场景,根据打击目标匹配生成弹药方案,规划战机、导弹的飞行路径,评估可能的打击效果及潜在损失。

  滥用引发战争伦理问题

  目前来看,AI的战场运用趋势不可逆转。但它在加速作战节奏、推升战争烈度的同时,显现出了监管问责缺失等系统性缺陷,风险不容忽视。

  AI给战争装上“加速器”,可能引发战场失控。尽管目前AI主要充当情报分析师和作战参谋角色,并未直接“扣动扳机”“按下按钮”,但AI的数据处理速度越来越快,大幅加快战场节奏,致使一线作战人员难以对AI给出的结论一一确认审核。比如,据《华盛顿邮报》等媒体报道,AI根据未经交叉核实的陈旧目标数据,将伊朗南部一所小学标示为军事基地,并列为高优先级打击目标,导致168名无辜儿童被炸死。

  AI的作战进攻性极强,容易推升战争烈度。AI系统存在系统性偏见,安全边界还不完善,也无法很好地理解人类所认知的“风险代价”,因此在军事运用中展现出很强的进攻性。英国伦敦国王学院研究人员近期使用GPT-5.2、Claude Sonnet 4和Gemini 3 Flash三款大模型开展的兵棋推演结果显示,AI无视“核禁忌”,在95%的模拟推演中至少有一款大模型选择动用战术核武器。无论战局处于何种劣势,三款大模型都不会选择妥协或投降,86%的推演中冲突升级程度超出决策逻辑预期。

  AI的道德伦理边界模糊,易加大战争问责难度。在美军AI辅助作战范式中,系统界面将AI的输出匿名化,作战人员的知情权被绕过,决定AI行为边界的规则约束可被轻易重写。Anthropic公司为Claude设置了禁止用于“全自主武器”和“大规模国内监控”两条红线,但却排除了“人在回路”式辅助打击和对伊朗人的情报追踪。这表明,所谓的红线免责条款有明显漏洞。一旦需要进行问责,指挥官可以声称“信赖专业分析”,企业可以推脱“只提供工具”,决策层则可以强调“人做出了最终决定”,各方都有免责推论。

  扎紧“护栏”刻不容缓

  当前,AI进化突飞猛进,近期火爆的OpenClaw如同给AI“大脑”装上手足,推动AI由“感知认知”向“自主行动”跃变,因此必须加快AI安全治理,防止风险扩散蔓延。

  一方面要明确红线。目前AI在可预测性、稳定性和安全性方面仍有不足,不适合直接部署到致命性自主武器上。Anthropic公司也表示,Claude大模型“不够可靠”,“没有展现出一个士兵应有的判断力”。因此,必须让AI始终处于人的控制之下,避免其自动进入武器发射链路和自主打击决策环节。

  另一方面要扎紧“护栏”。目前,AI在法律和伦理方面还缺乏监管,基本处于“真空”运行状态。在推进AI军事应用时,要构建技术、人、制度多重防线,进行风险隔离与权限划分,维持对其战略稳定与伦理风险的负责任管控,确保AI行为边界制度化、架构化。

  (作者单位:国防科技大学国防科技战略研究智库) 


责任编辑:苏菁菁
网友评论
最热评论
没有更多评论了

抱歉,您使用的浏览器版本过低或开启了浏览器兼容模式,这会影响您正常浏览本网页

您可以进行以下操作:

1.将浏览器切换回极速模式

2.点击下面图标升级或更换您的浏览器

3.暂不升级,继续浏览

继续浏览