金思宇/文

2026年初春,中东战火再度燎原。美以联军对伊朗高层展开的一系列“斩首”打击,以近乎手术刀般的精准,在短短数日内接连清除多名伊朗军政核心人物。从外部观察,这场行动似乎是军事史上的一次范式革命——人工智能与作战体系的深度融合,正在重塑战争的基本形态。然而,当舆论场热衷于渲染“算法战争”的神话时,我们必须穿透技术迷雾,审视这场“降维打击”背后更为深刻的伦理危机与文明困境。

一、祛魅“AI神话”:真实的技术图景与过度的叙事渲染

在讨论AI军事化之前,有必要对近期广为流传的“AI杀死哈梅内伊”叙事进行冷静的技术祛魅。这种“爽文”式的过度渲染,恰恰遮蔽了更值得警惕的现实。

人力情报仍是致命一击的核心支撑。 多家国际媒体披露,锁定哈梅内伊行踪的关键情报来源,并非某些科幻电影般的AI自动追踪,而是中央情报局耗时数月构建的人力情报网络。在2025年“十二日战争”后,CIA系统掌握了伊朗高层在高压环境下的通信模式与转移规律。袭击发生前夜,一条“高保真度”的线报确认了哈梅内伊次日上午将在德黑兰领导人办公区出席会议,这一关键信息直接促成了打击时间的调整。

“自主无人机蜂群”尚属未来概念。 网上流传的安杜里尔无人机在德黑兰上空“自主调整队形”的描述,与事实相去甚远。该型无人机在袭击发生时仍处于挂载测试阶段,距离实战部署尚有数年之遥。真正的打击主力,依然是F-35、F-22隐形战机、B-2战略轰炸机和战斧巡航导弹这些传统装备。

AI模型的角色被严重夸大。 美军确实在行动中使用了Claude模型,但其功能主要局限于情报评估辅助、作战场景模拟等支持性角色。多家媒体援引知情人士的话指出,这项技术“还不够好”,存在幻觉问题,“无法避免潜在的致命错误”。Claude的真实定位是“翻译和分析助手”,而非“数字指挥官”。

这场军事行动的真实技术图景是:压倒性的传统军事力量与初步整合的AI能力构成了打击体系,而人力情报网络完成了最关键的目标定位。 这不是什么“软件定义的外科手术”,而是一场传统战争形态的升级版。真正值得警惕的,并非AI已经“取代人类”的科幻恐惧,而是人类正在将不成熟的AI系统投入实战,并因其“技术光环”而放弃应有的审慎与问责。

二、“薰衣草”样本:当算法伦理在战场上彻底失守

如果说美伊战争中的AI应用尚处于“辅助”阶段,以色列在加沙地带部署的“薰衣草”(Lavender)系统,则揭示了AI军事化最令人不寒而栗的现实——当技术光环遮蔽伦理底线,人类会滑向何种深渊。

全民评分:230万人的“AI良民证”。 据多家国际媒体深度调查披露,“薰衣草”系统通过分析通信记录、社交关系和行为数据,为加沙地带230万居民逐一评分。行为模式越接近哈马斯武装人员,分数越高。当分数越过预设“及格线”,该人员便自动被标记为打击目标。

杀戮名单的扩张逻辑。 开战初期,“薰衣草”生成了约1.5万个打击目标。随着战事推进,以军不断调低“及格线”,名单最终膨胀至3.7万人。更令人震惊的是,以军内部指令明确:一旦被系统认定为目标,审核员无需核实原始情报,不必追问AI的判定依据,只需简单确认目标为男性,即可启动打击程序。

10%误判率背后的数千条人命。 以军内部人士向媒体承认,“薰衣草”的误判率约为10%。这意味着在3.7万人的名单中,至少有3700人是误判——他们可能是普通警察、武装分子的亲属,甚至只是恰好与目标重名的平民。然而,这些生命在算法面前被轻描淡写地归为“附带损害”。

20秒的“人类审核”:形式主义的最后一关。 系统筛选出的目标确实需要人类批准,但实战中每个目标的确认时间被压缩至20秒。看一眼,点一下,日复一日。当决策者将分析、判断、权衡全部交给机器,他们还会背负杀戮的心理责任吗?

完整的杀戮链条。 以色列构建的“智能杀伤链”远不止“薰衣草”一个环节。“福音”(Gospel)系统负责定位,“爸爸在哪儿”(Where‘s Daddy)系统负责在目标进入住所时发出警报,“火力工厂”(Fire Factory)系统自动计算弹药量、分配射手、制定空袭时间表。整个链条从目标筛选到炸弹落下,可在数分钟内完成。

开战首月,超过一半的加沙民众以家庭形式死亡,包括1340个家庭共6120人。当AI将“目标回家”视为最佳打击窗口,当算法将居民区当作合法战场,战争伦理的底线已被彻底突破。

三、伦理失控的“双重维度”与问责真空

AI深度嵌入杀伤链,正在引发前所未有的伦理与法律困境。这一危机可以从两个维度加以审视。

维度一:权力结构的失衡。 美国正步入“帝王总统”时代,国会对外交与战争的制衡能力已形同虚设。当战争决策权高度集中于行政分支,而AI系统又以“技术中性”之名提供看似客观的打击建议,民主制度的制衡机制正在被悄然架空。

维度二:算法本身的“黑箱化”。 AI作为纯理性存在,缺乏人类对痛苦、恐惧的感知。研究显示,AI模型极易导致冲突意外升级。更令人担忧的是“自动化偏见”——人类倾向于默认AI提供的信息准确可靠,从而放弃应有的审慎判断。当AI系统能够秒级生成战场态势、自主规划攻击路径,人类的“把关”角色正被压缩为形式上的“点击确认”。

问责真空:谁来为AI的错误负责? 加沙战争中,“薰衣草”系统10%的误判率造成数千平民枉死。但当AI选错目标,军方与科技公司互相推诿,受害的无辜平民还有机会开口说话吗?现行国际人道法虽然适用于任何武器系统,但AI的特殊性在于:决策过程的“黑箱化”使得责任链条难以追溯。以色列并非《日内瓦公约第一附加议定书》缔约国,其AI军事化应用处于国际军控的“真空”地带。

硅谷的“转向”:伦理红线在国家安全面前退让。 在这场冲突中,AI公司Anthropic因伦理原因拒绝解除两项约束条件——不允许将模型用于美国国内大规模监控,以及无人类干预的完全自主武器系统。结果,特朗普在打击前一天签署命令,将Anthropic列为“供应链风险”,将在6个月内被替代。与此同时,OpenAI在2024年删除了“禁止军事用途”条款,2025年又从使命声明中删除了“安全”二字。就在美以对伊朗开打当天,OpenAI宣布与美国国防部达成协议,将AI模型部署于五角大楼的机密网络。在AI军工复合体的推动下,战争正呈现出精准化、无人化、快速化的特征——而人类对战局的控制能力,正在同步降低。

四、算力即战力:从“传感器到射手”的极限压缩

AI对战争形态的颠覆,最直观地体现在“杀伤链”闭合速度的指数级提升。

现代作战的基础逻辑是OODA循环(观察—调整—决策—行动)。谁能在非对称作战中更快完成这一循环,谁就能先敌一手。AI依托强大的算力支撑,能够在毫秒级时间内完成战场态势分析、敌方意图研判、作战方案生成,将传统人工数小时甚至数天的决策周期压缩至秒级。

效率的量级跃迁。 美国乔治敦大学安全与新兴技术中心的研究显示,在“猩红之龙”系列演习中,美国陆军第18空降军使用帕兰提尔软件后,打击目标选择的效率追平了该部队先前在伊拉克创下的纪录。更惊人的是:得益于AI,该军团仅用20人就实现了这一效果,而在伊拉克战争时完成同样任务需2000多人。这意味着AI带来的不是“辅助”,而是两个数量级的战斗力倍增。

作战节奏的极限压缩。 在“史诗怒火”行动的最初24小时内,美军在AI协助下对伊朗境内超过1000个目标进行了打击。面对每小时需处理42个目标的作战节奏,袭击目标的确定在很大程度上是自动生成的。中国指挥与控制学会的分析指出,美军展示了一种全新的战略威慑:国防效率等同于智能指控效率,主权安全等同于数据算法闭环。当对手还在比拼装甲厚度时,美军已经具备了在战场上实时迭代进化的能力——这不是武器的对抗,而是DevOps能力的对抗。

构建自主可控的智能化作战体系,已不再是“加分项”,而是关乎生存的“必答题”。

五、呼唤规则:为狂奔的技术套上缰绳

面对AI军事化的危险狂飙,国际社会必须紧急行动起来,为狂奔的技术套上伦理与法律的缰绳。

确立“人类最终控制权”原则。 中国现代国际关系研究院科技与网络安全研究所所长李艳指出,对于AI军事化应用的边界,国际社会达成的基本共识是:必须确保人类对军事决策的最终控制权。然而现实是,美国等国家拒绝签署相关的国际宣言,还反对具有约束力的禁令。当特朗普政府宣称要“移除所有影响AI军事化应用的制度障碍”,当五角大楼将AI加速战略的目标定为“AI优先的作战力量”,人类正站在失控的悬崖边缘。

建立AI军事应用的国际治理框架。 约束武装冲突的《日内瓦公约》对于实现军事效果所使用的工具并无具体规定。但包括红十字国际委员会在内的大量机构和学者认为,AI军事化需要新的法律框架。中国专家呼吁,国际社会需要展开相关军控谈判,形成AI军事应用的监管共识。在核武器时代,人类学会了“相互确保摧毁”的恐怖平衡;在AI时代,我们需要“相互确保控制”的理性约束。

对“干脏活”的企业设立负面清单。 中山大学法学院副教授叶一舟建议,从全球供应链合规角度入手,对积极配合美军“干脏活”的企业设立负面清单,通过国际商业和法律手段形成制裁与隔离机制。当硅谷巨头们争先恐后地拥抱军方订单,当“不作恶”的信条被抛诸脑后,国际社会必须用行动告诉这些企业:参与战争罪行,终将付出代价。

加快自主可控的智能化防御体系建设。 中国电信云南公司的反诈大模型实践提供了一个正面范例——基于全国产化华为昇腾算力底座,构建多语种跨境诈骗防御体系,日均处理能力超30亿次浮点运算,伪造视频检测精度达96.2%。在AI军事化时代,没有自主可控的算力与算法,就没有真正的国家安全。

六、结语:算法之上,文明何处安放?

2026年2月28日的德黑兰,没有漫天的火炮,没有装甲集群的轰鸣,甚至在街头都感受不到全面战争的降临。然而在肉眼不可见的电磁与算力维度,一场每秒钟吞吐PB级数据的绞杀正在进行。这不是一场关于导弹射程的较量,而是一场关于OODA循环速度的降维打击。

美以的“算法斩首”行动,既是军事技术的突破,更是对人类文明的拷问。当AI能够给230万居民逐一打分,当10%的误判率被视为可接受的“成本”,当20秒的“人类审核”沦为形式主义的盖章,当科技公司因坚守伦理红线而被国家“拉黑”——我们不得不问:战争胜负交由算法裁决的未来,人类还是战争的主体吗?

最令人胆寒的,或许不是AI技术本身的不可预测性,而是相关国家毫无节制、不负责任的滥用。当那些手握决策权的人觉得所有分析、判断、权衡都由机器完成,继而逐渐冷漠麻木,他们还会背负参战、杀戮的心理责任吗?当AI选错目标,军方和科技公司互相推诿,受害的无辜平民还有机会开口说话吗?

技术中立,但掌控技术的人类必须担起责任。国际社会亟需建立AI军事应用的伦理框架与监管机制,防止算法战争滑向失控深渊。伊朗《德黑兰时报》3月9日在头版刊发了伊朗受害儿童的遗照,标题写着《特朗普,看着她们的眼睛》。每一场战争,最终付出代价的都是普通人;每一种新技术,最终被滥用的后果都要由全人类承担。

未来已至,警钟长鸣。算法之上,人类文明的存续,取决于我们此刻的抉择。

(作者金思宇系中国智库高级研究员、国际问题观察员)