AI军事化:技术利剑需要伦理之鞘——从算法战争看全球治理的紧迫性
2026-03-09 07:17:33 人民网 观点
金思宇/文(中国智库高级研究员、国际问题观察员)
2026年2月28日,德黑兰夜空的爆炸火光,不仅照亮了"算法战争"的帷幕,更戳破了一个危险的幻觉——当人们还在争论AI是否会失控时,它已经在战场上开始"误判"了。165名女孩的鲜血,不该只是新闻头条里的数字,而应成为人类在技术狂奔中紧急刹车的血色警示。
开篇说明:根据最新核实的信息,2月28日美伊冲突中关于AI扮演核心角色的说法存在一定程度的夸大。但这丝毫不削弱AI军事化议题的紧迫性——恰恰相反,真正令全球警惕的,是已被多方证实的加沙冲突中的"薰衣草"系统:一个错误率高达10%的AI数据库,将约3600名平民误判为打击目标。这,才是我们真正需要面对的"算法战争"现实。
引言:当算法开始"扣动扳机"
德黑兰。一场军事行动之后,关于AI如何"智能斩首"的科幻式叙事迅速流传。但真相比科幻更值得警惕:真正锁定目标的,并非什么"战场大脑",而是情报人员长达数月的人力追踪。这场行动最大的警示,恰恰在于它不是AI战争的开端,而是对人类过度迷信技术的清醒提示——当硅谷的炒作遇上五角大楼的预算,我们更需要分清:什么是真实的能力,什么是被夸大的想象。
更具说服力的案例发生在加沙。以色列军方使用的"薰衣草"(Lavender)AI数据库,通过分析海量监控数据为每个人评分,一旦超过阈值即标记为军事目标。问题在于,它的错误率高达10%——这意味着约3600人被算法错误地判了死刑。正如调查记者披露的,这套系统为以军提供了一种方法,"在不失去数据驱动式打击的合法性的前提下,实现地毯式轰炸的实际效果"。
牛津大学玛丽亚罗萨里奥·塔德奥教授的追问振聋发聩:"我们作为一个社会,还没有决定是否接受由机器来决定一个人是否应该被杀死。 "
这个追问,正是本文的起点。
历史之镜:从战术工具到战争"大脑"
AI军事化的历史,是一部技术迭代与伦理困境交织的演进史。
1956年人工智能诞生后,冷战铁幕下的军备竞赛成为其早期试验场。美国开发的SAGE防空系统,通过早期计算机技术整合雷达数据,实现了对空中目标的半自动拦截,标志着AI首次介入军事决策。此后,专家系统在军事后勤与情报分析中崭露头角,但受限于算力与算法,其应用多停留在辅助层面。
20世纪90年代,海湾战争中的"捕食者"无人机颠覆了战争形态——从侦察到精确打击的一体化,使无人装备成为战场"新宠"。进入21世纪,大数据、云计算与深度学习的突破,推动AI向军事全领域渗透。根据学术研究,当前AI在军事领域的应用已覆盖五大核心领域:数据分析和情报处理、流程优化、决策辅助、自主侦察、以及网络与通信安全。
这一进程中,技术的"自主性"不断膨胀,而人类对技术风险的管控却始终滞后。美国国防部2016年启动AI战略规划,俄罗斯紧随其后推进"机器人化军队",中国强调"智能+军事"融合创新——全球军备竞赛的赛道,悄然转向AI领域。2026年1月,美国国防部发布新版AI战略,宣称AI是提升军队"杀伤力和效率"的唯一方法。
但历史证明,每一次技术跃迁都未同步建立伦理约束。 英国皇家联合军种研究所的报告指出:"AI军事化的历史,是一部'技术狂奔,伦理跛行'的警示录。当人类沉迷于算法优化的效率时,却对'机器能否决定生死'这一根本问题长期失语。"
加沙的3600个误判,正是这种"伦理跛行"的血色注脚。
技术之盾:以"向善设计"抵御误判风险
AI误判的根源,在于其"理性"仅基于数据与算法,缺乏对"生命价值"的伦理认知。
"薰衣草"系统的失误揭示了更深层的问题:算法偏见不是偶然的bug,而是系统性的设计缺陷。当训练数据主要来自过往冲突中的敌对行为模式,系统自然会将在校学生集会"识别"为恐怖分子训练——因为它从未被教会分辨"操场"与"训练场"的区别。这印证了专家警告:依赖历史轰炸数据建模的算法,如果忽视实时人文环境变量,必然导致对"人的尺度"的彻底漠视。
更令人担忧的是,这种技术正在以惊人速度渗透战场。2026年初,一场围绕"算法参战"的博弈在华盛顿上演:国防部长向AI公司Anthropic下达"最后通牒",要求解除对其大语言模型Claude的安全限制,接受将技术用于"所有合法用途"。当Anthropic拒绝放弃对"不受限自主打击"的伦理底线时,五角大楼将其列为"供应链风险",特朗普总统随即下令所有联邦机构"立即停止"使用该技术。这场冲突揭示了一个残酷现实:私营科技公司试图对国家暴力机器行使"道德否决权"的政治天真,在国家安全的排他性要求面前迅速瓦解。
破解之道,在于将人类价值观嵌入技术基因。这正是国际社会正在形成的共识:2025年,全球REAIM委员会发布的战略指导报告明确提出"负责任设计"(Responsible by Design)理念——伦理与法律合规必须从开发的最早阶段开始融入,贯穿AI系统的全生命周期。
具体而言,技术层面的防护需从三方面入手:
第一,多源数据验证与动态情报更新。打破"静态识别"的局限,结合实时卫星图像、社交媒体活动与历史行为数据,识别民用设施特有的活动特征——比如学校操场上的儿童游戏轨迹,而非简单地将其归为"人群聚集"。
第二,开发"伦理算法"。将国际人道法的"区分原则"与"比例原则"转化为代码逻辑,使AI在目标筛选时自动触发对医院、学校等"禁区"的刚性排除机制。正如牛津大学AI伦理研究中心主任露西·格林所言:"技术向善不应是事后补救,而需在代码编写之初,就让算法承载人类的基本价值观。否则,AI的'理性'将沦为无视人命的冰冷逻辑。"
第三,提升算法可解释性。军事决策不同于电商推荐,指挥官需要知道AI"为什么"给出这个结论,而不仅仅是"是什么"结论。海牙战略研究中心强调,负责任的AI使用需要信息充分的人类决策,以及针对具体情境的设计、测试和部署方法。只有让"黑箱"决策透明化,人类审核员才能穿透数据迷雾,守住最后一道防线。
制度之闸:用"人性防线"遏制技术傲慢
再精密的技术,也难逃"人"的局限。
加沙冲突中暴露的另一个问题是:当AI系统标记出数千个目标,人类审核员在战争压力下还能保持多少判断力?正如联合国报告所指出的,以色列在加沙使用AI辅助工具时"人类监督有限",这直接推高了平民伤亡率。伦敦玛丽女王大学政治理论教授埃尔克·施瓦茨警告:"这些系统存在难以置信的漏洞和极端的不可靠性……而对于战争这样动态、敏感且充满人性因素的事务而言,这尤其危险。"
防止AI滥用,关键在于筑牢"人在回路"的制度铁壁。
首先,必须终结"加速审核"的荒诞剧。 战争压力下,人类审核员沦为AI决策的"橡皮图章",这本质上是将生杀大权拱手让予算法。应建立强制性的"冷静期"制度,为目标评估设置不可压缩的时间红线。
其次,实行"双重验证+责任倒查"机制。 对高风险目标,需由独立专家团队交叉确认,并建立贯穿算法开发者、情报官与指挥官的全链条问责体系,让滥用者无处遁形。
第三,确立"人类控制"的绝对底线。 中国在向联合国提交的官方文件中明确主张:"始终坚持人类是最终责任主体,确保由人控制相关武器系统,尊重和保障人的尊严和人权。"这一立场与国际社会正在形成的共识相呼应——联合国秘书长古特雷斯自2018年以来始终坚持:完全自主的武器系统"在政治上是不可接受的,在道德上是应受谴责的"。2025年12月,联合国大会通过第80/23号决议,明确要求在所有核指挥控制系统"保持人类控制和监督"。
美国智库布鲁金斯学会高级研究员迈克尔·奥汉隆的警示一针见血:"AI军事化的风险,本质上是'责任真空'的产物。只有明确'谁按下按钮,谁承担后果',才能避免技术成为推卸责任的借口。"
治理之锚:以全球共识破解"安全困境"
AI军事化的监管,绝非一国之力可解。
2026年2月,第三届"军事领域负责任使用人工智能"峰会在西班牙拉科鲁尼亚举行。约85个国家参会,但最终只有35个国家签署了关于负责任使用AI的20项原则声明。引人注目的是,中美这两个最大的AI和军事大国均未签署。这一结果标志着在军事AI规范上存在深刻的战略分歧:许多国家的担忧在于,在竞争态势中约束自身研发可能损害国家安全与战略优势。正如荷兰国防大臣所言,各国正面临"囚徒困境":既希望施加负责任限制,又不愿在对手面前自我设限。
这种碎片化监管正在加剧"安全困境":技术军备竞赛催生更多灰色地带,监管差异为滥用提供空间。
但希望仍在凝聚。峰会最终成果文件虽然只有39国签署(少于2024年的60余国),但文件本身展现了从理论概念向具体行动建议的积极转变。文件鼓励建立健全的政策、条令和采购流程,包括测试、评估、验证和确认(TEVV)。
联合国层面,2024年联大一委通过关于军事领域AI治理的决议,呼吁各国就AI对国际和平与安全的机遇和挑战提交意见。联合国秘书长古特雷斯在《新和平纲领》中明确建议:各国应在2026年前通过一项具有法律约束力的文书,禁止在人类控制之外运行的自主武器系统。虽然这一目标可能无法如期实现,但2025年12月联大通过的关于AI与核指挥控制系统整合风险的决议,已将这一议题正式列入国际议程。
中国正在积极参与这一进程。2021年,中国向《特定常规武器公约》提交关于规范AI军事应用的立场文件;2023年提出《全球人工智能治理倡议》;2025年4月,中国根据联大决议提交文件,系统阐述五大主张:慎重负责、以人为本、智能向善、敏捷治理、多边主义。在2026年2月的REAIM峰会上,中方代表进一步强调:"军事智能化是当今世界军事发展的重大趋势。在军事领域如何负责任使用人工智能,事关全人类共同未来,是时代共同课题。"
中方明确宣示:中国已将领加强人工智能治理"纳入"十五五"规划建议,并将按照世界军事革命趋势、国家安全客观需要和国防军队建设实际,推进军事智能化发展,不与其他国家开展人工智能军备竞赛,做到政策透明。中方还在维和、人道主义救援中积极发挥军事人工智能优势。
破解"安全困境"的关键,在于构建"全球AI军事伦理公约"。需以联合国为平台,推动达成三项共识:
一是划定"绝对禁区",禁止完全自主的"杀人机器人"——即那些一旦启动就无法由人类有效控制的武器系统。正如2025年5月联合国磋商会上多国代表所言,"当机器成为生死的仲裁者,人类本身便置身险境"。
二是建立"风险透明机制",大国间共享AI军事部署信息,减少误判风险。联合国裁研所正在推动的"AI安全与伦理圆桌会议",正是为此搭建跨区域、跨部门的对话平台。
三是确立"技术共享原则",防止技术鸿沟转化为"战争特权"。中国明确主张,"各国尤其是大国不应借助人工智能谋求绝对军事优势、损害他国合理安全利益"。
正如中国现代国际关系研究院院长杨明杰所言:"AI治理不能重蹈核武器'自我约束'的老路,必须通过具有约束力的国际条约,将'负责任使用'从道德倡议升格为法律义务。"
中国方案:负责任创新的先行探索
在这场关乎人类共同命运的治理进程中,中国正在贡献自己的智慧与实践。
国防科技大学战略问题研究中心主任张军教授指出:"AI军事化治理必须兼顾'战略防御'与'伦理底线'。中国在推进智能化国防建设的同时,始终坚持'人的主导权不可让渡'原则,例如在无人作战系统中设置'人类否决机制',确保技术始终服务于和平目的。"
科技部战略规划司前司长李萌强调:"AI军事技术的研发需遵循'负责任创新'路径。中国已通过《新一代人工智能伦理规范》,要求所有军事AI项目必须通过伦理审查,并建立'风险-收益'动态评估机制。"
中国社会科学院国际法研究所研究员莫纪宏从法律视角提出:"根据《海牙公约》和《日内瓦公约》精神,AI军事系统的设计必须符合'预见性原则',即开发者与使用者必须能够预见并防止系统对平民的潜在伤害。中国在推动国内立法时,正积极探索将国际人道法原则转化为技术准则。"
北京大学科技伦理中心联席主任杜鹏呼吁:"应建立'AI军事伦理官'制度,借鉴医疗领域的'伦理委员会'模式,在军队和军工企业中设立独立伦理审查岗位,对AI武器的研发、部署和使用进行全周期监督。"
复旦大学发展研究院副院长沈逸补充道:"中国在G20、金砖国家等多边平台积极倡导'AI军事风险共治',推动建立发展中国家AI能力共享机制,避免技术鸿沟加剧全球安全失衡。"
这些探索并非孤立存在。2025年11月,中国发布《军控、裁军与防扩散》白皮书,明确宣示:"中国不与任何国家开展人工智能军备竞赛",同时"建立质量管控体系和风险应对机制,采取必要措施降低扩散风险,加强人工智能军事伦理和安全教育"。这是大国中少有的明确承诺。
结语:以文明之光照亮技术暗区
从德黑兰到加沙,算法战争的硝烟与血泪警示我们:AI可以加速胜利,却无法计算生命的价值;技术可以优化杀戮,但伦理才能定义文明。
2026年2月,当Anthropic的工程师们被迫在"国家利益"与"伦理底线"之间做出选择时,他们守护的已不只是一家公司的价值观,而是对人类能否驾驭自身创造物的最后一丝坚持。这场博弈的结局或许令人沮丧,但它揭示了一个真相:在技术狂飙突进的时代,人类必须重拾"人的尺度"。当各国在实验室里锻造AI利剑时,更应在谈判桌上共筑伦理之鞘——因为,我们守护的不仅是当下的和平,更是人类文明不被技术反噬的未来。
正如塞拉利昂外交部长在联合国磋商会上所言:"历史的教训必须指引我们。当武器不受约束地发展,它们终将不受约束地被使用。"
中国智库高级研究员金思宇的呼吁值得倾听:"AI军事化的治理,需要技术理性与人文精神的交响。唯有将'人的价值'置于算法之上,将'全球安全'置于地缘私利之上,人类方能避免重蹈技术失控的覆辙。 "
加沙的3600个误判不应被遗忘,德黑兰的真相不应被歪曲。它们共同指向一个结论:在机器学会"扣动扳机"之前,人类必须先学会为技术划定边界。正如联合国秘书长所警示的,"我们正生活在深刻危险和分裂的时代,一刻也不能浪费"。以伦理为剑鞘,以合作为砥石,方能铸就守护人类共同未来的和平之盾。
