最近美军战斧导弹击中伊朗米纳卜市女子小学,165+人遇难,多为女童。美方称错误情报(10年未更新,仍标为军事基地)+ AI决策失误,双重失误导致悲剧 。 AI系统(梅文+Claude)快速生成目标清单,挤压人工复核空间,最终由人类指挥官批准打击。 怎么看“AI决策失误”这一解释 1. 是技术问题,更是人为责任 - AI只是工具:垃圾进、垃圾出。用10年前过时数据,AI必然误判。 - 美军有明确规定:所有目标必须人工复核、高级指挥官批准。 - 本质是:过度追求速度、放弃核查、责任甩锅。 2. 暴露AI军事化的致命风险 - 速度碾压人性:AI把数周审核压到分钟级,人类根本来不及复核。 - 算法黑箱:AI如何排序、为何优先选该目标,不可解释、不可追溯。 - 平民代价:AI放大情报错误,误击从“可能”变成“必然”。 3. 美方的甩锅逻辑 - 把悲剧归因于“AI失误”,淡化指挥官与情报部门的渎职。 - 既想享受AI“秒级打击”的效率,又不愿承担人工兜底的责任。 - 用“技术故障”掩盖军事决策的草率与冷血。 4. 国际法与伦理的双重失守 - 攻击民用学校,严重违反国际法与战争伦理。 - 以“误击”“AI失误”为借口,逃避战争罪行追责。 - 开创危险先例:AI可成为战争罪行的“替罪羊”。 深层警示 1. AI军事化不是“精准”,而是“失控” 追求机器速度,必然牺牲人类判断;效率越高,误杀风险越大。 2. 技术不能替代责任 最终扣扳机的是人,指挥官必须为AI决策负全责。 3. 国际规则必须跟上技术 亟需全球共识:禁止AI自主决定打击目标、强制人工复核、建立追责机制。 4. 这不是“意外”,是系统性问题 美军大规模用AI打数千目标,误击是必然结果,只是这次撞上了小学。 美方用“AI决策失误”解释屠杀,是典型的技术甩锅、责任逃避。悲剧根源不是AI,而是美军为追求速度放弃核查、漠视平民生命。这敲响了AI军事化的警钟:没有人类伦理与法律约束的战争AI,就是杀人机器。
