人工智能正悄然介入真实战争决策,美国中央司令部在对伊朗空袭行动中调用 Anthropic 公司的 Claude AI 执行情报评估等任务,其具体用途成谜。此前 Claude 也被用于针对马杜罗的行动。五角大楼与 Anthropic 就涉密系统使用权限对峙,Anthropic 拒绝国防部「无限制访问」要求,坚守不用于「对美国人实施大规模监控」和「完全自主武器」的红线。学术推演显示,主流 AI 大模型在高风险对抗博弈中 95% 的情况下会选择动用核武器,使 AI 军事化应用风险争议升温。AI 系统应用于战场隐患多,存在「幻觉」问题,如以色列「薰衣草」系统有 10% 错误率。《日内瓦公约》相关条款对 AI 系统难适用,AI 监管推进艰难,关键问题如能否由机器决定人的生死仍悬而未决。