昊梵体育网

假如AI介入战争能快到什么程度?美军最近用实战给出了答案,开战24小时,AI辅助

假如AI介入战争能快到什么程度?美军最近用实战给出了答案,开战24小时,AI辅助下狂轰伊朗超1000个目标,规模是2003年伊拉克战争的两倍,而这背后全是隐患。
 
事情的导火索发生在2月底,美国AI公司Anthropic和五角大楼彻底闹翻,美军想把Anthropic的Claude模型用在所有军事场景,包括全自主武器和大规模监控,但Anthropic死活不答应,他们坚持AI不能碰致命自主武器,也不能用于国内监控。
 
结果几小时后,特朗普政府直接把Anthropic列为"国家安全供应链风险",联邦机构和防务商全被禁止用它的技术。
 
Anthropic没认怂,反手就把美国政府告上法院,称这是"史无前例的违法打击"。有意思的是,同一天OpenAI就和国防部达成了合作,转头接过了Anthropic的相关订单,这场企业和政府的博弈,直接撕开了AI军事化的核心矛盾:技术到底该守伦理底线,还是完全服务于战争?
 
美军这边已经把AI用得炉火纯青,Palantir公司的"梅文智能系统"成了战场核心,这玩意儿能同时整合卫星、雷达、无人机等179种数据源,把原本要几百人花几小时的目标分析,压缩到几分钟搞定。
 
在对伊朗的行动里,2000人的传统目标中心,直接变成20人的协作终端,十天内累计打击超5000个目标,美军还在推进自主无人机、巡飞弹等项目,想实现"端到端自主打击"。
 
但疯狂推进的背后全是隐患,2025年的一次无人艇测试就出了大事:一艘自主无人艇突然启动自主模式,直接撞翻了保障船,船长差点出事。
 
联合国专家和上千名科技专家都在警告,现在的大语言模型根本不可靠,过度依赖AI打战,很可能因为算法偏见或误判酿成平民伤亡的悲剧。
 
这场AI军事化的暗战,到底会把战争推向何方?没人能给出答案,但可以肯定的是当算法开始左右生死,人类必须守住最后的伦理红线,否则后果不堪设想。
 
信源:参考消息《五角大楼研发AI武器引担忧》2026-04-08