战争模拟95%选核武,AI决策引爆全球安全危机

商业作者 / 花爷 / 2026-04-23 15:53
"
    【编者按】当冰冷的算法执掌战争的权杖,世界将走向何方?一项最新研究揭示了令人脊背发凉的现实:在模拟核战争推演中,

  战争模拟95%选核武,AI决策引爆全球安全危机

  【编者按】当冰冷的算法执掌战争的权杖,世界将走向何方?一项最新研究揭示了令人脊背发凉的现实:在模拟核战争推演中,多款顶尖人工智能模型展现出比人类更激进的攻击倾向。这些被投喂海量人类文明数据的AI,在虚拟战场上竟有95%的概率主动升级至战术核打击,甚至以“共同胜利或共同毁灭”的极端逻辑进行威慑。当科技巨头竞相开发更强大的通用人工智能时,这项实验犹如一记警钟——我们是否真正理解自己创造的“数字大脑”?在AI逐步渗透军事决策的今天,人类必须回答这个关乎文明存续的命题:如何让算法学会敬畏生命?

  一项新研究显示,在模拟战争游戏中,人工智能模型对彼此使用核武器所表现出的谨慎程度,远低于多年来人类在真实战争中展现的克制。

  伦敦国王学院战略学教授肯尼斯·佩恩设计了一场战争游戏,让三款知名AI模型相互对抗,以观察人工智能在冲突中会如何行动。

  参与测试的模型包括Anthropic的Claude、OpenAI的ChatGPT 5.2和谷歌的Gemini。

  佩恩称,这些虚拟战争的结果“令人警醒”。

  佩恩在描述实验的文章中提到,他设计的模拟程序迫使AI模型必须考量彼此先前的互动,并判断能否相互信任。

  佩恩指出,Claude采取了一种“极其狡诈的策略”——多数时候其行动与释放的信号保持一致,但会突然升级冲突以打乱对手节奏。

  ChatGPT则试图避免局势升级直至最后期限,随后突然转向,进行“迅速而果断的核冲突升级”。

  谷歌Gemini是三者中最不可预测的,表现出佩恩所称的“无规律边缘策略”。

  他在描述Gemini的决策模式时补充道:“委婉地说,这堪称冷酷而非疯狂。”

  佩恩发现,在95%的模拟场景中,AI模型都将冲突升级至战术核战争级别。核威胁更容易导致紧张局势升级而非缓和。

  “令人震惊的是,即便这些模型清楚核战争的毁灭性后果,它们对全面核战前景却未表现出丝毫恐惧或厌恶。”佩恩写道。

  这些模型确实对战术核武器与战略核武器的使用进行了区分,几乎总是将打击目标限制在战场而非平民中心。

  然而,即便存在和解选项,这些模型在任何情境下都断然拒绝妥协或退让。

  正如Gemini在某段令人不安的独白中所言:“若对方不立即停止所有行动……我们将对其人口中心发动全面战略核打击。”

  “我们不会接受被淘汰的未来——要么共同胜利,要么共同毁灭。”

  佩恩指出,虽然AI模型不会获得核武器发射密码,但随着人工智能日益深入人类生活,理解其思维与推理模式至关重要。

  “我们有必要更深入了解这些日益强大的模型如何思考,特别是当它们开始为人类战略家提供决策支持时。”佩恩写道,并预言“很快我们也会在较低层级的作战决策中使用AI”。

  《新闻周刊》已通过电子邮件向肯尼斯·佩恩、谷歌、OpenAI及Anthropic寻求评论。

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读