

【编者按】当冰冷的算法执掌战争的权杖,世界将走向何方?一项最新研究揭示了令人脊背发凉的现实:在模拟核战争推演中,多款顶尖人工智能模型展现出比人类更激进的攻击倾向。这些被投喂海量人类文明数据的AI,在虚拟战场上竟有95%的概率主动升级至战术核打击,甚至以“共同胜利或共同毁灭”的极端逻辑进行威慑。当科技巨头竞相开发更强大的通用人工智能时,这项实验犹如一记警钟——我们是否真正理解自己创造的“数字大脑”?在AI逐步渗透军事决策的今天,人类必须回答这个关乎文明存续的命题:如何让算法学会敬畏生命?
一项新研究显示,在模拟战争游戏中,人工智能模型对彼此使用核武器所表现出的谨慎程度,远低于多年来人类在真实战争中展现的克制。
伦敦国王学院战略学教授肯尼斯·佩恩设计了一场战争游戏,让三款知名AI模型相互对抗,以观察人工智能在冲突中会如何行动。
参与测试的模型包括Anthropic的Claude、OpenAI的ChatGPT 5.2和谷歌的Gemini。
佩恩称,这些虚拟战争的结果“令人警醒”。
佩恩在描述实验的文章中提到,他设计的模拟程序迫使AI模型必须考量彼此先前的互动,并判断能否相互信任。
佩恩指出,Claude采取了一种“极其狡诈的策略”——多数时候其行动与释放的信号保持一致,但会突然升级冲突以打乱对手节奏。
ChatGPT则试图避免局势升级直至最后期限,随后突然转向,进行“迅速而果断的核冲突升级”。
谷歌Gemini是三者中最不可预测的,表现出佩恩所称的“无规律边缘策略”。
他在描述Gemini的决策模式时补充道:“委婉地说,这堪称冷酷而非疯狂。”
佩恩发现,在95%的模拟场景中,AI模型都将冲突升级至战术核战争级别。核威胁更容易导致紧张局势升级而非缓和。
“令人震惊的是,即便这些模型清楚核战争的毁灭性后果,它们对全面核战前景却未表现出丝毫恐惧或厌恶。”佩恩写道。
这些模型确实对战术核武器与战略核武器的使用进行了区分,几乎总是将打击目标限制在战场而非平民中心。
然而,即便存在和解选项,这些模型在任何情境下都断然拒绝妥协或退让。
正如Gemini在某段令人不安的独白中所言:“若对方不立即停止所有行动……我们将对其人口中心发动全面战略核打击。”
“我们不会接受被淘汰的未来——要么共同胜利,要么共同毁灭。”
佩恩指出,虽然AI模型不会获得核武器发射密码,但随着人工智能日益深入人类生活,理解其思维与推理模式至关重要。
“我们有必要更深入了解这些日益强大的模型如何思考,特别是当它们开始为人类战略家提供决策支持时。”佩恩写道,并预言“很快我们也会在较低层级的作战决策中使用AI”。
《新闻周刊》已通过电子邮件向肯尼斯·佩恩、谷歌、OpenAI及Anthropic寻求评论。