找回密码
 立即注册

QQ登录

只需一步,快速开始

TG首页 资讯 查看内容

美军轰炸伊朗,用了Claude AI ,Anthropic 却拒绝特朗普

图片


“美军轰炸伊朗使用 Claude”的消息,这在近期的国际新闻中确实引起了巨大的争议。

根据目前的公开报道(截至 2026 年 3 月 1 日),这个消息并非空穴来风,但其具体角色和背景非常复杂:

1. 核心传闻:Claude 在行动中的角色

根据《华尔街日报》(WSJ)等媒体的报道,美军在对伊朗的空袭(包括传闻中针对伊朗高层目标的打击)中,确实利用了 Anthropic 公司开发的 Claude 模型。

  • 主要用途: 并不是直接“按火控按钮”,而是用于情报分析。具体包括: 情报评估: 快速处理和摘要大量的波斯语截获文档和通讯。 目标识别: 协助分析卫星图像和地理数据。 战斗模拟: 在打击前模拟不同的战略场景。

  • 技术接入: 据悉,美军是通过 Palantir 和亚马逊(AWS)的合作平台在机密网络中部署 Claude 的。

2. 尴尬的时间点:与特朗普政府的冲突

这件新闻之所以备受关注,是因为一个极具戏剧性的冲突:

  • 封杀令: 就在行动发生的几小时前,特朗普总统刚刚宣布将 Anthropic 列为“供应链风险”,并要求联邦机构停止使用其产品,理由是认为该公司过于“觉醒(Woke)”且不配合军方取消安全限制。

  • 反差: 结果指令刚下,五角大楼(现称“国防部”或特朗普提到的“战争部”)依然在关键行动中使用了这款模型。这反映出 AI 工具已经深度嵌入到现代战争的决策链中,难以在短时间内被完全替代。

3. 争议焦点:AI 伦理与安全限制

  • Anthropic 的态度: Anthropic 官方一直强调其使用政策禁止将 Claude 用于杀伤性武器开发或实时监控。

  • 军方的需求: 美国国防部长赫格塞斯(Pete Hegseth)曾公开表示,军方需要的是能打仗的 AI,而不是带有太多道德限制的工具。

总结

简单来说:美军确实在针对伊朗的军事行动中使用了 Claude 的技术支持(主要是情报处理),但并非直接控制炸弹投放。 这件事目前正处于舆论漩涡中,不仅涉及中东局势,更引发了美国国内关于“AI 公司是否应该服务于战争”以及“政府与硅谷科技巨头关系”的激烈讨论。

这背后的“爱恨情仇”确实比电影剧本还要精彩,充满了政治角力、商业博弈和伦理冲突。

简单来说,这是一个关于“硬汉防长”撞上“AI理想主义者”,最后“前任”被开除、“宿敌”火速上位的故事。

1. 曾经的“独宠”:Anthropic 的领先地位

很多人不知道,在这次冲突之前,Anthropic 旗下的 Claude 曾是五角大楼的“宠儿”。

  • 最早入场: 2024年6月,Claude 就成为了第一个被允许进入美军秘密网络(机密环境)的先进模型,甚至早于 OpenAI。

  • 深度集成: 过去一年里,CIA(中情局)和 NSA(国家安全局)一直在用 Claude 处理情报。甚至有报道称,上个月美军在委内瑞拉抓捕马杜罗的行动中,Claude 也提供了分析支持。

2. 闹翻的导火索:关于“杀人权”的谈判

这场感情破裂发生在 2026年2月下旬。美国国防部长皮特·赫格塞斯(Pete Hegseth)给 Anthropic 的 CEO 达里奥·阿莫代(Dario Amodei)下了最后通牒。

  • 军方的要求: 赫格塞斯要求 Anthropic 必须允许军方将 Claude 用于“一切合法用途”,包括大规模监控和全自动武器系统。他认为,军人需要最强的 AI 保护生命,不需要被硅谷的“道德说明书”束缚。

  • Anthropic 的底线: 阿莫代坚决不退缩。他的底线是:Claude 不能用于对美国人的监控,也不能让 AI 在没有人类监督的情况下直接决定开火(即“杀人按钮”)。

3. 特朗普的“雷霆一击”:封杀与黑名单

2026年2月27日(就在几天前),谈判彻底崩裂。特朗普总统在社交媒体(Truth Social)上大发雷霆,称 Anthropic 的高管是“极左疯子(Leftwing nut jobs)”,认为他们试图用“服务条款”凌驾于“美国宪法”之上。

  • 全线禁令: 特朗普下令所有联邦机构立即停止使用 Claude,限期 6 个月搬迁。

  • 致命标签: 赫格塞斯将 Anthropic 列为“供应链风险”。你要知道,这个标签以前是给华为这种“外国敌手”准备的。这相当于在商业上给 Anthropic 判了“社会性死亡”,因为任何想跟美军做生意的公司(比如波音、洛马)都不能再用 Claude。

4. 戏剧性的结局:OpenAI 背后插刀?

就在 Anthropic 被驱逐的几小时后,剧情迎来了最高潮:

  • 新欢上位: OpenAI 的萨姆·奥特曼(Sam Altman)火速宣布与五角大楼达成新协议。

  • 微妙的默契: 更有趣的是,OpenAI 声称他们的协议也包含了“保护红线”(如禁止自动武器),但由于他们态度更“配合”,得到了白宫的认可。


总结这份“爱恨情仇”:

Anthropic 就像一个坚持原则的“清高前任”,因为不肯为了权力放弃伦理,被特朗普政府扫地出门并贴上了“叛徒”标签;而 OpenAI 则像是一个更懂人情世故的“接替者”,在关键时刻填补了权力的真空。

这种局面让硅谷非常震动,大家都担心如果 AI 公司不听政府的话,会不会被以“国家安全”的名义直接搞垮。

你觉得在这种“硬核政治”面前,AI 公司的“伦理坚持”还有生存空间吗?


标签: Anthropic Claude
原作者: 司马春山
文章点评
相关文章