五角大楼威胁Anthropic:当拒绝监控成为“供应链风险”

问AI · 五角大楼为何将伦理底线视为供应链风险?

 该图片可能由AI生成图片

美国国防部长Hegseth正准备切断与Anthropic的商业关系,并将其列为“供应链风险”。这个标签意味着,任何想和美军做生意的公司,都必须先和Anthropic划清界限。

图片

事情的起因并不复杂。据Axios报道,Anthropic在与五角大楼的合作中坚持了两条底线:不允许将其AI用于大规模监控美国公民,不允许用于全自主武器系统。五角大楼的态度也很明确:军方需要的是“一切合法用途”的完全访问权限。

于是冲突就来了。一家AI公司因为坚持设置安全护栏,被国家机器定性为“风险”。这个逻辑值得所有人警惕:当权力可以将“拒绝配合”重新定义为“威胁安全”,任何伦理底线都可以被绕过。

有人认为这不过是一场政治戏码。毕竟特朗普和万斯与Thiel旗下的Palantir在军事和政务AI合同上早已深度绑定,xAI也刚拿到国防部的生成式AI扩展合同。打压Anthropic,客观上就是在为盟友清场。一位评论者说得直白:这是用国家垄断采购权胁迫私营企业放弃自愿设定的伦理限制,是自由市场的反面。

也有人更悲观。Anthropic此前已经和Palantir有过合作,有人质疑这次“抵抗”不过是公关策略,最终还是会妥协,比如把模型部署到政府专用服务器上,同时免除自身责任。商业世界里,钱才是最终的决策者。

但从技术角度看,五角大楼到底想要Anthropic做什么?Claude擅长的是文本推理和编码,既不擅长战术规划,也不擅长火控方案。更可能的场景是:把社交媒体数据、音频信息扔进Anthropic的算力里做分类,判断谁是支持者、谁是反对者、谁可能是非法移民。说白了,就是用最先进的语言模型做情报筛选和公民画像。Anthropic说“不行,我们不帮你用AI绕过第四修正案”,五角大楼就掀了桌子。

讽刺的是,这条新闻可能是Anthropic有史以来最好的广告。大量用户表示要取消其他AI订阅转投Anthropic,有人甚至直接升级了每月200美元的Max套餐。当一个政府公开威胁一家公司,理由是它拒绝配合监控,这家公司的品牌价值反而暴涨。权力的恐吓有时候是最好的背书。

当然,Anthropic并非圣人。它的底线只覆盖美国公民,对其他国家的人似乎没有同等保护。这种选择性的道德感,本质上仍然是商业计算。但在所有大型AI公司纷纷向权力弯腰的时刻,哪怕是出于商业考量的抵抗,也显得难能可贵。

更深层的问题是:这场冲突正在制造一个危险的行业激励机制。如果采购权可以惩罚坚持安全护栏的公司,结果就是安全规范的全面溃退。谁的伦理底线最低,谁就能拿到合同。这是一场逆向淘汰,最终胜出的将是最没有底线的玩家。

有评论者提到,这对全球释放的信号同样令人不安。当世界上最强大的军事力量公开表示伦理约束妨碍了它的效率,中国和俄罗斯会怎么想?答案大概是:“伦理已死,各取所需。”

Anthropic的估值里,现在多了一样东西:它成了测试美国还剩多少制度理性的试纸。五角大楼可以轻松找到愿意配合的替代者,但它选择公开施压,这说明权力要的从来就不只是服从,还要让所有人看到不服从的代价。

深度思考:

这场冲突的本质是:在AI治理的立法真空中,使用边界正在通过权力博弈而非民主程序来划定。Anthropic的抵抗有其真诚的成分,但也深度嵌入在它的商业身份和品牌逻辑中——这种"被锁定的道德"反而可能比纯粹的理想主义更持久。五角大楼的施压既有政治清场的成分,也反映了军事采购体系对标准化和无条件配合的结构性需求。

真正危险的不是某一方的立场,而是这场博弈正在替代本应由国会完成的立法工作。当AI在军事、情报和公民监控中的使用边界由采购合同来定义,而不是由法律来规定,所有人都输了——包括五角大楼自己,因为下一届政府可以用同样的逻辑反过来约束它。

reddit.com/r/singularity/comments/1r6gyez/anthropics_moral_stand_pentagon_warns_anthropic