最忠于美国的Anthropic,却被封杀!这是每个AI公司的宿命

本期要点:一个无奈又残酷的现实

你好,我是王煜全,这里是王煜全要闻评论。

最近,美国居然要给一家土生土长、技术全球领先、且并未威胁本土安全的头部科技公司——Anthropic,贴上原本只属于外国科技企业的“供应链风险”标签。而这也许会载入史册。
今天,我们也想借着这个事件,严肃地讨论一个跟每个人都很远却也跟每个人相关的话题,AI军事化
图片
事件的导火索,是Anthropic拒绝了国防部要求,也就是移除模型的使用限制,并允许“所有合法用途”(all lawful uses)。至于具体是什么限制,篇幅有限,各位朋友可自行搜索,在此不展开。
此后,美国的惩罚就如暴风骤雨般袭来,不仅要求立即禁用Anthropic的模型,还明确给予Palantir等系统集成商最多六个月的过渡期以切换技术路线。与此同时,竞争对手OpenAI迅速与五角大楼达成协议,获得部署其AI模型的资格。
Anthropic则强调,他们支持AI助力国防和军事用途,但得有必要的技术安全界限。其CEO则公开声明,“供应链风险”的标签在法律上站不住脚,他们将对该标签提出诉讼,内部法律团队也已明确将走法律程序。
图片
Anthropic的CEO,达里奥·阿莫代伊(Dario Amodei)
相信常用美国AI工具的朋友应该知道,Anthropic其实是封锁外国IP和账号最积极的AI公司,比OpenAI和Google更狠、更彻底。许多中国用户可能都亲身经历过账号冻结、甚至历史对话全部清零的境遇。
而且,他们还一直坚持所谓意识形态为先的战略。从去年9月起,Anthropic就明确禁止任何“中国控制的公司”使用Claude服务,无论注册地在哪。
恰恰是这么个“爱美国”、最早把最强模型Claude Gov部署到美军的公司,如今却被特朗普下令立即切断联系,被国防系统除名,不禁让人有些唏嘘。
事实证明,Anthropic或许能在法院硬刚,但制度不会对军事AI设定强约束。当美国的暴力机关引入先进技术时,企业的所谓红线只会被当作系统Bug而清除。唯一的悬念只是,人类究竟准备让AI接管到什么程度。

AI军事化
首先,毋庸置疑的是,AI进入军用已是必然,更是企业无法抵抗的趋势。
虽然五角大楼发言人也强调,军方“目前”无意进行违法监控或开发无人类介入的自主武器,但为什么五角大楼却对Anthropic如此零容忍?
因为战争本质上是实现政治目标的一种暴力手段,自然,效率和胜负就是关键。而纵观历史,决定战争走向的,是信息优势、决策速度和杀伤效率。
打仗并不只是看谁的导弹多、航母大、飞机快,而是一个系统性行为。
军事指挥中有一个著名的“OODA循环”,也就是观察(Observe)—判断(Orient)—决策(Decide)—行动(Act)。在战场上,谁能更快地完成这个循环,谁就能掌握主动权。
现代战争的数据量早已远远超出了人脑的处理极限。头顶的侦察卫星、满天飞的无人机、各种频段的电子信号,不可能靠人力去分析。
而大模型和前沿AI系统恰恰能解决这个问题,并快速提升“OODA循环”速度,比如实现情报数据的模式识别,重组海量信息,并在高维数据空间中进行预测。那么,这样一个可以提高战争效率的技术,就必然会被军事系统吸入。
图片
公开信息表明,美军确实广泛使用AI辅助情报分析、目标识别和传感器融合,特别是在多域作战中处理卫星图像、雷达和自动识别系统数据,提供相关技术的公司包括Palantir和Anduril等等。
据路透社报道,在最近对伊朗军事行动中,美军也使用了Claude进行情报评估、目标识别和战场模拟。
只不过,没有像一些网文吹得那么神,比如根据电脑使用记录就快速锁定了伊朗重要目标从而进行打击。但在AI的加持下,信息收集、传输以及分析能力确实得到极大增强,才让以军飞机可以快速抵达现场,并进行精准打击。
所以,在五角大楼看来,战争是系统工程,自主的打击系统也一定是未来方向。
任何可能拖慢OODA循环的技术约束,都等于在自缚手脚。这些限制就必然不能被写在合同中,哪怕由于大模型的幻觉风险和可靠性不足等缺陷,这些限制在公众眼中在当前技术水平下是合理的。

三定律的幻想
所以,这也让我们重新想起来科幻作家阿西莫夫提出的“机器人三定律”,尤其是第一条:机器人不得伤害人类,或坐视人类受到伤害。
三定律之所以能成立,是因为作者有意无意地预设了一个前提,人类是一个统一整体,机器人则作为人类的对立面存在。
但在现实地缘政治博弈中,这个前提显然不存在,我们没办法剥离国家这个主体去进行科幻设想。
一旦一个国家的军事系统要最大化己方阵营的生存概率,最小化敌对势力的威胁,“人类”这个概念就不存在了,而是会自然转化为“我们”和“他们”。“不得伤害人类”的这个法则也就不可能运行。
试想一下,如果一台AI辅助的防空系统为了遵循“不伤害人类”的原则,而只能有限击伤机翼或机尾,从而降低了拦截效率,但敌方的飞行员却因此把己方城市炸毁,这套系统就绝不可能被安装。
所以,企业可以设定边界,也可以通过合同条款表达立场和情怀,但一旦进入以效率为先的国家机器,这种做法客观上就很难持续。企业能够选择的,是参与或退出,却无法改变技术演进的方向和军方对技术的使用方法。
OpenAI和xAI的妥协,确实被很多人认为是资本的冷血,但也许也是因为他们比Anthropic更早认清了现实,企业不太可能通过商业合同来倒逼和限制国家机器。
回顾历史,从核能、卫星、芯片到互联网,都不可避免地进入军事系统,而技术和产业的发展也因此得以加速。这一次,AI也不会例外。