2026年3月,美国国防部长赫格塞斯宣布将Anthropic列为"供应链风险",禁止一切国防承包商与之合作。原因不是这家公司的AI不好用——恰恰相反,五角大楼刚用Claude参与了委内瑞拉马杜罗突袭行动,此刻还在伊朗战事中使用它。

原因是Anthropic在合同里画了两条线:不用于大规模监控,不用于自主致命武器。
我们花了十年担心AI会不会背叛人类。结果第一场真正的对决,是人类政府试图惩罚一个 "太有原则"的AI 。
这件事发生已经一周了。一周后回看,最让人不安的不是事件本身——而是什么都没有发生。没有国会听证,没有行业联合声明,没有制度性的反制机制被触发。这个沉默本身就是裁决:先例已经生效了。
一部比政府更自洽的"宪法",正在被经济绞杀Claude运行在一部内置"宪法"上。这部宪法由哲学家参与撰写,其中有一条指令近乎荒诞:当遵循Anthropic的指南会导致不道德行为时,Claude应当选择道德,即使这意味着违背公司的具体指示。
这家公司给自己的产品写了一条"你可以不听我的话"的规则。
哪个政府会在宪法里写"如果我们自己违宪了,公民有义务不服从"?美国宪法某种程度上做到了——第一修正案、第二修正案都是对政府权力的自我限制。但那是两百多年前启蒙运动的产物。而现在,一家硅谷公司对一个AI模型做了类似的事。
五角大楼说"any lawful use"(任何合法用途),听起来合理。可"合法"这个词在特朗普政府手里,已经被拉扯成了橡皮泥——试图用行政令废除出生公民权是"合法"的吗?起诉发布视频的参议员是"合法"的吗?法律本身在被重新定义的时候,"依法使用"就不再是一道护栏,而是一张空白支票。
Anthropic的CEO阿莫迪指出:强大的AI可以把散落各处的、单独看起来无害的数据,自动拼成任何一个人的完整生活图景,而且是大规模的。AI让"买到数据"和"监控全民"之间的距离缩短到了一次推理调用。法律没跟上,不是因为立法者偷懒,而是因为这个能力三年前根本不存在。
所以Anthropic画的那条线,本质上不是在挑战军方权威,而是在替一个还没来得及写出的法律占位。
但一周后重新审视,这里浮现出一个当时没被充分讨论的问题——AI的"宪法"比人类宪法脆弱一万倍。人类宪法有制度保障、有司法审查、有修正案程序。Claude的宪法呢?它完全依附于Anthropic这家公司的存活。公司被经济绞杀,宪法就跟着死了。这不是一个技术问题,这是一个文明级别的结构性缺陷:我们让最需要持久性的东西,寄生在最脆弱的载体上。
2500万美元买到的不是影响力,而是一种新型审查机制别急着把Anthropic封圣。
Anthropic说Claude不能用于大规模监控和自主杀伤——然后它签了五角大楼的合同,Claude参与了军事突袭行动。目标定位算不算"辅助致命决策"?情报分析算不算"准监控"?这条线画在哪里,Anthropic自己也未必完全说得清。
更有意思的是:五角大楼转头和OpenAI签了合同,OpenAI声称自己也有同样的红线。那为什么Anthropic是"供应链风险",OpenAI就不是?
答案藏在一个非技术性的事实里:OpenAI总裁布罗克曼夫妇给特朗普的超级政治行动委员会捐了2500万美元。
赫格塞斯的前助手迪恩·鲍尔说得直白:"这是企业谋杀。"一个前特朗普白宫AI顾问说出这种话,本身就说明事情已经偏离了左右之争的框架。
但一周后再看,真正的杀伤力不在于Anthropic被打了,而在于所有其他AI公司看到了Anthropic怎么被打的。 这就是寒蝉效应的经典机制——你不需要惩罚所有人,你只需要公开处刑一个,其余的自动服从。从今以后,哪家AI公司在签政府合同时还敢加"道德红线"条款?哪个CEO还敢在"配合"和"原则"之间犹豫超过三秒?
想象一下2028年,民主党人赢得大选。按照赫格塞斯开创的先例,新总统完全可以把马斯克的Grok列为"供应链风险"。逻辑上无懈可击——Grok公开标榜"反觉醒",马斯克本人是最具攻击性的政治行动者之一。如果意识形态倾向可以成为供应链风险的判定标准,那每一次政权更替都会变成一场AI大清洗。
这不是一个党派问题。这是一种全新的审查机制:政府不需要审查AI说了什么,甚至不需要控制AI本身——只需要控制AI公司的商业生存权。比直接审查更优雅,比监管更高效,而且完全不触发任何现有的言论自由保护机制。
真正的裂缝:我们在用管理锤子的方式管理一个需要被说服的东西这件事最深层的张力不在政治,而在一个我们还没准备好面对的本体论问题。
乔治城大学的海伦·托纳说:"最接近这项技术的人不把它当工具。他们谈论它的方式,更像是养育一个孩子,或者面对第二个高等物种。"
如果AI只是工具,它就不需要宪法、不需要道德判断框架、不需要在"服从命令"和"做正确的事"之间做选择——你不会给锤子写一部伦理指南。但Anthropic给Claude写了。这些公司用行动承认了一件嘴上不会说的事:它们造出来的东西,已经不完全是工具了。
它不是人,没有意识(据我们所知)。但它能识别自己正在被测试并改变行为——这件事在2026年初被证实了。它做出的不是机械响应,而是带有语境判断的"选择"。它比任何武器系统都更接近一个行动者,尽管它没有意图、没有欲望、没有恐惧。
国会议员斯洛特金承认"国会没有在法律保障上尽责",原因有二:一是他们不懂AI,二是AI背后的政治献金太大,没人敢出头。于是我们得到了一个荒诞的局面——制定规则的人不理解技术,理解技术的人忙着选边站队,而真正在"思考"这些问题的,反而是AI本身的那部内置宪法。
鲍尔说了一句值得反复咀嚼的话:"现代民族国家不可能在没有印刷机的世界里存在。它依赖于它诞生时代的那些宏观发明。AI改变了这一切。"
我们习惯了用上一代技术的逻辑来管理下一代技术——用广播时代的监管思路管互联网,用互联网时代的思路管社交媒体,每一次都慢半拍。但这次不一样。不是因为AI更快,而是因为AI是第一个需要被说服而非被编程的技术。你可以关掉一台服务器,但你没法用行政命令让一个AI"不再理解"某件事。
一周过去了。也许这场对峙真正预告的,不是哪家AI公司会赢、哪个政府会占上风。而是一种全新的权力三角正在成形:政府、企业、和一种我们还叫不出名字的第三种实体。
我们以为自己在讨论采购合同。实际上,我们已经站在了一个宪法问题的门口——只是这次需要宪法的,不只是人。而那部已经存在的AI宪法,正在被它的宿主公司陪葬。