5月7日,美国人工智能公司Anthropic正站在舆论的风口浪尖。这家以“安全优先”著称的AI实验室,刚刚被五角大楼列入供应链风险黑名单,原因是它拒绝让军方将旗下模型Claude用于“所有合法用途”——包括完全自主武器和国内大规模监控。
Anthropic的创始团队来自OpenAI。2020年底,因不满OpenAI在商业化道路上牺牲安全,以达里奥·阿莫代伊为首的一批核心研发人员集体出走,另立门户。他们发明了“宪法式AI”,给模型立下一套行为准则,甚至承诺“如果发现产品不够安全,就暂停开发”。
讽刺的是,这家把安全刻在基因里的公司,近年却主动与美国军方走得越来越近。2024年,Claude被部署到国防部机密网络,拿下了2亿美元的试点合同,成了唯一进入最高机密级别的AI模型。
2025年底,五角大楼要求Anthropic彻底放开限制,允许AI用于任何“合法”作战行动。公司拒绝了,理由是“良心无法同意”。
这场冲突在2月27日达到顶点。特朗普亲自介入,下令联邦机构停止使用Anthropic的所有技术,并威胁要动用总统权力迫使其就范。
第二天,国防部将该公司认定为“供应链风险”,这种认定通常只针对外国对手。Anthropic随即提起违宪诉讼,法院初步叫停了禁令,但五角大楼已转头与OpenAI、谷歌等七家公司签了新合同。
Anthropic的一切矛盾,都可以用其信奉的“有效利他主义”(EA)来解释。这套哲学追求用理性计算实现最大化的善,甚至主张“赚钱去捐”才是最有效的慈善。
创始团队承诺捐出80%的个人财富,早期投资人中就有后来因欺诈入狱的FTX创始人SBF——他曾在2022年向Anthropic注资5亿美元,用的是挪用客户的钱。在SBF的自我叙事里,偷钱是为了“拯救世界”。
EA的算力驱动着Anthropic的每个决定:与军方合作是为了“防止中国这样的对手抢占先机”,拒绝自主武器是因为“未来风险太大”,但接受亚马逊和谷歌的上百亿投资则是“必要的手段”。然而当“代表正义”的五角大楼反过来要求它放弃所有底线时,这套精密计算的逻辑瞬间崩塌。
从奥特曼到马斯克,再到阿莫代伊,每一个怀揣AI理想的创业者最终都陷入了同一种傲慢:只有我才能把住这枚魔戒。Anthropic的遭遇或许证明了一件事:善意不能被量化计算,算计太深的人,连自己脚下的基石都会看不见。


