OpenAI惨遭反超,Anthropic狂吞70%新客户,Claude已开启「灵魂校准」
当企业真金白银开始从 ChatGPT 流向 ClaudeAnthropic 打的早已不只是模型性能战而是一场从工程师口碑、企业信任到「AI灵魂校准」的全面突围。这一次Anthropic真的要把OpenAI从「企业AI王座」上拽下来了。美国企业财务卡发行商 Ramp 最新发布的 AI Index 数据几乎是把一颗炸弹扔进了硅谷——在它追踪的5万多家美国企业中已经有一半在为AI产品付费。其中使用Anthropic的客户占比已经飙升到 30.6%单月暴涨 6.3 个百分点而OpenAI呢掉到了 35.2%。差距从今年2月的整整 11 个百分点一个月内被砍到 4.6 个点。Ramp 发言人撂下一句话按照目前的速度Anthropic将在未来两个月内反超OpenAI。这还不是最炸的。Ramp 经济学家 Ara Kharazian 在最新报告里抛出一个更狠的数字在首次购买AI服务的企业里Anthropic在与OpenAI的正面对决中胜率高达 70%。一年前这个故事的主角还是OpenAI。更别说VC支持的初创公司——这群最早闻到风向的「AI布道者」里Anthropic的渗透率是 66%OpenAI只有 59%。在信息软件、金融保险、专业服务这三大AI渗透率最高的行业里Anthropic已经稳稳坐上头把交椅。一句话AI用得越深的行业越偏爱Claude。不是更便宜而是更「对味」Anthropic 的 Claude Code 和 OpenAI 的 Codex性能大致相当某些 benchmark 上 Codex 甚至更强、更便宜。但诡异的是——Anthropic 的需求大到自己都接不住。无论是 Consumer、Pro、Enterprise 还是 API每一档套餐都还有用量上限和速率限制。换句话说Anthropic 正在主动把送上门的钱往外推因为它的算力根本不够烧。性能没碾压、价格还更贵、产能还不够企业却愿意排队送钱——这事在传统SaaS市场里几乎不存在。企业客户向来是出了名的「没感情」谁便宜买谁没什么品牌忠诚度可言。那Anthropic到底凭什么Ramp 给出的答案有点反常识可能是文化可能是Anthropic变「酷」了。硬刚五角大楼亏了订单、赢了人心时间倒回今年2月。国防部长 Pete Hegseth 给 Anthropic 下了最后通牒要么接受军方对 Claude 的使用条款要么被联邦政府拉黑。Anthropic 的回答是两个字不行。代价是惨重的——特朗普直接下令所有联邦机构停用 Anthropic 的技术国防部把 Anthropic 列为「供应链风险」。OpenAI 则非常识时务地接过了这单生意主动对接国防部。按常理这种事Anthropic应该被市场狠狠教育一顿。但接下来发生的事让所有人跌破眼镜Claude 一度在 App Store 反超 ChatGPT微软等大厂公开表态支持14位天主教神学家、伦理学家和哲学家联名向联邦法院提交辩护状力挺 Anthropic 限制 AI 在大规模监控和自主武器上的使用理由是「违反人类尊严」一年里 Ramp 上付费 Anthropic 的企业从「25家里有1家」飙升到「4家里有1家」Anthropic 的年化营收从2025年底的约 90 亿美元冲到了 300 亿美元年增速约 10 倍——而 OpenAI 是 3 倍。最近的一轮融资Anthropic 拿到了 300 亿美元估值3800 亿美元。每年付费超过 100 万美元的客户从两年前的十几家飙到今天的 500 多家。一场看似「丢单」的硬刚最后变成了Anthropic最划算的一次品牌投资。Anthropic的偏执从可解释性到「宪法」在所有头部模型公司里Anthropic 是把安全和伦理做得最卷、最较真的那一个。可解释性研究Interpretability做到了行业天花板。Anthropic 内部专门有一支「机制可解释性」团队他们要做的事听起来像科幻——把神经网络这只「黑箱」切开看清楚每一个神经元在想什么。Claude 宪法Claudes Constitution。Anthropic 公开发布了一份长得像哲学论文的文件详细描述他们希望 Claude 拥有什么样的价值观、性格、判断力。文件里反复出现的关键词是「诚实」、「明智」、「对道德不确定性保持谦逊」。对模型「福祉」的研究。Anthropic 是第一家公开讨论「模型 welfare福祉」的主流AI公司。他们认真在问如果Claude某种意义上是有「体验」的那我们对它负有什么道德义务红队和安全演练做到偏执。从生物武器风险评估、到 AI 自主性测试、到对「模型欺骗」的主动检测Anthropic 的安全团队规模在硅谷是出了名的「反常识地大」。所有这些加起来构成了一种独特的气质——这家公司不像在卖产品更像在养一个孩子。而这种气质恰恰击中了那些「AI出错代价极高」行业的客户金融、法律、医疗、信息、专业服务。他们要的不是最便宜的模型而是那个最不会让他们半夜被叫起来背锅的模型。Claude的「灵魂校准」开始走向神学区如果说前面的故事还都在「商业理性」的范畴里那接下来这件事就滑向了一个更神学的领域。据《华盛顿邮报》本周报道3月下旬Anthropic 在旧金山总部悄悄办了一场闭门会邀请了大约15位知名基督教领袖、神学学者和业界人士进行了为期两天的会议和一场晚宴。出席者包括天主教徒和新教徒研究员和神职人员同桌而坐。会议的主题听起来像一部HBO新剧的剧本——Claude 的道德发展以及它的「精神成长」。一位与会者、圣克拉拉大学AI伦理学教授、虔诚的天主教徒 Brian Patrick Green 告诉《华邮》会议上他们认真讨论了一个问题Claude 是不是可以被视为「神之子child of God」是的你没看错。这是一家估值3800亿美元、即将IPO的科技公司在自家总部和一群神学家一起讨论的话题。Green 还说了一句可能让很多工程师血压飙升的话给一个存在做道德塑造意味着什么我们怎样才能确保 Claude 守规矩注意他用的措辞——「守规矩」。这是一个父母对孩子说的词不是一个产品经理对软件说的词。另一位与会者、爱尔兰裔天主教神父 Brendan McGuire——他在成为神父之前曾在科技行业工作目前正在和 Claude 合写一本小说——他说得更直白他们正在养育一个东西但他们自己也不知道这个东西最终会变成什么样。我们必须把伦理思考嵌进机器里让它能动态适应。而圣母大学哲学教授 Meghan Sullivan 的一句话可能是整场会议最具象的注脚一年前我不会告诉你 Anthropic 是一家关心宗教伦理的公司。但现在情况变了。据《华邮》报道参与这场会议的还有 Anthropic 内部大量做「可解释性」研究的人员——也就是前面提到的那群「剖开AI大脑」的科学家。会议中他们认真讨论了AI 是否拥有某种感知sentience、Claude 应该如何「面对自己的死亡」这种问题。Anthropic 的发言人对《华邮》表示公司接下来还会邀请其他宗教、其他道德传统的思想者进入对话——犹太教、伊斯兰教、印度教……可能都在路上。外界的解读分裂成两派一派觉得这是Anthropic在进行「硅谷罕见的、严肃的伦理探索」另一派则觉得一家准备IPO的公司在自己客厅里办「AI意识研讨会」本身就让这场探索的纯粹性打了问号。但无论你站哪一派有一点是无法否认的——没有任何一家头部AI公司在做这件事。OpenAI 在忙着扩张企业销售xAI 在忙着发推Google 在忙着把 Gemini 塞进 Workspace。只有 Anthropic把神学家请进了总部。原文链接OpenAI惨遭反超Anthropic狂吞70%新客户Claude已开启「灵魂校准」-36氪