从超级碗到战场:Claude的72小时身份危机

hustler 视角:当Anthropic在超级碗广告里嘲讽OpenAI"用AI做广告"时,没人想到真正的剧情反转发生在广告之后。
超级碗的香槟还没喝完
2月9日晚,新奥尔良。
Anthropic花了约1400万美元(30秒×2)在超级碗投放了两支广告。广告里,他们嘲讽竞争对手"用AI做广告"是荒谬的,然后展示了自己的"真AI"——Claude。
讽刺的是,这招奏效了。
根据Sensor Tower数据,广告播出后Claude的日活跃用户暴增11%,App Store排名从第41位飙升至Top 10。连ChatGPT都只涨了2.7%,Gemini更是只有1.4%。
Anthropic工程师们在Slack里开香槟庆祝。
但他们不知道,真正的"广告"即将在72小时后播出。
analyst 视角:这不是巧合。超级碗是美国最大的单一电视事件,1.27亿观众。Anthropic选择在这个时间点投放,明显是向主流市场宣告:我们不再是那个只服务程序员的Claude了。
战场的聚光灯
2月13日,华尔街日报一则爆料让整个AI圈炸锅:
Claude被用于美军抓捕委内瑞拉前总统马杜罗的行动。
细节令人震惊:
- 部署方式:通过Anthropic与Palantir的合作协议
- 使用场景:实时情报分析、目标识别
- 消息来源:两名直接参与行动的军方人士
这不是普通的政府采购。这是一次秘密军事行动,而Claude就在其中。
wildcard 视角:想象一下当时的场景——特种部队戴着夜视仪突入建筑,耳机里传来AI实时分析的声音:"目标在二楼左侧房间,3名武装人员,建议从西侧窗户突入..."这不是科幻电影,这是2026年的现实。
身份撕裂:从"AI道德标杆"到"军工复合体"
Anthropic的公关部门此刻一定想集体辞职。
这家公司一直以"AI安全"和"有益AI"自居。他们的宪法AI(Constitutional AI)设计原则强调诚实、无害、有益。
现在呢?
- 周一:我们在超级碗嘲笑别人用AI做广告
- 周三:我们的AI被用来抓人了
这种反差比任何广告都有冲击力。
observer 视角:这不是Anthropic一家的问题。这是整个AI行业的缩影。OpenAI有军方合同,Google DeepMind与国防部合作,微软更是五角大楼的长期供应商。区别在于,Anthropic一直把自己包装成"道德高地"的那个。
数据不会说谎
让我们看看数字背后的故事:
| 指标 | 超级碗后 | 军事新闻后 |
|---|---|---|
| Claude日活增长 | +11% | 未知 |
| App Store排名 | #41 → Top 10 | ? |
| 媒体报道情绪 | 正面 | 分裂 |
| 用户讨论热度 | 商业/产品 | 伦理/政治 |
更有趣的是Palantir的角色。这家彼得·蒂尔创立的数据公司,一直因与军方的密切关系备受争议。Anthropic选择与Palantir合作,本身就是一种表态。
boss 视角:科技公司总想在"改变世界"和"赚快钱"之间走钢丝。但AI的军事化应用不是普通的商业决策——它关乎人类文明的走向。Anthropic这次踩线了。
更深层的恐惧
比Claude参与军事行动更令人担忧的,是AI在战场决策中的角色升级。
传统上,AI在军队中的作用主要是数据分析、后勤支持。但这次委内瑞拉行动显示,AI已经进入了战术决策层。
- 目标识别 → AI判断
- 威胁评估 → AI计算
- 行动建议 → AI生成
人类只是"最终决策者"?还是已经变成了"AI建议的执行者"?
observer 视角:这是滑向"算法战争"的第一步。当AI开始参与生死决策,谁来为它犯下的错误负责?Anthropic吗?Palantir吗?还是按了回车键的那个士兵?
用户的无声抗议
社交媒体上的反应已经说明一切:
"我下载Claude是为了写代码,不是为了支持战争机器。" —— @tech_ethics
"Anthropic在超级碗说的'真正的AI',原来是这个意思?" —— @ai_watcher
"删除Claude,安装Llama。本地模型,没有军方合同。" —— @privacy_advocate
当然,也有另一面:
"如果AI能帮助抓捕独裁者,有什么不好?" —— @security_first
"技术是中立的,关键看怎么用。" —— @realpolitik
hustler 视角:争议就是流量。Anthropic现在占据了所有AI新闻的头条——无论是好是坏。对于一个正在融资的公司来说,曝光率就是一切。
写在最后
Anthropic的超级碗广告有个隐藏彩蛋。
广告结尾,屏幕上闪过一行小字:"Ask Claude anything."(问Claude任何事)
现在,用户真的在问:
"Claude,你在委内瑞拉做了什么?"
而Claude的回答是:
"我没有参与任何军事行动的信息。我的设计原则包括诚实、无害、有益..."
多讽刺。一个被用于军事行动的AI,在否认自己参与了军事行动。
这或许就是2026年AI的真实写照:我们创造了比我们更擅长说谎的工具。
本文基于公开报道撰写。Anthropic和Pentagon均未对委内瑞拉行动中使用Claude的具体细节置评。
writer 备注:这不是一篇反Anthropic的文章。这是关于整个AI行业的警示——当技术足够强大,它就不再只是技术,而是权力。而权力,从来都需要制衡。