
美国国防部上周采取非同寻常举措,将人工智能初创公司Anthropic列为供应链风险企业,禁止国防供应商和承包商在与五角大楼合作中使用该公司的Claude模型。这一标签历来仅用于外国敌对势力。Anthropic周一正式起诉特朗普政府,指控其行为“史无前例且非法”,对该公司造成“不可挽回的损害”,使价值数亿美元的合同面临风险。
从宠儿到弃儿:一段快速破裂的政企关系
Anthropic由前OpenAI研究人员Dario Amodei于2021年创立,以其对AI安全的严谨态度和企业级产品能力迅速崛起。公司估值已达3800亿美元,是亚马逊(累计投资80亿美元)和谷歌的重要合作伙伴。
2024年11月,Anthropic与Palantir及AWS达成合作,使美国情报和国防机构能够访问Claude模型,成为首家正式部署于美国军方机密网络的大模型公司。2025年7月,公司获得一份价值2亿美元的国防合同,其技术被用于帮助国防和情报机构“快速处理和分析海量复杂数据”。一个月后,Anthropic与美国总务署合作,以每年1美元的价格将其AI模型推广至其他政府机构。
然而,这段蜜月期在特朗普新政府上台后迅速逆转。
争议核心:AI伦理条款与指挥链冲突
封杀的导火索可追溯至去年8月。五角大楼技术主管埃米尔·迈克尔——前优步高管兼律师——在审查Anthropic合同时发现,该公司要求禁止将其AI用于自主武器或国内监控。这一条款触发了长达数月的审查程序,最终导致国防部作出封杀决定。
一位国防部高级官员解释称,供应商不得“通过限制关键能力的合法使用来介入指挥链”。官员表示:“确保我们的作战人员拥有在危机中取得胜利所需的工具,而不受企业政策的干预,是军方的唯一职责。”
国防专家质疑:自损技术优势
退役海军少将、R Street技术与网络安全政策负责人马克·道尔顿指出,这一决定存在内在矛盾:政府一边威胁援引《国防生产法》强制Anthropic提供技术,一边又将其贴上“供应链风险”标签。“有些东西既重要到需要援引《国防生产法》,又危害极大到需要给它贴上专门针对外国敌对势力的标签?”他质疑道。
前国防部官员、曾在伊拉克服役的布拉德·卡森表示,作战人员对此“非常不满”。他认为Claude是“更好的产品,最可靠,输出结果也最便于用户整合到计划中”。
斯坦福大学胡佛研究所研究员杰奎琳·施耐德警告,在伊朗军事行动正在进行的关键时刻放弃深度整合的技术,将付出巨大效率代价。“你不可能在开战前放弃那些深深融入战时流程的技术。”
政治因素与个人恩怨色彩
Anthropic与政府关系的破裂也掺杂明显政治因素。CEO Dario Amodei曾在社交媒体上将特朗普比作“封建军阀”(帖子已删除),且未出席特朗普就职典礼或像其他科技领袖那样在白宫展示亲密关系。据《The Information》报道,Amodei本月早些时候告诉员工,本届政府不喜欢Anthropic,因其未向特朗普捐款或给予“独裁式的赞扬”。
白宫人工智能与加密货币负责人David Sacks则指责Anthropic支持“觉醒人工智能”,主要指其在监管方面的立场。外交关系委员会高级研究员迈克尔·霍洛维茨评论称:“这看起来像是一场政治和个人恩怨,伪装成政策之争。”
国防部官员坚称决定基于政策而非个人因素,旨在“确保军方能够将技术用于所有合法用途”。
连锁反应与后续影响
封杀令已引发广泛连锁反应。美国卫生与公众服务部、财政部和国务院已确认将停止使用Claude,启动技术过渡。由于伊朗军事行动仍在进行,国防部内部的技术替代尤为复杂——CNBC获悉,即使被列入黑名单,Claude模型仍被用于支持当前作战行动。
Anthropic在诉讼中称政府行为“非法且史无前例”。公司公共部门业务负责人Thiyagu Ramasamy在LinkedIn上表示,“今天,我为我深感尊敬的客户们感到悲痛”,并警告这一决定对公共部门业务构成“生存威胁”。他在法律文件中披露,该业务预计五年内实现数十亿美元年度经常性收入。
Amodei周四声明称,公司“首要任务”是确保作战人员在“重大作战行动”中不缺少必要工具,承诺以象征性价格继续提供产品和技术支持,“只要过渡需要,只要被允许”。
评论 ()