艾略特·利维:Anthropic与五角大楼的争吵说明,“科技共和国”已死
【文/艾略特·利维,翻译/鲸生】
今年1月,美军在加拉加斯采取行动。炸弹纷纷落向委内瑞拉首都,一种声波武器让马杜罗的卫兵们鼻子鲜血直流,华盛顿多年来一直试图扳倒的尼古拉斯·马杜罗被掳走。
这是一场会被载入史册的行动。然而事实证明,这次行动所依赖的技术,或许与你点开的另一个浏览器标签页中的技术如出一辙。
美国媒体报道称,Anthropic公司的人工智能模型Claude——平日里帮助数百万人起草电子邮件、归纳文件内容和写代码的模型——已嵌入此次突袭行动的规划与执行流程,通过亚历山大·卡普的帕兰提尔(Palantir)公司的工具运行——这家公司二十年来始终致力于将硅谷编织进美国的国防体系中。
对Claude模型而言,过去几周颇为忙碌:其不断改进的编程能力还被认为导致了美国软件股数万亿美元的市值蒸发(被业内称为“软件服务末日论”,SaaSpocalypse)。Anthropic的管理层想必对这两件事的其中一件感到非常高兴;至于另一件,则远没有那么高兴。过去几个月以来,Anthropic一直试图对其模型应该如何使用保留一定的发言权。尽管据报道,该公司愿意放宽其使用限制,但它仍希望得到保证,即Claude模型不会被用于美国的大规模国内监控或完全自主的武器系统中。
这些要求并不违背其本性。这是Anthropic公司创始时立下的承诺,其首席执行官达里奥·阿莫迪(Dario Amodei)对公司的身份定位是在一个不以责任感闻名的行业中扮演负责任的角色。事实上,Anthropic是一家在白宫将放松管制作为其AI发展议程核心之际,仍推动加强监管的公司。

今年1月美军突袭委内瑞拉的军事行动中使用了Anthropic公司旗下的AI工具Claude,该公司随后就技术使用条款与五角大楼进行谈判。 IC Photo
这种紧张关系始于去年夏天,Anthropic从五角大楼获得一份价值2亿美元的合同,成为首家被部署于机密军事行动中的美国AI模型开发商。但直到委内瑞拉突袭事件发生后,这一矛盾才开始激化。美媒Axios上周首次报道,五角大楼对Anthropic关切的回应并非一份道歉,而更像是最后通牒:授予我们对贵公司模型的无限使用权,否则就会被指定为“供应链风险”——这一标签通常是针对像华为那样的外国公司。美国政府在告诉一家私营企业,你们的道德准则对国家安全构成了威胁;你们的价值观,用贸易政策的语言来说,是一种敌意行为。这种威胁不仅会导致Anthropic与五角大楼的合同作废,还会迫使其他与美国军方合作的公司证明,他们没有在这些工作流程中使用Claude模型。
相关征兆几周前就开始浮现。早在今年1月份一场宣布五角大楼与埃隆·马斯克的xAI建立新伙伴关系的活动上,“战争部长”海格塞斯就已明确表示,五角大楼“不会采用那些阻止我们去打仗的AI模型”。他所指的正是Anthropic。本周,这番言论升级为一场正面交锋。海格塞斯于周一(23日)上午召集阿莫迪来到五角大楼E环办公区开会,一些国防部高级官员形容这是一次“要么接受,要么走人”的关键时刻。据报道,海格塞斯当时说:“达里奥的问题在于,对他来说,这件事关乎意识形态。我们知道在跟什么样的人打交道。”
据悉,海格塞斯在会上告诉阿莫迪,当五角大楼购买波音公司的飞机时,波音不会提出飞机必须往哪里飞的要求。他将周五下午五点设为最后期限,要求Anthropic放弃“安全过滤器”。官员们甚至讨论过援引《国防生产法》,授权美国政府在面临国家安全危机时接管国内企业。这将导致事态从一场合同纠纷演变为某种数字领域的国有化行为,赋予美国政府接管科技企业并自行拆除其护栏的实质性权力。
无论Anthropic在本周五作何决定,美国政府都已经表明了立场:AI不再是一种产品,而是一种可被征用的资源。如今AI领域上演的意识形态冲突并不新鲜(有传言称,马斯克创建xAI就是为了阻止“觉醒AI”破坏他的登陆火星任务)。但我们正在目睹的是一场会议室里的文化战争演变成关乎国家主权的生存考验。在2010年代,科技企业的CEO们被当作国家元首对待。而今天,他们正被提醒,企业里的“安全过滤器”与个人道德准则均不能左右美国的外交政策。政府已重新夺回了否决权。
这与亚历克斯·卡普(Alex Karp)去年在其畅销书《科技共和国》中向科技界描绘的景象大相径庭。在书中,卡普主张:与美国政府重新接触是硅谷应尽的公民义务。不是因为被迫,而是因为自由民主制度需要如此。这是一个呼吁自愿合作的号角:从软件到硬实力,全面结合。

帕兰提尔公司共同创办人、总裁亚历山大·卡普等去年出版的《科技共和国》一书,严厉批判了硅谷创新力断层的现状,并呼吁同美国政府建立新型合作关系,捍卫西方硬实力和自由价值观。
硅谷那套过时的加利福尼亚意识形态——不问政治、崇尚自由意志、略带乌托邦色彩——正在消亡。卡普希望用一种更严肃的东西取而代之。在他看来,世界上最聪明的人才正忙于开发手机应用和市场营销算法。他认为,这些杰出的人将才华浪费在闪亮的新玩具上,而中国正在制造武器。
他的诊断是正确的,但并非没有缺陷。如果你接受他的前提假设,即硅谷必须为国家服务,因为这是攸关存亡的事情,那么自愿式的合作从一开始就注定困难重重。风险越高,国家就越不可能与之好好商量。当年奥本海默告诉杜鲁门,广岛核爆之后自己的双手“沾满了鲜血”,杜鲁门轻蔑地答道:“他手上沾的血还没有我手上的一半多。你不会对这种事到处哭哭啼啼。”达里奥·阿莫迪不是奥本海默,但两人的逻辑与矛盾是相似的。与核能力一样,大规模部署AI的能力很可能成为定义21世纪战略能力的关键。卡普想要看到一份新的曼哈顿计划诞生。从很多方面看,他确实如愿以偿。
这就是本届白宫《AI行动计划》文件所阐明的。它规定,美国政府仅会与那些被认为“模型没有意识形态偏见”的前沿AI开发商签订合同。Anthropic的“安全过滤器”正是他们撰写这项规定时所想到的。五角大楼的最后通牒并非背离政策,它本身就是政策。事实是,卡普在书中从未真正阐明“自愿合作”到底需要做什么。现在,五角大楼填补了空白。答案是:合作不必是自愿的。卡普称之为“共和国”,因为这便是他期待的结果。毕竟,他自己的公司早已与国家站在一起。但“共和国”已经死了。AI的战略重要性意味着,它终究将成为一个蓄势待发的帝国。
就像18世纪的商船船长一样,美国的前沿AI公司之所以被授予盈利的权利,前提恰是他们的战利品——算力和智能——必须为“王室”服务。他们可以追求商业成功、吸引投资、雇佣最优秀的工程师、构建最强大的模型。可一旦他们的价值观与美国的国家需求发生冲突,他们就会认识到自己的真实身份:臣民而已。五角大楼给Anthropic下达的最后通牒并非特例,而是向整个美国AI行业发出的信息:要么成为国家的工具,要么就是将被凿沉的“海盗船”。
有些人已经读懂了这一信号。Meta在2024年选择屈从并重写了政策,允许其开源模型用于军事和国防应用,因为此前有报道称中国研究人员已将Meta的模型改编并服务中国军方。本周一,马斯克的xAI签署协议,允许美国军方在机密系统中使用其模型Grok。谷歌和OpenAI也一直在洽谈
