美国知名人工智能企业OpenAI近日在军事应用领域迈出关键一步。
该公司2月28日宣布,已与美国国防部达成协议,将其人工智能模型部署于五角大楼的机密网络。
这一合作标志着这家以“造福全人类”为愿景的科技公司,与军方的关系进入了更深层次的阶段。
就在协议达成的同一天,另一家美国企业因与五角大楼在人工智能技术的应用范围上存在严重分歧而不欢而散,形成鲜明对比。
OpenAI的首席执行官萨姆·奥尔特曼在社交媒体上为这一合作进行了辩护。
他表示,此次合作遵循公司坚持的原则,即人工智能不得用于“国内大规模监控”,而任何涉及武力的使用,包括自主武器系统,都必须由人类负责。
他同时强调公司已为此设立了“安全保障”。
然而,根据彭博社的报道,奥尔特曼的声明并未明确禁止将人工智能工具用于完全自主的武器系统,这为技术的潜在军事用途留下了想象空间。事实上,OpenAI的立场近年来已发生显著转变。
这家最初以非营利性质成立的企业,正加速向营利模式转型。过去,其政策明确禁止将技术用于军事领域,但自2024年起开始放宽相关限制。
在其最新的宗旨说明中,甚至删去了“安全”一词,仅保留“通过人工智能造福全人类”的表述。
具体的军事合作项目是什么?今年早些时候,OpenAI入选了一个总奖金高达1亿美元的挑战项目,参与为军方开发由语音控制的自主无人机群技术。
根据相关文件,OpenAI的模型将在此项目中负责将语音指令转化为数字指令,直接应用于军事装备。
值得注意的是,由马斯克的xAI公司也是该项目的竞争者之一,尽管马斯克本人长期以来一直公开反对开发“杀人的新工具”。
随着投资者对人工智能技术的热情高涨,商业利益正成为驱动这些科技巨头的重要动力。就在宣布与五角大楼合作的前一天,OpenAI刚刚完成了迄今为止最大一笔融资,最新一轮融资对其估值高达7300亿美元,筹集资金达1100亿美元。
巨大的商业前景与军方的合作紧密相连。
但是,也正如美联社所指出的,如果广大消费者将OpenAI与五角大楼的合作解读为将利润置于安全之上,这种与军方的深度绑定最终可能会反噬该公司,损害其在公众心中的形象和信任度。
那个曾以“非营利”和“安全”为旗帜的乌托邦理想国,到如今估值高达7300亿美元、深度嵌入五角大楼机密网络的国防承包商,OpenAI的蜕变轨迹,是资本逻辑对技术逻辑彻底驯服的完整样本。
很多人认为OpenAI是为了赚取巨额研发经费才接下军方的橄榄枝,这种看法或许过于表面。真正驱动它的,是一种更为根本、也更为稀缺的资源获取权——在极端场景下训练人工智能的“数据权”。
五角大楼的机密网络、自主武器系统的决策链路,代表了人类与机器交互所能达到的最高压力环境。在那种生死一线、信息混沌的环境里产生的数据,是民用互联网上海量闲聊、商品推荐、视频推送永远无法提供的“黄金燃料”。
通过参与军方项目,比如将语音指令转化为无人机群的致命打击,OpenAI的模型正在学习如何从一个提供建议的“智能工具”,蜕变为一个在战场上做出判断的“决策终端”。
这种在极限场景下的强化学习,会让它的智能水平,鲁棒性,将那些只会在社交媒体上生成文案和图像的民用模型远远甩在身后。
本质上,这是美国政府在用国防预算,为它本土最顶尖的人工智能公司购买一份最昂贵、也最有效的“实战训练数据包”。这笔交易,远比账面上的研发费来得深远。
而在这个交易过程中,关于“人类控制权”的承诺,正变得前所未有的微妙和模糊。
奥尔特曼反复强调,武力使用必须由人类负责,但与此同时,他又并未明确禁止将人工智能工具用于完全自主的武器系统。这种看似矛盾的表述,实则是一种极其精准的语义模糊,它掩盖了一个正在发生的权力让渡。
所谓的“人在回路”,在人工智能处理海量传感器数据、自主识别目标并生成打击方案的高速战场上,正在演变为一种象征性的“人在远端”。
人类指挥官面前的确认按钮,在算法的闪电般运算和推荐面前,将逐渐成为一个不得不按下的仪式性授权。
决策的节奏、决策的依据、甚至决策的对象,实际上已经让渡给了算法。
这也就催生了一个全新权力结构的诞生,我将其称之为“硅谷军工复合体”的正式成型。
以前,洛克希德·马丁、雷神、诺斯罗普·格鲁曼这些传统军工巨头,负责制造武器的“身体”——那些钢铁打造的导弹、战机和舰船。而现在,OpenAI、xAI这些来自硅谷的科技新贵,正在负责制造这些武器的“大脑”。
你可以想象这样一种场景,未来战争的胜负,可能在芯片的算力峰会上、在模型参数量的比拼中,就已经被预先决定。
马斯克长期以来公开表示反对开发“杀人的新工具”,但他旗下的xAI却同样参与到了为军方开发自主无人机群的竞争项目中。这种看似矛盾的行为,恰恰体现了资本与技术的清醒,在人工智能时代,不参与国防系统的构建,就等于将定义未来战争规则的权利拱手让人。
这种竞争的加剧,必然催生一个前所未有的“算法军火市场”,在这个市场里,代码就是子弹,模型就是防线。
民用人工智能市场充满了不确定性,用户迁移成本极低,同质化竞争已经让市场嗅到了血腥味。但国防订单是截然不同的存在,它具有极强的“逆周期性”和“高粘性”。
无论经济繁荣还是衰退,国防预算都是国家支出的底线。
而一旦一个人工智能模型深度嵌入到五角大楼的指挥、控制、通信、计算机、情报及监视与侦察系统,也就是所谓的C4ISR系统之中,更换供应商的成本将变得不可想象。那意味着整个国防体系的推倒重来。
所以,OpenAI其实也是在通过“国防化”来实现自身估值的“避险化”。在全球地缘政治动荡日益加剧的今天,投资者愿意给那些同时具备“硬核科技”和“国家安全”双重属性的公司以更高的溢价。
前段时间的1100亿美元,与其说是投向一个聊天机器人,不如说是投向“美国下一代国防基础设施的软件定义者”。
这种由地缘政治催生的“战争溢价”,已经不避免地重塑纳斯达克的科技股估值体系,将那些纯粹依赖消费市场的科技公司,与这种深嵌于国家核心权力的公司,彻底区分开来。
但是,是事实上,我们都无法回避一个问题,那就是当消费者意识到,自己用来写邮件、查资料的人工智能,同时也在为无人机规划杀戮路径时,会发生什么?
关于消费者反噬的担忧,确实是存在的。
但我的看法稍有不同。
普通大众对人工智能的认知,始终是分裂的。
一方面,人们本能地恐惧它可能带来的灾难;另一方面,人们又不断惊叹于它日新月异的能力。而历史上,人工智能最惊人的飞跃,往往就发生在试图解决那些最复杂、最极限的军事问题之时。
互联网、全球定位系统,甚至早期的电子计算机,它们最初的形态都源于军事需求,而后才逐渐降维,惠及民用,最终改变了每个人的生活。
OpenAI或许正在赌这样一个逻辑,通过服务国防所获得的顶尖技术,最终会以某种形式“降维打击”到民用市场,创造出一种消费者根本无法拒绝、甚至习以为常的更强大的产品。
只要那个产品足够惊艳,只要它能让生活更便捷、工作更高效,消费者对“道德瑕疵”的记忆往往是短暂的,是会主动选择遗忘的。
当然,这一切存在一个毁灭性的前提。
如果未来某一天,因为人工智能的决策失误,导致了大规模平民伤亡的惨剧,而这次惨剧又被清晰地追溯到这个模型、这次合作之上,那么这种反噬将不再局限于商业层面,它将演变成一场席卷全球的、针对人工智能本身的监管海啸,甚至可能彻底中断这项技术狂奔的进程。
总而言之,OpenAI与五角大楼的这次联手,更为有力地证明了人工智能,这个人类智慧的结晶,已经正式从信息时代的效率工具,进化成为大国博弈棋盘上那个最具分量的、能够定义胜败的武器平台。
而其“安全性”将不再是一个可以放在实验室里慢慢讨论的算法偏见问题,它已经变成一个关乎人类文明能否继续沿着和平与发展轨道前行的、最为根本的安全命题。
作者|Kami
编辑/排版 | Felix
题图/封面|网络
出品|32度域AI研究组
©2025 32度域 版权所有。本内容为作者独立观点,不代表32度域立场。未经允许不得转载,违者必究,授权事宜请联系我们。

