美国想搞AI版的曼哈顿计划?这事太值得琢磨了。

美国-中国经济与安全审查委员会(US-China Economic and Security Review Commission)在去年的年度报告中,直接把AGI(通用人工智能)上升到了“核武器级别”的战略高度,明确主张美国应该像当年开发核弹一样,全力以赴抢在中国之前实现AGI。这个提法,分量很重,隐含的信息也很多。
问题来了,这真的是在确保美国的未来,还是自掘坟墓?
核武器的历史很清楚。1938年,哈恩和施特拉斯曼发现铀裂变,几个月后,梅特纳和弗里施搞清楚了理论机制,1939年,爱因斯坦给罗斯福写信,警告德国可能在搞核弹,直接推动了曼哈顿计划的启动。最终,美国抢在德国之前造出了原子弹,并且在二战结束前夕把广岛、长崎夷为废墟,震慑了全世界,奠定了美国几十年的全球霸权地位。
这就是“抢先”的价值。
但核武器和AGI是一回事吗?这就很难说了。
从硬件层面看,核武器的核心门槛是材料——铀235、钚239这些高浓缩核材料的获取和精炼是极端困难的,天然形成了技术封锁的可能性。而AGI的核心是算法、算力和数据,没有天然的不可逾越壁垒。即便美国先造出AGI,中国的复制速度不会像核武器那样拖几十年,可能几个月甚至几周就能追上。
时间差是关键。
曼哈顿计划的意义在于让美国抢在其他国家之前造出核武器,但核武器的发展证明,第一名未必能保持领先。苏联1949年就试爆了自己的原子弹,之后是英国、法国、中国、印度、巴基斯坦、朝鲜……核扩散的速度远远超出预期。AGI如果真有类似的战略价值,其扩散速度恐怕只会更快,而不会更慢。
更何况,AGI本身的“单点突破”概念就是存疑的。
今天的AI不是一座孤岛,而是一整片森林。无论OpenAI、Anthropic、DeepMind、xAI,还是深度求索(DeepSeek)、阿里、智谱,大家的底层技术差距并没有到“谁先谁赢”的程度。AGI更可能是一组高效协同的模型体系,而不是一个单独的“神AI”。
如果不是因为AGI的绝对技术价值,那美国为什么要搞这个项目?
利益相关方太多了。
谁最希望政府把AI列为国家安全优先级?显然是那些烧钱烧到心疼的AI公司。
OpenAI、Anthropic、DeepMind这些公司,每年投入数十亿美元在训练更强的AI,但开源社区的进展紧随其后,甚至在某些方面已经在逼近它们的核心能力。像Meta、Mistral、深度求索等开源项目,正在挑战封闭AI公司的生存空间。
企业的生存压力越来越大,唯一的解法就是政府介入,把AI变成“敏感技术”,严格控制开源,甚至直接给予重点公司政府资金支持。换句话说,AI曼哈顿计划的一个重要作用,可能是给这些企业输血,让他们能继续烧钱而不至于被市场竞争拖死。
但这么做真的有用吗?
一旦政府开始管控AI技术,最大的输家可能就是美国自己。
回头看看历史,科技封锁往往适得其反。苏联当年想在计算机领域封锁西方,结果反而导致自己的信息化落后;欧洲这些年严苛的监管,让本土科技企业纷纷萎缩,而美国、中国的科技公司却不断崛起。AI的竞争,本质上是人才和数据的竞争,一旦政府过度干预,最可能出现的情况就是人才和技术的外流。
更致命的问题是,中国的策略跟美国完全相反。
美国在考虑如何封闭,中国却在大力推动AI的开源生态。DeepSeek、智源、阿里都在不断推出更强的开源模型,而中国政府也没有像美国那样对开源AI设限。美国如果过度管控自己的AI发展,等于是在亲手把最强的技术推动力交给中国。
还有更现实的问题。
这份报告强调,美国要抢在中国前面实现AGI,否则就会被中国超越。但事实是,如果AGI真的能带来革命性的科技突破,不管美国还是中国,都会很快达到同样的能力水平。一个最现实的例子是半导体,中国被美国封锁高端芯片,但短短几年,华为已经能在7nm工艺上实现突破,未来即便不能完全赶上,也不会被甩太远。AI的发展速度只会更快,封锁的效果只会更差。
所以,美国这个AI版的曼哈顿计划,很可能是一场战略误判。想抢先?没那么容易。想封锁?更不现实。想垄断?迟早被打破。
最终可能的结局,不是美国确保自己的霸权,而是亲手制造了一个更加封闭、更加保守的AI环境。
历史已经一次次证明,技术封锁往往是失败的开始。AGI的未来,可能真的不会是“先到者赢”,而是“最开放者胜”。美国如果执意走封闭路线,未来的世界AI中心,可能真的不会是在硅谷,而是在北京、深圳,甚至巴黎、班加罗尔。