Counterintuitive AI CEO Gerard Rego 近日发表评论指出,以GPU为核心的当前AI算力发展模式正逼近不可持续的临界点。
GPU最初为图形渲染设计,其架构与智能计算所需的顺序、有状态及符号化推理存在本质错配。
尽管英伟达业绩屡创新高,但有资金已显现撤退迹象。
行业调查显示,45%的机构投资者视AI泡沫为顶级风险,超过半数受访者认为企业AI资本支出已过度。这背后是GPU在支撑AI时暴露的“陷阱”,一是“精确而无真理”,计算结果数值精确却不可靠;二是“推理而无记忆”,大语言模型缺乏真正的逻辑理解,仅为模式模仿。
同时,物理与经济的“天花板”正在收紧,数据中心能耗持续飙升,散热消耗巨大资源;计算本身面临延迟、带宽等瓶颈;资本回报则明显递减,更大规模的GPU投入已无法保证获得更优结果。这导致产业价值出现“倒置”——基础要素如电力、冷却系统的价值,反而超越其承载的上层应用。
行业一些变化似乎已经反映出转变,为满足车载AI的严苛限制,特斯拉等公司已转向自研芯片。软件界也普遍认为当前大模型远未达到可靠标准。
英伟达CEO黄仁勋此前也曾承认,实现可信结果仍需数年且需持续增加算力。
有相关分析指出,AI算力发展已进入“浮点运算泡沫”修正期。下一波创新可能会转向更精准、可审计且能源效率更高的基础设施,以追求确定性的智能回报。
1.GPU成功的本质
我们混淆了“计算能力的飙升”与“智能本身的进化”。
支撑这一切的GPU,其成功的本质并非创造了智能,而是极其高效地充当了“统计拟合加速器”。要理解这一点,我们必须回到源头。
图形处理器(GPU)的诞生,源于一个明确且单纯的需求,即以极高的速度、可预测地处理海量且彼此独立的数学计算,例如为游戏画面中的数百万个三角形进行坐标变换和着色。
它的核心优势在于大规模并行处理浮点运算,这是一种确定性的、高度结构化的数字处理任务。
巧合的是,当前主导人工智能浪潮的深度学习,尤其是大语言模型(LLM),其训练过程在数学本质上,恰恰是对人类语言(或其他数据)背后所隐藏的、极其复杂的统计模式,进行一次史无前例的、数据驱动的“巨量拟合”。
模型通过分析数以万亿计的单词关联,学习下一个词出现的概率。
这个过程不涉及理解词义,不构建逻辑框架,它只是在无数次的参数调整中,无限逼近那个能最好地复现训练数据统计特征的数学函数。
GPU的并行架构,正好完美匹配了这种需要同时处理海量数据样本、进行万亿次矩阵乘加运算的任务。
于是,技术的“幸福意外”就发生了。
一个为渲染像素而生的引擎,意外地成为了挖掘数据统计规律的铁锹。
但“拟合”的辉煌成就掩盖不了的鸿沟是,拟合不是理解,生成也并非推理。
我们可以将大语言模型想象成一个拥有近乎无限记忆、并掌握了超凡模式匹配能力的“模仿大师”。它能根据你所言的上下文,以惊人的流畅度“接话”,因为它“见过”所有类似的对话模式并计算出了概率最高的续写方式。
可它并不“知道”自己所说的任何一句话的真实含义,也无法像人类一样,基于内在的逻辑链条和对外部世界的认知模型,进行有步骤的推导。
当我们被这种流畅性所迷惑,并试图通过投入更多的GPU、汇集更庞大的数据、构建参数更多的模型,来迫使系统从“精妙的模仿”迈向“真正的理解”时,我们便撞上了一堵无形的墙:回报的急剧递减。
模型的规模呈指数级增长,但其可靠性和逻辑能力并未同步提升,反而暴露出“幻觉”、逻辑谬误和事实混淆等核心缺陷。
这是一种“路径依赖的傲慢”,被GPU算力飙升的曲线所鼓舞,误以为沿着这条用规模碾压一切的道路一直走下去,智能的奇点就会自然涌现。
这种思路在逻辑上存在先天不足——再完美的统计拟合也无法自发产生关于世界的因果模型;同时,它在物理上也必然遭遇终点——芯片的制程微缩有极限,数据中心的能耗与冷却有极限,社会的经济投入亦有极限。
GPU确实是在带着整个行业飞驰,但其所在的轨道本身,或许并不通往我们最终期待的“智能”目的地。我们加速的,始终是“模仿”的过程,而非“理解”的诞生。
当模仿的精度逼近某个临界点,其内在的、非理性的局限性便会暴露无遗,提醒我们真正的智能进化,需要的可能是一次彻底的轨道切换,而非更快的火车。
2.价值倒置了
所以,一个根本问题摆在了面前,既然单靠堆砌算力已经无法突破智能的瓶颈,那么竞争的下一个战场会在哪里?
我认为,谁能以更低的成本、更可持续的方式,提供并支撑这庞大的计算规模,谁就将掌握主动权。
竞赛的性质已经改变——它正在从一场代码与算法的虚拟较量,下沉为一场关于能源、冷却和实体基础设施的硬核比拼。
简单来说,就是在追逐更大模型的过程中,人们突然发现,制约发展的瓶颈不再是程序员的想法,而是电费账单、机房容量和散热极限。
智能的进化,撞上了物理世界的墙壁。
于是,价值与关注度开始“倒流”,曾经最受瞩目的算法模型,其光环正让位于那些曾经被视为背景的底层要素——稳定的电网、高效的数据中心、创新的冷却技术。数字经济的金字塔,第一次出现了基础比顶端更重要的迹象。
这标志着一个“再实体化”时代的开启。
人工智能的未来,将不再只由硅谷的实验室定义,同样也将由拥有充沛绿色能源的地区、具备强大基建能力的国家来共同塑造。
竞争的维度,从单一的“技术高度”,拓展到了综合的“物理根基”深度。
理解这一点至关重要。
训练和运行最先进的大语言模型,其消耗已非单纯的云服务器租赁费用可以衡量。它直接、巨量地转化为对几种实体资源的饥渴:放置巨大服务器机架的土地、驱动这些芯片运转的电力、以及将这些芯片产生的巨量废热带走的冷却能力。
每一轮模型的迭代,每一次对话的生成,背后都是兆瓦时的电能转化为热量,是冷却水塔蒸腾起的水雾,模型的规模增长呈现指数级的时候,其对电力和冷却的需求同样是指数级的。那么,拥有稳定、廉价且可持续能源的地区,拥有强大电网和高效基建能力的国家,在AI发展的下一阶段,将掌握一种全新的、底层的战略筹码。
这不再是单纯的技术领先,而是综合国力的物理承载。
在这一全球性的“再实体化”趋势下,中国市场的处境与潜力呈现出一种独特的非对称性。诚然,在最尖端的单颗AI芯片设计制造上,中国面临众所周知的挑战。
如果将视野从单一的芯片扩展到承载整个智能算力的“基础设施集群”,中国的优势便清晰浮现。这种优势不是局部的,而是系统性的。
首先在能源供给与调控的维度上,中国拥有全球最发达的特高压输电网络,这意味着可以将西部可再生能源富集区的电力,低损耗、跨区域地调配至东部算力需求密集的地区,实现“电从远方来,算在身边算”的宏观资源配置。
更为重要的是,中国在光伏发电、锂电储能等绿色能源的全产业链上占据全球主导地位。这不仅仅是成本优势,更意味着在未来以“单位智能的能耗与碳足迹”为关键指标的竞争中,中国有能力构建从能源生产、调度到算力消纳的闭环优化体系,将绿色能源优势转化为算力基础设施的“含绿量”与可持续性竞争力。
其次,在物理基础设施的规模与效率层面,中国在过去二十年积累了无与伦比的工程化能力与建设速度。
数据中心的大规模、标准化、快速部署,以及与之配套的网络、土地规划,能够以其他国家难以企及的速度形成集群化的算力供给。
这种能力,使得中国能够绕开在单一芯片性能上“贴身肉搏”的困境,转而追求在“系统级算力效能”上建立壁垒。
即,通过先进的电力管理、液冷等温控技术、以及集群调度软件,将可能并非最前沿的芯片,集成到一个整体能效比最高、运营成本最可控的庞大算力池中。
这种由实体基础设施构成的“战略纵深”,将可能深刻塑造中国AI发展的独特路径。
它未必会催生出参数量绝对领先的、追逐通用极限的单一“巨无霸”模型,但它完全有能力支撑起一个极其庞大且多样化的AI应用生态。
这个生态的核心驱动力,是将切实可用的、规模化的、且经济廉价的智能算力,像电力一样输送给千行百业。
在工业质检、电网调度、智慧交通、生物计算等无数具体场景中,对算力“可靠性”和“成本”的敏感度,远高于对模型“炫技能力”的追求。
中国的AI道路,因此可能更早、也更彻底地从“技术惊奇”导向,转向“产业效率”导向。
3.如何倒逼AI走出“双陷阱”
在拥有了或正在构建这种实体化的算力基础之后,还有一个问题,很有意思,也很值得思考。
我们究竟要用这些昂贵的算力来做什么?对于中国的AI产业和投资者来说,接下来到底该怎么走?
很多人其实还是迷茫。
在热热闹闹的市场上,节奏带起来的,千差万别。
但有一点,我觉得很重要,那就是决不能跟着别人的节奏,在比拼谁芯片算力更强、谁模型更大的赛道上拼命追赶。
我们的机会在于换一条赛道,不和对方玩他最擅长的游戏,而是创造一个对我们有利的新游戏。所以,突围的核心思路,必须从追求“更大的计算规模”,彻底转向追求“更有效的计算结果”。
如果最终产出的,仍然是那些在闲聊中看似聪明、却在关键任务上不可信赖的模型,那么整个庞大的基础设施投资就将面临巨大的价值空洞。这就触及了当前人工智能技术自身存在的深层矛盾,即前面所说的“双陷阱”问题。
对于生成一首诗或一段闲聊,这些缺陷或许可以容忍,人们会将其视为一种有瑕疵但有趣的工具。然而,当人工智能试图进入现实世界的关键领域——例如控制一条高速运转的生产线、管理一个城市的电网负荷、辅助进行医疗诊断,或是监控金融市场的风险——这两个陷阱将立刻从技术局限升级为不可接受的致命缺陷。
在这些场景中,结果的可靠性、决策的可解释性、以及整个流程的可审计性,不是锦上添花的需求,而是不容妥协的底线。
一个无法追溯原因的工业事故,或是一个充满“幻觉”的医疗建议,所带来的后果是物理性的、社会性的,也是法律性的。
这正是中国人工智能发展所面临的独特境遇与核心驱动力。
我认为有几个关键方向。
与专注于追求通用人工智能(AGI)的“炫技”不同,中国庞大的经济体内部,正迸发出对产业智能化、社会治理精细化、以及金融服务安全性的巨大而迫切的需求。
智能制造要求生产线实现接近零缺陷的实时质检;智慧能源需要电网对波动性可再生能源进行毫秒级的精准预测与调度;智慧城市管理期望能提前洞察交通拥堵或公共安全风险;金融系统则必须穿透复杂交易,识别最隐蔽的欺诈行为。这些都不是“锦上添花”的探索,而是“雪中送炭”的刚需。
这种来自真实世界的、硬性的、且规模空前的需求,形成了一种强大的“场景强制进化”压力。它迫使中国的AI研发必须直面并跨越“双陷阱”,从而可能走出一条与当前主流大模型竞赛截然不同的路径。
这条路径的最大特征是优先追求“可靠”而非“炫酷”。
它不执着于构建万亿参数的对话巨兽,而是更专注于开发小型化、专用化、能够深度嵌入物理系统(如机器人、机床、传感器网络)的智能体。
这些系统的容错率极低,一次误判可能导致实体损失,因此它们必须能够在明确边界内,做出高度确定性的、可重复验证的决策。这推动技术向“边缘”下沉,发展出能在资源受限环境下稳定运行的轻量化模型。
而同时,深度的“软硬协同”创新也会是一个趋势。
通用GPU在能效比和计算确定性上无法满足特定场景的极致要求的时候,自上而下的定制化将成为必然选择。正如特斯拉为自动驾驶开发专属的FSD芯片,中国的制造业巨头、机器人公司、能源企业也必将走向类似的路径——为自身的核心算法与工艺流程,设计专用的AI计算芯片(ASIC)或加速单元。
这种创新不是盲目追逐峰值算力,而是追求在特定任务上实现每瓦特效能的最优解,是让硬件为软件任务量身定做。
最终的结果,很可能就会加速“混合智能”架构的成熟与应用。纯粹依赖数据驱动的深度学习擅长模式发现,但在逻辑推理和因果判断上存在短板。
要跨越“双陷阱”,未来的系统便很有机会走向进一步的融合。
譬如,用深度学习处理感知信号(如图像、声音),用知识图谱和符号逻辑来承载领域规则与常识,再用仿真系统对重大决策进行预先推演和验证。这种架构需要的计算范式,不再是GPU擅长的海量同质化并行计算,而是需要处理异构、顺序与符号化计算的新型硬件与框架。
从这个方向趋势而言,中国的AI发展,可能不会由一次“通用智能”的惊天突破来定义,而将由无数个在工厂、电厂、医院和城市街道中默默运行的、可靠且高效的专用智能系统来共同书写。
市场的严苛需求,正在倒逼一场从追求“规模”到追求“精度”、从“软硬件分离”到“软硬件一体”、从“单一算法”到“混合架构”的转变。
这条路看似不够“性感”,却可能恰恰是穿越当前AI发展迷雾,通往真正有价值、可依赖的智能时代的一条务实道路。
之后的方向,也许不是做出了最像人的AI,而是做出了最懂机器、最懂流程、最能与真实世界严谨共处的AI。
一个更需要硬功夫、也更值得期待的新赛段,已经开始了。
作者|鲁智芯
编辑/排版 | Felix
题图/封面|腾讯新闻图库
出品|32度域 AI研究组(未经许可,禁止转载)
本内容为作者独立观点,不代表32度域立场。未经允许不得转载,违者必究,授权事宜请联系我们。

