
在本周一举行的 Open Source Summit Japan 主题演讲中,Linux 基金会执行董事 Jim Zemlin 抛出了一个耐人寻味的判断:
“AI 可能还谈不上全面泡沫化,但大模型或许已经开始泡沫化了。”
3 万亿美元砸向数据中心,问题先不在模型
Zemlin 首先引用了夸张到惊人的投资数据:
摩根士丹利预计,从现在到 2028 年,全球在 AI 数据中心上的投资将高达 3 万亿美元,其中 亚马逊、谷歌、Meta 和微软等超大厂占了一半左右。
他直言:
“这个规模的投资,已经超过了许多小型国家一整年的 GDP。”
这意味着一个现实判断:
绝大多数企业,甚至大多数国家,都不可能在这种高度资本密集型的基础设施竞赛中真正参与竞争。
真正的瓶颈:不是算法,是电力
Zemlin 认为,比资本投入更关键的,是 AI 推理阶段对能源的极端依赖。
他给出了一组数据:
- Google 的 AI 推理调用量 同比暴涨 50 倍
- 从 2024 年 4 月的 9.7 万亿 tokens
- 飙升到 2025 年 4 月的 超过 480 万亿 tokens
他同时呼应了 AWS CEO Andy Jassy 的判断:
限制 AI 进一步普及的最大约束,就是电力。
Zemlin 的总结很直接:
这轮 AI 浪潮,本质上是一场关于 GPU、电力、数据中心和物理基础设施 的竞赛,而不仅仅是模型和算法。
真正的杠杆点:开源模型与软件基础设施
在这样一个“重资产”的环境下,Zemlin 认为 开源的真正优势,恰恰不在硬件,而在模型层和软件基础设施层。
过去一年里:
- 以 DeepSeek 为代表的中国开源权重模型
- 在性能上 大幅缩小了与商业前沿模型的差距
更重要的是:
这些开源大模型,正在被用于蒸馏更小、更行业化的模型。
他举了两个例子:
- TinyLlama(基于 Llama 3)
- DistilBERT(基于 BERT)
开源模型快追上闭源了,但钱还被“收割走了”
Zemlin 指出,如今从能力上看:
- 开源模型整体只比美国闭源前沿模型落后 3–6 个月
- 对绝大多数“讲究性价比”的 AI 场景来说,已经完全够用了
但现实却是:
- 闭源模型仍然拿走了 95% 的市场收入
- 每年由此造成的“过度支出”规模高达 248 亿美元
这份数据来自 Linux 基金会首席经济学家 Frank Nagle 的量化研究。
因此,Zemlin 给出他的核心判断:
“我认为我们并不在 AI 泡沫中,但我们很可能正身处一个 LLM 泡沫。”
在他看来,当企业真正开始优先考虑“效率”和“成本”时,风向会迅速转变。他预测:
2026 年将进入一个由“性能 + 效率”主导的时代,而这个时代的主角将是开源生态。
LAMP 之后的下一代基础栈:PARK?
Zemlin 还提出了一个新概念:PARK 技术栈,即:
- PyTorch
- AI
- Ray
- Kubernetes
其中 Ray 是一个用于大规模 AI/ML 分布式计算的开源框架。
他的判断是:
就像当年的 LAMP 定义了互联网早期的技术栈,这一代的AI技术栈也在定义下一代 AI 计算平台。
PARK 正在迅速成为大规模 AI 部署的默认平台。
他甚至认为:
- PARK 正在迅速成为大规模 AI 部署的默认平台
开源正在重新压榨 GPU 的“性价比”
Zemlin 将这一波变化,类比成 当年 Linux 内核在全球开发者协作下,被不断优化适配各种硬件的过程。
今天在 AI 领域,类似的事情正在发生:
- vLLM
- DeepSpeed
这些开源工具正在持续:
- 榨干 GPU 性能
- 降低单位 token 成本
- 同时压低能耗
他总结了一句非常“开源价值观”的话:
“开源最擅长的事情,就是不断拉低:
每个 token 的价格,
每一千瓦电力的成本。”
Agentic AI:真正的自动化浪潮可能在 2026 年爆发
Zemlin 随后转向他认为“正在成型的下一层”——Agentic AI(智能体系统),也就是能:规划、推理、自主执行任务的 AI 系统。
目前这一层仍处在“青少年期”,但已经开始围绕一批 开放协议 逐渐成型,包括:
- Model Context Protocol(MCP)
- Agent2Agent(A2A)服务器
尽管现在 真正把 MCP 用在生产环境的公司还只是少数,但 Zemlin 预测:
- 2026 年将迎来真正的大规模企业级自动化浪潮
- 多智能体工作流
- 自动编排
- 验证框架
- 确定性与非确定性系统的混合架构
都会开始真正落地。
他特别强调:
“Agentic AI 的能力,并不取决于模型够不够大,而取决于你如何设计整个系统架构。”
“AI 其实还没真正改变世界”
Zemlin 在演讲最后泼了一盆“理性冷水”:
“尽管现在很热闹,但说实话,AI 还没有真正改变这个世界。”
他认为,真正会带来结构性变化的,是“开放协作”本身:
- 防止厂商锁定
- 提升可信度与透明度
- 为未来可互操作的 AI 系统提供“通用连接器”
从训练、推理到编排,Linux 基金会将与全球研究机构和产业伙伴一起,持续在这些关键层打通标准。
他在结尾说了一句很克制、但意味很深的话:
“我们很兴奋,能够以一个很小的角色参与到这个世界中来。”
同时,他也预告:
接下来还会有一系列重要发布。
参考链接:
https://thenewstack.io/linux-foundation-leader-were-not-in-an-ai-bubble/
文章来自于“51CTO技术栈”,作者 “云昭”。
