开源在压榨GPU性价比!Linux 基金会掌门人揭露AI时代新技术栈:PARK!LLM 已经开始泡沫化,AI其实还没真正改变世界

开源在压榨GPU性价比!Linux 基金会掌门人揭露AI时代新技术栈:PARK!LLM 已经开始泡沫化,AI其实还没真正改变世界

在本周一举行的 Open Source Summit Japan 主题演讲中,Linux 基金会执行董事 Jim Zemlin 抛出了一个耐人寻味的判断:

“AI 可能还谈不上全面泡沫化,但大模型或许已经开始泡沫化了。”

3 万亿美元砸向数据中心,问题先不在模型

Zemlin 首先引用了夸张到惊人的投资数据:

摩根士丹利预计,从现在到 2028 年,全球在 AI 数据中心上的投资将高达 3 万亿美元,其中 亚马逊、谷歌、Meta 和微软等超大厂占了一半左右

他直言:

“这个规模的投资,已经超过了许多小型国家一整年的 GDP。”

这意味着一个现实判断:

绝大多数企业,甚至大多数国家,都不可能在这种高度资本密集型的基础设施竞赛中真正参与竞争。

真正的瓶颈:不是算法,是电力

Zemlin 认为,比资本投入更关键的,是 AI 推理阶段对能源的极端依赖

他给出了一组数据:

  • Google 的 AI 推理调用量 同比暴涨 50 倍

  • 从 2024 年 4 月的 9.7 万亿 tokens

  • 飙升到 2025 年 4 月的 超过 480 万亿 tokens

他同时呼应了 AWS CEO Andy Jassy 的判断:

限制 AI 进一步普及的最大约束,就是电力。

Zemlin 的总结很直接:

这轮 AI 浪潮,本质上是一场关于 GPU、电力、数据中心和物理基础设施 的竞赛,而不仅仅是模型和算法。

真正的杠杆点:开源模型与软件基础设施

在这样一个“重资产”的环境下,Zemlin 认为 开源的真正优势,恰恰不在硬件,而在模型层和软件基础设施层

过去一年里:

  • 以 DeepSeek 为代表的中国开源权重模型

  • 在性能上 大幅缩小了与商业前沿模型的差距

更重要的是:

这些开源大模型,正在被用于蒸馏更小、更行业化的模型

他举了两个例子:

  • TinyLlama(基于 Llama 3)

  • DistilBERT(基于 BERT)

开源模型快追上闭源了,但钱还被“收割走了”

Zemlin 指出,如今从能力上看:

  • 开源模型整体只比美国闭源前沿模型落后 3–6 个月

  • 对绝大多数“讲究性价比”的 AI 场景来说,已经完全够用了

但现实却是:

  • 闭源模型仍然拿走了 95% 的市场收入

  • 每年由此造成的“过度支出”规模高达 248 亿美元

这份数据来自 Linux 基金会首席经济学家 Frank Nagle 的量化研究。

因此,Zemlin 给出他的核心判断:

“我认为我们并不在 AI 泡沫中,但我们很可能正身处一个 LLM 泡沫。”

在他看来,当企业真正开始优先考虑“效率”和“成本”时,风向会迅速转变。他预测:

2026 年将进入一个由“性能 + 效率”主导的时代,而这个时代的主角将是开源生态。

LAMP 之后的下一代基础栈:PARK?

Zemlin 还提出了一个新概念:PARK 技术栈,即:

  • PyTorch

  • AI

  • Ray

  • Kubernetes

其中 Ray 是一个用于大规模 AI/ML 分布式计算的开源框架。

他的判断是:

就像当年的 LAMP 定义了互联网早期的技术栈,这一代的AI技术栈也在定义下一代 AI 计算平台。

PARK 正在迅速成为大规模 AI 部署的默认平台。

他甚至认为:

  • PARK 正在迅速成为大规模 AI 部署的默认平台

开源正在重新压榨 GPU 的“性价比”

Zemlin 将这一波变化,类比成 当年 Linux 内核在全球开发者协作下,被不断优化适配各种硬件的过程

今天在 AI 领域,类似的事情正在发生:

  • vLLM

  • DeepSpeed

这些开源工具正在持续:

  • 榨干 GPU 性能

  • 降低单位 token 成本

  • 同时压低能耗

他总结了一句非常“开源价值观”的话:

“开源最擅长的事情,就是不断拉低:

每个 token 的价格,

每一千瓦电力的成本。”

Agentic AI:真正的自动化浪潮可能在 2026 年爆发

Zemlin 随后转向他认为“正在成型的下一层”——Agentic AI(智能体系统),也就是能:规划、推理、自主执行任务的 AI 系统。

目前这一层仍处在“青少年期”,但已经开始围绕一批 开放协议 逐渐成型,包括:

  • Model Context Protocol(MCP)

  • Agent2Agent(A2A)服务器

尽管现在 真正把 MCP 用在生产环境的公司还只是少数,但 Zemlin 预测:

  • 2026 年将迎来真正的大规模企业级自动化浪潮

  • 多智能体工作流

  • 自动编排

  • 验证框架

  • 确定性与非确定性系统的混合架构

都会开始真正落地。

他特别强调:

“Agentic AI 的能力,并不取决于模型够不够大,而取决于你如何设计整个系统架构。”

“AI 其实还没真正改变世界”

Zemlin 在演讲最后泼了一盆“理性冷水”:

“尽管现在很热闹,但说实话,AI 还没有真正改变这个世界。”

他认为,真正会带来结构性变化的,是“开放协作”本身

  • 防止厂商锁定

  • 提升可信度与透明度

  • 为未来可互操作的 AI 系统提供“通用连接器”

从训练、推理到编排,Linux 基金会将与全球研究机构和产业伙伴一起,持续在这些关键层打通标准。

他在结尾说了一句很克制、但意味很深的话:

“我们很兴奋,能够以一个很小的角色参与到这个世界中来。”

同时,他也预告:

接下来还会有一系列重要发布。

参考链接:

https://thenewstack.io/linux-foundation-leader-were-not-in-an-ai-bubble/

文章来自于“51CTO技术栈”,作者 “云昭”。

搜索