
图片来源:Alex Kantrowitz
Z Highlights
- 竞争是好事,它会逼着我们变得更好。面对竞争的加剧,OpenAI通过快速迭代和新产品发布来强化自身优势,并“确保我们能在这个领域赢下来”。
- 我们现在处在memory的GPT-2时代… 当它真的能记住你一生的每一个细节,并在此基础上做全面个性化,这会非常强大。
- 人们通常希望使用一个AI平台…我们一直在构建一个完整、协同的产品体系,确保我们是用户最愿意使用的产品。OpenAI通过打造强大的产品和基础设施来维持市场优势。
- AI应该能为不同任务生成不同的界面…它可能理解你那一天想完成什么,然后在后台持续为你工作。 未来的AI将不仅仅是工具,它会主动工作,并融入企业和个人的日常工作流中。
Sam Altman是OpenAI的CEO,曾管理过多个科技项目,领导OpenAI发展成全球领先的人工智能公司。在AI领域具有深厚背景,并且不断推动算力、产品和技术的进步。作为硅谷知名企业家和投资人,Sam Altman在人工智能和科技创新方面的洞察力备受业界关注。本次访谈由著名科技记者Alex Kantrowitz主持,深度探讨了OpenAI的技术发展、AI对社会的影响以及未来的创新趋势,访谈已于2025年12月19日发布。
OpenAI的AI竞赛:ChatGPT如何保持领先
Alex Kantrowitz:今天我们邀请到了OpenAI CEO Sam Altman,来聊一聊OpenAI在这场AI巨头竞赛中打算如何取胜,基础设施层面的账到底怎么算,以及OpenAI是否、以及何时可能IPO。Sam今天就在演播室,欢迎你。非常感谢你来。OpenAI已经10岁了,这简直不可思议。而ChatGPT已经3岁了。但竞争正在明显加剧。我们现在就在OpenAI总部,这里在Gemini3发布之后进入了红色警报状态。你放眼看去,到处都是试图削弱OpenAI优势的公司。而这是我第一次感觉到,这家公司似乎不再拥有一个绝对清晰的领先地位。所以我很好奇,你怎么看OpenAI会如何走出这个阶段,并最终赢得竞争。
Sam Altman:首先,关于红色警报,我们一直把它看成是一种相对低风险、但会周期性出现的应对机制。当潜在竞争威胁出现时,保持警惕、迅速行动是好事。我们以前也遇到过这种情况。今年早些时候DeepSeek出现时,就发生过一次。
Alex Kantrowitz:那次也进入红色警报了吗?
Sam Altman:是的。有一句关于疫情的说法,大概意思是:疫情刚开始时采取的每一个行动,其价值都远高于后来才采取的行动。大多数人都是一开始做得不够,后来才开始恐慌。我们在疫情期间也确实看到了这一点。我基本上是用同样的逻辑来看待竞争威胁的。我认为保持一点偏执是好事。
Gemini3并没有,至少目前来看,并没有造成我们当初担心的那种影响。但它和DeepSeek一样,确实暴露了我们在产品策略上的一些弱点,而我们正在非常迅速地解决这些问题。
我不认为我们还会在这个红色警报状态下待很久。从历史上看,这类状态通常持续六到八周。不过我很高兴我们在这样做。就在今天,我们发布了一个新的图像模型,这是用户非常想要的。上周我们发布了5.2,表现非常好,增长也非常快。接下来还会有一些新产品发布,同时也会持续做一些改进,比如加快服务速度。我猜未来很长一段时间内,这类红色警报可能一年会发生一到两次。这本质上是为了确保我们能在这个领域赢下来。当然,也会有很多其他公司做得很好,我也为他们感到高兴。但ChatGPT依然是市场上遥遥领先的聊天机器人。
而且我预计,这个领先优势会扩大,而不是缩小。模型本身会在各个地方变得越来越好,但人们选择一个产品——不管是消费级还是企业级——原因远不止模型本身。我们早就预期到这一点,所以一直在构建一个完整、协同的产品体系,确保我们是用户最愿意使用的产品。我认为竞争是好事,它会逼着我们变得更好。我相信我们在聊天领域会做得很好,在企业领域也会做得很好。未来几年,在新的产品类别里,我也相信我们会表现出色。
人们通常希望使用一个AI平台。就像他们在生活中用什么手机,也希望在工作中用同样的手机。AI也是一样。ChatGPT在消费端的强势,正在帮助我们赢得企业市场。当然,企业需要不同的产品形态,但人们会想:“我知道OpenAI,我也知道怎么用ChatGPT。”所以我们的策略是:做最好的模型,围绕它打造最好的产品,并拥有足够的基础设施来规模化提供服务。
Alex Kantrowitz:能不能回到刚才那个点——就算“commoditization”不是最准确的词,但对日常用户来说,模型可能会出现某种程度的“parity”。因为你一开始说,日常使用可能感觉差不多,但在前沿会差很多。那对于ChatGPT的增长来说——我用Google举例——如果ChatGPT和Gemini在日常使用上体验类似,那么Google通过各种入口分发Gemini的能力,会构成多大的威胁?相比之下,ChatGPT得为每一个新用户去拼。
Sam Altman:我认为Google依然是一个巨大的威胁,是一家极其强大的公司。如果Google在2023年就真的决定认真对待我们,我们会处在非常糟糕的境地。我觉得他们完全可能直接把我们碾过去。但当时他们的AI努力,在产品方向上走得不太对。他们也曾有过自己的红色警报,但他们并没有那么当回事。
Alex Kantrowitz:现在大家都在疯狂红色警报。
Sam Altman:另外,Google可能拥有整个科技行业里最伟大的商业模式。我觉得他们会很慢才愿意放弃它。但把AI直接“外挂”到web search上,我不认为那样有效。
这其实是一个更广泛的趋势,我觉得很有意思:把AI叠加到现有做事方式上,我不认为会比在AI-first的世界里重新设计产品更好。这也是我们当初想做消费级设备的原因之一,但它同样适用于很多层面。如果你把AI塞进一个messaging app,让它帮你总结消息、帮你起草回复,那确实会好一点点。但我不认为那是终局。终局不是“你有一个很聪明的AI,它作为你的agent,和别人的agent对话,然后判断什么时候该打扰你、什么时候不该打扰你,哪些决策它能处理,哪些需要来问你”。
search会是类似的变化,生产力套件也是类似的变化。我猜……虽然总是比你想的要慢,但我认为我们会看到主要品类里出现全新产品:它们是围绕AI从头构建的,而不是在旧产品上“加AI”。而这可能是Google的一个弱点,尽管他们有巨大的分发优势。
AI界面的进化:从信息总结到智能助手
Alex Kantrowitz:我和很多人讨论过这个问题。ChatGPT刚出来的时候,有个说法是:你可能不应该把AI塞进Excel,而应该重新想象你怎么用Excel。在我脑子里,那就像是你把数据上传,然后你“对着数据说话”。但后来人们发现,要实现这些,需要某种backend。所以是不是应该先构建backend,然后你把AI当成一个新软件来交互?
Sam Altman:差不多就是正在发生的事情。那为什么你又不能把它直接附加在上面?你当然可以附加,但……
我一天中花大量时间在各种messaging app里,包括email、text、Slack等等。我认为这就是一个错误的界面。所以你可以把AI附加在这些界面上,它确实会好一点点,但我更希望的是:早上我可以直接说——今天我想完成这些事情、我在担心什么、我在想什么、我希望发生什么……
我不想整天和人发消息。我不想你给我总结消息。我不想你给我展示一堆草稿。你能处理的就都处理掉。你了解我,你了解这些人,你知道我想做成什么。然后如果你需要我介入,再每隔几个小时批量给我更新一次。但这是一种完全不同的工作流,不是现在这些app的工作方式。
Alex Kantrowitz:对。我本来想问你:ChatGPT在接下来一年、以及未来两年会变成什么样?你说的就是那个方向吗?
Sam Altman:老实说,到现在这个时间点,我原本以为ChatGPT会比它刚上线时“变化更大”。
Alex Kantrowitz:你当时预期它会怎么变?
Sam Altman:我也说不太清。我就是觉得那个chat界面不会像后来事实证明的那样走得那么远。它最初就是……现在看起来更好一些,但整体仍和当时作为research preview放出来时非常相似。它甚至并不是为了做产品而做的。我们知道文本对话界面很好——大家习惯给朋友发消息,他们喜欢这种方式。chat界面确实很好,但我原以为,如果它要成为一个这么大、并且被广泛用于真实工作的产品,那么界面必须比现在进化得更远。我仍然认为它应该更进一步。但我低估了当前界面那种“通用性”的力量。
我认为接下来应该发生的,是AI能为不同任务生成不同的界面。比如你在聊数据,它应该能用不同方式展示数据,你也应该能用不同方式去交互。我们在Canvas这种功能上已经有一点点苗头,但应该更互动。现在基本是来回对话。如果你能“围绕一个对象”持续对话,而它能持续更新,那会更好:你有更多问题、更多想法、有新信息进入,它就不断更新。
而且它应该随着时间更主动:它可能理解你那一天想完成什么,然后在后台持续为你工作,需要时推送更新。你在Codex上已经能看到一部分这种趋势——我认为今年最令人兴奋的事情之一,就是Codex变得非常好,这指向了我希望未来呈现的很多形态。但这件事也让我意外。
我本来想说“有点尴尬”,但也不算。它显然非常成功。我只是惊讶于:三年来ChatGPT的外观和交互方式变化竟然这么小。
Alex Kantrowitz:界面确实有效。
Sam Altman:是的。
AI记忆功能的未来:打造个性化体验
Alex Kantrowitz:但内部“guts”显然变了。你刚才谈到个性化,这对我来说很重要。我觉得你们的memory是一个真正的差异化。我最近几周一直在和chatGPT对话,规划一次包含很多安排要素的旅行。我可以在一个新窗口里直接说:好,我们继续规划这个旅行。它有上下文,它知道我要跟谁一起去,它知道我要做什么。它知道我还在为旅行做fitness规划,并能把这些事情综合起来。memory能做到多好?
Sam Altman:我认为我们根本还没有概念。因为人类的极限是:即便你有世界上最好的personal assistant,他们也记不住你一生中说过的每一句话。他们不可能读过你所有email,不可能读过你写过的每一份文档,也不可能每天看着你的工作并记住每一个细节。他们不可能以那种程度参与到你的生活中。而且人类没有无限、完美的记忆。
但AI绝对可以做到。我们其实经常讨论这件事:现在的memory仍然很粗糙,很早期。我们现在处在memory的GPT-2时代。但当它真的能记住你一生的每一个细节,并在此基础上做全面个性化——而且不只是事实,还包括你那些很细小的偏好:你可能自己都没意识到表达过,但AI可以捕捉到——那会非常强大。
这也是我最兴奋的方向之一。它可能不是2026就会完全实现,但这是我非常期待的一部分。
Alex Kantrowitz:我之前请过一位neuroscientist上节目,他提到你在大脑里找不到“thoughts”。大脑并没有一个地方专门存储thoughts,但computing有——它有地方能存。所以你能把所有thoughts都存下来。随着这些bots保存我们的thoughts,当然会有隐私担忧。但还有一点也很有意思:我们会和它们建立关系。我觉得这是整个时刻里最被低估的事情之一:人们感觉这些bots像是他们的伙伴、在照顾他们。你怎么看这种——我不知道用“intimacy”是否合适,但这种陪伴感、亲密感?是否存在一个“拨盘”,你可以把它调到:让人们和这些东西变得很亲密;或者把拨盘往回调,让它们保持一定距离?如果这个拨盘存在,你会怎么去调到一个正确的位置?
Sam Altman:确实有更多的人,比我原来想象的更多,想要一种我们姑且称为“close companionship”的东西。我不知道最合适的词是什么。relationship好像不太对,companionship也不完全对。我不知道怎么称呼,但他们想要和AI形成某种深层连接。而且在当前模型能力水平下,想要这种连接的人就已经比我预期的多得多。我们低估它有很多原因。
在今年年初,说“我想要那样的东西”还会被认为很奇怪。现在也许很多人仍不想要。但从隐藏偏好来看,人们就是更喜欢他们的AI chatbot能理解他们、对他们温暖、支持他们。即便有些人嘴上说自己不在乎,实际也会更偏好这种体验。
我认为其中有一些版本可能非常健康。并且我认为成年用户应该有很大的选择权,让他们决定自己想处在这个光谱的哪个位置。当然,也有一些版本在我看来是不健康的,但我相信仍会有很多人选择那样的东西。另外也确实有一些人希望得到最干、最高效、最工具化的体验。
所以我猜,就像很多技术一样:我们会先做实验;会发现一些unknown unknowns,有好的也有坏的;社会会随着时间逐渐形成对“这个拨盘应该怎么调”的共识;然后人们会拥有很大的自由,把它调到非常不同的位置。
Alex Kantrowitz:所以你的想法是:让用户自己决定?
Sam Altman:是的,绝对如此。但我不认为我们已经知道它应该走到多远——也就是我们应该允许它走到多远。我们会给用户相当程度的个人自由。有一些我们讨论过的功能,其他服务可能会提供,但我们不会。比如我们不会让AI去试图说服用户:应该和它建立一种排他的romantic relationship。我相信其他服务会这样做。
Alex Kantrowitz:因为越“粘”,那个服务就越赚钱。这些可能性稍微认真想一想,确实有点吓人。
Sam Altman:完全同意。这件事确实是我个人最能看到“可能会走得很糟糕”的方向之一。
企业级市场是OpenAI 26年重点发力方向
Alex Kantrowitz:你提到了enterprise。我们聊聊enterprise。你上周在纽约和一些新公司的编辑和CEO共进午餐,你告诉他们:enterprise会是OpenAI明年一个非常重要的优先级。我很想听你更详细讲讲:为什么这是优先级?你认为你们和Anthropic相比如何?也有人会说这是OpenAI从消费导向转向企业导向的“转向”。请你整体概述一下enterprise。
Sam Altman:我们的策略一直是C端优先,原因有几个。第一,当时模型不够稳定、能力也不够强,难以满足大多数enterprise用途。现在它们正在达到那个水平。第二,我们在C端上有一个非常清晰的机会去赢——这种机会很少见,也很难得。我认为一旦你在C端上赢了,就会让你在enterprise上赢得容易得多。我们现在正在看到这一点。就像我前面提到的,今年enterprise的增长超过了C端的增长。考虑到模型现在的水平、以及明年会达到的水平,我们认为现在就是我们可以非常快速建立一个重大enterprise业务的时间点。
我认为我们已经有一个很强的enterprise业务,但它还可以增长得更多。企业看起来准备好了,技术也准备好了。coding是目前最大的例子,但还有很多垂直领域增长也非常快。我们开始听到企业说:我真正想要的是一个AI platform。Finance,Science是我个人最兴奋的领域,目前我们的顾客支持做得也很好。我们还有一个叫GDPVal (ZP注:GDPval(Gross Domestic Product-weighted evaluation)是OpenAI推出的一个评估基准,用于衡量AI模型在专业知识工作任务中的经济价值表现)的东西。
Alex Kantrowitz:我正想问这个。我能把我的问题直接抛出来吗?因为我给Box的CEO Aaron Levy发了消息,我说我要见Sam,我该问什么?他说,问问GDPVal。GDPVal是衡量AI在knowledge worktasks上表现的指标。我回去看了你们最近发布GPT5.2的release,里面有一张GDPVal的图。当然,这是OpenAI自己的eval。但图里显示:GPT5 thinking(夏天发布的那个)在38%的任务上与knowledgeworkers“tied”。
Sam Altman:我觉得是beat or tied。
Alex Kantrowitz:对,beat or tied,38.8%。而GPT5.2thinking在70.9%的knowledge worktasks上beat or tied。GPT5.2 pro是74.1%。它跨过了expert level的阈值。它处理了看起来大约60%的专家级任务——也就是能让它在知识工作上达到专家水平的那些任务。这些模型能够完成如此多的knowledge work,这意味着什么?
Sam Altman:你刚才在问垂直领域,我觉得这是一个很好的问题。我刚才有点卡住,是因为这个eval覆盖的范围非常广,我想大概有四十多个不同的“企业垂直职能”:做一个PowerPoint、做一份法律分析、写一个小webapp,各种各样的事情。
这个eval的核心是:在企业必须完成的很多事情上,专家是否更偏好模型的输出,相对于其他专家的输出。当然,这些都是小而明确、边界清晰的任务。它们不包括那种复杂的、开放式的creative work,比如“想出一个新产品”。也不包括很多协作型、团队型的工作。
但如果你拥有一个“同事”,你可以给它分配一小时的任务,然后它返回的结果,你有74%(如果你用pro)或者70%(如果你想省钱)概率更满意,这已经非常惊人了。如果你回到三年前ChatGPT刚发布时说:三年后我们会达到这种水平,大多数人会说绝对不可能。
所以当我们思考企业如何整合这些能力时,它已经不再只是“它会写代码”。而是:它能处理大量的知识类任务,你可以把这些任务“分发”给AI去做。企业真正把它整合进工作流里需要时间去摸索,但影响会非常可观。
AI职能自动化与人类角色变化
Alex Kantrowitz:我知道你不是经济学家,所以我不会问你“工作岗位在宏观层面会受到什么影响”这种问题。但我想给你读一句我在Substack上《Blood in the Machine》里听到的、关于这如何影响工作的说法。这是一位technical copywriter说的。他说:“chatbots出现之后,我的工作变成了管理这些bots,而不是管理一支reps团队。”好,这在我看来以后会经常发生。但这个人接着又说:“一旦这些bots被训练到足以提供‘足够好’的支持,我就出局了。”
这种情况会不会变得更常见?这会不会是那些“坏公司”会做的事?因为如果有一个人类能够去编排、调度一堆不同的bots,那你可能会想把这个人留下来。我也不确定。你怎么看这个问题?
Sam Altman:我同意你说的:很明显可以预见,大家都会在管理很多AI,让它们做不同的事情。最终,就像任何优秀的manager一样,希望你的团队会越来越强,而你只是承担更大的范围和更多的责任。我并不是那种“jobs doomer”。
短期我确实有些担忧。我认为在某些情况下,这个转型可能会很艰难。但我们在生物本能层面就被深深“写死”了:我们在乎其他人、在乎其他人在做什么。我们似乎非常关注相对地位,总想要更多,总想成为“有用的人”、提供服务、表达创造力——不管是什么驱动我们走到今天的。我不认为这些会消失。
当然,我也确实认为未来的“jobs”(甚至我都不确定还该不该叫jobs),也就是到了2050年我们整天在做的事情,很可能和今天看起来完全不同。但我并不认为会出现那种叙事:什么“生活将失去意义、经济会彻底崩溃”。我希望我们会找到更多的意义;经济我认为会显著变化。但我觉得你永远不要和进化生物学对赌。
我经常思考我们如何把OpenAI的所有职能都自动化。甚至不止如此,我还会想:如果OpenAI有一个AI CEO,这意味着什么?这并不会困扰我。我会为此感到兴奋。我不会抵抗。我不想成为那种死死抓着不放的人,说“我用手工方式能做得更好”。
Alex Kantrowitz:但AI CEO不就是会做出一堆决策,把我们的所有资源都导向“给AI更多能量和算力”吗?所以你得给它加个监管,对吧?
Sam Altman:对。显然,你不希望一个不受人类治理的AICEO。这是个很疯狂的类比,但我还是说一下。如果你设想一种版本:世界上的每个人都相当于是一家AI公司的董事会成员,每个人都可以告诉AI CEO该做什么;如果AI CEO做得不好,大家还能把它开掉;并且大家对重大决策拥有治理权;而AI CEO的工作是努力执行董事会的意志。我觉得对未来的人来说,这可能看起来是一件相当合理的事。
期待:未来模型的进步与基础设施建设
Alex Kantrowitz:好,我们一会儿要聊基础设施。但在离开“模型与能力”这一部分之前:GPT-6什么时候来?
Sam Altman:我预计——我也不确定我们什么时候会把某个模型称作GPT-6——但我预计明年第一季度会有一些新模型,它们相对5.2会有显著提升。关于显著提升,我现在还没法给你一个具体的eval分数。
Alex Kantrowitz:你是指更多在enterprise这边,还是?
Sam Altman:肯定两边都会。面向消费者会有很多改进。消费者现在最想要的主要不是更高的IQ。企业仍然想要更高的IQ。所以我们会针对不同用途,以不同方式去改进模型,但我们的目标是做出一个让所有人都更喜欢得多的模型。
Alex Kantrowitz:那我们聊infrastructure。你们大概有1.4trillion左右的基础设施投入承诺。我听过你关于infrastructure的很多说法。你说过:如果人们知道我们能用compute做什么,他们会想要更多更多。你还说:今天我们能提供的东西,和10xcompute、100xcompute相比,差距非常大。你能不能把这个再讲具体一点?这么多compute,你们打算拿来做什么?
Sam Altman:我前面提过一点。我个人最兴奋、最兴奋的事情,是用AI和大量compute去发现新的科学。我相信科学发现是这个世界变得更好的最关键因素之一。如果我们能把海量compute投到科学问题上、发现新的知识——现在已经开始出现最最微小的一点点迹象了。非常早期、非常小。但按照我对这个领域历史的理解:一旦那条“曲线”开始出现、并稍微从x轴抬起来,我们就知道该怎么把它做得越来越好。但这需要巨量compute。所以其中一个方向就是:投入大量AI,去发现新科学、治疗疾病,还有很多其他事情。
一个最近挺酷的例子是:我们用Codex做了Sora Android app。他们大概不到一个月就做出来了。他们用了非常多——在OpenAI工作有个好处是你用Codex没有任何限制。他们用了海量tokens,但他们完成了原本需要很多人花更长时间才能完成的事情,而Codex基本上替我们完成了大部分。你可以想象它还能走得更远:整个公司都可以用大量compute来构建产品。
很多人也谈到视频模型会指向实时生成的user interfaces。那会需要大量compute。想要转型业务的enterprises会用掉大量compute。想象一下:医生想提供很好的个性化医疗,对每个病人持续测量能获得的每一个体征信号——你也能想象这会用掉大量compute。我们现在到底已经在用多少compute去生成全球性的AI输出,其实很难直观地表达。但下面这些数字非常非常粗糙。而且我觉得用这种方式说话挺“不严谨”的,但我总觉得这种mental thought experiment有时候多少有点帮助。所以先为这种不严谨道歉。假设今天一家AI 公司可能每天从前沿模型里生成大概10 trillion tokens量级的输出。可能更多,但我不认为谁能达到quadrillion tokens的级别,至少我不这么认为。再假设世界上有8 billion人,再假设每个人每天输出的tokens平均大概20,000。然后你可以开始做对比——而且公平起见,我们比较的应该是“模型提供商今天输出的tokens”,而不是消耗的所有tokens。你可以开始看,然后你会说:嗯,我们很快会让一家公司的模型每天输出的tokens超过全人类加起来的输出。再然后是10倍,再然后是100倍。
从某种意义上说这是个很傻的比较;但从某种意义上,它给了你一个量级概念:这个星球上“智力计算”的规模里,人类大脑和AI大脑大概分别占多少。那种相对增长速度也挺有意思的。
Alex Kantrowitz:所以我想问的是:你怎么知道确实存在这种对compute的需求?比如,如果OpenAI把投向科学的compute翻倍,我们就一定能获得确定性的科学突破吗?或者在药物上,我们就一定能更清晰地辅助医生吗?这里面有多少是对未来的假设,有多少是基于你今天看到的情况而形成的明确判断——也就是它一定会发生?
Sam Altman:我们基于今天看到的一切来判断:这会发生。当然,这并不意味着未来不会出现某些疯狂的情况。比如有人发现一种全新的架构,效率提升10,000倍。那样的话,我们可能就确实在一段时间内“建得太多”了。
但我们现在看到的一切——模型在每一个新水平上变强的速度;每当我们把成本降下来,人们想用它的意愿就会强多少;以及人们到底有多想用它——这些都在告诉我:需求会持续增长,人们会用这些东西去做很棒的事,也会用它做一些很傻的事。但整体看起来,这就是未来的形状。
而且不只是每天能做多少tokens,还包括我们能以多快的速度做出来。随着这些coding models变得更强,它们可以“想很久”,但你并不想等很久。所以还会有其他维度。最终不只是tokens数量,而是少数几个维度上的“对智能的需求”以及我们能用它做什么。如果你遇到一个非常棘手的医疗问题,你是想用5.2,还是想用5.2Pro——哪怕后者要消耗多得多的tokens?
Alex Kantrowitz:我会选更好的模型。
Sam Altman:我想你会的。
Alex Kantrowitz:我们再往深一层。说到科学发现,你能不能举一个科学家的例子——不一定要是真实你认识的,但也可以是你今天知道的那种——他会说:我有问题X,如果我能拿到Y的compute,我就能解决它,但我今天做不到。
Sam Altman:今天早上Twitter上有个讨论:一群数学家在互相回复,他们说:“我之前非常怀疑LLMs什么时候才能真的变得有用。对我来说,5.2是跨过那条边界的模型。它在一些帮助下做出了这个小证明,发现了这个小东西,但它正在改变我的工作流。”然后很多人接着说:“对,我也是。”也有人说5.1就已经可以了,但不多。
这是一个非常新的例子。这个模型大概才发布五天左右,人们就开始说:好吧,数学研究圈似乎在说——“OK,有件重要的事情刚刚发生了。”
Alex Kantrowitz:我也看到Greg Brockman在他的feed里强调了很多数学和科学方面的用法。我感觉在这些圈子里,5.2确实“点亮”了某种东西。所以接下来会怎样挺值得观察。
Sam Altman:这种规模的compute有个难点是:你必须提前非常久去规划和建设。所以你提到的那1.4trillion,我们会在很长很长的时间里花出去。我希望我们能更快。我认为如果我们能更快,需求也会存在。但建这些项目需要极其长的时间:运行数据中心的能源、芯片、系统、网络,还有所有其他东西,都需要时间。所以这会持续一段时间。
你知道,从一年前到现在,我们大概把compute翻了三倍。明年我们希望再翻三倍,希望之后还能再翻三倍。营收的增长甚至会比这稍微快一点,但它大体上是跟着我们的compute fleet走的。所以我们到目前为止还从未遇到一种情况:我们无法把拥有的compute很好地资产化。我觉得如果我们现在有双倍的compute,我们现在就会有双倍的营收。
企业对基础设施的需求与债权融资
Alex Kantrowitz:好,既然你提到了数字,我们就聊数字。收入在增长,Compute支出也在增长,但compute支出仍然超过收入的增长速度。我看到有报道说:OpenAI从现在到2028、2029之间可能会亏损大约120billion,然后那时你们会实现盈利。那你讲讲,这个怎么变化?拐点在哪里?
Sam Altman:我的意思是:随着收入增长、以及推理在整个fleet里占比越来越大,它最终会吞没训练的支出。这就是计划:训练花很多钱,但收入会越来越多。如果我们不是继续把训练的开支提升得这么快,我们会早得多、早得多就盈利。但我们正在下注的是:非常激进地投资去训练这些大模型。
Alex Kantrowitz:全世界都在想:你们的收入怎么和投入对齐。有人问过:如果今年的轨迹是做到$20billion 收入,而你们的投入承诺是1.4trillion,那我觉得,最好能把这件事讲清楚。
Sam Altman:再强调一次,是在非常长的时间跨度里。对。
Alex Kantrowitz:这也是我想把它直接拿出来问你的原因。我觉得最好能一次把它讲清楚:这些数字到底会怎么运转。
Sam Altman:我发现有一件事:我当然做不到,而且我认识的几乎没有几个人能做到。你可以在脑子里对很多数学问题有很好的直觉,但对指数增长,人们通常很难快速、准确地建立一个心算框架。不知道为什么,进化让我们需要在脑子里做好很多数学直觉,但“建模指数增长”似乎不在其中。
所以我们相信的是:我们能在很长一段时间里保持收入的陡峭增长曲线,而我们现在看到的一切也持续表明这一点。前提是我们必须有compute;没有compute,我们做不到。我们现在被compute严重限制,它对收入线的影响非常大。所以我认为,如果有一天我们出现大量闲置compute,并且无法在“每单位compute的盈利基础上”把它资产化,那时候你说“这到底怎么运转?”会非常合理。
但我们已经用很多不同方式把账算过了。当然,随着我们在降低compute成本方面做的工作逐渐落地,我们也会在赚钱上变得更高效。同时我们看到了消费者增长,看到了企业增长,还有一堆我们甚至还没发布、但未来会发布的新型业务。但compute真的是支撑这一切的“生命线”。所以这一路上会有一些check points;如果我们在时间点或数学上有点算错,我们也有一定的灵活性。
但我们一直处在compute赤字阶段。它一直限制着我们能做什么。我不幸地认为这可能永远都会存在,但我希望它不那么严重,并且我希望随着时间推移让它变得没那么严重,因为我认为我们能交付很多很棒的产品和服务,而且这会是一个很棒的生意。
Alex Kantrowitz:所以本质上是:训练支出会下降。
Sam Altman:作为比例会下降,但总量会继续上升。
Alex Kantrowitz:然后你的预期是,通过企业推动、通过人们愿意为ChatGPT付费、通过API,OpenAI能把收入增长到足够高,从而用收入覆盖这些投入。
Sam Altman:对,这就是计划。
Alex Kantrowitz:我觉得最近市场有点“失控”。我认为真正吓到市场的一点是:debt进入了这个等式。关于debt的常见逻辑是:当某件事可预测时你才会去借债。然后公司借钱、建设,然后获得可预测的收入。但这是一个全新品类,它是不可预测的。你怎么看debt进入这件事?
Sam Altman:首先我认为,市场更“失控”的时候其实是今年早些时候:我们去见某家公司,然后那家公司股价第二天就涨20%或15%。
Alex Kantrowitz:那太离谱了。
Sam Altman:那种状态非常不健康。我其实很高兴现在市场多了一点怀疑和理性,因为在我看来,当时我们正朝着一个非常不稳定的泡沫走去。而现在,我觉得大家开始有一定程度的纪律性。
所以我反而觉得:之前是疯狂,现在更理性。至于debt,我认为我们某种程度上知道:如果我们建设基础设施——我们这个行业——总会有人从中获得价值。虽然现在仍然非常早期。我同意你说的“早期”,但我不觉得还有人会质疑AI infrastructure不会产生价值。所以我认为debt进入这个市场是合理的。
我也认为还会出现其他类型的金融工具。我猜人们在创新如何为这些事情融资时,也会出现一些不太合理的工具。但借钱给公司去建数据中心,这在我看来没问题。
Alex Kantrowitz:我觉得担忧在于:如果发展速度跟不上,比如有一种情景——你可能不同意——模型进步趋于饱和,那么这些基础设施的价值就会低于预期。然后是的,这些数据中心仍然对某些人有价值,但也可能被清算,然后被别人打折买走。对吧。
Sam Altman:顺带说一句,我确实怀疑这一路上会有一些繁荣与萧条。这些事情从来都不是一条完全平滑的线。
首先,对我来说非常清楚的一点是——而且我愿意拿公司去押注这件事——模型会变得好得多、好得多。我们对这一点有相当好的“视窗”,我们非常有信心。即便它们不再继续变强,我也认为世界具有很强的惯性。人们适应新事物需要时间。
我相信5.2所代表的经济价值,相比这个世界到目前为止“学会如何从中榨取的价值”,差距巨大到一种程度:即便你把模型冻结在5.2上不再进步,你还能创造多少新增价值、从而推动多少收入?我赌会非常多。
事实上,你没问这个,但我想稍微rant一下:我们以前经常谈一个2×2的矩阵:短timelines/长timelines、慢起飞/快起飞;在不同阶段我们觉得概率如何变化;你可以据此理解很多这个世界应该优化的决策与策略——取决于你认为自己会落在那个2×2的矩阵的哪个格子里。
但现在在我脑子里,这幅图又多出来一个z轴:overhang小/overhang大。我以前大概没认真想过这件事。但回头看,我一定是默认了overhang不会那么大:如果模型里蕴含了很大价值,世界会很快学会怎么部署它、用起来。但现在在我看来,世界大部分地方的overhang会非常巨大。
当然会有一些领域,比如某一批程序员,采用这些工具后会大幅提升生产力。但总体来说,你有一个聪明得离谱的模型,可老实说,大多数人问它的问题,仍然和GPT-4时代差不多。科学家在变,不同的程序员在变,knowledge work可能会变,但总体有一个巨大的overhang。而这会给世界带来一堆非常奇怪的后果。我们还没有完全想明白它会如何展开,但这跟我几年前的预期非常不一样。
Alex Kantrowitz:我想问你关于这种capability overhang的问题。基本上,模型能做的事情远比它们现在被用来做的多。我一直试图理解:为什么模型明明更强,却没有被用起来?而且很多企业在尝试落地时,并没有得到投资回报。
Sam Altman:我也不太确定该怎么理解,因为我们又听到很多企业在说:你就算把GPT-5.2的价格提高10倍,我们也还是会买。你们定价严重偏低,我们从中获得了巨大价值。这听起来和“ROI不好”不一致。尤其你去听程序员怎么说,他们会说:这东西我愿意付100倍的价格之类。可能只是管理层把事情搞砸了。
假设你相信GDPVal的数字——当然你也可能因为很充分的理由而不信,也许它们是错的——但如果它是真的:对于这些定义明确、持续时间不太长的知识类工作,10次里有7次,你会对5.2的输出同样满意或更满意。那你就应该大量使用它。但现实是,人们改变工作流要花非常久。他们太习惯让junior analyst去做案头工作之类的事情了,所以……这种习惯的黏性比我想的更强。
说实话,我自己也仍然在用几乎同样的方式运行我的工作流,尽管我知道我本可以比现在更大量地使用AI。
快问快答
Alex Kantrowitz:我还有四个问题。我们来个lightning round,看看能不能快速过一遍。先说你们在做的那个device。我听到的说法是:手机大小、没有屏幕。如果它就是一个没有屏幕的“手机”,那为什么不能只是一个app?
Sam Altman:首先,我们会做一个小的devices家族,不会只有一个device。随着时间推移——这不是在“猜测”,所以我也可能最终完全错——但我认为人们使用电脑的方式会逐渐发生转变:从一个“愚钝、被动反应”的东西,变成一个“非常聪明、主动”的东西,它理解你整个人生、你的上下文、你周围发生的一切;它也很了解你身边的人——无论是物理上在你身边,还是通过你正在使用的电脑与你“接近”的那些人。
我不认为当前的devices很适合那样的世界。
我非常相信:我们是在设备的边界条件下工作。你手里那台电脑,它有一堆设计选择:它可以open或closed,但它没法做到那种——比如“你专心听这场采访,但设备保持关闭状态;如果我忘了问Sam某个问题,你就贴在我耳边小声提醒一下”——这种模式。也许那会很有用。
而且还有screen,这把你限制在几十年来我们一直使用的GUI的方式里。还有键盘——它当初被设计出来就是为了降低你输入信息的速度。这些长期以来都是未经质疑的前提,但它们确实有效。然后一个全新的东西出现了,它打开了一个巨大的可能性空间,但我不认为当前device的形式是最优匹配。如果它恰好就是最优,那反而会非常奇怪——对于我们现在拥有的这种不可思议的新能力来说。
Alex Kantrowitz:天啊,这个我们能聊一小时。但我们先进入下一个:Cloud。我们之前聊过建cloud。这是我们收到的一封听众邮件:在我公司,我们正在从Azure迁出,并直接对接OpenAI,把它集成到产品里来驱动AI体验。重点是把trillions of tokens的流量注入到产品栈里,让AI体验贯穿整个stack。这是不是你们要用这种方式去做一个大的cloud business?
Sam Altman:首先,trillions of tokens,确实很多tokens。而且如果你问compute的需求和我们的enterprise strategy:企业已经很明确地告诉我们,他们想从我们这里买多少tokens。而且我们会在2026年再次无法满足需求。
但整体策略是:大多数公司似乎都希望来找我们这种公司,然后说我想用AI“重塑/重命名”我的公司。我需要一个为我公司定制的API。我需要为我公司定制的ChatGPT Enterprise。我需要一个能跑所有这些agents的平台,并且我可以把数据托付给它。我需要把trillions of tokens注入到我的产品里。我需要让所有内部流程变得更高效。而我们目前还没有一个很好的all-in-one解决方案给他们。我们想把这个做出来。
Alex Kantrowitz:你的野心是把它做到能和AWS、Azure并列的那种程度吗?
Sam Altman:我觉得它会是和那些不太一样的一类东西。我并没有野心去提供“托管网站所需的所有服务”之类的——我甚至也说不清具体包括什么。但在概念上,是的:我猜人们还会继续有他们的、可以称为web cloud的东西。然后我认为会出现另一种东西:公司会说——我需要一个AI platform,用于我内部想做的一切、我想对外提供的服务等等。它在某种意义上也运行在物理硬件上,但我认为它会是一套相当不同的产品形态。
Alex Kantrowitz:我们快速聊一下discovery。你说过一句让我很感兴趣的话:你认为models——或者是人和models一起工作——明年会做出一些小的discoveries,五年内会有大的discoveries。那到底是models在做?还是人类在和它们并肩做?你为什么有信心这会发生?
Sam Altman:是人们在使用models。至于models自己能“想出该问什么问题”,那种能力我觉得还更远一些。但如果世界因为新知识而受益,我们应该非常兴奋。我认为人类进步的整个过程一直是:我们造出更好的工具,然后人们用它去做更多的事。
然后在这个过程中,人们又造出更多工具。我们就是靠这种“脚手架”一层一层往上爬:一代又一代,一个discovery接一个discovery。而且“问题是由人类提出的”,我认为丝毫不减损工具的价值。所以我觉得这很棒,我很开心。
在今年年初,我以为这些小discoveries会从2026年开始。结果它们在2025年就开始了——就在2025。再强调一次,这些都非常小。我真的不想夸大,但对我来说,“有一点点”在质感上就和“完全没有”非常不同。而且三年前我们发布ChatGPT的时候,那时的模型是不可能对人类知识总量做出任何新的贡献的。从现在到五年后,“走向大的discoveries”的这段旅程,我猜大概就是AI一贯的爬坡:每个季度变好一点点。
然后突然有一天我们会说:哇,被这些models增强的人类,正在做一些五年前的人类绝对做不到的事。至于我们把它主要归功于“更聪明的人”还是“更聪明的模型”,只要我们能获得科学发现,我两边都很满意。
Alex Kantrowitz:明年IPO?我不知道。你想成为public company吗?看起来你们可以private运作很久。从融资角度来说,你会在“还没必要”之前就去上市吗?
Sam Altman:这里面有很多因素。我确实觉得public markets能参与价值创造是一件挺酷的事。从某种意义上,如果你把我们和以往任何公司相比,我们会非常晚才去上市。做private company很棒。我们需要大量资本。我们迟早会触及各种shareholder limits之类的东西。所以我期待当一个public company CEO吗?零期待。我期待OpenAI成为public company吗?某些方面我挺期待;某些方面我觉得会非常烦。
Alex Kantrowitz:我很认真听了你上Theo Vaughn的那期采访。非常精彩。Theo真的很懂。他还引用了Yoshua Bengio,他做了功课。你当时说——那是在GPT-5发布之前——GPT-5在几乎所有方面都比我们更聪明。我以为那就是AGI的定义。那难道不是AGI吗?如果不是,那这个词是不是已经有点变得没意义了?
Sam Altman:这些模型在“原始算力”意义上,显然是极其聪明的。过去几天有很多说法:GPT-5.2的IQ是147、或144、或151——不管具体是多少,取决于谁的测试,总之是个很高的数字。你也会看到很多领域专家说:它能做这些惊人的事情,而且它正在贡献价值,让人们更有效率。你看到了GDPVal,也看到了我们谈到的各种东西。但有一件事你还没看到:模型今天不会做某件事时,它能意识到自己不会,然后自己跑去搞清楚该怎么学会、怎么理解;等你第二天回来,它就能把它做对。这种持续学习,连幼儿都能做到。但它在我看来确实是我们需要构建的重要部分。
那么,没有这种能力,你能不能拥有一种大多数人会认为是AGI的东西?我会说,有很多人会认为我们用当前模型已经到了AGI。我觉得几乎所有人都会同意:如果我们有现在这种智能水平,再加上那种持续学习能力,它就会非常非常“AGI-like”。
但也许世界上大多数人会说:好吧,就算没有那一点,它已经能做大多数重要的知识工作,在大多数方面都比我们大多数人更聪明,那我们就算到了AGI。它还能做出一些新的科学小发现,那我们就算到了AGI。
我认为这意味着:这个术语虽然我们都很难停止使用,但它的定义非常不清晰。有一件事我很希望做:既然AGI我们搞错了——我们从来没有真正定义它——那现在大家关注的下一个词是super intelligence。
所以我的提案是:我们承认AGI其实就这么“呼”地过去了,它没有立刻让世界天翻地覆(或者长期会),但总之我们在某个时间点“造出了AGIs”,处在一个模糊区间:有人觉得我们已经到了,有人觉得还没到,然后会有更多人觉得到了。
然后我们再问:下一步是什么?我给super intelligence一个候选定义:当一个系统能比任何人都更好地胜任——美国总统、某家大型公司的CEO、一个非常大的scientific lab的运营者——而且即便这个人类也在使用AI辅助,系统仍然做得更好。
我觉得这个框架在棋类游戏上发生过一件很有意思的事:最初是人类对AI,我对DeepBlue那件事记得非常清楚。然后有一段时间,人类+AI的组合,比单独的AI更强。但后来,人类反而是在拖后腿;最聪明的方式变成了“没有人类参与的AI”,因为人类并不理解AI的那种巨大智能,反而会干扰它。我觉得类似的框架可以用来理解super intelligence。我认为那还很遥远,但我非常希望这一次我们能有一个更干净的定义。
Alex Kantrowitz:Sam,我已经在你的产品里每天使用了三年。我肯定变强了很多。我甚至无法想象它们接下来会走到哪里。
Sam Altman:我们会努力让它们继续更快变好。
Alex Kantrowitz:好。这是我们第二次对话了,我很感谢你两次都这么坦诚。非常感谢。谢谢你抽时间。祝你今天愉快。
原视频:Sam Altman: How OpenAI Wins, ChatGPT’s Future, AI Buildout Logic, IPO in 2026?
https://www.youtube.com/watch?v=2P27Ef-LLuQ
编译:Ian Cao
文章来自于“Z Potentials”,作者“Alex Kantrowitz”。

