最近刷到了 Macaron 发布的一条技术视频。
本以为是常规的产品宣传片,结果看到一半发现不太对——视频里开始讲 1T 参数模型上的 LoRA 强化学习训练、Memory Diffusion 记忆机制,技术浓度远超预期。
更有意思的是视频结尾藏了个彩蛋:社交功能、Daily Spark、记忆打通,几个产品更新一笔带过,但每一个拎出来都值得单独聊聊。

看完之后我的感觉是,这次更新的信息量,比表面看起来大得多。
社交功能、Daily Spark、记忆打通——如果只是当作常规的功能迭代来看,可能会错过一些更重要的东西。
这次更新背后,其实藏着 Personal AI 这个品类正在发生的几个关键变化。
更值得关注的是,Macaron 背后的研究团队 Mind Lab 也正式亮相了。一个成员来自 OpenAI、DeepMind、Seed 的团队,刚刚做了一件让开源社区相当兴奋的事——全球首个在 1T 参数模型上实现基于 LoRA 的高效 RL 训练。
产品更新和技术突破同时放出,这个节奏本身就值得拆解一下。
信号一:Personal AI 正在社交化
这次更新最值得关注的变化,是 Macaron 开始做社交了。
不是那种「分享到朋友圈」的伪社交,而是真正把多人协作场景做进了产品核心。
具体来说,现在你可以在 Macaron 里建群,拉上朋友一起用。马卡龙会作为群成员参与对话,帮你们整理讨论要点、生成 Mini-App、设置提醒。你和朋友可以共同编辑同一个小应用,数据实时同步。

这个功能设计背后的产品判断很清晰:
Personal AI 的「Personal」,不应该只是「我一个人用」,而是「以我为中心的关系网络」。
如果你关注 AI 社交这个方向,会发现这和 Second Me 的思路有相似之处——都在试图让 AI 成为人与人之间的连接器,而不仅仅是单点的效率工具。
区别在于,Second Me 是让 AI 分身代替你去社交、去破冰;Macaron 是让 AI 作为第三方参与到你和朋友的真实互动中。
前者解决的是「社交启动成本」,后者解决的是「社交持续价值」。
从产品形态上看,Macaron 的社交更像是一个「共享工作区」的概念——朋友之间共同维护一个旅行计划、一个减脂打卡表、一个观影清单,AI 在其中扮演助理和协调者的角色。
这让我想到一个问题:
当 Personal AI 开始处理多人场景,它的记忆机制、上下文管理、权限设计,都会变得更复杂。Macaron 目前的方案是把群聊和 Mini-App 做了打通,群成员可以共同编辑同一个应用,AI 能同时理解多个用户的上下文。
这个技术实现的细节,后面会聊到。
信号二:从「推送信息」到「理解你」
第二个值得关注的更新是 Daily Spark。
表面上看,这是一个每日推送功能,和 ChatGPT 的 Pulse 类似。
但有个关键区别:ChatGPT Pulse 只对 200 美金的 Pro 用户开放——因为基于记忆做个性化总结的成本很高。而 Macaron 的 Daily Spark 对所有用户免费。
能做到这一点,是因为 Macaron 底层的记忆系统足够高效(后面会聊到 Memory Diffusion)。
不过更重要的差异,还是在设计哲学上。
Pulse 本质上是一个 AI 驱动的新闻聚合器——它收集热点信息,用 AI 做摘要,然后推给你。内容是「世界发生了什么」。
Daily Spark 的逻辑不一样。它会根据你在 Macaron 里的历史记录——你的情绪日记、你的兴趣偏好、你最近关注的话题——生成专属于你的内容。推送的不是「世界发生了什么」,而是「这个世界和你有什么关系」。
从技术角度看,这里的关键是记忆打通。
之前 Macaron 有一个明显的架构问题:Mini-App 和主对话是割裂的。你在「饮食记录」里记了今天吃了什么,但在聊天里问马卡龙「我这周摄入了多少卡路里」,它答不上来。数据在 App 里,但不在 AI 的上下文里。
这次更新把这层打通了。
你在任何 Mini-App 里记录的数据,都可以被 AI 在对话中调用。情绪日记、健身记录、旅行计划——所有这些「生活碎片」,都变成了 AI 可以理解和推理的上下文。
这直接影响了 Daily Spark 的效果:
它不是基于一个通用的推荐算法给你推内容,而是基于你在 Macaron 里积累的所有数据,做个性化生成。
如果你最近情绪记录里连续几天写了「有点累」,它可能会推一条治愈向的内容;如果你上周在不断和它聊 MBTI,它可能会给你推荐更多 MBTI 的内容。

这让我想到一个更大的问题:
Personal AI 的核心壁垒,可能不是模型能力,而是对用户的理解深度。
当你在一个 AI 产品里积累了足够多的生活数据——情绪、习惯、偏好、社交关系——这些数据本身就构成了一个难以迁移的护城河。
Macaron 通过 Mini-App 这个机制,其实在做一件事:让用户主动、持续地向 AI 输入结构化的生活数据。
这比被动抓取聊天记录的 Memory 方案,数据质量要高得多。
信号三:Mind Lab 的技术路线
接下来是技术部分。
这次 Macaron 更新的同时,背后的研究团队 Mind Lab 也正式亮相了。

先说团队配置:
10 人核心研究团队,成员来自 OpenAI、DeepMind、字节 Seed。创始人Andrew是 MIT 背景,现在在清华深研院任研发中心主任。团队合计发表 200+ 篇论文,被引用超过 30,000 次。
这个配置在国内 AI 创业公司里算是顶级的。
更值得关注的是他们最近的技术突破:
全球首个在 1T 参数模型上,实现基于 LoRA 的高效强化学习训练。
这是什么意思?
目前主流的大模型后训练(Post-training)方法,主要有两条路:
1. 全参数微调:效果好,但需要海量 GPU 资源,成本极高;
2. LoRA:参数高效,成本低,但在大规模模型上做 RL 训练一直有技术瓶颈。
第二条路线的难点在于:LoRA 本身是为高效微调设计的,但当你想在千亿甚至万亿参数的模型上跑强化学习,原有的架构很难撑住。
目前全球能在这个量级上把 LoRA + RL 跑通的,只有两家:一家是 Thinking Machines Lab,另一家就是 Mind Lab。
Mind Lab 的方案是在 1T 参数的 MoE 架构上实现了这套训练流程,而且只用了传统方法 10% 的 GPU 资源。

他们在 1T 参数级别的 MoE 架构模型上,成功跑通了基于 LoRA 的强化学习训练,而且只用了传统方法10% 的 GPU 资源。
这意味着什么?
原本需要千张卡才能做的大规模后训练,现在可以用百张卡搞定。对于资源有限的创业团队来说,这是一个巨大的成本突破。
这套方案已经开源,并被 NVIDIA Megatron-Bridge 和字节 Seed verl 官方合并——这在开源社区是相当高的认可度。

说句题外话:强化学习的训练成本一直是中小团队的噩梦,很多产品公司想做 RL 但根本烧不起那个 GPU。Mind Lab 这套方案如果能降低行业的整体门槛,让更多团队都能跑得起强化学习,对整个生态都是好事。
期待他们后续能放出更完整的技术文档和实践指南。
Memory Diffusion:一种新的记忆机制
除了训练效率的突破,Mind Lab 还提出了一个很有意思的概念:Memory Diffusion。
这是他们设计的一种新型记忆机制,核心理念和传统方法完全不同。

传统的 AI 记忆方案,基本思路是「尽可能记住一切」。然后通过各种 Context Engineering 技术——RAG、压缩、摘要——来管理不断膨胀的上下文。
Mind Lab 的思路相反:
Memory isn’t about remembering everything. It’s about forgetting wisely.记忆不是记住一切,而是智慧地遗忘。
他们用了一个很直观的类比:
人开车上班的时候,会瞬间遗忘路过的广告牌、无关的行人、不重要的细节,只保留目的地、关键路口这些核心信息。大脑是一个高效的信息过滤器,而不是一个无限容量的硬盘。
Memory Diffusion 试图让 AI 学会这种「选择性遗忘」的能力。
从技术角度看,这是一种用于自回归 LLM 轨迹的新型序列建模方法。它不是在 Context 层面做工程优化,而是在模型层面让 AI 学会判断什么信息值得保留、什么应该丢弃。
这和 Karpathy 最近的观点有呼应。他提到:
“Human thought naively feels a bit more like autoregression but it’s hard to say that there aren’t more diffusion-like components in some latent space of thought.”
人类思维可能并不是纯粹的自回归,在某些潜空间里可能存在类似 Diffusion 的成分。
Memory Diffusion 算是这个方向上的一次实验。
从 20 分钟到 2 分钟:技术如何转化为体验
聊了这么多底层技术,最后回到产品体验层面。
这次更新有一个很直观的变化:Mini-App 的生成时间从 20 分钟缩短到了 2 分钟。
这不是简单的工程优化 —— 加个缓存、优化下代码路径 —— 能做到的。
20 分钟到 2 分钟,是量级上的变化。背后是模型推理效率的真正提升。
Mind Lab 的说法是,这直接受益于他们在强化学习训练效率上的突破。更高效的训练方法,产出了更高效的模型。
这让我想到一个经常被忽视的问题:
AI 产品的技术壁垒,可能不在于你用了多强的基座模型,而在于你能否基于场景做高效的定制化训练。
大家都能调用 GPT-4、Claude 3。但谁能在自己的场景里,用更少的资源、更快的速度,训练出更好的专用模型——这才是真正的差异化。
Mind Lab 给出的答案是:不从头做预训练,而是在强大的基座模型之上,通过高效的 RL 方法做 Agentic 扩展。用真实用户的反馈做训练信号,形成「Research Product Co-Design」的飞轮。
他们把这条路线叫做 Experiential Intelligence —— 经验智能。
结语:Personal AI 的下一个方向
把这次更新的几个信号串起来,能看到一条比较清晰的产品路径:
从单人工具 → 多人协作从孤立记忆 → 全局上下文从通用推送 → 个性化理解从调用模型 → 定制化训练
Macaron 试图构建的,不是一个更聪明的聊天机器人,而是一个真正理解你、记住你、能和你的朋友们一起互动的 AI 伙伴。
这需要解决的技术问题很多:多用户场景下的记忆管理、跨 App 的上下文打通、高效的个性化训练方法。
Mind Lab 的亮相,至少说明 Macaron 在技术层面是有储备的。
至于这条路能走多远,可能还需要更多时间来验证。
但从这次更新来看,Personal AI 这个品类,正在变得比我们想象的更有意思。
网站:macaron.imiOS:App Store 搜索「Macaron AI」安卓:官网直接下载 APKMind Lab 技术文档:macaron.im/mindlab
文章来自于“特工宇宙”,作者 “宇宙编辑部”。
