3D版Nano Banana来了!AI修模成为现实,3D生成进入可编辑时代

过去一年,AI的主战场几乎被大模型、生图和生视频占满。2026年伊始,市场终于开始把目光投向一个更难、也更关键的领域:3D生成

1月23日,Google收购3D生成公司Common Sense Machines的消息传出,后者整个团队并入DeepMind;1月26日,Google又迅速宣布与Epic Games的合作。市场普遍猜测:3D版本的“Nano Banana”,是不是已经不远了?

3D版Nano Banana来了!AI修模成为现实,3D生成进入可编辑时代

但率先将这一能力产品化的,是中国团队。

本周末,全球领先的3D生成平台Hyper3D发布了Rodin Gen-2 Edit,推出基于自然语言的3D模型局部编辑功能,率先实现3D版Nano Banana——这是业内首个将“3D生成”与“3D编辑”整合为完整工作流的商用产品,3D生成正式进入可编辑时代。

与以往只能“抽卡”的逻辑不同,Rodin Gen-2 Edit支持两种核心路径:

  • 在Hyper3D内文/图生3D后,直接对结果进行局部修改
  • 导入任意现有模型(包括第三方AI生成模型或历史资产)在原模型基础上进行编辑

操作逻辑简单直接:框选需要修改的区域,输入文字指令,即可完成局部调整。

例如,只需框选机甲的双臂区域,输入提示词“双手改成大炮”:

3D版Nano Banana来了!AI修模成为现实,3D生成进入可编辑时代

3D版Nano Banana来了!AI修模成为现实,3D生成进入可编辑时代

即可生成一台红色装甲的大炮机器人:

3D版Nano Banana来了!AI修模成为现实,3D生成进入可编辑时代

修改区域与原模型衔接自然,结构逻辑完整,其余部分则被完整保留。

3D版Nano Banana来了!AI修模成为现实,3D生成进入可编辑时代

这一功能不仅支持Hyper3D平台生成的模型,任何第三方3D资产(包括历史存量模型或其它AI工具生成的模型)都可以导入平台进行编辑:

3D版Nano Banana来了!AI修模成为现实,3D生成进入可编辑时代

3D版Nano Banana来了!AI修模成为现实,3D生成进入可编辑时代

这意味着Rodin的编辑能力已成为平台级基础设施,而非单点功能。

3D版Nano Banana来了!AI修模成为现实,3D生成进入可编辑时代

一番体验下来,Hyper3D Rodin所带来的最新玩法无疑是行业最前沿技术的体现,仅通过自然语言就可以修改、增加、减少模型部件,还不会影响其他模型结构,确实给3D修模带来一点小小的震撼。

在基础3D生成能力上,Hyper3D Rodin本就处在当前行业的第一梯队:不仅能精准还原参考图的结构、比例与关键细节;尤其是表面平滑、边缘锐利,对生产级资产尤为友好。

结合实测经验,给大家两个核心使用小提示:

  • 编辑时的框选区域不宜过小或过度聚焦细节,不适用模型的细节精修;
  • 需保证框选位置与修改Prompt精准对应,易出理想效果。

从“生成”到“编辑”:补上AI工作流的关键一环

Edit的意义在于,第一次把3D从“结果展示”推进到了“可迭代工作流”。

过去几年,生成式AI的进化路径非常清晰:先生成→再可控→最终可编辑。不论是图像、视频,还是3D,多模态生成在发展早期,往往难以逃避“抽卡”,即每次生成都是通过更换随机种子,得到更多不一样的结果,匹配用户需求。

随着ControlNet等技术的发展,用户逐渐可以在生成前,通过多种信号的引导补充,来更好地让生成结果满足用户需求,减少抽卡次数。

3D版Nano Banana来了!AI修模成为现实,3D生成进入可编辑时代

2024年3月,Hyper3D上线业内首个控制生成技术(3D ControlNet)。

但因为生成式AI输入信息的有限和特性,即永远是从少量信息去生成更多信息,决定了哪怕生成能力再强,二次调整都会成为高频需求。

图像领域已经历完整周期:从Stable Diffusion的一键出图,到ControlNet的控制,再到2025年上半年Gemini 2.5 Flash首次引入图片编辑,GPT-4o的图像生成,再到强大的Nano Banana,生成式AI编辑技术已经得到了很大的发展。视频领域也正在加速复刻这一路径,Luma AI的Video Modify、Runway的Aleph也已实现相关能力。

但在3D生成由于产品化起步更晚、生态更分散、工具链更长,行业整体在“可控生成”积累得不够久,多数团队还停留在这一阶段:用户可以生成一个模型,但只要有局部不满意,往往只能换提示词、换随机种子、重新来一遍,“随机抽卡”。

Hyper3D将这一需求转化为产品能力:通过“选中局部+文本指令”的方式,让修改变成明确的路径,而非一次次推倒重来。

在实测中我们发现,Hyper3D Rodin的“编辑”并非单一功能,而是与其强大的“可控性”体系相辅相成。

对于专业用户而言,Hyper3D提供了一套完整的工作流:其将图像/文本生成、3D ControlNet精准控模、局部定向修改、资产二次创作与多格式导出、DCC插件等多个平台能力打通,颠覆了传统AI 3D创作低效不可控的模式。

  • 3D ControlNet控制:通过边界框、点云、体素等模式,在生成阶段精准控制几何结构
  • BANG分件:递归拆解复杂模型,为局部编辑提供语义基础
  • Smart Low-poly:智能低模优化,提升生产效率
  • Text-to-Edit:基于自然语言的定向修改,降低专业门槛

3D版Nano Banana来了!AI修模成为现实,3D生成进入可编辑时代

△Rodin Gen-2 Edit同步上线Smart Low-poly智能低模

在商业化落地层面,Rodin已经打通Blender、Maya、Unity等主流工作流;与国内头部大型UGC游戏的合作验证了其在移动端大规模用户场景下的稳定性;与拓竹的合作则让生成模型可直接进入3D打印流程。

在3D编辑能力普遍缺席的当下,Hyper3D能率先交付产品,源于团队在“3D可控性”上的长期技术积累。

几年前,当行业普遍采用“2D升维3D”的算法路径时,Hyper3D团队选择了更艰难的原生3D路线。这意味着需要直面3D数据瓶颈,在算法和框架层面进行底层创新——但也只有这条路,才能从根本上解决薄面、拓扑混乱等产业应用的致命问题。

2024年,团队发布原生3D大模型框架CLAY(提名SIGGRAPH最佳论文),并基于此推出全球首个原生3D大模型产品Hyper3D.AI Rodin,将3D生成效果首次从“不可用”拉到“可用线”。

如今,原生3D已成行业共识。Hyper3D团队定义了3D生成的“可用性拐点”,也让3D生成成为中国团队在全球AI竞争中少数真正领先的方向之一。

从Rodin的第一个版本起,该团队就引入了3D ControlNet,此后每个版本都在更新相关能力。去年,随着Rodin Gen-2上线,Hyper3D交出了业内唯一的递归分件技术——BANG,一步步验证了这一路线的可行性。3D生成也一步步从“抽卡游戏”进化为了“可控设计”。

3D版Nano Banana来了!AI修模成为现实,3D生成进入可编辑时代

△艺术家@汽水PPao使用Hyper3D.AI Rodin创作的作品

但该团队的视野不止于单物体编辑。其获得SIGGRAPH 2025最佳论文的CAST技术,已指向下一阶段方向:从单图生成包含物体、关系和物理约束的完整3D场景——这为参与构建未来“世界模型”与具身智能基础设施埋下伏笔。

这一系列成果也获得资本认可。仅2025年,Hyper3D团队就连续完成由顶级美元VC和战略产业方投资的两轮融资

虽然现阶段的Rodin Gen-2 Edit作为3D生成编辑的全新起点,尚未达到完美状态。但不可否认,作为当前市场上唯一能产品化这项功能的团队,其已经走出了3D编辑的关键一步。

当3D生成从“能不能做出来”迈向“能不能真正用起来”的阶段,Hyper3D Rodin Gen-2 Edit的上线,无疑为行业提供了一个极具参考价值的范本。

目前,新功能已在Hyper3D平台上线,支持用户免费体验。

官网链接:https://hyper3d.ai/rodin

文章来自于“量子位”,作者 “星星”。

给TA充电
共{{data.count}}人
人已充电
0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
搜索