官方介绍说,这是业界首个支持原生3D重建的超长漫游世界模型,能够生成长距离、世界一致的漫游场景,支持将视频直接导出为3D格式。 除此之外,混元Voyager3D输入-3D输出的特性,与此前已开源的混元世界模型1.0高度适配,可进一步扩展1.0模型的漫游范围,提升复杂场景的生成质量,并可对生成的场景做风格化控制和编辑。 同时混元Voyager还可支持视频场景重建、3D物体纹理生成、视频风格定制化生成、视频深度估计等多种3D理解与生成应用,展现出空间智能的潜力。 混元Voyager框架创新性地将场景深度预测引入视频生成过程,首次通过空间与特征结合的方式,支持原生的3D记忆和场景重建,避免了传统后处理带来的延迟和精度损失。 同时,在输入端加入3D条件保证画面视角精准,输出端直接生成3D点云,适配多种应用场景。额外的深度信息还能支持视频场景重建、3D物体纹理生成、风格化编辑和深度估计等功能。 混元Voyager包含两个关键组件:(1)世界一致的视频扩散:提出了一种统一的架构,能够基于现有世界观测,同时生成精确对齐的RGB视频与深度视频序列,并确保全局场景的一致性。(2)长距离世界探索:提出了一种高效的世界缓存机制,该机制融合了点云剔除与自回归推理能力,可支持迭代式的场景扩展,并通过上下文感知的一致性技术实现平滑的视频采样。 为训练混元Voyager模型,腾讯混元团队还构建了一套可扩展的数据构建引擎——该引擎是一个自动化视频重建流水线,能够对任意输入视频自动估计相机位姿以及度量深度,从而无需依赖人工标注,即可实现大规模、多样化训练数据的构建。 基于此流水线,混元Voyager整合了真实世界采集与虚幻引擎渲染的视频资源,构建了一个包含超过10万个视频片段的大规模数据集。 此外,生成的视频帧还会实时更新缓存,形成闭环系统,支持任意相机轨迹,同时维持几何一致性。这不仅扩展了漫游范围,还为1.0模型补充新视角内容,提升整体生成质量。 特别在定性比较的最后一组样例中,只有混元Voyager有效保留了输入图像中产物的细节特征。相比之下,其他方法容易产生明显伪影。 场景重建方面,在使用VGGT进行后处理的情况下,混元Voyager的重建结果优于所有基线模型,表明其生成视频在几何一致性方面表现更为出色。 同时,若进一步使用生成的深度信息来初始化点云,重建效果更佳,这也进一步证明了所提出深度生成模块对于场景重建任务的有效性。 上图中的定性结果同样印证了这一结论。在最后一组样例中,混元Voyager 能够较好地保留吊灯的细节特征,而其他方法难以重建出基本形状。 腾讯混元正在不断加速开源进展,除了包括混元Voyager在内的混元世界模型系列,还有MoE架构的代表性模型混元large、混合推理模型Hunyuan-A13B,以及多个面向端侧场景的小尺寸模型,最小仅0.5B参数。


