扩散模型还原被遮挡物体,几张稀疏照片也能"脑补"重建交互式场景

DP-Recon团队 投稿

你是否设想过,仅凭几张随手拍摄的照片,就能重建出一个完整、细节丰富且可自由交互的3D场景?

在传统方法中,这几乎是不可能完成的任务,稀少的拍摄视角往往导致模型无法还原被遮挡的区域,生成的场景要么残缺不全,要么细节模糊。更令人困扰的是,传统的重建算法无法解耦场景中的独立物体,重建结果无法交互,严重限制了在具身智能、元宇宙和影视游戏等领域的应用前景。

近期,北京通用人工智能研究院联合清华大学、北京大学的研究团队提出了名为DP-Recon的创新方法。该方法通过在组合式3D场景重建中,引入生成式扩散模型作为先验,即便只有寥寥数张图像输入,也能智能“脑补”出隐藏在视野之外的场景细节,分别重建出场景中的每个物体和背景。

值得一提的是,该方法还创新性地提出了一套可见性建模技术,通过动态调节扩散先验和输入图片约束的损失权重,巧妙地解决了生成内容与真实场景不一致的难题。在应用层面,DP-Recon不仅支持从稀疏图像中恢复场景,还能实现基于文本的场景编辑,并导出带纹理的高质量模型,为具身智能、影视游戏制作、AR/VR内容创作等领域,带来了全新的可能性。

扩散模型还原被遮挡物体,几张稀疏照片也能"脑补"重建交互式场景

研究概述

扩散模型还原被遮挡物体,几张稀疏照片也能"脑补"重建交互式场景

图1. 重建结果、基于文本编辑和影视特效展示

3D场景重建一直是计算机视觉和图形学领域的核心挑战,其目标是从多视角图像中恢复场景的完整几何和逼真纹理。近年来,NeRF和3DGS等神经隐式表示方法在多视角充足时表现出色,但在稀疏视角下却捉襟见肘。更重要的是,这些方法将整个场景作为一个整体重建,无法解耦独立物体,这严重制约了下游应用的发展。

现有的组合式场景重建方法同样面临稀疏视角带来的的严峻挑战。视角稀少会导致大面积区域缺乏观测数据,模型在这些区域容易崩塌;同时,物体间的相互遮挡使得某些部分在所有输入图像中都不可见,最终导致重建结果出现畸形或遗漏。

那么,如何为这些“看不见”的区域补充合理信息,让重建模型既忠实于输入图像,又能在空白处有所依据?DP-Recon给出了令人振奋的解决方案,该方法巧妙地将生成式扩散模型作为先验引入组合式场景重建,通过Score Distillation Sampling(SDS)技术,将扩散模型对物体概念的“理解”蒸馏到3D重建过程中。例如,当输入照片只拍到桌子的一面时,扩散模型可以基于对“桌子”这一概念的认知,智能推断出桌子背面的可能形状和纹理。这种方式为重建提供了宝贵的信息补充,极大提升了在稀疏视角和遮挡场景下的重建效果。

需要注意的是,直接将扩散先验硬套用到重建上并非易事。如果处理不当,生成模型可能会“过度想象”,产生与输入图像矛盾的内容,反而干扰基于真实照片的重建过程。为此,DP-Recon精心设计了一套基于可见性的平衡机制,巧妙协调重建信号(来自输入图像的监督)和生成引导(来自扩散模型的先验),通过动态调整扩散先验的作用范围,确保模型在已有照片信息处保持忠实,在空白区域合理发挥想象力。

下面将深入解析DP-Recon的核心技术细节。

关键技术

扩散模型还原被遮挡物体,几张稀疏照片也能"脑补"重建交互式场景

图2. DP-Recon的算法框架

DP-Recon的技术创新主要体现在以下三个关键方面:

1. 组合式场景重建:

与传统整体式重建不同,DP-Recon采用组合式重建策略。具体来说,模型会利用多种模态的重建损失(包括:RGB图像、深度图、法向量图和实例分割图),为每个对象分别建立隐式场(SDF),初步构建几何轮廓和外观表征,便于后续对每个物体加入基于文本的先验信息。

2. 几何和外观的分阶段优化:

DP-Recon将重建过程分为了几何和外观两个阶段,分别针对物体的形状和纹理进行优化。

在几何优化阶段,基于初步重建的基础,通过对法向量图引入Stable Diffusion的SDS损失,进一步优化物体在欠缺观察区域的细节,显着提升几何完整度。此阶段结束后,将输出每个物体和背景的Mesh结构。

在外观优化阶段,使用Nvdiffrast渲染生成的Mesh,巧妙融合输入图像的颜色信息和扩散先验,对物体表面纹理进行优化。为便于后续渲染和编辑,DP-Recon在此阶段还会为每个对象生成精细的UV贴图。

经过以上两个阶段的处理,最终,场景中每个对象的高质量网格模型及其纹理贴图,均具有精准几何和逼真外观。

3. 可见性引导的SDS权重机制:

针对扩散先验可能带来的不一致问题,DP-Recon提出了创新的可见性引导解决方案。该方法在计算SDS损失时引入可见性权重,根据每个像素在输入视角中的可见程度,动态调节扩散模型的引导强度。

具体而言,DP-Recon在重建过程中构建了一个可见性网格,通过输入视角体渲染过程中积累的透射率,来优化这个网格。当需要计算参与SDS视角的可见性图时,直接查询该网格即可。对于输入照片中高度可见的区域,系统会自动降低SDS损失权重,避免扩散模型“喧宾夺主”;而对于未被拍摄到或被遮挡的区域,则赋予更高的SDS权重,鼓励网络借助扩散先验补全细节。这种精细的可见性引导机制,完美平衡了重建的真实性与完整性。

实验结果

在Replica和ScanNet++等权威数据集上的系统性评估表明,DP-Recon在稀疏视角下的整体场景重建和分解式物体重建两方面都实现了显着突破。

扩散模型还原被遮挡物体,几张稀疏照片也能"脑补"重建交互式场景

表1. 整场景重建定量结果对比

1. 整体场景重建:

量化结果(见表1)清晰显示,DP-Recon方法在重建指标和渲染指标上与所有基线模型相比,均展现出明显优势。

扩散模型还原被遮挡物体,几张稀疏照片也能"脑补"重建交互式场景

△图3. 场景重建结果对比

如图3所示,通过将生成式先验融入重建流程,DP-Recon在拍摄不足的区域,实现了更精准的几何重建和颜色还原,以及更平滑的背景重建和更少的伪影漂浮物。如图4所示,在相同条件下,DP-Recon的渲染结果质量明显更高,而基线方法则出现明显伪影。

扩散模型还原被遮挡物体,几张稀疏照片也能"脑补"重建交互式场景

图4. 新视角合成结果对比

2. 分解式物体重建:

如表2和图3所示,生成式先验的引入极大改善了遮挡区域的重建效果,被遮挡物体的结构和背景都能更加精确地还原,DP-Recon显着减少遮挡区域的伪影漂浮物。在遮挡严重的复杂大场景测试中(见图1),DP-Recon仅用10个视角就超越了基线方法使用100个视角的重建效果,这一突破性成果充分证明了该方法在真实场景中的实用价值。

扩散模型还原被遮挡物体,几张稀疏照片也能"脑补"重建交互式场景

表2. 物体和背景重建结果对比

应用价值

1. 智能家居重建:

DP-Recon对室内场景展现出了卓越的鲁棒性。实验表明,仅需从YouTube看房视频中提取15张图像,配合Colmap标注相机位姿和SAM2物体分割,就能重建出高质量的带纹理场景模型,如图5所示。

扩散模型还原被遮挡物体,几张稀疏照片也能"脑补"重建交互式场景

△图5. YouTube看房视频重建结果

2. 赋能3D AIGC:

借助DP-Recon的生成式先验,用户可以轻松实现基于文本的场景编辑,如图6所示。就像为3D世界接入了AI想象力,用一句“将花瓶变成泰迪熊”或是“换成太空风格”,就能实现传统方法需要数日才能完成的修改。这种无缝融合重建与创作的能力,将大幅提升AIGC生产效率。

扩散模型还原被遮挡物体,几张稀疏照片也能"脑补"重建交互式场景

图6. 基于文本的场景几何和外观编辑

3. 影视游戏工业化:

DP-Recon输出的每个对象都是带有精细UV贴图的独立网格模型,如图7所示,这为影视特效(VFX)和游戏开发带来了极大便利。创作者可以轻松将模型导入Blender等3D软件,进行光照、动画和特效制作,或将场景直接接入游戏引擎开发交互内容。

扩散模型还原被遮挡物体,几张稀疏照片也能"脑补"重建交互式场景

图7. 影视特效展示

团队介绍

研究团队由来自北京通用人工智能研究院(BIGAI)、清华大学和北京大学的跨学科研究者组成,致力于通用人工智能领域的前沿研究。团队成员在三维场景理解、重建和生成等方面,拥有丰富的研究经验。一作为清华大学博士生倪俊锋,其它作者为清华大学博士生刘宇、北京大学博士生陆睿杰、清华大学本科生周子睿;通讯作者为北京通用人工智能研究院研究员陈以新、北京通用人工智能研究院研究员黄思远。

论文链接: https://arxiv.org/abs/2503.14830
项目主页: https://dp-recon.github.io/
代码仓库: https://github.com/DP-Recon/DP-Recon

主题测试文章,只做测试使用。发布者:人脑网,转转请注明出处:https://www.rennao.com.cn/7477.html

(0)
人脑网的头像人脑网
上一篇 2025年4月23日 下午3:28
下一篇 2025年4月23日 下午3:29

相关推荐

  • 狸谱App负责人一休:从“叫爸爸”小游戏到百万月活AI爆款产品

    消费者和创作者中间有巨大的gap,AI来了以后这个gap有可能被合到一起。 在今年的中国AIGC产业峰会上,狸谱App负责人一休以创业公司的视角,同与会嘉宾和在线观众一起分享了浸入AI产品创业的所思所感。 狸谱App是一个集同人创作、虚拟互动和社区交流于一体的AIGC二次元社区产品,用户群体主要是05后年轻人。产品上线后,仅4个月即达到百万月活。 一休表示,…

    2025年4月24日
    900
  • 挤爆字节服务器的Agent到底啥水平?一手实测来了

    “字节版Manus”有多能打?量子位实测在此。 △扣子智能体生成的活动介绍网页 我们用光了一天的对话额度,考验了扣子空间(Coze Space)的信息整理、任务执行、工具调用等多项技能。 结果,仍处在早期测试中的扣子空间整体表现已经相当惊艳,在自主任务规划和资料搜集方面表现不错,已经具备解决很多真实任务的潜力。 不过在指令遵循方面,还是比较“有自己的想法”。…

    2025年4月23日
    700
  • 最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

    “史上最强视觉生成模型”,现在属于快手。 一基双子的可灵AI基础模型——文/图生图的可图、文/图生视频的可灵,都重磅升级到2.0版本。 可图2.0,对比MidJourney 7.0,胜负比「(good+same) / (same+bad)」超300%,对比FLUX超过150%; 可灵2.0,文生视频对比Sora胜负比超360%,图生视频对比谷歌Veo2胜负比…

    2025年4月18日
    1000
  • 宝马秀起汽车科技来,哪有其他汽车什么事…

    这届上海车展,黑科技浓度爆表。 有人,有机器人 不光有地上跑的,也有天上飞的 还有“不归牛顿管”的:BMW新世代驾趣概念车。 科技正在改善出行,从内到外重塑出行工具,甚至改变了产品的展出方式。 电动车时代的出行应该是怎样的,舒适取向的车型扎堆上市,电动车时代如何获得驾驶乐趣,上海车展给出了最新答案。 上海车展的性能怪兽 上海车展越来越有想象力了,连展台都能如…

    2025年4月26日
    800
  • 4090玩转大场景几何重建,RGB渲染和几何精度达SOTA

    仅用4090就能实现大规模城市场景重建 高效几何重建新架构CityGS-X来了,通过一种新型并行化混合分层三维表征架构(PH²-3D)的可扩展系统,突破了传统三维重建在算力消耗和几何精度上的限制。 算力瓶颈无处不在,当前3D高斯泼溅技术虽取得显着进展,却仍面临三大核心挑战:处理速度缓慢、计算成本高昂、几何精度有限 来自上海AI Lab和西工大的研究团队认为,…

    2025年4月14日
    1700

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信