IT之家 11 月 2 日消息,苹果公司近日联合加州大学圣塔芭芭拉分校的研究人员,演示和介绍了一种突破性算法,可以从动态 RGB 图像中在线重建 3D 图像。
双方团队挑战低纹理区域,并尝试解决重建图像中固有的模糊性,将目光投向了实时执行的实用解决方案,未来将会引入到智能手机等移动设备上。
新算法根据历史当前观测结果生成精确的增量重建,解决了同步定位和地图映射 (SLAM) 系统的动态特性,确保与 SLAM 更新保持一致。
以前在密集的纯 RGB 重建方面,很大程度上忽略了在线应用中相机姿态估计的动态特性,在重建过程中依然采取静态输入图片的传统表述。
而科研团队在算法中纳入了动态特性,并将其集成到现有的 RGB 技术中。团队受 BundleFusion(一种采用线性更新算法将新视图集成到场景中的 RGB-D 技术)的启发,探索解构了旧视图,然后重新整合提供位置数据。
苹果和加州大学圣塔芭芭拉分校的研究人员引入了一种独特的基于深度学习的非线性去整合技术,该技术专门用于促进 NeuralRecon 等技术的在线重建,该技术依赖于学习的非线性更新规则。
为了验证他们的方法,他们引入了 LivePose 数据集,这是一个开创性的资源,包含使用 BundleFusion 生成的 ScanNet 的完整动态姿势序列。该数据集是评估其技术和促进未来研究的关键工具。
这一突破有可能为增强现实、虚拟现实和其他需要精确 3D 建模的行业带来新的可能性。
IT之家在此附上苹果官方介绍链接,感兴趣的用户可以深入阅读。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。