计算机视觉方向简介 | 深度学习视觉三维重建
共 7877字,需浏览 16分钟
· 2021-06-03
点击上方“小白学视觉”,选择加"星标"或“置顶”
重磅干货,第一时间送达
本文转自|计算机视觉life
三维重建意义
三维重建作为环境感知的关键技术之一,可用于自动驾驶、虚拟现实、运动目标监测、行为分析、安防监控和重点人群监护等。现在每个人都在研究识别,但识别只是计算机视觉的一部分。真正意义上的计算机视觉要超越识别,感知三维环境。我们活在三维空间里,要做到交互和感知,就必须将世界恢复到三维。所以,在识别的基础上,计算机视觉下一步必须走向三维重建。本文笔者将带大家初步了解三维重建的相关内容以及算法。
三维重建定义
在计算机视觉中, 三维重建是指根据单视图或者多视图的图像重建三维信息的过程. 由于单视频的信息不完全,因此三维重建需要利用经验知识. 而多视图的三维重建(类似人的双目定位)相对比较容易, 其方法是先对摄像机进行标定, 即计算出摄像机的图象坐标系与世界坐标系的关系.然后利用多个二维图象中的信息重建出三维信息。
常见的三维重建表达方式
常规的3D shape representation有以下四种:深度图(depth)、点云(point cloud)、体素(voxel)、网格(mesh)。
![](https://filescdn.proginn.com/c60b57a69fece5a0996df90158fbf531/85ee114d75b19c4b2f2dc4043ce5d907.webp)
深度图其每个像素值代表的是物体到相机xy平面的距离,单位为 mm。
![](https://filescdn.proginn.com/f80da6b16325a1a6138c2230186aa6b8/520c226bd02ad144763b6cbf0c88295b.webp)
体素是三维空间中的一个有大小的点,一个小方块,相当于是三维空间种的像素。
![](https://filescdn.proginn.com/ccd719130043f17dc820299d3ca81357/041317bf89c951b10c2685efaf5f45a2.webp)
点云是某个坐标系下的点的数据集。点包含了丰富的信息,包括三维坐标X,Y,Z、颜色、分类值、强度值、时间等等。在我看来点云可以将现实世界原子化,通过高精度的点云数据可以还原现实世界。万物皆点云,获取方式可通过三维激光扫描等。
![](https://filescdn.proginn.com/ccbf78c0e35f833dae2a73f9825a3607/1ec09d85c75387804edb93704d77a7c7.webp)
三角网格就是全部由三角形组成的多边形网格。多边形和三角网格在图形学和建模中广泛使用,用来模拟复杂物体的表面,如建筑、车辆、人体,当然还有茶壶等。任意多边形网格都能转换成三角网格。
三角网格需要存储三类信息:
顶点:每个三角形都有三个顶点,各顶点都有可能和其他三角形共享。.
边:连接两个顶点的边,每个三角形有三条边。
面:每个三角形对应一个面,我们可以用顶点或边列表表示面。
![](https://filescdn.proginn.com/c15d704a62811e1e93e8d7dd35173f6a/b73ead3e9b1c234647de717158d2d121.webp)
三维重建的分类
根据采集设备是否主动发射测量信号,分为两类:基于主动视觉理论和基于被动视觉的三维重建方法。
主动视觉三维重建方法:主要包括结构光法和激光扫描法。
被动视觉三维重建方法:被动视觉只使用摄像机采集三维场景得到其投影的二维图像,根据图像的纹理分布等信息恢复深度信息,进而实现三维重建。
其中,双目视觉和多目视觉理论上可精确恢复深度信息,但实际中,受拍摄条件的影响,精度无法得到保证。单目视觉只使用单一摄像机作为采集设备,具有低成本、易部署等优点,但其存在固有的问题:单张图像可能对应无数真实物理世界场景(病态),故使用单目视觉方法从图像中估计深度进而实现三维重建的难度较大。
近几年代表性论文回顾
一、从单张图像恢复深度图
![](https://filescdn.proginn.com/696d3bb5f09b9412ecda906d032579e5/39c215283e1f7e22da55565804273d18.webp)
这篇论文思路很简单,算是用深度学习做深度图估计的开山之作,网络分为全局粗估计和局部精估计,对深度由粗到精的估计,并且提出了一个尺度不变的损失函数。
![](https://filescdn.proginn.com/63afc78be0c607f4915057e7cca73a61/a58e781a5a80b1ab3aae43b95cc904e3.webp)
![](https://filescdn.proginn.com/7c5f3e0e0d7e5015fb9425ff11eef62c/df985f59a1f1ee96f88e817708502c0b.webp)
本文总结
(1)提出了一个包含分为全局粗估计和局部精估计,可以由粗到精估计的网络。
(2)提出了一个尺度不变的损失函数。
二、用体素来做单视图或多视图的三维重建
![](https://filescdn.proginn.com/96b6138079ceb8a34409839d58bbae60/eeb81e74b1a271a3e5488f12a294150f.webp)
这篇文章挺有意思,结合了LSTM来做,如果输入只有一张图像,则输入一张,输出也一个结果。如果是多视图的,则将多视图看作一个序列,输入到LSTM当中,输出多个结果。
![](https://filescdn.proginn.com/cb2d76b290bf1976657039b31e4cf44a/3679cd1b77932f081b03949fc438679e.webp)
![](https://filescdn.proginn.com/496888a486de677208e5be989d07f4e9/f7bef73915f34f84581121c57e27211c.webp)
如主框架所示,这篇文章采用深度学习从2D图像到其对应的3D voxel模型的映射: 首先利用一个标准的CNN结构对原始input image 进行编码;再利用一个标准 Deconvolution network 对其解码。中间用LSTM进行过渡连接, LSTM 单元排列成3D网格结构, 每个单元接收一个feature vector from Encoder and Hidden states of neighbors by convolution,并将他们输送到Decoder中. 这样每个LSTM单元重构output voxel的一部分。总之,通过这样的Encoder-3DLSTM-Decoder 的网络结构就建立了2D images -to -3D voxel model 的映射。
![](https://filescdn.proginn.com/e57b7b766eece9631d43078095e04ad5/18e1bfe07961e4a10100ae2a6a3ed099.webp)
损失函数采用的是二分类的交叉熵损失,类似于在三维空间做分割,类别是两类,分别是占有或者不占有。
![](https://filescdn.proginn.com/3829222ca22f45a5ef796c39b2a693b8/e5445f959f9bc5d19bfcda92f8984e1b.webp)
除了交叉熵loss可以用作评价指标,还可以把预测结果跟标签的IoU作为评价指标,如下图所示:
![](https://filescdn.proginn.com/afb26f018f3bdde8a8cd6fa90fa88712/5eb28522086361a10d75fadddecb39d7.webp)
![](https://filescdn.proginn.com/f553afcb8db98fa7cf0a6e075a32dce9/b75269eeffa2a4b5c801a1a09f77c9bc.webp)
![](https://filescdn.proginn.com/b206e1f82c6f1ee2ac0b8394890267a0/90cb4db9e01f2d5a9e924faf5359e450.webp)
本文总结
(1)采用深度学习从2D图像到其对应的3D voxel模型的映射,模型设计为Encoder+3D LSTM + Decoder。
(2)既适用单视图,也适用多视图。
(3)以体素的表现形式做的三维重建。
(4)缺点是需要权衡体素分辨率大小(计算耗时)和精度大小。
三、用点云来做单张RGB图像的三维重建
![](https://filescdn.proginn.com/c2eee80eba8905b597ef303d7f0f5590/a89a286baf54b0dd8bb31e3193f5e291.webp)
大多数现存的工作都在使用深度网络进行3D 数据采用体积网格或图像集合(几何体的2D视图)。然而,这种表示导致采样分辨率和净效率之间的折衷。在这篇论文中,作者利用深度网络通过单张图像直接生成点云,解决了基于单个图片对象生成3D几何的问题。
点云是一种简单,统一的结构,更容易学习,点云可以在几何变换和变形时更容易操作,因为连接性不需要更新。该网络可以由输入图像确定的视角推断的3D物体中实际包含点的位置。
![](https://filescdn.proginn.com/68d28bb61a53c4dfd04b6d0d5db4165c/e87869706eb0a5d7e594d8cf8cb8a5f8.webp)
模型最终的目标是:给定一张单个的图片(RGB或RGB-D),重构出完整的3D形状,并将这个输出通过一种无序的表示——点云(Point cloud)来实现。点云中点的个数,文中设置为1024,作者认为这个个数已经足够表现大部分的几何形状。
![](https://filescdn.proginn.com/e1d837eeb262625f8af138e26aa247b2/bb05381ba58803acaafcfb8773dfbb6b.webp)
鉴于这种非正统的网络输出,作者面临的挑战之一是如何在训练期间构造损失函数。因为相同的几何形状可能在相同的近似程度上可以用不同的点云来表示,因此与通常的L2型损失不同。
本文使用的 loss
![](https://filescdn.proginn.com/3f391553c7670f56b4d810b0eaf6d31c/dd6e00f4aebc99c57c8bb35509448a79.webp)
![](https://filescdn.proginn.com/5096b3b5b63f8c9080160fa93f570439/fd0c20df618fb81634cee7875718795e.webp)
对于解决2D图片重构后可能的形状有很多种这个问题,作者构造了一个 Min-of-N loss (MoN) 损失函数。
![](https://filescdn.proginn.com/2d4971d56117fd4940f65b9450de74eb/2d46216531e8f60dde19ed2bdf677cae.webp)
![](https://filescdn.proginn.com/dc378e55aee41460d30b931c67188bfd/92a755ef56fce2b93bcaf127f695b595.webp)
Min-of-N loss 的意思是,网络G通过n个不同的r扰动项进行n次预测,作者认为从直觉上来看,我们会相信n次中会至少有一次预测会非常接近真正的答案,因此可以认为这n次预测与真正的答案的距离的最小值应该要最小。
![](https://filescdn.proginn.com/985a34c4406f9e7c6c76deb736d6b436/adf76cb06efb2e14b1493f083f58b1c3.webp)
![](https://filescdn.proginn.com/46a1ee62ae25b27bc457dfaab5d4399d/3ba227ab04c2265dca7daca4cf42961e.webp)
![](https://filescdn.proginn.com/d5b28dc9b46b3483669789be95815cd9/570b2ea6d0256bb37ad9013f247fff71.webp)
本文总结
该文章的贡献可归纳如下:
(1)开创了点云生成的先例(单图像3D重建)。
(2)系统地探讨了体系结构中的问题点生成网络的损失函数设计。
(3)提出了一种基于单图像任务的三维重建的原理及公式和解决方案。
总体来说,该篇文章开创了单个2D视角用点云重构3D物体的先河,是一篇值得一看的文章。
先中场休息一下,简单先分析一下:
根据各种不同的表示方法我们可以知道volume受到分辨率和表达能力的限制,会缺乏很多细节;point cloud 的点之间没有连接关系,会缺乏物体的表面信息。相比较而言mesh的表示方法具有轻量、形状细节丰富的特点。
![](https://filescdn.proginn.com/dbe1b06e83945758195fd00737ebfbde/e7e67eb095a2cd96e643107d7ceac5af.webp)
Mesh: 我不是针对谁,我是想说在座的各位都是垃圾(depth、volume、point cloud)
由于后边的内容使用了图卷积神经网络(GCN),这里简要介绍一下:
![](https://filescdn.proginn.com/dbf0b213a0fcecb6b2c506c8dee1e908/4194eef5ed446fff4b33e13b8ce8c2d0.webp)
f(p,l), f(p,l+1)分别表示顶点p在卷积操作前后的特征向量;
N(p)指顶点p的邻居节点;
W1,W2表示待学习的参数;
四、用三角网格来做单张RGB图像的三维重建
这篇文章提出的方法不需要借助点云、深度或者其他更加信息丰富的数据,而是直接从单张彩色图片直接得到 3D mesh。
![](https://filescdn.proginn.com/5feda14287dd2e0d40398dbf80145eae/1f06b14495453a27abddf06a77a001c0.webp)
1、给定一张输入图像:Input image
2、为任意的输入图像都初始化一个椭球体作为其初始三维形状:Ellipsoid Mesh
整个网络可以大概分成上下两个部分:
1、上面部分负责用全卷积神经网络提取输入图像的特征;
2、下面部分负责用图卷积神经网络来表示三维mesh,并对三维mesh不断进行形变,目标是得到最终的输出(最后边的飞机)。
![](https://filescdn.proginn.com/43d66db2455e43c75ed742776f252ee5/09778d8037fb6a54da4bc92750b14933.webp)
1、C表示三维顶点坐标,P表示图像特征,F表示三维顶点特征;
2、perceptual feature pooling层负责根据三维顶点坐标C(i-1)去图像特征P中提取对应的信息;
3、以上提取到的各个顶点特征再与上一时刻的顶点特征F(i-1)做融合,作为G-ResNet的输入;
4、G-ResNet(graph-based ResNet)产生的输出又做为mesh deformable block的输出,得到新的三维坐标C(i)和三维顶点特征F(i)。
除了刚刚提到的mesh deformation,下面这部分还有一个很关键的组成是graph uppooling。文章提出这个图上采样层是为了让图节点依次增加,从图中可以直接看到节点数是由156-->628-->2466变换的,这其实就是coarse-to-fine的体现,如下图:
![](https://filescdn.proginn.com/2fe2cd4dff08cca05774fedb2bee7b5c/69fd25273dee59ed4ef28d4d0c1d6718.webp)
这篇文章定义了四种loss来约束网格更好的形变:
![](https://filescdn.proginn.com/68d582dfc6e28c2f4fd561c9fedebf33/d9d48c10b7a6fac78389e5afa8010360.webp)
![](https://filescdn.proginn.com/7d030dda8466421696c68f9c69aa9363/5401323b3677259db7408e4299c28730.webp)
本文的实验结果
![](https://filescdn.proginn.com/898da18bd9fe17018cb8339aeffd5ed2/27bc71ed489f5812193b15ea87e89f3b.webp)
![](https://filescdn.proginn.com/d06d185945b07918b0146c1f01f593e5/fc90535783850a0543a7fdf1e0165779.webp)
本文总结
该文章的贡献可归纳如下:
(1)文章实现用端到端的神经网络实现了从单张彩色图直接生成用mesh表示的物体三维信息;
(2)文章采用图卷积神经网络来表示3D mesh信息,利用从输入图像提到的特征逐渐对椭圆尽心变形从而产生正确的几何形状;
(3)为了让整个形变的过程更加稳定,文章还采用coarse-to-fine从粗粒度到细粒度的方式;
(4)文章为生成的mesh设计了几种不同的损失函数来让整个模型生成的效果更加好;
文章的核心思路就是给用一个椭球作为任意物体的初始形状,然后逐渐将这个形状变成目标物体。
接下来介绍2019年的相关研究
由于相关内容涉及到mask-rcnn,先回顾一下:
mask-rcnn是对 faster rcnn 的扩展或者说是改进,其增加了一个用于分割的分支,并且将RoIpooling 改成了 RoIAlign。
![](https://filescdn.proginn.com/26b85628b4d98da01a3e37d18b7fa78a/0d7620576603dbe0a2a758c6853c16c5.webp)
Mask RCNN可以看做是一个通用实例分割架构;。
Mask RCNN以Faster RCNN原型,增加了一个分支用于分割任务。
Mask RCNN比Faster RCNN速度慢一些,达到了5fps。
可用于人的姿态估计等其他任务;
首先介绍一篇2019年做三维重建的文章——Mesh R-CNN
这篇文章使用的正是mask rcnn 的框架,本篇文章提出了一种基于现实图片的物体检测系统,同时为每个检测物体生成三角网格给出完整三维形状。文中的系统mesh-rcnn是基于mask-rcnn的增强网络,添加了一个网格预测分支,通过先预测转化为物体的粗体素分布并转化为三角形网格表示,然后通过一系列的图卷积神经网络改进网格的边角输出具有不同拓扑结构的网格。
![](https://filescdn.proginn.com/2ed0db886908de6048cad93447aa4150/8d1ab8093e7083f93dcaa8173511928f.webp)
模型目标:输入一个图像,检测图像中的所有对象,并输出所有对象的类别标签,边界框、分割掩码以及三维三角形网格。
模型主框架基于mask-rcnn,使用一个额外的网格预测器来获得三维形状,其中包括体素预测分支和网格细化分支。先由体素预测分支通过预选框对应的RoIAlign预测物体的粗体素分布,并将粗体素转化为初始的三角形网格,然后网格细化分支使用作用在网格顶点上的图卷积层调整这个初始网格的定点位置。总框架图如下所示:
![](https://filescdn.proginn.com/3b04ccaa82ab903d1908174201925054/d7b874e0482e92f2a24365b07aadbd21.webp)
![](https://filescdn.proginn.com/0531997b8ded39638ec07f33c91bf07c/13935bfcb6a6887e1967699d37daa60c.webp)
1、Box/Mask 分支: 和mask-rcnn中的两个分支一样
2、体素预测分支:类似于mask-rcnn中的mask分支,输入是RoIAlign,将预选框假设位于一个分割成 G*G*G个粗体素的空间,然后预测分割出来的粗体素占用率。使用一个小的全卷积网络来保持输入特征和体素占用预测概率之间的对应关系。最后输出用G个通道生成G*G的特征图,为每个位置提供一列体素占用率分数。
3、体素占用转化为网格表示:将体素占用概率转化为二值化体素占用之后,将每个被占用的体素被替换为具有8个顶点、18个边和12个面的立方体三角形网格(如上图Cubify所示),然后合并相邻占用体元之间的共享顶点和边,消除共享内面就可以形成了一个拓扑结构依赖于体素预测的密集网格了。
网格细化分支
网格细化分支将初始的网格结构经过一系列精化阶段(在文中作者使用了三个阶段)来细化里面的顶点位置。每个精化阶段都是输入一个三角形网格),然后经过三个步骤获得更精细的网格结构:顶点对齐(获得顶点位置对应的图像特征);图卷积(沿着网格边缘传播信息);顶点细化(更新顶点位置)。网络的每一层都为网格的每个顶点维护一个三维坐标以及特征向量。
![](https://filescdn.proginn.com/dd271708affb5023a2de583232af43e1/a88981803f8c075d6be01640ce819e50.webp)
1、顶点对齐:利用摄像机的内在矩阵将每个顶点的三维坐标投影到图像平面上。根据获取的RoIAlign,在每个投影的顶点位置上计算一个双线性插值图像特征来作为对应顶点的图像特征。
2、图卷积:图卷积用于沿着网格边缘传播顶点信息,公式定义如下:
![](https://filescdn.proginn.com/c5814f851f12735fee8f4d09e4cfcce3/3976f0cf30419f42a89534cd86a03647.webp)
其中N(i)表示顶点i的邻点集合,使用多个图卷积层在局部网格区域上聚合信息。
3、顶点精化:使用2中更新后的顶点特征使用下面公式来更新顶点位置:
![](https://filescdn.proginn.com/9ebca98f9e78b3bcc9904ebb2f49b667/10c90679f93bc18870b8fa86b8e73df8.webp)
只更改顶点位置,不更改三角形平面。
模型损失函数
![](https://filescdn.proginn.com/b0bf4c0d462b92ca2ed99f7a4a354c52/ae0ac71a08f1d0700d662a1b4aa22776.webp)
网格细化损失(从三个方面定义了三个损失函数)
![](https://filescdn.proginn.com/e6ed1009655cfb8d0499eba1db9748de/bfbcd66defb7849479604eceb9433b78.webp)
论文实验
论文在两个数据集上验证模型:在ShapeNet数据集上对网格预测器进行了基准测试与最先进的方法进行比较并且对模型中的各个模块进行单独分析;在Pix3D数据集上测试完整Mesh R-Cnn模型在复杂背景下的物体三维网格预测结果。
![](https://filescdn.proginn.com/e294ee4f0c4a6837a65122f29981d76f/5584faa2ce5e87f51db89cf845563448.webp)
在ShapeNet数据集:Mesh R-Cnn与其他的模型比较结果如图下:
![](https://filescdn.proginn.com/af30eaa4b47460bf43460c945f8c70c0/46ab43bd5605940c1aacccd16f3ff949.webp)
其中Ours(Best)表示去掉形状正则化损失后的结果,在后面的实验中可以发现,去掉形状正则化损失后尽管在标准度量上有好的表现,但是在视觉层面上生成的网格并不如加上后的结果(Ours(Pretty))。
![](https://filescdn.proginn.com/76511a1c05fd773026b112d325e98706/01f9a64de8dd41b10490da2bf3a149c8.webp)
表格中比较了模型的完整版本以及不同去除模块版本的表现,其中Full Test Set表示在完整测试集上的表现,Holes Test Set表示在打孔对象测试集中的表现;Voxel-Only表示不适用网格细化分支;Best和Perry分别表示不使用形状正则化损失和使用形状正则化损失;Ours(light)表示在网格细化分支中使用较轻量的非残差架构。
![](https://filescdn.proginn.com/ab93495f6d7ac0327582a1b784469b4d/55c5cf50da92e9d2f3a80d3bbf60eaee.webp)
![](https://filescdn.proginn.com/01a4bac41f5df486cc017ee9648ca09d/7a3989e94a9067155da8a32b7d4b331b.webp)
Pix3D数据集
![](https://filescdn.proginn.com/40109af0352614b96424e53efb9c3394/0fd846d8b1868328f9d114c84e230911.webp)
可视化结果
![](https://filescdn.proginn.com/c0af6f21e6c4a141b6497245dec2a084/d99dafc390fd33122678b1bb32eda152.webp)
![](https://filescdn.proginn.com/326edffa55642c28a1d8397641c618cc/4f9700fdec79be9d66411d24bfdafc41.webp)
本文总结
该文章的贡献可归纳如下:
(1)借鉴mask rcnn 框架;
(2)由粗到细调整的思想;
(3)使用图卷积神经网络;
(4)使用多种损失来约束训练;
最后介绍一篇论文,也是CVPR 2019的文章
![](https://filescdn.proginn.com/48c9832447dfd28b8227a06f8c5c054c/4f47170d9a015a87aa5ec07463c5fc97.webp)
这篇文章同样是既可以对单视图,也可以对多视图进行重建,只不过这篇文章的重点不在这,而在于它可以对不可见部分(不确定性)进行建模。
基本思想就是,每个输入图像都可以预测出多个重建结果,然后取交集就是最终结果。
![](https://filescdn.proginn.com/0eabd1f9fcc13c4f5127b2e3dc4e3100/d0a5884c2966b464bc2d87de010b437b.webp)
下图是主框架,左边是训练阶段,右边是测试阶段。
![](https://filescdn.proginn.com/d2b62543039f9d7d6a2882672c167f91/3df6e4559dc31979700db760cdce5a48.webp)
左边训练阶段的意思是,输入一张图像 I,对其加入多个噪声(r),生成多个重建结果(S)(类似于条件生成模型)。对改模型的训练要加约束,这里提出了front constraint和diversity constraint。
右边是测试阶段,提出了一个一致性损失(consistency loss)来进行在线优化。
Distance Metric:
![](https://filescdn.proginn.com/6275ca14e802cc0cb63e1370758a83e4/28a3028fc90b6863e881b018eb4be357.webp)
Diversity Constraint: 目的是让条件生成器生成的重建结果更具有多样性。
![](https://filescdn.proginn.com/4c1c62f4bd070429108462e6e7c81cde/b704db63f5fdbe99a4df70bf7a033c17.webp)
Front Constraint: 对图像前边部分(部分点)有监督训练,所以这里有一个采样过程,具体内容如下图所示:
![](https://filescdn.proginn.com/16823ff44b51bfbc9eaff600e5fdd456/09b06cc8f55c777da5d091d9d69d9394.webp)
![](https://filescdn.proginn.com/3caa058edf9940de6ec0f50c93c90115/c349c04699a8c47d1706dda36ac068a5.webp)
对于条件生成器生成的结果,用一个判别器去判断这个形状是否合理,公式如下:
Latent Space Discriminator(判别器是直接从WGAN-GP中拿来的)
![](https://filescdn.proginn.com/8e6cb65033146fc7c0a4922093a25759/c74fa1b3ed7524705d0737b3d38d20fe.webp)
训练总的损失:
![](https://filescdn.proginn.com/1ebb8aa09d1ea7ada91b9fa8f8b53ed3/2b6dc8bff915b8aeee0ae8355bb8e07b.webp)
Inference (consistency constraint):
公式中Si 和 Sj 代表两个点云集合。
![](https://filescdn.proginn.com/faaf31499460a2d6010cfece52e84dda/5e88cde0cc2ae089783f13764a540579.webp)
![](https://filescdn.proginn.com/bc710cdcfd304dee32582b14bbf46efd/8c4c6afcc109cc32f1777af9c50da191.webp)
条件生成器的构:
![](https://filescdn.proginn.com/98e8ec0e625dfcace052b3ff2e0e3b3b/313229a1c3e2803d0509535ab03c835b.webp)
![](https://filescdn.proginn.com/f1b7a16cebe04c88f9e10621570205fb/88de7b4bb16d9fda93eee6c6dc6d6ea7.webp)
实验结果
![](https://filescdn.proginn.com/ad996e4c3ee454423557a9e604545667/42e1b22a3260d62c46c7a0df33a8c05d.webp)
![](https://filescdn.proginn.com/7b3016a9bd8dfc96826b83bcec9bdec0/11ab58e09bc3cb3cafe49df1330d5e2d.webp)
![](https://filescdn.proginn.com/28f82cf41f4792770c19c750801729c1/5fba0686a21c0c38ac81f76575e82970.webp)
![](https://filescdn.proginn.com/d3de86864d2a54acc6c9b36728175005/29d293212415642996a1aa2e42659254.webp)
![](https://filescdn.proginn.com/8924098619188ee9b455b552bbcb65fd/437f5fab872a149954761d86821fd67d.webp)
本文总结
该文章的贡献可归纳如下:
(1)提出对不可见部分的不确定性进行建模;
(2)使用了条件生成模型;
(3)提出了三种约束;
交流群
欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~