基于深度学习的特征提取和匹配
转载自 | 计算机视觉life
作者 | 黄浴
链接 | https://zhuanlan.zhihu.com/p/78053406
计算机视觉需要图像预处理,比如特征提取,包括特征点,边缘和轮廓之类。以前做跟踪和3-D重建,首先就得提取特征。特征点以前成功的就是SIFT/SURF/FAST之类,现在完全可以通过CNN模型形成的特征图来定义。
特征提取
![](https://filescdn.proginn.com/00e188a5904c292ab861e92332cf90f4/cdac14fd33a4de9f16f39578f02ef92d.webp)
![](https://filescdn.proginn.com/af59b6817f39ed6dc4a24bd76e8cfa74/734face3b6abd069484f967ac439d414.webp)
![](https://filescdn.proginn.com/dfe24339115b1f62c40faa8bf83cb5a8/ddc62a46f4157da461fae68458a9495a.webp)
![](https://filescdn.proginn.com/5dbadaaa54d35010a24a5e58fec420d7/25d575f22bf4a7eaf148e46ff9c597f9.webp)
![](https://filescdn.proginn.com/8413b43f0fc2d3ca30a593be806347d1/e851a6e45deeb8701965c91c20817ef8.webp)
1) 给定输入图像块P,检测器提供得分图S; 2) 在得分图S上执行soft argmax 并返回单个潜在特征点位置x。 3) 用空间变换器层裁剪(Spatial Transformer layer Crop)提取一个以x为中心的较小的补丁p(如图5-3), 作为朝向估计器的输入。 4) 朝向估计器预测补丁方向θ。 5) 根据该方向第二个空间变换器层(图中的Rot)旋转p产生pθ。 6) pθ送到描述子网络计算特征向量d。
![](https://filescdn.proginn.com/f638fb6be815d7e8f6251210203397ae/3461411a33ee30dcf752752834e9e254.webp)
![](https://filescdn.proginn.com/78d902985c177e81a8f83b5d94653e5c/02a62e516c29d3a73a0bfa6bedaffd46.webp)
特征匹配
MatchNet【3】
![](https://filescdn.proginn.com/4c83c24111ba5c40ccd9ee6b63585965/0f5510b67c310a2ab0fca0b4011b8f7e.webp)
![](https://filescdn.proginn.com/51ef19d8d71096a783c122836409edcd/b367ef410c4787c799d0349e8f060d55.webp)
UCN【4】
![](https://filescdn.proginn.com/0e8b40bc5434ffc5a8326d6acd4bed39/30901de1803e2f737c812ba1690e5fc6.webp)
![](https://filescdn.proginn.com/b109a5516d41330890266508c152f26a/5884ab3b078315bd5ea84d24346414d9.webp)
![](https://filescdn.proginn.com/d36fbd058b04aac048d15819efda7d22/bbc4846b4ba8aa902b707291359420ad.webp)
![](https://filescdn.proginn.com/b119a4bdb37a03b883192b39156c620e/ad6db66d73d37fb018d18ada97925d81.webp)
![](https://filescdn.proginn.com/8dfdb63eead899900fcaa97e1ebf15fe/d6581e99003672bb2d68c7c3d17e00e4.webp)
DGC-Net【5】
![](https://filescdn.proginn.com/cf03e209f1ce5af766377ca6f4f4e575/79f09b8d491aa43c93225d2a62784586.webp)
![](https://filescdn.proginn.com/7b52cea466c5da2c3329acc8d81e17f3/7c9c50df4266fc4ed14275ba836b3ae0.webp)
![](https://filescdn.proginn.com/baa084d3f4a9a33cc61ee1b04155c7bc/5b43614e33f44f45865b51aee249db15.webp)
![](https://filescdn.proginn.com/487b2d1e6e109f097e0f29a955a3bc6b/b88d2e97e301b7d64dd9f3453e0e07da.webp)
![](https://filescdn.proginn.com/583e204358ed6305f87664addd3faa55/4c20fc93499330c198e7809d1ab9e6f1.webp)
![](https://filescdn.proginn.com/7838426b3a19f0389da80138cc657d6e/40f47cfc798e66c288cdf1c5e1d77c5b.webp)
参考文献
1. E. Simo-Serra et al., “Discriminative learning of deep convolutional feature point descriptors”. ICCV 2015 2. K Yi et al.,“Learned Invariant Feature Transform”, arXiv 1603.09114, 2016 3. X Xu et al.,“MatchNet: Unifying Feature and Metric Learning for Patch-Based Matching”, CVPR 2015 4. C Choy
et al., “Universal Correspondence Network”,NIPS 20165. I Melekhov et al, “DGC-Net: Dense Geometric Correspondence Network”, CVPR 2019
双一流高校研究生团队创建 ↓
专注于计算机视觉原创并分享相关知识 ☞
整理不易,点赞三连!
评论