航拍图像下的目标检测 论文阅读总结

编程入门 行业动态 更新时间:2024-10-25 16:25:26

航拍<a href=https://www.elefans.com/category/jswz/34/1771430.html style=图像下的目标检测 论文阅读总结"/>

航拍图像下的目标检测 论文阅读总结

        从网上搜了些论文来看(Keywords:vehicle detection/feature extraction  aerial images)

      1、《Vehicle detection on Aerial Images by Extracting Corner Features for Rotational Invariant Shape Matching》发表在2011 11th IEEE International Conference on Computer and Information Technology  作者:Sheng Wang School of Computing and Communications University of Technology, Sydney。

 

                        

                  

        文章框架如左图。首先使用shadow detection 快速定位潜在目标,代替了扫窗的方法,同时还减少了计算量。接着使用Harris Corner Response Map(HCRM)提取特征点(HCRM如右图,在文章中,作者还对比了HCRM和EdgeMap)。再通过当前点的梯度方向与其他点的角度关联测量得到的Corner Feature Sample Points,这样得到的样本点具有旋转不变性。

        检测结果如下图,明显的缺点是,在阴影下的车辆完全检测不到。应该是在第一步shadow detection的时候就被去掉了。所以这个方法还是很有局限性的。

 

 

 

     2、《Vehicle Detection Using Partial Least Squares》发表在PAMI, VOL. 33, NO. 6, JUNE 2011作者Aniruddha Kembhavi, David Harwood, Member, IEEE, and Larry S. Davis, Fellow, IEEE

     在Feature Extraction 时使用三种特征叠加。Color Probability Maps(CPM)提取颜色概率。HOG提取边缘方向的空间分布。Pairs of Pixels(POPs)提取目标的结构属性。这样得到的特征有大约70,000维。但是训练集中的样本数量很小(大约200正例、1500反例),所以使用Partial Least Squares,具体实现方法是NIPALS。为了降低高维数特征下的计算,文章还进行了Feature Selection,可以去掉冗余数据。具体实施方法使用Ordered Predictors Selection和Multistage Multi-resolution Analysis.

       下图为实验结果

 


 

 

          3、《Vehicle Detection from Aerial Images Using Local Shape Information》Springer-Verlag Berlin Heidelberg 2009 作者:Jae-Young Choi and Young-Kyu Yang 

         文章先使用Mean-Shift clustering算法提取候选带有汽车形状对称属性的Blob,再用log-polar形状描述子检测相似性。从Blob的中的方向和距离构成空间直方图可以得到轮廓信息,得到shape context。后处理对Blob进行融合。

 


 

        缺点:对带有对称性的建筑或公路标志容易误检。Shape description 由固定vehicle模型获得,所以使得算法不够灵活。而且一旦镜头进行上下角度偏移,则模型产生错误很大。同时使用Mean-Shift进行Blob Detection无法处理镜头移动和复杂背景。

 

 

 

       4、《Vehicle Detection in Aerial Surveillance Using Dynamic Bayesian Networks》发表在IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 21, NO. 4, APRIL 2012。作者:Hsu-Yung Cheng, Member, IEEE, Chih-Chia Weng, and Yi-Ying Chen

 

      方法框架分成两部分training phase 和detection phase 。在训练时,特征提取包括使用Harris corner detector得到角特征和使用canny edges detector得到局部边缘,这两者可以有效提高命中率。Vehicle的颜色转换后分类可以训练一个动态贝叶斯网络。在检测部分,先进行背景颜色去除(有效去除False Positives),具体方法是使用颜色直方图,去掉最突出的几个Bin。特征提取中,是基于像素加区域的方法。具体方法为:

        先进行颜色转换,利用《Vehicle detection using normalized color and edge map》的颜色空间转换,将RGB转为UV。

 

         其中Z为(R+B+G)/3。实验证明在UV空间中vehicle pixels 和non-vehicle pixels的overlap较小,所以可以再使用SVM对其进行分类。

对单个像素P进行特征提取。考虑p附件的N*N邻域。提取五种特征类型:S,C,E,A and Z。 

         S为SVM分类后被分为vehicle color的像素个数占邻域总个数的百分比。

 

           同理,C、E分别表示被Harris corner detector 检测为corner的像素数和canny edges detector检测为edge的像素数占邻域像素总数的百分比。A表示p所在vehicle-color region的宽高比,Z表示p都在区域的像素总数。如下图,即为region1的像素总数。

 

             得到这些特征后再用Dynamic Bayesian Networks进行分类。

 

          t表示视频中的time slice。Vt表示观察节点。后处理中用形态学来对像素进行联合组件标签得到目标。文章中还对DBNs和BNs进行对比实验。实验证明DBN性能更好。这是因为在视频中,DBN还具有时间上的比较。

更多推荐

航拍图像下的目标检测 论文阅读总结

本文发布于:2024-03-15 04:35:37,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1738113.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:图像   目标   航拍   论文

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!