投稿指南
来稿应自觉遵守国家有关著作权法律法规,不得侵犯他人版权或其他权利,如果出现问题作者文责自负,而且本刊将依法追究侵权行为给本刊造成的损失责任。本刊对录用稿有修改、删节权。经本刊通知进行修改的稿件或被采用的稿件,作者必须保证本刊的独立发表权。 一、投稿方式: 1、 请从 我刊官网 直接投稿 。 2、 请 从我编辑部编辑的推广链接进入我刊投审稿系统进行投稿。 二、稿件著作权: 1、 投稿人保证其向我刊所投之作品是其本人或与他人合作创作之成果,或对所投作品拥有合法的著作权,无第三人对其作品提出可成立之权利主张。 2、 投稿人保证向我刊所投之稿件,尚未在任何媒体上发表。 3、 投稿人保证其作品不含有违反宪法、法律及损害社会公共利益之内容。 4、 投稿人向我刊所投之作品不得同时向第三方投送,即不允许一稿多投。 5、 投稿人授予我刊享有作品专有使用权的方式包括但不限于:通过网络向公众传播、复制、摘编、表演、播放、展览、发行、摄制电影、电视、录像制品、录制录音制品、制作数字化制品、改编、翻译、注释、编辑,以及出版、许可其他媒体、网站及单位转载、摘编、播放、录制、翻译、注释、编辑、改编、摄制。 6、 第5条所述之网络是指通过我刊官网。 7、 投稿人委托我刊声明,未经我方许可,任何网站、媒体、组织不得转载、摘编其作品。

基于改进Yolo v3算法的遥感建筑物检测研究(4)

来源:遥感学报 【在线投稿】 栏目:期刊导读 时间:2021-02-15
作者:网站采编
关键词:
摘要:[1]Asrar G in quantitative earth remote sensing:past,present and future.[J].Sensors(Basel,Switzerland),2019,19(24). [2]Wang Min,Chen Jinyong,Wang Gang,et al.High resolution rem

[1]Asrar G in quantitative earth remote sensing:past,present and future.[J].Sensors(Basel,Switzerland),2019,19(24).

[2]Wang Min,Chen Jinyong,Wang Gang,et al.High resolution remote sensing image ship target detection technology based on deep learning[J].Optoelectronics Letters,2019,15(5).

[3]Chen Junde,Zhang Defu,Nanehkaran Yaser A,et of rice plant diseases based on deep transfer learning[J].Journal of the Science of Food and Agriculture,2020,100(7).

[4]Lin T Y,Dollae P,Girshick R,et pyramid networks for object detection[C]//IEEE Conference on Computer Vision and Pattern Recognition,2017:936-944.

[5]Liu Qiangwei,Xiang Xiuqiao,Wang Yuanfang,et detection in remote sensing image based on corner clustering and deep learning[J].Engineering Applications of Artificial Intelligence,2020,87.

[6]Dai J F,Li Y,He K M,et al.R-FCN:object detection via refion-based fully convolutional networks[C]//IEEE Conference on Computer Vision and Pattern Recognition,2016:379-387.

[7]Bodla N,Singh B,Chellappa R,et —improving object detection with one line of code[C]//Proceedings of the IEEE International Conference on Computer Vision,2017:5561-5569.

[8]Xie Han,Chen Yunfan,Shin pedestrian detection especially for small-sized instances with Deconvolution Integrated Faster RCNN(DIF R-CNN)[J].Applied Intelligence,2019,49(3).

[9]Han Cen,Gao Guangyu,Zhang small traffic sign detection with revised faster-RCNN[J].Multimedia Tools and Applications,2019,78(10).

[10]Dow C R,Ngo H H,Lee L H,et al.A crosswalk pedestrian recognition system by using deep learning and zebracrossing recognition techniques[J].Software:Practice and Experience,2020,50(5).

[11]Chen Binghuang,Miao to:distribution line pole detection and counting based on YOLO using UAV inspection line video[J].Journal of Electrical Engineering & Technology,2020,15(2).

[12]Auradkar P,Prashanth T,Aralihalli S,et tuning analysis of spatial operations on Spatial Hadoop cluster with SSD[J].Procedia Computer Science,2020,167:2253-2266.

[13]Van Etten A.You only look twice:rapid multi-scale object detection in satellite imagery[J].arXiv:,2018.

[14]Chen Haipeng,He Zhentao,Shi Bowen,et on recognition method of electrical components based on YOLO V3[J].IEEE Access,2019:-.

[15]Tumas P,Serackis image annotation based on YOLOv3[C]//2018 IEEE 6th Workshop on Advances in Information,Electronic and Electrical Engineering(AIEEE),2018:1-3.

1 引言随着遥感技术的发展,遥感图像幅员更加辽阔,包含的信息更加复杂,因此其已被广泛应用于图像识别、语义识别、视频分析、文本分析和大数据分析等领域[1]。遥感图像中对固定地物与移动地物的检测一直是研究热点,其中固定地表建筑物是人类主要活动场所,因此对该类目标实现检测显得尤为重要。考虑到实际工程应用中实时性是一个极为重要的问题,且检测目标(建筑物)小,对建筑物检测也造成了极大的困难。故而,如何实现对遥感图像中该类建筑物的检测是目标检测领域的一个研究难点[2]。相比传统的根据建筑物颜色、形状、纹理等提取简单特征的目标检测算法,基于深度学习的目标检测利用深度神经网络强大的特征学习能力来解决复杂的遥感图像检测问题,更能满足今天遥感图像中目标检测的要求[3]。本文的研究重点为固定地表中的建筑物检测,以基于深度学习的目标检测算法Yolo v3为研究基础,并以修改特征图分辨率、调整先验框维度为改进方向,加强对小型建筑物的检测,生成更适合遥感建筑物检测的网络模型。2 相关工作从遥感图像中检测建筑物有传统算法和基于深度学习的算法两大类。传统目标检测算法是一种基于人工设计特征的分类方法,利用了建筑物某一方面的特征,如颜色、形状等,虽然具有一定的检测效果,但是在检测精度和检测速度上具有较大的局限性。如文献[4]提出一种阴影验证的建筑物检测方法,该方法通过建筑物的阴影、形状以及颜色特征结合起来检测建筑物,对特征简单的建筑物检测效果良好,但对于复杂特征的建筑物检测,该方法无法满足工程应用中对检测精度及实时性的要求。与之相比,基于深度学习的检测算法以其适应能力强、检测效率高而得到了广泛应用,该类检测算法以卷积神经网络为基础,具有强大的特征表示能力,在背景模糊、地理环境复杂的情况下,仍然能够学习到有用的特征,大幅提高了物体检测精度,适用于当今遥感图像复杂多变的场景,具有非常好的泛化能力和鲁棒性[5]。如文献[6]提出一种端到端的密集反卷积神经网络,将图像中的抽象特征与细节特征结合,能够捕捉到目标建筑物的细微复杂特征;文献[7]中使用金字塔技术构建多级训练的样本,提出候选建筑区域检测建筑物,在检测精度及实时性方面有显著提升。目前基于深度学习的检测算法可以分为两类:基于区域的目标检测算法和基于端到端的目标检测算法。前者先由算法生成一系列作为样本的候选框,再通过卷积神经网络进行样本分类,这类算法在检测精度和定位精度上占优,代表算法有:Faster RCNN[8-9]和Fast RCNN等;后者不生成候选框,直接将目标边框定位的问题转化为回归问题,这类算法在检测速度上占优,代表算法有:Yolo[10-11]系列和 SSD[12]等。考虑到目前遥感技术的发展,需要对上千平方公里图像进行处理,而且目标小、背景复杂度高,因此检测速度及泛用性是首先考虑的问题,所以本文将基于深度学习的Yolo v3检测算法应用于建筑物的检测,并在检测小型建筑物方面提出改进。3 改进Yolo v3算法3.1 Yolo v3原理Yolo v3 是基于端到端的检测算法,网络结构分为骨干网络(Darknet-53)和检测网络。Darknet-53由52个卷积层和1个全连接层组成,构成了一个53层的卷积神经网络(CNN),并输出13×13、26×26和52×52三种尺度的特征,送入检测网络。检测网络对三种尺度的特征回归,预测出多个预测框,并使用非极大抑制(NMS)算法删除置信得分较低的预测框,保留置信得分较高的预测框为目标检测框,从而得到目标的类别和位置,检测流程如图1。图1 Yolo v3检测流程(1)边界框预测:检测网络对13×13、26×26和52×52三种尺度的特征回归,预测出多个预测框,在检测的过程中,每个网格会产生多个边界框,每个边界框都要预测边界框位置信息(x,y,w,h)和置信度(confidence)。置信度是边界框所含目标的可能性Pr(object)与边界框准确度IOU的乘积,计算公式如式(1)所示:若网格中包含某个目标则Pr(object)=1 ,否则表示真实标注框与预测框的交并比,用来衡量预测边界框的准确性,当IOU=1 时,说明真实标注框与预测框重合。(2)分类:对包含目标的网格预测多个类别概率,用Pr(classi|object)表示。为了得到每个边界框的分类信息,将边界框所属网格的类别概率与边界框的置信度相乘得到置信度评分,如公式(2)所示,其代表了边界框中目标属于某个类的概率。在模型训练中,将边界框每个类别的置信度评分按高低排序,将置信度得分小于设定阈值的边界框的置信度设为0,然后再用非极大值抑制算法(NMS)去掉重复率较大的边界框,最后每一个边界框只保留置信度评分大于0且最高的类,从而检测出各类目标 改进Yolo v3Yolo v3算法的网络权重是基于COCO数据集训练测试所得,COCO数据集包括80种类别目标,且该数据集目标与本文检测的遥感建筑物尺度差异较大,故而原Yolo v3 算法不适用本文应用场景,尤其是对小型建筑物的检测表现不好。目前随着Yolo v3 的广泛应用,已有相关文献针对具体场景做出了相应改进。文献[13]提出一种基于Yolo v2 的船舶检测算法Yolt,该算法网络结构与Yolo v2 相比,最大的修改是最后输出特征尺寸为26×26,加强了对小目标的检测,结果表明在稀疏的小目标场景下检测效果良好,但在目标密集的场景下表现不好[13];文献[14]提出了一种基于Yolo v3改进的电气元件检测算法,通过对PASCAL VOC 和KITTI 数据集进行k-means 聚类分析,调整先验框维度,并在原来三种尺度的特征图上增加104×104 的特征图,达到加强小目标检测的能力,结果表明在文献提供的电气元件的数据集中表现良好,但该应用场景不具有泛用性[14]。故本文在以下两方面进行改进:一是修改特征图分辨率,扩大感受野,减少语义特征丢失;二是使用k-means算法对本文的遥感建筑物数据集进行聚类分析,得到对应的先验框维度[15] 修改特征图分辨率Yolo v3 为加强对小目标的检测,借鉴了特征金字塔网络FPN(Feature Pyramid Network),将高层特征与浅层特征信息融合,采用多个尺度融合的方式,在多个尺度的特征图上进行位置和类别预测,但Yolo v3网络结构采取的三个尺度的特征融合方法对遥感图像中检测较小的目标有不利的影响,13×13的特征图语义丢失严重,易造成小目标丢失。考虑到特征的分辨率将直接影响小目标的检测和整体性能指标,所以在Darknet-53基础上对原特征图三个尺度的分辨率13×13、26×26 和52×52修改为两个较大尺度的分辨率26×26和52×52。修改后的网络模型结构如图2所示,将原网络结构26×26的特征图分辨率作为第一尺度;将 L61(61层)结果进行五次卷积操作(Convolutional Set),首先为了提升计算效率进行1×1 卷积操作降维,然后上采样(Up Sample),再与 L36(36层)融合,最后融合之后采用3×3的卷积核对融合结果进行卷积,目的是消除上采样的混叠效应,如此就得到了一个新的特征图52×52,作为第二尺度特征。图2 修改后的网络结构经修改后,本文对Yolo v3 改进的网络结构能够在深层网络中保持较高分辨率和较大的特征图的感受野,以增强对小目标的检测能?means聚类分析调整先验框维度Yolo v3 借鉴先验框来预测边界框坐标,使用kmeans 算法预测得到9 个先验框,并将其均分到3 个尺度特征图,以此来获得更多的目标边缘信息。Yolo v3中计算得到的9 组先验框维度分别为(10,13),(16,30),(33,23),(30,61),(62,45),(59,119),(116,90),(156,198),(373,326),但是在本文应用场景中,Yolo v3算法中计算得到的先验框维度不适合建筑物的检测。因此,在遥感建筑物检测场景下,使用k-means 算法对自制的建筑物数据集进行聚类分析,得到先验框维度,从小到大分别为:(49,47),(92,50),(52,97),(175,51),(142,95),(74,200),分辨率较小的26×26 特征图有较大的感受野,故采用较大的先验框(175,51),(142,95),(74,200),分辨率较大的52×52的特征图有较小的感受野,故采用较小的先验框(49,47),(92,50),(52,97),如表1所示。表1 数据集的先验框特征图 先验框26×26(175,51)(142,95)(74,200)52×52(49,47)(92,50)(52,97)4 实验结果及分析4.1 数据集制作本文使用的数据集来自我国北方某城市的卫星图像,使用谷歌地图下载,图像尺寸为25 km×25 km,对图像裁剪及筛选,使用标注工具labelImg 进行标注,制作本文的数据集。labellmg 是专门为Yolo 系列算法的网络训练准备数据的工具,利用该标注工具,手动完成矩形框标注,最后得到xml文件,操作界面如图3所示。一共得到1 000张训练集和200张测试集。图3 标注界面4.2 实验过程及平台本文采用计算机为笔记本电脑,配置为Intel i7-9750H,32 GB内存,64位Windows 10操作系统;开发环境为,,。原Yolo v3 及本文改进算法都是在keras 环境下运行,以1 000张遥感图像为训练集,200张做测试集,初始阶段学习率为0.001,衰减系数为0.000 5,为使损失函数进一步收敛,在训练迭代次数为 25 000次时,学习率降低为0.000 1。最终,loss 值稳定在0.5 左右,迭代至30 000次停止,如图4。图4 损失值曲线4.3 实验结果与分析4.3.1 本文网络模型检测结果本文网络模型基于Yolo v3 算法,通过修改特征图分辨率及使用k-means 算法对本文遥感建筑物数据集进行聚类分析,加强对小型建筑物的检测。经过本文网络模型检测,选取尺寸相差较大、排列密集的建筑物检测场景做样例分析,结果如图5。图5 网络模型检测结果从检测结果可以看出,本文对Yolo v3进行改进,通过选择合适的特征图分辨率及调整先验框维度提高了对小型建筑物的检测能力,对场景中排列密集建筑物(样例1)、尺度差距大(样例2)、背景复杂度高(样例3)及在有道路下的建筑物(样例4)做到了很好的识别效果,尤其对于小型建筑物的检测效果良好 评价指标本文采用平均检测精度(mAp)、召回率(recall)、平均检测时间(time)作为检测评价指标。其中精度和召回率分别定义为:以遥感建筑物为例,TP、FP分别表示检测模型将建筑物检测正确与错误的数量,FN表示误检的数量。召回率(recall)表示能够正确识别建筑物的概率;precision表示已识别为建筑物的检测精度,对precision 取平均值,以平均检测精度(mAp)作为评价指标;time 表示平均每张检测时间 本文网络模型效率对比分析本文针对遥感图像中的小型建筑物展开研究,选取建筑物排列密集(a组)和相对尺寸差距大(b组)两种场景做对比分析,经过本文网络模型(Article method)与原Yolo v3算法检测结果对比如图6所示。图6 检测结果对比对比实验结果可以看出,a 组的小型目标建筑物排列密集,b组目标建筑物尺度差距相对较大。原Yolo v3算法对小型建筑物(a1、b1)的检测效果表现不好,在场景a1中右方排列密集的小型建筑物和在场景b1中下方的小型建筑物都出现了漏检;本文网络结构(Article method)的检测结果(a2、b2)很好地实现了小型目标建筑物的检测,在排列密集和相对尺度大的两种场景中都能对小型建筑物做到了很好的检测效果,且对于相同目标的检测,本文改进的网络结构相比原Yolo v3算法的检测精度也有提高。基于深度学习的目标检测算法分为基于区域的目标检测算法和基于端到端的目标检测算法。Yolo v3算法是一种基于端到端的检测算法,为验证本文改进网络的优越性,故与主流算法进行对比分析。因此,本文设计实验:以本文自制遥感建筑物数据集为实验数据集,200 张作为测试集,通过本文改进网络结构(Article method)与原 Yolo v3 算法、同样基于端到端的 SSD 算法及基于区域的Faster RCNN 算法在平均检测精度(mAp)、平均每张检测时间(time)及召回率(recall)等方面做效率比较,效率分析如表2所示。表2 效率分析算法mAp/%time/srecall/%Yolo .84 Faster .33 Article 从实验结果可以看出,在平均检测精度(mAp)方面,原Yolo v3 算法的平均精度为85.94%,SSD 算法的平均精度为80.49%,Faster RCNN 算法的平均精度为93.81%,本文改进网络结构(Article method)平均精度为 91.29%,比 Faster RCNN 算法略低,较原Yolo v3 算法和SSD 算法提高了5.35%和10.8%;而在检测时间(time)方面,原Yolo v3算法的检测时间为0.041 s,SSD算法的检测时间为0.253 s,Faster RCNN算法的检测时间为2.37 s,本文改进网络结构(Article method)的检测时间为0.042 s,仅比原Yolo v3 算法的检测时间多0.001 s,较SSD算法和Faster RCNN算法快了0.211 s和2.328 s,很好地满足了实时性;在召回率(recall)方面,原Yolo v3 算法的召回率为93.27%,SSD 算法的召回率为90.84%,Faster RCNN 算法的召回率为97.33%,本文改进网络结构(Article method)的召回率为95.61%,比Faster RCNN 算法略低,较原 Yolo v3 算法及 SSD 算法提高了2.34%和4.77%。故本文改进网络结构(Article method)在保持了原算法速度优势的基础上,提高了平均检测精度和召回率,所以本文提出的基于Yolo v3的改进网络模型对遥感建筑物检测效果更好。5 结束语本文针对遥感建筑物的检测,对小型建筑物检测难度大的问题进行研究,提出了基于深度学习的Yolo v3改进算法,以修改特征图分辨率、调整先验框维度为方向得到一种适合遥感建筑物检测的网络模型,加强了对小型建筑物的检测能力。实验结果表明,本文提出的方法在满足了实时性的基础上,有效解决了遥感图像中固定地物建筑物检测过程中存在的小型建筑物检测难度大的问题。接下来将针对遥感图像中移动地物做研究。参考文献:[1]Asrar G in quantitative earth remote sensing:past,present and future.[J].Sensors(Basel,Switzerland),2019,19(24).[2]Wang Min,Chen Jinyong,Wang Gang,et al.High resolution remote sensing image ship target detection technology based on deep learning[J].Optoelectronics Letters,2019,15(5).[3]Chen Junde,Zhang Defu,Nanehkaran Yaser A,et of rice plant diseases based on deep transfer learning[J].Journal of the Science of Food and Agriculture,2020,100(7).[4]Lin T Y,Dollae P,Girshick R,et pyramid networks for object detection[C]//IEEE Conference on Computer Vision and Pattern Recognition,2017:936-944.[5]Liu Qiangwei,Xiang Xiuqiao,Wang Yuanfang,et detection in remote sensing image based on corner clustering and deep learning[J].Engineering Applications of Artificial Intelligence,2020,87.[6]Dai J F,Li Y,He K M,et al.R-FCN:object detection via refion-based fully convolutional networks[C]//IEEE Conference on Computer Vision and Pattern Recognition,2016:379-387.[7]Bodla N,Singh B,Chellappa R,et —improving object detection with one line of code[C]//Proceedings of the IEEE International Conference on Computer Vision,2017:5561-5569.[8]Xie Han,Chen Yunfan,Shin pedestrian detection especially for small-sized instances with Deconvolution Integrated Faster RCNN(DIF R-CNN)[J].Applied Intelligence,2019,49(3).[9]Han Cen,Gao Guangyu,Zhang small traffic sign detection with revised faster-RCNN[J].Multimedia Tools and Applications,2019,78(10).[10]Dow C R,Ngo H H,Lee L H,et al.A crosswalk pedestrian recognition system by using deep learning and zebracrossing recognition techniques[J].Software:Practice and Experience,2020,50(5).[11]Chen Binghuang,Miao to:distribution line pole detection and counting based on YOLO using UAV inspection line video[J].Journal of Electrical Engineering & Technology,2020,15(2).[12]Auradkar P,Prashanth T,Aralihalli S,et tuning analysis of spatial operations on Spatial Hadoop cluster with SSD[J].Procedia Computer Science,2020,167:2253-2266.[13]Van Etten A.You only look twice:rapid multi-scale object detection in satellite imagery[J].arXiv:,2018.[14]Chen Haipeng,He Zhentao,Shi Bowen,et on recognition method of electrical components based on YOLO V3[J].IEEE Access,2019:-.[15]Tumas P,Serackis image annotation based on YOLOv3[C]//2018 IEEE 6th Workshop on Advances in Information,Electronic and Electrical Engineering(AIEEE),2018:1-3.

文章来源:《遥感学报》 网址: http://www.ygxbzz.cn/qikandaodu/2021/0215/504.html



上一篇:恒温双色光源夜间能见度观测方法研究
下一篇:无人机多光谱遥感反演不同深度土壤盐分

遥感学报投稿 | 遥感学报编辑部| 遥感学报版面费 | 遥感学报论文发表 | 遥感学报最新目录
Copyright © 2018 《遥感学报》杂志社 版权所有
投稿电话: 投稿邮箱: