投稿指南
来稿应自觉遵守国家有关著作权法律法规,不得侵犯他人版权或其他权利,如果出现问题作者文责自负,而且本刊将依法追究侵权行为给本刊造成的损失责任。本刊对录用稿有修改、删节权。经本刊通知进行修改的稿件或被采用的稿件,作者必须保证本刊的独立发表权。 一、投稿方式: 1、 请从 我刊官网 直接投稿 。 2、 请 从我编辑部编辑的推广链接进入我刊投审稿系统进行投稿。 二、稿件著作权: 1、 投稿人保证其向我刊所投之作品是其本人或与他人合作创作之成果,或对所投作品拥有合法的著作权,无第三人对其作品提出可成立之权利主张。 2、 投稿人保证向我刊所投之稿件,尚未在任何媒体上发表。 3、 投稿人保证其作品不含有违反宪法、法律及损害社会公共利益之内容。 4、 投稿人向我刊所投之作品不得同时向第三方投送,即不允许一稿多投。 5、 投稿人授予我刊享有作品专有使用权的方式包括但不限于:通过网络向公众传播、复制、摘编、表演、播放、展览、发行、摄制电影、电视、录像制品、录制录音制品、制作数字化制品、改编、翻译、注释、编辑,以及出版、许可其他媒体、网站及单位转载、摘编、播放、录制、翻译、注释、编辑、改编、摄制。 6、 第5条所述之网络是指通过我刊官网。 7、 投稿人委托我刊声明,未经我方许可,任何网站、媒体、组织不得转载、摘编其作品。

基于改进算法的遥感建筑物检测研究(3)

来源:遥感学报 【在线投稿】 栏目:期刊导读 时间:2021-03-07
作者:网站采编
关键词:
摘要:原Yolo v3 及本文改进算法都是在keras 环境下运行,以1 000张遥感图像为训练集,200张做测试集,初始阶段学习率为0.001,衰减系数为0.000 5,为使损失函数进

原Yolo v3 及本文改进算法都是在keras 环境下运行,以1 000张遥感图像为训练集,200张做测试集,初始阶段学习率为0.001,衰减系数为0.000 5,为使损失函数进一步收敛,在训练迭代次数为 25 000次时,学习率降低为0.000 1。最终,loss 值稳定在0.5 左右,迭代至30 000次停止,如图4。

图4 损失值曲线

4.3 实验结果与分析

4.3.1 本文网络模型检测结果

本文网络模型基于Yolo v3 算法,通过修改特征图分辨率及使用k-means 算法对本文遥感建筑物数据集进行聚类分析,加强对小型建筑物的检测。经过本文网络模型检测,选取尺寸相差较大、排列密集的建筑物检测场景做样例分析,结果如图5。

图5 网络模型检测结果

从检测结果可以看出,本文对Yolo v3进行改进,通过选择合适的特征图分辨率及调整先验框维度提高了对小型建筑物的检测能力,对场景中排列密集建筑物(样例1)、尺度差距大(样例2)、背景复杂度高(样例3)及在有道路下的建筑物(样例4)做到了很好的识别效果,尤其对于小型建筑物的检测效果良好。

4.3.2 评价指标

本文采用平均检测精度(mAp)、召回率(recall)、平均检测时间(time)作为检测评价指标。其中精度和召回率分别定义为:

以遥感建筑物为例,TP、FP分别表示检测模型将建筑物检测正确与错误的数量,FN表示误检的数量。召回率(recall)表示能够正确识别建筑物的概率;precision表示已识别为建筑物的检测精度,对precision 取平均值,以平均检测精度(mAp)作为评价指标;time 表示平均每张检测时间。

4.3.3 本文网络模型效率对比分析

本文针对遥感图像中的小型建筑物展开研究,选取建筑物排列密集(a组)和相对尺寸差距大(b组)两种场景做对比分析,经过本文网络模型(Article method)与原Yolo v3算法检测结果对比如图6所示。

图6 检测结果对比

对比实验结果可以看出,a 组的小型目标建筑物排列密集,b组目标建筑物尺度差距相对较大。原Yolo v3算法对小型建筑物(a1、b1)的检测效果表现不好,在场景a1中右方排列密集的小型建筑物和在场景b1中下方的小型建筑物都出现了漏检;本文网络结构(Article method)的检测结果(a2、b2)很好地实现了小型目标建筑物的检测,在排列密集和相对尺度大的两种场景中都能对小型建筑物做到了很好的检测效果,且对于相同目标的检测,本文改进的网络结构相比原Yolo v3算法的检测精度也有提高。

基于深度学习的目标检测算法分为基于区域的目标检测算法和基于端到端的目标检测算法。Yolo v3算法是一种基于端到端的检测算法,为验证本文改进网络的优越性,故与主流算法进行对比分析。因此,本文设计实验:以本文自制遥感建筑物数据集为实验数据集,200 张作为测试集,通过本文改进网络结构(Article method)与原 Yolo v3 算法、同样基于端到端的 SSD 算法及基于区域的Faster RCNN 算法在平均检测精度(mAp)、平均每张检测时间(time)及召回率(recall)等方面做效率比较,效率分析如表2所示。

表2 效率分析算法mAp/%time/srecall/%Yolo .84 Faster .33 Article

从实验结果可以看出,在平均检测精度(mAp)方面,原Yolo v3 算法的平均精度为85.94%,SSD 算法的平均精度为80.49%,Faster RCNN 算法的平均精度为93.81%,本文改进网络结构(Article method)平均精度为 91.29%,比 Faster RCNN 算法略低,较原Yolo v3 算法和SSD 算法提高了5.35%和10.8%;而在检测时间(time)方面,原Yolo v3算法的检测时间为0.041 s,SSD算法的检测时间为0.253 s,Faster RCNN算法的检测时间为2.37 s,本文改进网络结构(Article method)的检测时间为0.042 s,仅比原Yolo v3 算法的检测时间多0.001 s,较SSD算法和Faster RCNN算法快了0.211 s和2.328 s,很好地满足了实时性;在召回率(recall)方面,原Yolo v3 算法的召回率为93.27%,SSD 算法的召回率为90.84%,Faster RCNN 算法的召回率为97.33%,本文改进网络结构(Article method)的召回率为95.61%,比Faster RCNN 算法略低,较原 Yolo v3 算法及 SSD 算法提高了2.34%和4.77%。

故本文改进网络结构(Article method)在保持了原算法速度优势的基础上,提高了平均检测精度和召回率,所以本文提出的基于Yolo v3的改进网络模型对遥感建筑物检测效果更好。

5 结束语

本文针对遥感建筑物的检测,对小型建筑物检测难度大的问题进行研究,提出了基于深度学习的Yolo v3改进算法,以修改特征图分辨率、调整先验框维度为方向得到一种适合遥感建筑物检测的网络模型,加强了对小型建筑物的检测能力。实验结果表明,本文提出的方法在满足了实时性的基础上,有效解决了遥感图像中固定地物建筑物检测过程中存在的小型建筑物检测难度大的问题。接下来将针对遥感图像中移动地物做研究。

文章来源:《遥感学报》 网址: http://www.ygxbzz.cn/qikandaodu/2021/0307/545.html



上一篇:遥感中心开展遥感天地沙龙活动
下一篇:基于极化分解和集成学习的影像分类

遥感学报投稿 | 遥感学报编辑部| 遥感学报版面费 | 遥感学报论文发表 | 遥感学报最新目录
Copyright © 2018 《遥感学报》杂志社 版权所有
投稿电话: 投稿邮箱: