- · 《遥感学报》栏目设置[09/01]
- · 《遥感学报》数据库收录[09/01]
- · 《遥感学报》投稿方式[09/01]
- · 《遥感学报》征稿要求[09/01]
- · 《遥感学报》刊物宗旨[09/01]
改进网络的光学遥感图像云去除方法(9)
作者:网站采编关键词:
摘要:(6) 式中μp、μq分别表示p和q的平均值,σp、σq分别表示p和q的标准差,σpq表示p和q的协方差,C1和C2为常数。 2 试验数据集 试验数据来自网络公开数据集
(6)
式中μp、μq分别表示p和q的平均值,σp、σq分别表示p和q的标准差,σpq表示p和q的协方差,C1和C2为常数。
2 试验数据集
试验数据来自网络公开数据集:RICE数据集,该数据集是Lin等[25]专门为训练深度学习方法处理去云问题制备的光学遥感图像集,由RICE1和RICE2子数据集构成。其中,RICE1是薄云图像集,包含从Google Earth上收集的500组(共计1000张)图像,每组图像包含2个大小为512×512的图像,分别是有云光学遥感图像和无云光学遥感图像;RICE2是厚云图像集,包含736组(共计2 208张)图像,每组图像包含3个大小为512×512的图像,分别是有云光学遥感图像、无云光学遥感图像和云层遮罩图像。本研究对RICE2数据集进行试验时仅使用其中的有云光学遥感图像和无云光学遥感图像,RICE2数据集中包含的有云光学遥感图像取自landsat8数据集,选取经过辐射校正的全分辨率LandsatLook level-1产品,是由landsat8 OLI传感器的波段4(red)、3(green)、2(blue)合成的自然真彩色图像,无云光学遥感数据是手动获取的相同位置的无云图像,与有云光学遥感图像的获取时间间隔小于15 d。试验时RICE1数据集中的500组图像按照4∶1的比例划分训练集与测试集,RICE2数据集中包含736组图像,无法按照4:1的比例进行划分,因此根据实际情况对划分比例做出调整,按照5∶3的比例划分训练集与测试集。
3 结果与分析
为验证本研究提出的改进CGAN模型的有效性,在选用的RICE数据集上进行了对比试验。首先分析改进CGAN模型中优化的生成器网络结构和复合损失函数对模型性能的影响;然后对比改进CGAN模型、原始CGAN模型、传统的光学遥感图像去云方法以及深度学习方法的去云效果。试验过程中传统的光学遥感图像去云方法均在Matlab软件中实现,本文研究方法、原始CGAN模型以及深度学习方法均采用python语言在Tensorflow框架下进行网络训练。
3.1 生成器网络结构优化对模型性能影响
本研究的生成器采用带有空间金字塔池化结构网络结构,相较于原始CGAN网络模型所使用的Unet结构,在增加网络深度和宽度的同时增强了网络的多尺度特征提取能力。图2和图3分别为改进网络结构与原始网络结构去除薄云和厚云的质量评估对比图。
从图2的结果中可知,在迭代次数较小(<50)的情况下使用本研究的生成器结构与Unet结构进行薄云去除的效果差别不大,但随着迭代次数的增加,使用本研究生成器结构得到的PSNR值和SSIM值均高于使用Unet结构。迭代次数为200(全部训练完成)时, Unet结构得到的PSNR值为37.40 dB,SSIM值为0.95。而本研究生成器结构得到的PSNR值为37.91 dB,SSIM值为0.97,比前者PSNR值提高0.51 dB,SSIM值提高0.02。
从图3的结果中可知,针对厚云去除效果,迭代次数为200时,使用Unet结构得到的PSNR值为29.91 dB,SSIM值为0.93,本研究生成器结构得到的PSNR值为34.33 dB,SSIM值为0.96,比前者PSNR值提高4.42 dB,SSIM值提高了0.03。
注:PSNR为峰值信噪比;SSIM为结构相似性。下同。Note: PSNR: Peak Signal-to-Noise Ratio; SSIM: Structural SIMilarity. Same below.图2 改进网络对去除薄云的效果影响Fig. 2 Effects of improved network on thin cloud removal
图3 改进网络对去除厚云的效果影响Fig. 3 Effects of improved network on thick cloud removal
综合分析薄云和厚云去除效果可知,相较于使用Unet结构,使用本研究结构可以得到更高的PSNR值与SSIM值,生成的无云光学遥感图像质量也相对更好。
3.2 损失函数优化对模型性能影响
为了生成更高质量的无云光学遥感图像,本研究使用了对抗损失和回归损失相结合的复合损失函数。在RICE数据集上对其有效性进行验证,从表1的去云质量评估结果中可以看出,本研究使用的复合损失函数在PSNR和SSIM上均有提升,在薄云和厚云上PSNR值分别提升0.66和1.32 dB,SSIM值分别提升0.01和0.04。
表1 不同损失函数的去云质量评估结果Table. 1 Assessment of cloud removal quality with different losses损失函数Loss function薄云Thin cloud厚云Thick cloud PSNR/dBSSIMPSNR/dBSSIM LCGAN +
不同地形的光学遥感图像在不同损失下的去云效果如图4所示,相较于单独使用对抗损失函数,加入了L1回归损失的复合损失函数生成的无云光学遥感图像在图像的亮度、对比度和颜色方面恢复的更好,去云区域中地物的细节信息也更为清晰,这是因为复合损失函数可以使模型更为准确的学习到有云和无云光学遥感图像像素间的映射关系。在平原,使用对抗损失函数的PSNR值和SSIM值分别为23.32 dB和0.83,而复合损失函数分别为24.75 dB和0.84。在裸地,使用对抗损失函数的PSNR值和SSIM值分别为24.63 dB和0.91,而复合损失函数分别为30.00 dB和0.91。二者的SSIM值虽然相似,但是使用复合损失函数生成的无云光学遥感图像具有更大的PSNR值,PSNR值越大,说明处理后的图像与真实图像之间每个像素点的像素值越接近,图像的失真越小。图像质量更高。
文章来源:《遥感学报》 网址: http://www.ygxbzz.cn/qikandaodu/2021/0307/548.html