- · 《遥感学报》栏目设置[09/01]
- · 《遥感学报》数据库收录[09/01]
- · 《遥感学报》投稿方式[09/01]
- · 《遥感学报》征稿要求[09/01]
- · 《遥感学报》刊物宗旨[09/01]
改进网络的光学遥感图像云去除方法(8)
作者:网站采编关键词:
摘要:图1 改进CGAN模型结构Fig.1 Structure of improved CGAN model 1.3.2 判别器 判别器的输入为图像对,图像对是指将无云图像与有云图像通过contact操作进行拼接后得到的
图1 改进CGAN模型结构Fig.1 Structure of improved CGAN model
1.3.2 判别器
判别器的输入为图像对,图像对是指将无云图像与有云图像通过contact操作进行拼接后得到的结果。其中,无云图像可以是真实图像也可以是生成图像。判别器的输出为输入的无云图像是真实图像的概率值。当判别器认定无云图像为真实图像时输出为1,反之,当判别器认定无云图像为生成图像时输出为0。
网络总共5层,其中前4层是下采样层,最后1层为判别层。图像对输入网络后先通过连续的下采样层进行特征提取,下采样层中的卷积核大小均为4×4,步幅均为2,为防止使用梯度下降法更新参数时出现梯度消失的情况[24],对下采样层的卷积操作进行批量归一化处理,并使用LReLU激活函数进行非线性映射。每经过一个下采样层,图像的长宽就减少为原来的一半。最后在判别层使用Sigmoid函数输出每个像素为真的概率,并使用交叉熵计算得到最终损失。
1.3.3 损失函数设计
无云光学遥感图像的生成在本质上是一个回归问题。为有效提升网络的性能,改进CGAN模型的损失函数在原对抗损失的基础上加入了回归损失项,具体计算如式(2)所示
(2)
式中L代表改进CGAN模型的损失;LCGAN(D,G)为对抗损失;LL1为回归损失。对抗损失项用于提升判决器和生成器的准确率,回归损失项用于提升生成的去云光学遥感图像与真实的无云光学遥感图像的相似性。λ为固定常数,表示对抗损失和回归损失的比重,调整λ的大小可以得到不同的训练结果,通过比较分析,本研究试验中的参数λ选100。
对抗损失采用的是交叉熵损失,计算方法如式(3)所示。
(3)
式中i表示输入的有云光学遥感图像,t表示真实的无云光学遥感图像,D(i,t)表示判别器判别输入为有云光学遥感图像与真实的无云光学遥感图像对的概率,D(i,G(i))表示判别器判别输入为有云光学遥感图像与生成的无云光学遥感图像对的概率。
回归损失主要有L1损失和L2损失2种。其中,L1损失被称为最小绝对值偏差(Least Absolute Deviations, LAD)或最小绝对值误差(Least Absolute Error, LAE),用于计算目标值与预测值之间绝对差值的总和。L2损失被称为最小平方误差(Least Square Error, LSE),用于计算目标值与预测值之间差值的平方和。相较于L1损失,L2损失对异常点更为敏感,会赋予异常点更大的损失值和梯度,容易造成训练的不稳定和发散。因此本研究中的网络选择鲁棒性更好的L1损失作为回归损失,其数学表达如式(4)所示。
(4)
式中i表示输入的有云光学遥感图像,t表示真实的无云光学遥感图像,G(i)表示生成的无云光学遥感图像,||t – G(i)||1表示真实的无云光学遥感图像与生成的无云光学遥感图像的绝对差值,网络的训练优化过程可以表示为不断减小LL1的过程。
1.4 模型训练
改进CGAN模型的训练在Tensorflow框架下进行,训练采用生成器和判别器交替训练的方式,具体操作如下:
1)初始化生成器和判别器2个网络的参数;
2)将RICE数据集加载到模型中,利用生成器生成无云的光学遥感图像,然后将生成器的参数固定,训练判别器的参数;
3)每当判别器的参数更新5次时,生成器的参数更新1次;
4)经过多次迭代更新,当判别器无法区分输入的无云光学遥感图像来源于真实数据还是生成器时完成训练,此时判别器对所有输入图像的判别概率为0.5。
模型的整个训练使用Adam优化算法对网络的参数进行学习,学习率设置为0.000 2,动量(momentum)设置为0.5,训练的批处理大小(batch size)设置为1,最大训练次数为200个epoch(全部训练数据完成1次运算),测试间隔为1个epoch。
1.5 评价指标
为了客观、定量分析光学遥感图像的去云效果,本研究采用峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)和结构相似性(Structural SIMilarity,SSIM)2种图像质量评价指标进行评估。其中,PSNR通过比较两幅图像对应像素点之间像素值的误差对图像进行评估,单位是 dB,PSNR值越高,说明失真越小,效果越好。计算如式(5)所示。
(5)
式中p和q分别表示原始图像和处理后图像的像素值,H和W分别表示图像的长和宽。
SSIM从亮度、对比度和结构3个方面度量图像之间的相似性。与PSNR相比,SSIM更贴近于人眼的感受。SSIM值越接近1,处理后的图像与原始图像的亮度、对比度和结构越相似。计算公式如公式(6)所示。
文章来源:《遥感学报》 网址: http://www.ygxbzz.cn/qikandaodu/2021/0307/548.html