投稿指南
来稿应自觉遵守国家有关著作权法律法规,不得侵犯他人版权或其他权利,如果出现问题作者文责自负,而且本刊将依法追究侵权行为给本刊造成的损失责任。本刊对录用稿有修改、删节权。经本刊通知进行修改的稿件或被采用的稿件,作者必须保证本刊的独立发表权。 一、投稿方式: 1、 请从 我刊官网 直接投稿 。 2、 请 从我编辑部编辑的推广链接进入我刊投审稿系统进行投稿。 二、稿件著作权: 1、 投稿人保证其向我刊所投之作品是其本人或与他人合作创作之成果,或对所投作品拥有合法的著作权,无第三人对其作品提出可成立之权利主张。 2、 投稿人保证向我刊所投之稿件,尚未在任何媒体上发表。 3、 投稿人保证其作品不含有违反宪法、法律及损害社会公共利益之内容。 4、 投稿人向我刊所投之作品不得同时向第三方投送,即不允许一稿多投。 5、 投稿人授予我刊享有作品专有使用权的方式包括但不限于:通过网络向公众传播、复制、摘编、表演、播放、展览、发行、摄制电影、电视、录像制品、录制录音制品、制作数字化制品、改编、翻译、注释、编辑,以及出版、许可其他媒体、网站及单位转载、摘编、播放、录制、翻译、注释、编辑、改编、摄制。 6、 第5条所述之网络是指通过我刊官网。 7、 投稿人委托我刊声明,未经我方许可,任何网站、媒体、组织不得转载、摘编其作品。

改进网络的光学遥感图像云去除方法(3)

来源:遥感学报 【在线投稿】 栏目:期刊导读 时间:2021-03-07
作者:网站采编
关键词:
摘要:1.3.3 损失函数设计 无云光学遥感图像的生成在本质上是一个回归问题。为有效提升网络的性能,改进CGAN模型的损失函数在原对抗损失的基础上加入了回归

1.3.3 损失函数设计

无云光学遥感图像的生成在本质上是一个回归问题。为有效提升网络的性能,改进CGAN模型的损失函数在原对抗损失的基础上加入了回归损失项,具体计算如式(2)所示

(2)

式中L代表改进CGAN模型的损失;LCGAN(D,G)为对抗损失;LL1为回归损失。对抗损失项用于提升判决器和生成器的准确率,回归损失项用于提升生成的去云光学遥感图像与真实的无云光学遥感图像的相似性。λ为固定常数,表示对抗损失和回归损失的比重,调整λ的大小可以得到不同的训练结果,通过比较分析,本研究试验中的参数λ选100。

对抗损失采用的是交叉熵损失,计算方法如式(3)所示。

(3)

式中i表示输入的有云光学遥感图像,t表示真实的无云光学遥感图像,D(i, t)表示判别器判别输入为有云光学遥感图像与真实的无云光学遥感图像对的概率,D(i,G(i))表示判别器判别输入为有云光学遥感图像与生成的无云光学遥感图像对的概率。

回归损失主要有L1损失和L2损失2种。其中,L1损失被称为最小绝对值偏差(Least Absolute Deviations, LAD)或最小绝对值误差(Least Absolute Error, LAE),用于计算目标值与预测值之间绝对差值的总和。L2损失被称为最小平方误差(Least Square Error, LSE),用于计算目标值与预测值之间差值的平方和。相较于L1损失,L2损失对异常点更为敏感,会赋予异常点更大的损失值和梯度,容易造成训练的不稳定和发散。因此本研究中的网络选择鲁棒性更好的L1损失作为回归损失,其数学表达如式(4)所示。

(4)

式中i表示输入的有云光学遥感图像,t表示真实的无云光学遥感图像,G(i)表示生成的无云光学遥感图像,||t – G(i)||1表示真实的无云光学遥感图像与生成的无云光学遥感图像的绝对差值,网络的训练优化过程可以表示为不断减小LL1的过程。

1.4 模型训练

改进CGAN模型的训练在Tensorflow框架下进行,训练采用生成器和判别器交替训练的方式,具体操作如下:

1)初始化生成器和判别器2个网络的参数;

2)将RICE数据集加载到模型中,利用生成器生成无云的光学遥感图像,然后将生成器的参数固定,训练判别器的参数;

3)每当判别器的参数更新5次时,生成器的参数更新1次;

4)经过多次迭代更新,当判别器无法区分输入的无云光学遥感图像来源于真实数据还是生成器时完成训练,此时判别器对所有输入图像的判别概率为0.5。

模型的整个训练使用Adam优化算法对网络的参数进行学习,学习率设置为0.000 2,动量(momentum)设置为0.5,训练的批处理大小(batch size)设置为1,最大训练次数为200个epoch(全部训练数据完成1次运算),测试间隔为1个epoch。

1.5 评价指标

为了客观、定量分析光学遥感图像的去云效果,本研究采用峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)和结构相似性(Structural SIMilarity,SSIM)2种图像质量评价指标进行评估。其中,PSNR通过比较两幅图像对应像素点之间像素值的误差对图像进行评估,单位是 dB,PSNR值越高,说明失真越小,效果越好。计算如式(5)所示。

(5)

式中p和q分别表示原始图像和处理后图像的像素值,H和W分别表示图像的长和宽。

SSIM从亮度、对比度和结构3个方面度量图像之间的相似性。与PSNR相比,SSIM更贴近于人眼的感受。SSIM值越接近1,处理后的图像与原始图像的亮度、对比度和结构越相似。计算公式如公式(6)所示。

(6)

式中μp、μq分别表示p和q的平均值,σp、σq分别表示p和q的标准差,σpq表示p和q的协方差,C1和C2为常数。

2 试验数据集

试验数据来自网络公开数据集:RICE数据集,该数据集是Lin等[25]专门为训练深度学习方法处理去云问题制备的光学遥感图像集,由RICE1和RICE2子数据集构成。其中,RICE1是薄云图像集,包含从Google Earth上收集的500组(共计1000张)图像,每组图像包含2个大小为512×512的图像,分别是有云光学遥感图像和无云光学遥感图像;RICE2是厚云图像集,包含736组(共计2 208张)图像,每组图像包含3个大小为512×512的图像,分别是有云光学遥感图像、无云光学遥感图像和云层遮罩图像。本研究对RICE2数据集进行试验时仅使用其中的有云光学遥感图像和无云光学遥感图像,RICE2数据集中包含的有云光学遥感图像取自landsat8数据集,选取经过辐射校正的全分辨率LandsatLook level-1产品,是由landsat8 OLI传感器的波段4(red)、3(green)、2(blue)合成的自然真彩色图像,无云光学遥感数据是手动获取的相同位置的无云图像,与有云光学遥感图像的获取时间间隔小于15 d。试验时RICE1数据集中的500组图像按照4∶1的比例划分训练集与测试集,RICE2数据集中包含736组图像,无法按照4:1的比例进行划分,因此根据实际情况对划分比例做出调整,按照5∶3的比例划分训练集与测试集。

文章来源:《遥感学报》 网址: http://www.ygxbzz.cn/qikandaodu/2021/0307/548.html



上一篇:项目驱动式教学法在遥感实验课程在线教学中的
下一篇:基于多源遥感的聊城市绿地空间特征研究

遥感学报投稿 | 遥感学报编辑部| 遥感学报版面费 | 遥感学报论文发表 | 遥感学报最新目录
Copyright © 2018 《遥感学报》杂志社 版权所有
投稿电话: 投稿邮箱: