• 工作总结
  • 工作计划
  • 心得体会
  • 述职报告
  • 事迹材料
  • 申请书
  • 作文大全
  • 读后感
  • 调查报告
  • 励志歌曲
  • 请假条
  • 创先争优
  • 毕业实习
  • 财神节
  • 高中主题
  • 小学一年
  • 名人名言
  • 财务工作
  • 小说/有
  • 承揽合同
  • 寒假计划
  • 外贸信函
  • 励志电影
  • 个人写作
  • 其它相关
  • 生活常识
  • 安全稳定
  • 心情短语
  • 爱情短信
  • 工会工作
  • 小学五年
  • 金融类工
  • 搞笑短信
  • 医务工作
  • 党团工作
  • 党校学习
  • 学习体会
  • 下半年工
  • 买卖合同
  • qq空间
  • 食品广告
  • 办公室工
  • 保险合同
  • 儿童英语
  • 软件下载
  • 广告合同
  • 服装广告
  • 学生会工
  • 文明礼仪
  • 农村工作
  • 人大政协
  • 创意广告
  • 您现在的位置:六七范文网 > 其它相关 > 正文

    一种新的基于深度学习的遥感影像变化检测算法——H-BIT方法的提出与应用

    来源:六七范文网 时间:2023-05-13 23:30:06 点击:

    傅绘锦

    (1.武汉大学 遥感信息工程学院,湖北 武汉 430079)

    利用遥感影像动态掌握国土资源变化,可为国家提供地理国情信息决策支撑。传统人工变化检测对高分辨率卫星遥感图像的特征刻画能力较差,且工作量巨大,而基于深度学习的解译方法可自动分析变化信息,但如何提升检测效率和准确性仍是业界重要讨论的主题。变化检测主要分为两步,即先进行图像内的目标提取,再计算图像间的信息差,因此高效正确的目标提取对后续信息差计算影响很大。

    在深度学习普及前,传统方法根据像素阈值、颜色等信息进行目标提取,如袁敏[1]等利用最大流、最小割函数进行图像分割,但无法消除遥感影像中“同物异谱、同谱异物”的影响;
    肖明虹[2]等提出的超像素协同分割变化检测方法有效克服了椒盐噪声,但忽略了像素块之间的关系,检测效果不理想。随着深度学习的快速发展,变化检测方法得到了相关算法的支持与改进,如LYU H[3]等利用卷积神经网络提取遥感影像抽象特征,但只重点关注了高维语义信息,重要边界细节易丢失;
    GONG M[4]等利用分类图获取训练样本,通过深度学习训练得到变化检测图,但特征提取较少,预分类结果缺少空间结构信息。业界提出利用语义分割提取目标的方法,语义分割网络形成两大流派:①以SVM、UNet为代表的下采样后复原方法,如孙红岩[5]提出的SVM与多特征融合的方法,该方法受噪声影响较大,在特征图分辨率缩小的过程中仍有空间信息流失;
    ②以DeepLab为代表的保持特征高分辨率的方法,如赵祥[6]等提出的改进的DeepLab3+孪生网络,计算繁杂、效率不高。相较于传统目视方法,深度学习降低了检测成本,但目前只有少数研究关注到保持高空间语义信息对模型性能的影响,为了做出改进,SUN K[7]等在研究人类姿势时提出了一种并行结构网络HRNet,不同于传统语义分割网络,其通常基于从高到低的编码器提取特征图,使特征提取同时拥有高分辨率和高语义,能保留重要的形状和边界细节。受上述研究启发,本文以CHEN H[8]等提出的BIT-CD框架为基础,设计了一种基于HRNet方法的H-BIT遥感影像变化检测方法,通过HRNet融合高分辨率和高语义信息,Transformer整合特征向量与语义特征输出强化特征,最后生成二值变化结果;
    并在LEVIR-CD数据集上进行了对比实验,验证了本文方法的有效性和鲁棒性,还通过消融实验获取了最佳模型。

    1.1 网络结构

    H-BIT变化检测网络结构如图1所示,由HRNet-V2特征提取主网络、双时态图像自注意力变换网络Transformer和差异计算预测Predction Head三个模块组成。

    图1 H-BIT变化检测网络结构

    1.1.1 HRNet-V2特征提取主网络

    受HRNet[7]启发,本文采用多分辨率并行的HRNet-V2网络,对不同分辨率的特征图进行提取后再跨分辨率融合,从而解决传统串联网络提取语义高维信息时高分辨率空间信息被压缩、对小尺度目标特征提取能力有限的问题,保证在高分辨率特征图下较精确完整的空间位置信息,对位置敏感的语义分割任务友好。

    如图2所示,HRNet-V2网络对图像特征进行并行提取,特征单元块通过下采样使语义聚合、上采样恢复高分辨率,再通过层间融合得到一代特征图X i,即可在提取高维语义信息的同时,保留高分辨率特征。

    图2 HRNet-V2特征提取主网络结构

    1.1.2 双时态图像自注意力变换网络Transformer

    Transformer主要包括词元分析器、编码器和解码器,用于处理一代特征图。如图3所示,词元分析器可将HRNet-V2输出的一代特征图转换为词元,类似自然语言处理,将语句切分后用词元去表达,CHEN H[8]等设计了孪生形的词元集,将X1、X2两幅特征图送入同一个词元分析器网络分别进行卷积操作,将提取的特征图也分为A1、A2两套子图,并分别映射为T1、T2两套词元集。为了汇聚空间层面上的信息,本文利用Woo S[9]等提出的Convolutional Block Attention Module中的空间注意力模块来压缩通道,得到语义丰富的紧凑词元。

    图3 词元分析器结构

    编码器与Dosovitskiy A[10]等提出的ViT相似,但本文模块更小,注意力模块只堆叠了4次。如图4所示,将Transformer输出的两套词元集T1、T2串联成为一个词元集后进行编码、范数计算,得到Query、Key和Value。多头自我注意力机制模块并行处理,串联后计算范数,送入多层感知机模块。多头自我注意力机制利用不同位置的多种子图信息表达,拥有异源信息共同作用的优势。多层感知机模块则通过GELU激活函数[11]连接两个线性转换层构成,最终将输出的词元集切片还原为富含高级语义信息的词元集

    解码器采用孪生网络形式,结合词元信息对原始特征进行改进。为了将编码器得到的富语义词元集重投影到像素空间,解码器利用原始影像特征向量X1、X2每个像素与富语义词元集之间的关系,得到优化后的特征向量如图4所示,解码器由多头交叉注意力模块和多层感知机模块组成,不同于Siamese解码器[12],利用多头交叉注意力模块代替原始多头自我注意力模块,可有效避免像素间富连接造成的不良影响,此时Query、Key和Value分别来自不同的输入序列,即Query来自一代特征图,Key和Value来自富语义词元集。

    图4 编码器与解码器结构

    1.1.3 差异计算预测Predction Head

    在最后的预测模块,Prediction Head对改进后得到的两幅特征图作差再取绝对值得到差异特征张量,利用FCN的思想,在分类器中通过两个卷积核大小为3×3的卷积层,得到最终预测输出的二值变化图。

    1.2 损失函数

    在训练阶段,为优化网络参数,选择最大程度降低交叉熵损失L,计算公式为:

    式中,l(P hw,y)=-log(Phwy)为交叉熵损失函数;
    Y hw为位于(h,w)上像素的标签。

    1.3 网络训练

    本文在PyTorch上实现了H-BIT方法。训练时采用动量梯度随机下降(SGD)优化器,动量设置为0.99,权重衰减设置为5×10-4,学习率最大值max_lr=0.01,并在前30%的迭代轮次中进行学习率预热,从0缓慢上升到max_lr,再随迭代轮次逐步衰减到max_lr/75。每轮训练后对模型进行验证,验证集中的最佳模型用于测试集预测。实验在武汉大学超级计算中心的GPU服务器上完成模型训练,具体硬件配置为两块Intel(R)Xeon(R)E5-2640 v4 x86_64、24 GHz、20核心,4块Nvidia Tesla V100 16GB和128GB DDR4 2 400 MHz ECC,共迭代100轮,训练635幅遥感影像数据。模型每迭代一轮大约需要花费5 min。

    2.1 数据集

    LEVIR-CD数据集源于北航LEVIR团队的公开论文[8],包含637对由航拍器采集的遥感影像对,时间跨度为5~14 a,每幅图像由近红外、红色和绿色3个波段组成,大小均为1 024像素×1 024像素,影像分辨率为0.5 m,共有31 333个变化建筑实例作为数据集的变化信息,平均变化大小为987像素。由于GPU内存限制,将图像切成256×256的无重叠小尺寸图像块,按照训练集、验证集、测试集的划分,分别得到7 120对训练图像块、1 024对验证图像块和2 048对测试图像块。

    2.2 评价指标

    鉴于遥感影像变化检测可看作像素点的二分类问题,本文的评价指标选取机器学习统计学中用以衡量二分类模型精确度的F1得分(可兼顾分类模型的精确率和召回率)、精确率(precision)、召回度(recall)、交并比(IoU)、总体精度(OA)。

    TP表示将正类预测为正类,FP表示将负类预测为正类,TN表示将负类预测为负类,FN表示将正类预测为负类,构成变化检测混淆矩阵如表1所示。

    表1 变化检测混淆矩阵

    2.3 实验结果

    利用训练好的模型对测试集进行端对端的输出预测;
    在LEVIR-CD数据集上,将H-BIT方法与原始BIT方法进行比较实验,数据集和实验环境均相同。定量和定性结果如表2和图5所示,可以看出,H-BIT方法各项指标均优于原始BIT方法,说明H-BIT方法能有效提升模型变化检测精度;
    两种方法均能识别检测目标的变化,但H-BIT方法效果更好。图5中白色代表建筑变化,黑色代表未变化,黄色标记圈出了H-BIT方法的优点,与标准变化标签图相比,原始BIT方法存在错检、漏检现象,大型变化建筑检测结果结构丢失、部分内部有较大空洞,小型变化建筑检测结果边界模糊、形态缺陷;
    而H-BIT方法在复杂背景下也表现优越,建筑边界更平滑,去除了噪点影响,能完整提取目标、有效区分变化像素与伪变化像素,极少出现错检、漏检现象,对于不同尺度目标的提取均能发挥较好的效果,因此在定性结果上,H-BIT方法也优于原始BIT方法。

    表2 H-BIT与BIT方法的精度对比/%

    图5 H-BIT方法与原始BIT方法检测结果对比

    2.4 消融实验

    为了获得性能最优的H-BIT模型,本文控制一些参数的设置,仍采用F1得分、precision、recall、IoU和OA五个评价指标,通过调整学习率预热所占总体训练轮次的比例和Token_length,获得一个较稳定的模型。本文分别在预热比例为0.3、0.5、0.7和Token_length为4、6的情况下训练模型,具体结果如表3所示,可以看出,模型在预热比例为0.3和Token_length为6时的表现较好;
    预热比例为0.5和0.7时,虽然模型训练经过预热已经稳定,但剩下较少的训练轮次,模型无法取得足够的训练条件;
    模型在Token_length为6时,更加符合数据集语义信息,因此学习率预热比例为0.3,Token_length为6的H-BIT模型在LEVIR-CD上表现最优。

    表3 消融实验结果统计

    本文将遥感影像变化检测视为目标提取与差异计算两大块,基于BIT变化检测框架提出了一种改进后以HRNet为目标提取主干网络的H-BIT模型;
    在公开的遥感影像变化检测数据集LEVIR-CD上进行训练与测试;
    并与原始BIT模型进行定性和定量的测试对比。同时,为了获得性能最优的模型,本文对H-BIT模型进行了参数消融实验,结果表明:

    1)以HRNet为目标提取的主干网络,在很大程度上降低了错检漏、检概率,提高了变化检测精度。H-BIT方法的precision、recall、F1得分和OA分别达到了86.95%、90.24%、87.93%和96.62%,较原始BIT方法分别提高了11.02%、10.22%、10.86%和3.95%。HRNet有利于目标边界的平滑处理,对于背景与目标模糊的影像也能完整提取出目标。

    2)不同于原始卷积神经网络降低分辨率的做法,经HRNet网络提取的特征图像融合了高分辨率和高语义信息两大优势,高分辨率有利于后续差异计算,对小目标的变化也很敏感,即使影像复杂,存在多种尺度目标,H-BIT方法也能表现出较高的变化检测性能。

    3)相较于原始方法,H-BIT方法的参数数量和计算量更少,训练速度更快,拥有时间优势。

    本文提出的基于HRNet的H-BIT模型仍存在一些不足,如训练样本变化检测目标种类单一等,下一步将获取拥有不同种类目标的数据进行检测,以进一步提高该方法的目标可拓展性。

    猜你喜欢 变化检测语义像素 用于遥感图像变化检测的全尺度特征聚合网络北京航空航天大学学报(2022年8期)2022-08-31像素前线之“幻影”2000小哥白尼(军事科学)(2022年2期)2022-05-25基于多尺度纹理特征的SAR影像变化检测河北地质(2021年1期)2021-07-21语言与语义开放教育研究(2020年2期)2020-03-31“像素”仙人掌红领巾·萌芽(2019年8期)2019-08-27基于稀疏表示的视网膜图像对变化检测中国生物医学工程学报(2019年5期)2019-07-16基于Landsat影像的黄丰桥林场森林变化检测研究中南林业科技大学学报(2017年12期)2017-12-19ÉVOLUTIONDIGAE Style de vie tactile中国与非洲(法文版)(2017年10期)2017-11-23“社会”一词的语义流动与新陈代谢中国社会历史评论(2016年2期)2016-06-27“上”与“下”语义的不对称性及其认知阐释现代语文(2016年21期)2016-05-25

    推荐访问:遥感 算法 深度