基于Shearlet变换的SAR与多光谱遥感影像融合

邰建豪, 潘斌, 赵珊珊, 赵园

邰建豪, 潘斌, 赵珊珊, 赵园. 基于Shearlet变换的SAR与多光谱遥感影像融合[J]. 武汉大学学报 ( 信息科学版), 2017, 42(4): 468-474. DOI: 10.13203/j.whugis20150768
引用本文: 邰建豪, 潘斌, 赵珊珊, 赵园. 基于Shearlet变换的SAR与多光谱遥感影像融合[J]. 武汉大学学报 ( 信息科学版), 2017, 42(4): 468-474. DOI: 10.13203/j.whugis20150768
TAI Jianhao, PAN Bin, ZHAO Shanshan, ZHAO Yuan. SAR and Multispectral Remote Sensing Image Fusion Method Using Shearlet Transform[J]. Geomatics and Information Science of Wuhan University, 2017, 42(4): 468-474. DOI: 10.13203/j.whugis20150768
Citation: TAI Jianhao, PAN Bin, ZHAO Shanshan, ZHAO Yuan. SAR and Multispectral Remote Sensing Image Fusion Method Using Shearlet Transform[J]. Geomatics and Information Science of Wuhan University, 2017, 42(4): 468-474. DOI: 10.13203/j.whugis20150768

基于Shearlet变换的SAR与多光谱遥感影像融合

基金项目: 

国家973计划 No. 2012CB719901

详细信息
    作者简介:

    邰建豪,博士生,主要从事多源遥感影像融合以及SAR影像特征提取方法的研究。taijianhao@whu.edu.cn

    通讯作者:

    潘斌,博士,教授。 E-mail:panbin@whu.edu.cn

  • 中图分类号: P237

SAR and Multispectral Remote Sensing Image Fusion Method Using Shearlet Transform

Funds: 

The National Key Basic Research Program of China (973 Program) No. 2012CB719901

More Information
    Author Bio:

    TAI Jianhao, PhD, specializes in multisource remote sensing image fusion and SAR image feature extraction. E-mail:taijianhao@whu.edu.cn

    Corresponding author:

    PAN Bin, PhD, professor. E-mail:panbin@whu.edu.cn

  • 摘要: 针对合成孔径雷达(SAR)影像和多光谱遥感影像在融合时空间特征和光谱特征方面不能同时得到较大改善的问题,提出了一种基于成像特性的Shearlet变换域下的多源遥感影像融合方法。利用Shearlet变换的多方向和多尺度分解特性,将多光谱影像和SAR影像分别分解为高频和低频系数,从影像区域能量特征和区域相关性入手,设计了基于区域能量的低频系数融合规则和改进型的脉冲耦合神经网络的高频系数融合规则,使融合结果能够包含更多空间细节信息和光谱信息。利用TerraSAR-X、Landsat5-TM影像进行实验,结果表明该方法在提高影像空间细节表达能力的同时能够较好地融合更多的光谱信息。与小波变换、非下采样轮廓波变换(Nonsubsampled contourlet Transform,NSCT)等方法相比,该方法在空间信息保有量和光谱信息保有量方面都有明显的提升,其中交叉熵有接近100%的提升幅度,互相关系数有高于25%的提升幅度,光谱扭曲度有优于40%的提升幅度。
    Abstract: In terms of conventional methods for SAR image and multispectral image fusion can't integrate and reserve good spectral information and spatial resolution at the same time, a new fusion method based on the difference of imaging mechanism of SAR and multispectral images is proposed in this paper. Firstly, the original image is decomposed by Shearlet transform, and the high frequency and low frequency components are obtained respectively. The two components contain different detailed information of the image. Shearlet transform decomposes the image into multi-scale and multi-directional sub-band coefficients, which contain different image features. In addition, Shearlet inverse transform has good image reconstruction capability. And then, according to that the low frequency coefficient and the high frequency coefficient represent different meanings, we design the different fusion rule for them. The fusion rules of low frequency coefficients based on region energy and the high frequency coefficient based on improved pulse coupled neural network are designed. Finally, an information-rich image is obtained by inversing Shearlet transform. Therefore, the fusion results are richer and contain more spatial detail information and spectral information. In order to verify the effectiveness of the proposed method, a test is carried out with data from TerraSAR-X and Landsat5-TM, and the result shows that the proposed method is effective in improving the spatial resolution and keeping more spectral information. Compared with the methods of wavelet transform, contourlet transform, and NSCT transform, this method has a significant improvement in spatial information and spectral information. Cross entropy has a margin of improvement of nearly 100%. The correlation coefficient is higher than 25% increase, and the spectral distortion is better than 40% increase.
  • 甲居滑坡位于四川省丹巴县聂呷乡甲居村,滑坡长1 200 m,宽1 000 m,滑体平均厚度22 m,体积约为2 600万m3,属特大型牵引式中深层土质滑坡[1]。为监测该滑坡的活动性,文献[2-4]采用GPS和InSAR技术进行了周期性观测和融合处理。但由于GPS时间和空间采样率均较低,难以监测该滑坡的时间发育特征,而且研究区域地形起伏较大,特别是植被茂密导致传统差分InSAR技术在该地区的时空失相干非常严重,形变监测结果精度有待进一步提高,限制了差分InSAR技术的应用。

    人工角反射器干涉技术 (corner reflector-InSAR) 通过在监测体布设一定数量的人工散射体来克服时空失相干对差分InSAR技术的影响,从而用来高精度探测地形复杂区域的形变。目前,常用的CR-InSAR解算方法有Lambda算法[5-8]和最小费用流算法等,这些算法要求CR点能够成功解缠,但是,很多时候两个CR点间的形变相位超过雷达半波长,相位解缠变得异常困难。为此,Xia等提出CR-InSAR周期图算法[9-10],针对每个CR点建立一个周期图,这样对于每个CR点,其相位时间序列可以看成是一个关于时间间隔和垂直基线的二维谐振信号,因此,形变估计问题就转化成频谱估计问题[11-19]。但是该算法进行参数估计时,对干涉对数量、各干涉对时间和空间基线分布的均匀性都有较高要求,而且在获取非线性形变时经常采用滤波的方法,导致形变结果较为平滑,非线性形变不明显。

    本文借鉴InSAR小基线集算法和CR-InSAR周期图算法, 采用一种非线性CR-InSAR算法,对甲居滑坡进行了非线性CR-InSAR试验,通过与GPS监测形变结果一致性的比较,表明该算法比原CR-InSAR算法获取的滑坡形变结果更为合理。

    假设有M+1个角反射器,获取N+1幅SAR影像,按照传统小基线集InSAR处理方法,选取其中一幅影像作为主图像,可以组成N个SAR干涉对,每个干涉对包含了M+1个CR点对应的相对于主影像的差分相位。通过SAR轨道信息和外部DEM去除地形相位后,第i个CR点在第m个差分干涉图中的差分相位表示为:

    (1)

    式中,Rim是对应的形变;Bm是垂直基线;hi是第i个CR点的高程改正数;θm是入射角;φim, atom是大气延迟相位,φim, noise是噪声相位。

    如果将CR点形变看成近似线性形变,则式 (1) 可以写成:

    (2)

    式中,Vi是第i个CR点的形变速率;Tm是第m个干涉图的时间间隔。当两个CR点间的距离为1 km时,大气延迟相位可以认为是空间强相关的,如果选取其中一个比较稳定的CR点作为参考点,则其他的CR点相对于参考CR点的差分相位可以表示为:

    (3)

    对式 (3) 采用最小费用流或Lambda算法解缠得到:

    (4)

    式中,φi, ref为解缠相位,对每个CR点的解缠相位对N个干涉图采用最小二乘准则 (或奇异值分解) 解算,获取每个CR点的累计形变时间序列结果,该方法的应用前提是要求CR点相位能够准确解缠。但当两CR点间的形变相位差大于|π|时,无法准确解缠,从而导致形变时间序列错误。

    文献[9]等提出基于二维周期图的线性形变解法,如果将CR点形变看成线性形变,选择位于稳定区域的CR点为参考点,假设其形变速率为0,建立如下模型:

    (5)

    式中,Δφi为第i个CR点相对于参考点的差分干涉相位;Vi为第i个CR点的线性形变速率;hi为第i个CR点相对于参考点的高程改正数,若两个CR点间的距离不是很远,大气延迟相位忽略不计,式 (5) 可以写成:

    (6)

    式中,fiv=2Vi/λt=Tmfih=2hi/λRmsinθmb=Bmφi, noise是独立的高斯噪音,均值为0。

    为了求解形变速率相关的频率fiv以及和高程改正值相关的频率fih,对于每个CR点构造一个周期图:

    (7)

    E(fv, fh)达到最大值时,根据对应的频率fivfih很容易得到所要求的形变速率值以及高程改正值。然而干涉对数量、干涉对时间基线和空间基线分布的均匀性都会对参数估计的精度产生影响,而且采用滤波的手段获取非线性形变会导致形变结果线性较为明显。

    本文采用一种改进的基于相位相干性的非线性CR-InSAR算法,定义相位相干性为:

    (8)

    该约束条件相当于一个最优函数,依据一定的先验信息确定解空间的大小、位置和搜索步长,即可较快地获得参数的最佳估计值。当估计参数越接近真值时,γ就越大,也就是说γ越大,参数求解的精度就越高。

    因此, 给定一个二维解空间,在解空间内搜索γ的最大值,与最大值对应的形变速率值和高程改正数值就是所求解的参数,CR点相位相干性的三维图如图 1所示。

    图  1  CR点相位相干性的三维图
    Figure  1.  3D Phase Coherence of CR Points

    将与形变速率和高程改正数有关的相位从差分干涉相位中减掉,可得到残余相位:

    (9)

    依据最小二乘准则将非线性形变相位当成未知参数进行求解,由于大气相位在时间域上表现为高频信号,而在空间域上表现为低频信号。因此,当CR点距离小于1 km时,将其和噪声相位一起当成随机误差处理,可以得到:

    (10)

    式中,为非线性形变相位,Snl为非线性形变。

    因此,CR点的形变可以表示为:

    (11)

    基于相位相干性的非线性CR-InSAR数据处理流程如图 2所示。

    图  2  基于相位相干性的非线性CR-InSAR数据处理流程图
    Figure  2.  Flowchart of Nonliner CR-InSAR Data Processing Based on Phase Coherence

    为了验证本文采用算法的可靠性,首先对模拟数据进行了实验分析,模拟线性形变速率为-0.4 mm/d,高程改正数为50 m,非线性形变采用正弦函数进行模拟,分别采用Lambda算法、二维周期图算法以及本文采用的算法进行求解,并与模拟真值进行对比,对比结果如图 3所示。

    图  3  模拟实验结果对比图
    Figure  3.  Comparison of Simulation Results

    图 3可以看出,由于模拟数据的形变尺度较大,导致Lambda算法存在明显解缠误差,而本文采用基于相位相干性的算法求解得到线性形变速率为-0.387 mm/d,高程改正数为65.9 m,而且与二维周期图算法求解结果相比,非线性形变也恢复较好。从对比结果来看,本文算法不需要相位解缠即可获取CR点的形变信息,求解结果与模拟真值较为一致,对大尺度形变梯度具有较强探测能力,现将该算法应用于甲居滑坡CR点形变监测分析。

    图 4为四川甲居滑坡地形图,自2007年布设了10台角反射器,30个GPS监测点,每年进行4期GPS观测。结果显示,该滑坡形变具有分区特征,可分为强变形区、弱变形区和潜在形变区。为此获取了覆盖研究区域自2007-08至2008-06的9景Envisat ASAR数据,开展InSAR监测与试验。

    在InSAR数据处理中采用90 m分辨率的SRTM DEM,该DEM在山区的平面精度为20 m,高程精度为20 m[11]

    图  4  甲居滑坡地质和形变监测图
    Figure  4.  Geological and Deformation Monitoring Chart of Jiaju Landslide

    首先通过小基线集InSAR来检验研究区域的相干性以及结果中可能存在的误差。在此基础上对比两种CR-InSAR解算方法,并对解算结果与同期GPS监测结果进行比较,验证本文方法的可靠性。

    本文以Gamma软件作为差分InSAR干涉处理平台,共生成36个干涉对,基线分布如图 5所示。图 6(a)为生成的36个干涉对的相干图;图 6(b)为对应的解缠图。

    图  5  甲居地区获取的SAR数据基线分布图 (20080104)
    Figure  5.  Baseline of Envisat ASAR Data (20080104)
    图  6  36个干涉图相干图和解缠图
    Figure  6.  Coherence Chart and Unwrapping Chart of 36 Interferograms

    从相干图和解缠图中可以看出,研究区域由于植被等因素的影响,相干性很差,导致解缠误差难以消除,因此,本文仅对相干性最好的两个干涉对 (2008-01-04~2008-02-08和2008-02-08~2008-03-14) 进行常规差分处理,获得的形变结果如图 7所示,两个干涉对均存在明显形变信息,最大沉降量3 cm左右 (35 d)。

    图  7  两个差分形变图
    Figure  7.  Two Differential Deformation Chart

    由于角反射器具有很强的后向散射特性,它在SAR图像中表现为一个光斑状的点目标,很容易在强度图中将其与周围的相干地物区分开来,图 8为安装在甲居滑坡上的角反射器在强度图中的近似位置。

    图  8  甲居滑坡角反射器在强度图中的显示
    Figure  8.  Display of CRs in Intensity Map

    在获得CR点的近似位置周围开一个窗口,通过多倍内插计算其幅度的峰值的精确位置,从而获取CR点亚像素级的精确坐标。图 9为某一CR点子像元级坐标幅度图。

    图  9  某一CR点的子像元级幅度图
    Figure  9.  Sub-pixel Level Amplitude Diagram of CR

    直接提取35个干涉对解缠图中的解缠相位,采用最小二乘解算获取CR点的形变时间序列,结果如图 10所示。

    图  10  基于SBAS的CR形变时间序列图
    Figure  10.  Time Series Deformation of CR Based on SBAS

    图 10可以看出,形变结果在±1 cm之间变动,造成此现象的原因是由于SAR干涉对存在解缠误差 (图 6(b)),导致CR解算结果存在解缠误差,形变时间序列结果不正确。

    根据式 (5)~式 (7),以位于稳定区的S9号CR点为参考点,其他9个CR点的形变时间序列如图 11所示。

    图  11  基于二维周期图法的CR形变时间序列图
    Figure  11.  Time Series Deformation of CR Based on 2D Periodogram

    图 11中可以看出,基于二维周期图法的CR-InSAR算法能够有效避免相位解缠误差,但该方法由于使用滤波的方法分离非线性形变,导致非线性形变有一定损失。

    与§3.2不同,本文算法仅提取CR点对应的差分缠绕相位,基于式 (8)~式 (11),解算出CR点的形变时间序列。

    以位于稳定区的S9号CR点为参考点,其他9个CR点的形变时间序列如图 12所示,累计形变结果如表 1所示。

    图  12  基于相位相干性的非线性CR形变时间序列图
    Figure  12.  Nonlinear Time Series Deformation of CR Based on Phase Coherence
    表  1  甲居滑坡角反射器累计形变结果表
    Table  1.  Accumulative Deformation of CR Points
    形变区域稳定区北侧滑坡南侧滑坡弱形变区强形变区
    CR点号S5S4S1S8S7S6S2S3S0
    累计形变量/cm-1.80.4-12.7-3.9-4.8-10.3-9.7-12.4-3.9
    下载: 导出CSV 
    | 显示表格

    从上述3种算法解算结果来看,非线性形变都不是特别明显,分析原因主要是由于CR点间距离较近,非线性形变在空间域上表现出一定的相关性,两个CR点间干涉相位做差分的同时,非线性形变也会有一定的损失,再采用滤波方法分离非线性形变,会导致非线性形变进一步损失,因此我们根据大气相位在空间域和时间域表现出的不同特性,将其和噪声相位一起当成随机误差处理,采用最小二乘的方法,将非线性形变当成参数求解,尽可能减小非线性形变的损失。

    从上面CR点的累计形变结果可以看出,位于参考点附近的S4号CR点比较稳定,累计形变量0.4 cm,其他CR点均出现明显沉降形变,其中位于北侧滑坡体上沿南面的S5号CR点累计形变量-1.8 cm,位于北侧滑坡体上的S1号CR点累计形变量-12.7 cm,位于南侧滑坡体上的S8号CR点累计形变量-3.9 cm,位于弱形变区的S7号CR点累计形变量为-4.8 cm,而位于强形变区的S6S2S3S0号CR点累计形变量分别达到-10.3 cm、-9.7 cm、-12.4 cm和-3.9 cm。

    在甲居滑坡上布设的10个角反射器中有6个的周围布设了GPS监测站,为了更好地验证本算法的准确性,将基于本文CR-InSAR解算结果和基于解缠相位解算结果与GPS解算结果进行比较,如表 2所示。

    表  2  基于相位相干性CR解算结果、基于解缠相位CR结果与GPS解算结果对比表
    Table  2.  Comparison Between CR Results Based on Phase Coherence and Phase Unwrapping with GPS Method
    GPS点号G10G8G12G13G16G15
    GPS解算结果/cm-9.5-4.6-4.4-3.3-11.0-3.6
    CR点号S1S7S2S6S3S0
    基于相位相干性结果-12.7-4.8-9.7-10.3-12.4-3.9
    与GPS差值-3.2-0.2-5.3-7.0-1.4-0.3
    基于解缠相位结果0.9-0.20.2-0.3-0.40.4
    与GPS差值10.44.44.63.010.64.0
    下载: 导出CSV 
    | 显示表格

    表 2第5行和第7行可以看出,基于解缠相位的解算结果与GPS解算结果相差较大,而基于相位相干性的CR-InSAR解算结果与GPS解算结果在反映甲居滑坡形变特征上有较好的一致性,但S1S2S6号CR点的解算结果与GPS解算结果相差较大,对于与GPS结果存在差异,原因有以下几个方面:①在监测点的位置上,GPS点和CR点之间存在一定的距离,我们将CR点附近的GPS点作为参照,提供一定的先验信息;②在结果的获取时间上,由于没有对应的GPS监测结果,只获取2006-08~2009-11共39个月的累计形变结果,然后取平均求得对应InSAR数据覆盖的10个月的结果,也可能导致存在差异;③在变形特征上,甲居滑坡存在一定的水平形变,InSAR对水平方向形变不敏感,而且GPS在高程方向上的监测精度较低 (1 cm),将GPS上三维形变结果投影到视线方向时也存在一定的误差。但从CR点整体解算结果来看,较为真实地反映了该滑坡的形变特征。

  • 图  1   Shearlet变换示意图

    Figure  1.   Workflow of Shearlet Transform

    图  2   基于Shearlet变换的融合框架

    Figure  2.   Flowchart of Fusion Based on Shearlet Transform

    图  3   待融合遥感影像

    Figure  3.   Images for Fusion

    图  4   SAR和多光谱图像融合结果

    Figure  4.   Fusion Results of SAR and Multispectral Image

    图  5   HIS方法与本文方法融合结果局部对比

    Figure  5.   Local Contrast of Fusion Results of HIS Method and the Proposed Method

    图  6   清晰度和线状特征的局部对比

    Figure  6.   Local Contrast of Definition and Linear Feature

    图  7   融合结果评价指标优化率

    Figure  7.   The Optimization Rate of Evaluation Index for Fusion Results

    表  1   不同融合方法下空间信息评价指标

    Table  1   Evaluation Indexes of Spatial Information Using Different Fusion Methods

    融合方法 均值 标准差 信息熵 平均梯度
    HIS 101.581 60.091 7.773 44.709
    Wavelet 114.929 63.989 7.476 22.576
    Contourlet 114.291 63.980 7.535 24.196
    NSCT 119.207 46.287 7.887 48.109
    Shearlet 119.235 45.065 7.886 47.530
    本文方法 124.254 67.089 7.898 48.190
    下载: 导出CSV

    表  2   不同融合方法下光谱信息评价指标

    Table  2   Evaluation Indexes of Spectral Information Using Different Fusion Methods

    融合方法 波段 光谱扭曲度 互相关系数 交叉熵
    HIS R 63.220 0.302 3.072×10-2
    G 53.715 0.331 3.831×10-2
    B 45.334 0.175 9.390×10-2
    Wavelet R 52.061 0.572 2.377×10-2
    G 49.013 0.527 1.586×10-2
    B 44.901 0.352 5.800×10-2
    Contourlet R 52.281 0.571 2.420×10-2
    G 49.101 0.526 1.636×10-2
    B 44.925 0.351 5.920×10-2
    NSCT R 30.051 0.801 5.460×10-3
    G 29.037 0.728 2.000×10-4
    B 25.546 0.546 7.300×10-4
    Shearlet R 29.324 0.807 2.300×10-3
    G 28.831 0.729 9.530×10-5
    B 24.301 0.569 4.300×10-4
    本文方法 R 28.924 0.816 5.856×10-4
    G 27.801 0.743 9.537×10-7
    B 23.778 0.575 1.335×10-5
    下载: 导出CSV
  • [1]

    Chen Shaohui, Zhang Renhua, Su Hongbo, et al. SAR and Multispectral Image Fusion Using Generalized IHS Transform Based on a Trous Wavelet and Emd Decompositions[J]. Sensors Journal, IEEE, 2010, 10(3):737-745 doi: 10.1109/JSEN.2009.2038661

    [2]

    Errico A, Angelino C V, Cicala L, et al. Detection of Environmental Hazards Through the Feature-Based Fusion of Optical and SAR Data:A Case Study in Southern Italy[J]. International Journal of Remote Sensing, 2015, 36(13):3 345-3 367 doi: 10.1080/01431161.2015.1054960

    [3]

    Bai Luyi, Xu Changming, Wang Cong. A Review of Fusion Methods of Multi-Spectral Image[J]. Optik-International Journal for Light and Electron Optics, 2015, 126(24):4 804-4 807 doi: 10.1016/j.ijleo.2015.09.201

    [4]

    Yang Wenkao, Wang Jing, Guo Jing. A Novel Algorithm for Satellite Images Fusion Based on Compressed Sensing and PCA[J]. Mathematical Problems in Engineering, 2013:1-10

    [5]

    Liu Jun, Huang Junyi, Liu Shuguang, et al. Human Visual System Consistent Quality Assessment for Remote Sensing Image Fusion[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2015, 105:79-90 doi: 10.1016/j.isprsjprs.2014.12.018

    [6]

    Bao Wenxing,Zhu Xiaoliang. A Novel Remote Sensing Image Fusion Approach Research Based on HSV Space and Biorthogonal Wavelet Packet Transform[J]. Journal of the Indian Society of Remote Sensing, 2015, 43(3):467-473 doi: 10.1007/s12524-014-0430-4

    [7]

    Medina D R J, Pinilla R C, Joyanes A L. Two-Dimensional Fast Haar Wavelet Transform for Satellite-Image Fusion[J]. Journal of Applied Remote Sensing, 2013, 7(1):414-424 http://remotesensing.spiedigitallibrary.org/pdfaccess.ashx?url=/data/journals/appres/926148/jars_7_1_073698.pdf

    [8]

    Shi Cheng,Miao Qiguang, Xu Pengfei. A Novel Algorithm of Remote Sensing Image Fusion Based on Shearlets and PCNN[J]. Neurocomputing, 2013, 117:47-53 doi: 10.1016/j.neucom.2012.10.025

    [9]

    Yang Shuyuan,Wang Min,Lu Yanxiong,et al. Fusion of Multiparametric SAR Images Based on Sw-nonsubsampled Contourlet and PCNN[J]. Signal Processing, 2009, 89(12):2 596-2 608 doi: 10.1016/j.sigpro.2009.04.027

    [10]

    Zhang Jixian,Yang Jinghui,Zhao Zheng,et al. Block-regression Based Fusion of Optical and SAR Imagery for Feature Enhancement[J]. International Journal of Remote Sensing, 2010, 31(9):2 325-2 345 doi: 10.1080/01431160902980324

    [11]

    Lim W Q. The Discrete Shearlet Transform:A New Directional Transform and Compactly Supported Shearlet Frames[J]. Image Processing, IEEE Transactions on, 2010, 19(5):1 166-1 180 doi: 10.1109/TIP.2010.2041410

    [12] 刘军,李德仁, 邵振峰. 利用快速离散Curvelet变换的遥感影像融合[J]. 武汉大学学报·信息科学版, 2011, 36(3):333-337 http://ch.whu.edu.cn/CN/abstract/abstract491.shtml

    Liu Jun, Li Deren, Shao Zhenfeng. Fusion of Remote Sensing Images Based on Fast Discrete Curvelet Transform[J]. Geomatics and Information Science of Wuhan University, 2011, 36(3):333-337 http://ch.whu.edu.cn/CN/abstract/abstract491.shtml

    [13]

    Geng Peng,Wang Zhengyou,Zhang Zhigang,et al. Image Fusion by Pulse Couple Neural Network with Shearlet[J]. Optical Engineering, 2012, 51(6):1-7 https://www.researchgate.net/profile/Geng_Peng/publication/258687983_Image_fusion_by_pulse_couple_neural_network_with_shearlet/links/549a52eb0cf2d6581ab15b1b.pdf?origin=publication_list

    [14] 高国荣,许录平, 冯冬竹. 利用非抽样Shearlet域GSM模型进行图像去噪[J]. 武汉大学学报·信息科学版, 2013, 38(7):778-782 http://ch.whu.edu.cn/CN/abstract/abstract2689.shtml

    Gao Guorong, Xu Luping, Feng Dongzhu. Image Denoising Based on the NSST Domain GSM Model[J]. Geomatics and Information Science of Wuhan University, 2013, 38(7):778-782 http://ch.whu.edu.cn/CN/abstract/abstract2689.shtml

    [15]

    Luo Xiaoqing,Zhang Zhancheng, Wu Xiaojun. A Novel Algorithm of Remote Sensing Image Fusion Based on Shift-invariant Shearlet Transform and Regional Selection[J]. AEU-International Journal of Electronics and Communications, 2016, 70(2):186-197 doi: 10.1016/j.aeue.2015.11.004

    [16]

    Karami A,Heylen R, Scheunders P. Band-specific Shearlet-based Hyperspectral Image Noise Reduction[J]. Geoscience and Remote Sensing, IEEE Transactions on, 2015, 53(9):5 054-5 066 doi: 10.1109/TGRS.2015.2417098

    [17]

    Wang Zhaobin,Ma Yide,Cheng Feiyan,et al. Review of Pulse-coupled Neural Networks[J]. Image and Vision Computing, 2010, 28(1):5-13 doi: 10.1016/j.imavis.2009.06.007

    [18]

    Li Min,Cai Wei, Tan Zheng. A Region-Based Multi-sensor Image Fusion Scheme Using Pulse-coupled Neural Network[J]. Pattern Recognition Letters, 2006, 27(16):1 948-1 956 doi: 10.1016/j.patrec.2006.05.004

    [19]

    Wang Jingjing,Li Qian,Jia Zhenhong,et al. A Novel Multi-focus Image Fusion Method Using PCNN in Nonsubsampled Contourlet Transform Domain[J]. Optik-International Journal for Light and Electron Optics, 2015, 126(20):2 508-2 511 doi: 10.1016/j.ijleo.2015.06.019

    [20]

    Li Jiangyang, Peng Zhenming. Multi-Source Image Fusion Algorithm Based on Cellular Neural Networks with Genetic Algorithm[J]. Optik-International Journal for Light and Electron Optics, 2015, 126(24):5 230-5 236 doi: 10.1016/j.ijleo.2015.09.187

    [21]

    Chai Y,Li H F, Guo M Y. Multifocus Image Fusion Scheme Based on Features of Multiscale Products and PCNN in Lifting Stationary Wavelet Domain[J]. Optics Communications, 2011, 284(5):1 146-1 158 doi: 10.1016/j.optcom.2010.10.056

  • 期刊类型引用(3)

    1. 戴佳乐,汪金花,李孟倩,韩秀丽,缪若梵. 混合光谱曲线的Fast ICA盲源解混及影响因子研究. 光谱学与光谱分析. 2024(05): 1312-1320 . 百度学术
    2. 刘雪松,姚玲,彭天亮. 低秩约束核非负张量分解在高光谱解混中的应用. 铜陵学院学报. 2023(05): 99-104 . 百度学术
    3. 王媛,阿里甫·库尔班,李均力,吕亚龙,阿依加马力·克然木. 多模态模型的胡杨林语义信息描述与识别. 计算机工程与设计. 2019(07): 1978-1983 . 百度学术

    其他类型引用(7)

图(7)  /  表(2)
计量
  • 文章访问数:  4294
  • HTML全文浏览量:  260
  • PDF下载量:  463
  • 被引次数: 10
出版历程
  • 收稿日期:  2015-12-20
  • 发布日期:  2017-04-04

目录

/

返回文章
返回