太赫兹科学与电子信息学报  2020, Vol. 18 Issue (6): 1073-1079     DOI: 10.11805/TKYDA20447
Shearlet变换耦合细节强化因子的遥感图像融合算法    [PDF全文]
崔怡文1, 侯德林2     
1. 武汉铁路职业技术学院 经济管理学院,湖北 武汉430000;
2. 武汉纺织大学 管理学院,湖北 武汉 430073
摘要: 为克服当前较多遥感图像融合方法存在间断以及吉布斯现象,本文利用像素点间灰度以及梯度信息,设计了一种采用非下采样Shearlet变换(NSST)耦合细节强化因子的图像融合方法。将多光谱(MS)图像经过强度-色调-饱和度(IHS)变换,分离出强度成分。随后,借助NSST变换处理强度成分与全色(PAN)图像,获取对应的高频和低频系数。以强度成分对应的低频系数为依据,通过图像的空间频率特性计算加权系数,将PAN图像的低频系数植入到强度(I)成分对应的低频系数中,融合低频系数。采用像素点间灰度以及梯度信息,构造细节强化因子,融合高频系数。最后,采用IHS和NSST反变换重构这些融合系数,获取融合结果。实验结果显示:较当前融合技术,所提算法拥有更为理想的融合效果,具有更高的互信息值和更低的光谱偏差度值。
关键词: 遥感图像融合    空间频率    NSST变换    梯度信息    细节强化因子    IHS变换    
A remote sensing image fusion algorithm based on Non Subsampled Shearlet Transform coupling detail enhancement factor
CUI Yiwen1, HOU Delin2     
1. School of Economic Management, Wuhan Railway Vocational College of Technology, Wuhan Hubei 430000, China;
2. School of Management, Wuhan Textile University, Wuhan Hubei 430073, China
Abstract: In order to overcome the discontinuities and Gibbs phenomenon in many remote sensing image fusion methods, this paper designs an image with Non Sampling Shearlet Transform(NSST) coupling detail enhancement factor by using the gray level and gradient information between pixels fusion method. The intensity(I) component of Multi Spectral(MS) image is separated by Intensity-Hue-Saturation(IHS) transformation. The high and low frequency coefficients of I component and Panchromatic(PAN) image are extracted by NSST. Based on the low-frequency coefficient corresponding to component I, the filling coefficient is calculated by the spatial frequency characteristics of the image. The low-frequency coefficient corresponding to the image is filled into the low-frequency coefficient corresponding to component I, and the low-frequency coefficient is fused. The gray level and gradient information between pixels are utilized to construct detail enhancement factors to measure the differences between pixels and their neighbors, and then the high-frequency coefficients are fused. Based on the fusion coefficient, IHS and NSST inverse transforms are adopted to reconstruct the coefficients, and the fusion results are obtained. The experimental results show that the image fusion algorithm has higher mutual information value, lower spectral deviation value and better spectral and spatial characteristics than the current image fusion algorithm.
Keywords: remote sensing image fusion    spatial frequency    Non Subsampled Shearlet Transform    gradient information    detail enhancement factor    IHS transform    

为获取融合的遥感图像[1-4],较多学者对遥感图像的融合方法进行了研究,如WANG等[5]在稀疏表示的基础上,设计了一种基于子词典的融合方法。由于该方法对词典的依赖性较强,且词典的欠完备性易使得融合图像出现块现象。HNATUSHENKO等[6]通过小波变换分解图像,再利用独立分量分析方法获取系数的多尺度分量,在该分量上通过基于信息熵的比值取大法,完成图像的融合。由于小波变换欠方向选择性,以及基于信息熵的比值取大法没有考虑像素点间的差异性,易使融合图像出现吉布斯现象。王帅等[7]通过IHS获取MS图像的I成分,并借助小波变换生成不同图像系数,采用模值加权法和比较取大法分别融合低、高频系数,获取融合图像。由于该方法中的比较取大法忽略了像素点间的差异性,导致融合图像含有间断现象。LIN等[8]利用双子空间约束矩阵将融合图像分解成分量和残差两部分,将融合问题转化为三因子矩阵的最小均方误差估计,再设计变分贝叶斯推断的估计方法完成图像融合。由于变分贝叶斯推断的估计方法易丢失源图的光谱信息,使融合图像具有光谱扭曲现象。赵学军等[9]采用Shearlet对图像进行分解,并利用图像的区域能量特征和脉冲耦合神经网络的方法,获取融合系数,完成图像融合。由于Shearlet变换的平移不变特性较差,且通过比较区域能量特征,选取比较值较大的系数作为融合系数的方法,忽略了像素点间的差异性,使融合图像质量较差。ZHU等[10]在小波包分析的基础上,获取图像系数,采用边缘检测的方法获取融合低频系数,借助图像的标准差信息融合高频系数。由于其边缘检测的方法不能较好地考虑图像的光谱信息,融合图像光谱特性较差。

为改善融合图像的视觉质量,更好地保持光谱信息,本文提出一种采用NSST变换耦合细节强化因子的图像融合方法。在利用IHS获取MS图像的I成分后,再通过${\rm{NSST}}$变换获取I成分和${\rm{PAN}}$图像的分解系数。为了更好地保留源图的光谱信息,在I成分对应的低频系数中,植入${\rm{PAN}}$图像对应的低频系数,融合低频系数。在像素点灰度以及梯度信息的基础上,构造了细节强化因子,对像素点与其邻点的差异性进行测量,使融合高频系数能够更好地刻画图像的细节内容。

1 遥感图像融合算法

遥感图像融合算法的整体设计如图 1所示。分析图 1可知,融合算法主要由MS图像解析、生成图像系数、不同图像系数融合三部分组成。

Fig.1 Process of the proposed remote sensing image fusion algorithm 图 1 所提遥感图像融合算法的过程
1.1 MS图像的解析

通常使用红(R)、绿(G)、蓝(B)三原色表述MS图像中的光谱信息。虽然RGB模型对颜色信息具有较好的表述特性,但R, G, B三原色的互依赖性也较强,不易将其独立地从MS图像中解析出来,用于图像融合[11-12]。IHS变换不仅能从I, H, S成分的角度表述MS图像的光谱信息,且IHS变换还能将MS图像中I, H, S成分独立地解析出来,获取I成分后,不影响H, S成分的内容[13]。因此,IHS变换更适用于MS图像的解析。利用IHS变换对MS图像解析的过程如下[14]

$\left[\begin{array}{l}I \\ a \\ b\end{array}\right]=\left[\begin{array}{ccc}1 / 3 & 1 / 3 & 1 / 3 \\ -\sqrt{2} / 6 & -\sqrt{2} / 6 & \sqrt{2} / 6 \\ 1 / \sqrt{2} & -1 / \sqrt{2} & 0\end{array}\right] \times\left[\begin{array}{l}R \\ G \\ B\end{array}\right]$ (1)
$H = \arctan \left( {\frac{b}{a}} \right)$ (2)
$S = \sqrt {{a^2} + {b^2}} $ (3)

式中a, b为中间变量。

再根据IHS反变换,完成图像的重构:

$\left[\begin{array}{l}R \\ G \\ B\end{array}\right]=\left[\begin{array}{lll}1 / \sqrt{3} & 1 / \sqrt{6} & \;\;1 / \sqrt{3} \\ 1 / \sqrt{3} & 1 / \sqrt{6} & -1 / \sqrt{2} \\ 1 / \sqrt{3} & -2 / \sqrt{6} & \;\;\;\;\;0\end{array}\right] \times\left[\begin{array}{l}I \\ a \\ b\end{array}\right]$ (4)

MS图像解析出的I, H, S成分中,I成分最接近于PAN图像。因此将其提取出来,用于后续融合操作。利用IHS变换从MS图像中获取I成分的结果如图 2所示。从图 2可见,图 2(b)所示的I成分较好地保持了图 2(a)所示MS图像中的强度信息。

Fig.2 Using HIS transform to obtain the I component results of MS images 图 2 利用HIS变换获取MS图像的I成分结果
1.2 生成图像系数

NSST是在Shearlet变换基础上发展起来的方法。以图像尺度c、方向d、平移量m为基础,在2×2矩阵H, J下所形成的仿射系统(Affine System,AS)为[15-16]

$AS = \left\{ {{\beta _{c, d, m}}(x) = {{\left| {\det (\mathit{\boldsymbol{J}})} \right|}^{{1/2}}}\beta \left( {{\mathit{\boldsymbol{H}}^d}{\mathit{\boldsymbol{J}}^c}x - m} \right)} \right., \left. {c, d \in {\mathbf{Z}}, m \in {{\mathbf{Z}}^2}} \right\}$ (5)

式中$\beta \in {L^2}({R^2})$为仿射因子。

当式(6)成立时,AS即为合成小波:

$\sum\limits_{c, d, m} {{{\left| {\left\langle {E, {\beta _{c, d, m}}} \right\rangle } \right|}^2}} = {\left\| E \right\|^2}$ (6)

式中$E \in {L^2}({R^2})$为小波因子。

H, J满足式(7)时,AS即为Shearlet变换。

$\mathit{\boldsymbol{H}} = \left( {\begin{array}{*{20}{c}} 4&0 \\ 0&2 \end{array}} \right), \quad \mathit{\boldsymbol{J}} = \left( {\begin{array}{*{20}{c}} 1&1 \\ 0&1 \end{array}} \right)$ (7)

NSST在笛卡尔坐标下对Shearlet变换进行改进,获取改进的Shearlet滤波器(Shearlet Filter,SF)[17]。将SF和非下采样金字塔(Non-Subsampled Pyramid,NSP)结合,对图像进行分解。在生成图像系数的过程中,SF和NSP分别负责在方向和尺度上分解图像。

NSST变换的结果如图 3所示。从图 3可见,其能够较好地对图 2(b)图 3(a)所示的I成分及PAN图像进行分解,以生成不同的图像系数。

Fig.3 Decomposition results of I component and PAN image 图 3 I成分和PAN图像的分解结果
1.3 不同图像系数的融合

I成分对应的低频系数UI蕴含了图像的大量光谱信息[18]。图像的空间频率特征描绘了图像所含的空间信息。对此,本文将利用以空间信息为依据求取的加权系数,对PAN图像对应低频系数UP的特有信息UT进行加权,并将加权结果灌入I成分对应的低频系数中,以获取蕴含大量光谱及空间信息的融合低频系数。

图像p(x, y)的空间频率KP计算方式为[19]

$KP = \sqrt {RK{P^2} + CK{P^2}} $ (8)
$RKP = \sqrt {\frac{1}{{M(N - 1)}}\sum\limits_{x = 1}^M {\sum\limits_{y = 2}^N {{{\left( {p(x, y) - p(x, y - 1)} \right)}^2}} } } $ (9)
$CKP = \sqrt {\frac{1}{{N(M - 1)}}\sum\limits_{x = 2}^M {\sum\limits_{y = 1}^N {{{\left( {p(x, y) - p(x - 1, y)} \right)}^2}} } } $ (10)

式中:M, N为图像的尺寸;RKP, CKP为图像的行、列频率。

计算PAN图像对应低频系数UP的特有信息UT时,需先计算UPUI的共有信息UG

${U_{\rm{G}}} = {U_{\rm{I}}} \cap {U_{\rm{P}}}$ (11)

再根据式(12)计算UT

${U_{\rm{T}}} = {U_{\rm{P}}} - {U_{\rm{G}}}$ (12)

利用式(8)可求取不同低频系数UIUP对应的空间信息KPIKPP。再将KPIKPP作为加权系数,把UT融入到UI中,得到融合低频系数UIP

${U_{{\rm{IP}}}} = {U_{\rm{I}}} + \frac{{K{P_{\rm{P}}}}}{{K{P_{\rm{P}}} + K{P_{\rm{I}}}}}{U_{\rm{T}}}$ (13)

随后本文将利用像素点间灰度和梯度信息的差异性[20],构造细节强化因子,对图像中的细节特征进行强化,使融合高频系数能够更好地描绘出图像的纹理、边缘等信息。

g(x, y)和t(x, y)分别为像素点p的灰度和梯度值。g(x+i, y+j)和t(x+i, y+j)分别为p的邻点q的灰度和梯度值。像素点p及其邻点q的差异度DF(x, y)为:

$DF\left( {x, y} \right) = \left| {g\left( {x, y} \right) - g\left( {x + i, y + j} \right)} \right| + \left| {t\left( {x, y} \right) - t\left( {x + i, y + j} \right)} \right|$ (14)

利用DF(x, y)构造的细节强化因子为:

$PW = \sum\limits_{x, y \in W} {{{\rm{e}}^{DF(x, y)}}W(x, y)} $ (15)

式中W(x, y)是以p为中心,大小为M×N的窗口。

利用式(15)可求取不同高频系数LILP的细节强化结果PWIPWP,在此基础上计算融合高频系数LIP

${L_{{\rm{IP}}}} = \frac{{P{W_{\rm{I}}} \times {L_{\rm{I}}} + P{W_{\rm{P}}} \times {L_{\rm{P}}}}}{{P{W_{\rm{I}}} + P{W_{\rm{P}}}}}$ (16)

LIPUIP经过NSST反变换后,可得到改造后的I成分$\bar {\rm{I}}$,将$\bar {\rm{I}}$与H, S经过IHS反变换后,可得到融合结果。利用上述过程,对图 2(a)图 3(a)实施融合,形成的融合结果如图 4所示。从图 4可见,融合图像的视觉效果较好。

Fig.4 Fusion image 图 4 融合图像
2 实验结果

利用Matlab 7.10软件在AMD 3.2 GHz处理器、8 GB内存的Lenovo计算机上进行实验。实验中采用文献[9-10]以及本文算法,对大小为512×512的IKONOS图像和WorldView-2图像进行融合测试。

2.1 融合图像视觉效果测试

图 5为各算法对IKONOS图像的融合结果。从图 5中可以发现,文献[9]算法融合图像整体偏亮,绿色植被颜色较浅。标注观察区中道路边界具有吉布斯现象,植被与房屋交界处具有模糊现象;文献[10]算法融合图像中道路颜色偏黑,绿色植被颜色偏浅。标注观察区中道路边界具有间断现象,白色建筑顶部存在块现象;本文算法融合图像亮度适中,绿色植被颜色较为正常,道路颜色稍微偏浅。标注观察区中道路边界轮廓清晰、连续,房屋与植被交界处不存在模糊现象,白色建筑顶部边缘清晰,不存在块现象。各算法对WorldView-2图像的融合结果如图 6所示。从图 6可知,文献[9]算法融合图像中绿色区域颜色偏深,且图像整体偏暗淡。标注观察区中黄色区域边界存在间断现象,绿色区域边缘存在吉布斯现象;文献[10]算法融合图像亮度适中,但泥土颜色偏红。标注观察区中绿色区域边缘存在间断现象,黄色区域边界存在振铃现象;本文算法融合图像亮度适中,绿色和黄色以及泥土颜色都正常。标注观察区中绿色和黄色区域的边缘都具有较好的连续性,不存在吉布斯和间断现象。但黄色区域顶部存在轻微模糊现象。通过观察图 5图 6中各算法融合图像的视觉效果可知,本文算法具有较好的融合特性,融合图像的亮度和颜色都较为正常,图像边缘的连续性也较好,不存在间断和吉布斯现象。因为本文算法采用IHS变换对MS图像进行了解析,使得解析出的I, H, S成分对MS图像的光谱信息具有较好的保真度。同时本文算法还利用了细节捕捉能力较强的NSST变换生成了图像的不同系数,使得图像系数较好地保持了源图的细节特征,从而提高了本文算法的融合特性。

Fig.5 Fusion results of different algorithms for IKONOS images 图 5 不同算法对IKONOS图像融合结果
Fig.6 Fusion results of different algorithms for WorldView-2 images 图 6 不同算法对WorldView-2图像融合结果
2.2 融合图像的量化测试

互信息(Mutual Information,MI)能够从融合图像与源图像之间的信息关联度出发,度量融合图像的质量。当MI值越大时,融合图像的质量也越好。光谱偏差度(Spectral Deviation,SD)反应了融合图像与MS图像的光谱偏差度。SD值越小,融合图像的光谱特性越好。

令MS图像IS、PAN图像IP、融合图像IR对应的概率密度分别为TIS, TIPTI,则MI的计算过程为[21]

$MI({\rm{IS}}, {\rm{IR}}) = \sum\limits_{i = 0}^{V - 1} {\sum\limits_{j = 0}^{V - 1} {{T_{\rm{ISIR}}}(i, j){{\log }_2}\frac{{{T_{\rm{ISIR}}}(i, j)}}{{{T_{\rm{IS}}}(i){T_{\rm{IR}}}(j)}}} } $ (17)
$MI({\rm{IP}}, {\rm{RP}}) = \sum\limits_{i = 0}^{V - 1} {\sum\limits_{j = 0}^{V - 1} {{T_{\rm{IPIR}}}(i, j){{\log }_2}\frac{{{T_{\rm{IPIR}}}(i, j)}}{{{T_{\rm{IP}}}(i){T_{\rm{IR}}}(j)}}} } $ (18)
$MI = MI({\rm{IS}}, {\rm{IR}}) + MI({\rm{IP}}, {\rm{IR}})$ (19)

式中:TISIRTIPIR分别为IS, IP与IR的联合概率密度;V为图像的灰度级总数。

SD的计算过程为[22]

$SD = \frac{1}{{MN}}\sum\limits_{x = 1}^M {\sum\limits_{y = 1}^N {\frac{{\left| {IS(x, y) - IR(x, y)} \right|}}{{IS(x, y)}}} } $ (20)

式中:IS(x, y)和IR(x, y)分别为IS和IR的灰度值;M, N为图像的大小。

利用文献[9-10]及本文算法,对SPOT-6卫星获得的12组图像进行融合。再利用各算法融合结果的MI和SD值,以及各算法融合过程的平均耗时,对各算法的融合特性进行量化测试。

各算法融合结果的MI和SD值如图 7所示。从图 7中可以发现,本文算法融合结果的MI值最大,SD值最小。以第7组融合结果为例,本文算法融合结果的MI, SD值分别为6.766, 0.902;文献[9]算法融合结果的MI和SD值分别为6.447, 0.826;文献[10]算法融合结果的MI和SD值分别为6.597, 0.869。另外,从表 1可知,文献[9]的融合效率最高,其耗时仅为228 ms;所提算法的复杂度要略高于文献[9],其耗时为297 ms;文献[10]的复杂度最高,融合效率最低,耗时达到了405 s。量化测试结果表明,本文算法融合图像对源图像的内容具有较高的保真度,算法的融合特性较好。因为本文算法将PAN图像对应低频系数特有的信息,灌入到I成分对应的低频系数中,使融合低频系数在具有较好光谱特性的同时,还拥有了较好的空间特征。同时本文算法还利用像素点间的灰度和梯度信息,构造了细节强化因子对高频系数进行融合,使融合高频系数具有更强的细节描绘能力,从而提高了本文算法的融合特性。采用NSST方法具有较快的分解效率,在一定程度上改善了所提算法的融合效率,但无法实现并行运算,因此,其效率要低于文献[9]。文献[9]算法中通过Shearlet变换生成图像的不同系数后,再通过区域能量比值取大的方法以及脉冲耦合神经网络的方法,分别融合低频和高频系数,进而获取融合结果。由于Shearlet变换的平移不变特性较弱,且区域能量比值取大的方法,未能考虑像素点间的差异性,从而降低了文献[9]的融合质量。另外,文献[9]主要借助脉冲耦合神经网络实现系数融合,能够并行实现算法,降低算法复杂度,提高融合效率。文献[10]算法中通过IHS变换获取MS图像的I成分,再通过小波包分析生成图像系数,利用边缘检测和图像的标准差信息分别融合低频和高频系数。由于小波包分析的多方向性不强,且边缘检测的方法不能较好地考虑图像的光谱信息,使文献[10]算法的融合特性有所下降。其采用的小波包分析与边缘检测方法需要遍历所有像素,使其计算量最大,导致其融合效率最低。

Fig.7 MI and SD values of the image fused by each algorithm 图 7 各算法融合图像的MI值和SD值
表 1 不同融合算法的平均耗时 Table 1 Average time-consuming of different fusion algorithms
3 结论

本文利用IHS变换从MS图像中解析出了其I成分,并利用NSST变换生成了I成分与PAN图像的不同图像系数。以图像的空间信息为依据,计算加权系数,对PAN图像对应低频系数特有的信息进行加权后,将其灌入到I成分对应的低频系数中,获得了光谱和空间特性都较好的融合低频系数。利用像素点间的灰度和梯度信息,构造了细节强化因子,获取了融合高频系数,使得融合图像的细节描绘能力更为强大。通过融合图像的视觉效果测试和量化测试可见,本文算法的融合特性较好,融合图像的色彩信息较为正常,图像的轮廓和纹理较为完整。

参考文献
[1]
梁兴东, 卜运成, 张福博. 灾害遥感中SAR三维成像技术的研究与应用[J]. 太赫兹科学与电子信息学报, 2019, 17(1): 49-55. (LIANG Xingdong, BU Yuncheng, ZHANG Fubo. Research and application of SAR 3D imaging technology in disaster remote sensing[J]. Journal of Terahertz Science and Electronic Information Technology, 2019, 17(1): 49-55.)
[2]
罗娟, 王立平, 谭云兰. 二代Curvelet变换耦合细节度量模型的遥感图像融合算法[J]. 电子测量与仪器学报, 2019, 33(7): 129-136. (LUO Juan, WANG Liping, TAN Yunlan. Remote sensing image fusion algorithm based on coupled detail measurement model of second generation curvelet transform[J]. Journal of Electronic Measurement and Instrument, 2019, 33(7): 129-136. DOI:10.13382/j.jemi.B1902076)
[3]
陈孝培, 杨学志, 方帅. 一种基于局部方差相似度的自适应图像融合算法[J]. 合肥工业大学学报(自然科学版), 2016, 39(12): 1619-1625. (CHEN Xiaopei, YANG Xuezhi, FANG Shuai. An adaptive image fusion algorithm based on local variance similarity[J]. Journal of Hefei University of Technology (Natural Science Edition), 2016, 39(12): 1619-1625.)
[4]
尹振鹤, 朱辉生. 基于二代Curvelet变换与近似度制约规则的遥感图像融合算法[J]. 电子测量与仪器学报, 2019, 33(4): 42-49. (YIN Zhenhe, ZHU Huisheng. Remote sensing image fusion algorithm based on second generation Curvelet transform and approximation restriction rules[J]. Journal of Electronic Measurement and Instrument, 2019, 33(4): 42-49.)
[5]
WANG Jun, PENG Jinye, JIANG Xiaoyue. Remote-sensing image fusion using sparse representation with sub-dictionaries[J]. International Journal of Remote Sensing, 2017, 38(12): 3564-3585. DOI:10.1080/01431161.2017.1302106
[6]
HNATUSHENKO V V, VASYLIEW V V. Remote sensing image fusion based on ICA and optimized wavelet transform[J]. ISPRS Congress, Commission Ⅶ, 2016, 41(B7): 653-659. DOI:10.5194/isprs-archives-XLI-B7-653-2016
[7]
王帅, 谢明鸿, 黄秋萍. 基于显著区域分割和小波变换的遥感图像融合[J]. 信息技术, 2019, 1(1): 57-60. (WANG Shuai, XIE Minghong, HUANG Qiuping. Remote sensing image fusion based on salient region segmentation and wavelet transform[J]. Information Technology, 2019, 1(1): 57-60. DOI:10.13274/j.cnki.hdzj.2019.01.014)
[8]
LIN Baihong, TAO Xiaoming, XU Mai. Bayesian hyperspectral and multispectral image fusions via double matrix factorization[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 55(10): 5666-5678.
[9]
赵学军, 刘静. 基于Shearlet和稀疏表示的遥感图像融合[J]. 科学技术与工程, 2017, 17(4): 255-259. (ZHAO Xuejun, LIU Jing. Remote sensing image fusion based on Shearlet and sparse representation[J]. Science Technology and Engineering, 2017, 17(4): 255-259. DOI:10.3969/j.issn.1671-1815.2017.04.043)
[10]
ZHU X, BAO W. Investigation of remote sensing image fusion strategy applying PCA to wavelet packet analysis based on IHS transform[J]. Journal of the Indian Society of Remote Sensing, 2019, 47(3): 413-425.
[11]
HADDAPOUR M, DANESHAVAR S, SEYEDARABI H. PET and MRI image fusion based on combination of 2D Hilbert transform and IHS method[J]. Biomedical Journal, 2017, 40(4): 219-225. DOI:10.1016/j.bj.2017.05.002
[12]
易维, 曾湧, 原征. 基于NSCT变换的高分三号SAR与光学图像融合[J]. 光学学报, 2018, 38(11): 76-85. (YI Wei, ZENG YONG, YUAN Zheng. Fusion of GF-3 SAR and optical images based on the nonsubsampled contourlet transform[J]. Acta Optica Sinica, 2018, 38(11): 76-85. DOI:10.3788/AOS201838.1110002)
[13]
DING Haiyong, SHI Wenzhong. A novel hybrid pan-sharpen method using IHS transform and optimization[J]. Advances in Remote Sensing, 2017, 6(3): 229-243. DOI:10.4236/ars.2017.63017
[14]
郭全民, 王言, 李翰山. 改进IHS-Curvelet变换融合可见光与红外图像抗晕光方法[J]. 红外与激光工程, 2018, 47(11): 440-448. (GUO Quanmin, WANG Yan, LI Hanshan. Anti-halation method of visible and infrared image fusion based on improved IHS-Curvelet transform[J]. Infrared and Laser Engineering, 2018, 47(11): 440-448.)
[15]
AHMED L J. Discrete Shearlet transform based speckle noise removal in ultrasound images[J]. National Academy Science Letters, 2018, 41(2): 91-95. DOI:10.1007/s40009-018-0620-7
[16]
LIU Xingbin, MEI Wenbo, DU Huiqian. Structure tensor and nonsubsampled Shearlet transform based algorithm for CT and MRI image fusion[J]. Neurocomputing, 2017, 235(1): 131-139. DOI:10.1016/j.neucom.2017.01.006
[17]
朱文维, 李俊峰. 基于非下采样剪切波变换和特征合成的医学图像融合算法[J]. 计算机系统应用, 2019, 28(10): 170-177. (ZHU Wenwei, LI Junfeng. Medical image fusion algorithm based on non-subsampled Shearlet transform and feature synthesis[J]. Computer Systems & Applications, 2019, 28(10): 170-177. DOI:10.15888/j.cnki.csa.007109)
[18]
AISHWARYA N, BENNILA T C. An image fusion framework using morphology and sparse representation[J]. Multimedia Tools & Applications, 2018, 77(8): 9719-9736. DOI:10.1007/s11042-017-5562-4
[19]
SHAH P, MERCHANT S N, DESAI U B. Multifocus and multi-spectral image fusion based on pixel significance using multi-resolution decomposition[J]. Signal, Image and Video Processing, 2013, 7(1): 95-109.
[20]
VAJGL Marek. Applicability of common measures in multifocus image fusion comparison[J]. AIP Conference Proceedings, 2017, 1906(1): 1-4. DOI:10.1063/1.5012353
[21]
杨艳春, 李娇, 王阳萍. 图像融合质量评价方法研究综述[J]. 计算机科学与探索, 2018, 12(7): 1021-1035. (YANG Yanchun, LI Jiao, WANG Yangping. Review of image fusion quality evaluation methods[J]. Journal of Frontiers of Computer Science and Technology, 2018, 12(7): 1021-1035. DOI:10.3778/j.issn.1673-9418.1710001)
[22]
刘军, 李德仁, 邵振峰. 利用快速离散Curvelet变换的遥感影像融合[J]. 武汉大学学报(信息科学版), 2011, 36(3): 333-337. (LIU Jun, LI Deren, SHAO Zhenfeng. Fusion of remote sensing images based on fast discrete Curvelet transform[J]. Geomatics and Information Science of Wuhan University, 2011, 36(3): 333-337.)