《基于框架域的随机游走全色锐化方法-王敬凯.pdf》由会员分享,可在线阅读,更多相关《基于框架域的随机游走全色锐化方法-王敬凯.pdf(11页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、2017年4月第43卷第4期北京航空航天大学学报Journal of Beijing University of Aeronautics and AstronauticsApril 2017V0143 No4http:bhxbbuaaeducn jbuaabuaaeducnDOI:1013700jbh1001-596520160311基于框架域的随机游走全色锐化方法王敬凯,杨小远。(北京航空航天大学数学与系统科学学院,北京100083)摘 要:针对多光谱图像与全色图像的融合问题,提出了一种新的全色锐化方法。该方法首先通过亮度、色调、饱和度(IHS)变换与非下采样框架变换将原图像从空间域变换到框
2、架域,然后利用基于图论的随机游走,建立高频框架系数的统计融合模型。此模型根据高频框架系数的邻域相关性与尺度相关性构造新的随机游走协调函数,将高频框架系数融合权重的估计转化为随机游走标记问题的求解。实验结果表明,该方法有利于保持图像的光谱信息和边缘轮廓信息,可以在降低融合图像光谱误差的同时提高空间分辨率,并且优于一些主流全色锐化方法。关 键 词:全色锐化;框架变换;随机游走;多光谱图像;金色图像中图分类号:029文献标识码:A 文章编号:10015965(2017)04070911遥感图像融合是通过一定方法将同一地区的2幅或多幅遥感图像融合成一幅新遥感图像,使得新遥感图像比原单一遥感图像含有更多
3、的信息。本文的研究重点为全色锐化,是目前遥感图像融合领域的一个研究热点。多光谱图像通常空间分辨率较低,而全色图像通常具有较高的空间分辨率,但普遍缺乏光谱信息。全色锐化的目的就是将全色图像的空间信息融合到多光谱图像中,得到具有高空间分辨率的多光谱图像。11。最近几十年,世界各国学者提出了许多全色锐化方法。成分替代法是常见的全色锐化方法之一,主要有主成分分析(PCA),GramSchmidt正交化。21,亮度、色调、饱和度(IHS)变换口。等。此类方法通过对多光谱图像进行某种变换,将多光谱图像的空间信息集中于某一通道,然后用空间信息丰富的全色图像进行替换,最后由逆变换得到空间分辨率提升的多光谱图像
4、,但是此类方法较易产生光谱扭曲。针对此问题,后续的学者又提出了一些改进的方法14。5。,文献4利用互相关系数对PCA进行改进,给出一种自适应PCA方法,并与轮廓波变换结合,未考虑到遥感图像的光谱特征。文献5利用粒子群优化给出一种自适应成分替代法,得到自适应的权重系数,未考虑到遥感图像的几何特征。上述方法可以在一定程度上降低光谱误差,但仍未完全克服光谱误差较大的弊端。为进一步减少光谱信息损失,人们开始提出基于多尺度变换的方法,主要有小波变换(wT)m、非下采样小波变换(ATw)哺-10、拉普拉斯金字塔变换(LP)1。”1、曲波变换(Curve-1et)3|、非下采样轮廓波变换(NSCT)14。1
5、副及小波框架变换“”。等。此类方法首先将图像从空间域转换到变换域,然后针对变换系数的特点制定相应的融合规则,最后将得到的融合系数进行逆变换得到融合图像。此外,还有学者提出其他方法9。2 2|,文献19通过区域地图学习插值进行全色锐化,文献20提出基于非局部参数的优化收稿日期:2016-04-18;录用日期:2016-06-02;网络出版时间:2016-09-06 17:05网络出版地址:WWWcnkinetkcmsdetail112625V201609061705013html基金项目:国家自然科学基金(61671002);北京市自然科学基金(4152029)通讯作者:Email:xiaoyu
6、anyangvip163com引用格式:王敬凯,杨小远基于框架域的随机游走全色锐化方法J北京航空航天大学学报,2017,43一):709719WANG J KYANG X YFrameletbased random walk pansharpeningmethod3Journal ofBeijing University ofAeronautics andAstronautics,2017,43(4):709719(in Chinese)万方数据710 北京航空航天大学学报模型,文献2122将稀疏表示与细节注入模型结合。2015年,Vivone等对全色锐化方法进行了总结和比较分析。Grady将
7、基于图论的随机游走方法应用于图像分割,此方法有助于对边缘轮廓信息的识别,且对弱边缘也有较好的提取效果嵋4。“。Shen等将其推广到多曝光图像融合。2,通过随机游走得到每个像素点的到达概率来确定融合权重。Hua等根据多聚焦图像的特点,重新构造随机游走协调函数,将其应用于多聚焦图像融合旧“。文献2627均是在空间域上建立随机游走融合模型,直接对像素点融合。由于多光谱图像经IHS变换后,其I通道仍包含了一部分光谱信息。如果利用随机游走在空间域对多光谱图像的I通道与直方图匹配后的全色图像(与I通道具有相同的均值和标准差)进行融合,虽然可以提高融合图像的空问分辨率,但会产生一定的光谱信息损失。针对此问题
8、,将多光谱图像的I通道与匹配后的全色图像变换到框架域进行融合。I通道的低频框架系数包含了大部分光谱信息,为保留光谱信息,保持其不变,只对I通道和匹配后的全色图像的高频框架系数进行融合。本文根据高频框架系数主要包含图像边缘轮廓信息的特点,建立基于随机游走的统计融合模型。此模型在构造随机游走协调函数时,考虑到每个高频框架系数的局部统计特征与相关性,又在基于图论的随机游走学习中,考虑到全局的高频框架系数,使得所得融合权重可以较好地度量高频框架系数包含的空间信息,有助于在融合过程中保留图像的边缘轮廓信息,进而提高融合图像的空间分辨率。1 IHS变换-ff框架变换川一凳二豫荆13扑,至;=i一-11丢、
9、虿21-:“2-2 Jlr三lf:c2,2 随机游走基本原理本节首先给出基于图论的随机游走,在此基础上,给出随机游走标记问题(未标记顶点到标记顶点的到达概率)的求解过程。由图论,图可由顶点集与边集表示。顶点集为V=秽。,m=1,2,K+MN=y,x,口。为顶点,Y=K,z=1,2,K为标记顶点集,yf用来标记K个待融合的系数矩阵,X=戈,i=1,2,MN为未标记顶点集,可看作MN个随机变量,戈。为第i个系数。边集为8=1。,e2。,i,J=1,2,M,z=1,2,K,e。为未标记顶点与标记顶点连接形成的边;e;,为未标记顶点之问连接形成的边,一般采用四邻域的方法进行连接。本文采用无向图,边e叫
10、1与e2的权值可记为加。与w;,。如无特别说明,文中的上标1,2均表示序号。综上,基于图论的随机游走如图1所示。万方数据第4期 王敬凯,等:基于框架域的随机游走全色锐化方法 711图1基于图论的随机游走Fig1 Random walk based on graph theory为得到未标记顶点到标记顶点的到达概率,首先定义顶点间的协调函数为3训m。=训(刨m,秽。)= (3)式中IW(w。,口。)为计算顶点w。与移。之间权值的协调函数,删为其简化表示;1为第m个未标记顶点与第n个标记顶点之间的权值;训2为第m个未标记顶点与第几个未标记顶点之间的权值;ot与卢为调节参数,对权值叫:。与伽:。进行
11、调节。由文献20可知,标记问题可以转化为求解相应的狄利克雷问题。令M(秽。)表示在点”。处的能量,图1系统的总能量E为旧纠E=Wm,n(u(。)一M(Vn)2 (4)目标是找到满足V2M=0的调和函数M(),使E最小。此问题可有效利用矩阵运算,定义拉普拉斯矩阵旧:rdm m=nL=一训 (勘。,秽。)占 (5)【0 其他式中:三为矩阵在m行n列处的矩阵元素值,的维数为(K+MN)(K+MN);d。为在点口。邻域处的度;甜可由式(3)计算得到。式(4)可以转化为矩阵表示E=撒卜:T:H盯唔乏(6)式中:U,和U,分别为标记的矩阵和未标记的矩阵;,和L,分别为标记顶点间连接的权值矩阵和未标记顶点间
12、连接的权值矩阵;F为未标记顶点与标记顶点间连接的权值矩阵。最后通过求解VE=0,关于比,求导,将问题转化为线性方程组心6|:LxUx=一F1U y (7)赋值U,求解式(7)得到M。,然后由比,得到未标记顶点到标记顶点的到达概率。3 高频框架系数的统计融合模型本节讨论高频框架系数的融合,首先给出统计融合模型:,“=JP:,A:+P;,叫A:, (8)式中:,;。;表示融合后的s尺度、丘高频子带的第i个框架系数;A:,与A2分别表示I通道与匹配后的全色图像的s尺度、k高频子带的第i个框架系数;P:,与p蹦2,i分别表示I通道与匹配后的全色图像的s尺度、k高频子带的第i个框架系数的融合权重;i=1
13、,2,删;S=1,2,t,为分解尺度;k=1,2,8,表示8个高频子带。模型中融合权重P:,与P;,未知,根据第2节给出的随机游走基本原理,将融合权重P!。i与P:。;的计算转化为随机游走标记问题的求解。用标记顶点表示待融合的高频子带,未标记顶点表示高频子带中的每个框架系数。首先给出高频框架系数的统计特性,然后在此基础上重新构造随机游走协调函数,最后转化为求解线性方程组,得到每个高频框架系数与所对应高频子带的概率关系,即每个高频框架系数的融合权重。31 高频框架系数的统计特性根据文献30总结的小波变换特性:聚集性(clustering)与持续性(persistence)。类似得出高频框架系数的
14、统计特性:同一尺度同一子带内的邻域相关性与不同尺度相同子带间的尺度相关性。邻域相关性:如果一个框架系数是大(小)的,则其相邻的系数也很可能是大(小)的,如图2(a)所示。尺度相关性:框架系数大(小)的属性沿尺度传递,如图2(b)所示。其中,Ami为位于s尺度、南高频子带内第i个框架系数。(a)邻域相关性 (b)尺度相关性图2高频框架系数的邻域相关性与尺度相关性Fig2 Neighborhood correlation and scale correlation ofhigh frequency framelet coefficients32基于高频框架系数统计特性的协调函数构造类比式(2),定
15、义关于s尺度、k高频子带的协调函数:n,m2玑似附ap,f1【万方数据712 北京航空航天大学学报 2017年(W。)。=W。(口。,秽。)=j矗n(伽:,e)m,n。m EXs,k,Vnt,t (9)【(训小2) 口。,秽。x蹦式中-W小(秽。,。)、(W小)、(伽小1)、(加2。,)、x。和F;是对式(3)中变量的推广,用未标记顶点表示s尺度、五高频子带的框架系数,标记顶点表示待融合的s尺度、五高频子带;此外,本文取参数“=矗。(七。为调节参数),3=1,可以对融合图像的空间分辨率与光谱误差进行调节,在43节参数选取中将会对而。的变化进行具体分析。为将(叫m1)和(训2。,。)的下标进行区
16、分,本文用(叫小1)叫表示(叫:,。),用(伽小2)。表示(伽;。)。此处i,歹=1,2,MN,表示s尺度、五高频子带的第i个框架系数;此外,由于本文是对2幅图像进行融合,所以取z=1,2,分别代表多光谱图像的I通道和匹配后的全色图像。321 (伽:。)“的构造本节根据高频框架系数的邻域相关性与尺度相关性构造(叫“1)。由31节知,高频框架系数具有邻域相关性,所以对高频框架系数进行度量时,需要考虑其邻域信息(四邻域或者八邻域,如图2(a)所示)的影响。本文先计算每个高频框架系数与其邻域均值的距离,然后再与其邻域的标准差做比值运算,具体计算过程见式(10)式(12)。如a 2亩三a小I,z(10
17、)s啪l户雨1丕(A小l,。一如s)2(11)y:i;:旦坐三竺型 (12)sr1一 、 ,s:式中:z=1,2;6为高频框架系数的邻域,I 6为邻域包含的系数个数;M。l,蛐与s!,蛐分别为高频框架系数邻域的均值与方差;yml。为高频框架系数的度量值,y1越大,表明高频框架系数越显著,包含空间信息越多。在式(12)中,仅考虑了高频框架系数在同一尺度下同一子带内的邻域相关性。由于本文采用多尺度框架变换,所以仍需考虑高频框架系数在不同尺度下的相关性影响。由31节知高频框架系数具有尺度相关性,如图2(b)所示。通过比较),m1。的大小以及I通道与匹配后的全色图像在不同尺度同一子带间的相关系数对y幽
18、l i进行修正,具体计算过程见式(13)式(17)。r(C,D)=(C小一c)(D啪一D)(C。,。c)2(D。,。z)2(13)c。,。+。),。=r(Al,。,A。l+。,) (14)式中:r为计算矩阵C与D的相关系数;c“和D“分别为矩阵C与D在a行6列的矩阵元素值;C与D分别为矩阵c与D的均值;z=1,2,A幽1与A:儿。分别为I通道的s、s+1尺度、k高频子带矩阵,A;。与A;“。同上所述,为匹配后的全色图像;ck+1),。与c2川分别为I通道与匹配后的全色图像在不同尺度同一子带问的相关系数。如果y:“y。l+1,k,i,则),。1,t,i=l cl(。,+。),。Iy!,t,i+(
19、1一I cl(。,。+。),。I),!+-,t,;(15)反之,则),。l+-,t,。=l c:。,。+,),。Iy!,t,i+(1l c:。,。+。),。I),!+,t,i(16)最后对y:“进行归一化处理,得到1,l:,A,z 2赫(17)式中:max(y1。)为求向量y:。所有元素中的最大值,y啪l为由元素y:组成的向量。322(伽;。)。的构造本节根据高斯函数心构造(伽小2)u:(。p(-且型) (18)式中:A取100;i,J=1,2,MN;f。,和六,表示s尺度、矗高频子带的第i、j个系数的度量。文献2122均采用取均值的方法计算,“,但本文是在框架域上进行随机游走,需要考虑高频框
20、架系数不同子带间的相关性影响。因此由I通道与匹配后的全色图像在同一尺度,相同高频子带问的相关系数计算工,具体计算过程见式(19)和式(20),同理可得,。六,。,i=l c;。lA:,。,i+(1一l c。1)A。2,。,i (19)。啪=r(Aml,A小2) (20)式中:Cs为I通道与匹配后的全色图像在s尺度、,k后高频子带间的相关系数。综上分析,利用式(9)式(20)可以得到基于高频框架系数统计特性的协调函数(W“)。33高频框架系数融合权重的求解本节通过求解随机游走标记问题,得到多光谱图像的I通道与匹配后的全色图像的s尺度、|j万方数据第4期 王敬凯,等:基于框架域的随机游走全色锐化方
21、法 713高频子带的融合权重。本文将32节构造的协调函数代入第2节给出的随机游走标记问题的求解过程,将问题转化为线性方程组的求解:LX,s,kux。m 2一F蹦F Uymt (21)式中:如,。、u如,。、F:,。和H,。为在s尺度、k高频子带意义下对L,、u。、F。和u,的推广。首先类比第2节给出的公式,由协调函数(W“)构造新的拉普拉斯矩阵,进而确定矩阵L,和F T1。然后,令U。=1 0;0 11,求解式(21)得到Un女:厂 】 Tzc。,。=l“:j女l“:Xs,女2u:Xp,E“:Xs,k肘w一2 2 2 2 :L MX,1 “工,2 MX,s,k,fMx,s,MN J(22)式中
22、:M如1。与u如2,分别表示第1行和第2行的矩阵元素值。利用Ux,s,k计算I通道与匹配后全色图像s尺度、k高频子带的第i个框架系数的融合权重为f pl uxj,。 J 1 5,M,1,。,i+M2,:,;i (23)2 Mx,i+Mz,:,i (23)【=1一p小l,i最后将融合权重P:,与p啪2。代入式(8),即可得到融合后的高频框架系数。34融合算法流程步骤1 对多光谱图像进行IHS变换(见式(1),得到多光谱图像的I通道,并利用I通道对全色图像进行直方图匹配,使全色图像与I通道具有相同的均值和标准差17 o。步骤2利用非下采样框架变换分别对多光谱图像的I通道和匹配后的全色图像进行多尺度
23、框架分解,得到低、高频框架系数。步骤3 框架系数融合。低频:保留多光谱图像的I通道的低频框架系数;高频:利用基于随机游走的统计融合模型对多光谱图像的I通道和匹配后的全色图像的高频框架系数进行融合(见式(8)。步骤4对融合后的框架系数进行重构,得到融合全色图像空间信息的新的I通道J,。步骤5用J,替换J,进行逆IHS变换(见式(2),得到具有高空间分辨率的多光谱图像。4实验与结果分析41 实验数据与评价指标选取2类常见的遥感卫星拍摄的全色图像与多光谱图像进行图像融合实验:Quick Bird遥感卫星拍摄的Pyramids全色图像(PY-PAN)与Pyra-raids多光谱图像(PYMS)融合;L
24、andsat 7 ETM+遥感卫星拍摄的Wenzhou全色图像(WZPAN)与Wenzhou多光谱图像(WZMS)融和。全色图像和多光谱图像如图3所示。选取的图像大小均为512像素512像素,利用MATLAB-2012a对选取的图像按照34节给出的算法流程进行编程实验。在客观评价中,从光谱误差与空间分辨率2个角度分析融合效果,采用全色锐化常用的3个评价指标:相对平均光谱误差(RASE)“,相对无维全局光谱误差(ERGAS)31。,空间相关系数(SCC)“。由文献31可知,RASE与ERGAS从光谱误差的角度衡量融合效果,RASE与ERGAS的值越小,表明光谱误差越小,它们的理想值为0,其定义分
25、别为RASE=等吉砉RMSE2 (24)职眦洲吣吉砉雩铲 ,式中:u为波段总数;Q为参考图像所有波段的均值;RMSE(f)为融合图像与参考图像的第t波段的均方根误差;g为全色图像与多光谱图像的像素大小的比值;o(t)为参考图像的第t波段的均值。由文献32,SCC用来衡量融合图像的空间(c)WZ-PAN (dWZ-MS图3 全色图像与多光谱图像Fig3 Panchromatic images and muhispectral images万方数据714 北京航空航天大学学报分辨率,利用拉普拉斯滤波器(见式(26)提取全色图像与融合后的I通道的高频信息,然后计算相关系数,SCC的值越大,表明融合图
26、像的空间分辨率越高,其理想值为1。r一1 1 1Ml。,=l一1 8 1 (26)L一1 1 1J42参数选取421 分解尺度t,的分析本节讨论分解尺度,的选取,取k。=k:=1保持不变,l,分别取2、3、4进行仿真实验,实验结果见表1,括号内为评价指标的理想值。表1不同分解尺度的融合结果Table 1 Fusion results for different decomposition level图像 , RASE(0)ERGAS(0) SCC(1)2 3378 8 0845 8 09720P?AN+ 3 4336 5 10842 09789PYMS4 。 一 。4 50120 1251 5
27、 0 97962 6176 5 3092 5 09706w裟+3 9135 6 45667 o976 9由表1可知,随着分解尺度,的增加,融合图像的空间分辨率提升,但光谱误差增大。在t,取2时,融合图像的空间分辨率已经较高,随着,的增加,空间分辨率没有明显提升,又考虑到光谱误差与实验运行时间,所以本文取I,为2时进行融合实验。422参数k。的分析由于只对2幅图像融合,所以只需讨论k,与k,变化对融合效果的影响。为分别看其影响,分2种情况进行讨论:固定k:=1,令而,从01到2变化,间隔取005;固定后,=1,令k:从01到2变化,间隔取005。按照上述思想,对2类遥感图像进行融合实验。PY图像
28、融合以及WZ图像融合的评价指标随k,与k:变化的曲线图见图4。由图4可以发现:k:保持不变时,随着k,的增大,融合图像的空间分辨率逐渐提高,但光谱误差逐渐增大;k,保持不变时,随着k:的增大,融合图像的光谱误差逐渐减小,但融合图像的空间分辨率逐渐减小。因此,本文只需固定其中一个参数,令另一个参数变化,即可得到不同情况下的融合图像。由图4还可以发现:固定k:,而k。变化时,评价指标在初始时波动较大,虽然可以得到较低的光谱误差,但空间分辨率更低,不符合实际需求。所以本文固定k。=1,令k:从01到2进行变化,融合实验结果见表2。由表2可知,当k,为1,k:大于1时,融合图k。哎(b)评价指标ERG
29、AS随k,、t的变化kk、(c)评价指标SCC随。、t的变化图4评价指标随k。、:的变化Fig4 Variation of evaluation indices with Al and k2像的空间分辨率变得较低,不符合实际需求。因此k,为1,k:的范围在O与1之间时,可以在空间分辨率与光谱误差之间达到较好的平衡。43与其他全色锐化方法的比较本节将基于框架域的随机游走全色锐化方法(NFT+RW)与基于空间域的随机游走融合方法(RW)旧7及其他8种主流全色锐化方法做比较,包括:GramSchmidt正交化法(GS)拉1、IHS变换法(IHS)1、基于广义金字塔变换与调制传递函数的方法(MTF+G
30、LP)2|、基于非下采样小波变换的上下文驱动融合方法(AwT+CDWL)。9、万方数据第4期 王敬凯,等:基于框架域的随机游走全色锐化方法 715表2取不同七:的融合结果 表3不同融合方法的融合结果Table 2 Fusion results for different k2 Table 3 Fusion results of different fusion methods光谱误差最小注入方法(AwT+SDM)1、基于非下采样轮廓波变换的图像融合方法(NSCT)”。、基于不可分离框架提升变换的协方差交叉融合方法(NFLT+CI)H川以及基于稀疏表示与细节注入模型的全色锐化方法(SRDIP)旧
31、。用上述全色锐化方法对2类图像:PYMS与PYPAN以及WZMS与WZPAN进行融合实验,其中本文方法的参数七,取3种情况:矗,=01,05,09。从客观评价指标和主观融合效果2个角度对比分析,客观评价指标见表3,融合图像见图5,分别用PYFUS与WZFUS表示融合后的图像。由表3,从客观评价指标分析。首先在2类图像融合中,NFT+RW方法均可得到比传统的RW方法更优的评价指标值。其次,GS与IHS方法虽然可以得到较高的SCC值,但其RASE与ERGAS值过大。这表明,成分替代法虽然可以大幅提高融合图像的空间分辨率,但会造成较大的光谱误差。在基于多尺度变换的方法中,分析PY图像融合:NFT+R
32、W方法的评价指标值优于MTF+GLP、AWT+CDWL和NFLT+CI方法。虽然NSCT与AWT+SDM方法的SCC值略高于NFT+RW方法,但其RASE、ERGAS值远大于NFT+RW方法;同样分析WZ图像融合:NFT+RW方法的评价指标值优于MTF+GLP、AWT+SDM AWT+CDWL、和NFLT+CI方法。虽然NSCT方法的SCC值略高于NFT+RW方法,但其RASE、ERGAS值是NFT+RW方法的2倍左右,即光谱误差远大于NFT+RW方法。此外,NFT+RW方法在2类图像融合中的评价指标值均优于SRDIP方法。综上,权衡空间分辨率与光谱误差的评价指标值,NFT+RW方法可以在保持
33、光谱误差较低的情况下,使融合图像空间分辨率提高,优于传统的RW方法和其他全色锐化方法。由图5,从主观融合效果分析。首先可以发现在2类图像融合中,成分替代法GS与IHS以及传统的RW方法都会产生光谱扭曲现象。然后,观察基于多尺度变换的融合图像:在PY图像融合中,本文方法所得融合图像的边缘轮廓比MTF+GLP、AwT+CDWL和NFLT+CI方法清晰且光谱特性保持得更好。虽然NSCT与AWT+SDM方法所得融合图像的边缘轮廓的清晰度略优于NFT+RW方法,但其融合图像在草地区域发生较大的光谱扭曲;在WZ图像融合中,与NFT+RW方法才目比,AWT+CDWL、AWT+SDM、NSCT方法仍有较明显的
34、光谱扭曲现象。虽然MTF+GLP、NFLT+cI和SRDIP方法在光谱特性保持方面与NFT+RW方法接近,但其边缘轮廓不如NFT+RW方法清晰。综上,权衡融合图像的光谱特性与空间分辨率,NFT+RW方法在主观融合效果上也优于传统的RW方法和其他全色锐化方法。万方数据716 北京航空航天大学学报 2017年u)WZ-FUSRW (V)WZ-FUS-NFTRW(,=01) (w)WZ-FUS-NFT+RW(k、=0 5) (x)WZFL_SNFT+RW(k、一0 9图5融合图像Fig5 Fusion images万方数据第4期 王敬凯,等:基于框架域的随机游走全色锐化方法 71744计算复杂度假设
35、图像的像素个数为MN,框架变换的分解尺度为d,则算法中IHS变换的计算复杂度为O(MN),直方图匹配的计算复杂度为0(MN),非下采样框架变换的计算复杂度为0(埘),协调函数构造的计算复杂度为0(JMN),稀疏线性方程组求解采用共轭梯度平方法。3”,其计算复杂度与稀疏矩阵非零元的个数与以及迭代次数Iter有关,为O(herJMN)。综上,本文方法的计算复杂度与图像大小、分解次数以及迭代次数有关。为与其他方法进行比较,本文统一利用MATLAB在34 GHz主频与8 GB内存的电脑环境下运行不同全色锐化方法的程序,得到运行时间见表4。由表4可知,本文方法的运行时间为7 S左右,优于MTF+GLP与
36、SRDIP方法。又因为本文方法基于框架域进行分析,并在框架系数融合中考虑到每个框架系数的局部统计特征,在得到较好结果的同时,增加了一定的计算复杂度,与GS、IHS和AWT等方法相比,运行时间相对较长,可以用并行计算进行加速。综上,本文方法的计算复杂度适中,并由43节知,相比计算简单的方法,其融合结果更好。表4不同融合方法的运行时间Table 4 Elapsed time of different fusion methods5 结 论1)提出一种基于框架域的随机游走全色锐化方法。在低频融合中,为保留光谱信息,保持多光谱图像I通道的低频框架系数不变;在高频融合中,为提高空间分辨率,建立基于随机游
37、走的统计融合模型。该模型根据高频框架系数的统计特性,重新构造随机游走协调函数,通过求解框架域上的随机游走标记问题得到高频框架系数的融合权重。2)在实验中,利用新给出的全色锐化方法对2类遥感图像进行融合,并与8种主流全色锐化方法以及基于空间域的随机游走融合方法比较。从客观评价指标与主观融合效果2个方面可知本文方法可以在光谱误差减小与空间分辨率提高之间达到较好的平衡,并且有利于保持边缘轮廓的清晰,避免光谱扭曲现象。参考文献(References)JCHAVEZ P S,SIDES J S C,ANDERSON J A Comparison ofthree different methods to
38、merge rnuhiresolution and muhispectral data Landsat TM and SPOT panchromaticJPhotogrammetric Engineering and Remote Sensing,1991,57(3):2653031 2LABEN C A,BROWER B VProcess for enhancing the spatialresolution of muhispeetral imagery using pansharpening:US601 1 875 AP2000-040I:3Tu T M,SU S C,SHYU H C,
39、et al A new look at IHSlike image fusion methodsJnformafion Fusion,200l,2(3):1771864SHAH V P,YOUNAN N H,KING R L An efficient pansharpening method via a combined adaptive PCA approach and eontourletsJIEEE Transactions on Geoscience and RemoteSensing,2008,46(5):13231 3351 5WANG W,JIAO L,YANG SNovel a
40、daptive component substi-tution based pansharpening using particle swarm optimization:jIEEE Geoscience and Remote Sensing Letters,201 5,12(4):781785:6ZHOU J,CIVCO D L,SILANDER J A A wavelet transformmethod to nlerge Landsat TM and SPOT panchromatic dataJInternational Journal of Remote Sensing,1998,1
41、9(4):7437577袁晓冬,李超,盛浩小波多分辨分量相关性图像融合方法J北京航空航天大学学报,2013,39(6):847852YUAN X D,LI C,SHENG HWavelet multi resolution weightcorrelation image fusion methodJJournal of Beijing University of Aeronautics and Astronautics,2013,39(6):847852(inChinese)8NUNEZ J,OTAZU X,FORS O,et al Muhiresolution based image fus
42、ion with additive wavelet decompositionJIEEETransactions on Geoscience and Remote Sensing,1 999,37(3):12041211:9GARZELLI A,BENELLI G,BARNI M,et al Improving waveletbased merging of panchromatic and muhispeetral images bycontextual infornaationJProceedings of SPIEThe International Society for Optical
43、 Engineering,200l,4170:8291:10GARZELII A,NENCINI FInterband structure modeling forPansharpening of very highresolution nmhispectral imagesJInformation Fusion,2005,6(3):21 3224111AIAZZI B,ALPARONE 1,BARONTI S,et al Context drivenfusion of high spatial and spectral resolution images based onoversample
44、d muhiresolution analysisJIEEE Transactions onGeoscience and Remote Sensing,2002,40(10):2300231212AIAZZI B,AIPARONE L,BARONTI S,et al MrFtailored万方数据718 北京航空航天大学学报 2017年multiscale fusion of highresolution MS and Pan imageryJPhotogrammetric Engineering and Remote Sensing,2006, 72(5):59159613CHOI M,KI
45、M R Y,NAM M R,et a1Fusion of multispectraland panchromatic satellite images using the curvelet transformJIEEE Geoscience and Remote Sensing Letters,2005,2(2):13614014贾建,焦李成,孙强基于非下采样Contourlet变换的多传感器图像融合J电子学报,2007,35(10):19341938JIA J,JIAO L C,SUN QThe nonsubsampled contourlet transform in multisenso
46、ry images fusionJActa Electronica Sini-ca,2007,35(10):1934-1938(in Chinese)15陶旭婷,和红杰,陈帆,等基于局部相关性的遥感图像全色锐化算法J光子学报,2014,43(3):3100031310003_6TAO X T,HE H J,CHEN F,et a1Pansharpening algorithm forremote sensing images based on local correlationJActa Pho-tonica Sinica,2014,43(3):3100031310003-6(in Chine
47、se)16LI S,KWOK J T,WANG YUsing the discrete wavelet frametransform to merge Landsat TM and SPOT panchromatic imagesJInformation Fusion,2002,3(1):17-2317SHI Y,YANG X Y,CHENG TPansharpening of multispectralimages using the nonseparable framelet lifting transform withhigh vanishing momentsJInformation Fusion,2014,20(1):21322418FANG F,ZHANG G,LI F,et a1Framelet based pansharpeningvia a variational methodJNeurocomputing,2014,129(1):36237719SHI C,LIU F,L1 L,et a1Learning interpolation via regionalmap for pansharpeningJIEEE Transactions on
限制150内