基于fsfdp-bov模型的遥感影像检索-沈忱.pdf
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《基于fsfdp-bov模型的遥感影像检索-沈忱.pdf》由会员分享,可在线阅读,更多相关《基于fsfdp-bov模型的遥感影像检索-沈忱.pdf(5页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第32卷第1期2016年1月地理与地理信息科学Geography and Geo-Information ScienceV0132 No1January 2016doi:103969jissn 16720504 201601们1基于FSFDPBoV模型的遥感影像检索沈忱,祁昆仑,刘文轩,吴华意(武汉大学测绘遥感信息工程国家重点实验室,湖北武汉430079)摘要:为提高遥感影像检索的精度,提出一种基于快速查找密度峰值聚类(Fast Search and Find of Density Peaks,FSFDP)的改进视觉词袋(Bag of Visual word,BoV)模型,该方法充分利用FSF
2、DP聚类算法分类精度高和聚类参数易于选择等优点,增强BoV模型特征量化的稳定性和可靠性。实验表明,与经典BOV模型相比,FSFDP-BoV模型能够得到更高的检索精度。关键词:遥感影像;检索;BoV;密度峰值聚类中图分类号:TP79 文献标识码:A 文章编号:1672-0504(2016)01一0055一050引言 1基于BoV模型的特征描述随着遥感影像的数据源和数据量的快速增长2|,基于内容的图像检索02成为当前遥感影像检索的一个研究热点和难斛F3“,提高遥感影像检索精度已成为基于内容的影像检索研究的必经之路。视觉词袋(Bag of Visual word,BOV)模型是基于内容的图像检索中最
3、热门的方法之一5。BoV模型源于信息领域的词袋(Bag of Words,BoW)模型。对于一个文本,BoW模型忽略其词序和语法句法,仅仅将其看作是一个词集合,文本中每个词的出现都是独立的,不依赖于其他词是否出现,即在任意位置选择一个词汇都不受前面句子的影响。由于BoW模型在特征描述方面有着独特的优势,因此将BoW模型的思想应用于图像的特征描述中,即BOV模型,当前已经广泛地应用于图像和视频的检索方面67。为提升BOV模型在遥感影像检索中的精度和效率,研究者对BoV模型做出了改进6_11I,改进后方法能够有效地提高检索的精度,但在特征量化时均没有考虑密度信息,无法满足地物繁多且目标复杂的高分辨
4、率遥感影像检索的需求。2014年Rodriguez等提出了快速查找密度峰值聚类(Clustering by Fast Search and Find of Density Peaks,FSFDP)r1 2算法,该聚类方法具有灵活性高、稳定性强、效率高等特点。基于此算法,本文提出了BOV改进模型FSFDPBoV模型,并将其应用于遥感影像检索中。BOV模型在遥感影像检索中主要用于影像特征描述向量的生成1 3|。假设有一组图像,从中选出测试样本和训练样本。首先,分别提取训练样本和测试样本的底层特征,如SIFT(Scale-Invariant Feature Transform)特征1 4|、将图像刚
5、性分割成多个块提取的颜色特征、纹理特征等,则每个图像就由很多个底层的局部特征表示,这些特征就是视觉词汇向量。然后利用KMeans算法对训练样本的视觉词汇向量进行聚类,选择聚类中心作为视觉字典的基础词汇。再利用欧式距离计算测试样本的视觉词汇向量与基础词汇的相似度,并用基础词汇表中的单词代替图像中的视觉词汇向量,统计出每一幅测试样本中基础词汇出现的次数,即统计直方图并作归一化处理,得到每一幅影像的特征向量,最终应用于影像的分类、检索等15,16。BOV模型描述遥感影像的流程主要包含特征提取、字典训练和特征量化3个阶段。传统BoV模型的字典训练是采用KMeans聚类算法。为提高传统基于KMeans的
6、BOV模型描述影像特征的精度。Zhong等17提出球形KMeans聚类算法(SphericalKMeans)来减弱局部特征高纬度和稀疏性对KMeans聚类效果的影响。Bolovinou等18进一步验证了该方法生成的聚类词典在表达能力上得到增强。PhilbinLl刘提出了近似K-Means(ApproximateKMeans,AKM),并将其应用于目标区域检索。Wang等20提出了快速近似KMeans聚类算法收稿日期:2015_。6一lo;修回日期:201510一14基金项目:国家973计划项目(2012CB719906)作者简介:沈忱(1991 ),男,硕士,主要从事高分辨率遥感影像检索研究。
7、Email:ShenChen0425whueducrl万方数据第56页 地理与地理信息科学 第32卷(Fast Approximate K-Means,F-AKM)用于有效识别类簇之间交界处的数据点,减少了每轮迭代的计算量,进一步加快了聚类收敛的塑封,提高了生成视觉词典的效率。此外,为提高高维直方图相似性度量的有效性,Wu等21提出了一种基于直方图相交核(Histogram Intersection Kernel,HIK)22的K_Means聚类方法生成视觉词典,并在目标识别实验中验证了该视觉词典的良好性能。文献23主要针对视觉词汇表的改进进行了研究,并对近似K_Means和分层KMeans两
8、种方法进行了对比分析。上述方法仅通过改进K-Means聚类来提升BoV模型在字典训练的精度和效率,且没有考虑到视觉词汇空间下视觉单词的分布和密度因素,得到的视觉字典无法很好地表达影像中的视觉单词,造成较大的量化误差。FSFDP聚类能够通过查找密度峰值确定聚类中心,不仅有效地保证规则分布点簇的完整性,而且与K-Means聚类算法相比,FSFDP算法有聚类结果稳定、算法效率高等优点。本文将基于FSFDP聚类算法改进BoV模型,以期提高字典训练的精度和改进BoV模型的影像特征量化方法。2基于FSFDPBoV模型的遥感影像检索21 FSFDP聚类FSFDP聚类方法是基于局部密度分布判别各个点类别的方法
9、,该算法假设聚类中心由一些局部密度比较低的点围绕,并且这些点距离其他高局部密度的点的距离都较远,以保证聚类中心之间不属于同一点集。找到聚类中心后,通过查找每个点临近的高密度点来判断该点的类别,以保证算法对呈规律分布的点群分类后的完整性。FSFDP算法的主要步骤如下:(1)计算局部密度P。点i的局部密度为到点i的距离小于截断距离d。的点的个数。P=x(如一dc)其中,若xO,则x(z)一1。(2)计算艿。艿是指点i到比自身局部密度大的点的最小距离。如果点i已经是局部密度最大的,则艿赋值为点i到距自身最远的点的距离。即:盈2。min,(du) 】:PI,P(3)寻找聚类中心。由于成为聚类中心的点需
10、要P和艿都优于其他点,也就是Density Peaks。本文用作为选取聚类中心的标准。对所有点按JD*艿由大到小排序,前K个点作为聚类中心,其中K为聚类中心个数。(4)确定各个点的类别。聚类中心选好后,每个点属于距其最近的且比自身密度高的点所在的类别,直至所有点都能划归到某一个类别。与KMeans相比,FSFDP算法有如下优点:1)灵活性:算法可根据P*艿的分布决定聚类中心个数K。2)稳定性:在相同数据源和参数的条件下,聚类结果完全一致不会出现多次聚类得到不同的结果的情况。3)高效性:聚类流程只需一次即可完成,不需要重复迭代。4)完整性:结果中呈规则分布的点群能划分到同一类别,保证分类精度。2
11、2 FSFDP-BoV模型基于FSFDP聚类算法提出FSFDPBoV遥感影像检索模型,利用FSFDP算法搜索密度峰值找到聚类中心并训练字典,在BoV模型的特征量化上根据局部密度逐点归类。该方法不仅在BoV模型生成字典的过程中充分考虑了点群密度分布情况,保证聚类中心是高密度的点,而且在BoV模型特征量化的过程中利用局部密度归类量化生成直方图。FSFDP一130V模型具体流程如图1。提取sIFl特征 卧目卧目卧目提取sI兀特征 卧-1卧目卧目融目一陆枷盘 uJ二堡叠壶墨口。一一,:L一。图1 FSFI)IoBOV模型Fig1 lhe FSFDP-Bo、,model(1)局部特征提取。提取训练样本和
12、候选样本影像的SIFT特征作为BoV模型的局部特征。每张影像得到卵个128维SI盯向量,其中咒为sI门点数目,向量组成咒*128的矩阵称为样本的特征。(2)基于FSFDP聚类算法构建BoV字典。分别计算每个特征点的ID和艿,并对所有特征点按ID*艿从大到小排序,取前K个特征点作为聚类中心(K为聚类个数),即字典中的基础词汇。(3)生成统计直方图。生成待检索影像和候选万方数据第1期 沈忱等:基于FSFDP-BoV模型的遥感影像检索 第57页样本库中的每张影像的统计直方图。经典的基于KMeans的BoV模型是利用欧氏距离度量测试样本的特征向量和字典中基础词汇(聚类中心)之间相似度,而FSFDP-B
13、oV模型是用特征向量的局部密度进行度量。首先将测试样本的特征向量置于训练样本的向量集空间中,然后计算特征向量的局部密度,找最近并且比自身密度高的训练样本特征,若该训练样本不是聚类中心,则继续找比该训练样本最近的且比自身密度高的特征,直到找到聚类中心。最后统计每个样本基础词汇出现的次数,得到统计直方图并进行归一化,得到的向量即为每幅影像的FSFDPBoV模型特征向量。(4)相似度对比。计算待检索影像特征向量与候选影像库的特征向量的余弦相似度,通过测量两个向量内积空间的夹角的余弦值来度量其间的相似性。o。角的余弦值是1,而其他任何角度的余弦值都不大于l,并且其最小值是一1,由于向量直方图中数值都不
14、小于0,故实际最小值为0。方法如下(其中H。、Hz为两个直方图向量):,、 ,H 7 J(i)H7 2(i)以H-Hz户蠹茅等等券最后据相似度大小对候选影像排序并输出结果。3实验与结果31实验数据本实验的数据来源于USGS的UCMercedLandUse数据中的10类典型地物样本,每类各100张影像,影像大小为256*256,分辨率为03048 m。样本示例如图2所示。图二样本不例Fig2 Illustration of tI七samples(1)所有10类样本作为候选样本库A一(A。,Az,A,。),其中A。有100张影像。候选样本库共有1 000张影像。(2)从中随机抽取的10张影像的集合
15、为B。,10类B。构成训练样本B一(B。,B。,B,。)。训练样本B共有100张影像。(3)待检索影像集C一(C,Cz,C。),其中Ct是从候选样本库中随机抽取的10张影像,待检索影像C共有100张影像。实验首先用训练样本B训练BOV模型的字典,通过字典量化待检索影像C和候选样本库A的特征向量;然后计算待检索影像C与候选样本库A的相似度并排序;最后统计检索影像集C中所有影像检索结果的准确率和召回率。32参数选择(1)截断距离d,的选取。最佳d。应使得特征集合中平均每个点的邻居数为所有点数目的12。首先取一个随机值d,统计所有点的邻居数之和,除以点的数目得到平均每个点的邻居数,再除以所有点的数目
16、。如果结果小于1,则扩大d的值,如果结果大于2,则减小d的值,当结果处于12的范围内时,取d作为截断距离。(2)聚类个数K的选取。聚类中心应是p和艿都比较大的点。为确定聚类个数K,需通过分析经过排序的p*艿曲线,找出曲线的拐点作为K的值。步骤如下:1)统计每个点的p和艿并计算P*占。2)对所有点按|0*艿值从大到小的顺序排序。3)根据|0*占值生成二维线性图表(图3),其中纵坐标为|D*占,横坐标为点的序号。4)根据特征点P*艿的分布,找出lD*艿值与大部分点lD*艿值相差较大的点集作为聚类中心。如图3,第一个点和第二个点之间p*艿间隔最大(由于原始点数量过大,将原始P*艿线形图按500间隔采
17、样,即每个点代表500个点),即前500个点的|D*艿值与后面的点差距较大,故聚类中心数目K应取500。粥;s州l图3选取最佳K值Fig3 The best choice of K value33实验结果用KMeans聚类的经典BoV模型作对比实验。图4为10类地物的待检测样本召回率的平均值,由此得到FSFDPBoV模型和经典KMeansBoV模型的准确率一召回率对比图。在遥感影像检索中FSFDPt30V模型的准确率整体上要比经典BoV模型万方数据第58页 地理与地理信息科学 第32卷高,尤其是在召回率为10的情况下更为明显。褂髫樊01 01 0 3 n4()5 06 0 7 08 ()9f_
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 fsfdp bov 模型 遥感 影像 检索 沈忱
![提示](https://www.taowenge.com/images/bang_tan.gif)
限制150内