第8章遥感图像分类.pptx
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《第8章遥感图像分类.pptx》由会员分享,可在线阅读,更多相关《第8章遥感图像分类.pptx(74页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、1第8章 遥感图像分类8.1 概述8.2 相似性度量8.3 工作流程8.4 非监督分类8.5 监督分类8.6 其他分类方法8.7 分类后处理8.8 分类精度分析第1页/共74页28.1 概述8.1.1 基本原理8.1.2 分类方法第2页/共74页38.1 概述8.1.1 基本原理同类地物在相同的条件下(光照、地形等)应该具有相同或相似的光谱信息和空间信息特征。不同类的地物之间具有差异根据这种差异,将图像中的所有像素按其性质分为若干个类别(Class)的过程,称为图像的分类。遥感图像分类以每个像素的光谱数据为基础进行。假设遥感图像有K个波段,则(i,j)位置的像素在每个波段上的灰度值可以构成表示
2、为X=(x1,x2,xk)T,包含X的K维空间称为特征空间,这样K个波段的多光谱图像便可以用K维特征空间中的一系列点来表示。在遥感图像分类问题中,常把图像中的某一类地物称为模式,而把属于该类中的像素称为样本,X=(x1,x2,xk)T 可以称为样本的观测值。第3页/共74页48.1 概述8.1.2 分类方法根据是否需要分类人员事先提供已知类别及其训练样本,对分类器进行训练和监督,可将遥感图像分类方法划分为监督分类和非监督分类。事先己经知道类别的部分信息(即类别的先验知识),对未知类别的样本进行分类的方法称之为监督分类(Supervised Classification)。事先没有类别的先验知识
3、,对未知类别的样本进行分类的方法称之为非监督分类(Unsupervised Classification)根据分类使用的统计数学方法可以分为随机统计方法和模糊数学方法分类。前者以随机数学理论为基础,包括K-均值分类、最大相似性分类等。后者以模糊数学理论为基础,主要是模糊分类。第4页/共74页58.1 概述8.1.2 分类方法根据一个像素被分到一个类还是多个类,可将遥感图像分类方法分为硬分类和软分类。图像上的一个像素只能被分到一个类的分类方法称为硬分类(hard classification)。传统的统计分类方法都是硬分类。硬分类有时可能不合理。因为有些像素可能同时具有两个类或多个类的性质。图像
4、上的每一个像素可以同时被分到两个或两个以上类的分类方法,称为软分类(soft classification),这时每个像素除了被分类外,还同时允许它在不同的两个或多个类中具有隶属概率(class membership probability)或部分隶属值(partial Membership value)。这是对硬分类不合理一面的一种较合理的解决方式。第5页/共74页68.2 相似性度量距离是常用的相似性度量的概念。分类是确定像素距离哪个点群中心较近,或落入哪个点群范围可能性大的问题。像素与点群的距离越近,那么,属于该点群的可能性越高。按照一定的准则,当距离小于一定值时,像素被划分给最近的点群
5、。每个点群为一个类。同一类别中点间的距离一般来说比不同类别点间距离要小。也可以认为,一个点属于某一类,一定与这个类别中心的距离比与其他类别中心的距离小。因此,在点群(团)中心已知的情况下,以每个点与点群中心的距离作为判定的准则,就可以完成分类工作。运用距离判别函数时,要求各个类别点群的中心位置己知。对于光谱特征空间中的任一点k,计算它到各类中心点的距离d。若didj,则k像素属于i类而不属于j类,此处,判别准则为didj第6页/共74页78.2 相似性度量dik为当前像素i到类k的距离,P为波段数,xij为像素i在j波段的像素值,Mjk为类k在波段j的均值。2.欧氏(Euclidean)距离1
6、.绝对距离该距离是平面上两点之间的直线距离,应用最多。第7页/共74页88.2 相似性度量3.马氏(Mahalanobis)距离马氏距离是一种加权的欧氏距离,它通过协方差矩阵来考虑变量的相关性。这是由于在实际中,各点群的形状是大小和方向各不相同的椭球体,如图所示,尽管K点距MA的距离DA比距MB的距离DB小,即DADB,但由于B点群比A点群离散得多,因而把K点划入B类更合理。加权可以这样理解,计算的距离与各点群的方差有关。方差愈大,计算的距离就愈短。如果各个点群具有相同的方差,则马氏距离是欧氏距离的平方。第8页/共74页98.2 相似性度量3.马氏(Mahalanobis)距离第9页/共74页
7、108.2 相似性度量4.相似系数又称为余弦距离,其数学表达式为:为图像像素光谱与参照光谱之间的夹角(光谱角)X为图像像素光谱曲线向量Y为参照光谱曲线向量。当cos的值接近1的时候有最好的估计光谱值和类别分类结果。光谱角值以很小的弧度角来表示,它代表了光谱曲线之间的相似性,其变化范围是0,/2第10页/共74页118.3 工作流程图像的预处理选择分类方法特征选择和提取选择合适的分类参数进行分类分类后处理成果输出1.确定工作范围2.多源图像的几何配准3.噪声处理4.辐射校正5.几何精纠正6.多图像融合特征选择是从众多特征中挑选出可以参加分类运算的若干个特征。特征提取是在特征选择以后,利用特征提取
8、算法(如主成分分析算法)从原始特征中求出最能反映地物类别性质的一组新特征。特征选取的原则:尽可能选取数量适当有助于增加同类地物的类聚性(即类内个体间离散性小)、能扩大地物类别之间差异性的特征变量。第11页/共74页128.4 非监督分类 根据事先指定的某一准则,让计算机自动进行判别归类,无需人为干预,分类后需确定地面类别。在非监督分类中,先确定光谱可分的类别(光谱类)然后定义它们的信息类。第12页/共74页138.4 非监督分类非监督分类,是指人们事先对分类过程不施加任何的先验知识,仅凭据遥感影像地物的光谱特征的分布规律,随其自然地进行盲目的分类。其分类的结果,只是对不同类别进行了区分,并不确
9、定类别的属性,其属性是通过事后对各类的光谱响应曲线进行分析,以及与实地调查相比较后确定的。非监督分类的理论依据:遥感图像上的同类地物在相同的表面结构特征、植被覆盖、光照等条件下,一般具有相同或相近的光谱特征,从而表现出某种内在的相似性,归属于同一个光谱空间区域;不同的地物,光谱信息特征不同,归属于不同的光谱空间区域。由于在一幅复杂的图像中,训练区有时不能包括所有地物的光谱样式,这就造成了一部分像元找不到归属。在实际工作中为了进行监督分类而确定类别和训练区的选取也是不易的,因而在开始分析图像时,用非监督分类方法来研究数据的本来结构及其自然点群的分布情况是很有价值的。第13页/共74页148.4
10、非监督分类非监督分类主要采用聚类分析的方法,聚类是把一组像素按照相似性归成若干类别。它的目的是使得属于同一类别的像素之间的距离尽可能小,而不同类别上像素间的距离尽可能大。在进行聚类分析时,首先要确定基准类别的参量。在非监督分类的情况下,并无基准类别的先验知识可以利用,因而,只能先假定初始的参量,并通过预分类处理来形成集群,再由集群的统计参数来调整预制的参量,接着再聚类,再调整。如此不断地迭代,直到有关参数达到允许的范围为止。所以说,非监督算法的核心问题是初始类别参数的选定,以及它的迭代调整问题。第14页/共74页158.4 非监督分类主要过程如下:(1)确定初始类别参数,即确定最初类别数和类别
11、中心(集群中心)(2)计算每一个像元所对应的特征矢量与各集群中心的距离。(3)选与中心距离最短的类别作为这一矢量的所属类别。(4)计算新的类别均值向量。(5)比较新的类别均值与原中心位置上的变化,若位置发生了改变,则以新的类别均值作为聚类中心,再从第2步开始重复,进行反复迭代操作。(6)如果聚类中心不再变化,计算停止。第15页/共74页168.4 非监督分类8.4.1 初始类别参数的选定8.4.2 常用非监督分类算法第16页/共74页178.4 非监督分类8.4.1 初始类别参数的选定初始类别参数是指基准类别集群中心(数学期望Mi),以及集群分布的协方差矩阵i。因为无论采用何种判别函数,都要预
12、先确定其初始类别的参量。以下为几种常用的方法。1.像素光谱特征的比较法2.总体直方图均匀选心法3.最大最小距离选心法4.局部直方图峰值定心法第17页/共74页188.4 非监督分类8.4.1 初始类别参数的选定1.像素光谱特征的比较法首先,在遥感图像中定义一个抽样集,它可以是整幅图像的所有像素,但通常是按一定间隔抽样的像素。然后,选定抽样集中任一像素作为第一个类别;给定一个光谱相似性比较阈值;依次把抽样集中每个像素的光谱特征与已建起的初始类别比较,若该像素与其中一个初始类别相似,则作为该类集群中的一个成员,若不与任何一个相似,则以该像素建立一个新的初始类别。当以上聚类过程完成后,每个已经建立起
13、来的初始类别都包含了一定成员,依据此可统计其集群中心(数学期望Mi)和协方差矩阵i。第18页/共74页198.4 非监督分类8.4.1 初始类别参数的选定2.总体直方图均匀选心法该方法是在整幅遥感影像的总体直方图的基础上进行类别中心的选定的。设总体直方图的均值和方差分别为:式中,i为波段号;j为像素点号;为像素i在第j波段的亮度值;n为波段数;N为像素总数。第19页/共74页208.4 非监督分类8.4.1 初始类别参数的选定2.总体直方图均匀选心法用作图法不难证明,该法所选定的初始类别中心通过整体集群中心的一条直线均匀散布的,并基本上包括在整体集群的范围之内现假设我们需要Q个初始类别,每个初
14、始类别集群中心可按下式确定:例如,Q=4时第20页/共74页218.4 非监督分类8.4.1 初始类别参数的选定3.最大最小距离选心法 该法的选心原则是使各初始类别之间,尽可能地保持远距离,为做到这一点,首先在整幅图像中按一定方式(如等间隔方式)获取一个抽样点像素集合 式中n为抽样个数第21页/共74页228.4 非监督分类8.4.1 初始类别参数的选定3.最大最小距离选心法按以下步骤进行选心处理:1)取抽样集中任一像素之特征点作为第一个初始类别中心 2)计算与其他各抽样点之间的距离D。取与之距离最远的那个抽样点(例如 )作为第二个初始类别中心 ,即若则第22页/共74页238.4 非监督分类
15、8.4.1 初始类别参数的选定3.最大最小距离选心法3)对于剩余的每个抽样点,计算它到已有各初始类别中心的距离 m为已有初始类别数,并取其中的最小距离 作为该点的代表距离式中:m为已形成的初始类别数。4)在此基础上,再对所有各剩余点的最小距离进行相互比较,取其中最大者,并选择与该最大的最小距离相应的抽样点(例如 )作为一个新的初始类别中心点(例如 )。重复以上步骤,直到初始类别的个数达到需要的个数为止。第23页/共74页248.4 非监督分类8.4.1 初始类别参数的选定4.局部直方图峰值定心法 由于整幅遥感图像总体直方图的分布是由各类别直方图叠加而形成的。同时,每个类别的集群中心一般位于本类
16、别直方图的峰值位置,而在该位置处的总体直方图往往会出现局部峰值。因而,该法便以搜索总体直方图局部峰值为原理来选定初始类别的中心。其基本过程包括:图像数据抽样集的获取,建立总体直方图以及搜索直方图局部峰值3个步骤。第24页/共74页258.4 非监督分类8.4.2 常用非监督分类算法1、K-均值分类算法2、ISODATA分类算法第25页/共74页268.4 非监督分类8.4.2 常用非监督分类算法1、K-均值分类算法K-均值(K-Mean)算法的聚类准则是使每一分类中,像素点到该类别中心的距离的平方和最小。K-均值算法基本思想是:通过迭代,移动各个基准类别的中心,直至得到最好的聚类结果为止。第2
17、6页/共74页278.4 非监督分类8.4.2 常用非监督分类算法1、K-均值分类算法收敛条件:对于图像中互不相交的任意一个类,计算该类中的像素值与该类均值差的平方和。将图像中所有类的差的平方和相加,并使相加后的值达到最小。设图像中总类数为m,各类的均值为C,类内的像素数为N、像素值为f,那么,收敛条件是使得下式达到最小:第27页/共74页288.4 非监督分类8.4.2 常用非监督分类算法1、K-均值分类算法Cluster sizeDistance betweencluster meansDistance to acluster mean02550255Band ABand B第28页/共7
18、4页298.4 非监督分类8.4.2 常用非监督分类算法1、K-均值分类算法K-均值算法步骤任选k个初始聚类中心:(上角标记载为寻找聚类中的迭代运算次数)。一般可选定样本集的前k个样本作为初始聚类中心,也可用前面所述的方法进行初始聚类中心的选择,如最大最小距离选心法。A)Cluster centres are arbitrarily assigned02550255Band ABand BA第29页/共74页308.4 非监督分类8.4.2 常用非监督分类算法1、K-均值分类算法K-均值算法步骤设已进行到第 t 步迭代。若对某一样本X有 则X ,其中 是以 为聚类中心的样本集。以此种方法将全部
19、样本分配到k个类中。B)Each pixel is assigned to the nearest cluster centre in data space02550255Band ABand BB第30页/共74页318.4 非监督分类8.4.2 常用非监督分类算法1、K-均值分类算法K-均值算法步骤计算各聚类中心的新向量值式中 为 中所包含的样本数。因为在这一步要计算k个聚类中心的样本均值,故称为K-均值算法。C)The cluster means are then calculated and the pixels are reassigned to the new cluster ce
20、ntres02550255Band ABand BC第31页/共74页328.4 非监督分类8.4.2 常用非监督分类算法1、K-均值分类算法K-均值算法步骤若 ,j=1,2,k,则回到第二步,将全部样本n重新分类,重复迭代计算。若 ,j=1,2,k,则结束。D)The process is repeated until when the cluster centres move by less than a preset distance02550255Band ABand BD第32页/共74页338.4 非监督分类8.4.2 常用非监督分类算法1、K-均值分类算法第33页/共74页348
21、.4 非监督分类8.4.2 常用非监督分类算法1、K-均值分类算法第34页/共74页358.4 非监督分类8.4.2 常用非监督分类算法1、K-均值分类算法第35页/共74页368.4 非监督分类8.4.2 常用非监督分类算法1、K-均值分类算法可以看到,现在的每个像素都己经被分给距离最近的类,总的离差平方和最小,因此分类过程到此结束。最终得到K=2个类为(A)和(BCD)。第36页/共74页378.4 非监督分类8.4.2 常用非监督分类算法2、ISODATA分类算法迭代自组织的数据分析算法(Iterative Selforganizing Data Analysis Techniques
22、Algorithm)亦称ISODATA算法。此种算法与K-均值算法有相似之处,即聚类中心也是通过样本均值的迭代运算来决定的,但ISODATA算法加入了一些试探性步骤和人机交互功能,能吸取中间结果所得到的经验,主要是在迭代过程中可将一类一分为二,亦可能将二类合二为一,亦即“自组织”,故这种算法已具有启发式的特点。第37页/共74页388.4 非监督分类8.4.2 常用非监督分类算法2、ISODATA分类算法N所要求的类别数(实际的类别数目为Nt);I允许迭代的次数(实际已迭代的次数为L);Tm每类集群中样本的最小数目;Ts 集群分类标准,每个类的分散程度的参数(如最大标准差);Tc 集群合并标准
23、,即两个类中间的最小距离。第一步:指定算法控制参数第38页/共74页398.4 非监督分类8.4.2 常用非监督分类算法2、ISODATA分类算法第二步:聚类处理 在已选定的初始类别参数的基础上,按任一种距离判别函数进行分类判别,从而获得每个初始类别的集群成员。同时,对每一类集群(i)累计其成员总数(ni)、总亮度(xij)及总亮度平方(xij2),并按下式计算各类的均值M和方差2:然后将有关数值填入类别参数搜索表j为波段序号第39页/共74页408.4 非监督分类8.4.2 常用非监督分类算法2、ISODATA分类算法第三步:类别的取消处理 对上次趋近后的各类成员总数 ni 进行检查,若 n
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 遥感 图像 分类
![提示](https://www.taowenge.com/images/bang_tan.gif)
限制150内