数据分析方法及模型讲稿.ppt
《数据分析方法及模型讲稿.ppt》由会员分享,可在线阅读,更多相关《数据分析方法及模型讲稿.ppt(200页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、关于数据分析方法及模型关于数据分析方法及模型1第一页,讲稿共二百页哦2分析技术及模型分析技术及模型数据预处理数据预处理第二页,讲稿共二百页哦3数据预处理数据预处理各种数据分析技术的对象是数据源中的数据各种数据分析技术的对象是数据源中的数据数据源中的数据可能不完整(如某些属性的值不确定或空缺)、数据源中的数据可能不完整(如某些属性的值不确定或空缺)、含噪声和不一致(如同一个属性在不同表中的名称不同)含噪声和不一致(如同一个属性在不同表中的名称不同)、量纲、量纲不同不同如果直接在这些未经处理的数据上进行分析,结果不一定准确,如果直接在这些未经处理的数据上进行分析,结果不一定准确,效率也可能较低效率
2、也可能较低需要使用清理、集成、变换、归约等预处理方法改善数据质量,需要使用清理、集成、变换、归约等预处理方法改善数据质量,从而提高数据分析的效率与质量从而提高数据分析的效率与质量 主要介绍数据清理、集成、变换、规约等预处理技术主要介绍数据清理、集成、变换、规约等预处理技术第三页,讲稿共二百页哦4数据清理数据清理数据清理用于消除噪声、数据不一致及数据不完整数据清理用于消除噪声、数据不一致及数据不完整噪声可以通过平滑、识别孤立点等方法进行消除噪声可以通过平滑、识别孤立点等方法进行消除分箱技术:分箱技术:将数据排序,根据等深或等宽分布规则将数据分布到不将数据排序,根据等深或等宽分布规则将数据分布到不
3、同箱中,将同一箱中的数据用用该箱中数据的平均值或中值、边界同箱中,将同一箱中的数据用用该箱中数据的平均值或中值、边界值替换(平均值平滑、中值平滑、边界平滑)值替换(平均值平滑、中值平滑、边界平滑)每个箱中的数据每个箱中的数据个数或取值区间个数或取值区间相等相等设某属性的值为设某属性的值为18,12,3,9,7,6,15,21,16,采用分箱技术平滑数据消除噪,采用分箱技术平滑数据消除噪声。分布规则为等深、深度为声。分布规则为等深、深度为3,平滑规则为平均值平滑,平滑规则为平均值平滑 首先,将属性的值排序为首先,将属性的值排序为3,6,7,9,12,15,16,18,21箱箱1:3,6,7箱箱2
4、:9,12,15箱箱3:16,18,21箱箱1:5.3,5.3,5.3箱箱2:12,12,12箱箱3:18.3,18.3,18.3第四页,讲稿共二百页哦5数据清理数据清理数据不完整可以使用下列方法消除:数据不完整可以使用下列方法消除:1)使用一个全局常量填充)使用一个全局常量填充2)使用属性平均值填充)使用属性平均值填充3)使用相同类的属性平均值填充)使用相同类的属性平均值填充4)使用最可能的值填充)使用最可能的值填充 需要采用预测算法,预测给定样本的最可需要采用预测算法,预测给定样本的最可能的值并填充能的值并填充数据不一致可以通过元数据消除(描述数据的数据)数据不一致可以通过元数据消除(描述
5、数据的数据)第五页,讲稿共二百页哦6数据集成数据集成数据集成是将多个数据源中的数据结合起来存放在一个一致的数据存储数据集成是将多个数据源中的数据结合起来存放在一个一致的数据存储(如数据仓库)中(如数据仓库)中这些数据源可能包括多个数据库、数据立方体或一般文件这些数据源可能包括多个数据库、数据立方体或一般文件在数据集成时,需要消除冗余在数据集成时,需要消除冗余能够由另外的属性能够由另外的属性“导出导出”、命名的、命名的不一致的属性不一致的属性冗余可以通过相关分析进行检测冗余可以通过相关分析进行检测属性属性A、B之间的相关性计算:之间的相关性计算:rA,B0,A与与B正相关,正相关,A的值随着的值
6、随着B的值的增加而增加的值的增加而增加rA,B0,A与与B负相关,负相关,A的值随着的值随着B的值的增加而减少的值的增加而减少rA,B=0,A与与B独立。因此,独立。因此,|rA,B|很大时,很大时,A与与B可以去除一个可以去除一个 平均值平均值方差方差第六页,讲稿共二百页哦7数据变换数据变换将属性数据按比例缩放,使之落入一个小的特定区间,如将属性数据按比例缩放,使之落入一个小的特定区间,如1.0到到1.0或或0.0到到1.0 最小最小-最大规格化:最大规格化:minA,maxA为数值属性为数值属性A规格化前的取值区间规格化前的取值区间new_ minA,new_ maxA 为为A规格化后的取
7、值区间,最小规格化后的取值区间,最小-最大规格化根最大规格化根据下式将据下式将A的值的值v规格化为值规格化为值v采用最小采用最小-最大规格化方法将最大规格化方法将100,100中的中的66规格化到区间规格化到区间0,1 第七页,讲稿共二百页哦8数据变换数据变换零零-均值规格化:均值规格化:对均值为对均值为 、方差为、方差为 的数值属性的数值属性A将将A的值的值v规格化为值规格化为值v设某属性的平均值、标准差分别为设某属性的平均值、标准差分别为80、25,采用零,采用零-均值规格化均值规格化66 小数定标规格化小数定标规格化:数值属性数值属性A的最大绝对值为的最大绝对值为max|A|A,j为满足
8、为满足 的最小整数的最小整数 将将A的值的值v规格化为值规格化为值v规格化规格化 100,100中的中的66A的最大绝对值为的最大绝对值为120,j为为3 第八页,讲稿共二百页哦9数据规约数据规约数据归约技术可以用来得到数据集的归约表示,它小得多,但仍接近于数据归约技术可以用来得到数据集的归约表示,它小得多,但仍接近于保持原数据集的完整性保持原数据集的完整性在归约后的数据集上分析将更有效,并产生相同(或几乎相同)的在归约后的数据集上分析将更有效,并产生相同(或几乎相同)的分析结果分析结果归约方法主要有:属性归约归约方法主要有:属性归约、记录归约、记录归约 属性规约:属性规约:删除不相关的或冗余
9、的属性减小数据集,目标是找出最小删除不相关的或冗余的属性减小数据集,目标是找出最小属性集,属性集,使得数据在其上的概率分布尽可能地接近在原属性集上的使得数据在其上的概率分布尽可能地接近在原属性集上的概率分布概率分布 常用方法:粗糙集中的属性约简、决策树常用方法:粗糙集中的属性约简、决策树记录规约:记录规约:用少量记录代表或替换原有记录,从而减小数据集用少量记录代表或替换原有记录,从而减小数据集常用方法:常用方法:抽样、数据概化抽样、数据概化第九页,讲稿共二百页哦10数据规约数据规约数据概化:数据概化:采用面向属性归纳,根据属性的概念分层,通过阈值控制,采用面向属性归纳,根据属性的概念分层,通过
10、阈值控制,将属性的低层属性值用相应高层概念替换,并合并由此得到的相同记录将属性的低层属性值用相应高层概念替换,并合并由此得到的相同记录 概念分层一般用树结构描述,称为概念层次树概念分层一般用树结构描述,称为概念层次树阈值控制面向属性归纳过程,每个属性都有概念层次树及阈值阈值控制面向属性归纳过程,每个属性都有概念层次树及阈值首先根据属性首先根据属性A的概念层次树,将关系表中的概念层次树,将关系表中A的属性值转换为最低层的的属性值转换为最低层的相应概念(叶概念),统计关系表中相应概念(叶概念),统计关系表中A的不同叶概念个数的不同叶概念个数如果如果A的不同叶概念个数大于的不同叶概念个数大于A的属性
11、阈值,再根据的属性阈值,再根据A的概念层次树,将关的概念层次树,将关系表中系表中A的叶概念转换为上一层的相应概念的叶概念转换为上一层的相应概念如此重复,直至关系表中如此重复,直至关系表中A的不同概念个数小于等于的不同概念个数小于等于A的属性阈值;最后合的属性阈值;最后合并相同记录,并统计重复记录数目并相同记录,并统计重复记录数目第十页,讲稿共二百页哦11数据规约数据规约属性阈值均为属性阈值均为4记录由记录由6个归约为个归约为3个个count的值表示重复记录数目的值表示重复记录数目第十一页,讲稿共二百页哦12属性概念分层的自动生成属性概念分层的自动生成 概念分层一般由系统用户、领域专家提供,但非
12、常耗时、乏味概念分层一般由系统用户、领域专家提供,但非常耗时、乏味介绍离散属性与连续属性自动生成概念分层的方法介绍离散属性与连续属性自动生成概念分层的方法 离散属性概念分层的自动生成离散属性概念分层的自动生成 概念层次树中高层的概念个数一般少于低层的概念个数概念层次树中高层的概念个数一般少于低层的概念个数首先统计各个概念的不同值个数,个数最少的概念在最高层,依次类推,首先统计各个概念的不同值个数,个数最少的概念在最高层,依次类推,然后根据结构的从属关系,确定各层的概念及从属关系然后根据结构的从属关系,确定各层的概念及从属关系 地址国家省市中国云南省昆明市中国云南省大理市中国四川省成都市中国贵州
13、省贵阳市中国云南省玉溪市中国云南省曲靖市第十二页,讲稿共二百页哦13属性概念分层的自动生成属性概念分层的自动生成 连续属性概念分层的自动生成连续属性概念分层的自动生成 连续属性可以通过离散化递归地自动生成概念分层连续属性可以通过离散化递归地自动生成概念分层离散化可以基于熵完成,主要步骤:离散化可以基于熵完成,主要步骤:1)计算关系表)计算关系表r中在属性中在属性A的取值区间的取值区间V上的记录集合上的记录集合S的熵的熵|c|:S中属于目标类中属于目标类c的记录数的记录数|S|:S中的记录数中的记录数 2)对)对A在在V上取的每个上取的每个v,用,用v划分划分V为为v1(v)、)、v2(v),划
14、分),划分S为为S1,S2,计算在此划分下,计算在此划分下S的熵的熵 E(S1)、E(S2)分别为分别为S1、S2的熵的熵 第十三页,讲稿共二百页哦14属性概念分层的自动生成属性概念分层的自动生成 连续属性概念分层的自动生成连续属性概念分层的自动生成 3)对在)对在V上的每个划分上的每个划分v1(v)、)、v2(v),计算在此划分下),计算在此划分下S的信息增的信息增益益 4)选择使)选择使S的信息增益最大的划分作为最佳划分,记为的信息增益最大的划分作为最佳划分,记为V1(T)、)、V2(T)()(T是使是使S的信息增益最大的的信息增益最大的v)5)递归地应用步骤)递归地应用步骤1)4)于)于
15、V1、V2及及S1、S2上,直至满足一定的结束条上,直至满足一定的结束条件,例如,最大信息增益小于某个阈值件,例如,最大信息增益小于某个阈值 属性属性A的取值区间的取值区间V作为其概念层次树的根,形成最高层作为其概念层次树的根,形成最高层第一次划分区间第一次划分区间V1、V2是根的两个子结点,形成次高层是根的两个子结点,形成次高层递归地应用步骤递归地应用步骤1)4)就可以得到各层结点)就可以得到各层结点第十四页,讲稿共二百页哦15属性概念分层的自动生成属性概念分层的自动生成 连续属性概念分层的自动生成连续属性概念分层的自动生成 设设“气温气温”属性是目标属性,取值区间为属性是目标属性,取值区间
16、为100,100属性值及记录数如表所示属性值及记录数如表所示属性值36182226记录数69362821划分区间划分区间100,100第十五页,讲稿共二百页哦16属性概念分层的自动生成属性概念分层的自动生成 连续属性概念分层的自动生成连续属性概念分层的自动生成 属性值36182226记录数69362821划分区间划分区间100,100G(100,100,3)=2.03782.0378=0G(100,100,6)=2.03781.7465=0.2913G(100,100,18)=2.03781.464=0.5738G(100,100,22)=2.03781.0741=0.9637G(100,10
17、0,26)=2.03781.3323=0.7055最佳划分:最佳划分:V1=100,22)(llu)不是强关联规则,则规则不是强关联规则,则规则lv=(llv)也不是强关联规则也不是强关联规则 证明:证明:sup_count(lv)sup_count(lu)i1i2 i5不是强关联规则不是强关联规则i2i1i5、i1i2i5都不可能是强都不可能是强关联规则关联规则l=i1i2i5lvi1、i2lui1i2第三十六页,讲稿共二百页哦37Apriori算法算法压缩强关联搜索空间压缩强关联搜索空间对于每个频繁项集,第一层产生后件只有一项的强关联规则,并生成对于每个频繁项集,第一层产生后件只有一项的强
18、关联规则,并生成它们的它们的1-后件集合后件集合R1第二层产生后件有两项的强关联第二层产生后件有两项的强关联规则,并生成它们的规则,并生成它们的2-后件集合后件集合R2R2通过通过R1中的后件进行连接运算,中的后件进行连接运算,再通过置信度计算产生再通过置信度计算产生依次类推,可以产生所有强关联规依次类推,可以产生所有强关联规则则第三十七页,讲稿共二百页哦38Apriori算法算法算法描述算法描述输入:事务集合输入:事务集合T,最小支持度阈值,最小支持度阈值min_sup,最小置信度阈值,最小置信度阈值min_conf输出:强关联规则集合输出:强关联规则集合SR变量:频繁变量:频繁k-项集集合
19、项集集合Lk,候选,候选k-项集集合项集集合Ck,频繁项集集合,频繁项集集合L,k-后件集合后件集合Rk步骤:步骤:/频繁项集产生频繁项集产生(1)for T中的每个事务中的每个事务t (1.1)for t中的每个项中的每个项i (1.1.1)i.sup_count=i.sup_count+1 /1-项集支持计数项集支持计数(2)for 每个项每个项i (2.1)if i.sup_countnmin_sup then L1=L1i /找出频繁找出频繁1-项集项集第三十八页,讲稿共二百页哦39Apriori算法算法算法描述算法描述(3)for(k=2;Lk-1;k+)(3.1)for Lk-1中
20、的每个项集中的每个项集lu (3.1.1)for Lk-1中项集中项集lu之后的每个项集之后的每个项集lv if (lu1=lv1)(luk-2=lvk-2)(luk-1lvk-1)then /连接连接 Ck=Ckc /找出候选找出候选k-项集项集 for c中的每个中的每个(k-1)-项集项集s if then Ck=Ck-c /剪枝剪枝 (3.2)for T中的每个事务中的每个事务t (3.2.1)for t中的每个中的每个k-项集项集s if sCk then s.sup_count=s.sup_count+1 /k-项集支持计数项集支持计数第三十九页,讲稿共二百页哦40Apriori算
21、法算法算法描述算法描述 (3.3)for Ck中的每个项集中的每个项集c (3.3.1)if c.sup_countnmin_sup then Lk=Lkc /找出频繁找出频繁k-项集项集 (3.4)L=LLk/规则产生规则产生(4)for L中的每个频繁项集中的每个频繁项集l (4.1)for l中的每个中的每个1-项集项集l1 (4.1.1)if then SR=SR(l-l1)=l1 /找出后件只有找出后件只有1项的强关联规则项的强关联规则 R1=R1l1 /找出找出1-后件后件 第四十页,讲稿共二百页哦41Apriori算法算法算法描述算法描述(4.2)for(j=2;Rj-1;j+)
22、(4.2.1)for Rj-1中的每个后件中的每个后件lu for Rj-1中后件中后件lu之后的每个后件之后的每个后件lv if (lu1=lv1)(luj-2=lvj-2)(luj-1lvj-1)then /连接连接 if then SR=SR(l-lj)=lj /找出后件有找出后件有j项的强关联规则项的强关联规则 Rj=Rjlj /找出找出j-后件后件l=i1i2i5lui1lvi2第四十一页,讲稿共二百页哦42Apriori算法算法影响影响Apriori算法时间复杂度主要因素算法时间复杂度主要因素(1)事务集合)事务集合当项数当项数m增加:候选项集的数目和长度可能增加,频繁项集的数目和
23、长度也可增加:候选项集的数目和长度可能增加,频繁项集的数目和长度也可能增加,从而计算频繁项集及其支持计数的时间、扫描事务集合的次数、计算能增加,从而计算频繁项集及其支持计数的时间、扫描事务集合的次数、计算强关联规则的时间可能增加强关联规则的时间可能增加事务数事务数n、事务平均宽度事务平均宽度w增加:每次扫描事务集合的时间增加增加:每次扫描事务集合的时间增加(2)最小支持度阈值)最小支持度阈值min_supmin_sup越小,候选项集和频繁项集的数目越多、长度越长,扫描事务集合越小,候选项集和频繁项集的数目越多、长度越长,扫描事务集合的次数越多,算法的运行时间越长的次数越多,算法的运行时间越长(
24、3)最小置信度阈值)最小置信度阈值min_confmin_conf越小,强关联规则的数目越多,产生规则的运行时间越长越小,强关联规则的数目越多,产生规则的运行时间越长第四十二页,讲稿共二百页哦43频繁项集的紧凑表示频繁项集的紧凑表示 通常,从现实事务集合中产生的频繁项集的数量庞大通常,从现实事务集合中产生的频繁项集的数量庞大为了提高关联规则挖掘算法的效率,频繁项集使用紧凑表示为了提高关联规则挖掘算法的效率,频繁项集使用紧凑表示最大频繁项集:最大频繁项集:一个频繁项集的所有直接超集都不是频繁项集一个频繁项集的所有直接超集都不是频繁项集由最大频繁项集可以推导所有频繁项集由最大频繁项集可以推导所有频
25、繁项集 频繁项集频繁项集非频繁项集非频繁项集最大频繁项集最大频繁项集由由 ad可以推导频繁项集可以推导频繁项集a、d和和ad由由bcd可以推导可以推导b、c、d、bc、bd、cd和和bcd 第四十三页,讲稿共二百页哦44频繁项集的紧凑表示频繁项集的紧凑表示 为了高效找出最大频繁项集,可以将搜索空间按前缀或后缀变换为树为了高效找出最大频繁项集,可以将搜索空间按前缀或后缀变换为树(前缀树、后缀树(前缀树、后缀树),然后采用宽度或深度优先策略进行搜索),然后采用宽度或深度优先策略进行搜索前缀树前缀树后缀树后缀树第四十四页,讲稿共二百页哦45频繁项集的紧凑表示频繁项集的紧凑表示 宽度优先是先搜索同一层
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数据 分析 方法 模型 讲稿
限制150内