欢迎来到淘文阁 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
淘文阁 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    第三讲(数据预处理)ppt课件.ppt

    • 资源ID:34062811       资源大小:451.50KB        全文页数:39页
    • 资源格式: PPT        下载积分:20金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要20金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    第三讲(数据预处理)ppt课件.ppt

    数据挖掘第三讲数据预处理主要内容n为什么要预处理数据?n数据清理n数据集成和变换n数据归约为什么要预处理数据?n现实世界的数据是“肮脏的”q不完整的:有些感兴趣的属性缺少属性值,或仅包含聚集数据q含噪声的:包含错误或者“孤立点”q不一致的:数据源不同,其在编码或命名上有差异n没有高质量的数据,就没有高质量的挖掘结果q高质量的决策必须依赖高质量的数据q数据仓库需要对高质量的数据进行一致地集成数据质量的多维度量n一个广为认可的多维度量观点:q精确度q完整度q一致性q合乎时机q可信度q附加价值(已经物化的数据,方便我们挖掘研究)q可访问性n跟数据本身的含义相关的q内在的、上下文相关的、数据的表达形式数据预处理的主要任务n数据清理q填写空缺的值,平滑噪声数据,识别、删除孤立点,解决不一致性n数据集成q集成多个数据库、数据立方体或文件n数据变换q规范化和聚集n数据归约q通过一些技术(概念分层上卷等)得到数据集的压缩表示,它小得多,但可以得到相同或相近的结果n数据离散化q数据归约的一部分,通过概念分层和数据的离散化来规约数据,对数字型数据特别重要数据预处理的形式数据清理空缺值n数据并不总是完整的q例如:数据库表中,很多条记录的对应字段没有相应值,比如销售表中的顾客收入n引起空缺值的原因q设备异常q与其他已有数据不一致而被删除q因为误解而没有被输入的数据q在输入时,有些数据因为得不到重视而没有被输入q对数据的改变没有进行日志记载(事务操作都会被日志文件记载,每次修改操作需要查找日志)n空缺值要经过推断而补上,否则算法中断报错如何处理空缺值?常用方法如下:n直接忽略掉空缺值的整个属性或元组:当类标号缺少时通常这么做(假定挖掘任务设计分类或描述),当每个属性缺少值的百分比变化很大时,其效果非常差。n人工填写空缺值:工作量大,可行性低n使用一个全局变量填充空缺值:比如使用unknown或-n使用属性的平均值填充空缺值n使用与给定元组属同一类的所有样本的平均值n使用最可能的值填充空缺值(基于数学算法):使用使用最可能的值填充空缺值(基于数学算法):使用像像BayesianBayesian公式或判定树这样的基于模型推断的方法公式或判定树这样的基于模型推断的方法噪声数据n噪声:一个测量变量中的随机错误或偏差n引起不正确属性值的原因q数据收集工具不够精确引起的问题q数据输入错误q数据传输错误(通信协议问题)q技术限制q命名规则的不一致n其它需要数据清理的数据问题q重复记录(引起冗余)q不完整的数据q不一致的数据如何处理噪声数据n分箱(binning):q首先排序数据,并将其分到等深箱中(容放相等个数数据)q然后可以按箱的平均值平滑、按箱中值平滑、按箱的边界平滑等等,从而达到平滑噪声的目的n聚类:q监测并且去除孤立点n计算机和人工检查结合q计算机检测可疑数据,然后对其进行人工判断(工作量大)n回归q通过让数据适应回归函数来平滑数据数据平滑的分箱方法n首先对数据进行排序:price的排序后数据(单位:美元):4,8,15,21,21,24,25,28,34n划分为(等深的)箱:q箱1:4,8,15q箱2:21,21,24q箱3:25,28,34n用箱平均值平滑:q箱1:9,9,9q箱2:22,22,22q箱3:29,29,29n用箱边界平滑(以左边界为例):q箱1:4,4,15q箱2:21,21,24q箱3:25,25,34聚类n通过聚类分析检测离群点,消除噪声q聚类将类似的值聚成簇。直观的,落在簇集合之外的值被视为离群点,往往就是噪声点回归xyy = x + 1X1Y1Y1回归去噪一般是将Y1调整到Y1,不是删除数据集成和数据变换数据集成(三个方面)n数据集成:q将多个数据源中的数据整合到一个一致的存储中n模式集成:q整合不同数据源中的元数据(描述数据的数据)q实体识别问题:匹配整合来自不同数据源的现实世界中相同的实体,比如:A.cust-id=B.customer_non检测并解决数据值的冲突q对现实世界中的同一实体,来自不同数据源的属性值可能是不同的q可能的原因:不同的数据表示,不同的度量等等处理数据集成中的冗余数据n集成多个数据库时,经常会出现冗余数据q同一属性在不同的数据库中会有不同的字段名q一个属性可以由另外一个表导出,如“年薪”n有些冗余可以被“相关性分析”检测到n仔细将多个数据源中的数据集成起来,能够减少或避免结果数据中的冗余与不一致性,从而可以提高挖掘的速度和质量。BABAnBBAAr) 1()(,数据变换n平滑平滑:去除数据中的噪声n聚集聚集:汇总,数据立方体的构建(方体的计算就是一种聚集。数据立方体最底层叫基本方体,一般是已知的基本数据,根据现有数据按照不同维度汇总,得到不同层次的方体,所有方体联合起来称为方体的格,这个方体的格也叫数据立方体)n数据概化数据概化:沿概念分层向上汇总进一步缩小数据量,概化n规范化规范化:将数据按比例缩放,使之落入一个小的特定区间q最小最大规范化qz-score规范化q小数定标规范化n属性构造属性构造q通过现有属性构造新的属性,并添加到属性集中。数据变换规范化n最小最大规范化(简单的线性变换)nz-score规范化(分母代表属性A的标准差,相除投影)n小数定标规范化(移动小数点,使其落在(0,1)AAAAAAminnewminnewmaxnewminmaxminvv_)_(AAdevstandmeanvv_jvv10其中,j是使 Max(| |)1的最小整数 v数据规约(缩小数据的范围)数据归约策略n数据仓库中往往存有海量数据,在其上进行复杂的数据分析与挖掘需要很长的时间n数据归约q数据归约可以用来得到数据集的归约表示,它小得多,但可以产生相同的(或几乎相同的)分析结果n数据归约策略q数据立方体聚集(根据不同维度对数据进行往上汇总)q维归约(检测删除基本不相关的冗余的属性、维)q数据压缩(使用编码机制压缩数据集,应用于多媒体技术)q数值归约(用替代的较小数据替换或估计数据集,如参数模型,用参数加数学公式来表示原始数据集)q离散化和概念分层产生n用于数据归约的时间不应当超过或“抵消”在归约后的数据上挖掘节省的时间。数据立方体聚集n最底层的方体对应于基本方体q基本方体对应于感兴趣的实体(一般是原始数据集)n在数据立方体中存在着不同级别的汇总q数据立方体可以看成方体的格q每个较高层次的抽象将进一步减少结果数据的数目n数据立方体提供了对预计算的汇总数据的快速访问q使用与给定任务相关的最小方体(根据给出的数据立方体的已知最底维度而定)q在可能的情况下,对于汇总数据的查询应当使用数据立方体维归约n通过删除不相干的属性或维来减少数据量n属性子集选择q找出最小属性集,使得数据类的概率分布尽可能的接近使用所有属性的原分布q减少出现在发现模式上的属性的数目,使得模式更易于理解n维规约方法:启发式的(探索性的)方法q逐步向前选择(由空属性集开始逐步添加相近属性集)q逐步向后删除(由全属性集开始逐步删除不相关属性集)q向前选择和向后删除相结合q判定归纳树探索性选择方法具体的步骤:nd个属性有2d个可能的子集,遍历计算他们非常繁杂。n逐步向前选择q由空属性集开始,选择原属性集中最好的属性,并将其添加入该集合,重复该步骤。n逐步向后删除q由整个属性集开始,每一步都删除掉尚在属性集中的最坏属性n向前选择和向后删除相结合q每一步选择一个最好属性,并删除一个最坏属性n可以使用一个临界值(例如选择属性个数等)来判定上述三种方法的结束条件n判定归纳树模型:每个非叶子结点表示对某个属性的判定条件,每个叶子结点是判定的类别,根据这个模型,那么判定树上出现的属性就是当前跟我们分析目标相关的属性数据压缩n有损压缩 VS. 无损压缩n字符串压缩(或文本压缩)q有广泛的理论基础和精妙的算法q通常是无损压缩q在解压缩前对字符串的操作很有限(如查找字符串出现次数)n音频/视频压缩q通常是有损压缩,压缩精度可以递进选择q有时可以在不解压整体数据的情况下,重构某个片断n两种有损数据压缩的方法:小波变换和主要成分分析数值归约n通过选择替代的、较小的数据表示形式来减少数据量n有参方法:使用一个参数模型估计数据,最后只要存储参数即可。q线性回归方法:Y=+Xq多元回归:线性回归的扩充q对数线性模型:近似离散的多维数据概率分布n无参方法:q直方图q聚类q选样无参方法:1、直方图n一种重要的数据归约技术n将某属性的数据划分为不相交的子集,或桶,桶中放置该值的出现频率n桶和属性值的划分规则q等宽q等深qV-最优qMaxDiff无参方法:2、聚类n将数据集划分为聚类,然后通过聚类来表示数据集n如果数据可以组成各种不同的聚类,则该技术非常有效,反之如果数据界线模糊,则方法无效n数据可以分层聚类,并被存储在多层索引树中n聚类的定义和算法都有很多选择无参方法:3、选样n允许用数据的较小随机样本(子集)表示大的数据集n对数据集D的样本选择:q简单随机选择n个样本,不回放:由D的N个元组中抽取n个样本q简单随机选择n个样本,回放:过程同上,只是元组被抽取后,将被回放,可能再次被抽取q结合聚类的选样:D中元组被分入M个互不相交的聚类中,可在其中的m个聚类上进行简单随机选择(mM)q结合分层的选样:D被划分为互不相交的“层”,则可通过对每一层的简单随机选样得到D的分层选样选样SRSSRSWOR(简单随机选样,不回放)SRSWR(放回)原始数据选样聚类/分层选样原始数据 聚类/分层选样离散化与概念分层生成(数据规约中重要的方法之一)数据离散化n三种类型的属性值可以离散化:q名称型e.g. 无序集合中的值q序数e.g. 有序集合中的值q连续值e.g. 实数n离散化(使数据有限或者数目减少)q将连续属性的范围划分为区间从而减少所必须处理的数据量q应用举例:有效的规约数据n基于判定树的分类挖掘(离散化的有效应用)q离散化的数值用于进一步分析离散化和概念分层n离散化q通过将属性域划分为区间,减少给定连续属性值的个数。区间的标号可以代替实际的数据值。n概念分层q通过使用高层的概念(比如:青年、中年、老年)来替代底层的属性值(比如:实际的年龄数据值)来规约数据q注意:离散化后数据细节会丢失,然而越概化越高层的数据越有助于数据挖掘,对人的理解越有意义。数据数值的离散化和概念分层生成n分箱(binning)q分箱技术递归的用于结果划分,可以产生概念分层。n直方图分析(histogram)q直方图分析方法递归的应用于每一部分,可以自动产生多级概念分层。n聚类分析q将数据划分成簇,每个簇形成同一个概念层上的一个节点,每个簇可再分成多个子簇,形成子节点。n基于熵的离散化(统计学角度)n通过自然划分分段通过自然划分分段n将数值区域划分为相对一致的、易于阅读的、看上去更直观或自然的区间。n自然划分的3-4-5规则:q如果一个区间最高有效位上包含3,6,7或9个不同的值,就将该区间划分为3个等宽子区间(将将7 7划分为?划分为?);q如果一个区间最高有效位上包含2,4,或8个不同的值,就将该区间划分为4个等宽子区间(将将2 2划分为?划分为?);q如果一个区间最高有效位上包含1,5,或10个不同的值,就将该区间划分为5个等宽子区间(将将1 1划分为?划分为?);q将该规则递归的应用于每个子区间n对于数据集中出现的最大值和最小值的极端分布,为了避免上述方法出现的结果扭曲结果扭曲,可以在顶层分段时,选用一个大部分选用一个大部分的概率空间,仅在该大概率空间进行自然划分的概率空间,仅在该大概率空间进行自然划分。e.g. 5%-95%3-4-5规则例子(-$400,$5,000)(-$400 ,0)(-$400 - -$300)(-$300 - -$200)(-$200 - -$100)(-$100 - 0)(0 ,$1,000)(0 - $200)($200 - $400)($400 - $600)($600 - $800)($800 - $1,000)($2,000 ,$5, 000)($2,000 - $3,000)($3,000 - $4,000)($4,000 - $5,000)($1,000 ,$2, 000)($1,000 - $1,200)($1,200 - $1,400)($1,400 - $1,600)($1,600 - $1,800)($1,800 - $2,000) msd=1,000Low=-$1,000High=$2,000第二步第四步第一步 -$351-$159profit $1,838 $4,700 Min Low (i.e, 5%-tile) High(i.e, 95%-0 tile) Maxcount(-$1,000 ,$2,000)(-$1,000 , 0)(0 ,$ 1,000)第三步($1,000 , $2,000)分类数据的概念分层生成n分类数据是指无序的离散数据,它有有限个值(可能很多个)。n分类数据的概念分层生成方法:q由用户或专家在模式级显式的说明属性的部分序。q通过显示数据分组说明分层结构的一部分。q说明属性集,但不说明它们的偏序(属性间包含关系),然后系统根据算法自动产生属性的序,构造有意义的概念分层。q对只说明部分属性集的情况,则可根据数据库模式中的数据语义定义对属性的捆绑信息,强制要求其他属性伴随出现,以此来恢复相关的属性。 如:如:streetcityprovincecountrystreetcityprovincecountry属性集的规格n根据在给定属性集中,每个属性所包含的不同值的个数,可以自动的生成概念分成。n依据:不同值个数最多的属性将被放在概念分层的最底层。countryprovincecitystreet5个不同值65 个不同值3567 个不同值674,339 个不同值

    注意事项

    本文(第三讲(数据预处理)ppt课件.ppt)为本站会员(飞****2)主动上传,淘文阁 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知淘文阁 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于淘文阁 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号 © 2020-2023 www.taowenge.com 淘文阁 

    收起
    展开