机器学习实验报告(共13页).doc
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《机器学习实验报告(共13页).doc》由会员分享,可在线阅读,更多相关《机器学习实验报告(共13页).doc(13页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、精选优质文档-倾情为你奉上决策树算法一、决策树算法简介:决策树算法是一种逼近离散函数值的方法。它是一种典型的,首先对数据进行处理,利用归纳算法生成可读的规则和决策树,然后使用决策对新数据进行分析。本质上决策树是通过一系列规则对数据进行分类的过程。决策树方法的基本思想是:利用训练集数据自动地构造决策树,然后根据这个决策树对任意实例进行判定。其中决策树(Decision Tree)是一种简单但是广泛使用的分类器。通过训练数据构建决策树,可以高效的对未知的数据进行分类。决策数有两大优点:1)决策树模型可以读性好,具有描述性,有助于人工分析;2)效率高,决策树只需要一次构建,反复使用,每一次预测的最大
2、计算次数不超过决策树的深度。决策树算法构造决策树来发现数据中蕴涵的分类规则如何构造精度高、规模小的决策树是决策树算法的核心内容。决策树构造可以分两步进行。第一步,决策树的生成:由训练样本集生成决策树的过程。一般情况下,训练样本数据集是根据实际需要有历史的、有一定综合程度的,用于数据分析处理的数据集。第二步,决策树的剪技:决策树的剪枝是对上一阶段生成的决策树进行检验、校正和修下的过程,主要是用新的样本数扼集(称为测试数据集)中的数据校验决策树生成过程中产生的初步规则,将那些影响预衡准确性的分枝剪除、决策树方法最早产生于上世纪60年代,到70年代末。由J Ross Quinlan提出了,此算法的目
3、的在于减少树的深度。但是忽略了叶子数目的研究。C4.5算法在ID3算法的基础上进行了改进,对于预测变量的缺值处理、剪枝技术、派生规则等方面作了较大改进,既适合于分类问题,又适合于回归问题。本节将就ID3算法展开分析和实现。ID3算法:ID3算法最早是由罗斯昆(J. Ross Quinlan)于1975年在悉尼大学提出的一种分类预测算法,算法的核心是“信息熵”。ID3算法通过计算每个属性的信息增益,认为信息增益高的是好属性,每次划分选取信息增益最高的属性为划分标准,重复这个过程,直至生成一个能完美分类训练样例的决策树。在ID3算法中,决策节点属性的选择运用了信息论中的熵概念作为启发式函数。在这种
4、属性选择方法中,选择具有最大信息增益(information gain)的属性作为当前划分节点。通过这种方式选择的节点属性可以保证决策树具有最小的分枝数量,使得到的决策树冗余最小。伪代码:二、实验过程1.实验数据集这个样例集中,每个属性都是离散值的,连续的属性已经被离散化。将图中的样例集转换成图2中所示的格式并保存到文件中以供项目程序读取数据。图2中“attribute”行所对应的是样例集中的测试属性和目标属性,以及它们属性值。而“data”行后面的每一行数据则对应了样例集中的一条样例。测试属性:outlook,天气情况,属性值为sunny, overcast, rainy;temperatu
5、re,气温,属性值为hot, mild, cool;humidity,湿度,属性值为high, normal;Windy,是否有风,属性值为TRUE, FALSE。目标属性:Play,是否适合打球,属性值为yes, no。RIDoutlooktemperaturehumiditywindyplay1sunnyhothighFALSEno2sunnyhothighTRUEno3overcasthothighFALSEyes4rainymildhighFALSEyes5rainycoolnormalFALSEyes6rainycoolnormalTRUEno7overcastcoolnormalT
6、RUEyes8sunnymildhighFALSEno9sunnycoolnormalFALSEyes10rainymildnormalFALSEyes11sunnymildnormalTRUEyes12overcastmildhighTRUEyes13overcasthotnormalFALSEyes14rainyhighhighTRUEno输出:图3所示为本项目最终的输出结果。项目的输出结果详细的给出了在构建决策树的过程中候选属性的信息增益、测试属性的选取结果、测试属性的各个属性值所对应的分支、目标属性选取结果以及目标概念buys_computer的决策树JSON格式输出,并使用项目生成的
7、决策树进行预测分析。根据生成的xml文件画出决策树如图所示:2.实现步骤:第一步:从文件weather.arff中读取测试样例的属性attribute和样例数据data,方法void readARFF(File file)实现了数据的读取这项工作。第二步:开始递归地创建决策树。首先为样例集中的每一个测试属性分配一个权值,权值越小代表属性的重要性越高。创建决策树的过程中要计算样本的总体熵,计算各个属性的信息增益,将信息增益值最大的属性定为测试属性(根结点),然后开始从根节点开始递归地创建子结点。实现代码参考方法public double calEntropy(ArrayList subset,
8、int index)。第三步:输出目标概念weather的决策树xml格式,此项需要引入jaxen-1.1.1.jar包,编译整个项目并运行生成决策树。关键代码:/ 给定原始数据的子集(subset中存储行号),当以第index个属性为节点时计算它的信息熵public double calEntropy(ArrayList subset, int index)int sum = subset.size();double entropy = 0.0;int info = new intattributevalue.get(index).size();for (int i = 0; i info.
9、length; i+)infoi = new intattributevalue.get(decatt).size();int count = new intattributevalue.get(index).size();for (int i = 0; i sum; i+)int n = subset.get(i);String nodevalue = data.get(n)index;int nodeind = attributevalue.get(index).indexOf(nodevalue);countnodeind+;String decvalue = data.get(n)de
10、catt;int decind = attributevalue.get(decatt).indexOf(decvalue);infonodeinddecind+;for (int i = 0; i info.length; i+)entropy += getEntropy(infoi) * counti / sum;return entropy;/ 构建决策树public void buildDecisionTree(String name, String value,ArrayList subset, LinkedList selatt)Element ele = null;Suppres
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 机器 学习 实验 报告 13
![提示](https://www.taowenge.com/images/bang_tan.gif)
限制150内