欢迎来到淘文阁 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
淘文阁 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    (分类)KNN近邻法.docx

    • 资源ID:33779413       资源大小:322.74KB        全文页数:11页
    • 资源格式: DOCX        下载积分:15金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要15金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    (分类)KNN近邻法.docx

    _一、kNN算法分析       K最近邻(k-Nearest Neighbor,KNN)分类算法可以说是最简单的机器学习算法了。它采用测量不同特征值之间的距离方法进行分类。它的思想很简单:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。        比如上面这个图,我们有两类数据,分别是蓝色方块和红色三角形,他们分布在一个上图的二维中间中。那么假如我们有一个绿色圆圈这个数据,需要判断这个数据是属于蓝色方块这一类,还是与红色三角形同类。怎么做呢?我们先把离这个绿色圆圈最近的几个点找到,因为我们觉得离绿色圆圈最近的才对它的类别有判断的帮助。那到底要用多少个来判断呢?这个个数就是k了。如果k=3,就表示我们选择离绿色圆圈最近的3个点来判断,由于红色三角形所占比例为2/3,所以我们认为绿色圆是和红色三角形同类。如果k=5,由于蓝色四方形比例为3/5,因此绿色圆被赋予蓝色四方形类。从这里可以看到,k的值还是很重要的。       KNN算法中,所选择的邻居都是已经正确分类的对象。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。       该算法在分类时有个主要的不足是,当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。因此可以采用权值的方法(和该样本距离小的邻居权值大)来改进。该方法的另一个不足之处是计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分参考机器学习十大算法。       总的来说就是我们已经存在了一个带标签的数据库,然后输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似(最近邻)的分类标签。一般来说,只选择样本数据库中前k个最相似的数据。最后,选择k个最相似数据中出现次数最多的分类。其算法描述如下:1)计算已知类别数据集中的点与当前点之间的距离;2)按照距离递增次序排序;3)选取与当前点距离最小的k个点;4)确定前k个点所在类别的出现频率;5)返回前k个点出现频率最高的类别作为当前点的预测分类。 二、Python实现       对于机器学习而已,Python需要额外安装三件宝,分别是Numpy,scipy和Matplotlib。前两者用于数值计算,后者用于画图。安装很简单,直接到各自的官网下载回来安装即可。安装程序会自动搜索我们的python版本和目录,然后安装到python支持的搜索路径下。反正就python和这三个插件都默认安装就没问题了。       另外,如果我们需要添加我们的脚本目录进Python的目录(这样Python的命令行就可以直接import),可以在系统环境变量中添加:PYTHONPATH环境变量,值为我们的路径,例如:E:PythonMachine Learning in Action 2.1、kNN基础实践       一般实现一个算法后,我们需要先用一个很小的数据库来测试它的正确性,否则一下子给个大数据给它,它也很难消化,而且还不利于我们分析代码的有效性。      首先,我们新建一个kNN.py脚本文件,文件里面包含两个函数,一个用来生成小数据库,一个实现kNN分类算法。代码如下:python   1. #  2. # kNN: k Nearest Neighbors  3.   4. # Input:      newInput: vector to compare to existing dataset (1xN)  5. #             dataSet:  size m data set of known vectors (NxM)  6. #             labels:   data set labels (1xM vector)  7. #             k:        number of neighbors to use for comparison   8.               9. # Output:     the most popular class label  10. #  11.   12. from numpy import *  13. import operator  14.   15. # create a dataset which contains 4 samples with 2 classes  16. def createDataSet():  17.     # create a matrix: each row as a sample  18.     group = array(1.0, 0.9, 1.0, 1.0, 0.1, 0.2, 0.0, 0.1)  19.     labels = 'A', 'A', 'B', 'B' # four samples and two classes  20.     return group, labels  21.   22. # classify using kNN  23. def kNNClassify(newInput, dataSet, labels, k):  24.     numSamples = dataSet.shape0 # shape0 stands for the num of row  25.   26.     # step 1: calculate Euclidean distance  27.     # tile(A, reps): Construct an array by repeating A reps times  28.     # the following copy numSamples rows for dataSet  29.     diff = tile(newInput, (numSamples, 1) - dataSet # Subtract element-wise  30.     squaredDiff = diff * 2 # squared for the subtract  31.     squaredDist = sum(squaredDiff, axis = 1) # sum is performed by row  32.     distance = squaredDist * 0.5  33.   34.     # step 2: sort the distance  35.     # argsort() returns the indices that would sort an array in a ascending order  36.     sortedDistIndices = argsort(distance)  37.   38.     classCount =  # define a dictionary (can be append element)  39.     for i in xrange(k):  40.         # step 3: choose the min k distance  41.         voteLabel = labelssortedDistIndicesi  42.   43.         # step 4: count the times labels occur  44.         # when the key voteLabel is not in dictionary classCount, get()  45.         # will return 0  46.         classCountvoteLabel = classCount.get(voteLabel, 0) + 1  47.   48.     # step 5: the max voted class will return  49.     maxCount = 0  50.     for key, value in classCount.items():  51.         if value > maxCount:  52.             maxCount = value  53.             maxIndex = key  54.   55.     return maxIndex          然后我们在命令行中这样测试即可:python   1. import kNN  2. from numpy import *   3.   4. dataSet, labels = kNN.createDataSet()  5.   6. testX = array(1.2, 1.0)  7. k = 3  8. outputLabel = kNN.kNNClassify(testX, dataSet, labels, 3)  9. print "Your input is:", testX, "and classified to class: ", outputLabel  10.   11. testX = array(0.1, 0.3)  12. outputLabel = kNN.kNNClassify(testX, dataSet, labels, 3)  13. print "Your input is:", testX, "and classified to class: ", outputLabel         这时候会输出:python   1. Your input is:  1.2  1.0 and classified to class:  A  2. Your input is:  0.1  0.3 and classified to class:  B  2.2、kNN进阶       这里我们用kNN来分类一个大点的数据库,包括数据维度比较大和样本数比较多的数据库。这里我们用到一个手写数字的数据库,可以到下载。这个数据库包括数字0-9的手写体。每个数字大约有200个样本。每个样本保持在一个txt文件中。手写体图像本身的大小是32x32的二值图,转换到txt文件保存后,内容也是32x32个数字,0或者1,如下:       数据库解压后有两个目录:目录trainingDigits存放的是大约2000个训练数据,testDigits存放大约900个测试数据。        这里我们还是新建一个kNN.py脚本文件,文件里面包含四个函数,一个用来生成将每个样本的txt文件转换为对应的一个向量,一个用来加载整个数据库,一个实现kNN分类算法。最后就是实现这个加载,测试的函数。python   1. #  2. # kNN: k Nearest Neighbors  3.   4. # Input:      inX: vector to compare to existing dataset (1xN)  5. #             dataSet: size m data set of known vectors (NxM)  6. #             labels: data set labels (1xM vector)  7. #             k: number of neighbors to use for comparison   8.               9. # Output:     the most popular class label  10. #  11.   12. from numpy import *  13. import operator  14. import os  15.   16.   17. # classify using kNN  18. def kNNClassify(newInput, dataSet, labels, k):  19.     numSamples = dataSet.shape0 # shape0 stands for the num of row  20.   21.     # step 1: calculate Euclidean distance  22.     # tile(A, reps): Construct an array by repeating A reps times  23.     # the following copy numSamples rows for dataSet  24.     diff = tile(newInput, (numSamples, 1) - dataSet # Subtract element-wise  25.     squaredDiff = diff * 2 # squared for the subtract  26.     squaredDist = sum(squaredDiff, axis = 1) # sum is performed by row  27.     distance = squaredDist * 0.5  28.   29.     # step 2: sort the distance  30.     # argsort() returns the indices that would sort an array in a ascending order  31.     sortedDistIndices = argsort(distance)  32.   33.     classCount =  # define a dictionary (can be append element)  34.     for i in xrange(k):  35.         # step 3: choose the min k distance  36.         voteLabel = labelssortedDistIndicesi  37.   38.         # step 4: count the times labels occur  39.         # when the key voteLabel is not in dictionary classCount, get()  40.         # will return 0  41.         classCountvoteLabel = classCount.get(voteLabel, 0) + 1  42.   43.     # step 5: the max voted class will return  44.     maxCount = 0  45.     for key, value in classCount.items():  46.         if value > maxCount:  47.             maxCount = value  48.             maxIndex = key  49.   50.     return maxIndex   51.   52. # convert image to vector  53. def  img2vector(filename):  54.     rows = 32  55.     cols = 32  56.     imgVector = zeros(1, rows * cols)   57.     fileIn = open(filename)  58.     for row in xrange(rows):  59.         lineStr = fileIn.readline()  60.         for col in xrange(cols):  61.             imgVector0, row * 32 + col = int(lineStrcol)  62.   63.     return imgVector  64.   65. # load dataSet  66. def loadDataSet():  67.     # step 1: Getting training set  68.     print "-Getting training set."  69.     dataSetDir = 'E:/Python/Machine Learning in Action/'  70.     trainingFileList = os.listdir(dataSetDir + 'trainingDigits') # load the training set  71.     numSamples = len(trainingFileList)  72.   73.     train_x = zeros(numSamples, 1024)  74.     train_y =   75.     for i in xrange(numSamples):  76.         filename = trainingFileListi  77.   78.         # get train_x  79.         train_xi, : = img2vector(dataSetDir + 'trainingDigits/%s' % filename)   80.   81.         # get label from file name such as "1_18.txt"  82.         label = int(filename.split('_')0) # return 1  83.         train_y.append(label)  84.   85.     # step 2: Getting testing set  86.     print "-Getting testing set."  87.     testingFileList = os.listdir(dataSetDir + 'testDigits') # load the testing set  88.     numSamples = len(testingFileList)  89.     test_x = zeros(numSamples, 1024)  90.     test_y =   91.     for i in xrange(numSamples):  92.         filename = testingFileListi  93.   94.         # get train_x  95.         test_xi, : = img2vector(dataSetDir + 'testDigits/%s' % filename)   96.   97.         # get label from file name such as "1_18.txt"  98.         label = int(filename.split('_')0) # return 1  99.         test_y.append(label)  100.   101.     return train_x, train_y, test_x, test_y  102.   103. # test hand writing class  104. def testHandWritingClass():  105.     # step 1: load data  106.     print "step 1: load data."  107.     train_x, train_y, test_x, test_y = loadDataSet()  108.   109.     # step 2: training.  110.     print "step 2: training."  111.     pass  112.   113.     # step 3: testing  114.     print "step 3: testing."  115.     numTestSamples = test_x.shape0  116.     matchCount = 0  117.     for i in xrange(numTestSamples):  118.         predict = kNNClassify(test_xi, train_x, train_y, 3)  119.         if predict = test_yi:  120.             matchCount += 1  121.     accuracy = float(matchCount) / numTestSamples  122.   123.     # step 4: show the result  124.     print "step 4: show the result."  125.     print 'The classify accuracy is: %.2f%' % (accuracy * 100)         测试非常简单,只需要在命令行中输入:python   1. import kNN  2. kNN.testHandWritingClass()         输出结果如下:python   1. step 1: load data.  2. -Getting training set.  3. -Getting testing set.  4. step 2: training.  5. step 3: testing.  6. step 4: show the result.  7. The classify accuracy is: 98.84%  11_

    注意事项

    本文((分类)KNN近邻法.docx)为本站会员(1595****071)主动上传,淘文阁 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知淘文阁 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于淘文阁 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号 © 2020-2023 www.taowenge.com 淘文阁 

    收起
    展开