(分类)KNN近邻法.docx
《(分类)KNN近邻法.docx》由会员分享,可在线阅读,更多相关《(分类)KNN近邻法.docx(11页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、_一、kNN算法分析 K最近邻(k-Nearest Neighbor,KNN)分类算法可以说是最简单的机器学习算法了。它采用测量不同特征值之间的距离方法进行分类。它的思想很简单:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。 比如上面这个图,我们有两类数据,分别是蓝色方块和红色三角形,他们分布在一个上图的二维中间中。那么假如我们有一个绿色圆圈这个数据,需要判断这个数据是属于蓝色方块这一类,还是与红色三角形同类。怎么做呢?我们先把离这个绿色圆圈最近的几个点找到,因为我们觉得离绿色圆圈最近的才对它的类别有判断的帮助。那到底要用多少
2、个来判断呢?这个个数就是k了。如果k=3,就表示我们选择离绿色圆圈最近的3个点来判断,由于红色三角形所占比例为2/3,所以我们认为绿色圆是和红色三角形同类。如果k=5,由于蓝色四方形比例为3/5,因此绿色圆被赋予蓝色四方形类。从这里可以看到,k的值还是很重要的。 KNN算法中,所选择的邻居都是已经正确分类的对象。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。 该算法在分类时有个主要的不足是,当样本不平衡时
3、,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。因此可以采用权值的方法(和该样本距离小的邻居权值大)来改进。该方法的另一个不足之处是计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分参考机器学习十大算法。 总的来说就是我们已经存在了一个带标签的数据库,然后输入没有标签的新数据后,将新数据的每个特征与样本集中
4、数据对应的特征进行比较,然后算法提取样本集中特征最相似(最近邻)的分类标签。一般来说,只选择样本数据库中前k个最相似的数据。最后,选择k个最相似数据中出现次数最多的分类。其算法描述如下:1)计算已知类别数据集中的点与当前点之间的距离;2)按照距离递增次序排序;3)选取与当前点距离最小的k个点;4)确定前k个点所在类别的出现频率;5)返回前k个点出现频率最高的类别作为当前点的预测分类。二、Python实现 对于机器学习而已,Python需要额外安装三件宝,分别是Numpy,scipy和Matplotlib。前两者用于数值计算,后者用于画图。安装很简单,直接到各自的官网下载回来安装即可。安装程序会
5、自动搜索我们的python版本和目录,然后安装到python支持的搜索路径下。反正就python和这三个插件都默认安装就没问题了。 另外,如果我们需要添加我们的脚本目录进Python的目录(这样Python的命令行就可以直接import),可以在系统环境变量中添加:PYTHONPATH环境变量,值为我们的路径,例如:E:PythonMachine Learning in Action2.1、kNN基础实践 一般实现一个算法后,我们需要先用一个很小的数据库来测试它的正确性,否则一下子给个大数据给它,它也很难消化,而且还不利于我们分析代码的有效性。 首先,我们新建一个kNN.py脚本文件,文件里面
6、包含两个函数,一个用来生成小数据库,一个实现kNN分类算法。代码如下:python1. #2. #kNN:kNearestNeighbors3. 4. #Input:newInput:vectortocomparetoexistingdataset(1xN)5. #dataSet:sizemdatasetofknownvectors(NxM)6. #labels:datasetlabels(1xMvector)7. #k:numberofneighborstouseforcomparison8. 9. #Output:themostpopularclasslabel10. #11. 12. f
7、romnumpyimport*13. importoperator14. 15. #createadatasetwhichcontains4sampleswith2classes16. defcreateDataSet():17. #createamatrix:eachrowasasample18. group=array(1.0,0.9,1.0,1.0,0.1,0.2,0.0,0.1)19. labels=A,A,B,B#foursamplesandtwoclasses20. returngroup,labels21. 22. #classifyusingkNN23. defkNNClass
8、ify(newInput,dataSet,labels,k):24. numSamples=dataSet.shape0#shape0standsforthenumofrow25. 26. #step1:calculateEuclideandistance27. #tile(A,reps):ConstructanarraybyrepeatingArepstimes28. #thefollowingcopynumSamplesrowsfordataSet29. diff=tile(newInput,(numSamples,1)-dataSet#Subtractelement-wise30. sq
9、uaredDiff=diff*2#squaredforthesubtract31. squaredDist=sum(squaredDiff,axis=1)#sumisperformedbyrow32. distance=squaredDist*0.533. 34. #step2:sortthedistance35. #argsort()returnstheindicesthatwouldsortanarrayinaascendingorder36. sortedDistIndices=argsort(distance)37. 38. classCount=#defineadictionary(
10、canbeappendelement)39. foriinxrange(k):40. #step3:choosetheminkdistance41. voteLabel=labelssortedDistIndicesi42. 43. #step4:countthetimeslabelsoccur44. #whenthekeyvoteLabelisnotindictionaryclassCount,get()45. #willreturn046. classCountvoteLabel=classCount.get(voteLabel,0)+147. 48. #step5:themaxvoted
11、classwillreturn49. maxCount=050. forkey,valueinclassCount.items():51. ifvaluemaxCount:52. maxCount=value53. maxIndex=key54. 55. returnmaxIndex 然后我们在命令行中这样测试即可:python1. importkNN2. fromnumpyimport*3. 4. dataSet,labels=kNN.createDataSet()5. 6. testX=array(1.2,1.0)7. k=38. outputLabel=kNN.kNNClassify(t
12、estX,dataSet,labels,3)9. printYourinputis:,testX,andclassifiedtoclass:,outputLabel10. 11. testX=array(0.1,0.3)12. outputLabel=kNN.kNNClassify(testX,dataSet,labels,3)13. printYourinputis:,testX,andclassifiedtoclass:,outputLabel 这时候会输出:python1. Yourinputis:1.21.0andclassifiedtoclass:A2. Yourinputis:0.
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 分类 KNN 近邻
限制150内