Adaboost算法流程和证明.pdf
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《Adaboost算法流程和证明.pdf》由会员分享,可在线阅读,更多相关《Adaboost算法流程和证明.pdf(7页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、 Adaboost算法流程和证明 1、Adaboost算法简介 Adaboost算法是Freund与Schapire根据在线分配算法提出的,他们全面分析了Adaboost算法错误率的上界,与为了使强分类器达到错误率,算法所需要的最多迭代次数等有关问题。与Boosting算法不一致的是,Adaboost算法不需要预先明白弱学习算法学习正确率的下限即弱分类器的误差,同时最后得到的强分类器的分类精度依靠于所有弱分类器的分类精度,这样能够深入挖掘弱分类器算法的能力。2、Adaboost 算法基本原理 Adaboost是一种迭代算法,其核心思想是针对同一个训练集训练不一致的分类器(弱分类器),然后把这些
2、弱分类器集合起来,构成一个更强的最终分类器(强分类器)。其算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否正确,与上次的总体分类的准确率,来确定每个样本的权值。将修改过权值的新数据集送给下层分类器进行训练,最后将每次训练得到的分类器最后融合起来,作为最后的决策分类器。使用Adaboost分类器能够排除一些不必要的训练数据特征,并将关键放在关键的训练数据上面。Adaboost算法中不一致的训练集是通过调整每个样本对应的权重来实现的。开始时,每个样本对应的权重是相同的,即其中 n为样本个数,在此样本分布下训练出一弱分类器。关于分类错误的样本,加大其对应的权重;而关于分类正
3、确的样本,降低其权重,这样分错的样本就被突出出来,从而得到一个新的样本分布。在新的样本分布下,再次对弱分类器进行训练,得到弱分类器。依次类推,通过T次循环,得到T个弱分类器,把这T个弱分类器按一定的权重叠加(boost)起来,得到最终想要的强分类器。Adaboost 算法的具体步骤如下:设输入的n个训练样本为:1122(,),(,),(,)nnxyxyxy,其中ix是输入的训练样本,0,1iy 分别表示正样本与负样本,其中正样本数为l,负样本数m。nlm,具体步骤如下:初始化每个样本的权重,()iw iD i;对每个1,tT(T为弱分类器的个数):把权重归一化为一个概率分布,1t it int
4、 jjwww 对每个特征f,训练一个弱分类器jh计算对应所有特征的弱分类器的加权错误率 1()()njtijiiiw xh xy 选取最佳的弱分类器th(拥有最小错误率):t 按照这个最佳弱分类器,调整权重 11,itit itww 其中0i表示被正确地分类,1i,表示被错误地分类 1ttt 最后的强分类器为:1111()()20TTttttth xh xotherwise,1logtt 3、Adaboost算法应用 随着 Adaboost 算法的进展,目前 Adaboost 算法广泛的应用于人脸检测、目标识别等领域,其中有在人脸识别、汽车识别、驾驶员眨眼识别的方面的应用与研究。Discete
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- Adaboost 算法 流程 证明
![提示](https://www.taowenge.com/images/bang_tan.gif)
限制150内