机器统计学习作业(共12页).docx
《机器统计学习作业(共12页).docx》由会员分享,可在线阅读,更多相关《机器统计学习作业(共12页).docx(12页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、精选优质文档-倾情为你奉上一、()泛化误差上界:对二分类问题,当假设空间是有限个函数的集合时,对任意一个函数,至少以概率,以下不等式成立:其中,即的泛化能力:.证明:在证明中要用到Hoeffding不等式,故先叙述如下:设是独立随机变量是之和,;为这组随机变量的均值,则,以下不等式成立:对任意函数,是个独立的随机变量样本均值,是随机变量的期望值。如果损失函数取值于区间,即对所有,那么有上述Hoeffding不等式,对,以下不等式成立:由于是一有限集合,故或者等价的,对任意,有令则故至少以概率有.二、 ()以损失函数推导向量最小化感知机的损失函数感知机学习算法是误分类驱动的,具体采用随机梯度下降
2、法。首先,任意选取一个超平面,然后用梯度下降法不断极小化目标函数,极小化的过程不是一次使中所有的误分类点的梯度下降,而是一次随机选取一个误分类点使其梯度下降.随机梯度下降是一种迭代求解思路,而迭代法参数寻优的基本原理:沿着(代价)函数下降的方向寻找参数,能够找到极值点.在我们已经学过的数学知识中,导数和方向导数是能找到函数变化方向的。导数表示了曲线的斜率(倾斜度),方向导数表示了曲面沿着任意方向的斜率(倾斜度)。一维时,导数就足够了。但多维时,就需要借助方向导数了,而我们更希望能找到变化率最大的方向。因此,多维下借用方向导数变化最大的情况:梯度,梯度的方向是函数某点增长最快的方向,梯度的大小是
3、该点的最大变化率.故对于损失函数的梯度是对和求偏导:三、()如图所示的训练数据集,其正实例点是,负实例点是,试用感知机学习算法的原始形式求感知机模型.这里,.解 构建最优化问题:按照感知机学习算法的原始形式,求解,.(1) 取初值,(2) 对,未能被正确分类,更新,.,得到线性模型(3) 对,显然,被正确分类,不修改,.对,被误分类,更新,.,得到线性模型,得到线性模型(5)对,被误分类,更新,故得到线性模型(6)对,被误分类点,更新,.,故得到线性模型(7) 对,被误分类点,更新,.,故得到线性模型(8) 对,被误分类点,更新,.,故得到线性模型而该模型对正实例点,负实例点,都有,则没有分类
4、点,损失函数达到最小.故分离超平面为感知机模型为迭代过程如表四、 从统计角度考虑哪些因素影响近邻法的准确度.我们知道近邻法是一种应用广泛的非参数分类方法 ,可用于线性不可分的多类样本识别。它的优点是事先并不要求知道待分样本的分布函数。目前广泛使用的近邻法是以待分类样本为中心做超球体 ,逐渐扩大超球半径直至超球内包含个已知模式样本为止, 判断这个近邻样本中多数属于哪一类 ,就把待分类样本归为哪一类。分类算法描述如下:假设有个类别,.测试样本和与其最近的样本之间的距离为,,其中的下标表示类,上标表示类个样本中第个样本.在超球半径的前提下, 求,表示这个近邻中属于的样本数 .上述方法的弱点就是 ,半
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 机器 统计 学习 作业 12
限制150内