(4.3.1)--第4章作业-多元线性回归方法原理详解.ppt
《(4.3.1)--第4章作业-多元线性回归方法原理详解.ppt》由会员分享,可在线阅读,更多相关《(4.3.1)--第4章作业-多元线性回归方法原理详解.ppt(33页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、多元线性回归目 录C O N T E N T SC O N T E N T S1回归定义2算法流程3超参数4解题思路3定义定义1PART ONE回归分析回归分析回归分类回归分类线性回归线性回归回归预测回归预测4回回归分析分析回归分析:确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。也就是根据数据集D,拟合出近似的曲线,所以回归也常称为拟合(Fit)。5回归分析后将得到回归方程,与具体数据结合后可得到对应的预测结果。回回归预测6回回归分分类一元回归分析回归分析因变量和自变量的个数因变量和自变量的函数表达式多元回归分析线性回归分析非线性回归分析7线性回性回归一元线性回归因变量和自变量
2、的个数多元线性回归定义:仅用一个特征进行的线性回归定义:通过n个特征进行的线性回归公式:y=wx+b例子:学分绩点=(综合成绩-60)/10+1.58算法流程算法流程2数据预处理数据预处理算法模型算法模型模型评估模型评估PART TWO模型预测模型预测9算法流程算法流程10算法流程算法流程打个形象的比喻:训练集学生的课本;学生根据课本里的内容来掌握知识。验证集作业,通过作业可以知道不同学生学习情况、进步的速度快慢。测试集考试,考的题是平常都没有见过,考察学生举一反三的能力。说明:一般三者切分的比例是6:2:2,验证集并不是必须的。11数据数据预处理理数据预处理(datapreprocessin
3、g)是指对所收集数据进行分类或分组前所做的审核、筛选、排序等必要的处理。常用的数据预处理方式有数据归一化、数据增强、缺失值处理、异常点/离群点检测等。最大最小值归一化方法:将不同量纲的数据统一归一化为0,1之间的数据。缺点:这种方法有个缺陷就是当有新数据加入时,可能导致max和min的变化,需要重新定义。最大最小值归一化方法:将不同量纲的数据统一归一化为0,1之间的数据。12模型模型训练多元多元线性回性回归公式公式13损失函数失函数损失函数(lossfunction)又称代价函数(cost function),是预测结果和实际结果之间的差别,如平方损失函数。14模型模型训练-损失函数失函数由于
4、该函数为凸函数,只有一个全局最优解,因此使用此函数作为损失函数有利于使用梯度下降法进行模型训练时取得全局最优解。15凸函数(下凸)凸函数(下凸)设f(x)在区间D上连续,如果对D上任意两点a、b恒有:f(a+b)/2)(f(a)+f(b)/2则f(x)在D上的图形是(向下)凸的(或凸弧)。凸函数:只有一个局部最低点。非凸函数:有多个局部最低点,一个全局最低点。16优化器化器优化器能指引损失函数的各个参数往正确的方向更新合适的大小,使得更新后的各个参数能让损失函数值不断逼近全局最小。优化器化器梯度下降法梯度下降法动量量优化法化法自适自适应学学习率率优化算法化算法标准梯度下降法(GradientD
5、escent,GD)MomentunAdagrad算法NAGRMSprop算法AdaDleta算法Adam算法批量梯度下降法((BatchGradientDescent,BGD)随机梯度下降法(StochasticGradientDescent)17标准梯度下降准梯度下降梯度下降法的计算过程就是沿梯度下降的方向求解极小值的过程(也可以沿梯度上升方向求解极大值),公式如下:18学学习率率学习率大学习率小19超参数超参数超参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。参数与超参数的区别:l模型参数:根据数据自动估算的,由数据来驱动调整,如线性回归中的系数w。l模型超参数:手动
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 4.3 作业 多元 线性 回归 方法 原理 详解
限制150内