第11章 神经网络与支持向量机教学课件R语言数据分析与挖掘.pptx
《第11章 神经网络与支持向量机教学课件R语言数据分析与挖掘.pptx》由会员分享,可在线阅读,更多相关《第11章 神经网络与支持向量机教学课件R语言数据分析与挖掘.pptx(27页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第11章 神经网络与支持向量机教学课件R 语言数据分析与挖掘目录PAGE理解神经网络01202神经网络的R语言实现010103理解支持向量机0104支持向量机的R语言实现PAGE理解神经网络301PAGE4理解神经网络4R 语言数据分析与挖掘(微课版)人 工 神 经 网 络 对 一 组 输 入 信 号 和 一 组 输 出 信 号 之 间 的 关 系 建 模,使 用 的 模 型 来 源 于 人 类 大 脑 对 来 自 感 觉 输 入 的 刺 激 是 如 何 反 应 的理 解。就 像 大 脑 使 用 一 个 称 为 神 经 元(neuron)的 相 互 连 接 的 细 胞 网 络 来 创 建 一
2、个 巨 大 的 并 行 处 理 器 一 样,人 工 神 经 网 络 使 用 人 工 神经 元 或 者 节 点(node)的 网 络 来 解 决 学 习 问 题。从 广 义 上 讲,人 工 神 经 网 络 可 应 用 于 分 类、数 值 预 测,甚 至 是 无 监 督 的 模 式 识 别。人 工 神 经 网 络 最 好 应 用 于 下 列 问 题:输 入 数 据 和 输 出 数 据 都 很 好 理 解 或 者 至 少 相 对 简 单,但 其 涉 及 输 入 到 输 出 的 过 程 是 及 其 复 杂的。作为一种黑箱方法,对于这些类型的黑箱问题,它们运行得很好。虽然有很多种不同的神经网络,但是每一
3、种都可以由下面的特征来定义:(1)激活函数(activation function):将神经元的净输入信号转换成单一的输出信号,以便进一步在网路中传播。(2)网络拓扑(network topology)(或结构):描述了模型中神经元的数量以及层数和它们连接的方式。(3)训练算法(training algorithm):指定如何设置连接权重,以便抑制或者增加神经元在输入信号中的比重。PAGE5激活函数5R 语言数据分析与挖掘(微课版)激 活 函 数 是 人 工 神 经 元 处 理 信 息 并 将 信 息 传 递 到 整 个 网 络 的 机 制。激 活 函 数 的 主 要 作 用 是 提 供 网
4、络 的 非 线 性 建 模 能 力,如 不 特 别说 明,激 活 函 数 一 般 而 言 是 非 线 性 函 数。假 设 一 个 神 经 网 络 中 仅 包 含 线 性 卷 积 和 全 连 接 运 算,那 么 该 网 络 仅 能 够 表 达 线 性 映 射,即 便 增 加 网 络 的 深 度 也 依 旧 还 是 线 性 映 射,难 以 有 效 对 实 际 环 境 中 非 线 性 分 布 的 数 据 建 模。加 入(非 线 性)激 活 函 数 之 后,神 经网 络 才 具 备 了 分 层 的 非 线 性 映 射 学 习 能 力。因 此,激 活 函 数 是 深 度 神 经 网 络 中 不 可 或
5、缺 的 部 分。常 用 激 活 函 数 有Identity(恒 等 函数)、Binary step(单 位 跳 跃 函 数)、Sigmoid(“S”形 函 数)、TanH(双 曲 正 切 函 数)、ReLU(整 流 线 性 单 元 函 数)等。接 下 来,我们详细了解下Sigmoid、TanH 和ReLU 激活函数的基本原理。PAGE6网络结构6R 语言数据分析与挖掘(微课版)神 经 网 络 的 学 习 能 力 来 源 于 它 的 拓 扑 结 构(topology),或 者 相 互 连 接 的 神 经 元 的 模 式 与 结 构。虽 然 有 无 数 的 网 络 结 构 形 式,但 是它们可以通
6、过3 个关键特征来区分:(1)层的数目。(2)网络中的信息是否允许向后传播。(3)网络中每一层内的节点数。拓 扑 结 构 决 定 了 可 以 通 过 网 络 进 行 学 习 任 务 的 复 杂 性。一 般 来 说,更 大、更 复 杂 的 网 络 能 够 识 别 更 复 杂 的 决 策 边 界。然 而,神 经网络的效能不仅是一个网络规模的函数,也取决于其构成元素的组织方式。在一个神经网络中通常会分成这样几层:输入层(input layer)、隐藏层(hidden layer)和输出层(output layer)。PAGE神经网络的R 语言实现702PAGE8神经网络的R 语言实现8R 语言数据分
7、析与挖掘(微课版)目 前 使 用R 语 言 构 建 神 经 网 络 主 要 包 括nnet、neuralnet、AMOTE 及RSNNS 扩 展 包,这 些 扩 展 包 均 可 以 通 过install.packages()命 令 进 行在 线 安 装。其 中nnet 提 供 了 最 常 见 的 前 馈 反 向 传 播 神 经 网 络 算 法;neuralnet 提 供 了 弹 性 反 向 传 播 算 法 和 更 多 的 激 活 函 数 形 式;AMOTE 则 更 进 一 步 提 供 了 更 为 丰 富 的 控 制 参 数,并 可 以 增 加 多 个 隐 藏 层。前 面 三 个 扩 展 包 主
8、 要 基 于BP 神 经 网 络,并 未 涉 及 到 神 经网络中的其他拓扑结构和网络模型。而RSNNS 扩展包则提供了更多的神经网络模型。PAGE9nnet 扩展包9R 语言数据分析与挖掘(微课版)nnet扩展包的nnet()函数实现了单隐藏层的前馈神经网络和多项对数线性模型。nnet()函数基本表达形式为:nnet(x,y,weights,size,Wts,mask,linout=FALSE,entropy=FALSE,softmax=FALSE,censored=FALSE,skip=FALSE,rang=0.7,decay=0,maxit=100,Hess=FALSE,trace=TR
9、UE,MaxNWts=1000,abstol=1.0e-4,reltol=1.0e-8,.)参数 参数说明size 隐藏层中的神经元数,设置为0时,表示没有隐藏层Wts 初始系数,如果不设定,则使用随机数设定linout如果等于TRUE,则模型的输出为连续实数,一般用于回归分析(目标变量为连续型);如果等于FALSE(默认取值),则模型输出为逻辑数据,一般用于分类分析(目标变量为离散型)。entropy损失函数是否采用交叉熵,FALSE(默认)表示损失函数采用误差平方和的形式rang 初始权值设置maxit 最大迭代次数iterations,默认为100次abstol和reltolskip 是
10、否跳过隐藏层,如果为FALSE(默认),则不跳过decay 加权系数的衰减PAGE10neuralnet 扩展包10R 语言数据分析与挖掘(微课版)neuralnet扩展包的neuralnet()函数可实现传统B-P网络和弹性B-P网络建模。函数基本表达形式为:neuralnet(formula,data,hidden=1,threshold=0.01,stepmax=1e+05,rep=1,startweights=NULL,learningrate.limit=NULL,learningrate.factor=list(minus=0.5,plus=1.2),learningrate=NU
11、LL,lifesign=none,lifesign.step=1000,algorithm=rprop+,err.fct=sse,act.fct=logistic,linear.output=TRUE,exclude=NULL,constant.weights=NULL,likelihood=FALSE)PAGE11AMORE 扩展包11R 语言数据分析与挖掘(微课版)AMORE扩展包是一个更加灵活的包,该包实现了TAO稳健神经网络算法,对一些想自己训练算法的用户而言更有帮助。常用的函数包括创建网络的newff()函数和训练网络的train()函数。其中newff()函数的定义如下:newff
12、(n.neurons,learning.rate.global,momentum.global,error.criterium,Stao,hidden.layer,output.layer,method)train(net,P,T,Pval=NULL,Tval=NULL,error.criterium=LMS,report=TRUE,n.shows,show.step,Stao=NA,prob=NULL,n.threads=0L)PAGE12RSNNS 扩展包12R 语言数据分析与挖掘(微课版)Stuttgart Neural Network Simulator(SNNS)是德国斯图加特大学开
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第11章 神经网络与支持向量机教学课件R语言数据分析与挖掘 11 神经网络 支持 向量 教学 课件 语言 数据 分析 挖掘
限制150内