欢迎来到淘文阁 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
淘文阁 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    机器学习第五章代码.docx

    • 资源ID:62627203       资源大小:13.74KB        全文页数:5页
    • 资源格式: DOCX        下载积分:20金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要20金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    机器学习第五章代码.docx

    51 Logistic 回归梯度上升优算法 #加载数据,前两列是点所属的 X1, X2 坐标, 最后一列是该点所属分类。from numpy import *def loadDataSet(): #加载数据 dataMat = ; labelMat = fr = open('testSet.txt') #打开文本文件testSet.txt for line in fr.readlines(): #逐行读取 lineArr = line.strip().split() dataMat.append(1.0,float(lineArr0),float(lineArr1) # 因为线性回归化式为 H(x) = W0 + W1*X1 + W2*X2即为 (W0, W1, W2)*(1, X1, X2), 其中 (W0, W1, W2) 即为所求回归系数 W。 为了方便计算, 读出 X1, X2 后要在前面补上一个 1.0 labelMat.append(int(lineArr2)return dataMat,labelMat#计算 sigmoid 函数def sigmoid(inX):     return 1.0/(1+exp(-inX)# 梯度上升算法计算出最佳回归系数def gradAscent(dataMatIn, classLabels):  dataMatrix = mat(dataMatIn) #转换为NumPy矩阵数据类型    labelMat = mat(classLabels).transpose() #转换为NumPy矩阵数据类型   m,n = shape(dataMatrix)    alpha = 0.001                           # 步长    maxCycles = 500                     # 循环次数    weights = ones(n,1)               # 回归系数初始化为1#循环 maxCycles次, 每次都沿梯度向真实值 labelMat 靠拢For k in range(maxCycles):                h = sigmoid(dataMatrix*weights)     # 矩阵相乘       error=(labelMat-h)  #向量减法运算        weights = weights + alpha * dataMatrix.transpose()* error #矩阵相乘,dataMatrix.transpose()* error 就是梯度f(w) return weights52 画出数据集和Logistic回归最佳拟合直线的函数。#画出各个训练点,根据 weights(即回归的各个参数) 画出直线, 以便直观的看到划分是否正确def plotBestFit(weights):    import matplotlib.pyplot as plt    # 画点    dataMat,labelMat=loadDataSet()    dataArr = array(dataMat)    n = shape(dataArr)0     xcord1 = ; ycord1 =     xcord2 = ; ycord2 =     for i in range(n):      if int(labelMati)= 1:        xcord1.append(dataArri,1);ycord1.append(dataArri,2)      else:        xcord2.append(dataArri,1);ycord2.append(dataArri,2)    fig = plt.figure()    ax = fig.add_subplot(111)    ax.scatter(xcord1, ycord1, s=30, c='red', marker='s')ax.scatter(xcord2, ycord2, s=30, c='green') # 画线 x= arange(-3.0, 3.0, 0.1)  # x取值区间为 -3.0, 3.0),步长为 0.1 y = (-weights0-weights1*x1)/weights2 ax.plot(x,y) plt.xlabel('X1'); plt.ylabel('X2');# 显示 plt.show() 53 随机梯度上升算法def stocGradAscent0(dataMatrix, classLabels): m,n = shape(dataMatrix) alpha = 0.01 weights = ones(n) #初始化为1的矩阵 for i in range(m): h = sigmoid(sum(dataMatrixi*weights) error = classLabelsi - h weights = weights + alpha * error * dataMatrixireturn weights54 改进的随机梯度上升算法 def stocGradAscent1(dataMatrix, classLabels, numIter=150): m,n = shape(dataMatrix) weights = ones(n) #初始化为1的矩阵 for j in range(numIter): dataIndex = range(m) for i in range(m): alpha = 4/(1.0+j+i)+0.0001 #alpha值每次迭代时都进行调整,会缓解数据波动或者高频波动 randIndex=int(random.uniform(0,len(dataIndex)#随机选取更新回归系数,可以减少周期性波动 h= sigmoid(sum(dataMatrixrandIndex*weights) error = classLabelsrandIndex - h weights=weights+alpha*error*dataMatrixrandIndex del(dataIndexrandIndex) return weights

    注意事项

    本文(机器学习第五章代码.docx)为本站会员(飞****2)主动上传,淘文阁 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知淘文阁 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于淘文阁 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号 © 2020-2023 www.taowenge.com 淘文阁 

    收起
    展开