欢迎来到淘文阁 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
淘文阁 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    Spark编程基础及项目实践章节练习题项目5+答案.docx

    • 资源ID:76723105       资源大小:94.99KB        全文页数:2页
    • 资源格式: DOCX        下载积分:5金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要5金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    Spark编程基础及项目实践章节练习题项目5+答案.docx

    Spark编程基础及项目实践章节练习题项目5+答案习题51. 选择题(1) Spark SQL可以处理数据源包括哪些?( D )A. Hive表 B. 数据文件、Hive表 C. 数据文件、Hive表、RDD D. 数据文件、Hive表、RDD、外部数据库(2)下列说法正确的是( C )。A. Spark SQL的前身是Hive B. DataFrame其实就是RDDC. HiveContext继承了SqlContext D. HiveContext只支持SQL语法解析器(3)如何查看DataFrame对象的前10条记录?( C )A. df.show() B. df.show(false) C. df.show(10) D. df.collect()(4)DataFrame查询指定字段数据信息的方法有哪些?( B )selectselectExprcolapplyA. B. C. D. (5)DataFrame的groupBy方法返回的结果是什么类型?( D )A. DataFrame B.ColumnC.GroupedData D.RDD2.操作题某航空公司积累了大量的会员档案信息和其乘坐航班记录。其中包括了会员卡号、入会时间、性别、年龄、会员卡级别、工作地城市、工作地所在省份、积分、飞行千米数、飞行次数、飞行时间、平均折扣率等信息。如图5-43所示。图5-43 航空公司信息数据 (1)导入数据表。(2)统计SUM_YR_1、SEG_KM_SUM字段的空值记录数,保存到null_count表。(3)统计SUM_YR_1、SEG_KM_SUM字段的最小值,保存到min_count表。(4)统计SUM_YR_1、SEG_KM_SUM字段的最大值,保存到max_count表。(5)计算SUM_YR_1、SEG_KM_SUM字段的平均值。答案:(1) val class Person(SUM_YR_1:int, SEG_KM_SUM:int)val data = sc.textFile("/user/root/test.txt")val person=data.map(p=>Person(p(0),p(1).trim.toInt).toDF()(2) df.select("SUM_YR_1").count("null")resultDF.write.jdbc("jdbc:mysql:/192.168.1.150:3306/spark","null_countt")df.select("SEG_KM_SUM").count("null")resultDF.write.jdbc("jdbc:mysql:/192.168.1.150:3306/spark","null_countt")(3) df.select("SUM_YR_1").min()resultDF.write.jdbc("jdbc:mysql:/192.168.1.150:3306/spark","min_count")df.select("SEG_KM_SUM"). min()resultDF.write.jdbc("jdbc:mysql:/192.168.1.150:3306/spark","min_count")(4) df.select("SUM_YR_1").max()resultDF.write.jdbc("jdbc:mysql:/192.168.1.150:3306/spark","max_count")df.select("SEG_KM_SUM"). max()resultDF.write.jdbc("jdbc:mysql:/192.168.1.150:3306/spark","max_count")(5) df.select("SUM_YR_1").avg()df.select("SEG_KM_SUM"). avg()95

    注意事项

    本文(Spark编程基础及项目实践章节练习题项目5+答案.docx)为本站会员(春哥&#****71;)主动上传,淘文阁 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知淘文阁 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于淘文阁 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号 © 2020-2023 www.taowenge.com 淘文阁 

    收起
    展开