欢迎来到淘文阁 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
淘文阁 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    Spark编程基础及项目实践章节练习题项目6+答案.docx

    • 资源ID:76722284       资源大小:14.33KB        全文页数:2页
    • 资源格式: DOCX        下载积分:5金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要5金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    Spark编程基础及项目实践章节练习题项目6+答案.docx

    Spark编程基础及项目实践章节练习题项目6+答案习题6答案1.选择题(1)下列哪个不可以作为Spark Streaming的输入数据流?( D )A. KafkaB. TwitterC. TCP套接字D. Openstack(2)不可以作为Spark编程语言的是( C )。A. JavaB. ScalaC. RubyD. Python(3)Dstream的转换操作中,将RDD进行聚合的操作是( B )。A. flat map()B. reduce()C. count()D. union()(4)下列不是划窗操作重要参数是( D )。A. 批处理间隔B. 窗口间隔C. 滑动间隔D. 输入流间隔(5)下列不属于Spark Streaming的输出操作的是( B )。A. saveAsTextFilesB. saveAsStreamingFiles C. saveAsHadoopFilesD. saveAsObjectFiles2.操作题 使用Hadoop用户名登录Linux系统,启动Spark-shell,使用Hadoop提供的Shell完成如下操作:(1) 引入Spark Streaming相关包,并创建一个Streaming Context对象,流计算的间隔时长为5秒。import org.apache.spark.SparkConfimport org.apache.spark.streaming.Seconds, StreamingContextobject WordCount def main(args: ArrayString) = /create sparkConf val spark_conf = new SparkConf().setAppName("WordCount").setMaster("local3") /create streamingContext val spark_context = new StreamingContext(spark_conf,Seconds(5)(2)在spark-shell中读取Linux系统的本地文件“/home/hadoop/test.txt”,然后统计出英语单词的个数(该文本文件只有英文组成)。import org.apache.spark.SparkConfimport org.apache.spark.streaming.Seconds, State, StateSpec, StreamingContextobject CumulativeWord def main(args: ArrayString): Unit = val conf = new SparkConf().setMaster("local2").setAppName("NetworkWordCount")val ssc = new StreamingContext(conf, Seconds(1)val initialRDD = ssc.sparkContext.parallelize(List("hello", 0)val lines = ssc.socketTextStream("localhost", 9999)val words = lines.flatMap(_.split(" ")val pairs = words.map(word => (word, 1)val mappingFunc = (word: String, one: OptionInt, state: StateInt) => val sum = one.getOrElse(0) + state.getOption.getOrElse(0)val output = (word, sum)state.update(sum)output(3)在spark-shell中监听本地的9999端口的TCP套接字,并使用划窗技术,流计算间隔为5秒,窗口间隔和滑动间隔自定义,来统计单词数。import org.apache.spark.streaming.Secondsimport org.apache.spark.streaming.StreamingContextimport org.apache.spark.SparkConfobject WindowsWordNumdef main(args: ArrayString): Unit = val conf = new SparkConf().setAppName("WindowsWordNum").setMaster("local2")/Scala中,创建的是StreamingContext val ssc = new StreamingContext(conf, Seconds(5)val searchWordCountsDStream = searchWordPairDStream.reduceByKeyAndWindow(v1: Int, v2: Int) => v1 + v2, Seconds(60), Seconds(10)val finalDStream = searchWordCountsDStream.transform(searchWordCountsRDD => val countSearchWordsRDD = searchWordCountsRDD.map(tuple => (tuple._2, tuple._1)val sortedCountSearchWordsRDD = countSearchWordsRDD.sortByKey(false)val sortedSearchWordCountsRDD = sortedCountSearchWordsRDD.map(tuple => (tuple._1, tuple._2)val top3SearchWordCounts = sortedSearchWordCountsRDD.take(3)for (tuple <- top3SearchWordCounts) println("result : " + tuple)searchWordCountsRDD)finalDStream.print()ssc.start()ssc.awaitTermination()

    注意事项

    本文(Spark编程基础及项目实践章节练习题项目6+答案.docx)为本站会员(春哥&#****71;)主动上传,淘文阁 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知淘文阁 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于淘文阁 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号 © 2020-2023 www.taowenge.com 淘文阁 

    收起
    展开