Spark编程基础及项目实践章节练习题项目6+答案.docx
《Spark编程基础及项目实践章节练习题项目6+答案.docx》由会员分享,可在线阅读,更多相关《Spark编程基础及项目实践章节练习题项目6+答案.docx(2页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、Spark编程基础及项目实践章节练习题项目6+答案习题6答案1.选择题(1)下列哪个不可以作为Spark Streaming的输入数据流?( D )A. KafkaB. TwitterC. TCP套接字D. Openstack(2)不可以作为Spark编程语言的是( C )。A. JavaB. ScalaC. RubyD. Python(3)Dstream的转换操作中,将RDD进行聚合的操作是( B )。A. flat map()B. reduce()C. count()D. union()(4)下列不是划窗操作重要参数是( D )。A. 批处理间隔B. 窗口间隔C. 滑动间隔D. 输入流间隔
2、(5)下列不属于Spark Streaming的输出操作的是( B )。A. saveAsTextFilesB. saveAsStreamingFiles C. saveAsHadoopFilesD. saveAsObjectFiles2.操作题 使用Hadoop用户名登录Linux系统,启动Spark-shell,使用Hadoop提供的Shell完成如下操作:(1) 引入Spark Streaming相关包,并创建一个Streaming Context对象,流计算的间隔时长为5秒。import org.apache.spark.SparkConfimport org.apache.spark
3、.streaming.Seconds, StreamingContextobject WordCount def main(args: ArrayString) = /create sparkConf val spark_conf = new SparkConf().setAppName(WordCount).setMaster(local3) /create streamingContext val spark_context = new StreamingContext(spark_conf,Seconds(5)(2)在spark-shell中读取Linux系统的本地文件“/home/ha
4、doop/test.txt”,然后统计出英语单词的个数(该文本文件只有英文组成)。import org.apache.spark.SparkConfimport org.apache.spark.streaming.Seconds, State, StateSpec, StreamingContextobject CumulativeWord def main(args: ArrayString): Unit = val conf = new SparkConf().setMaster(local2).setAppName(NetworkWordCount)val ssc = new Stre
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- Spark 编程 基础 项目 实践 章节 练习题 答案
限制150内