Spark编程基础及项目实践章节练习题项目1+答案.docx
《Spark编程基础及项目实践章节练习题项目1+答案.docx》由会员分享,可在线阅读,更多相关《Spark编程基础及项目实践章节练习题项目1+答案.docx(2页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、习题11.选择题(1)下列哪个不是大数据的特征?( D )A. VolumeB. VarietyC. VelocityD. Variance(2)下列不属于大数据技术的是( C )。A. 大数据采集技术B. 大数据存储及管理技术C. 财务报表分析技术D. 大数据分析及挖掘技术(3)下列不属于Spark生态系统的是( B )。A. Spark StreamingB. StormC. Shark SQLD. Spark R(4)下列适合Spark大数据处理场景的是( D )。A. 复杂的批处理B. 基于历史数据的交互式查询C. 基于实时数据流的数据处理D. PB级的数据存储(5)下列不是Spark
2、的部署模式的是( C )。A. 单机式B. 单机伪分布式C. 列分布式D. 完全分布式2.操作题 使用Hadoop用户名登录Linux系统,启动Hadop,使用Hadoop提供的Shell完成如下操作:(1)在Linux系统的本地文件系统的“/home/hadoop”目录下新建一个文本文件test.txt,并在该文件中随意输入一些内容,然后上传到HDFS的“/data/input”目录下。 $vi /home/hadoop/test.txt $ hdfs dfs put /home/hadoop/test.txt /data/input/(2)在spark-shell中读取Linux系统的本地
3、文件“/home/hadoop/test.txt”,然后统计出文件的行数。 $ cd /usr/local/spark$./bin/spark-shellscalaval textFile=sc.textFile(file:/home/hadoop/test.txt)scalatextFile.count()(3)在spark-shell中读取HDFS系统文件“/data/input/test.txt”(如果文件不存在,请先创建),然后统计出文件的行数。scalaval textFile=sc.textFile(hdfs:/localhost:9000/user/hadoop/test.txt)scalatextFile.count()2
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- Spark 编程 基础 项目 实践 章节 练习题 答案
限制150内