Spark编程基础及项目实践章节练习题项目1+答案.docx
-
资源ID:76385411
资源大小:16.19KB
全文页数:2页
- 资源格式: DOCX
下载积分:5金币
快捷下载
会员登录下载
微信登录下载
三方登录下载:
微信扫一扫登录
友情提示
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
|
Spark编程基础及项目实践章节练习题项目1+答案.docx
习题11.选择题(1)下列哪个不是大数据的特征?( D )A. VolumeB. VarietyC. VelocityD. Variance(2)下列不属于大数据技术的是( C )。A. 大数据采集技术B. 大数据存储及管理技术C. 财务报表分析技术D. 大数据分析及挖掘技术(3)下列不属于Spark生态系统的是( B )。A. Spark StreamingB. StormC. Shark SQLD. Spark R(4)下列适合Spark大数据处理场景的是( D )。A. 复杂的批处理B. 基于历史数据的交互式查询C. 基于实时数据流的数据处理D. PB级的数据存储(5)下列不是Spark的部署模式的是( C )。A. 单机式B. 单机伪分布式C. 列分布式D. 完全分布式2.操作题 使用Hadoop用户名登录Linux系统,启动Hadop,使用Hadoop提供的Shell完成如下操作:(1)在Linux系统的本地文件系统的“/home/hadoop”目录下新建一个文本文件test.txt,并在该文件中随意输入一些内容,然后上传到HDFS的“/data/input”目录下。 $vi /home/hadoop/test.txt $ hdfs dfs put /home/hadoop/test.txt /data/input/(2)在spark-shell中读取Linux系统的本地文件“/home/hadoop/test.txt”,然后统计出文件的行数。 $ cd /usr/local/spark$./bin/spark-shellscala>val textFile=sc.textFile("file:/home/hadoop/test.txt")scala>textFile.count()(3)在spark-shell中读取HDFS系统文件“/data/input/test.txt”(如果文件不存在,请先创建),然后统计出文件的行数。scala>val textFile=sc.textFile("hdfs:/localhost:9000/user/hadoop/test.txt")scala>textFile.count()2