大数据关键技术原理与应用林子雨版课后习题答案.doc
《大数据关键技术原理与应用林子雨版课后习题答案.doc》由会员分享,可在线阅读,更多相关《大数据关键技术原理与应用林子雨版课后习题答案.doc(68页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第一章1.试述信息技术发展史上的3次信息化浪潮及具体内容。 信息化浪潮发生时间标志解决问题代表公司第一次浪潮1980年前后个人计算机信息解决Intel、AMD、IBM、苹果、微软、联想、戴尔、惠普等第二次浪潮1995年前后互联网信息传播雅虎、google、阿里巴巴、百度、腾讯等第三次浪潮前后物理网、云计算和大数据信息爆炸将涌现出一批新的市场标杆公司2. 试述数据产生方式经历的几种阶段答: 运营式系统阶段,顾客原创内容阶段,感知式系统阶段。3. 试述大数据的4个基本特性答:数据量大、数据类型繁多、解决速度快和价值密度低。4. 试述大数据时代的“数据爆炸”的特性答:大数据时代的“数据爆炸”的特性是
2、,人类社会产生的数据一致都以每年50%的速度增长,也就是说,每两年增长一倍。5. 数据研究经历了哪4个阶段?答:人类自古以来在科学研究上先后历经了实验、理论、计算、和数据四种范式。6. 试述大数据对思维方式的重要影响答:大数据时代对思维方式的重要影响是三种思维的转变:全样而非抽样,效率而非精确,有关而非因果。7. 大数据决策与老式的基于数据仓库的决策有什么区别答:数据仓库具有批量和周期性的数据加载以及数据变化的实时探测、传播和加载能力,能结合历史数据和实时数据实现查询分析和自动规则触发,从而提供对战略决策和战术决策。大数据决策可以面向类型繁多的、非构造化的海量数据进行决策分析。8. 举例阐明大
3、数据的基本应用答:领域大数据的应用金融行业大数据在高频交易、社区情绪分析和信贷风险分析三大金融创新领域发挥重要作用。汽车行业运用大数据和物联网技术的五人驾驶汽车,在不远的将来将走进我们的平常生活互联网行业借助于大数据技术,可以分析客户行为,进行商品推荐和有针对性广告投放个人生活大数据还可以应用于个人生活,运用与每个人有关联的“个人大数据”,分析个人生活行为习惯,为其提供更加周全的个性化服务。9. 举例阐明大数据的核心技术答:批解决计算,流计算,图计算,查询分析计算10. 大数据产业涉及哪些核心技术。答:IT基本设施层、数据源层、数据管理层、数据分析层、数据平台层、数据应用层。11. 定义并解释
4、如下术语:云计算、物联网答: 云计算:云计算就是实现了通过网络提供可伸缩的、便宜的分布式计算机能力,顾客只需要在具有网络接入条件的地方,就可以随时随处获得所需的多种IT资源。 物联网是物物相连的互联网,是互联网的延伸,它运用局部网络或互联网等通信技术把传感器、控制器、机器、人类和物等通过新的方式连在一起,形成人与物、物与物相连,实现信息化和远程管理控制。12. 具体论述大数据、云计算和物联网三者之间的区别与联系。大数据、云计算和物联网的区别大数据、云计算和物联网的联系大数据侧重于海量数据的存储、解决与分析,海量数据中发现价值,服务于生产和生活;云计算本质上皆在整合和优化多种IT资源并通过网络已
5、服务的措施,便宜地提供应顾客;物联网的发展目的是实现呜呜向量,应用创新是物联网的核心从整体来看,大数据、云计算和物联网这三者是相辅相成的。大数据根植于云计算,大数据分析的诸多技术都来自于云计算,云计算的分布式存储和管理系统提供了海量数据的存储和管理能力,没有这些云计算技术作为支撑,大数据分析就无从谈起。物联网的传感器源源不断的产生大量数据,构成了大数据的重要数据来源,物联网需要借助于云计算和大数据技术,实现物联网大数据的存储、分析和解决。第二章1. 试述hadoop和google的mapreduce、gfs等技术之间的关系答:Hadoop的核心是分布式文献系统HDFS和MapReduce,HD
6、FS是google文献系统GFS的开源实现,MapReduces是针对googleMapReduce的开源实现。2. 试述Hadoop具有哪些特性。答:高可靠性,高效性,高可扩展性,高容错性,成本低,运营在Linux平台,支持多种编程语言3. 试述Hadoop在各个领域的应用状况。答:,雅虎在Sunnyvale总部建立了M45一种涉及了4000个解决器和1.5PB容量的Hadooop集群系统;Facebook重要将Hadoop平台用于日记解决,推荐系统和数据仓库等方面;百度重要使用Hadoop于日记的存储和记录、网页数据的分析和挖掘、商业分析、在线数据反馈、网页聚类等。4. 试述Hadoop的
7、项目构造以及每个部分的具体功能。答:PigChukwaHiveHBaseMapReduceHDFSZookeeperCommonAvroCommeon是为Hadoop其她子项目提供支持的常用工具,重要涉及文献系统、RPC和串行化库Avro是为Hadoop的子项目,用于数据序列化的系统,提供了丰富的数据构造类型、迅速可压缩的二进制数据格式、存储持续性数据的文献集、远程调用的功能和简朴的动态语言集成功能。HDFS是Hadoop项目的两个核心之一,它是针对google文献系统的开源实现。HBase是一种提高可靠性、高性能、可伸缩、实时读写、分布式的列式数据库,一般采用HDFS作为其底层数据存储。Ma
8、pReduce是针对googleMapReduce的开源实现,用于大规模数据集的并行运算。Zoookepper是针对googleChubby的一种开源实现,是高效和可靠的协同工作系统,提供分布式锁之类的基本服务,用于构建分布式应用,减轻分布式应用程序所承当的协调任务。Hive是一种基于Hadoop的数据仓库工具,可以用于对Hadoop文献中的数据集进行数据整顿、特殊查询和分布存储。Pig是一种数据流语言和运营环境,适合于使用Hadoop和MapReducce平台上查询大型半构造化数据集。Sqoop可以改善数据的互操作性,重要用来在H大哦哦哦配合关系数据库之间互换数据。Chukwa是一种开源的、
9、用于监控大型分布式系统的数据收集系统,可以将多种类型的数据收集成适合Hadoop解决的文献,并保存在HDFS中供Hadoop进行多种 MapReduce操作。第三章1 试述分布式文献系统设计的需求。设计需求含义HDFS的实现状况透明性具有访问透明性、位置透明性、性能、和伸缩透明性只能提供一定限度的访问透明性,完全支持位置透明性、性能和伸缩透明性并发控制客户端对于文献的读写不应当影响其她客户端对同一种文献的读写机制非常简朴,任何时候都只容许有一种程序写入某个文献文献复制一种文献可以拥有不同位置的多种副本HDFS采用了多副本机制硬件和操作系统的异构性可以在不同的操作系统和计算机上实现同样的客户端和
10、服务端程序采用Java语言开发,具有较好的跨平台能力可伸缩性支持节点的动态加入或退出建立在大规模便宜机器上的分布式文献系统集群,具有较好的伸缩性容错保证文献服务在客户端或者服务端浮现问题的时候能正常使用具有多副本机制和故障自动检测、恢复机制安全保证系统的安全性安全性较弱2 分布式文献系统是如何实现较高水平扩展的?分布式文献系统在物理构造上是由计算机集群中的多种节点构成的,这些节点分为两类,一类叫“主节点”(Master Node)或者也被称为“名称结点”(NameNode),另一类叫“从节点”(Slave Node)或者也被称为“数据节点”(DataNode)3 试述HDFS中的块和一般文献系
11、统中的块的区别。答:在老式的文献系统中,为了提高磁盘读写效率,一般以数据块为单位,恶如不是以字节为单位。HDFS中的块,默认一种块大小为64MB,而HDFS中的文献会被拆提成多种块,每个块作为独立的单元进行存储。HDFS在块的大小的设计上明显要不小于一般文献系统。4 试述HDFS中的名称节点和数据节点的具体功能。答:名称节点负责管理分布式文献系统系统的命名空间,记录分布式文献系统中的每个文献中各个块所在的数据节点的位置信息;数据节点是分布式文献系统HDFS的工作节点,负责数据的存储和读取,会根据客户端或者是名称节点的调度来进行数据的存储和检索,并向名称节点定期发送自己所存储的块的列表。hado
12、op fs -ls 显示指定的文献的具体信息hadoop fs -cat 将指定的文献的内容输出到原则输出hadoop fs -mkdir 创立指定的文献夹hadoop fs -get -ignorecrc -crc 复制指定的文献到本地文献系统指定的文献或文献夹。-ignorecrc选项复制CRC校验失败的文献。使用-crc选项复制文献以及CRC信息。hadoop fs -put 从本地文献系统中复制指定的单个或多种源文献到指定的目的文献系统中。也支持从原则输入(stdin)中读取输入写入目的文献系统。hadoop fs -rmr 删除指定的文献夹及其的所有文献第四章1. 试述在Hadoop
13、体系架构中HBase与其她构成部分的互相关系。答: HBase运用Hadoop MapReduce来解决HBase中的海量数据,实现高性能计算;运用Zookeeper作为协同服务,实现稳定服务和失败恢复;使用HDFS作为高可靠的底层存储,运用便宜集群提供海量数据存储能力; Sqoop为HBase的底层数据导入功能,Pig和Hive为HBase提供了高层语言支持,HBase是BigTable的开源实现。2. 请论述HBase和BigTable的底层技术的相应关系答:项目BigTableHBase文献存储系统GFSHDFS海量数据解决MapReduceHadoop MapReduce协同服务管理C
14、hubbyZookeeper3. 请论述HBase和老式关系数据库的区别答:区别老式关系数据库HBase数据类型关系模型数据模型数据操作插入、删除、更新、查询、多表连接插入、查询、删除、清空,无法实现表与表之间关联存储模式基于行模式存储,元组或行会被持续地存储在磁盘也中基于列存储,每个列族都由几种文献保存,不同列族的文献是分离的数据索引针对不同列构建复杂的多种索引只有一种行键索引数据维护用最新的目前值去替代记录中本来的旧值更新操作不会删除数据旧的版本,而是生成一种新的版本可伸缩性很难实现横向扩展,纵向扩展的空间也比较有限容易地通过在集群中增长或者减少硬件数量来实现性能的伸缩4. HBase有哪
15、些类型的访问接口?答:HBase提供了Native Java API , HBase Shell , Thrift Gateway , REST GateWay , Pig , Hive 等访问接口。5. 请以实例阐明HBase数据模型。列限定符列族答:InfoNameMajorEmailLuo MinMathLiu JunMathXie YouMath行键单元格单元格有两个时间戳ts1和ts2每个时间戳相应一种数据版本6. 分别解释HBase中行键、列键和时间戳的概念(1) 行键是唯一的,在一种表里只浮现一次,否则就是在更新同一行,行键可以是任意的字节数组。(2) 列族需要在创立表的时候就定
16、义好,数量也不适宜过多。列族名必须由可打印字符构成,创立表的时候不需要定义好列。(3) 时间戳,默认由系统指定,顾客也可以显示设立。使用不同的时间戳来辨别不同的版本。7. 请举个实例来论述HBase的概念视图和物理视图的不同HBase数据概念视图行键时间戳列族contents列族anchor“n.www”T5Anchor:=”CNN”T3Anchor:my.look.ca=”CNN”“n.www”T3Content:html=”.”T2Content:html=”.”T1Content:html=”.”HBase数据物理视图行键时间戳列族anchor“n.www”T5Anchor:=”CNN”
17、T4Anchor:my.look.ca=”CNN”行键时间戳列族contents“n.www”T3Content:html=”.”T2Content:html=”.”T1Content:html=”.”在HBase的概念视图中,一种表可以视为一种稀疏、多维的映射关系。在物理视图中,一种表会按照属于同一列族的数据保存在一起8. 试述HBase各功能组建及其作用(1)库函数:链接到每个客户端;(2)一种Master主服务器:主服务器Master重要负责表和Region的管理工作;(3)许多种Region服务器:Region服务器是HBase中最核心的模块,负责维护分派给自己的Region,并响应顾
18、客的读写祈求9. 请论述HBase的数据分区机制。答: HBase采用分区存储,一种大的表会被分拆许多种Region,这些Region会被分发到不同的服务器上实现分布式存储。10. HBase中的分区是如何定位的。通过构建的映射表的每个条目涉及两项内容,一种是Regionde 标记符,另一种是Region服务器标记,这个条目就标记Region和Region服务器之间的相应关系,从而就可以懂得某个Region被保存在哪个Region服务器中。11. 试述HBase的三层构造中各层次的名称和作用。层次名称作用第一层Zookeeper文献记录了-ROOT-表的位置信息第二层-ROOT-表记录了.ME
19、TA.表的Region位置信息-ROOT-表只能有一种Region。通过-ROOT-表,就可以访问.META.表中的数据第三层.META.表记录了顾客数据表的Region位置信息,.META.表可以有多种Region,保存了HBase中所有顾客数据表的Region位置信息12. 请论述HBase的三层构造下,客户端是如何访问到数据的。答:一方面访问Zookeeper,获取-ROOT表的位置信息,然后访问-Root-表,获得.MATA.表的信息,接着访问.MATA.表,找到所需的Region具体位于哪个Region服务器,最后才会到该Region服务器读取数据。13. 试述HBase系统基本架构
20、以及每个构成部分的作用。(1)客户端客户端涉及访问HBase的接口,同步在缓存中维护着已经访问过的Region位置信息,用来加快后续数据访问过程(2)Zookeeper服务器Zookeeper可以协助选举出一种Master作为集群的总管,并保证在任何时刻总有唯一一种Master在运营,这就避免了Master的“单点失效”问题(3)Master主服务器Master重要负责表和Region的管理工作:管理顾客对表的增长、删除、修改、查询等操作;实现不同Region服务器之间的负载均衡;在Region分裂或合并后,负责重新调节Region的分布;对发生故障失效的Region服务器上的Region进行
21、迁移(4)Region服务器Region服务器是HBase中最核心的模块,负责维护分派给自己的Region,并响应顾客的读写祈求14. 请论述Region服务器向HDFS文献系统中读写数据的基本原理Region服务器内部管理一系列Region对象和一种HLog文献,其中,HLog是磁盘上面的记录文献,它记录着所有的更新操作。每个Region对象又是由多种Store构成的,每个Store对象了表中的一种列族的存储。每个Store又涉及了MemStore和若干个StoreFile,其中,MemStore是在内存中的缓存。15. 试述HStore的工作原理每个Store相应了表中的一种列族的存储。每
22、个Store涉及一种MenStore缓存和若干个StoreFile文献。MenStore是排序的内存缓冲区,当顾客写入数据时,系统一方面把数据放入MenStore缓存,当MemStore缓存满时,就会刷新到磁盘中的一种StoreFile文献中,当单个StoreFile文献大小超过一定阈值时,就会触发文献分裂操作。16. 试述HLog的工作原理答:HBase系统为每个Region服务器配备了一种HLog文献,它是一种预写式日记(Write Ahead Log),顾客更新数据必须一方面写入日记后,才干写入MemStore缓存,并且,直到MemStore缓存内容相应的日记已经写入磁盘,该缓存内容才干
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数据 关键技术 原理 应用 林子 课后 习题 答案
限制150内