Nutanix超融合数据中心方案实施建议书.doc
《Nutanix超融合数据中心方案实施建议书.doc》由会员分享,可在线阅读,更多相关《Nutanix超融合数据中心方案实施建议书.doc(26页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、XXXXXXXX超融合数据中心方案建议书超融合数据中心方案建议书 | 26 | 26Error! Reference source not found.Hadoop on Nutanix | 26目录1项目背景31.1需求调研31.1.1数据中心调研31.1.2应用调研41.2超融合与传统架构选择42超融合方案设计52.1设计原则62.2架构设计72.3方案描述82.3.1计算资源82.3.2存储资源92.3.3网络拓扑112.3.4备份容灾122.4方案优势142.4.1横向扩展优势152.4.2性能优势162.4.3可靠性172.4.4易于部署182.4.5集中管理182.4.6自动故障恢
2、复203配置清单214超融合产品介绍224.1Nutanix的发展历程224.2Nutanix架构和软件定义存储224.3Nutanix与传统架构的差别234.4Nutanix和超融合市场241 项目背景经过近50多年的持续稳定发展,XXXX树立了中国家电企业由小到大、由弱到强、并迅速走向世界的杰出典范。如今的XXXX,已经不仅仅是中国的彩电大王,而且还成为了在海内外享有盛誉的特大型、多元化、国际化企业集团。企业形成了军用产品、数字电视、数字平面显示、IT、健康空调、数字视听、数字网络、模具、数字器件、环保电源、技术装备、电子工程、化工材料等十三大产业群。随着全球互联网浪潮和数字家电技术的迅猛
3、推进,XXXX秉承“科技领先,速度取胜”的经营理念,利用以市场需求为特征的拉动力和技术进步为特征的推动力,优化资源配置,通过技术创新、系统整合数字技术、信息技术、网络技术和平板显示技术,改造和提升传统产业,最大限度地满足人们不断增长的物质和文化需要。为了满足未来业务发展的需要,有效地解决数据安全、集中管控、降低运维成本、快速部署、跨平台访问、节能环保等问题,XXXX一直在关注通过虚拟化、分布式及超融合等互联网相关技术来解决现有数据中心的各种挑战,随着虚拟化及云计算的日益成熟,计划将其数据中心新业务系统运行在的基于互联网基因的超融合基础架构平台上。1.1 需求调研1.1.1 数据中心调研XXXX
4、现有数据中心存在的挑战包括:服务器数量众多,管理变得越来越复杂;新业务系统上线周期长,部署慢;SAN/NAS存储扩展性差,无法支撑新业务的性能需求;新业务走向互联网化,传统架构无法实现线性扩展能力;应用系统缺乏高可用性保护;数据中心空间资源有限等。1.1.2 应用调研目前,XXXX紧跟互联网+战略,重点规划以软件为中心的业务较多,多数都是面向互联网以及物联网业务,比如:用户中心、支付平台、设备系统、微信电视、O2O电商平台、企业移动办公软件平台及大数据平台等。业务系统CPU(core)内存(GB)磁盘(GB)操作系统软件节点数支付平台O2O电子商务企业移动办公1.2 超融合与传统架构选择超融合
5、基础架构(Hyper-Converged Infrastructure,或简称“HCI”)是指在同一套单元设备中不仅仅具备计算、网络、存储和服务器虚拟化等资源和技术,而且还包括备份软件、快照技术、重复数据删除、在线数据压缩等元素,而多套单元设备可以通过网络聚合起来,实现模块化的无缝横向扩展(scale-out),形成统一的资源池。HCI是实现“软件定义数据中心”的终极技术途径。HCI类似Google、Facebook等互联网数据中心的大规模基础架构模式,可以为数据中心带来最优的效率、灵活性、规模、成本和数据保护。使用计算存储超融合的一体化平台,替代了传统的服务器加集中存储的架构,使得整个架构更
6、清晰简单。图1.1 超融合架构示意图下表列举了使用超融合架构(计算+存储)和传统数据中心三层架构(服务器+光纤交换机+存储)的对比:超融合架构传统数据中心基础架构性能尽可能提供本地吞吐,并使用SSD保证应用IO需求。不存在性能瓶颈随着访问集中存储的服务器越来越多,性能瓶颈将日益凸显横向扩展可以简单的在集群中增加节点以扩展集群规模和性能由于架构限制,无法实现横向扩展高可用性可以通过三副本的方式容忍最多两个节点同时故障,并且硬件故障时数据重建速度快,性能几乎不受影响通过raid技术实现高可用性,但面对硬件故障时,性能下降严重。整合比虚拟机密度高,是传统2倍以上虚拟机密度低安装配置开箱即用的部署方式
7、,只需30分钟即可完成安装配置需要准备大量安装实施前的信息收集和整理工作,并且由专人进行安装部署,最少需要2天时间管理维护统一WEB界面管理,维护方便无需配置LUN、卷、Raid组需要专门存储管理软件,配置复杂。需要厂商支持。空间占用使用超融合架构:2台4U高,总共包含8个节点(包含服务器和存储)总共占用空间4U使用传统架构:8台2路服务器至少占用8U,存储至少需要3U总共占用空间11U耗电使用超融合架构:2台8节点,共耗电 2000W运行三年电费支出约:5.5万元使用传统架构:8台服务器平均每台服务器耗电600W计算,存储耗电1500w,总共耗电6300W运行三年电费支出约为:16.8万元2
8、 超融合方案设计新一代数据中心建设包含众多信息化应用的实施,与此相对应,机房服务器和存储设备也必将大量使用,并且随着后期应用扩充和服务扩容,服务器和存储设备的投入必然越来越庞大。一方面,管理硬件基础设施的压力和成本会不断增大;另一方面,由于应用的多样性,服务器和存储难于有效整合,服务器的资源使用都远低于其实际的处理能力,计算能力和存储容量难以充分利用。实施虚拟化/云计算数据中心,可以有效整合服务器及存储资源,形成计算资源池,根据新一代数据中心各项应用的实际需要动态分配计算资源,最大效率的利用现有服务器及存储设备,并对数据中心硬件设备进行有效管理和监控。2.1 设计原则在方案设计中我们将遵循以下
9、总体原则:以业务需求为导向技术架构最终是为业务服务的,因此技术架构的设计一定要以业务的需求为导向,充分考虑非功能需求,例如系统的重要程度、安全要求、业务连续性等。遵循互联网标准新业务系统都是面向互联网和物联网业务,因此架构体系要遵循互联网数据中心设计和建设标准,吸收互联网架构的优势。提高资源利用率现已经部署了大量的服务器,资源使用率低是较突出的一个问题,因此在项目中,提高资源利用率成为一个重要的任务。动态扩展性在IT发展趋势中,动态基础架构已经成为IT基础架构的发展方向。使IT基础架构成为一个动态、灵活、具有弹性的IT基础架构,同时在IT实时地运营过程可进行灵活的资源动态调整。资源扩展要体现在
10、计算资源和存储资源的同时扩展。分布式一切应用系统的高可用性是保障服务等级的重要因素,在架构设计中应该以软件定义为主,借助软件的分布式架构满足高可用性要求,实现系统架构和平台架构的无单点故障、无单点瓶颈问题,保障新一代的业务系统健壮性。安全性在系统设计中,安全性是一个非常重要的问题。在架构中需要考虑到虚拟化架构内外部的安全,包括数据安全等问题,以保证整个系统长期安全稳定的运行。2.2 架构设计超融合架构在数据中心中承担着计算资源池和分布式存储资源池的作用,极大地简化了数据中心的基础架构,而且通过软件定义的计算资源虚拟化和分布式存储架构实现无单点故障、无单点瓶颈、弹性扩展、性能线性增长等能力;在虚
11、拟化层可以自由选择Hypervisor的品牌,包括VMware vSphere、MicroSoft Hyper-v和KVM;而且通过简单、方便的管理界面,实现对数据中心基础架构层的计算、存储、虚拟化等资源进行统一的监控、管理和运维。超融合基础架构形成的计算资源池和存储资源池直接可以被云计算平台进行调配,服务于OpenStack、Cloud Foundry、Docker、Hadoop等IAAS、PAAS平台,对上层的互联网及物联网业务等进行支撑。同时,分布式存储架构简化容灾方式,实现同城数据双活和异地容灾。现有的超融合基础架构可以延伸到公有云,可以轻松将私有云业务迁到公有云服务。图2.1 超融合
12、数据中心架构2.3 方案描述2.3.1 计算资源基于Nutanix架构的模块化数据中心由Nutanix Block (区块)和Nutanix Node (节点)组成。下图2.2为标准的一个Block (区块)设备,仅占用2个机架单元 (2U高)。而每台标准的Nutanix Block (区块) 设备均含有四个独立的Nutanix节点,每个Node(节点)都是一台独立的x86服务器。却能够提供4台标准2路Intel CPU的x86 服务器和最大48TB存储容量。图2.2:Nutanix Block (区块 ) 和 Node (节点 )Nutanix的计算资源池是通过x86服务器虚拟化来实现的,可
13、以支持VMware vSphere、MicroSoft Hyper-v及Nutanix Acropolis平台提供的KVM等Hypervisor,如图2.3。在虚拟化Hypervisor层形成计算资源池,为业务系统的虚拟机提供不同的服务质量和能力,包括了高可用(High Availability)、容错(Fault Tolerant)、在线迁移(Live Migration/vMotion)、资源动态负载均衡(Distributed Resource Scheduler)等虚拟化的特性。同时,Nutanix可以支持业务虚拟机在不同的Hypervisor之前进行迁移,也就是V2V的能力,例如从v
14、Sphere迁移到KVM等。图2.3 超融合架构计算资源池(x86服务器虚拟化)2.3.2 存储资源Nutanix提供的分布式文件系统(NDFS)可以将一组集群内的节点组成一个统一的分布式存储平台。NDFS对于x86虚拟化平台软件而言就是一个集中的共享式存储,与任何其他集中式存储阵列一样工作,且提供更为简单便捷的存储管理,无需像传统集中存储那样再配置LUN、卷、或者Raid组。图2.4 Nutanix分布式存储架构和功能Nutanix分布式存储架构不仅同样提供传统存储的能力外,还提供更多的能力。针对于虚拟化方面提供快照、克隆等机制,数据层实现本地优先访问、存储分层等性能机制,对数据进行压缩和去
15、重提高存储可用容量,借助两份以上冗余数据提供存储的可靠性,增加或减少节点数据分布会自动平台,当节点宕机或磁盘损坏后具备数据自恢复能力等。Nutanix每个节点提供两种磁盘,标准配置为2块SSD,容量从480GB到1.6TB;4块SATA的HDD,容量为1TB和2TB (部分型号节点提供4TB和6TB的HDD)。图2.5 分布式存储系统逻辑架构NDFS被设计成为非常动态的平台,可以适用于不同工作负载的应用,并且允许混合节点类型:例如将计算密集型节点和存储密集型节点混合在一个集群中。对于集群内部磁盘容量大小不同的,确保数据一致的分布非常重要。NDFS有自带的称为磁盘平衡的技术,用来确保数据一致的分
16、布在集群内部各节点上。磁盘平衡功能与各节点的本地磁盘利用率和内置的NDFS ILM(数据生命周期管理)一同工作。它的目标是使得所有节点的磁盘利用率大致相等。另外,Nutanix节点通过ILM实现SSD和HDD的数据热分层。简单而言,磁盘的热分层时实现在集群内所有节点的SSD和HDD上,并且由ILM负责触发数据在热分层之间的迁移。本地节点的SSD在热分层中是最高优先级的,负责所有本地虚拟机IO的读写操作。并且还可以使用集群内所有其他节点的SSD,因为SSD层总是能提供最好的读写性能,并且在混合存储环境中尤为重要。在超融合的虚拟化环境中,所有IO操作都将由本地节点上的Nutanix Control
17、er VM(CVM)接管,以提供极高的性能。据以往经验及用户习惯分析,一般运行服务器虚拟化的虚拟机对IO性能要求在200-300 IOPS左右,而单个Nutanix节点可提供25000上的IOPS,4节点集群可提供将近100,000的IOPS。完全可以满足需求。2.3.3 网络拓扑在每个单节点上,默认提供如下网络端口:标配2x 1 GbE, 1x 1 GbE RJ45 (IPMI)附加Dual-Port 10 GbE/Quad-Port 10 GbE/Dual-Port 10 GBASE-T2x 1 GbE, 1x 1GbE RJ45 (IPMI)下图为Nutanix推荐的网络拓扑图:图2.6
18、 网络拓扑在计算虚拟化资源池中的每台虚拟化Hypervisor节点上会运行多台虚拟机,多台虚拟机之间共享网络,为了方便管理建议采用虚拟交换机来配置和管理网络,虚拟交换机可在数据中心级别提供集中和聚合的虚拟网络,从而简化并增强虚拟机网络。在虚拟交换机的网络划分上,仍然可以采用VLAN的方式划分不同的子网,实现不同子网段的安全和隔离。在网络隔离上,也可以采用网络虚拟化VXLAN技术。VXLAN网络协议,即VLAN协议的扩展版本。VXLAN网络可以跨越物理边界,从而跨不连续的数据中心和集群来优化计算资源利用率。VXLAN采用逻辑网络与物理拓扑相互分离,使用IP的技术,所以无需重新配置底层物理网络设备
19、即可扩展VXLAN网络。正因如此,也就无需再花费大量时间来规划如何调配VLAN及管理VLAN数量剧增问题。在每个Nutanix物理节点上有多种网络需求,包括管内部通讯网络、管理网络、生产网络等,因此每个Nutanix节点需配置多块网卡,网络设计建议如下:类型设计备注Nutanix物理节点之间的内部通讯网络10Gb以太网双链路冗余每个节点通过两条万兆链路分别连接两台万兆交换机,保证网络设备和链路的冗余度。Nutanix建议用户使用万兆网络互联物理节点,当发生密集的写IO时,万兆网络能保证提供足够带宽满足节点之间的IO同步流量。客户端与服务器虚拟机之间的通讯网络,虚拟化服务器对外服务网络1Gb/1
20、0Gb以太网,双链路冗余每个节点通过两条千/万兆链路分别连接两台千/万兆交换机,保证网络设备和链路的冗余度。用户访问虚拟服务器对外提供服务时,通过千/万兆链路可以实现与后端存储流量隔离。硬件管理网络(IPMI)1Gb以太网每个节点都有独立的千兆链路,用于连接专门的管理网络,实现管理网络与业务网络、存储网络分离。可以最大限度保证管理的灵活性和安全性。2.3.4 备份容灾Nutanix平台自带的存储层面及基于虚拟机粒度的备份恢复功能Time Stream。用户可以针对每个虚拟机设置不同的备份策略,包括备份计划和备份保留周期,Time Stream会自动通过存储快照方式对虚拟机进行备份。所有Time
21、 Stream的快照均是基于存储层面的,与虚拟化层面(例如VMware vSphere)的快照不同,存储层面的快照不会影响虚拟机的性能,对于虚拟化软件是完全透明的。传统的备份方式通过网络传输备份数据,需要特定的备份窗口以免影响业务正常运行。Time Stream备份可以与传统的备份策略互补,既能保证对于重要的虚拟机进行高频度备份又不会占用额外的网络带宽。例如: 对于普通虚拟机可以使用传统的备份方式每周进行全备,将备份数据保留在外部存储(例如磁带库中);同时使用Time Stream备份进行每天甚至每12小时的备份,数据直接保留在存储上以便快速恢复。 对于比较重要的虚拟机可以使用传统备份每周全备
22、、每天增量的方式,将备份数据保留在外部存储(例如磁带库中);同时使用Time Stream备份进行每2小时甚至每小时的备份,数据直接保留在存储上以便快速恢复。 可以采用vSphere Data Protection Advanced(简称VDPA,只针对vSphere)、Commvault(VMware和Hyper-v)、Weeam(vSphere和Hyper-v)等虚拟化备份解决方案作为有效补充。图2.7 Metro AvailabilityNutanix容灾功能,分为两个级别:Metro Availability和Remote Replication。都是基于虚拟机快照的方式将更新数据异步
23、复制到远程的Nutnaix集群中。Metro Availability可以实现同城双数据中心之间的RPO接近于“零”(需要裸光纤支持),即便是标准Remote Replication也能实现RPO为1小时(基于网络带宽和更新数据量),满足绝大多数异地容灾的业务需求。Nutanix容灾支持双向、一对多、多对一各种不同的复制模式。并且可以通过Nutanix自带的管理界面激活容灾中心的虚拟机进行容灾演练。不再需要额外繁琐的灾难恢复计划,基于鼠标点击即可完成容灾切换。使用Nutanix解决方案可以在项目初始即确定今后的容灾规划,而无需在今后专门立项重复设计整体容灾架构。依据用户规模和分支机构数量,通过
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- Nutanix 融合 数据中心 方案 实施 建议书
限制150内