云计算平台设计方案.docx
《云计算平台设计方案.docx》由会员分享,可在线阅读,更多相关《云计算平台设计方案.docx(73页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、云计算平台方案建议书七月 16, 2023xxxxxx云计算平台方案建议书目录1XXXXX现状及需求分析31.1XXXXX简介31.2XXXXX数字化校园网需求31.3目前数据中心普遍存在问题及应对方法42XXXXX云计算平台设计方案概述62.1云计算平台的设计目标62.2VCE联盟在数据中心的意义62.3XXXXX云计算平台设计概述72.3.1网络系统设计概述82.3.2计算系统设计概述92.3.3存储系统设计概述112.3.4虚拟化系统设计概述123计算系统设计(XXUCS)143.1服务器发展趋势143.2刀片服务器的特点153.3XXUCS的优势概述153.3.1虚拟化的目标163.3
2、.2服务器整合163.3.3简化系统管理173.3.4统一交换平台183.3.5无状态计算203.3.6加速应有部署213.4XXXXX云计算平台计算部分具体设计213.5XXUCS统一计算系统与传统服务器的功能对比243.6计算系统设计总结254存储系统设计(EMC)264.1存储系统需求分析264.1.1扩展性要求264.1.2安全性要求274.1.3高性能要求274.1.4投资保护要求274.2方案架构284.3方案拓扑图294.4存储方案说明294.5存储方案优势304.5.1高性能存储平台304.5.2数据的安全性和系统的高可靠性304.5.3系统的高效性304.5.4高可用性和支持
3、业务连续性304.5.5多平台连接性和系统的可扩展性以及对用户的投资保护314.5.6灵活性和系统管理的简单性315服务器虚拟化设计(VMware vSphere)325.1VMware vSphere 套件中的组件345.1.1VMware ESXI345.1.2VMware VMotion395.1.3VMware Distributed Resource Scheduler405.1.4VMware High Availability425.1.5VMware Consolidated Backup445.2VMware 虚拟化软件的优势456云计算平台具体产品介绍526.1XX统一计算
4、平台相关产品介绍526.1.1XX刀片服务器机箱526.1.2XXUCS B200刀片服务器546.1.3XXUCS 6200XP互联矩阵566.1.4XXUCS管理器606.2EMC存储相关产品介绍636.2.1以较少成本提供更多价值的中端创新636.2.2重要特性636.2.3EMC VNX技术进步646.2.4节省能源、保护数据并实现虚拟化以较低的拥有成本656.2.5完整的高级存储软件套件676.2.6在线升级706.2.7依靠 EMC 全球服务最大限度地提高 VNX系列的好处706.2.8EMC 针对 VNX的支持选项706.2.9EMC 针对 VNX的服务选项71xxxxx云计算平
5、台设计方案1 XXXXX现状及需求分析1.1 XXXXX简介1.2 XXXXX网需求建成后的XXXXX云计算平台,需要为XXXX网内各项应用提供一站式的IT服务。主要包含如下需要重点考虑的内容:1、低成本高性能的虚拟机或空间租赁服务。2、为xxxxx网提供量身定制的身份认证平台、数据库平台、信息门户平台、学生综合服务系统、人事管理系统、教务管理系统核心模块。3、方案架构设计应具有弹性的扩展能力,充分考虑用户未来的发展需求,直至云数据中心的建设,最大程度地体现保护投资。4、利用云架构平台可快速拆分各自应用和管理平台,并可随意、快速、便捷的调用各种应用模块,满足各系统间的灵活调用和相互联动,同时使
6、新应用的开发更加简单快速。1.3 目前数据中心普遍存在问题及应对方法结合以往的经验,大部分数据中心正面临如下问题:(一) 运维成本及投入逐年增多1) 大部分数据中心的业务系统使用Windows平台;2) 新业务系统的部署周期过长;3) 数据中心未做虚拟化部署,这将导致服务器的数量随着业务的增多(目前每台物理的服务器大多做单一的应用部署)而逐年增长;服务器数量的增多将导致一系列的问题:a) 投资成本逐年提高:所有的IT投资当中将有70%的成本用于运维,而仅有30%的成本用于新业务的开展和新技术的应用;b) 服务器增多意味着管理成本的上升,在遇到突发问题的时候不能快速的恢复业务应用;c) 电力成本
7、逐年上升:UPS供电、机房制冷等成本随着服务器的增多其负载成本必然逐年增高;d) 机房空间占用越来越大;e) 一台物理服务仅负责一个单一的应用,无高可用性(HA)设计,CPU资源和内存资源利用率底下,这是一种极大的浪费。(二) 数据的管理风险1) 数据分散,没有统一管理;2) 对重要数据无统一备份管理机制;3) 无法保证重要数据的高可靠;4) 现有存储无法满足未来信息化建设的需要。(三) 数据中心的设备管理风险1) 服务器硬件老化,增加系统宕机风险 2) 缺少对所有服务器的状态及性能监控 3) 每个系统都运行在一台物理服务器上,且无高可靠性(HA)保障 (四) 应用交付不完善1) 虽然出口有多
8、条链路但是未做负载均衡处理,致使链路压力不均得不到充分的利用;2) 多台服务器(物理服务器、或者虚拟服务器)之间不能实现负载均衡;3) 无广域网加速设计等。以上为目前各数据中心大多存在的问题。针对上面提到的种种问题,目前数据中心理想的设计方式是做云计算平台的部署。利用云计算操作系统及统一的计算、存储等硬件资源可以为用户提供虚拟桌面、虚拟服务器等诸多“按需提取”资源的应用方式。通过虚拟化系统的部署,整合所有IT资源,最终形成私有云架构。在形成私有云机构的同时我们还需借助相应的产品及技术实现应用交付层面的优化,最终实现高可用、高效率、高优化比的云计算平台,基于此平台可流畅的部署目前98%以上的IT
9、应用,且部署时间由原本的几个月缩短至几天。在后面的章节中我们将详细的阐述XXXXX云计算平台的具体设计方案。2 XXXXX云计算平台设计方案概述2.1 云计算平台的设计目标云计算平台采用了具有动态架构的云计算操作系统(VMware vsphere产品),保证信息化的先进性、安全性、开放性、兼容性、共享性、可升级及扩充性,可确保系统实施和日后服务的效率和弹性。除以上提到的基本特色之外云计算平台还具备如下优点:1) 简化管理云计算平台物理设施的复杂度降低,能够最低限度的减少物理资源的直接调度,使维护管理的难度和成本大大降低。2) 高效复用使得物理资源可以按需调度,物理资源得以最大限度的重用,减少建
10、设成本,提高使用效率。即能够实现总硬件资源占用量降低了,而每个业务得到的服务反而更有充分的资源保证了。3) 绿色环保节能降耗,最大限度节省电力消耗。4) 数据保护实现高级别的数据备份及恢复机制,针对高级应用则采用更高级别的数据保护机制。2.2 VCE联盟在数据中心的意义XX、EMC携手VMware结成虚拟计算环境(Virtual Computing Environment)联盟,这是三大IT业界领袖企业的首次共同协作。该联盟的成立,旨在通过普适数据中心虚拟化和向私有云架构的转型,不断提高IT基础架构的灵活性,降低IT、能源和空间成本,从而让客户能够快速地提高业务敏捷性。XX、EMC和VMwar
11、e一直开展着密切的合作,三方有着共同的愿景,即企业IT基础架构的未来是私有云计算。私有云是一种虚拟的IT基础架构,专为一个机构安全地控制和独立的运行。它可以由该机构或第三方管理,它可以在该机构所在地点之内或者之外,或者兼而有之。私有云计算既提供了当前数据中心的可控性和安全性,又提供了业务创新所要求的敏捷性,而且大幅降低成本。“虚拟计算环境联盟”为各种规模的组织机构提供了数据中心转型的加速之路,从而帮助他们极大地提高数据中心效率,同时大幅降低资本开支和运营费用。这样,组织机构就不用再为究竟是选择最好的技术,还是选择端到端的供应商可靠性而劳神。伴随着Vblock TM基础架构包的发布,“虚拟计算环
12、境联盟”将为客户将提供更好的方法,去从根本上简化和优化私有云相关的IT战略。Vblock基础架构包是一个完全集成、经过测试和验证的、整装待发和蓄势成长的基础架构包,它融合了XX、EMC和VMware提供的业内最强的虚拟化、网络、计算、存储、安全和管理技术,并且具备端到端的供应商可靠性。在XXXXX云计算平台项目中我们则综合运用了VMware、Cisco、EMC这三大IT巨头公司的产品,经过科学的部署周密的规划必能将XXXXX云计算平台建设成一个高可靠、高扩展性、易于管理且具备良好兼容性的优质云计算平台。2.3 XXXXX云计算平台设计概述XXXXX云计算平台选择的皆为行业内领军企业的产品,这些
13、产品一同组成的云计算平台不是简单的产品堆砌,而是经大量的案例证实为切实可靠的解决方案。具体设计如下:2.3.1 网络系统设计概述作为云计算平台的前提,全网必须有清晰的层次化结构,核心和汇聚层设计要点如下:l 层次化设计:应实现核心层和接入层的层次化设计;l 虚拟交换机池:可利用交换机的虚拟化特性不同业务的虚拟机箱,减少设备数量,提供设备资源利用率;l 智能服务开放接入:数据中心的智能服务应可以开放性的接入,包括支持多厂商,跨汇聚交换机端口捆绑以IEEE 802.3ad为标准,支持智能服务旁路接入等等;在本项目中,建议部署2台Nexus7000数据中心交换机作为核心交换机,以此为基础的核心层提供
14、了构建一个可扩展、高性能的数据中心提供了理想平台,既支持通过万兆以太网相连的服务器,也支持通过千兆以太网相连的服务器。在高性能及高扩展性方面提供了有力的支持。2.3.2 计算系统设计概述针对XXXXX数据中心的虚拟化应用,采用基于XX统一计算系统的硬件平台,此硬件平台提供了独特的技术,结合XX在网路科技上的独特优势,支持跨数据中心的虚拟化。软件平台采用VMware的虚拟化软件。同时实现应用虚拟化和生产中心与备灾中心的整体虚拟化。每个物理服务器上运行多个虚拟机,每个虚拟机对应与目前的各个应用。采用该架构的优势如下:l 单一管理入口:所有服务器的配置,更改,以及VLAN和VSAN的配置和更改都在一
15、个界面内完成,无需登陆多个管理模块或管理服务器。同时,也是在同一个管理界面,可以监视所有服务器和统一交换平台的健康状况。l 便于扩展:添加新服务器时,只需简单地将服务器插入机箱,UCSM会自己发现新设备,并根据策略自动或手动地将服务器的网卡,HBA或虚拟网卡配置好,并联如相应的VLAN和VSAN。l 加强故障隔离能力:所有的链接都是冗余的,整个系统不存在单点故障,在保证系统的简洁性的同时,也保证了系统的安全性。l 统一交换阵列:由2台XX6200XP组成统一交换平台,是数据交换网络的骨干,并且由它实现对所有刀片服务器的设置。UCS 6200XP有为全线速,无阻塞无丢包交换阵列。l 刀片服务器及
16、机箱:XX5108刀片服务器机箱可以安装4台刀片服务器,由2208XP通过光纤连至6200XP,每个2208XP有4个10G上行端口,支持40G带宽,每刀片机箱安装2个,共80G带宽。2个2208XP可以组成冗余链路。l 统一交换阵列扩展模块:UCS 6200XP可以多种扩展模块,接入目前的传统IT架构里已有的设备如FC SAN交换机等,保护用户以前的投资。在本次项目中,XXUCS系统配置说明如下: 2台UCS 6248XP互联阵列交换机,为双机冗余高可靠冗余部署架构l 注:6200XP可看做是Nexus5000交换机的增强版,硬件体系结构一致,只是使用不同的NX-OS软件,而且内置了XX统一
17、计算系统UCS的管理软件芯片。l 注:后续扩展刀片机箱时,在6200XP的端口容量满足的情况下,未来升级则只需可单独购买刀片机箱。l 注:UCS管理系统通过芯片的方式内置在6200XP交换机中,实现对刀片服务器的集中远程管理,可以在一个管理点上集中管理所有的刀片服务器。不需外置的硬件服务器,在系统扩容后不增加管理系统的复杂性和添加任何额外的管理软硬件,提供图形化管理界面。 1个UCS5108刀片机箱(每个机箱配有2个2208阵列扩展模块,4个B200 刀片服务器每台配2路E5-2650 2.00G八核CPU,64G内存,1块VIC 1280虚拟接口卡,2块300GB硬盘)l 注:每个刀片机箱最
18、大可插双路CPU的刀片8个。l 注:机箱内的2208阵列扩展模块是6200XP交换机的远端板卡,每模块有8个支持FCOE技术的万兆以太网光端口,用于提供机箱与6200XP交换机之间的连接。l 注:目前每个刀片配有两路英特尔Xeon E5系列E5-2650型号主频2.00GHz 八核CPU,可根据具体应用需求调整。l 注:VIC 1280虚拟接口卡提供2个万兆以太网接口,支持FCOE,支持虚拟网卡技术,最大可虚拟出128个虚拟网卡,虚拟网卡可以是以太网卡或HBA卡 为UCS中的每台刀片配置VMWare虚拟化软件 Ent Plus 版本。配置1个vCenter管理中心2.3.3 存储系统设计概述服
19、务器接入存储网有两种接入方式:l FiberChannel:服务器采用传统的HBA卡通过FiberChannel(FC)接入SAN网络l FCoE:新一代数据中心的统一交换架构下,服务器采用以太网和FC整合的I/O卡CNA(Converged Network Adapter)接入FCoE交换机。采用FCoE接入方式是新一代数据中心整合化所必须的技术,已逐渐成为代表正确发展方向的主流存储接入技术,后面章节有与传统接入方式的详细案例对比,其优势不再赘述。更重要的是,FCoE交换机兼容传统FiberChannel的接入方式,也即传统的服务器可以把FCoE交换机作为普通SAN交换机、用传统的FC接口实
20、现接入,与传统SAN接入没有区别。为达到这种新旧技术并存的存储网接入模式,FCoE交换机除提供完整的FCoE功能以外,还必须能够达到如下要求:l 支持FC接口:FCoE交换机提供连接网络的(E Port)、连接终端的(F Port)的Fiber Channel接口,并支持NPV/NPIV;l 支持SAN交换功能:FCoE交换机提供完整的SAN交换机功能,并兼容主流的主机和存储厂商产品,至少加入官方的EMC、IBM、HDS、NetApp对SAN交换机的产品兼容性列表;l 支持端口灵活分配:FCoE交换机提供灵活的端口设置,能够将任意一个物理接口设置为普通10GE、FCoE 10GE、FC 1/2
21、/4/8G来使用。XXUCS 6200XP系列互联矩阵支持FCoE兼容,并且与原先的FC协议相兼容,本次项目中,建议部署XXUCS 6200XP互联矩阵交换机连接UCS刀片服务器以及EMC存储,后期可以通过增加XXMDS交换机进行FC端口的相应扩展。2.3.4 虚拟化系统设计概述在本次项目中,为了实现数据的集中存储、集中备份以及充分利用VMware虚拟架构中虚拟机可动态在线从一台物理服务器迁移到另一台物理服务器上的特性等,建议配置一套光纤通道存储阵列产品,同时配置冗余的光纤交换机,组成标准的SAN集中存储架构。此SAN架构可沿用数据中心的原有存储设备来,或新购买支持FCoE的存储设备为新数据中
22、心的基础设备。由VMware虚拟架构套件生产出来的虚拟机的封装文件都存放在存储阵列上。通过共享的存储架构, 可以最大化的发挥虚拟架构的优势,进行在线地迁移正在运行的虚拟机(VMware VMotion),进行动态的资源管理(VMware DRS), 和集中的基于虚拟机快照技术的Lan Free的整合备份 (VMware VCB)等,而且为以后的容灾提供扩展性和打下基础。为了集中管理和监控虚拟机、实现自动化以及简化资源调配,建议单独配置或使用原有一套物理服务器安装Window系统,用于安装虚拟软件套件中的Virtual Center软件,对所有物理服务器及其上的虚拟服务器进行统一的管理。该部分可
23、以实现将原有传统机架或刀片式服务器通过虚拟化软件平台实现系统级的资源虚拟化和统一管理。在本次项目中,部署VMware vSphere 5 Enterprise Plus作为服务器虚拟化软件,VMware vCenter作为虚拟服务器管理软件。3 计算系统设计(XXUCS)3.1 服务器发展趋势在数据大集中的趋势下,数据中心的服务器规模越来越庞大。随着服务器规模的成倍增加,硬件成本也水涨船高,同时管理众多的服务器的维护成本也随着增加。为了降低数据中心的硬件成本和管理难度,对大量的服务器进行整合成了必然的趋势。通过整合,可以将多种业务集成在同一台服务器上,直接减少服务器的数量,有效的降低服务器硬件
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 计算 平台 设计方案
限制150内