《2022年服务器虚拟化环境下谁是最好存储 2.pdf》由会员分享,可在线阅读,更多相关《2022年服务器虚拟化环境下谁是最好存储 2.pdf(6页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、服务器虚拟化环境下谁是最好存储2011-12-16 CBSi 中国 PC 类型: 转载 责编: 何毅选择合适的存储系统是服务器虚拟化环境整体架构设计的关键一环,它是我们必须面对的, 也是最具挑战性的一项工作。表面上看我们似乎有很多选择,但现实中还没有哪一种网络存储类型敢说自己一定是服务器虚拟化环境的最佳选择。因为每个应用环境都是不同的, 即使在一个地方表现良好, 那也不能保证在其他地方同样合适。对于服务器虚拟化环境来说,光纤通道存储是比较传统的选择。但现在iSCSI和 NAS的普及程度也越来越高, 毕竟它们的性价比更加突出。 下面就让我们看看每一种网络存储技术的规格特性,并逐一分析它们的优势和
2、不足。光纤通道存储单从性能和可靠性的角度看, 光纤通道无疑是出色的存储架构,其它产品很难与之 PK 。但凡事都有两面性,使用光纤通道存储的确获得了高性能,可用户却不得不承担更高的成本, 以及面对更复杂的技术架构。不过,光纤通道技术在数据中心领域的应用历史很长, 基础非常好,因此比较大的虚拟化环境通常都倾向于选择光纤通道,这些用户主要还是考虑速度和可靠性的因素( 光纤通道当前的带宽是 8 Gbps ,下一代是 16 Gbps)。另外,光纤通道存储网络一直是相对独立的,因此与基于以太网的存储设备相比安全性更好。可问题是,光纤通道需要特殊的HBA主机适配器、特殊的交换机,而且这些配件比以太网络使用的
3、同类配件更加昂贵。客观的说, 如果要从零开始构建一个光纤通道网络代价是很高的。除此之外, 光纤通道环境的部署和管理也更复杂, 与传统网络架构相比, 它配置起来难度很大,熟悉此项技术的人才也偏少。 当前,很多公司都有技术熟练的网络管理员,但其中却很少有光纤通道存储网络方面的管理人才。设计并管理一个 SAN架构通常需要经过特殊的培训,这无形中又进一步增加了实施的费用。光纤通道存储的优势:FC是部署企业级存储架构的首选,而且许多应用环境本身就已经在使用SAN了; 由于具有更高的可用带宽,通常情况下性能表现最好; 独立的光纤通道网络更 安全; 还有 LUN zoning 和 LUN masking 等
4、访问控制机制 ; 支持 boot from SAN( 从存储启动系统 ),服务器本地不再需要 硬盘; 名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 1 页,共 6 页 - - - - - - - - - 基于 block 的块存储类型,可以使用VMware vSphere自带的 VMFS 卷(一种文件系统) 。光纤通道存储的不足:从零开始构建的话,部署成本会很高; 需要特殊的、昂贵的配件,比如交换机、线缆和HBA卡; 实施和管理也许更复杂,通常需要专职的存储管理员; 可用的安全控制
5、功能较少,实现认证和加密比较复杂。如果用户的物理服务器上准备运行多个虚拟机,且应用类型对磁盘I/O 有较高的要求, 那么为了得到最佳的性能, 用户或许应该认真考虑使用光纤通道存储系统。此外,FCoE也是一个选择, 它相当于在传统的以太网设备上承载光纤通道协议。但目前 FCoE必须部署在同样昂贵的10 Gbps以太网环境,需要特殊的交换设备。如果用户的应用环境中已经有了FC SAN ,那么在构建虚拟化平台时使用光纤通道储存是很合适的。 扩展一个已有的 SAN环境很容易,而且比部署一个全新的环境要便宜许多。 如果用户的预算充足, 而且有管理复杂环境的技术能力,那么选择光纤通道存储一定没错。iSCS
6、I 存储iSCSI 也是一种流行的存储技术,同时也是光纤通道存储的有力竞争者。像光纤通道一样, iSCSI 也是一种基于 block 的块存储协议,它使用传统的以太网组件作为载体,连接服务器和存储设备。 iSCSI 的部署成本通常很低, 理由很简单,因为它可以借用已有的以太网设备。iSCSI 的工作原理是在主机端利用一个叫做 initiator的 client,通过 LAN网络将 SCSI命令发送给目标端的SCSI存储设备( 目标端也叫做 target)。iSCSI 的 initiator可以基于软件,也可以是硬件。基于软件的initiator通过调用 hypervisor虚拟化引擎内嵌的设备
7、驱动, 利用以太网适配器和以太网协议,将 I/O 信息发送给远端的iSCSI target设备。硬件 initiator则基于专用的iSCSI HBA 卡, iSCSI HBA 卡整合了网络适配器,TOE 引擎(TCP/IP offload engine)和 SCSI适配器的功能,利用卡上的芯片处理I/O 请求,对于提高服务器端的性能很有帮助。大多数情况下,基于软件的initiator都 可以很好的工作,但如果追求更高的 I/O 性能并且希望减少主机的资源开销,那么基于硬件的initiator是更好的选择。此外,与光纤通道的Boot from SAN 类似,我们可以通过硬件 initiator
8、实现从存储设备直接启动操作系统; 而且,最近还出现一种叫做 iSCSI Boot Firmware Table(iBFT)的技术,支持通过软件initiator实现SAN Boot。需要注意的是 iBFT 依赖于 hypervisor环境的支持。名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 2 页,共 6 页 - - - - - - - - - 在 1 Gbps网络环境下,iSCSI 的性能就已经非常不错了, 而一旦切换到 10 Gbps ,性能还会有巨大的提升, 完全可以媲美甚至
9、超过FC光纤通道。大多数 hypervisor虚拟化引擎都支持10 Gbps iSCSI ,但目前部署 10 Gbps iSCSI 的成本还很高,价格几乎跟光纤通道一样。使用iSCSI 最大的风险在于如果是基于软件的initiator,那么它会增加服务器端的CPU开销 ( 使用硬件 initiaor,CPU 负载会小很多 ), 同时它所依赖的以太网环境相对比较脆弱(容易受到干扰 ) 且不稳定。解决网络冲突问题的方法其实很简单,我们只需要把 iSCSI 流量和其他网路流量做物理隔离就可以了。iSCSI 存储的优势:iSCSI 是光纤通道存储的低成本替代方案,它使用标准的以太网组件,iSCSI 磁
10、盘阵列的价格通常也低于光纤阵列; 基于软件的 initiator简单易用而且非常便宜, 基于硬件的 initiator则可以提供更好的性能 ; 像光纤通道一样, iSCSI 是基于 block 的块存储系统,在VMware vSphere环境下可以使用 VMFS 卷; 升级到 10 Gbps 以太网之后,速度和性能将有大幅度提升; 部署和管理 iSCSI 不需要特殊的培训和特殊技能; 支持 CHAP 认证和加密等安全机制, 也支持 multipathing多路径这样的可以增加带宽和可靠性的技术 ; 部署起来比光纤通道更快。iSCSI 存储的不足:因为多数情况下 iSCSI 使用的都是软件 in
11、itiator,因此它会增加服务器CPU 的负担; 性能通常不如 FC SAN; 通常无法扩展到像光纤通道存储系统那样大的规模; 网络延迟和非 iSCSI 网络流量的干扰都会影响iSCSI 的传输性能。iSCSI 产品的种类很丰富,选择起来也更加灵活。iSCSI 产品线的范围很广,小到 2000 美元以下的办公室存储设备, 大到企业级产品都有覆盖。但请记住一点,iSCSI 产品的性能通常与价格成正比。如果用户要运行大量的虚拟机并承担繁重的负载,那么就应该把更多的钱用在存储系统上。用户如果追求低成本并关注简单易用等特性, 那么 iSCSI 是个不错的选择。 尽管常常有人诟病iSCSI 的性能名师
12、资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 3 页,共 6 页 - - - - - - - - - 不佳,但实际应用表明,一个独享网络通道且经过优化配置的 iSCSI 系统完全能够达到与光纤通道系统相近的性能,并且能够满足大多数应用的需求。NAS( 尤其是 NFS)与 iSCSI 之间最大的区别是协议类型不同。在将数据写入存储设备的过程中,它们使用了不同的协议。iSCSI 使用 block 块协议,数据以块为单位从前端虚拟机写入到后端的存储设备。主机端负责维护磁盘上的文件系统,在主机
13、看来,存储设备与服务器本地磁盘并没有区别。NAS则是另外一种情况,存储设备端负责维护磁盘文件系统,使用的是文件共享协议, 服务器与存储设备之间只有简单的通讯。NAS本质上是把写数据到磁盘的工作从主机端转移到了存储设备端,原本由主机负责的存储功能转而由NAS来处理。在虚拟化环境下,NAS 系统使用集成在hypervisor虚拟化引擎中的专用NFS client软件,通过物理服务器的网络适配器与 NFS server 端进行通信。NFS是一个应用广泛的协议,当下几乎所有主流的服务器虚拟化平台都支持NAS设备。考虑到 NAS产品有多种不同的形式, 因此在虚拟机环境中使用NAS也可以有多种不同的方式。
14、比如,我们可以把一台标准的物理服务器变成NAS服务器 ;还可以使用虚拟 NAS软件; 或者使用一台专用的NAS存储装置。每个产品类型在性能和价格方面的差异非常大, 其中专用 NAS 硬件装置的性能最好, 但同时价格也最高。现在,几乎每一个存储厂商都可以提供支持 NFS的 NAS 存储设备。与 block 块存储不同的是, block 块存储系统一旦将空间分配给服务器,这些空间就会立即被文件系统或应用程序占用。而 NAS系统则会根据写入的实际数据量消费空间资源。如果预算不是问题,那么市场上有很多优秀的NAS产品可供选择。一般说来, NAS的性能还达不到光纤通道SAN的水平,但是一个在架构上设计合
15、理的 NAS系统完全能够满足大多数应用负载的需求。像iSCSI 一样,NAS使用以太网端口与存储设备通信,这意味着过去NAS系统的速度上限为 1 Gbps,但新出现的 10 Gbps以太网端口能够大幅度的提升传输速度,只要用户负担得起,性能不再是问题。 NAS的性能与 iSCSI 几乎一样。只要CPU 的处理能力不是瓶颈,那么对 iSCSI 和 NAS性能的制约因素只有最大可用网络带宽这一点。NAS存储的优势:许多 NAS存储设备默认使用自动精简配置功能, 它能帮助用户节省大量宝贵的磁盘空间 ; 文件级锁和排队机制由NAS设备自己控制,而 iSCSI 和光纤通道储存则由主机端控制锁和排队,相较
16、而言NAS性能更好 ; 与 block 块存储不同, NAS不需要维护单一的磁盘I/O 队列,这对提高性能有很大帮助。 NAS 的性能取决于网络连接的带宽以及磁盘阵列的处理能力; 名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 4 页,共 6 页 - - - - - - - - - 因为使用标准的以太网组件,因此NAS 的部署成本低于光纤通道存储,而且NAS阵列的价格也低于光纤通道阵列; 部署和管理 NAS设备不需要特殊的培训和专门的技术; 虚拟化环境的存储池扩展非常简单,只需要增加
17、 NFS服务器的磁盘容量, 存储池也会相应的随之扩展 ; 支持文件系统级别的快照和克隆功能,与 LUN级别的对应功能相比, 具有更好的弹性并支持更多的粒度。NAS存储的不足:不支持直接从 NAS设备启动操作系统 ; Hypervisor虚拟化引擎只能使用基于软件的客户端与NAS 服务器进行通信,会消耗一定的 CPU资源; 由于存在网络延迟, 所以有些厂商不推荐用户在某些比较敏感的应用上使用NAS存储; 对虚拟化环境的新特性支持较慢,这一点不如block 块存储设备 ; NAS系统没有主机端到NAS服务器之间的多路径技术,只能建立一个单独的TCP连接,性能受物理条件制约,不容易扩展。虽然 NAS
18、存储有不足的地方, 但是我们也不应该对它失去信心,因为这些问题只在少数特殊环境下才能遇到, 或者是因为 NAS 方案的架构存在缺陷导致的。 一个完善的 NAS解决方案完全可以处理服务器端虚拟机应用的I/O 请求,所以说 NAS跟 block 块存储一样,也是一个不错的选择。过去,NAS在虚拟化环境的应用上有一些限制,不过现在完全没有这个问题。结论当我们为虚拟化环境选择存储设备时,可能有许多因素需要考虑, 不过,最终让我们下决心的无非是那些最基本的因素,比如预算、性能和容量。现在,许多存储系统都集成了支持虚拟化应用的定制功能,这一因素也是用户需要着重考虑的。VMware vStorage API
19、 提供了很多有价值的功能,它能够让存储设备与hypervisor虚拟化引擎更加紧密的集成,同时把许多原来由hypervisor负责处理的存储操作转移到存储阵列上执行。另一个需要注意的方面是平台的支持问题。正如任何被Window支持的存储阵列同时也能够被 Microsoft Hyper-V完美支持一样, VMware也有一个严格的硬件兼容性列表,其中列明了所有受支持的存储设备型号。VMware 提供兼容性列表的主要原因是它有一套与硬件紧密集成的API,VMware要确保每一个设备在通名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - -
20、名师精心整理 - - - - - - - 第 5 页,共 6 页 - - - - - - - - - 过了兼容性测试之后才能加入列表。 这个兼容性列表还可以显示每个阵列所支持的集成功能的细节和不同设备之间的差别。虽然光纤通道是一个成熟稳定的存储平台,但它不是唯一的选择, 我们依然可以放心地尝试 iSCSI 和 NAS, 对于预算有限的用户来说, 它们都是不错的替代方案。需要注意的是, 鉴于 iSCSI 和 NAS产品众多,所以在选择的时候用户必须详细了解产品的功能和扩展性,确保所选产品能够完全满足应用环境的要求。对于虚拟化应用来说, 存储部分的设计是最关键的,多花点时间用于考察产品, 了解各种
21、产品的技术和功能方面的差异是十分必要的。相关链接一:新兴技术:FCoE 、10 GbE与 CNA现在有很多新技术已经步入了实用阶段,比如FCoE(Fibre Channel over Ethernet) 和 10 Gbps 以太网,这些都是存储架构未来的可选方案,在性能和吞吐量方面比过去都有大幅度的提升。FCoE是一种将光纤通道数据帧封装在以太网数据帧内部的技术, 它将以太网基础架构的高性价比优势与光纤通道架构的效率优势结合在了一起。 FCoE技术本身构建在10 Gbps 以太网基础之上,在成本方面比原有的光纤通道有所降低,而且在性能方面大幅超越传统的1 Gbps 以太网。唯一的问题是, FC
22、oE需要使用特殊设计的10 Gbps 网卡和交换机等组件。FCoE和 10Gbps以太网这两种技术结合的十分紧密, 而且目前我们只能在10Gbps网络上运行 FCoE 。CNA(Converged network adapter)是一种将这两项技术融合在一起的新型网卡,同时支持FCoE 和 10Gbps ,这样用户就不必分开购买光纤通道 HBA卡和 10 Gbps以太网卡了。使用 CNA还可以减少服务器端I/O 卡、线缆的数量,交换机上也不再需要那么多的端口,这些都可以压缩开支。FCoE 、10 GbE和 CNA 都是很棒的技术,只不过通常新技术在刚出现的时候价格都要比老产品贵一些。相关链接二
23、: I/O 虚拟化随着服务器虚拟化应用的普及,I/O 虚拟化应用也在快速增长。它能够将一个物理 I/O 适配器虚拟成多个虚拟的网卡或HBA卡。服务器虚拟化应用的一个难题就是主机端同时需要很多的I/O 端口,既要连接数据网络,也要连接存储网络。一般情况,物理服务器上可能需要6-8 个网络端口用于普通的前端网络连接,于此同时,至少还要2 个网卡或 HBA 卡连接到后端的存储网络。I/O 虚拟化技术可以帮助用户将多个I/O 卡的 I/O 处理需求合并到 12 个卡上。 I /O 虚拟化产品有很多不同的类型, 比如 Xsigo 公司能够用一个 HBA和网卡模拟出 8 个以上的标准以太网或 InfiniBand端口。另一家公司 Virtensys的技术则完全不同,Virtensys利用一个 PCI-E 外联扩展卡与一个独立的外部装置连接,该装置中则包含了可以共享的I/O 适配 器。总之,不管怎样,各种I/O 虚拟化技术都可以简化主机端的 I/O 连接,同时降低硬件采购成本及主机端的电力消耗。名师资料总结 - - -精品资料欢迎下载 - - - - - - - - - - - - - - - - - - 名师精心整理 - - - - - - - 第 6 页,共 6 页 - - - - - - - - -
限制150内