主机论坛_虚拟主机_美国主机_美国虚拟主机_云主机技术_全球主机交流聚集地—Web Hosting Talk 中文站

找回密码
立即注册
发新帖

0

收听

3

听众

13

主题
发表于 2015-6-26 17:25:59 | 查看: 1581| 回复: 9
本帖最后由 三打一 于 2015-6-26 17:45 编辑

  
    全面透视虚拟环境网路效能的瓶颈                                                       

                                                             
                        
  服务器虚拟化日益普及,企业添购高效能的服务器和储存设备,不过网络效能太差,就可能发生「买了一台法拉利,却让它跑在烂路上」的窘境,该如何避免?


  虚拟化深入企业资料中心,然而,能够把环境建置起来,并不代表同时能够妥善运用,为了支撑这样的环境,大多数企业也许添购了运算能力更强大的伺服器、网路储存设备,但连带升级网络的公司,在过去并不多见,最近才出现了升级潮。


  而愿意需付出庞大代价,彻底改变既有网络架构的公司,更是凤毛麟角。 因为这么一来,企业必须放弃原本基于STP(Spanning Tree Protocol)协定的三层式架构,走向Ethernet Fabric或软体定义式网络(SDN),或者必须同时维运新旧环境。 虽然透过重新搭建较为扁平的二层式架构,可大幅提升网路封包传输效率,但这会是浩大而痛苦的工程。


  当然,大多数国内企业受限于经营规模较小,目前还不需要将既有网络环境打掉重练,然而,继续依赖普通而低廉的网络线路,也不是长久之计。 因为,单靠这样的基础架构,对于数量与使用规模持续扩张的业务应用系统,以及承担这些工作负载的虚拟化环境而言,可能无法因应随之而来的网络流量。


  所以,数据中心升级到10GB网络的需求,已经势不可挡。 但要做到这样的要求,不只是采购一些可同时提供1GbE搭配少量10GbE网络的交换器就好,还需要考量到服务器平台与网路储存设备的应用型态、网路介面的数量与连线速度,才能决定要用何种组态的交换器较为合适。 需要全盘考量,而非采取头痛医头的片面作法。


  除了网路硬体要强化,企业也可借助网路效能管理系统之力,不过,如果想要同时兼顾实体与虚拟环境的网路效能管理要求,企业可能必须要寻求到应用程式效能管理(APM )解决方案来帮忙。 单靠一般的网路管理系统,或是能够兼容实体与虚拟化系统的管理软体,并无法全面涵盖到,前者较针对实体网路环境的需求,而后者偏重系统层面的管理,不一定能照应到底层硬体与虚拟环境内外的网路效能监控需求。


  网路硬体的整备度


  几乎所有的企业都是使用乙太网路、TCP/IP协定,之所以出现传输效能低落的情况,很多人把焦点放在伺服器本身的效能是否不足,推测可能是网路介面出了问题, Dell企业网路策略发展协理杨尚余认为,伺服器所连接的网路交换器类型是否合适,其实也很关键,但大家普遍忽视这一点。


  一般而言,企业既有的网路交换器,都是以三层式架构来建置(也就是上述的STP),就部署模式而言,可分为核心(Core)、边缘(Edge)、存取(Access)等类型,这些都是属于园区规模(Campus)的网路环境应用,所以皆以园区交换器来统称。


  除了园区交换器之外,市面上还有所谓的资料中心交换器(Data Center Switch),可支援两层式架构(Spine & Leaf),而且,这类交换器通常配备了较大的缓冲记忆体(Packet Buffer Memory)与转送率(Forwarding Rate或Forwarding Capacity)。


  杨尚余表示,若网路交换器本身的缓冲记忆体够大,它可以近可能地维持TCP/IP的连线阶段,将Flow保持住,而不需要重新传送,这样一来,可以改善网路延迟;转送率大小也很重要,通常园区交换器的转送率较低,与资料中心交换器之间的差距,可到1.5到3倍。


  除此之外,资料中心交换器也强调可支援DCB(Data Center Bridging)的标准协定,以因应融合一般乙太网路与iSCSI、FC储存网路的应用。


  关于网路硬体的使用的另一个重要环节,是伺服器端的网路介面。 为了支撑更大规模的网路流量,很多企业的作法,是在伺服器端直接扩充多张GbE网卡,但这些网路埠所对外连接的实体交换器,也必须有能力承担这些流量,否则就会出现封包遗失的状况。


  因此,并不是在伺服器端改用、加装10GbE网路介面,以及所连接的交换器增添了10GbE网路介面模组,就可以顺利取得更大的频宽,交换器本身是否具备了足够的流量处理能力,也是关键。


  同样地,很多人会将多个网路介面汇聚起来,形成了NIC Teaming,但这样并不能真正提升网路速度,只是把伺服器端的多个网路埠串在一起,却妄想得到更大的存取频宽,这很荒谬。


  杨尚余说,这就像自己有一部125行程的机车,然后跟同学借一台125机车,如果将两部车绑在一起,会变成一台250机车吗? 如果是这样,就不用买车了,只是把多台机车接在一起,就可以上高速公路了。
  很多人误以为,如果将10个网路埠汇聚在一起使用,就可以达到10GbE网路一样的效果,但即便你的伺服器能够同时拥有这么多网路埠,此时,伺服器和系统所要面对的网路硬体介面,也会是非常多个,而不是1个。


  更别说这么多网路埠如果都接上线,而你有好几台伺服器都是这样的配置时,在机柜背后会形成相当可观的线材瀑布,有可能会影响伺服器与机房的散热,这些错综复杂的网路线要如何整理和维护,也令人伤透脑筋。


  若网路硬体的每个环节都照应到,是否就不会发生效能低落的现象? 杨尚余提醒,还是要先查验(verify)自身系统环境,以及执行的IT应用服务,因为在实际运作时,还有很多额外的因素会影响网路流量的承载能力,例如有些应用系统占用过多网路频宽,或者突然发生封包广播风暴。


  杨尚余认为,对于网路资源的堪用与否,要看的是背后的整体架构,而不只是局限在某一个层面。


                                                      


  实体交换器发 ​​生网路超载的原因


  不论实体交换器或虚拟交换器,若前端所有连接埠所接收或传送的网路流量,全部加起来,大于整台交换器背板所支援的网路频宽,就会发生超载(oversubscription)的状况,这时候可能会造成封包遗失的状况。


  在伺服器虚拟化平台的主机上,如果虚拟机器一多、流量变大,所能运用的网路埠数量、频宽不足时,也会发生类似的情形。 (图片来源/RISCNetworks)


  网路介面组态的正确使用


  前面提到的部份主要是网路交换器,而在伺服器端的网路介面设置,也有许多要注意的地方。


  身兼微软Hyper-V MVP和VMware vExpert的云达科技副理王伟任提到,许多人在规画网路介面组态时,并未将不同用途的网路流量flow分开,如果只是用最基本的交换器,仍应把流量切开。


  例如,管理整个系统的网路连线,配置独立的网路介面;若要执行虚拟机器线上迁移,则配置另一个网路介面。


  如果是微软Hyper-V环境,需将Cluster Heart Beat的网路介面额外配置。


  在这两大伺服器虚拟化平台当中,原厂也在相关的最佳实务的文件中,建议将不同用途的网路介面分开设置,实际上并未硬性规定。 不过,在设定某些功能时,还是会要求,例如,王伟任先前测试Windows Server 2012 R2 Hyper的「受保护的网路(Protected Network)」时,就曾因为没有将系统管理与虚拟机器的网路流量分开,而使得该功能无法作用。


  他认为这功能很妙,如果VM所接取的实体网路介面发生无法存取的意外情况,伺服器端还有另一个专司系统管理的实体网路埠,可以正常运作,此时,Hyper -V系统能透过这条路与其他节点沟通,接着,系统就会自动执行线上即时迁移,把该台虚拟机器搬移到另一个节点,于是,它又可以正常运作了。


  而且这项保护机制的敏感度很高,系统每60秒就侦测一次,并非等到虚拟机器发现断线才会启动。 也就是说,如果伺服器的实体网路线不小心中断,或发生其他故障状况,这台虚拟机器最迟在60秒之内就会移走。 而根据王伟任的实际测试,其实状况发生后的10到15秒,虚拟机器就会自动搬移到其他主机上。

  此外,伺服器、虚拟机器对外存取的网路流量也要分开,如果是存取iSCSI储存这样的IP SAN,也应该将MPIO的网路介面分开设置。


  对于将多个网路介面串接在一起的设置,王伟任特别提醒一件许多人常犯的错误,希望能够避免。 他常看到有人会用NIC Teaming,甚至用LACP去连iSCSI的网路储存。 因为NIC Teaming是针对档案层级(File level)的网路存取,而对于iSCSI储存的连线是区块层级的(Block level)的存取,因此,如果想让伺服器虚拟化平台做到网路负载平衡和容错,应该用MPIO去做。


  此外,若要在伺服器的多张网路介面启用NIC Teaming,也要避免将鸡蛋放在同个篮子的作法。 在一些教建置伺服器虚拟化平台的书上,也有这类提醒。


  管理者在启用NIC Teaming时,应避免将同一个实体网路介面卡的网路埠,设在一起。 这么做的风险在于,万一该张网卡故障,网路汇聚的机制形同失效。


  举例来说,如果伺服器端有内建的网路埠介面和外加的双埠网路介面卡,设定NIC Teaming时,王伟任认为,应该各取1埠,也就是内建埠1个、外接埠1个的方式。也就是,要针对不同的实体网路介面,来建立NIC Teaming。


  除了要注意这些网路介面的配置之外,王伟任说,还可以善用其他方法,让网路流量尽可能卸载到硬体网路介面,而非由伺服器的处理器承担。


  以VMware vSphere为例,它支援DirectPath I/O,可让虚拟机器直接存取到伺服器底层的实体PCI介面,但只能让一台虚拟机器对一张网路介面;若搭配支援SR-IOV的硬体网路介面,它可以让多台虚拟机器直接存取并共用单一网路介面;它也支援TCP分割卸载(TCP Segmentation Offload,TSO)和大型接收卸载(Large Receive Offload,LRO),以及Jumbo Frame。


  微软Hyper-V也有类似机制,当中支援虚拟机器伫列(VMQ)、SR-IOV、IPsec加密工作卸载、并支援一种相当特别的接收端自动调整机制(Receive Side Scaling,RSS),可将网路流量的负载分散至多颗处理器核心,以及SMB多通道(SMB Multichannel),让每个透过SMB协定通讯的多个TCP/IP连线,能够运用在不同的情境,例如单张10GbE网路介面、多个GbE/10GbE网路介面、多个网路介面结合NIC Teaming,或是多个支援RDMA(Remote Direct Memory Access)标准的网路介面(例如Infiniband、RoCE)。


  市面上还有其他作法,像是伺服器端可加装iSCSI的HBA卡,或是支援TCP流量卸载引擎(TCP/IP Offload Engine,TOE)的网路卡。 对于这些辅助机制,王伟任发现,伺服器虚拟化平台在效能与资源管理的方向上,有了一些很明显的变化,以前的重点是让伺服器去做所有的事情,但到了现在,随着许多工作整并进去之后,所想的是把某些负担卸载到其他地方分头进行。


  透过软体来监控网路效能


  想要掌握实体环境的网路传输效能变化,我们首先想到的是透过网管软体来协助,杨尚余说,对于网路设备硬体的状态,能够「听得到、看得到、管得到」,是这类软体的基本功能。


  然而,到了伺服器虚拟化环境,很多人是在建置、使用一段时间之后,才开始意识到,原来大家并不知道该如何监控网路效能,以及排除相关障碍。


  就底层所用的网路硬体设备来说,可能并非同一厂牌的产品,再加上伺服器端所执行的是虚拟化平台──不像以前只有作业系统、网路介面驱动程式和应用系统,而且所用的Hypervisor和管理平台,可能还不只一种,因此,对于效能监控与障碍排除的工作来说,难度大大增加,因为,这么复杂的环境,目前市面上可能没有任何一家厂商,可以全部整合起来管理。


  而且,许多企业运用伺服器虚拟化平台时,其实在初期阶段已经有所偏失​​。 一开始大家对于这项应用的重点在于调度资源,急着解决资源不足的问题,他们认为只要伺服器处理器运算能力、记忆体容量等主要的硬体规格,能跟得上系统执行时的需求,就可以解决80%的资源不足问题,但等到在传输或备份资料的时候,他们才发现到为什么资料中心的效能,跟当初所想的很不一样,于是,开始回过头来看网路的效能,但到了这时候,整个环境几乎已经定型,企业想把效能管理好的挑战变得更大。


  而且,这些管理软体,并无法直接点出问题点所在,杨尚余强调,工具能作的是,提供你相关项目的健康检查(Health Check)报告,就像一般人做健检,若验出三酸甘油脂偏高,不代表这人隔天就要面临死亡,原因也需要进一步探究。


  而且要做好监控,还要注意不能因此牺牲效能,若没有考量这一点,可能会出现效能更为低落的状况。 例如,原本可能只掉5个封包,现在监控机制一启用,却掉了500个封包。 这是因为原本就有负荷不良的情况,我们又要求它同时做别的事情。


  若要能够监控伺服器虚拟化的网路效能,市面上究竟有没有可提供相关功能的产品? 单靠一般的网管软体或伺服器系统管理软体,可能只看到一部分,有些人告诉我们,这属于应用程式效能管理(Application Performance Management,APM)的范畴。


  不过,这类产品的市场能见度一向有限,我们看到相关的专属产品当中,的确有一些是强调具有针对虚拟化环境的网路效能管理功能,例如Compuware的APM Network Virtualization方案、Dell的Foglight for Virtualization 。


  此外,也有一些附属于其他产品的APM功能,也号称能够支援这方面的环境。 像是在Citrix NetScaler这套应用网路服务平台上,除了本身是以具有多种应用伺服器网路负载平衡、网站应用程式防火墙等功能闻名,而后演进到所谓应用程式传递控制器(Application Delivery Controller) ,后来也提供NetScaler Insight Center软体,当中可以涵盖到伺服器虚拟化环境的网路效能管理。


  Citrix中华区网路技术经理何浩祥表示,不论是用实体网路或虚拟网路,Insight Center可以协助企业做到应用程式层级的效能分析,而且不只是针对资料中心环境,网路流量一旦经过NetScaler设备,再到用户端网路,Insight Center就能透过AppFlow协定,去撷取相关资料,并针对伺服器端、应用程式端、用户端这三层,来追踪各自的网路延迟程度与处理时间。

                                                      

  vSphere环境的网路埠串接组态


  在VMware vSphere环境下,管理者若要设定NIC Teaming,可透过vSphere Client的程式或vSphere Web Client的网页介面,然后针对虚拟标准交换器(VSS)或虚拟分散式交换器(VDS)。 图中是在vSphere Web Client介面进行,而且设定的目标是VDS,将两个实体网路介面连线到LAG连接埠。 (图片来源/VMware)

                                                                                                              
  Hyper-V环境的网路埠串接组态


  在微软Hyper-V要设定NIC Teaming比较简单,方式较为单一,只需从Hyper-V管理员当中的个别虚拟机器设定上,在网路介面卡的进阶功能,可以选择启用「NIC小组」的功能。 (图片来源/VMware)


                                                                                             


  虚拟化平台将流量卸载至网路硬体介面


  伺服器虚拟化平台,或多或少都支援将网路流量卸载到硬体装置,减轻处理器负担的一些机制。 图中是微软Hyper-V环境上的设定,管理者可以在每台虚拟机器上,选择是否启用这些网路加速功能。 (图片来源/B2net)
                                                      

  用APM掌握虚拟环境网路传输效率


  想要全面监控伺服器虚拟化环境下的网路效能,单靠传统的网路管理软体是不够的,需透过应用程式效能管理(APM)的系统。 图中为Citrix NetScaler所延伸的Insight Center软体应用,可协助管理者持续追踪虚拟环境下的网路连线品质。








收藏回复 显示全部楼层 道具 举报

发表于 2015-8-15 12:55:51
谢谢楼主的共享












回复 显示全部楼层 道具 举报

发表于 2015-10-27 19:37:27
祝楼主快乐,大家一齐讨论!












回复 显示全部楼层 道具 举报

发表于 2016-1-8 19:51:48
嘿嘿~奸笑中!












回复 显示全部楼层 道具 举报

发表于 2016-3-20 10:04:51
好贴就是好贴

回复 显示全部楼层 道具 举报

发表于 2016-4-30 22:00:57
顶也~~~












室内设计软件 带视频教程 简单易学 自己DIY新家
限时抢购 只需1元

回复 显示全部楼层 道具 举报

发表于 2016-6-23 15:02:21
xiexie!!












回复 显示全部楼层 道具 举报

发表于 2016-8-10 23:35:38
哦~~~~












北京儿童医院
北京儿童医院
北京儿童医院
北京儿童医院
北京儿童医院
北京儿童医院
北京儿童医院
北京儿童医院
北京儿童医院
北京儿童医院
北京儿童医院
北京儿童医院
北京儿童医院
北京儿童医院
北京儿童医院
北京儿童医院
北京儿童医院

回复 显示全部楼层 道具 举报

发表于 2016-8-12 15:48:21
今天没事来逛逛












北京长峰医院
北京长峰医院
北京长峰医院
北京长峰医院
北京长峰医院
北京长峰医院
北京长峰医院
北京长峰医院
北京长峰医院
北京长峰医院
北京长峰血管瘤医院
北京长峰血管瘤医院
北京长峰血管瘤医院
北京长峰血管瘤医院
北京长峰血管瘤医院
北京长峰血管瘤医院
北京长峰血管瘤医院
北京长峰血管瘤医院
北京长峰血管瘤医院
北京长峰血管瘤医院

回复 显示全部楼层 道具 举报

发表于 2016-9-9 22:19:11
蚂蚁花呗取现客服3266885718-认准老字号玩转花呗-[email=mayihuabeii.com]mayihuabeii.com[/email]

回复 显示全部楼层 道具 举报

您需要登录后才可以回帖 登录 | 立即注册

Archiver|手机版|小黑屋|WebHostingTalk中文站

GMT+8, 2024-4-19 09:10 , Processed in 0.078487 second(s), 23 queries .

Powered by Discuz! X3.4

Copyright © 2001-2024, Tencent Cloud.

快速回复 返回顶部 返回列表