云计算数据中心网络技术.doc

上传人:本田雅阁 文档编号:2735554 上传时间:2019-05-09 格式:DOC 页数:111 大小:5.47MB
返回 下载 相关 举报
云计算数据中心网络技术.doc_第1页
第1页 / 共111页
云计算数据中心网络技术.doc_第2页
第2页 / 共111页
云计算数据中心网络技术.doc_第3页
第3页 / 共111页
云计算数据中心网络技术.doc_第4页
第4页 / 共111页
云计算数据中心网络技术.doc_第5页
第5页 / 共111页
点击查看更多>>
资源描述

《云计算数据中心网络技术.doc》由会员分享,可在线阅读,更多相关《云计算数据中心网络技术.doc(111页珍藏版)》请在三一文库上搜索。

1、云计算数据中心网络技术1 前言题目并不吸引人,主要是作者犯懒,罗列了一下关键词而已,当然好处是一看就知道文章要说啥。简单说下结构,首先讲讲云计算,其次是数据中心,再然后是网络,重点还是技术。内容是循序渐进的,可以理解前面每个词都是后面词的定语。本文希望能够帮读者对云计算的数据中心的网络的技术建立起全面的结构性认识,因此除了总体思路的描述外,在介绍过程中也会力争用三言两语对前面部分中涉及的每个技术点都有所说明,至少让人明白这个东东怎么来的,要干啥和怎么干。但由于受篇幅所限,无法做到很详细,大家如果对某个技术点真感兴趣时,还是去网上找些更细节的资料来理解,本文是打算没有写成一本书的。力争做到让文档

2、读起来不感到枯燥吧,对作者来说那是相当有挑战的。2 云计算最早接触这个词好像是06年了,当时也是刚刚开始接触数据中心不久,这几年眼睁睁看着它被炒作得一塌糊涂,现在已经成为非常给力的一个概念。和别人谈数据中心要是不提云计算,你还真不好意思张这个嘴。服务器厂商在喊云计算,网络、操作系统、应用软件甚至存储厂商都在喊。大家各喊各的,让我们感觉听上去都有那么点儿味道,但下来仔细一琢磨大都还在云里雾里。看看这张网上截取的云计算产业全景图,估计没有几个能够不头晕的。云计算的各方面定义很多,基于用户的视角来看,目的就是让使用者在不需了解资源的具体情况下做到按需分配,将计算资源虚拟化为一片云。站在高处看,当前的

3、主流云计算更贴切于云服务,个人认为可理解为早先运营商提供数据中心服务器租用服务的延伸。以前用户租用的是一台台物理服务器,现在租用的是虚拟机,是软件平台甚至是应用程序。公认的三个云计算服务层次是IaaS(Infrastructure as a Service)、PaaS(Platform as a Service)和SaaS(Software as a Service),分别对应硬件资源、平台资源和应用资源。对于用户来说:1、当提供商给你的是一套a 个核CPU、b G大小内存的主机、c M带宽网络以及d G大小存储空间,需要你自己去装系统和搞定应用程序,那么这就是IaaS,举例如Amazon E

4、C2(Elastic Compute Cloud,弹性计算云);2、当提供的是包含基本数据库和中间件程序的一套完整系统,但你还需要根据接口编写自己的应用程序时,那么就是PaaS,举例如Google AppEngineGoogle App Engine 是一种让您可以在 Google 的基础架构上运行您的网络应用程序。Google App Engine 应用程序易于构建和维护,并可根据您的访问量和数据存储需要的增长轻松扩展。使用 Google App Engine,将不再需要维护服务器:您只需上传您的应用程序,它便可立即为您的用户提供服务。、Microsoft AzureAzure Servic

5、es Platform 是微软于2008年微软开发者大会上发布的全新的云计算平台,基于微软数据中心PaaS平台,主要向开发人员提供了一个在线的基于Windows系列产品的开发、储存和服务代管等服务的环境。和Amazon SimpleDB, SQS;3、最傻瓜的方式自然是连应用程序都写好了,例如你只需要告诉服务提供商想要的是个500人的薪酬管理系统,返回的服务就是个HTTPS的地址,设定好帐号密码就可以访问过去直接使用,这就是SaaS了,如SalesForce、Yahoo Hadoop和Cisco Webex: Collaboration SaaS等。为啥举例都是国外的呢,因为国内目前的云服务状

6、况是,能提供的都处于IaaS阶段,有喊着要做PaaS的,但还没听说有SaaS的。说完公共的,该讲些私货了。个人理解云计算的核心首先是计算,什么网络、存储、安全等等都是外延,从技术上讲云计算就是计算虚拟化。最早的云计算来自于网格计算,通过一堆性能较差的服务器完成一台超级计算机才能完成的计算任务,简单的说就是计算多虚一。但是现如今一虚多(VM/XEN等)也被一些厂商扯着大旗给忽悠进来,并且成为主流。但是单从技术角度来看,这两者是南辕北辙的。因此云计算技术在下面被作者主观的分为集中云与分散云两个概念来阐述。2.1 集中云首先是集中云,根正苗红的多虚一,最早期的也是目前最大的一个典型实际用户就是Goo

7、gle了 (注意这里说的不是现在Google云服务)。搜索引擎是超级消耗资源的典型应用,从你在网页上一个关键词的搜索点击,到搜索结果的产生,后台是经过了几百上千台服务器的统一计算。至于搜索引擎的工作模型本文就不多说了,网上很多资料的。随着互联网的发展,现在的开心、淘宝、新浪微博等等(好孩子不翻墙),虽然使用者看到的只是在简单的页面进行点击输入,但是后台的工作量已经远远不是少量几台大型服务器能够胜任的了,即使天河一号也不见得能搞定。集中云的应用主力就是这些大型的互联网内容提供商们,当然还有一些传统应用如地震、气象和科研项目的计算也会存在此类需求。了解了需求,下面简单谈下技术,上图是Cluster

8、集群多虚一技术的简单分布,除了按照承载网络类型可分成Infiniband和Ethernet外,根据技术分,还可分为Active-Standby主备与LoadBalance负载均衡两类。主备模式好理解,所有的Server里面只有一台干活,其他都是候着的,只有侦听到干活的歇菜了,才开始接管处理任务。主备模式大部分就二虚一提供服务,多了如三虚一什么的其实意义都不太大,无非是为了再多增加些可靠性。主备模式以各类HA集群技术为代表。而负载均衡模式复杂一些,在所有的LB技术中都存在两个角色,协调者与执行者,协调者一般是一个或多个(需要主备冗余时),主要工作就是接活儿和分活儿(有点儿像包工头);而执行者就只

9、处理计算了,分到啥就完成啥,典型的苦力。从流量模型上来说,LB集群技术有来回路径一致和三角传输两种,来回路径一致指流量都是客户发起连接,请求协调者进行处理,协调者分配任务给执行者进行计算,计算完成后结果会都返回到协调者,再由协调者应答客户。这种结构简单,计算者不需要了解外界情况,由协调者统一作为内外接口,安全性最高。此模型主要应用于搜索和地震气象科研计算等业务处理中。三角传输模型指计算者完成计算后直接将结果反馈给客户,此时由于计算者会和客户直接通信,造成安全性降低,但返回流量减少了协调者这个处理节点,性能得到很大提升。此模型主要应用于腾讯新浪的新闻页面和阿里淘宝的电子商务等WEB访问业务。集中

10、云在云服务中属于富人俱乐部的范围,不是给中小企业和个人玩的,实际上都是各大互联网服务提供商自行搭建集中云以提供自己的业务给用户,不会说哪天雅虎去租用个Google的云来向用户提供自己的新闻页面访问。集中云服务可能的租用对象是那些高度科研项目,因而也导致当前集中云建设上升到国家宏观战略层面的地位。你能想象哪天百度的云服务提供给总装研究院去计算个导弹轨迹,核裂变什么嘛,完全不可能的事。最后是多虚一对网络的需求。在集中云计算中,服务器之间的交互流量多了,而外部访问的流量相对减少,数据中心网络内部通信的压力增大,对带宽和延迟有了更高的要求,自然而然就催生出后面会讲到的一些新技术(L2MP/TRILL/

11、SPB等)。题外话,当前的多虚一技术个人认为不够给力,现在把10台4核CPU的服务器虚拟合一后,虚拟的服务器远远达不到一个40核CPU的计算能力。准确的说现在的多虚一只能基于物理服务器的粒度进行合并,理想的情况应该是能够精细到CPU核以及每台设备的内存缓存等等物理构件虚拟合一。这块应该就涉及到超算了,不熟不深谈。总的来说认为技术进步空间巨大,有些搞头。2.2 分散云再讲分散云,这块是目前的主流,也是前面提到的云服务的关键底层技术。由于有VMware和Citrix等厂家在大力推广,而且应用内容较集中云更加平民化,随便找台PC或服务器,装几个虚拟机大家都能玩一玩,想干点儿啥都成,也就使其的认知度更

12、加广泛。一虚多的最主要目的是为了提高效率,力争让所有的CPU都跑到100%,力争让所有的内存和带宽都占满。以前10台Server干的事,我整两台Server每台跑5个虚拟机VM(Virtual Machine)就搞定了,省电省空间省制冷省网线,总之省钱是第一位的(用高级词儿就是绿色环保)。技术方面从实现方案来看,目前大致可分为三类:操作系统虚拟化OS-Level在操作系统中模拟出一个个跑应用程序的容器,所有虚拟机共享内核空间,性能最好,耗费资源最少,一个CPU号称可最多模拟500个VPS(Virtual Private Server)或VE(Virtual Environment)。缺点是操作

13、系统唯一,如底层操作系统跑的Windows,VPS/VE就都得跑Windows。代表是Parallels公司(以前叫SWsoft)的Virtuozzo(商用产品)和OpenVZ(开源项目)。Cisco的Nexus 7000猜测也是采用这种方案运行的VDC技术,但不太清楚为什么会有最多4个VDC的数量限制,也许是基于当前应用场景进行规格控制的一种商业手段。主机虚拟化Hosted先说下Hypervisor或叫做Virtual Machine Monitor(VMM),它是管理虚拟机VM的软件平台。在主机虚拟化中,Hypervisor就是跑在基础操作系统上的应用软件,与OS-Level中VE的主要区

14、别在于:Hypervisor构建出一整套虚拟硬件平台(CPU/Memory/Storage/Adapter),上面需要你再去安装新的操作系统和需要的应用软件,这样底层和上层的OS就可以完全无关化,诸如Windows上跑Linux一点儿问题没有;VE则可以理解为盗用了底层基础操作系统的资源去欺骗装在VE上的应用程序,每新创建出一个VE,其操作系统都是已经安装好了的,和底层操作系统完全一样,所以VE比较VM(包括主机虚拟化和后面的裸金属虚拟化)运行在更高的层次上,相对消耗资源也少很多。主机虚拟化中VM的应用程序调用硬件资源时需要经过:VM内核-Hypervisor-主机内核,导致性能是三种虚拟化技

15、术中最差的。主机虚拟化技术代表是VMware Server(GSX)、Workstation和Microsoft Virtual PC、Virtual Server等。裸金属虚拟化Bare-metal裸金属虚拟化中Hypervisor直接管理调用硬件资源,不需要底层操作系统,也可以理解为Hypervisor被做成了一个很薄的操作系统。这种方案的性能处于主机虚拟化与操作系统虚拟化之间。代表是VMware ESX Server、Citrix XenServer和Microsoft Hyper-V。上图描述了三种虚拟化方案的形态区别。当前分散云数据中心服务器虚拟化使用的主要是Bare-Metal方案

16、。分散云给数据中心网络带来了新的挑战,虚拟机之间的数据通信管理需求促使了一系列网络新技术的发展。在OS-Level与Hosted方案中,虚拟机都是架设于操作系统之上的,因此VM/VE之间的通信主要由同样运行于基础操作系统之上的网络交换应用程序来完成。而在最主流的Bare-Metal结构中,由于Hypervisor薄操作系统的引入,性能、管理、安全和可靠性等多维度的考虑,造成VM间网络通信管理发展出不同的技术道路(EVB与BPE),后文会对这些技术方向加以详述。VMware ESX与Xen/Hyper-V的Bare-Metal方案实现结构有所不同,简单如下图所示。分散云除了给网络带来上述的VM通

17、信问题,同样由于其对服务器硬件能力的极端榨取,造成网络中的流量压力增大,与集中云一样存在着带宽扩展的需求。原本一台服务器一个操作系统跑一个应用只需要10M流量带宽就够了,现在装了10个VM跑10个应用,带宽可能就需要100M了。大型机与小型机的一虚多技术早在30年前IBM就做出来了,现在RISC平台上已经相当完善了,相比较而言X86架构的虚拟化才处于起步阶段,但X86架构由于性价比更高成为了分散云计算的首选。X86架构最早期是纯软件层面的Hypervisor提供虚拟化服务,缺陷很多,性能也不够,直到2006年Intel推出了实现硬件辅助虚拟化的VT技术CPU产品后才开始迅猛发展(AMD也跟着出

18、了VM技术)。硬件辅助虚拟化技术主要包括CPU/Chipset/Network Adapter等几个方面,和网络技术紧密相关的就是网卡虚拟化了,后文会对如SR-IOV等网卡虚拟化技术应用进行更具体分析。随着2007年Intel VT FlexMigration技术的推出,虚拟机迁移成为可能,2009年Intel支持异构CPU间动态迁移再次向前迈进。vMotion这里再多唠叨几句vMotion技术。vMotion是VMware公司提出的虚拟机动态迁移技术名称(XEN也有相应的XENMotion技术),由于此名称被喊得最早,范围最广,认知度最高,因此下文提到虚拟机迁移技术时大都会使用vMotion

19、来代称。先要明确vMotion是一项资源管理技术,不是高可靠性技术,如果你的某台服务器或VM突然宕机了,vMotion是无助于应用访问进行故障切换和快速恢复的。vMotion是将一个正常的处于服务提供中的VM从一台物理服务器搬家到另一台物理服务器的技术,vMotion的目的是尽可能方便的为服务管理人员提供资源调度转移手段,当物理服务器需要更换配件关机重启啦,当数据中心需要扩容重新安排资源啦,这种时候vMotion就会有用武之地了。设想一下没有vMotion上述迁移工作是怎么完成的,首先需要将原始物理服务器上的VM关机,再将VM文件拷贝到新的物理服务器上,最后将VM启动,整个过程VM对外提供的服

20、务中断会达到几分钟甚至几小时的级别。而且需要来回操作两台物理服务器上的VM,对管理人员来说也很忙叨。使用vMotion后,两台物理服务器使用共享存储来保存VM文件,这样就节省了上述步骤2中的时间, vMotion只需在两台物理服务器间传递当前的服务状态信息,包括内存和TCP等上层连接表项,状态同步的拷贝时间相对较短,而且同步时原始VM还可以提供服务使其不会中断。同步时间跟VM当前负载情况及迁移网络带宽有关,负载大了或带宽较低使同步时间较长时,有可能会导致vMotion出现概率性失败。当状态同步完成后,原始物理服务器上的VM会关闭,而新服务器上的VM激活(系统已经在状态同步前启动完毕,始终处于等

21、待状态),此时会有个较短的业务中断时间,可以达到秒级。再者vMotion是通过VMware的vCenter管理平台一键化完成的,管理人员处理起来轻松了许多。这里要注意vMotion也一定会出现业务中断,只是时间长短区别,不要轻易被一些宣传所忽悠。想想原理,不论怎么同步状态,只要始终有新建发生,在同步过程中原始服务器上新建立的客户连接,新服务器上都是没有的,切换后这部分连接势必被断开重建,零丢包只能是理想值。VMware也同样建议将vMotion动作安排在业务量最少的时候进行。vMotion什么场景适用呢?首先肯定得是一虚多的VM应用场景,然后是对外业务中断恢复的可靠性要求极高,一般都是7*24

22、小时不间断应用服务才用得上,最后是计算节点规模始终在不断增长,资源调度频繁,管理维护工作量大的数据中心。另外共享存储这个强制要求会给数据中心带来了整体部署上的限制,尤其是下面提到的跨数据中心站点vMotion时,跨站点共享存储的问题解决起来是很麻烦的,由于这部分内容和网络关系不大,属于存储厂商的地盘,对跨站点共享存储技术有兴趣的读者可以参考EMC/IBM等厂商的资料看看,本文就不过多介绍了。vMotion的出现推动了数据中心站点间大二层互联和多站点动态选路的网络需求,从而导致OTV和LISP等一系列新网络技术的出现。2.3 云计算小结通过前面的描述,希望大家能对云计算有个较为清晰的概念。云计算

23、还有一大块内容是平台管理资源调度方面(目前很多厂家吆喝的云计算都是云平台)。这部分主要针对客户如何更便捷的创建与获取虚拟化服务资源,实际过程就是用户向平台管理软件提出服务请求,管理平台通过应用程序接口API(Application Program Interface)将请求转化为指令配置下发给服务器、网络、存储和操作系统、数据库等,自动生成服务资源。需要网络做的就是设备能够识别管理平台下发的配置,从技术创新的角度讲,没有啥新鲜东西,就不多说了。当前的云平台多以IaaS/PaaS为主,能做到提供SaaS的极少。但在今后看来,SaaS将会成为云服务租用主流,中小企业和个人可以节省出来IT建设和维护

24、的费用,更专注于自身的业务发展。总结一下云计算给数据中心网络带来的主要变化:1、 更高的带宽和更低的延迟2、 服务器节点(VM)规模的增加3、 VM间通信管理4、 跨数据中心站点间的二层互联以承载vMotion题外再多说两句,计算虚拟化中一虚多与多虚一结合使用才是王道。但目前云计算服务提供商能够提供的只是先将物理服务器一虚多成多台VM,再通过LB/集群计算等技术将这些VM对外多虚一成一个可用的资源提供服务。个人感觉,如果能做到先将一堆物理服务器虚拟成一台几万个核Super Computer,用户再根据自己的需要几个几十个核的自取资源,这样才更有云计算的样子, Super Computer就是那

25、朵云。当然计算虚拟化的时候不光是核的调配,还要包括IO/Memory等一起进行调度,这里只是简单举例。3 数据中心数据中心的产生有多早?从人类开始将信息记录到介质上传递开始就有了数据中心,那个记载信息的介质(石头或树皮)就是数据中心,不过那时的网络是靠手手相传而已。如果更甚一些,可以理解人类产生语言开始,知识最多的人(酋长/祭祀)就是数据中心,口口相传就相当于现如今的网络传输。有人该说,夸张了哈,写作手法而已,只是想突出一下数据中心的重要性。当计算机网络连接到Server的那一刻起,整个世界的网络就从网状变成了树状,一个个数据中心就是网络世界的根。3.1 Client与Server在所有的数据

26、通信会话中,只有两个永恒的角色,Client与Server。为了下文叙述简便,作者把数据中心内部的终端统一称之为Server,数据中心外部的为Client。这样网络间的流量通信就只剩下Client-Server(CS)与Server-Server(SS)两种了。其实更准确说还是只有CS一种,SS通信也是有个发起方和响应方的。QQ/MSN等即时通信软件的流量模型实际可理解为CSC;唯有P2P对CS结构有所颠覆,但不管怎么处理也必定会存在Server角色进行最初的调度。所有数据中心需要处理的业务就是CS和SS两种,CS肯定是基于IP进行L3转发的了,SS则分为基于IP的L3和基于MAC的L2两种转

27、发方式。基于IP的SS通信主要是不同业务间的数据调用,如WEB/APP服务器去调用DB服务器上的数据,再如有个员工离职,职工管理系统会同步通知薪酬管理、考勤管理、绩效管理等一系列系统进行删除信息的相关操作。基于MAC的SS通信则是同一类服务器间的数据同步计算,比如使用WEB集群分流用户访问时,需要对修改或增删的数据进行集群同步;再比如多虚一中集群一起计算任务时协调者和执行者之间的大量通信进行任务调度。可以看出云计算数据中心给网络带来的挑战主要是基于MAC的二层(OSI模型)SS通信。在一虚多技术影响下,Server的概念已经扩展到以单台VM为基础单元,因此可以引出下面这个图,看看新网络技术是如

28、何划分的。Network1:VM到VM之间的SS二层互联网络Network2:DC站点内部SS二层互联网络Network3:跨DC站点间的SS二层互联网络Network4:DC到Client之间的CS三层互联网络后文的技术章节就会针对这些部分进行展开,详细说下都有哪些技术分别对应在这四段网络中,这些技术的特点是什么。3.2 层次化与扁平化数据中心的网络结构取决于应用计算模型,计算模型主要分为层次化与扁平化两种结构。层次化结构如下图所示,典型的应用如WEB-APP-DB、搜索引擎或高性能计算(地震、科研)等。特点是客户请求计算结果必须逐层访问,返回数据也要逐层原路返回。ServerInterfa

29、ceLayerServerServerInside Network Layer 1DateLayer 1 ServerServerServerOutside Network LayerClientInside Network Layer 2ServerServerServerDateLayer 2ClientClient计算模型扁平化结构如下图所示,特点是数据层服务器会将结果直接返回给客户,不需要再由接口层服务器进行处理,也有管这种模型叫做三角传输的。典型的应用如一些Internet网站服务采用的LB结构,LB服务器就是只做调度,WEB服务器会直接将请求结果返回给用户。Interface La

30、yerServerServerNetwork LayerClientClientClientData LayerServerServer注意,上面说的是计算模型,和网络模型并不是一一对应,采用层次化结构计算模型一样可以进行扁平化组网,如下图所示。Interface LayerServerServerNetwork LayerClientClientClientData LayerServerServer从网络角度讲,扁平化相比较层次化结构最大的好处是可以减少服务器的网卡接口数量(省钱),然而缺点是没有清晰的层次,部署维护的复杂度就会相应提升。总体来说,当前数据中心实际组网建设中,这两种方式谁都

31、没占据到绝对优势,上哪种结构完全看规划者的考量重点是在哪个方面。前面说过,云计算主要分为多虚一与一虚多两种虚拟化结构。一虚多对传统计算模型没有太大影响,只是将其服务器从物理机到虚拟机数量规模扩大了N倍,网络规模也随之进行扩大。而多虚一中,协调者角色对应了接口层服务器,执行者角色则对应数据层服务器,由于此时大量的通信交互是在不同执行者之间或执行者与协调者之间,需要重点关注的大规模网络就由原来的接口层服务器之前,转移到了接口层服务器与数据层服务器之间。3.3 三层结构与两层结构在以往的数据中心网络建设时,关注的重点都是指接口层服务器前的网络,传统的三层网络结构如下图所示。其中的汇聚层作为服务器网关

32、,可以增加防火墙、负载均衡和应用加速等应用优化设备。ServerAggregationSwitchCoreSwitchAccess SwitchAggregationLayerAggregationSwitchAccess SwitchServerServerAccess SwitchAccess SwitchServerAccessLayerCoreLayer但在云计算数据中心里面Ethernet网络规模扩大,流量带宽需求增加,因此不会在网络中间位置再插入安全和优化设备了,转发性能太低,上去就是瓶颈,汇聚层的位置也就可有可无了。再加上带宽收敛比的问题,短期内大型云计算数据中心网络里面不会出现

33、汇聚层的概念。以前是百兆接入、千兆汇聚、万兆核心,现在服务器接入已经普及千兆向着万兆迈进了,除非在框式交换机上40G/100G接口真的开始大规模部署,还有可能在云计算数据中心里面再见到超过两层的级联结构网络。现如今的云计算数据中心流行的都是如下图所示的千兆接入,万兆核心的两层网络结构。ServerCoreSwitchAccess SwitchAccess SwitchServerServerAccess SwitchAccess SwitchServerAccessLayerCoreLayerCoreSwitch此两层网络结构部署在接口层服务器之前,则一般会将服务器网关部署在Core Swit

34、ch上,但前提是网络规模不会太大,Core不会太多(2个就差不多了),否则VRRP/HSRP等多网关冗余协议只能走到一个活动网关,会导致网络效率很低。还有一种方式是将服务器网关部署在Access Switch上,Access SW与Core SW之间通过OSPF等动态路由协议达到全互联,使用等价路由达到多Core SW的负载均担。但此方式的缺点是L3路由交互转发效率较低,部署复杂且占用大量IP地址。在未来的TRILL/SPB等二层Ethernet技术结构中,可能会出现专门作为网关与外部进行IP层面通信用的边缘交换机(由于出口规模有限,2-4台足够处理),内部的Core SW只做二层转发,可以大

35、规模部署以满足内部服务器交互的需求,如下图所示。ServerCoreSwitchAccess SwitchAccess SwitchServerServerAccess SwitchAccess SwitchServerAccessLayerCoreLayerCoreSwitchEdgeSwitchEdgeLayerEdgeSwitchCoreSwitch当遇到多虚一高性能计算的模型,则二层网络结构会被部署在接口服务器与数据服务器之间,为二者构建纯二层的大规模交互网络,结构如下图所示。CoreSwitchAccess SwitchAccess SwitchAccess SwitchAccess

36、 SwitchAccessLayerCoreLayerCoreSwitchCoreSwitchInterface LayerServerServerData LayerServerServerServer3.4 Server与Storage前面说的CS/SS网络可以统称为数据中心前端网络,目前和以后基本上都是IP+Ethernet一统天下(IB Infiniband只能吃到高性能计算的一小口)。有前端当然就有后端,在数据中心里面,服务器与存储设备连接的网络部分统称为数据中心后端网络。就目前和短期的未来来看,这块儿都是FC的天下。简单说两句存储,DAS(Direct Attached Stora

37、ge)直连存储就是服务器里面直接挂磁盘,NAS(Network Attached Storage)则是网络中的共享文件服务器,此二者大多与数据中心级别存储没什么关系。只有SAN(Storage Area Network)才是数据中心存储领域的霸主,磁盘阵列会通过FC或TCP/IP网络注册到服务器上模拟成直连的磁盘空间。而目前FC SAN是主流中的主流,基于TCP/IP的IP SAN等都是配太子读书的角色。在服务器到存储的后端网络中,涉及到IO同步问题,高速、低延迟与无丢包是对网络的基本需求,而Ethernet技术拥有冲突丢包的天然缺陷,FC的无丢包设计使其领先一步,加上早期Ethernet还挣

38、扎在100M带宽时,FC已经可以轻松达到2G,所以在后端网络中从开始到现在都是FC独占鳌头。但是从发展的眼光看,Ethernet目前已经向着40G/100G迈进,而FC的演进并不理想,无论是BASE10的10/20/40G路线(主要用在FC交换机之间,目前基本已经被淘汰)还是BASE2的2/4/8/16/32G路线(当前主流FC应用)都已经落后,加上各种以太网零丢包技术(CEE/DCE/DCB)的出现,以后鹿死谁手还真不好说。在目前阶段,为了兼容数据中心已有的主流FC网络和存储设备,在基于iSCSI技术的IP SAN技术没能开花结果的情况下,众多Ethernet网络厂商又推出了FCoE来蚕食服

39、务器到存储这块蛋糕。下文技术章节会专门介绍FCoE的内容。先简单说下,FCoE没有惦着像IP SAN那样一下子完全取代FC去承载后端网络,而是走前后端网络融合,逐步蚕食的路线,是网络厂商们将数据中心的核心由服务器向网络设备转移的重要武器。如下图,就是看谁做太阳,谁做星星。相比较IP SAN的壮烈牺牲,FCoE采用了一条更为迂回的兼容道路,目前已经出现了支持FCoE的存储设备,也许Ethernet完全替代FC的时代真的能够到来。如果FCoE能成功,虽然短期内交换机、服务器和存储的价格对比不会有太大的变化,但是占据了核心位置,对未来的技术发展就有了更大的话语权,附加值会很高。又如当前的EVB(Ed

40、ge Virtual Bridging)和BPE(Bridging Port Extend)技术结构之争也同样是话语权之争。顺便一提,当一项完全不能向前兼容的全新技术出现时,除非是有相当于一个国家的力量去推动普及,而且原理简单到8-80岁都一听就明白,否则注定会夭折,与技术本身优劣无太大关系。老话说得好,一口吃不成胖子。3.5 数据中心多站点这是个有钱人的话题,且符合2-8原则,能够建得起多个数据中心站点的在所有数据中心项目中数量也许只能占到20%,但他们占的市场份额肯定能达到80%。建多个数据中心站点主要有两个目的,一是扩容,二是灾备。扩容首先说扩容,一个数据中心的服务器容量不是无限的,建设

41、数据中心时需要考虑的主要因素是空间、电力、制冷和互联。数据中心购买设备场地建设只是占总体耗费的一部分,使用过程中的耗能维护开销同样巨大,以前就闹过建得起用不起的笑话。当然现在建设时要规范得多,考虑也会更多,往往做预算时都要考虑到10年甚至以上的应用损耗。再讲个故事,以前曾有某大型ISP打算找个雪山峡谷啥的建数据中心,荒郊野外空间本来就大,融雪制冷,水力发电,听上去一切都很美,但是就忘了一件事,互联。光纤从哪里拉过去,那么远的距离中间怎么维护,至少从目前阶段来说这个问题无解。也许等到高速通信发展到可以使用类似铱星的无线技术搞定时,数据中心就真的都会建到渺无人烟的地方吧,现在还只能在城市周边徘徊。

42、貌似听说过国外有建得比较偏远的大型数据中心,但个人觉得应该还是人家通信行业发达,光纤资源丰富,四处都能接入。但至少目前国内的运营商们不见得会支持,大城市周边搞搞就算了,远了没人会陪你玩。有些扯远,回到正题。现在国内已经有超过10k台物理服务器在一个数据中心站点的项目了,再多我还没有听说过。只有几百上千的物理服务器就敢喊搞云计算是需要一定勇气的,既然是云,规模就应永无止境。所以建多个数据中心站点来扩容就成了必然之举。这时就可能遇到Cluster集群计算任务被分配在多个站点的物理服务器或虚拟机来完成的情况,从而提出了跨多个数据中心站点的Ethernet大二层互联需求。在扩容时,就可以充分利用vMo

43、tion等虚拟机迁移技术来进行新数据中心站点的建设部署,同样需要站点间的大二层互通。支持IP层的vMotion目前虽然已经出现,但由于技术不够成熟,限制很多,实用性不强,还是以Ethernet二层迁移技术为主。灾备再说说灾备,最近几年天灾人祸着实不少,数据中心容灾就越来越受到重视。扩容和灾备的主要区别就是:扩容的多个站点针对同一应用都要提供服务;而灾备则只有主站点提供服务,备份站点当主站点挂掉的时候才对外服务,平时都处于不运行或者空运行的状态。参考国标信息系统灾难恢复规范GB/T 209882007,灾备级别大致可划分为数据级别(存储备份),应用级别(服务器备份),网络级别(网络备份),和最高

44、的业务级别(包括电话、人员等所有与业务相关资源)。国内外统一的容灾衡量标准是RPO(Recovery Point Objective)、RTO(Recovery Time Objective)和RAO(Recovery Access Objective)了,通过下图形象一些来体现他们的关系。简单来说RPO衡量存储数据恢复,RTO衡量服务器应用恢复,RAO衡量网络访问恢复。一般来说RPO设计都应小于RTO。国外按照RTO/RPO的时间长短对灾难恢复分级参考由高到低为:Class 1/A RTO=0-4 hrs; RPO=0-4 hrsClass 2/B RTO=8-24 hrs; RPO=4 h

45、rsClass 3/C RTO=3 day; RPO=1 dayClass 4/D RTO=5+ days; RPO=1 day标准归标准,真正建设时候最重要的参考条件还是应用的需求,像银行可以直接去调研储户能容忍多长时间取不出来钱,腾讯去问问QQ用户能容忍多长时间上不了线,就都知道该怎么设计容灾恢复时间了。真正在玩多中心灾备的行业,国内集中在金融系统(尤其是银行),政府和能源电力等公字头产业,国外的不太清楚,但我想以盈利为主要目的企业不会有太强烈意愿去建设这种纯备份的低效益站点,更多的是在不同站点内建设一些应用服务级别的备份,所有站点都会对外提供服务。小结在云计算规模的数据中心中,对于LB类

46、型的多虚一集群技术,执行者(概念参见文档前面集中云部分)少上几个不会影响全局任务处理的,只要在扩容时做到数据中心间大二层互通,所有站点内都有计算任务的执行者,并且配合HA技术将协调者在不同站点做几个备份,就已经达到了应用容灾的效果。针对一虚多的VM备份,VMware/XEN等都提出了虚拟机集群HA技术,此时同样需要在主中心站点与备份中心站点的服务器间提供二层通道以完成HA监控管理流量互通,可以达到基于应用层面的备份。云计算数据中心多站点主要涉及的还是扩容,会部署部分针对VM做HA的后备服务器,但是不会搞纯灾备站点。针对多站点间网络互联的主要需求就是能够做而二层互联,当站点数量超过两个时所有站点

47、需要二层可达,并部署相关技术提供冗余避免环路。3.6 多站点选择数据中心建设多站点后,由于同一应用服务可以跑在多个站点内部,对Client来说就面临着选择的问题。 首先要记住的是一个Client去往一个应用服务的流量必须被指向一台物理或虚拟的 Server。你可以想象一个TCP请求的SYN到ServerA,而ACK到了ServerB时,ServerA和B为了同步会话信息都会疯掉。想办法维持一对Client-Server通信时的持续专一是必须的。Client到Server的访问过程一般分为如下两步:1、 Client访问域名服务器得到Server IP地址(很少人会去背IP地址,都是靠域名查找)

48、2、 Client访问Server IP,建立会话,传递数据。当前的站点选择技术也可以对应上面两个步骤分为两大类。第一类是在域名解析时做文章,原理简单来说就是域名服务器去探测多个站点内IP地址不同的服务器状态,再根据探测结果将同一域名对应不同IP返回给不同的Client。这样一是可以在多个Client访问同一应用时,对不同站点的服务器进行负载均担,二是可以当域名服务器探测到主站点服务器故障时,解析其他站点的服务器IP地址给Client达到故障冗余目的。这时要求不同站点的服务地址必须在不同的三层网段为什么不能在同一三层网段?跟核心网路由有什么关系?,否则核心网没法提供路由。缺点很明显,对域名解析服务器的计算压

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 其他


经营许可证编号:宁ICP备18001539号-1