云计算的统一基础网络
发布日期:2016-7-26 15:7:47
云的基本特征是动态、灵活,按需计算,传统的网络架构和技术虽然也能构筑云计算的基础平台,但因此而形成的传统运行架构却无法支撑如此动态化的IT业务要求。它必然要求一种新的IT运行模式,将大量的计算资源以动态、按需的服务方式供应与部署。 一、 云计算的基础架构挑战 传统业务结构下,因为多种技术之间的孤立性(LAN与SAN),让数据中心服务器总是提供多个对外IO接口:用于数据计算和交互的LAN接口以及数据访问的存储接口,某些特殊环境比如特定HPC(高性能计算)环境下的超低时延接口。服务器的多个IO接口导致了数据中心环境下多个独立运行的网络同时存在,不仅让数据中心布线复杂,不同的网络、接口形体造成的异构还直接增加了额外人员的运行维护、培训管理等高昂成本投入,尤其是存储网络的低兼容性特点,让数据中心的业务扩展往往存在约束。 因为传统应用对IT资源的独占性(如单个应用独占服务器),让数据中心的业务密度低,造成有限的物理空间难以满足业务快速发展要求,而已有的系统则资源利用效率低下。而传统业务模式下,因为规模小,业务遵循按需规划,企业应用部署过程复杂、周期漫长,难以满足灵活的IT运行要求。在云计算这种变革性运营和服务模式下,必须能解决成本、弹性、按需增长的业务要求,并且改进与优化IT运行架构。所以: 云计算服务必然要求一种大规模的IT运行方式,在极大程度上降低云计算基础设施的单位建设成本,大幅降低运行维护的单位投入成本,也为阿里云节约了不少开支。通过网络与IO的整合来消除数据中心的异构网络和接口环境,云计算中心需要优化、简化的布线和网络环境。 因为其业务集中度、服务的客户数量远超过传统的企业数据中心,导致了高带宽的业务流,如图1所示的亚马逊对外公布其2008年提供云计算服务之后,云服务的带宽增长速度远高于其WEB服务的带宽增长。 图1 亚马逊的云计算服务高速带宽增长需求 总的来说,为满足云计算的业务要求,统一的基础网络要素必然包括:超高速交换、统一交换、虚拟化交换、透明化交换。 二、 云的统一基础网络 1. 云计算的超高速网络 以太网技术迅速发展,当前10GE技术已在数据中心的骨干广泛应用,图2显示了2010年的以太网技术40G/100G标准发布,表明基础网络将快速进入超高速时代。 图2 同样,服务器IO也由千兆向万兆快速发展,随着IO加速技术、IO虚拟化技术的不断提升以及服务器多路多核计算能力的提升,当前的服务器IO已具备接近10GE线速的吞吐能力,这种来自网络接入层的高性能吞吐必然驱动云计算网络架构采用更高的性能,以满足能力的匹配(如图3所示)。 图3 数据中心网络的高带宽发展 2. 云计算的统一交换网络 以太网原本是以简单、高效为特质的常规技术,适用于常规网络通信的支撑,依赖于上层协议解决网络拥塞、丢包问题。随着以太网技术的不断演进和提升,无损以太网技术(Lossless Ethernet)标准族开始确立。 这一标准族称为数据中心以太网DCE或者融合增强以太网CEE,包括增强传输选择技术(Enhanced transmission selection ETS; IEEE 802.1Qaz) 、拥塞通告(Congestion notification IEEE 802.1Qau) 、基于优先级的流控(Priority-based flow control PFC; IEEE 802.1Qbb) 、链路发现协议LLDP (IEEE 802.1AB)的扩展数据中心桥能力交换协议(Data Center Bridging Capability Exchange Protocol DCBX)。以当前已完全实现的PFC+DCBX组合为例,如图4所示,在交换机端口的8个队列进行buffer的分配,形成网络中8个虚拟化通道,数据流带上自身的通道标签(802.1q进行标识),buffer大小让各队列有不同的数据缓存能力,由DCBX协议交换不同网络单元的基本能力信息,以确定数据的突发能力。 图4 无丢包以太网 一旦出现瞬时拥塞,即某个设备的队列缓存消耗较快,超过一定阈值(可设定为端口队列的1/2、3/4等比例),设备即向数据进入的方向(上游设备)发送反压信息,上游设备接收到反压信息,会根据反压信息指示停止发送或者延迟发送数据,并且将数据存储在本地端口buffer,若本地端口buffer消耗超过阈值,则继续向上游反压,如此一级级反压,直到网络终端设备,从而消除网络节点因拥塞造成的丢包。 无损以太网的特性,可完全满足存储业务对于丢包的敏感性,所以FC存储数据承载在以太网上(FCoE),基于DCE技术的支持,新一代以太网技术完全可融合数据中心的存储网络形成全业务的统一交换。在这样的技术支撑下,数据中心网络将实现合并,让原本多种异构的网络形态合并到一套网络,从而也实现了多个网络管理合并、简化成为一个管理视图(如图5所示)。 图5 数据中心统一交换网络 以太网带宽的增长让在兼容后续FC更高带宽8G、16G的FCoE技术成为可能,如图6所示,当前的10GE DCE技术支撑的FCoE可以完全支持4G/8G FC向10G FCoE的融合,有些网卡的FC-FCoE映射就是直接将4G/8G FC载入以太网进行转发。对后续更高带宽的40G以太网技术会延续和完善DCE特性,所以可对更高的FC带宽16G进行融合。 图6 FCoE的融合趋势 统一交换网络提供对云计算的支撑,可一提供单一数据中心网络,实现云计算上层应用对数据交换、传送通道与IO的简化统一操作,同质的底层网络提供超高容量数据吞吐支撑、提供广泛兼容的云应用升级与扩展能力。 3. 云计算的虚拟化交换网络 虚拟化技术是云计算的关键技术之一,将一台物理服务器虚拟化成多台逻辑虚拟机VM,不仅可大大提升云计算环境IT计算资源的利用效率、节省能耗,同时虚拟化技术提供的动态迁移、资源调度,让云计算服务的负载可以得到高效管理、扩展,云计算的服务更具有弹性与灵活性。 从网络角度看虚拟化的计算资源,,一个VM完全等效于一台物理服务器在运行,而VM的动态机制,与物理服务器的位置搬迁是完全不一样的,对VM迁移带来的网络配置、统计、策略控制等复杂管理工作,让当前网络运维难度增大,所以网络支持虚拟交换技术,对迁移的VM而言,网络总可跟随VM的动态变化提供按需交换(配置、监控、统计、管理),能极大强化云计算的虚拟化服务功能(如图7所示)。 图7 虚拟化交换网络 一种新的网络虚拟化技术EVB(Edge Virtual Bridging:IEEE 802.1Qbg)标准正在制订,这种技术让虚拟化后服务器上VM的虚拟网卡标准化,并且以扩展的LLDP标准协议和网络交换VM信息。EVB要求所有VM数据的交换(即使位于同一物理服务器内部)都通过外部网络进行,即外部网络能够支持虚拟交换功能,对虚拟交换网络范围内VM动态迁移、调度信息,均通过LLDP扩展协议得到同步以简化运维。 4. 云计算的透明化交换网络 对虚拟化云计算服务,需要构建大范围(数据中心内部、数据中心之间)的二层互联网络,以支持虚拟机算资源的迁移与调度(对大型集群计算,也可构建二层网络,以保持集群的简单,但是目前也有构建路由网络连接实现大型集群)。二层网络的好处是对虚拟机的透明化,但为保证网络的高性能、可靠性,需要解决网络环路问题。 数据中心内部,通过采用IRF2技术(智能弹性架构),可构建大型的二层透明交换网络,具有网络结构简单、保持高性能与高可靠、避免环路的好处。在数据中心内部,构建端到端的IRF2虚拟化网络,实现内部虚拟化计算的透明交互(如图8左侧图所示);构建IRF2核心网,核心网设备位于不同地域,但虚拟化成一台逻辑设备,数据中心和核心网以跨地域聚合链路互联,消除了网络环路,也保证了网络的可靠性和链路充分利用(如图8右侧图所示)。 图8 基于IRF2的云计算透明交换网 目前为解决网络的二层透明环境部署问题,一种新技术TRILL(Transparent Interconnection of Lots of Links多链路透明互联)正在形成标准,这种技术的本质是改造交换技术和IS-IS路由技术,实现在IS-IS路由网络下的大规模二层交换承载(如图9所示)。 图9 基于TRILL的透明交换网络 TRILL网络的链路层可是以太网,也可是PPP链路,所以这种新的标准具有很大的适应性,可在数据中心内部高速网络实现,也可用于连接基于PPP链路的广域网络。 三、 结束语 作为一种新型的IT运行模式,云计算要求新的架构来支持其不断发展,以实现云服务的弹性、动态等关键需求,而其支撑网络也必然会形成统一的基础架构,超高速、统一交换、虚拟交换、透明交换等新的技术特性会随着技术的逐步成熟广泛应用到云计算中。 上一条: 赛门铁克云计算研讨会的详情 下一条: 云开发可使软件复用梦变成现实
|