产品
产品中心
< 返回主菜单
产品

交换机

交换机所有产品
< 返回产品
交换机
查看交换机首页 >

无线

无线所有产品
< 返回产品
无线
查看无线首页 >

云桌面

云桌面产品方案中心
< 返回产品
云桌面
查看云桌面首页 >

安全

安全所有产品
< 返回产品
安全
查看安全首页 >
产品中心首页 >
行业
行业中心
< 返回主菜单
行业
行业中心首页 >

数据中心TRILL(透明交换)技术白皮书

链接透明互联TRILL协议为数据中心虚拟化(虚拟机+网络)奠定基础,可在数据中心内部高速网络实现,也可以用于连接基于PPP链路的广域网络。

  • 发布时间:2011-11-21

  • 点击量:

  • 点赞:

分享至

我想评论

    在传统的数据中心服务器区网络设计中,通常将二层网络的范围限制在网络汇聚层以下,通过配置跨汇聚交换机的VLAN,可以将二层网络扩展到多台接入交换机,这种方案为服务器网络接入层提供了灵活扩展能力。

    近年来,服务器高可用集群技术和虚拟服务器动态迁移技术(如VMware的VMotion),在数据中心容灾及计算资源调配方面得以广泛应用,这两种技术不仅要求在数据中心内实现大二层网络接入,而且要求在数据中心间也实现大范围二层网络扩展。

    1.1服务器迁移对数据中心网络的要求

    对数据中心进行扩建或搬迁时,需要将物理服务器从一个数据中心迁至另一个数据中心。在此过程中,考虑以下两个因素,需要在数据中心间构建二层互联网络。

    当服务器被迁至新机房,若未构建新老中心间的二层互联网络,则面临重新规划新中心服务器IP地址的问题。同时还需修改DNS,或修改客户端应用程序配置的服务器IP。因此,构建跨中心的二层互联网络可保留被迁移服务器的IP地址,进而简化迁移过程。

    在服务器搬迁期间,经常在给定的时间内,只能将服务器群的一部分服务器迁至新中心,为保证业务连续性,需建立跨中心的服务器集群,因此构建跨越中心的二层互联网络可实现服务器平滑迁移。

    与服务器搬迁类似的情况是“虚拟机迁移”。当前,一些服务器虚拟化软件可实现在两台虚拟化的物理服务器之间对虚拟机做动态迁移,迁移至另一中心的虚拟机不仅保留原有IP地址,而且还保持迁移前的运行状态(如TCP会话状态),所以必须将涉及虚拟机迁移的物理服务器接入同一个二层网络(虚拟机在迁移前后的网关不变),这种应用场景要求构建跨中心的二层互联网络。

    1.2虚拟化云计算对数据中心网络的要求

    虚拟化计算技术已经逐步成为云计算服务的主要支撑技术,特别是在计算能力租赁、调度的云计算服务领域起着非常关键的作用。

    在大规模计算资源集中的云计算数据中心,以X86架构为基准的不同服务器资源,通过虚拟化技术将整个数据中心的计算资源统一抽象出来,形成可以按一定粒度分配的计算资源池,如下图所示。虚拟化后的资源池屏蔽了各种物理服务器的差异,形成了统一的、云内部标准化的逻辑CPU、逻辑内存、逻辑存储空间、逻辑网络接口,任何用户使用的虚拟化资源在调度、供应、度量上都具有一致性。

    虚拟化技术不仅消除大规模异构服务器的差异化,其形成的计算池可以具有超级的计算能力(如下图所示),一个云计算中心物理服务器达到数万台是一个很正常的规模。一台物理服务器上运行的虚拟机数量是动态变化的,当前一般是4到20,某些高密度的虚拟机可以达到100:1的虚拟比(即一台物理服务器上运行100个虚拟机),在CPU性能不断增强(主频提升、多核多路)、当前各种硬件虚拟化(CPU指令级虚拟化、内存虚拟化、桥片虚拟化、网卡虚拟化)的辅助下,物理服务器上运行的虚拟机数量会迅猛增加。一个大型IDC中运行数十万个虚拟机是可预见的,当前的云服务IDC在业务规划时,已经在考虑这些因素。

    虚拟化的云中,计算资源能够按需扩展、灵活调度部署,这由虚拟机的迁移功能实现,虚拟化环境的计算资源必须在二层网络范围内实现透明化迁移。

    透明环境不仅限于数据中心内部,对于多个数据中心共同提供的云计算服务,要求云计算的网络对数据中心内部、数据中心之间均实现透明化交换(如下图所示),这种服务能力可以使客户分布在云中的资源逻辑上相对集中(如在相同的一个或数个VLAN内),而不必关心具体物理位置;对云服务供应商而言,透明化网络可以在更大的范围内优化计算资源的供应,提升云计算服务的运行效率、有效节省资源和成本。

    1.3生成树在数据中心的问题

    对于存储网络已经开始利用FCoE(以太网光纤通道)等新技术将存储传输和IP传输融合到以太网连接上,这需要一个大型的二层以及交换网络。另外对于计算中心而言,集群计算越来越多地利用虚拟机技术来实现云计算,而利用三层网络来构建的计算中心网络存在诸多管理难题,典型的问题是虚拟机的牵移,这增大了计算中心管理成本,于是计算中心网络越来越倾向于扁平化的网络架构以便于维护管理,这也要求构建一个大型的二层交换网络。

    数据中心间二层互联的关键 —— 端到端环路避免。在数据中心间实现二层网络互联时,为了提升整网高可用性,必须保证数据中心互联链路冗余性,由此也带来了一个问题——二层环路。因此需要防止由一个远端数据中心的二层环路引起所有数据中心服务器接入网络的故障。消除二层环路技术包括:在接入层网络使能生成树协议(STP)。

    在构建二层网络方面,原先的标准——生成树协议(STP)因其一些故有缺陷将不再适合超大型数据中心的扩展。

    STP在数据中心网络应用中的缺陷表现为以下几点:

    1.STP是通过端口阻止来工作的,所有冗余的链路不进行数据转发,该方式虽然解决了二层数据环路的问题,却造成了带宽资源的浪费,而数据中心因其巨大的数据通讯量,对带宽资源的浪费是难以接受的。

    2.STP整网只有一棵生成树,其特点是所有结点交换机都只看到从它自身到达根桥的枝干,如果一台桥设备要到达相邻枝干上的桥设备,哪怕它们之间有直连的链路,数据报文都要经过根桥中转后才能到达,这影响了整网的转发效率,同时造成了根桥的转发瓶径,数据中心对数据转发的低延迟需求会对此提出改进要求。

    3.以太网数据帧是没有TTL的,这会造成一旦数据在二层网络中出现环路,会造成整个网络立即瘫患,尤其是广播帧,这虽然不是STP协议的问题,但我们可归其为STP网络的问题。

    4.当VLAN进行重配置的时候,STP(MSTP)会造成VLAN分隔,这对于数据中心网络而言也是非常严重的问题,尤其是存储网,因为存储网对不间断服务的要求很高。对云计算和数据中心网络中,虚拟机迁移更是致命的。

    1.4TRILL透明交换标准

    TRILL正是因应了STP的这些缺陷而产生的,其目标正是解决上述STP存在的问题。TRILL是由IETF组织于2004年5月开始提出并成立工作组。

    目前TRILL协议涉及如下RFC文档:

    draft-eastlake-trill-rbridge-dcb-00  TRILL 在802.1qbb,802.1qaz,802.1qau上的支持

    draft-ietf-isis-trill-01   ISIS 协议针对TRILL的支持

    draft-ietf-pppext-trill-protocol-01   TRILL 在ppp上的支持

    draft-ietf-trill-rbridge-mib-01    TRILL 的MIB

    draft-ietf-trill-rbridge-options-02   TRILL 头部选项

    draft-ietf-trill-rbridge-protocol-16   TRILL协议

    draft-ietf-trill-rbridge-vlan-mapping-02   TRILL vlan 转换图

    draft-liyz-trill-reqs-mlt2uni-opt-00     TRILL 多播转单播

    RFC 5556 (draft-ietf-trill-prob)       TRILL 当前目标说明文档

    链接透明互联(Transparent Interconnection of Lots of Links,TRILL,IETF标准)协议把2层配置和灵活性与3层融合和规模有效结合在一起。大二层不需要配置的情况下,就可实现整网无环路转发。

    为数据中心虚拟化(虚拟机+网络)奠定基础,更是为跨地域的数据中心之间的承载网网络(云网络)奠定基础。

    云计算网络:TRILL协议互联,实现整网二层环境下的互联互通,同时适应云计算跨地域的服务器大规模虚拟化。 TRILL网络的链路层可以是以太网,也可以是PPP链路,因此这种新的标准具有很大的适应性,可在数据中心内部高速网络实现,也可以用于连接基于PPP链路的广域网络。

    完整技术白皮书内容请返回上部下载文件

相关标签:

点赞

更多技术博文

任何需要,请联系我们

返回顶部

请选择服务项目
关闭咨询页
售前咨询 售前咨询
售前咨询
售后服务 售后服务
售后服务
意见反馈 意见反馈
意见反馈
更多联系方式