随着以虚拟化为主的云数据中心的发展和成熟, 应用数据猛增, 数据中心虚拟服务器的迁移和数据交换产生的流量要求所有的虚拟机在同一个VLAN, 大二层网络应运而生。文中总结和分析了常见的大二层网络设计和优化方案, 并结合实际, 将优化方案引入到高校数据中心的建设当中。
新一代数据中心内部的网络逻辑结构的特点是“大二层结构”。所谓“大二层”是指所有VLAN 都可以延展到所有汇聚层、接入层交换机的VLAN 结构,这与传统数据中心VLAN 往往终结在接入层交换机的做法不同。大二层网络结构的需求是由如下原因决定的:
1. 服务器虚拟化的要求:所有主流服务器虚拟化技术都能够实现不同程度的虚机在线迁移,而虚机迁移前后其MAC/IP地址等不变,决定了其迁移的源和目的应在同一个VLAN;
2. 网络业务整合的需要:新一代数据中心网络要求比传统网络更高的业务承载能力,各种应用(比如Oracle RAC 等)等都需要纯二层网络来提供其业务所需的低延迟、高吞吐、MAC 层直接交换的网络环境;
3. 智能业务整合、集中部署的需求:为面向范围更广的接入层提供智能服务资源池,智能服务被要求集中化部署,这就需要有智能服务要求的VLAN 都能延展到智能服务设施所在的汇聚层。
随着应用的数量迅猛增加,二层网络的扩展造成传统二层技术在链路冗余能力、负载均衡能力、可扩展性和网络稳定性上面的诸多问题,下面以某高校为例讨论如何构造一个可扩展的大二层网络。
大二层网络设计技术
跨机箱的端口捆绑(VPC)
由于传统二层网络依靠生成树(或生成树的改进协议,如快速生成树、MSTP 等)来实现冗余链路的负载均衡和故障切换,不仅设计复杂、建设维护管理难度大,而且链路负载不均、故障收敛慢且稳定性差。一种摒弃生成树的设计就是跨机箱实现以太网端口捆绑,如图1 所示:
这样设计之后,向任何一对冗余的物理机箱的连接都可看成是连向一个逻辑设备,多条冗余的链路可被捆绑为一条逻辑链路,逻辑链路内各物理链路可负载均衡和高效能故障切换。进行跨机箱的端口捆绑要注意如下设计:
双活故障逃生:跨机箱端口捆绑机制的潜在风险是一旦核心机箱间通信故障或软件Bug,则会造成控制平面双活,对不同跨机箱端口捆绑机制,双活造成的影响不同,对于控制平面合并类型的机制,双活会造成所有端口停止转发的崩溃性后果;而对于双机箱控制平面独立的机制,则双活只会造成配置同步的暂时中断,不影响当前的数据转发。因此核心主干和接入交换机都应当选择双控制平面独立的机制。
对外端口捆绑协议兼容性:跨机箱的端口捆绑,捆绑协议本身应采用开放的IEEE 802.3ad,这样使被上连的设备感觉不到正在上连双设备,而是感觉与一个设备进行多链路捆绑连接一样。这样的设计可提供更开放的互连扩展性。
跨机箱数量:跨机箱端口捆绑一般在两个机箱实现,当对超过两个的多机箱进行端口捆绑时,由于双活甚至多活的几率大增、多机箱间的协议和配置同步难度加大,系统会变得非常不稳定,不适于在数据中心核心主干使用。如果要通过两个以上的机箱的平行扩展提高主干的容量,应采用其他高扩展性技术。
特别声明:本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者在两周内速来电或来函联系。