数据中心网络技术面临的难题

网络本来是数据中心里最为稳定的一部分,技术几十年下来并未发生根本性的变化。然而,随着互联网的普及、云计算和大数据等新技术的兴起,网络成为了最大的一块阻碍数据中心发展的绊脚石,对网络进行改造势在必行,可是网络部分的历史包袱不少,古老的以太网协议依然是当前网络唯一广为使用的协议(除了存储网络)。要适应新形势、新环境的发展需要,网络必须要引入一些新设备、新技术,这个过程并不是一帆风顺的,网络技术面临着很大的难题。

本文就来详细说一说,当前摆在我们面前的几大技术难题,如果能够尽早攻克,数据中心的前途一定会一片光明。

数据中心网络技术面临的难题

连接器SFI技术

数据中心对网络带宽要求越来越高,从1M到1G发展了差不多20年,而从1G发展到10G用了不到10年,从10G到40G/100G只用了五年,带宽更新的速度越来越快。单端口200G的设备在2018年也将会在数据中心市场上出现。抛开实现这样高带宽的光技术不说,要满足单端口200G的设备线速转发也面临不少技术难题。

其实,在数据中心网络中,使用最为广泛的就是交换机,能提供200G的交换机必然是一些大型的框式设备,前些年网络设备内部达不到线速是普遍现象,所以经常出现一些端口还没有线速打满的情况下,设备已经拥塞了,就是设备内部并不是百分之百线速的,这给数据中心扩容带来了极大不便,所以数据中心都要求网络设备能够线速。若是不能够线速,在一块板卡上提供那么多端口没有意义,所以网络设备内部要真正线速是数据中心对网络的基本要求。这给框式的网络设备提供了很大难题,要在设备内部保证所有的板卡端口线速转发。

假如一个48口100G的板卡要线速,就需要对一块板卡要提供4.8T的带宽,如果是有16个槽位的框式设备,那么内部要提供76.8T的内部带宽才行,这需要在板卡之间部署大量的连接器,由这些高速连接器实现板卡之间的网络流量线速转发。连接器普遍采用交换矩阵接口 (SFI)技术,SFI技术可为底板和互连提供更快的速度、更多的带宽和更高的稳定性。目前一个通用的连接器有60G带宽,对于4.8T的板卡,就要部署80个连接器,不仅数量庞大,而且会占用太多的内部空间,使得设备过于臃肿,提升单个连接器连接速率非常重要,现在也有一些150G,甚至240G的连接器,速度越高稳定性就越差。一味提升连接器的速度,会出现管脚震荡或者错包,这使得设备运行不稳定,所以连接器技术仍在不断提升当中,在提升连接带宽的同时,要增加稳定性,否则要让200G甚至400G在交换机设备上实现就是空谈,连接器部分是急需解决的首要问题。

SDN控制器实现技术

SDN是网络实现自动部署和管理的重要技术,如若真能普及应用,将会极大节约数据中心运维的投入成本,现在的数据中心哪个不得储备一些网络技术人员,用于日常网络维护和故障处理。SDN网络就能将人从复杂繁琐运维的工作中脱离出来。

SDN技术的远景是美好的,然而现实却是残酷的。现在的SDN技术多来自于传统的网络设备制造商,也有一些软件创业企业提供纯软件的SDN控制器软件,不过网络设备商并不买账,对这些软件并不去主动支持,使得SDN控制器软件无法在实际中得到应用。网络设备商可没闲着,也纷纷推出自己的SDN控制器软件,但也仅仅实现与自家设备的互联与控制,这就造成现在数据中心SDN部署的局面,每个网络设备商的SDN控制器都和网络设备绑定销售。SDN网络成了封闭网络,一旦数据中心选择一家设备商的设备,后面扩容也只能选择这家的,这将是所有数据中心都不愿意看到的情况。

然而,推动SDN控制器实现统一标准,这就相当于要网络设备商革自己的命,这样必然有不少的设备商会消亡,所以实现阻力非常大。当然,SDN技术本身并不存在难题,主要是网络环境的阻力,让SDN技术在数据中心里真正大面积落地的依然不多。

虚拟化技术

虚拟化在数据中心里应用极为普遍,当然也包括网络部分。不少的网络设备都支持虚拟化(一虚多,多虚一),但网络设备的虚拟化在实际应用中也遇到了不少问题。

当将一台网络设备虚拟化为多台设备,将这些设备租给不同的用户使用,虽然表现上是隔离的,实际上还在同一台设备上,甚至同一个板卡上工作,当板卡重启或者设备重启时,所有的用户业务都会受到影响。还有安全问题,虽然虚拟化是逻辑隔离的,但物理上还是在一块,数据流量也有可能互通,尤其是一台网络设备遭到攻击后,所有的虚拟设备业务都可能受到影响。

当将多台网络设备虚拟为一台设备,这样管理起来的确便利一些,可一旦遇到故障时,多个虚拟化到一起的设备之间耦合太紧,难免殃及池鱼,均受到影响,还有要对设备进行升级时,因为多台设备之间都是紧耦合的,无法逐台设备,就要中断业务,网络维护产生极大困难,要是数据中心的核心网络设备要重启,那一定是一次重大网络事故

相关推荐