本站部分文章和图片来源于互联网,如有侵权请与我司联系,我们将于2个工作日内删除。广东聚纤缆通信股份有限公司(www.guanglanchang.com)是一家专业的光缆生产厂家,各种光缆型号规格齐全,厂家直销价格更优惠,如需光缆报价请直接致电13829218505。
许多人针对大数据中心应用哪些最底层网络结构,怎样演变,会必须哪些种类的光学插口,哪些量级,如何测算要求这些难题存有许多疑虑。 最先要提及的是摩尔定律(Moore’s law),其在大数据中心的演变中主要表现的比较突出。基本上每2年大数据中心的互换网络带宽在价钱不会改变的状况下翻番,进而考虑持续增长的超級运用针对网络带宽的要求,特别是在是视頻类的运用。例如字节跳动(头条的总公司)主打产品在北美洲的短视频App,Tik Tok,总流量指数值级疯涨让其数据中心服务商阿里服务器在北美洲持续忙碌升級,或许都是“既有痛又有乐”。 这儿以Google的大数据中心拓扑构架为例,(之后还有机会再一块儿讨论Facebook,Microsoft等的大数据中心构架)。Google大数据中心过去十明年早已演变了好几代,关键是应用场景Clos网络拓扑构架,从一开始就的Firehose,慢慢演变到Watchtower,Saturn,到近几年来许多场所被提及的Jupiter。互换机器设备插口速度也从1GbE演进到了40GbE/100GbE,400GbE也已经少量运用中。图1得出了Google大数据中心拓扑构架的演化图示,表1则得出了每一时代的构架主要参数。更实际的內容能够参照知乎问答上的文章内容。 Clos网络结构最开始是由Charles Clos于1952年设计构思出的,用多用的中小型网络交换机列阵搭建1个“无堵塞”的互联网,有那么好多个特性:
l 关键为3级互换构架
l 每一級的每一模块都和下一級的机器设备互连
l 适用递归,网络带宽可無限拓展,对随意每台网络服务器,能应用网口的最大网络带宽与大数据中心随意每台网络服务器通讯
l 向后适配,适配目前的以太网接口及运用
l 到特定的到达站,路由器挑选在初级是能够有好几个相对路径,但事件互换模块中间只存有惟一这条路由器
Clos网络结构非常简单,许多白盒机生产商用Broadcom的互换集成ic就能够生产制造出特性非常好的高档网络交换机。如今很多的大数据中心在应用Clos网络拓扑构架。 传统式大数据中心中南北向(有关互联网中南北方物品的表述能够参照)的总流量很大,但随之分布式计算要求的盛行,东面的总流量迅速增加,不仅分布式计算造成集群服务器的浏览要求大幅度提升;与此同时,运用也变得更加繁杂,例如物联网技术中的某一客户进行恳求,管理中心网络服务器将会必须从诸多边沿大数据中心或是网络服务器提取某些统计数据,解决后再回到到客户,这般东面的总流量就变得更加大,乃至大过南北向总流量。这也就是说为何近期两年大数据中心中间的互连要求增长率要快过大数据中心內部互连,见表2,
Jupiter是应用场景1个40Gbps的大数据中心互联网,其构架有这一好多个特性:
1. Centauri TOR(Top of Rack)网络交换机每1个基本模块是1个4U的表面,每1个带有640G(16x40G)的互换集成ic,总共4x16x40G的互换容积。假如按3:1南北向分派,则能够配备为48x40G容积朝南到网络服务器,16x40G朝北到fabric network,或是以10Gbps为基本速度,192x10G朝南和64x10G朝北。或许,还可以做1:1分派,南北向各32x40G,如图所示2。图2:Centauri TOR(Top of Rack)交换机配置
2. 正中间部分(Middle Blocks)由4个Centauri网络交换机构成,其互换容积为4x4x(16x40G),但每一正中间部分都由2级(two-stage)Clos网络交换机构成,每一級能够配备为64x40G朝北到Spine网络交换机,64x40G或是256x10G朝南联接32个TOR网络交换机。3. 每一聚集部分(Aggregation Blocks)由8个正中间部分组成,其互换容积为8x(64x40G)即512x40G朝北到Spine网络交换机,朝南8x(256x10G)即2048x10G到TOR网络交换机。4. Spine网络交换机由2-stage Clos网络交换机构成,即2x(64x40G)与聚集部分互连。 那样针对1个Jupiter大数据中心,其构架为256个Spine网络交换机,朝南与64个聚集部分互连,每一聚集部分朝南与32个TOR网络交换机互连,也就代表一共必须2048(=64x32)个TOR服务器机柜;每台服务器机柜能够有数最多48台网络服务器,满配换句话说98304台网络服务器;每台网络服务器可配备2个髙速网口,即1个Jupiter大数据中心会必须196,608个10G髙速网口。 从左右的构架看来,我觉得大伙儿早已能够自身算出去光学插口的总数了。这要以较大基本速度40Gbps的Google Jupiter大数据中心举的事例,或许假如较大基本速度是100Gbps或是400Gbps,一起服务器网卡最少速度为25Gbps或是50Gbps,大伙儿能够以此方法做相对的推演。 或许,大数据中心将来的演变還是有许多挑戰的。例如电互换的速度慢慢会碰到短板,以Broadcom的Switching ASIC为例,从以前2011年公布的640G互换容积的Trident,到2014年公布的1.2T Trident 2,2015年公布的3.2T Tomahawk,到2017年底公布2018年3一季度烧录的应用场景16nm CMOS加工工艺的12.8T Tomahawk 3,技术路线图发展趋势還是迅速的,但后边的25.6T及左右互换集成ic的发布時间存有许多系统性风险,根本原因集成ic的BGA封裝PIN脚相对密度,IO总数迅速提高较难。 如圖4,由于硅光技术性的导入,每台刀片服务器的规格能够大幅度减少60%左右,一起,速度大幅度提高及其功率的大幅度降低是显而易见易见的益处。这也就立即驱动器流行的集成ic企业乃至实际机器设备商们,近期两年很多资金投入在硅光技术性(Silicon Photonics,SiP),及其2.5D/3D的芯片封装技术性等。有关硅光技术性,之后再找机遇做专题讨论。 另一个,也是好多个难题会限定大数据中心的发展趋势速率,例如IEEE在PCIe系统总线接口标准的演变很慢,现阶段流行依然是PCIe 3.0,每一lane的速度仅为8Gbps,许多业内专家也在号召立即绕过PCIe 4.0去公布PICe 5.0,每一Lane的速度超过32Gbps,那样光学速度能够配对。其他难题,例如SERDES演变(25G-50G),大数据中心致冷(传统式风冷式到水冷散热),Serverless这些,也全是很大的话题讨论。 综上所述,将来的大数据中心构架是向着“模块化设计、扁平化设计、易拓展”这好多个方位在发展趋势,特大型云服务提供商们也愈来愈高度重视大数据中心网络结构的演变和提升,物联网技术,5G必定会催生出超級运用,进而推动大数据中心的迅速发展趋势。期待还有机会与专业人士多多的讨论这行的话题讨论。下篇将大量讨论光学互连插口在大数据中心的运用。