首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Facebook推出分布式网络架构Fabric Aggregator,解决数据中心东西向流量问题

在本周的开放计算项目(OCP)峰会上,一个反复出现的话题是数据中心内部东西向流量的大幅增加。为了应对这种情况,超大规模数据中心运营商正在规划从100 GbE向400 GbE的演进。为了在短期内处理东西向流量问题,Facebook创建了名为Fabric Aggregator的分布式网络系统。

Fabric Aggregator是一个立足于已有的Facebook的Wedge 100交换机简单构建块和开放式交换系统(FBOSS)软件组成的分布式网络系统,以适应社交媒体巨头的快速增长。这种分布式的网络系统能够让数据中心运营商适应更大的区域和不同的流量模式,同时提供适应未来增长的灵活性。

Facebook软件工程总监Omar Baldonado表示,Facebook的对外流量与其内部的东西向流量相比显得相形见绌,该社交巨头的流量,不管是东西向还是南北向都由网络聚合层处理,但是流量增长正在对端口密度和每个节点的容量方面造成压力。

Facebook的技术产品经理Sree Sankar表示,Facebook的东西向流量大幅增加,至少需要三倍的容量,即使已经使用了最大的交换机仍然无法解决东西向流量的问题,迫切需要一个能够提供能源效率并具有灵活设计的系统。

为了跟上流量的增长,Facebook将Fabric Aggregator设计成通用网络机箱的替代品。它将多个Wedge 100S交换机叠加在一起,这与Facebook已经使用的交换机相同。然后运行Facebook开放式交换系统(FBOSS)。该公司开发了四种背板布线模式来模拟经典背板,所有背板选件的规格已提交给OCP。

Fabric Aggregator在没有集中控制器的情况下,在所有子交换机之间运行边界网关协议(BGP)。每个子交换机独立运行、发送和接收流量时不对节点中的其他子交换机有任何交互或依赖,通过这种方式,Facebook可以根据需求的变化快速扩张容量,更换构建模块和电缆组件。

ree Sankar说:“Fabric Aggregator主要的设计标准是灵活性,在过去九个月中,Facebook已经在数据中心部署了这一分布式网络系统,它重新定义了Facebook处理网络容量的方式。”

Facebook工程师在博客文章中详细描述了Fabric Aggregator。他们将所有背板选件的规格提交给OCP,继续他们的共享传统。Facebook对OCP的网络贡献包括其Wedge交换机和Edge Fabric流量控制系统。

七年前,Facebook率先创建了开放计算项目,重点放在开放数据中心组件(如机架和服务器)上。OCP CEO Rocky Bullock表示,OCP目前拥有超过4000名工程师参与其各种项目和超过370个规格和设计包,并吸引了约3000名与会者参加。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180323B1CPG500?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券