OpenStack与SDN控制器的集成

1.OpenStack Neutron简介

Neutron添加了一层虚拟的网络服务让租户(用户)构建自己的虚拟网络。Neutron是对网络的虚拟化,该网络可以从一个地方移动到另一个地方,而不会影响现有的连接。它可以进一步解释为一个网络管理服务,为创建和管理虚拟网络公开了一组可扩展的API(通过创建虚拟网络为OpenStack Compute节点上的虚拟机提供网络服务)。Neutron的插件架构为开源社区或第三方服务提供API。Neutron还允许供应商研究和添加新的插件,提供先进的网络功能。

目前,Neutron的虚拟网络服务没有传统网络成熟。下图描述了与Neutron组件交互的代理。组成Neutron的元素如下:

✔ Neutron-server是python虚拟光驱, 是OpenStack网络运行在Network节点的主过程。

✔ Plugin agents和Neutron插件一起管理虚拟交换机,Plugin agents依赖Neutron插件。

✔ DHCP agent是Neutron的一部分,为租户的网络提供DHCP服务。

✔ L3 agent负责层3和NAT转发来获得租户虚拟机的外部访问。

SDN对于neutron的意义在哪里?

引入SDN主要是克服Neutron的缺陷,SDN是一种网络技术,通过集中的可编程控制平面来管理整个数据平面。这样网络运营商和供应商可以控制和管理自己的虚拟化资源和网络。SDN是一种新型的网络模式,允许硬件和操作系统之间以及物理/虚拟网元和操作系统之间通过开放API通信。

2.SDN控制器跟neutron结合原理

(1)Neutron Server的介绍

A python daemon is the main process of the OpenStack networking that typically runs on the controller node (a term used in OpenStack deployments). It exposes APIs, to enforce the network model, and passes the requests to the neutron plugin.

意思就是暴露API,使得请求能够被传到plugin中。

(2)Plugins的介绍

Plugins can be either core or service. Core plugins implement the “core” Neutron API — L2 networking and IP address management. Service plugins provide “additional” services, such as the L3 router, load balancing, VPN, firewall and metering. These network services can also be provided by the core plugins by realizing the relevant API extensions. In short, plugins run on the controller node and implement the networking APIs, which interact with the Neutron server, database and agents.

Plugin分为core和additional,用来处理neutron server传过来的请求。

下图是更为详细的neutron server如何传送给plugin消息的:

(3)Plugin Agents介绍

These agents are specific to the Neutron plugin being used. They run on compute nodes and communicate with the Neutron plugin to manage virtual switches. These agents are optional in many deployments and perform local virtual switch configurations on each hypervisor.

Agent跑在compute节点之上,与neutron的plugin进行通信

ML2 的plugin都是属于core。分为type和mechanism两种。Type drivers (如flat, VLAN, GRE 和VXLAN) 定义 L2 type。 mechanism drivers (如OVS, adrivers from ODL, Cisco, NEC, etc) 负责一系列动作(更新、创建、删除)网络、子网、端口。

整个过程可以分为下面几个步骤:

1.用户通过OpenStack的界面(horizon)输入消息给networking API,再发送给Neutron server

2.Neutron server接受信息发送给plugin

3.Neutron server/plugin 更新DB

4.Plugin通过REST API发送消息给SDN控制器

5.SDN控制器接受消息然后通过南向的plugins/protocols, 如OpenFlow, OVSDB or OF-Config.

3.ml2驱动脚本实现

下面是ml2驱动脚本“mechanism_gnflush.py”用于设置计算节点和网络节点与数据中心SDN控制器对接的配置。主要是将openstack的信息传递给SDN控制器。

ODL_NETWORK = 'network'
ODL_NETWORKS = 'networks'
ODL_SUBNET = 'subnet'
ODL_SUBNETS = 'subnets'
ODL_PORT = 'port'
ODL_PORTS = 'ports'

#下面是创建、更新、删除、网络组件的代码

def create_network_postcommit(self, context):
    self.synchronize('create', ODL_NETWORKS, context)
def update_network_postcommit(self, context):
    self.synchronize('update', ODL_NETWORKS, context)
def delete_network_postcommit(self, context):
    self.synchronize('delete', ODL_NETWORKS, context)
def create_subnet_postcommit(self, context):
    self.synchronize('create', ODL_SUBNETS, context)
def update_subnet_postcommit(self, context):
    self.synchronize('update', ODL_SUBNETS, context)
def delete_subnet_postcommit(self, context):
    self.synchronize('delete', ODL_SUBNETS, context)
def create_port_postcommit(self, context):
    self.synchronize('create', ODL_PORTS, context)
def update_port_postcommit(self, context):
    self.synchronize('update', ODL_PORTS, context)
def delete_port_postcommit(self, context):
    self.synchronize('delete', ODL_PORTS, context)
#下面是把端口绑定到子网的代码
def bind_port(self, context):
        LOG.debug(_("Attempting to bind port %(port)s on "
                    "network %(network)s"),
                  {'port': context.current['id'],
                   'network': context.network.current['id']})
        for segment in context.network.network_segments:
            if self.check_segment(segment):
                context.set_binding(segment[api.ID],
                                    self.vif_type,
                                    self.vif_details,
                                    status=n_const.PORT_STATUS_ACTIVE)
                LOG.debug(_("Bound using segment: %s"), segment)
                return
            else:
                LOG.debug(_("Refusing to bind port for segment ID %(id)s, "
                            "segment %(seg)s, phys net %(physnet)s, and "
                            "network type %(nettype)s"),
                          {'id': segment[api.ID],
                           'seg': segment[api.SEGMENTATION_ID],
                           'physnet': segment[api.PHYSICAL_NETWORK],
                           'nettype': segment[api.NETWORK_TYPE]})

Openstack计算节点和网络节点配置

实验环境为CentOS7+OpenStack Juno , SDN 控制器为DCFabric。

步骤一: 工具脚本获取

在“tools/openstack-tools”目录下有shell脚本“gnflush-controller.sh”和ml2驱动脚本“mechanism_gnflush.py”用于设置计算节点和网络节点与数据中心SDN控制器对接的配置。(mechanism_gnflush.py(根据openstack官网的ODL plugin更改),mechanism_gnflush.py会在附录提供)将“mechanism_gnflush.py”这个脚本拷贝到Openstack控制节点服务器上如下目录下:

/usr/lib/python2.7/site-packages/neutron/plugins/ml2/drivers/

将“gnflush-controller.sh”拷贝到服务器上任意目录后续使用。

步骤二:关闭相关服务

在所有Openstack计算节点和网络节点上服务器上执行如下命令(CentOS):

systemctl stop neutron-server
systemctl stop neutron-openvswitch-agent
systemctl disable neutron-openvswitch-agent

步骤三:配置ml2 plugin

在数据中心文件“/usr/lib/python2.6/site-packages/neutron-2014.1.3-py2.6.egg-info/entry_points.txt”中“[neutron.ml2.mechanism_drivers]”配置节点下增加GNFlush控制器ML2 plugin的entry point:

gnflush = neutron.plugins.ml2.drivers.mechanism_gnflush:GNFlushMechanismDriver

步骤四:配置ml2

配置ml2前,需要准备如下信息:

✔ 租户网络类型:管理员可以根据需要选择“gre”或者“vlan”。

✔ 控制器IP地址:数据中心SDN控制器所在服务器的IP地址。

✔ 控制器Rest服务端口:Rest服务监听端口需要查看SDN控制器配置文件中“[rest_port]”配置,默认为“8081”

在Openstack控制中心服务器上执行如下命令修改ml2配置,以租户网络类型为“gre”为例:

crudini --set /etc/neutron/plugins/ml2/ml2_conf.ini ml2 mechanism_drivers gnflush
crudini --set /etc/neutron/plugins/ml2/ml2_conf.ini ml2 tenant_network_types vxlan

在“/etc/neutron/plugins/ml2/ml2_conf.ini”文件最后面添加“ml2_gnflush”的选项:

[ml2_gnflush] 
password = admin 
username = admin 
url = http://192.168.53.3:8081/gn/neutron

步骤五:配置Openvswitch

配置前,需要准备如下信息:

✔ 本地IP:当前服务器的IP地址。

✔ 网卡名称:用于建立隧道的物理网卡。

✔ 控制器IP地址:数据中心SDN控制器所在服务器的IP地址。

在所有Openstack计算节点和网络节点上服务器上执行如下命令,可以通过“--help”选项查看帮助信息:

sh gnflush-controller.sh --local_ip 192.168.53.52 --provider_mappings eth1 --gnflush_ip 192.168.53.3

步骤六:启动相关服务

执行如下命令启动服务:

systemctl start neutron-server

这个是自主开发的DCFabric的拓扑图。下图是已经连接OpenStack的Open vSwitch。

原文发布于微信公众号 - SDNLAB(SDNLAB)

原文发表时间:2016-07-10

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏小白安全

可以被XSS利用的HTML标签和一些手段技巧

XSS让我们在渗透中有无限的可能,只要你发挥你的想象。  引用一位前辈总结的很贴切的一句话——“XSS使整个WEB体系变得具有灵性” 。 网上关于XSS的教程数...

45890
来自专栏晨星先生的自留地

从协议提取到多功能RDP识别脚本

38980
来自专栏北京马哥教育

Python 开发者的 6 个必备库

https://www.oschina.net/translate/6-essential-libraries-for-every-python-develop...

21570
来自专栏编程

6款好用的C语言编译器推荐

一些刚开始接触C语言编译的网友想下载一款C语言编译器来使用,不过,网络上有不少C语言编译器相关的软件,让人很难抉择。那么,C语言编译器哪个好?今天的文章里,我给...

1.2K80
来自专栏程序员的SOD蜜

“设计应对变化”--实例讲解一个数据同步系统

 系列文章索引: [WCF邮件通信系统应用 之 数据同步程序 之 设计内幕 之 一] 同步一个数据库要发多少个数据包? [WCF邮件通信系统应用 之 数据同步...

27970
来自专栏FreeBuf

在渗透测试中使用fuzz技术(附windows安装指南)

前言:本文翻译自‍‍‍‍sans.org,有删节。在学习sulley的过程中发现中文参考资料很少,所以抛砖引玉翻译一下,希望对学习协议fuzz测试的同学有帮助。...

31470
来自专栏逍遥剑客的游戏开发

OGRE + MinGW + Code::Blocks环境的搭建

23070
来自专栏Golang语言社区

聊一聊goroutine stack

推送在外卖订餐中扮演着重要的角色,为商家实时接单、骑手实时派单提供基础的数据通道。早期推送是由第三方服务商提供的, 随着业务复杂度的提升、订单量和用户数的持续增...

67250
来自专栏北京马哥教育

Python 开发者的 6 个必备库

来自:开源中国 协作翻译 链接: https://www.oschina.net/translate/6-essential-libraries-for-e...

50170
来自专栏程序猿DD

优雅处理你的Java异常

来源:https://my.oschina.net/c5ms/blog/1827907

31420

扫码关注云+社区

领取腾讯云代金券