在介绍VMQ之前,我们先来看看在传统的物理服务器上,网卡是如何接收网络数据的。在多核CPU出现的时候,因为网卡不支持将网络流量中断到多个逻辑核而是中断到其中一个逻辑核进行处理,这样就造成CPU使用不平均以及降低了CPU处理网络流量的效率,如图1所示。
在实现该网络模型时,为了应对不同的使用场景,TKE(Tencent Kubernetes Engine)提供了 Global Router 和 VPC-CNI 两种网络模式。本文中,我们将通过这两种模式下数据包的转发流程来分析这两种模式各自的实现原理。本文还会对比分析不同网络模式下的网络效率和资源使用情况,以便于大家在创建 TKE 集群时根据应用对网络的需求和使用成本选择合适的网络模型。
内容来源:2018 年 10 月 24 日,VMware高级讲师寇雪旭在“VMware技术专题分享”进行《NSX高级路由架构》演讲分享。IT 大咖说(微信id:itdakashuo)作为独家视频合作方,经主办方和讲者审阅授权发布。
特别说明:本文于2015年基于OpenStack M版本发表于本人博客,现转发到公众号。因为时间关系,本文部分内容可能已过时甚至不正确,请注意。
大家晚上好,今天我来分享一些云杉在网络运维中的所做所想,现在开始密集轰炸了。相信不少人看到了云杉年初发布的NSP解决方案,以及上周的新闻稿。我今天主要讲的也是2Cloud NSP,中的一环2Cloud Aladdin:谈谈云中网络运维。 一般人们关注SDN都是在控制能力上,都希望了解能用SDN实现哪些新功能。但SDN真的要跑严肃业务,运维是非常重要的。举个例子 这是云。管理员收到了报障,有个虚机不通了。这时候他应该怎么办?这套云网络不是以往托管机房的网络,他不知道故障到底在哪。可能在公网,可
特别说明:本文于2015年基于OpenStack M版本发表于本人博客,现转发到公众号。因为时间关系,本文部分内容可能已过时甚至不正确,请读者注意。
容器技术是最近几年非常热门的技术,它似乎就是为云端的应用量身定制的,所以它也被贴上了云原生应用 (Cloud Native Application) 技术的标签。目前最为流行的容器管理调度平台是 Kubernetes (缩写为 K8s),是 Google 为支持大批量容器而开发的企业级运行平台,可以支持负载均衡、高可靠等生产级功能。
前言 2022年9月2日,第二届SmartNIC & DPU技术创新峰会在北京成功举办。 去年在第一届峰会上,腾讯以《从SmartNIC到DPU,腾讯自研智能网卡的“小才大用”》为分享主题,介绍了腾讯云为解决单服务器“核爆炸”,CVM和Bare metal统一算力底座,降低总体成本为目的,自研了水杉和银杉两代DPU。 今年在水杉和银杉已经历长时间上线和运营挑战的背景下,腾讯在第二届峰会上做了《行稳致远:腾讯自研DPU商用情况与技术演进》为主题的分享,以“行稳”和“致远”两个部分,介绍了腾讯自研DPU如何应对
今天聊的网络虚拟化和前面几期文章中提到的Fabric上SDN中实现的网络虚拟化还不一样,此处网络虚拟化是指在服务器内部如何为虚机提供联通和通向外网时提供网络部分,和SDN实现的网络虚拟化相比没有那么丰富、节点数量也不如后者多。在服务器为主体的网络虚拟化中虚拟交换机和虚拟网卡是2个至关重要的组件。
前言 2022年9月2日,第二届SmartNIC & DPU技术创新峰会在北京成功举办。 去年在第一届峰会上,腾讯以《从SmartNIC到DPU,腾讯自研智能网卡的“小才大用”》为分享主题,介绍了腾讯云为解决单服务器“核爆炸”,CVM和Bare metal统一算力底座,降低总体成本为目的,自研了水杉和银杉两代DPU。 今年在水杉和银杉已经历长时间上线和运营挑战的背景下,腾讯在第二届峰会上做了《行稳致远:腾讯自研DPU商用情况与技术演进》为主题的分享,以“行稳”和“致远”两个部分,介绍
在云数据中心环境中虚机迁移是最常见的,可通过管理员手工迁移以及通过虚机自动感知服务器负载来动态迁移,无论哪种迁移方式都要尽量做到迁移前后用户无感知,也是最基本的要求。
尽管HAProxy非常稳定,但仍然无法规避操作系统故障、主机硬件故障、网络故障甚至断电带来的风险。所以必须对HAProxy实施高可用方案。
当你使用以太通道进行网卡绑定时,ESXi 主机中的虚机网络连接有时会出现时断时续现象。之所以出现此问题,是因为网卡绑定属性没有传播到 ESXi 中的管理网络端口组。
概述:虚拟化是一个广义术语,通常是指计算元件在虚拟的基础上而不是真实的基础上运行,是一个为了简化管理,优化资源的解决方案.服务器虚拟化则是一项用以整合基于x86服务器,来提高资源利用效率和性能的技术.本文从企业业务系统和管理角度出发,着重分析研究了X86技术架构下,虚拟网卡与SR-IOV、NUMA、虚拟磁盘格式相应的特点,并探索了不同应用场景下的资源划分和性能优化方案,希望能够通过多应用系统下的实践和最优配置,来提高X86服务器的性能和资源利用效率.
虚拟化技术大规模使用带来虚拟机之间的网络通信流量不可视、虚机迁移带来的边界动态变化,Overlay隧道封装等问题使得云数据中安全防护变得异常复杂。 天融信与VMware深度合作,推出虚拟化分布式防火墙NSX版。基于零信任,微分段机制为用户每个虚机提供贴身防护,从根本上为用户解决当前云环境下存在的东西向流量安全问题。
我们知道dvr模式下,l3-agent在每个计算节点生成了一个vrouter,服务于此计算节点上的虚机,计算和网络结合的地方在于port,虚机在哪个计算节点是通过port的binding:hostid知道的。虚机绑定floating ip,外出流量到qrouter namespace做SNAT,再根据ip rule查路由到fip namespace,在fip namespace配置一条路由,开启proxy_arp,把回来的流量先引到fip namespace,再转给qrouter namespace做DNAT。
在私有云的业务场景中,常见的通信中包含了同VPC内虚机互访、不同VPC之间的虚机互访、VPC访问Underlay资源、VPC访问Internet资源、VPC提供服务,被Internet访问、VPC与专线网络之间互访等;实际应用中,大多数云业务通信场景都需要依赖安全、NAT、负载等边界设备组合使用来实现,云承载网络中与边界设备对接的Leaf节点我们通常定义为Border角色。
5 SDN Overlay组网方案设计 Overlay控制平面架构可以有多种实现方案,例如网络设备之间通过协议分布式交互的方式。而基于VCF控制器的集中式控制的SDN Overlay实现方案,以其易于与计算功能整合的优势,能够更好地使网络与业务目标保持一致,实现Overlay业务全流程的动态部署,在业界逐步成为主流的Overlay部署方案。 5.1 SDN Overlay组网模型 📷 图14 SDNOverlay组网模型 如上图所示,H3C的SDN Overlay组网同时支持网络
共享存储是使用传统方式建立的,即创建共享的虚拟磁盘,然后写multi-writer。经查询如下参考文档:
前段时间研读了公安部发布的等保2.0安全标准,有了一些自己的理解来今天来和大家分享一下,等保2.0的中心思想是“一个中心,三重防护”,一个中心指的是打造一个安全管理中心,三重防护指的是边界安全防护、通信安全防护、计算安全防护。2.0和1.0相比,在现有1.0通用安全要求之上增加了云计算安全、移动互联安全、物联网安全、工控系统安全、大数据安全等5个方面的内容。
刚接触网络的一段时间里,作者经常把数据中心和云等同在一起来看待,以为数据中心就是成群的虚拟机和各种神秘的转发设备,支撑着“按需服务”的商业模型。后来才慢慢意识到,这是两个交织在一起但完全不同的概念。数据中心是把服务器放在一起统一进行管理的技术,属于社会分工的产物。大型的公司通常自建私有的数据中心,而没有足够财力的小公司就只能租用公共数据中心的IT资源。云是数据中心一种高度进化的形态,开启了“按需租用”的商业模式,可以说是IT集约化运营的趋势催生了云计算。云计算数据中心成为了近十年来IT界的弄潮儿,对原有的计
在设计云数据中心网络时为了保证业务正常运行的同时,通常也需要按需定义出租户所需要的服务链。从而使得业务流量(东西向流量或者南北向流量)按照租户实际需求灵活的调用L4-L7层服务链。通常利用SDN控制器把VAS硬件设备上创建的一些虚拟的VAS实例,让业务流经过SDN软件定义出来的VAS实例,把经过多个VAS实例的访问路径成为服务链(SFC)。
2019年6月爱奇艺会员规模突破1亿,爱奇艺的会员服务业务随之迅速增长,同时也带来了机器集群规模的增加,原有的监控体系也暴露出一些问题。数据监控体系是业务维持稳定服务的基石,会员日志监控体系形成闭环,从网络、应用、异常、页面加载多维度监控,极大提高了系统的成功率、稳定性,对会员视频播放、营销、下单等核心功能增强异常感知。
我今天和大家分享一下Docker的网络,主要是基于我的使用体验和对这里面的一些技术的理解,也顺便听取一下大家的建议。我是做培训的,大多数时候和理论的东西打交道, 顺便做一些实验,为了讲课的时候不那么虚
https://tungstenfabric.org.cn/assets/uploads/files/tf-live4-sdn.pdf
作者简介 黄玉栋,北京邮电大学网络与交换国家重点实验室博二在读,研究方向为网络体系架构,确定性网络,邮箱地址: hyduni@163.com. 今年4月谷歌在NSDI顶级会议上发表了Aquila架构方案[1],随后8月,阿里在SIGCOMM顶级会议上发表uFAB架构方案[2],均提出了要将数据中心网络从从“低时延大带宽”演进到“确定性可预期”的目标,开启了确定性数据中心网络研究的新纪元。那么,数据中心网络为什么需要确定性可预期?他们的实现方法又各自有什么异同和优缺点?有趣的是,两者恰好采用了不同的底层QoS
上一篇文章已经介绍了 如何获取 EVE-NG 模拟器安装包,同时我们知道 EVS-NG 提供两种类型的安装包,一种是 OVF 包 (导入虚拟化平台使用,个人学习用),另一种是 ISO 镜像文件 (直接安装在物理机上使用,性能高),我们可以根据不同需要选择不同类型的安装包,这里我们已经把最新的两种类型的安装包都准备好了,如下,EVE-COMM-VM-112为 OVF包,EVE-20171007为 ISO镜像文件:
答案是肯定的。mysql、apache在docker中运行,正好可以发挥容器其弹性的特点,根据不同的业务流量启动相应能力的容器数量。
随着IT环境的不断变化以及新技术的快速发展,新的客户需求下,新的隧道协议也随之被引入进来。从GRE到VXLAN、GENEVE,网络虚拟化技术得到了迅猛发展,VXLAN 已成为目前网络虚拟化Overlay的事实标准,那么,它与Geneve 有何区别与联系呢?
一、Openstack网络基础 下面对Openstack和Neutron的介绍,要从几个关键词入手。 1. 三代网络 在网络这一口,OpenStack经历了由nova-network到Quantum再到Neutron的演进过程。我们直观地来看看三代网络的对比分析: 📷 1)Nova-network是隶属于nova项目的网络实现,它利用了linux-bridge(早期,目前也支持OVS)作为交换机,具备Flat、Flat DHCP、VLAN三种组网模式。优点是性能出色,工作稳定,支持mu
1 实验目的 掌握Open vSwitch下发流表操作; 掌握添加、删除流表命令以及设备通信的原理。 2 实验原理 在SDN环境下,当交换机收到一个数据包并且交换机中没有与该数据包匹配的流表项时,交换机将此数据包发送给控制器,由控制器决策数据包如何处理。控制器下发决策后,交换机根据控制器下发的信息来进行数据包的处理,即转发或者丢弃该数据包。我们可以通过对流表操作来控制交换机的转发行为。 3 实验任务 本实验基于一台OpenDaylight Helium版本虚拟机和一台Mininet模拟实验。我们已安装相关环
笔者认为云网络中最核心的两点是:高性能与大规模。关于高性能网络的研究目前已经很多,在大规模网络方面早期 Google 云网络 Andromeda 提出了 Hoverboard 的解决方案。
作者简介:肖宏辉,毕业于中科院研究生院,思科认证网络互连专家(CCIE),8年的工作经验,其中6年云计算开发经验,关注网络,OpenStack,SDN,NFV等技术,OpenStack和ONAP开源社区活跃开发者。本文所有观点仅代表作者个人观点,与作者现在或者之前所在的公司无关。 去年看到过一篇文章,说是通过OpenVSwitch的测试,GENEVE的性能要略优于VXLAN。我相信大多数人的反应可能跟我的第一反应一样,这不又是一种Overlay协议吗?为什么性能会更好?难道有什么黑科技?我们这次来分析
1 实验目的 在实验平台上熟悉SDN原理操作,通过wireshark抓包工具可以直接看到控制器与OVS交换机的通信过程、分析OpenFlow(以下简写为OF)协议。具体的OF官方协议及白皮书可在SDNLAB资料库栏目中下载学习。 2 实验原理 控制器与交换机之间的OpenFlow协议是应用于TCP传输层上,所以解析应用层。他们首先发送hello消息,建立初始化连接,协商使用的OpenFlow协议版本。交换机通过消息回应配置信息,回复连接控制器的交换机的一些基本设置信息,包括交换机的能力以及它的一些端口的信息
测试环境3台Windows机器:跟黑石同子网的cvm、黑石、黑石里vmware workstation创建的虚机
近日,在第三届未来网络发展大会SDN/NFV技术与应用创新分论坛上,新华三解决方案部架构师孟丹女士发表了主题为《NFV资源池实现中的技术探讨》的主题演讲。
2、其实CloudStack更像是一个商业化过后的产品,有着非常好的用户界面,各个模块默认集成的很好,且安装与部署过程也相对容易一些。
负载均衡(Load Balance,简称LB)是一种服务器或网络设备的集群技术。负载均衡将特定的业务(网络服务、网络流量等)分担给多个服务器或网络设备,从而提高了业务处理能力,保证了业务的高可用性。负载均衡基本概念有:实服务、实服务组、虚服务、调度算法、持续性等,其常用应用场景主要是服务器负载均衡,链路负载均衡。
Kube-OVN开源以来,积累了各行业的用户实践,在KubeCON China 2021,来自字节跳动系统工程和技术团队(STE)的高级工程师费翔,带来了他和团队基于Kube-OVN做的场景落地和技术实现的分享。分享中梳理了字节团队技术选型过程,也同时也详细指出了基于社区版本之上,字节团队在实际应用场景下的技术拓展思路、成果,以及对社区未来功能的展望。
openstack的api只能扩展并且向前兼容,不能影响已经开发的云管和监控等业务。
1、实验目的 在实验平台上熟悉SDN原理操作,通过wireshark抓包工具可以直接看到控制器与OVS交换机的通信过程、分析OpenFlow(以下简写为OF)协议,。具体的OF官方协议及白皮书可在SDNLAB资料库栏目中下载学习。 2 实验原理 控制器与交换机之间的OpenFlow协议是应用于TCP传输层上,所以解析应用层。他们首先发送hello消息,建立初始化连接,协商使用的OpenFlow协议版本。交换机通过消息回应配置信息,回复连接控制器的交换机的一些基本设置信息,包括交换机的能力以及它的一些端口的信
增加节点的时候,应该给节点配分角色。给命名微controller的主机分配controller角色,给觉得命名微compute的主机分配compute的⻆⾊。分辨controller主机和compute主机主要是根据主 机的第⼀块⽹卡的MAC地址。
领取专属 10元无门槛券
手把手带您无忧上云