在云数据中心环境中虚机迁移是最常见的,可通过管理员手工迁移以及通过虚机自动感知服务器负载来动态迁移,无论哪种迁移方式都要尽量做到迁移前后用户无感知,也是最基本的要求。
根据 CPU 访问内存中地址所需时间和距离我们可以将CPU和内存结构分为SMP(SMP,Symmetric Multi-Processor,也称之为一致内存访问UMA)、NUMA和MPP(Massive Parallel Processing)三种结构。而我们在虚拟化环境中常用的结构包括SMP和NUMA这两种。相对SMP(UMA)来说,NUMA具有更加好的扩展性。NUMA将CPU和相近的内存配对组成节点,在每个NUMA节点里,CPU都有本地内存,访问距离短,性能好。NUMA比SMP具有更好的扩展性,SMP使用共享内存控制器,所有的CPU使用共享内存总线访问内存,如图1所示。在CPU不多的时候,SMP可以很好地工作,但是一旦CPU的数量很大的时候,这些 CPU 既可能造成内存总线的压力,也可能发生CPU之间相互“争夺”对共享内存总线的访问。NUMA采用分组的形式,限制一个NUMA节点里面的CPU数量和内存大小,并使用缓存一致性内部连接总线将各个NUMA节点连接起来,如图2所示。在服务器CPU日益增多和虚拟化普及的时代,NUMA更能适应高密度虚拟化环境的要求。
前面几期主要介绍了数据中心中fabric网络架构以及部署网络自动化的关键技术,从本期开始我们将注意力下移到服务器。
在计算虚拟化大致可分为CPU虚拟化、内存虚拟化、I/O虚拟化,本期我们来聊聊内存虚拟化技术。在物理服务器中可以根据不同的计算需求配置不同容量的内存,如最常见的是配置256G以及512G。在虚拟化环境中这些内存会分配给不同的虚机使用。
编者按:毋庸置疑,Docker在开源技术圈里是一个现象级的存在。随着Docker的兴起,整个行业都在经历一场从“虚拟化”到“容器化”的变革,而这个变革实际上是一场从“面向机器”到“面向应用”的转变。 机器 vs 应用 传统的虚拟化技术是为了模拟硬件设备而设计的。我们今天所熟知的虚拟机(VM)则是这个思路的一个副产品。一个虚拟机运行了一个完整的操作系统,简称”机器“。虚拟机运行的方式和物理机完全一致,保证了应用程序,操作系统和硬件三者之间的协议不变。因此,在一个虚机的世界里,工作跟过去都差不多,应用也无需调整
1、无论是vMotion还是Storage vMotion都需要专用的VMkernel网络来迁移虚拟机,所以需要在各ESXi主机上为vMotion配置专用的网络,并且考虑到性能的问题,最好为vMotion网络绑定专用的网卡。vMotion要求网络带宽至少为千兆,并且要求源主机和目标主机具有相同的网络配置,包括网络类型和网络标签都要一致。
KVM的发展路线就是逐步从软件模拟到硬件辅助,内存虚拟化的本质就是实现客户机虚拟地址 (Guest Virtual Address, GVA) 到宿主机物理地址之间的转换, 其主要发展历程就是从最初的影子页表到硬件辅助实现的EPT/NPT页表,对于影子页表KVM需要为每个客户机的每个进程的页表都要维护一套相应的影子页表, 这会带来较大内存上的额外开销,此外,客户机页表和和影子页表的同步也比较复杂。 因此,Intel 的 EPT(Extent Page Table) 技术和 AMD 的 NPT(Nest Page Table) 技术都对内存虚拟化提供了硬件支持。
今天聊的网络虚拟化和前面几期文章中提到的Fabric上SDN中实现的网络虚拟化还不一样,此处网络虚拟化是指在服务器内部如何为虚机提供联通和通向外网时提供网络部分,和SDN实现的网络虚拟化相比没有那么丰富、节点数量也不如后者多。在服务器为主体的网络虚拟化中虚拟交换机和虚拟网卡是2个至关重要的组件。
概述:虚拟化是一个广义术语,通常是指计算元件在虚拟的基础上而不是真实的基础上运行,是一个为了简化管理,优化资源的解决方案.服务器虚拟化则是一项用以整合基于x86服务器,来提高资源利用效率和性能的技术.本文从企业业务系统和管理角度出发,着重分析研究了X86技术架构下,虚拟网卡与SR-IOV、NUMA、虚拟磁盘格式相应的特点,并探索了不同应用场景下的资源划分和性能优化方案,希望能够通过多应用系统下的实践和最优配置,来提高X86服务器的性能和资源利用效率.
前言 本文先介绍一下VLAN Trunk的基本概念,以及OpenStack Neutron和OpenFlow based SDN是如何为Trunk port提供网络支持。OpenStack对VLAN Trunk的支持具体是什么?虽然OpenStack与容器,物理主机也做了集成,但是OpenStack最主要的应用还是虚机管理,而现代的操作系统,不论是Linux还是Windows,都支持将网卡配置成Trunk port。OpenStack对VLAN Trunk的支持就是指对OpenStack所管理的虚机的Tru
多产品模拟能力:支持数据通信产品线NE路由器、CE交换机、S交换机、AR路由 器、USG防火墙等,并持续更新支持网元类型。
其中,KVM 全称是 基于内核的虚拟机(Kernel-based Virtual Machine),它是一个 Linux 的一个内核模块,该内核模块使得 Linux 变成了一个 Hypervisor:
内容来源:2018 年 10 月 24 日,VMware高级讲师寇雪旭在“VMware技术专题分享”进行《NSX高级路由架构》演讲分享。IT 大咖说(微信id:itdakashuo)作为独家视频合作方,经主办方和讲者审阅授权发布。
继上一篇kvm虚拟化管理平台WebVirtMgr部署-完整记录(1),接下来说说WebVirtMgr的日常配置:添加宿主机,创建虚机,磁盘扩容,快照等 具体操作记录如下: 一、配置宿主机 1、登录We
在过去的几年中,由于微服务架构(Microservices architecture)能够提供高级别的软件可扩展性,因此十分流行。尽管大多数组织都能够接受这种架构模式,但是他们也或多或少地遇到了,诸如如何将应用程序分解成为基于微服务的模式等多方面的挑战。
本文介绍linux服务器安装keepalive服务,结合腾讯云的HAVIP(高可用虚拟IP)配置云服务器主备实验
随着业务复杂度在不断的提高, 我们的的应用被拆分成了若干个小部分, 各尽其职, 其中有些单元通过接口暴露被其他单元调用, 有些单元会出现一些问题让我们无法在正式环境上去操作, 而测试环境又不动, 因此搞一个虚拟的化的开发环境就被提上了日程.
容器(container),并不是一种虚拟化(virtualization)技术,而是一种进程隔离(isolation)技术,从内核空间、资源和安全等方面对进程做隔离。
本期我们继续就计算虚拟化的议题来聊聊虚机特性,虚机与物理机区别在于虚机与物理硬件设备解耦,可根据资源利用情况灵活的迁移、同时只要硬件资源够用可以创建多个虚机承载相应业务,所以其扩展性也比物理服务器强很多。除此之外虚机还有很多重要特性如“HA、DRM、DPS等”,本期我们来剖析这些虚机特性。
一、前言 这篇文章可以解决哪些问题? 宿主机(Hyper-V服务器所在的物理机)与虚拟机网络互通问题 虚拟机访问Internet问题 解决方案的使用范围? 理论上所有Hyper-V皆适用 二、操作 打
之前已经测试了Windows Server 2012系统群集,接下来将测试Windows Server 2012 Hyper-V群集功能,实现虚机高可用
由于加入vlan,使得原本在同一网段的两台电脑无法通信。因此干脆在vlan配置时,尽量一个vlan对应一个网段,这样方便后期管理(如不同部门占用不同网段,处于不同vlan)。
宿主机物理内存 - 系统保留内存4GB - N个虚拟机物理内存 - (N个虚拟机 * 2GB虚拟机管理内存)
为方便阅读和分享,应读者要求,把《云原生应用战略》上、下两篇合并发表。作为福利,新增加了vSphere Integrated Container的演示视频。
2016年基于EVPN+VXLAN的局域网SDN技术发端以来,在短短的三年来,已经取得了巨大的成功,如果某家网络方案供应商对该方案支持不完善,将会被排挤出主流圈子,而在大型数据中心或园区网络项目中,SDN的需求也逐渐成为必选项。
这里在回顾一下 Java 程序在运行时都有哪些数据区域,如果没跟 lvgo 一起学的同学,可以看看之前的文章 《 你创建的 Java 对象都搁哪了》
在系统运行过程中,由于各种服务、应用、进程等长时间的运行,势必会产生各种问题,这些问题很反馈在内存的特性中,下面就来看一下几个最常见的内存故障及其解决方案。
虚拟机提供了多个用于创建和管理快照及快照链的操作。通过这些操作,您可以创建快照、还原到链中的任意快照以及移除快照。可以创建层层快照树。
目前主要的 CPU 虚拟化技术是 Intel 的 VT-x/VT-i 和 AMD 的 AMD-V 这两种技术。
第一种方法: 通过挂载云硬盘到云服务器上,将kali镜像刻录到挂载的云硬盘中,利用VNC可视化安装kali系统;查看详情
在去年VMworld大会时VMware宣布了全面支持容器,并前瞻性的指出容器和虚机是”Better together”的。转眼间一年过去了,在今年刚结束的VMworld大会上,VMware发布了一系列和容器相关的技术和产品,我们逐渐清晰地看到VMware在云原生应用(Cloud Native Apps)领域的布局和蓝图,仿佛一幅宏大的画卷缓缓地展现在我们面前。
前段时间研读了公安部发布的等保2.0安全标准,有了一些自己的理解来今天来和大家分享一下,等保2.0的中心思想是“一个中心,三重防护”,一个中心指的是打造一个安全管理中心,三重防护指的是边界安全防护、通信安全防护、计算安全防护。2.0和1.0相比,在现有1.0通用安全要求之上增加了云计算安全、移动互联安全、物联网安全、工控系统安全、大数据安全等5个方面的内容。
为了减少购买昂贵的内存资源,可以暂时使用虚拟内存代替(根据运行的程序需求,性能会降低一些)。
和普通的 VPS 相比,裸金属服务器属于物理服务器,我的数据和其他用户数据做到了物理隔离,同时服务器本身是支持二次虚拟化的。
Serverless Computing,即”无服务器计算”,这一概念在刚刚提出的时候并没有获得太多的关注,直到2014年AWS Lambda这一里程碑式的产品出现。通过将无服务器计算的概念嵌入到整个云计算服务的整体产品框架中,无服务器计算正式走进了云计算的舞台。2017年,AWS发布了Fargate产品以充实自己的无服务器计算产品线。
部署一个单体式应用意味运行大型应用的多个副本,典型的提供若干个(N)服务器(物理或者虚拟),运行若干个(M)个应用实例。部署单体式应用不会很直接,但是肯定比部署微服务应用简单些。 一个微服务应用由上百个服务构成,服务可以采用不同语言和框架分别写就。每个服务都是一个单一应用,可以有自己的部署、资源、扩展和监控需求。例如,可以根据服务需求运行若干个服务实例,除此之外,每个实例必须有自己的CPU,内存和I/O资源。尽管很复杂,但是更挑战的是服务部署必须快速、可靠和性价比高。 有一些微服务部署的模式,先讨论一下每个主机多服务实例的模式。
4) 方案生命周期长,从整体角度,综合多个游戏项目,长远来看,能节省大量重复性硬件投入成本;
上一篇文章已经介绍了 如何获取 EVE-NG 模拟器安装包,同时我们知道 EVS-NG 提供两种类型的安装包,一种是 OVF 包 (导入虚拟化平台使用,个人学习用),另一种是 ISO 镜像文件 (直接安装在物理机上使用,性能高),我们可以根据不同需要选择不同类型的安装包,这里我们已经把最新的两种类型的安装包都准备好了,如下,EVE-COMM-VM-112为 OVF包,EVE-20171007为 ISO镜像文件:
一、首先我们来看看传统数据中心的架构。一般外围是路由器、Firewall,核心是三层交换机(旁挂安全设备),底层是二层交换机、服务器、存储设备。服务器一般是专机专用,不具备弹性。同时整个系统架构一般只为一个单位、公司服务,
VPC为弹性云服务器构建隔离的、用户自主配置和管理的虚拟网络环境,提升用户云中资源的安全性,简化用户的网络部署。使用弹性文件服务时,文件系统和云服务器归属于同一VPC下才能文件共享。VPC可以通过网络ACL进行访问控制。网络ACL是对一个或多个子网的访问控制策略系统,根据与子网关联的入站/出站规则,判断数据包是否被允许流入/流出关联子网。
注意:qcow2磁盘格式必须采用此方式进行扩展,不要采用dd方式,dd方式适用于raw格式。
ESXi专为运行虚拟机、最大限度降低配置要求和简化部署而设计。只需几分钟时间,客户便可完成从安装到运行虚拟机的全过程,特别是在下载并安装预配置虚拟设备的时候。
翻译过程也是一个近距离和技术对话的过程,从字里行间理解、揣摩技术的精髓,在翻译成中文的时候斟酌,是一个反复理解的过程,最终的收获是知识。
运行VMware Workstatioin的机器必须拥有64比特的CPU,而CPU也必须支持VT-X技术
大家都对个人电脑的 CPU 有不少的了解,但对服务器 CPU 没有亲眼见过。所以总会有人会产生疑问,把我自己的 PC 办公电脑上的 CPU 拔下来插到服务器上行不行。
在B/S应用中的双活设计一般考虑三个层次,分别是WEB层、APP层、DB层。一般web层的虚机不需要进行跨数据中心集群部署,因为web是无状态的,所以可以在2个数据中心独立进行集群部署,同时在每个数据中心部署独立的SLB,可以把SLB和WEB组合为一个资源池协同提供web相关服务。
Linux 内核层 Android 系统是基于 Linux 2.6 内核的,这一层为 Android 设备的各种硬件提供了底 层的驱动,如显示驱动、音频驱动、照相机驱动、蓝牙驱动、Wi-Fi 驱动、电源管理等。 系统运行库层 这一层通过一些 C/C++库来为 Android 系统提供了主要的特性支持。如 SQLite 库提 供了数据库的支持,OpenGL|ES 库提供了 3D 绘图的支持,Webkit 库提供了浏览器内核 的支持等。 同样在这一层还有 Android 运行时库,它主要提供了一些核心库,能
领取专属 10元无门槛券
手把手带您无忧上云