容器是当今IT界最热门的话题之一,很大程度上归功于许多网络公司如Facebook和Twitter的采用。 在过去的两年中,包括亚马逊网络服务(AWS)和谷歌计算平台(GCP)在内的主要云计算提供商已经通过产品化服务提供了Docker容器。 在DevOps环境中,开发人员越来越多地使用容器,开发人员可以自动执行应用程序和工作负载部署 集装箱也被吹捧为提高整体基础设施利用率的一种手段,因为与虚拟机(VM)相比,它们的设计轻巧,减少了部署,拆卸,重新实例化或迁移的时间。 在这篇文章中,我将评估使用容器的优势。
由于业务需求,在Google Cloud Platform (GCP)上面开了一台Windows的Computer Engine。跑了一段时间之后,远程桌面无法链接了,但是http等其他服务还是可以正常访问。
谷歌的技术基础设施共同构建了搜索、邮件(Gmail)、照片等普通用户系统和G Suite 、谷歌云存储平台等企业系统,是谷歌数据中心的关键,是整个谷歌网络服务赖以存在的安全基础。 FreeBuf在原文基础上,针对谷歌技术基础设施的安全设计作了简要分析与介绍,这些技术基础设施为谷歌全球信息系统提供了一系列安全防护,它们包括运行安全服务、终端用户数据安全存储、服务安全通信、用户安全通信和运维安全管理等。 在介绍中,我们将围绕谷歌数据中心的物理安全、整体软硬件基础安全、技术限制和操作的运维安全进行逐层描述。
Google Cloud Platform (以下简称GCP)是Google提供的云平台,。Google云平台提供很多功能,包括计算服务,存储服务,网络服务,大数据服务,人工智能服务,以及谷歌的产品等,可以用来搭建加速服务, 网站和存储数据等等。本文将介绍如何申请GCP一年的免费试用、Linux服务器环境搭建。Docker环境搭建,运行有意思的镜像。
自从2005年 Etsy 网站开始运营,Etsy.com 和大多数相关的服务就被部署在自托管的数据中心。今年早些时候,我们决定评估是否要把所有服务部署到云上。 当时,在我们自己的硬件上运营数据中心是一
本文包含的内容截至 2017 年 1 月是正确无误的,代表截至本文撰写之时的现状。由于我们会不断完善对客户的保护,因此 Google 的安全政策和制度可能会随着时间的推移而发生变化。
编辑手记:安全永远是第一重要的问题,无论是在本地还是在云端。 我们的安全团队的宗旨在于保护用户的数据。当我们开始实施将数据迁移到云Google的云服务的基础设施上时,我们一直在思考,如何在迁移的整个过程中保障数据的安全。考虑的方面主要包含以下几点: 当我们向Google表示了信任,选择他们作为我们数据保管人,他们是否有足够的成熟的安全控制措施,不会对我们的服务增加风险? GCP是否给予我们跟现有环境相当或更好的安全控制,以便我们用来保护客户数据? 与供应商建立信任 我们有一个内部供应商审核流程,包括我们的
周末去办公室收拾东西的时候,路过广场前面的Data Center大箱子,隔着玻璃瞧了一眼里面的结构。
本文介绍了Docker带来的五大益处,包括持续部署和测试、使用Docker容器、多种云平台、环境标准化和版本控制、隔离和安全以及快速启动和部署。通过使用Docker,开发人员可以更轻松地将应用部署到不同的环境中,并确保部署的一致性和安全性。
写下这篇文章的起因是前段时间我尝试在 K8s 上部署一个测试用简单 Web 服务器+ Service Mesh 做流量控制。查阅各种资料让我觉得线索繁杂,无意中刷到下面这张图,觉得它完美描述当时我的内心独白:
Cloudpods是一个开源的Golang实现的云原生的多云和混合云融合平台。Cloudpods不仅可以管理本地的虚拟机和物理机资源,还可以管理其他公有云和私有云平台的资源。
Google定制的打机器学习专用晶片称之为TPU(Tensor Processing Unit),Google在其自家称,由于TPU专为机器学习所运行,得以较传统CPU、 GPU降低精度,在计算所需的电晶体数量上,自然可以减少,也因此,可从电晶体中挤出更多效能,每秒执行更复杂、强大的机器学习模组,并加速模组的运用,使得使用者更快得到答案,Google最早是计划用FPGA的,但是财大气粗,考虑到自己的特殊应用,就招了很多牛人来做专用芯片TPU。
多亏了更快更好的计算,我们终于能利用神经网络和深度学习真正的力量了,这都得益于更快更好的 CPU 和 GPU。无论我们喜不喜欢,传统的统计学和机器学习模型在处理高维的、非结构化数据、更复杂和大量数据的问题上存在很大的局限性。 深度学习的好处在于,在构建解决方案时,我们有更好的计算力、更多数据和各种易于使用的开源框架,比如 keras、TensorFlow 以及 PyTorch。 深度学习的坏处是什么呢?从头开始构建你自己的深度学习环境是很痛苦的事,尤其是当你迫不及待要开始写代码和实现自己的深度学习模型的时候。
作者 | 韩建飞 2023 年 2 月 5-7 日,QCon 全球软件开发大会在北京举行。作为全球领先的智能终端科技企业,OPPO 云服务中心高级总监韩建飞受邀出席,并发表了题为《OPPO 全球混合云建设之路》的演讲,与现场开发者共同探讨 OPPO 在混合云领域的探索与实践。本文为韩建飞老师的现场演讲实录 大家好,我今天分享的主题是《OPPO 全球混合云建设之路》。 众所周知,OPPO 是一家智能终端科技企业,我们今天将从用户视角出发,和大家分享 OPPO 的全球混合云建设和使用经验。 今天的分享
首先还是拿个友商出来做对照。当初是在大四毕业的暑假到研究生的第一年期间考的VCP和VCAP,vSphere的版本还在6.5/6.7,放在今天多少有点过气。但我还是打算把VMware拎出来,看看VMware vSphere虚拟化架构。
本文介绍了 Docker 的五大优点,包括持续部署和测试、多云平台支持、环境标准化和版本控制、隔离性和安全性以及安全。Docker 可以确保应用程序在不同环境中的一致性,提高资源利用率并简化应用程序部署。
为了连接到 TPU,我们必须配置一台虚拟机(单独结算)。要注意的是虚拟机和TPU是分别计费的。
在这段2019年北美KubeCon视频中,Red Hat的David Vossel和NVIDIA的Vishesh Tanksale探索了KubeVirt背后的架构,以及NVIDIA如何利用该架构为Kubernetes上的GPU工作负载提供动力。以NVIDIA的GPU工作负载为例进行研究,它们提供了一个重点视图,以了解主机设备透传是如何通过KubeVirt完成的,并提供了一些性能指标,将KubeVirt与独立KVM进行比较。
本文将对云端环境中的横向移动技术和相关场景进行深入分析和研究,并给大家展示研究人员在云环境中观察到的一些威胁行为。云端环境中的横向移动可以通过利用云API和对计算实例的访问来实现,而云端级别的访问可能会扩展到后者。
既然主流 IT 工业都在采用基于容器的基础设施(云原生方案),那么了解这一技术的短板就很重要了。Docker、LXC 以及 RKT 等传统容器都是共享主机操作系统核心的,因此不能称之为真正的沙箱。这些技术的资源利用率很高,但是受攻击面积和潜在的攻击影响都很大,在多租户的云环境中,不同客户的容器会被同样的进行编排,这种威胁就尤其明显。主机操作系统在为每个容器创建虚拟的用户空间时,不同容器之间的隔离是很薄弱的,这是造成上述问题的根本原因。基于这样的现状,真正的沙箱式容器,成为很多研发工作的焦点。多数方案都对容器之间的边界进行了重新架构,以增强隔离。本文覆盖了四个项目,分别来自于 IBM、Google、Amazon 以及 OpenStack,几个方案的目标是一致的:为容器提供更强的隔离。IBM Nabla 在 Unikernel 的基础上构建容器;Google 的 gVisor 为运行的容器创建一个特定的内核;Amazon 的 Firecracker 是一个超轻量级的沙箱应用管理程序;OpenStack 将容器置入特定的为容器编排平台优化的虚拟机之中。下面对几个方案的概述,有助于读者应对即将到来的转型机会。
在我的职业生涯中,我有机会参与许多次面试,也进行过许多次面试。这种独特的位置让我对招聘过程有了更深入的理解,尤其是在DevOps领域。在这篇文章中,我渴望通过概述一些关键的面试问题,分享我积累的见解和知识,这些问题对于致力于推进职业生涯的DevOps工程师来说可能非常宝贵,无论您是准备进入就业市场还是希望提高面试技巧。
思科一直与Avi Networks保持密切的合作,Avi Networks的主要业务是提供应用交付控制器服务,本周思科加入了Avi Networks的新一轮融资。
有了能做出惊人预测的模型之后,要做什么呢?当然是部署生产了。这只要用模型运行一批数据就成,可能需要写一个脚本让模型每夜都跑着。但是,现实通常会更复杂。系统基础组件都可能需要这个模型用于实时数据,这种情况需要将模型包装成网络服务:这样的话,任何组件都可以通过REST API询问模型。随着时间的推移,你需要用新数据重新训练模型,更新生产版本。必须处理好模型版本,平稳地过渡到新版本,碰到问题的话需要回滚,也许要并行运行多个版本做AB测试。如果产品很成功,你的服务可能每秒会有大量查询,系统必须提升负载能力。提升负载能力的方法之一,是使用TF Serving,通过自己的硬件或通过云服务,比如Google Cloud API平台。TF Serving能高效服务化模型,优雅处理模型过渡,等等。如果使用云平台,还能获得其它功能,比如强大的监督工具。
作者:Fabian Kammel (Edgeless Systems), Mikko Ylinen (Intel), Tobin Feldman-Fitzthum (IBM)
论文《CrystalNet: Faithfully Emulating LargeProduction Networks》【中文翻译版 CrystalNet:超逼真地仿真大型生产网络】描述了微软在大型仿真网络方面的学术研究成果,也揭示了部分技术细节和架构实现方法。2018年,微软将其更名为开放网络仿真器(Open Network Emulator,简称ONE),该仿真器可以通过模拟整个Azure网络基础架构,来查找最终导致网络中断的Bugs、故障和其他恶意软件,并且微软打算开源这项技术。就公布的论文来看,本文将着重基于论文的理解简要提炼微软在实现Azure网络基础架构仿真方面的技术实践。
①、网络是openstack最重要的资源之一,没有网络,虚拟机将被隔离。Openstack的网络服务最主要的功能就是为虚拟机实例提供网络连接,最初由nova的一个单独模块nova-compute实现,但是nova-compute支持的网络服务有限,无法适应大规模、高密度和多项目的云计算,现已被专门的网络服务项目Neutron所取代。
大家好,我叫范恂毅,现在在阿尔卡特朗讯企业通信(ALE)担任售前。我首先说明一句,我的公司,我们的业务,与VMware NSX没有直接关系。我研究NSX技术,纯粹是兴趣——我最早接触SDN时,得知了SDN的理念和Openflow协议都来自一个叫Nicira的公司,这个公司还是Open vSwitch的开发者。那时候,Nicira已经被VMware收购了。我个人认为Nicira技术才是最纯粹最原生态的SDN和网络虚拟化。因此,VMware收购Nicira一年后,推出NSX解决方案后,我就一直在研究它。群里绝大
作者 | Omer Hamerman 译者 | 明知山 策划 | 丁晓昀 在 IT 行业,我们经常会听到诸如云计算、容器、无服务器框架等术语。 那么什么是云计算?容器是如何工作的?函数又如何变成无服务器的? 本文将尝试解读这些技术术语,并探索开发人员应该如何在技术栈中考虑采用容器或无服务器函数。 例如,如果你的应用程序启动时间较长,那么容器可以更好地满足你的需求。 需要进行大规模伸缩的高效无状态函数将从运行无服务器函数中受益。 容器的工作原理 容器 是被打包好的应用程序,包含了代码以及必要的库
在前几期,我们提到,在Linux下,可以利用IO虚拟化技术为虚拟机添加一个完全虚拟或半虚拟的网卡或磁盘,也可以将物理设备直通给虚拟机,还可以将支持SR-IOV的网卡等设备一虚多,并将虚拟化的设备给虚拟机使用。
由于IaaS在堆栈中的位置较低,因此很难获得特定的安全指导,因为最佳实践需要适应不同的用法。但也有一些IaaS安全最佳实践可供选择,可以在云计算提供商和使用场景中普遍应用。在使用IaaS产品之前,组织的信息安全负责人需要确保他们了解云计算提供商的安全模型。
笔者之前也分享过vSAN延伸集群的一些资料。在双活的设计中,站点之间带宽预估、脑列处理等问题,都是需要重点考虑的。本次向大家分享一下vSAN带宽带宽的设计原则。建议读者参照此前我分享过的《VMware的灾备与双活----我在vForum 2015分会场的分享(2)》一起进行阅读,这篇文章中已经包含的内容,本文将不再进行赘述。 一. 总体架构 vSAN延伸集群整体架构如下:一个有三个故障域,两个数据站点分别是一个故障域,仲裁站点是一个故障域。需要注意的是,vSAN延伸的三个故障域都属于是一个
随着传统IDC向云数据中心转型,数据中心网络架构也在不断演进。 在传统的大型数据中心,采用了层次化模型设计的三层网络。将复杂的网络设计分成几个层次,每个层次着重于某些特定的功能,这样就能够使一个复杂的大问题变成许多简单的小问题。三层网络架构设计的网络有三个层次: 接入层(将工作站接入网络) 接入层的面向对象主要是终端客户,为终端客户提供接入功能,接入层的主要功能是规划同一网段中的工作站个数,提高各接入终端的带宽。 汇聚层(提供基于策略的连接) 汇聚层连接网络的核心层和各个接入的应用层,在两层之间承担“媒介
摘要:vSAN延伸集群的出现,不仅使VMware有了自己的存储双活技术,从成本角度来看,更使存储双活这项技术,从“天上”来到了“民间”。 通过vSAN延伸集群加上VMware已有的SRM和VR技术,一个全新的、高效低成本的两地三中心方案应运而生。 上一篇《VMware的灾备与双活----我在vForum 2015分会场的分享(1)》介绍了VMware灾备技术SRM,作为姊妹篇,本次将介绍VMware双活技术。 目前市场上常见的硬件厂商的双活方案通常指的是分布式存储双活,如EMC vPlex, HDS
服务器虚拟化技术 使CPU、内存、磁盘、I/O等硬件变成可以动态管理的“资源池”,从而提高资源的利用率,让IT对业务的变化更具适应力。 IT系统是由网络服务器存储等诸多因素组成的,局部的创新并不会带来
Docker镜像文件部署,复杂度虽然降低了,但以容器格式运行的应用程序间的协同却成了一个新的亟待解决的问题,这种需求在微服务架构中表现得尤为明显。结果,以Kubernetes为代表的容器编排系统应需而生。
物理网络部分和传统物理网络一致。我们主要需要注意的是虚拟网络部分。
在我们看来,目前许多公司全力投入 Kubernetes 都是没有意义的,但选择权在他们。如果你读到了这篇文章,而且你所在的组织目前正在设法确定自己有多需要 Kubernetes,那么我希望本文的观点可以帮助你的团队做出正确的决定。
本文所有相关资料https://tungstenfabric.org.cn/assets/uploads/files/large-scale-cloud-yy.pdf
虚拟DMZ的云配置需要特定的安全策略。专家Dejan Lukan分析了不同种类的虚拟DMZ及它们与物理DMZ的差别。 DMZ,或非军事区,是一个主机或小型网络,主要用来将网络隔离成多个区域来加强安全性的设置。这个名词来源于军事用语,是指两个国家之间一块禁止军事活动的区域。DMZ主要用来在对外提供安全的HTTP、FTP、SSH、SMTP等服务的同时将他们保护在内网中。 网络隔离技术有很多种,包括: 物理网络隔离:在两个DMZ之间配置一个网络,让其中的通信只能经由一个安全装置实现。在这个安全装置里面,防火墙及I
Google Cloud 的 IoT Core 产品将于 2023 年 8 月 16 日停止服务,随着这一日期的临近,许多用户正在为他们现有的物联网业务寻找新的解决方案,而 EMQX 企业版是实现这一目标的理想选择。
使用Linux上的网络设备模拟真实网络 随着云计算技术的发展,如何以类似物理网络的方式分割虚拟网络成为热点,物理网络也引入了更多支持虚拟化的网络技术,使得问题更加复杂。本文将阐述在 Linux 上如何模拟出传统网络及支持虚拟化技术的网络 ,并介绍其原理。 虚拟化环境中的网络问题 在提供 IaaS 服务的云计算环境中,每个用户都能得到一个虚拟的计算机,而这些虚拟机器以密集的方式运行在后台服务器集群中。虚拟机的一个特点是提供给用户类似于物理机器的体验,而现实世界中的物理机器能通过各种网络拓扑结构组网。如何在虚拟
使用Linux上的网络设备模拟真实网络 随着云计算技术的发展,如何以类似物理网络的方式分割虚拟网络成为热点,物理网络也引入了更多支持虚拟化的网络技术,使得问题更加复杂。本文将阐述在 Linux 上如何模拟出传统网络及支持虚拟化技术的网络 ,并介绍其原理。 虚拟化环境中的网络问题 在提供 IaaS 服务的云计算环境中,每个用户都能得到一个虚拟的计算机,而这些虚拟机器以密集的方式运行在后台服务器集群中。虚拟机的一个特点是提供给用户类似于物理机器的体验,而现实世界中的物理机器能通过各种网络拓扑结构组网。如何在
编者按:云计算技术的服务型基础设施即服务(IaaS),以其可扩展性、高效性及弹性等特点正在成为资源利用的主导方式。在从云计算的IaaS应用获得便捷的同时,安全漏洞和隐患也需要被关注。在这项工作中,我们
在实现该网络模型时,为了应对不同的使用场景,TKE(Tencent Kubernetes Engine)提供了 Global Router 和 VPC-CNI 两种网络模式。本文中,我们将通过这两种模式下数据包的转发流程来分析这两种模式各自的实现原理。本文还会对比分析不同网络模式下的网络效率和资源使用情况,以便于大家在创建 TKE 集群时根据应用对网络的需求和使用成本选择合适的网络模型。
云计算是服务模式的创新,它为用户带来更高的效率和可扩展性,是对整个IT领域的变革。本文围绕云计算基础架构阐述相关的技术和解决方案。
根据日前发布的2021年ISC网络安全劳动力的研究报告,全球仍然缺少270万名网络安全专业人员。由于没有足够的安全人员应对不断上升的网络威胁,因此需要大量部署自动化技术来解决存在的问题。本文还介绍了一些可能在2022年产生全球性大规模影响的安全威胁。
(在加上口罩原因 弄的很自闭,这些天玩游戏倒是玩的不少….现在也是到家了 接下来一段时间好好提升自己技术才对!
前言: 无论是互联网还是物联网,他们的网络模型都是可以见的,而虚拟化和云计算中的网络模型 要比这些模型要复杂的多,有些设备你是可以到也有一些设备你是看不到的,这给我们运维人员带来的技术挑战。通过学习X
领取专属 10元无门槛券
手把手带您无忧上云