随着各行各业电子信息化的不断加深,线上交易数据保持了长时间高速增长的态势,对数据存储的需求越来越大,数据库管理系统(DBMS)面临越来越大的性能、空间和稳定性压力。在此过程中,得利于计算&存储&网络等硬件领域的不断进步,业界流行的数据库管理系统逐步从单机架构向分布式架构演变。笔者希冀从梳理数据库管理系统所面临的一个又一个实际挑战及业界所提出的诸多解决方案的过程中,发现片缕灵感以指引未来的数据库开发工作。
之前讲过一篇文章 一步步教你Linux7安装Oracle RAC(11GR2版本) 教大家如何安装 Oracle RAC。
我常用ISCSI配置共享存储的软件:Openfiler 和 StarWind,本文主要讲解的是 StarWind 软件。
共享内存是System V版本的最后一个进程间通信方式。共享内存,顾名思义就是允许两个不相关的进程访问同一个逻辑内存,共享内存是两个正在运行的进程之间共享和传递数据的一种非常有效的方式。不同进程之间共享的内存通常为同一段物理内存。进程可以将同一段物理内存连接到他们自己的地址空间中,所有的进程都可以访问共享内存中的地址。如果某个进程向共享内存写入数据,所做的改动将立即影响到可以访问同一段共享内存的任何其他进程。
vSphere 基础物理架构中存储是一个非常关键的部分,没有好的存储,虚拟化也就没有存在的价值,并且它能够决定其系统性能的高低和如vMotion等高级功能能否实现。所以本次重点介绍vSphere中的存
谈到虚拟化,在云计算中有计算、存储、网络、安全四大虚拟化,而在存储虚拟中一般提得比计算虚拟化少。今天我们就来谈谈在公有云、私有云中的存储虚拟化是怎么做的。
企事业机构的信息化建设已经在随着社会建设的不断推进而改进和创新。众企事业机构的决策层也愈发重视企事业机构的信息化,不同程度的运营和发展着自身的业务信息系统。但是日趋普遍的业务信息系统在为企事业机构带来利益的同时,也存在着一个不容忽视的隐患——越来越多的业务依赖于业务信息系统。如果运行着关键业务信息系统的服务器发生宕机或是因为不可控的原因而停止,从而导致整个企事业机构的信息运营系统瘫痪,将会给企事业机构带来巨大的经济损失,而由于企事业机构的业务不能正常运行也会影响企事业机构的信誉,导致客户对企事业机构失去信任,从而带来致命的危害。
轻量对象存储 Lighthouse-COS 是腾讯云专为中小企业开发者打造的轻量级数据存储服务,适用于云端网站、小程序、课堂演示、云盘/图床等场景下的数据存储和处理任务。针对图像、音视频等对象类型数据进行可视化一键管理。相比传统的对象存储服务更加开箱即用,提供专属打包式套餐,为您提供高性价比、极简但不减料的轻量存储体验。
如今大数据,云计算,分布式系统等对算力要求高的方向如火如荼。提升计算机算力的一个低成本方法是增加CPU核心,而不是提高单个硬件工作效率。
TASKCTL本身无数据库,无任何第三方中间件,整个产品信息均在一个文件目录下。因此,通过共享存储,连接两个不同应用环境,即可达到信息共享的目的。TASKCTL在信息共享的基础上,通过一定可靠的检测技术,保证两个主备环境的实例启停的自动切换,从而达到服务高可靠的目的。
1. 概览 本文记录经典的IPC:pipes, FIFOs, message queues, semaphores, and shared memory。 2. PIPES 管道是UNIX系统IPC的最古老形式,并且所有的UNIX系统都提供此通信机制。但管道有两个局限性: 历史上,它们是半双工的,现在某些系统提供全双工管道。 它们只能在共有祖先的进程间使用。通常,一个管道由一个进程创建,然后该进程调用fork,此后父进程与子进程之间就可以使用管道通讯。 管道由pipe创建。 #include <unistd
双机热备指基于高可用系统中的两台服务器的热备(或高可用),因两机高可用在国内使用较多,故得名双机热备。双机高可用按工作中的切换方式分为:主-备方式(Active-Standby方式)和双主机方式(Active-Active方式),主-备方式指的是一台服务器处于某种业务的激活状态(即Active状态),另一台服务器处于该业务的备用状态(即Standby状态)。而双主机方式即指两种不同业务分别在两台服务器上互为主备状态(即Active-Standby和Standby-Active状态)。
在Hadoop 中,NameNode 所处的位置是非常重要的,整个HDFS文件系统的元数据信息都由NameNode 来管理,NameNode的可用性直接决定了Hadoop 的可用性,一旦NameNode进程不能工作了,就会影响整个集群的正常使用。
对于静态迁移,你可以在宿主机上保存一个完整的客户机镜像快照,然后在宿主机中关闭或者暂停该客户机,然后将该客户机的镜像文件复制到另一台宿主机中,使用在源主机中启动该客户机时的命令来启动复制过来的镜像。
管道是Unix系统IPC最古老的方式。管道有下列两种局限性: (1) 历史上,它们是半双工的(即数据只能在一个方向上流动)。 (2) 它们只能在具有公共祖先的进程之间使用。通常,一个管道由一个进程创建,然后该进程调用fork,此后父子进程就可以应用该管道
VMware 公司去年3月开源了企业级容器 Registry 项目 Harbor ,由VMware中国研发的团队负责开发。Harbor 可帮助用户迅速搭建企业级的 registry 服务,它提供了管理图形界面, 基于角色的访问控制 RBAC,镜像远程复制(同步),AD/LDAP 集成、以及审计日志等企业用户需求的功能,同时还原生支持中文和英文,深受国内外用户的喜爱。许多开源社区的开发者也给 Harbor 项目添砖加瓦,贡献代码、反馈问题和提出建议。在大家共同努力下, Harbor 项目推出以来,在 GitHub 获得了近2000个点赞星星和500多个 forks。
鹏 飞 专注于OpenStack计算、Python。 热爱大海、雪山。 导 语 在云中使用虚拟机HA,热迁移等功能的时候,可能会出现两个主机上的虚拟机同时对共享存储上同一个磁盘进行读写操作,导致磁盘数据损坏的问题。Libvirt提供了两种方式实现磁盘资源的互斥,分别是sanlock和lockd。 相关的配置可以参考文档: https://libvirt.org/locking.html; 本篇描述libvirt使用sanlock作为磁盘锁的使用方法。 一、安装与配置 1 安装sanlock sa
1、esxi存储:提供主机级别的存储。分本地存储和外部共享存储 本地存储:不通过网络即可通讯的内部磁盘或外部磁盘。包括scsi、ide、sata、usb、sas等存储系统多主机间不能共享只能有一个主机访问 外部存储:esxi主机通过网络连接的外部存储磁盘或阵列,包括san、iscsi、nfs等存储协议。可以由多个主机共享访问。是vmotion等高级功能的实现基础。 2、openfiler:免费的nas/iscsi的san服务器系统。为lan主机提供独立的存储系统。包括nfs、smb、iscsi、tar
这里介绍LVS集群的通用体系结构,设计原则和相应特点;LVS集群应用于建立可伸缩的Web,Media,Cache和Mail等网络服务。
共享内存指 (shared memory)在多处理器的计算机系统中,可以被不同中央处理器(CPU)访问的大容量内存。由于多个CPU需要快速访问存储器,这样就要对存储器进行缓存(Cache)。任何一个缓存的数据被更新后,由于其他处理器也可能要存取,共享内存就需要立即更新,否则不同的处理器可能用到不同的数据。共享内存是 Unix下的多进程之间的通信方法 ,这种方法通常用于一个程序的多进程间通信,实际上多个程序间也可以通过共享内存来传递信息。
为了传送大量信息,在存储器中划出一块共享存储区,进程可通过对共享存储区进行读或写来实现通信,属于高级通信方式。
本文之前在腾讯云tstack上已经发布过了https://cloud.tencent.com/developer/article/1658665,此处自己记录保留一份。
贾晶晶,Zilliz 数据工程师 & 高昌健,Juicedata 解决方案架构师,十年互联网行业从业经历,曾在知乎、即刻、小红书多个团队担任架构师职位,专注于分布式系统、大数据、AI 领域的技术研究。
NameNode 保存了整个 HDFS 的元数据信息,一旦 NameNode 挂掉,整个 HDFS 就无法访问。为了提高HDFS的高可用性,在 Hadoop2.0 中,HDFS NameNode支持了高可用架构,如下图。
AutoMQ[1] 是新一代基于共享存储架构实现的云原生 Kafka。得益于其存算分离的共享存储架构,通过和阿里云合作,深度使用阿里云可靠、先进的云服务如对象存储 OSS、块存储 ESSD、弹性伸缩 ESS 以及抢占式实例实现了相比 Apache Kafka 10 倍的成本优势并且提供了自动弹性的能力。
注:本文发表后,收到了很多后台反馈,其中关于大型机的早期成就不容省略。微调重发本文,纯属个人观点,错谬之处,仍然期待指正。
生产环境一般有独立的存储网络,和管理网络以及用户虚拟机的业务网络隔离开,互不影响网络的传输性能。
在之前的文章中,我们有了解到VMware公司推出的VMware Workstation这个软件,它实现的是单机版虚拟化,可以用来做实验或者搭建测试环境,但是它不能用于商业用途;如果说安装VMware Workstation的这台机器本身故障了,就没法来保证业务的连续性了。
用Openfiler制作iSCSI添加为vSphere集群的共享存储 实验环境 物理机:DELL IPTIPLEX 990 PC机 I52400处理器支持VT功能 8G内存 千兆网卡 操作系统:WIN7 64位(物理机安装)WIN2008R2(vSphere center虚拟机安装) 虚拟软件:Vmware Workstation8 vSphre镜像下载地址:http://www.verycd.com/topics/2835087/ 下载VMware-VIM-Setup-All-5.0.iso VMware-ESXi-5.0.iso 拓扑图:W2K8_x86_64 R2 ----ESXi5-1----ESXi5-2—Openfiler_x86_64
Kubernetes对于有状态的容器应用或者对数据需要持久化的应用,不仅需要将容器内的目录挂载到宿主机的目录或者emptyDir临时存储卷,而且需要更加可靠的存储来保存应用产生的重要数据,以便容器应用在重建之后仍然可以使用之前的数据。
双机热备就是使用互为备份的两台服务器共同执行同一服务,其中一台主机为工作机(Primary Server),另一台主机为备份机(Standby Server),保证系统不间断的运行。双机热备软件就是实现上述功能的软件产品。双机热备针对的是服务器的临时故障所做的一种备份技术,通过双机热备,来避免长时间的服务中断,保证系统长期、可靠的服务。
在实际环境中,总会有新陈代谢,旧机器总还是躲不过时间的摧残,这就需要更换新机器,而 vMotion 是 VMware 开发出的一项独特技术,可将正在运行的虚拟机从一台服务器迁移到另一台服务器上。 若要实现热迁移,那么外部共享存储服务器便是必不可少的,因为必须要保证源ESXi主机和目标ESXi主机都可访问虚拟机文件,所以在热迁移之前必须把虚拟机配置文件都迁移到外部共享存储之上。 openfiler是一个免费的NAS/ISCSI的SAN服务器系统,主要用于为LAN主机提供独立存储系统,openfiler提供了包括NFS、SMB、ISCSI、target等多种连接方式,一般通过http的方式管理,它对于希望搭建虚拟化的中小型企业而言,是provisiong阶段最好的工具。 vMotion是所有vSPhere高级功能的基础,可实现热迁移。 vMotion的迁移过程(如果迁移期间出错,虚拟机将恢复原始状态和位置):
如果出现以上结果,表示服务端配置成功 最好在本地挂载一次,挂载成功在取消挂载,至少可以确认服务端配置正确,能够挂载 6) 设置开机自启动并检查
k8s对有状态的容器应用或者需要对数据进行持久化的应用,在之前的篇章说过,可以将容器内的目录挂载到宿主机的容器目录或者emptyDir临时存储卷。另外,k8s还开放了两个资源,分别是PersistentVolume(PV)和PersistentVolumeClaim(PVC),这两个资源对象可允许k8s使用外部的存储设备。比如在生产环境中有一个专门的文件服务器,那么就可以使用PV对文件服务器的资源进行定义,比如总共有多少容量等,然后用PVC对PV资源进行申请,申请多少容量,然后再容器里引用PVC即可。
原文链接 http://allthingsoracle.com/oracle-flex-cluster-leaf-node-failover/ 译者 周天鹏 Oracle 在12c中使用hub-and-spoken技术实现了Flex Cluster的功能(即RAC集群中的每个节点不再需要既运行ASM实例又运行DB实例,各节点可以扮演不同的角色)。相比12c以前的版本,该功能使集群规模的扩大和缩减变得更加靠谱。原因如下: 集群中各节点间网络的互相干扰变得更少。 关键的集群组件争用更少,如OCR, VOT
第一代的“存算一体”数据库是80年代的IBM大机,提供计算、数据库、存储、中间件,解决了核心交易场景对性能和可靠性的诉求,但他的缺点同样明显,贵!高昂的采购费用、封闭的硬件生态和高昂的售后维保价格,大机的垄断,即使是银行这类不差钱的企业也感到肉疼。大机有限的存储扩展能力,也限制了数据库的容量。
最近几年,我的工作内容始终围绕着客户 Kubernetes 集群的建设。如何为客户的 Kubernetes 集群选择一款稳定可靠、性能表现优异的存储解决方案,这样的问题一直困扰着我。
笔者上一篇译文中在介绍Leaf Node时提到, 虽然leaf node不要求直接访问共享存储,但最好还是连上共享存储,因为说不准未来哪天就要把这个leaf node转为hub node使用。 其实这样的说法并不够准确,在12cR1时,leaf node上是无法运行只读数据库实例的,这时不连接共享存储完全不影响其使用。而12cR2的leaf node是可以运行只读数据库实例的,一旦leaf node上有了数据库,这时leaf node(确切的说这时leaf node应该叫做reader node)就必须连接
从Oracle数据库12c开始,可以将Oracle Clusterware和Oracle RAC配置在大型集群中,称为Oracle Flex集群。 这些集群包含两种类型的节点:Hub节点和Leaf节点。 Hub节点紧密连接,可以直接访问共享存储,并作为一个或多个Leaf 节点的锚点。 leaf 节点与Hub节点松动连接,可能无法直接访问共享存储。 Hub Node and Leaf Node Oracle ADG上的列式存储支持 Oracle ADG上的列式存储支持Oracle ADG上的列式存储支持 Or
POLARDB 是一个具有国际性质的数据库产品,虽是一个“国产数据库” ,可最专业的资料还要看 E 文。以下为翻译
云原生Clickhouse 优势概述 以Clickhouse为基础,借鉴Snowflake等系统的设计思路,打造一款高性能的云原生OLAP系统,为用户提供多场景下的一站式的数据分析平台。 简单、易维护:集群管理、统一共享分布式调度服务 高可用、可扩展:支持500万以上的Table 低成本:存储成本至少降低了50% 兼容开源,复用超高性能:兼容协议、语法、数据库存储格式 Clickhouse是一款性能十分强悍的OLAP引擎,凭借优秀的性能在用户行为分析、ABTest、在线报表等多个领域大放异彩,但是目前C
RespectM同学在文章[MLSQL集成JuiceFs](16 - MLSQL集成JuiceFs)中,已经详细的讲解了如何整合两者。丢一个配置文件到SPARK_HOME/conf以及启动时带上SDK Jar就可以完美在MLSQL访问各种对象存储和HDFS了,这非常酷。
emptyDir是Host上创建的临时目录,其优点是能够方便地为Pod中的容器提供共享存储,不需要额外的配置。它不具备持久性,如果Pod不存在了,emptyDir也就没有了。根据这个特性,emptyDir特别适合Pod中的容器需要临时共享存储空间的场景,比如前面的生产者消费者用例。
http://mpvideo.qpic.cn/0bf2leaaaaaa3qalyodiobpfawodabmqaaaa.f10002.mp4?dis_k=17550684a324164ea111bfe
1.引言 在过去的十几年中,Internet从几个研究机构相连为信息共享的网络发展成为拥有大量应用和服务的全球性网络,它正成为人们生活中不可缺少的 一部分。虽然Internet发展速度很快,但建设和维护大型网络服务依然是一项挑战性的任务,因为系统必须是高性能的、高可靠的,尤其当访问负载不断增 长时,系统必须能被扩展来满足不断增长的性能需求。由于缺少建立可伸缩网络服务的框架和设计方法,这意味着只有拥有非常出色工程和管理人才的机构才能建立 和维护大型的网络服务。 针对这种情形,本文先给出LVS集群的通用体系结
RHCS(Red Hat Cluster Suite):能够提供高可用性、高可靠性、负载均衡、存储共享且经济廉价的集群工具集合。 LUCI:是一个基于web的集群配置方式,通过luci可以轻松的搭建一个功能强大的集群系统。 CLVM:Cluster逻辑卷管理,是LVM的扩展,这种扩展允许cluster中的机器使用LVM来管理共享存储。 CMAN:分布式集群管理器。 GFS(Global File System)共享文件系统:以本地文件系统的形式出现。多个Linux机器通过网络共享存储设备,每一台机器都可以将网络共享磁盘看作是本地磁盘,如果某台机器对某个文件执行了写操作,则后来访问此文件的机器就会读到写以后的结果
在计算机系统中,存储是指将数据保存在持久化介质上,以便以后访问和使用。不同类型的应用程序可能需要不同类型的存储,以满足其特定的需求。
领取专属 10元无门槛券
手把手带您无忧上云