hdfs 分布式网络文件系统 glusterfs 分布式网络文件系统,不需要管理服务器 ceph 分布式网络文件系统,块存储...#注意: 1.分布式存储不一定是对象存储,所有的对象存储一定是分布式存储 2.分布式文件系统的元数据服务器存储的各个数据的位置信息...Ceph主要设计的初衷是变成一个可避免单节点故障的统一的分布式文件系统,提供较好的性能、可靠性和PB级别的扩展能力,而且是一种开源自由软件,许多融合的分布式文件系统都是基于Ceph开发的。...、自动化的、分布式的对象存储。...CephFS 文件存储 CephFS全称Ceph File System,是Ceph对外提供的分布式文件存储服务。
1、安装Ceph对象网关 从管理节点的工作目录,在ceph_admin节点上安装 Ceph 对象网关软件包 ceph-deploy install --rgw ceph_admin ?...2、 ceph-deploy rgw create ceph_admin ? 3、通过7480端口来访问 http://10.20.10.215:7480/ ?...4、为S3访问新建一个RADOSGW用户 为了使用 REST 接口, 首先需要为 S3 接口初始化一个 Ceph 对象网关用户. 然后为 Swift 接口新建一个子用户.
1、ceph版本的历史 image.png 2、块设备:LIBRBD 对象存储:LIBRGW CEPHFS:libcephfs osd:数据存储、复制等 monitor:Monitor map...5、查看monitor:ceph mon dump ceph osd dump ceph pg dump ceph osd crush dump ceph mds dump 6、OSD必须在有效的...disk list ceph-node1 ceph-node2 ceph-node3 11、查看ceph健康:ceph health ceph -s ceph osd stat 12、查看各个节点的服务状态...00:00:01 /usr/bin/ceph-mon -f --cluster ceph --id ceph-admin --setuser ceph --setgroup ceph 分别查看下ceph-node1...00:00:00 /usr/bin/ceph-osd -f --cluster ceph --id 0 --setuser ceph --setgroup ceph cephuser 29197 29051
配置Ceph的osd存储 配置node1节点的osd1存储设备: [yzyu@node1 ~]$ sudo fdisk /dev/sdc...sdc ##格式化硬盘,转换为GPT分区 [yzyu...[yzyu@dlp ceph-cluster]$ ceph osd pool create cephfs_data 128 ##数据存储池 pool 'cephfs_data' created [...yzyu@dlp ceph-cluster]$ ceph osd pool create cephfs_metadata 128 ##元数据存储池 pool 'cephfs_metadata' created...的客户端存储 [root@ceph-client ~]# mkdir /mnt/ceph [root@ceph-client ~]# grep key /etc/ceph/ceph.client.admin.keyring...命令管理node节点配置时,当前所在目录一定是/home/dhhy/ceph-cluster/,不然会提示找不到ceph.conf的配置文件; 4.osd节点的/var/local/osd*/存储数据实体的目录权限必须为
单个Ceph节点宕机处理 在某些情况下,如服务器硬件故障,造成单台 Ceph 节点宕机无法启动,可以按照本节所示流程将该节点上的 OSD 移除集群,从而达到 Ceph 集群的恢复。...5.1 单台 Ceph 节点宕机处理步骤 登陆 ceph monitor 节点,查询 ceph 状态: ceph health detail 将故障节点上的所有 osd 设置成 out,该步骤会触发数据...recovery, 需要等待数据迁移完成, 同时观察虚拟机是否正常: ceph osd out osd_id 从 crushmap 将 osd 移除,该步骤会触发数据 reblance,等待数据迁移完成...,同时观察虚拟机是否正常: ceph osd crush remove osd_name 删除 osd 的认证: ceph auth del osd_name 删除 osd :ceph osd rm
全局Ceph节点宕机处理 在极端情况下,如数据中心断电,造成 Ceph 存储集群全局宕机,可以按照本节所示流程进行 Ceph 集群上电恢复操作。...ceph -w 使用 ceph-w 可查看集群运作输出,同步完毕后集群 health 应为HEALTH_OK 状态。...ceph -s 状态为HEALTH_OK ceph osd tree OSD 状态皆为UP 4.3 恢复使用指令及其说明 ceph -s : 确认 ceph cluster status ceph...-w : 查看集群运作输出 ceph osd tree : 查看ceph cluster上osd排列及状态 start ceph-all : 启动 所有 ceph service start ceph-osd-all...start ceph-mon id={hostname} : 启动指定 ceph monitor host ceph osd set noout : ceph stopping w/out rebalancing
ceph-xxx-osd03.gz01 [ceph_deploy.cli][INFO ] ceph-deploy options: [ceph_deploy.cli][INFO ] verbose...than once in the configuration [ceph-xxx-osd03.gz01][DEBUG ] Cleaning repos: Ceph Ceph-noarch base ceph-source...cd /etc/ceph/ $ ceph-deploy admin ceph-xxx-osd03.gz01 [ceph_deploy.conf][DEBUG ] found configuration...][DEBUG ] Deploying rgw, cluster ceph hosts ceph-xxx-osd03.gz01:rgw.ceph-xxx-osd03.gz01 [ceph-xxx-osd03...osd allow rwx mon allow rw -o /var/lib/ceph/radosgw/ceph-rgw.ceph-xxx-osd03.gz01/keyring [ceph-xxx-osd03
管理存储池 1.1 创建存储池 PG数量的预估 集群中单个池的PG数计算公式如下:PG 总数 = (OSD 数 * 100) / 最大副本数 / 池数 (结果必须舍入到最接近2的N次幂的值) #ceph...create test_pool 512 512 replicated pool 'test_pool' created 1.2 删除存储池 #ceph osd pool delete {pool-name...pool 'test_pool' removed 1.3 重命名存储池 #ceph osd pool rename {current-pool-name} {new-pool-name} $ ceph...osd pool rename test_pool test_new_pool pool 'test_pool' renamed to 'test_new_pool' 1.4 查看存储池列表 $ ceph...挂载文件系统 $ sudo mkdir /mnt/ceph-block-device $ sudo mount /dev/rbd0/ /mnt/ceph-block-device $ cd /mnt/ceph-block-device
1. mds存储 元数据的内存缓存,为了加快元数据的访问。...恢复过程 失效节点的相关日志被读入内存; 处理有争议的子树分配问题和涉及多个MDS的transaction; 与client重新建立会话并重新保存打开文件的状态; 接替失效节点的MDS加入到MDS集群的分布式缓存中...重建分布式缓存和锁状态 恢复节点向所有MDS发送一个rejoin信息,该信息包含了恢复节点所知道的接受节点拥有的元数据副本信息并宣称自己没有管理的恢复文件; 原来有效的节点向恢复节点发送信息,告诉恢复节点自己拥有的元数据副本
Ceph通信框架 1.1 Ceph通信框架种类介绍 网络通信框架三种不同的实现方式: Simple线程模式 特点:每一个网络链接,都会创建两个线程,一个用于接收,一个用于发送。...1.2 Ceph通信框架设计模式 设计模式(Subscribe/Publish): 订阅发布模式又名观察者模式,它意图是“定义对象间的一种一对多的依赖关系, 当一个对象的状态发生改变时,所有依赖于它的对象都得到通知并被自动更新...1.3 Ceph通信框架流程图 ?...1.4 Ceph通信框架类图 ? 1.5 Ceph通信数据格式 通信协议格式需要双方约定数据格式。...header; // 消息头 ceph_msg_footer footer; // 消息尾 bufferlist payload; // "front"
介绍 CRUSH 算法通过计算数据存储位置来确定如何存储和检索。 CRUSH 授权 Ceph 客户端直接连接 OSD ,而非通过一个中央服务器或代理。...数据存储、检索算法的使用,使 Ceph 避免了单点故障、性能瓶颈、和伸缩的物理限制。...设备: 由任意对象存储设备组成,即对应一个 ceph-osd进程的存储器。 Ceph 配置文件里的每个 OSD 都应该有一个设备。...节点(或非叶子)桶在分级结构里一般表示物理位置,节点汇聚了其它节点或叶子,叶桶表示 ceph-osd 守护进程及其对应的存储媒体。...,让它使用 SSD 规则: ceph osd pool set crush_ruleset 2 同样,用 ssd-primary 规则将使存储池内的各归置组用 SSD 作主
存储池 2.1 创建存储池数据 #ceph osd pool create cephfs_data $ ceph osd pool create cephfs_data 128 pool...'cephfs_data' created 2.2 创建存储池元数据 #ceph osd pool create cephfs_metadata $ ceph osd pool...create cephfs_data 128 pool 'cephfs_metadata' created 2.3 查看存储池 $ ceph osd lspools 1 rbd,2 test_data,...-c ceph.conf, --conf=ceph.conf用指定的 ceph.conf 而非默认的 /etc/ceph/ceph.conf 来查找启动时需要的监视器地址。...#Ceph 存储集群默认要求认证,需指定相应的密钥环文件 #sudo ceph-fuse -n client.
二、Ceph存储特点 Object:有原生的API,而且也兼容Swift和S3的API Block:支持精简配置、快照、克隆 File:Posix接口,支持快照 Ceph也是分布式存储系统,它的特点是:...无论是想使用Ceph对象存储或是以Ceph块设备服务至云平台 ,部署Ceph文件系统或者为了其他目的而使用Ceph,所有的 Ceph存储集群部署都是从设置每个Ceph节点,配置网络和Ceph存储集群开始的...类似于其他分布式文件系统,各个CephFS客户端共享同一命名空间。 2. RadosGW(rgw)对象存储。rgw使用场景类似于Amazon S3,类似于七牛云存储。 3....三、Ceph集群部署步骤 [使用ceph-deploy部署ceph分布式存储集] 1)系统: [root@kevin-221 ~]# cat /etc/redhat-release CentOS release...分布式存储集群总验证 ############################################################################ 12.1)验证mds节点
一、 说明 Ceph 把数据以对象的形式存于各存储池中。Ceph 用户必须具有访问存储池的权限才能够读写数据。 另外,Ceph 用户必须具有执行权限才能够使用 Ceph 的管理命令。...能力也用于限制对某一存储池内的数据或某个命名空间的访问。 Ceph 管理员用户可在创建或更新普通用户时赋予他相应的能力。...另外, OSD 能力还支持存储池和命名空间的配置。...mds 'allow' 注意: Ceph 对象网关守护进程( radosgw )是 Ceph 存储集群的一种客户端,所以它没被表示成一种独立的 Ceph 存储集群守护进程类型。...rwx' 更新 Ceph 存储集群的用户,你必须更新 keyring 文件中对应用户入口的信息。
一、 集群环境 1.1 部署环境说明 mon组件部署: ceph-xxx-osd00, ceph-xxx-osd01, ceph-xxx-osd02 osd组件部署: ceph-xxx-osd00,...ceph-xxx-osd01, ceph-xxx-osd02,ceph-xxx-osd03, ceph-xxx-osd04 磁盘: SATA ceph版本: ceph 12.2.2 bluestore...RADOS 性能测试工具 rados bench -p -b -t --no-cleanup Ceph...自带的 RADOS 性能测试工具 rbd bench-write ceph 自带的 rbd 性能测试工具 rbd bench-write --io-size:单位 byte
组件 配置 默认值 是否启用 CPU 关闭CPU节能模式 - - CPU 使用Cgroup绑定Ceph OSD进程到固定的CPU 无 无 RAM 关闭NUMA 开启 是 RAM 关闭虚拟内存 无 是 网卡
了解 Ceph 是一个统一的分布式存储系统,设计初衷是提供较好的性能、可靠性和可扩展性。 1.1 特点 高性能 a....3.5 添加节点 既然是分布式存储,只有一台master节点是万万不能的,我们需要添加节点 添加节点很简单,先用部署过程中生成的key配置免密登陆: $ ssh-copy-id -f -i /etc/ceph...OSD的创建管理与使用 4.1 OSD是什么 ceph-osd 是 Ceph 分布式对象存储系统的对象存储守护进程。它负责把对象存储到本地文件系统,并使之通过网络可访问。...6.CEPHFS的创建、管理与使用 Ceph文件系统或CephFS是在Ceph的分布式对象存储RADOS之上构建的POSIX兼容文件系统 6.1 创建cephfs 创建池后,可以使用以下命令启用文件系统...这里又引申出一个概念MDS 6.2 ceph-mds ceph-mds 是 Ceph 分布式文件系统的元数据服务器守护进程。
Tip: Ceph 喜欢统一的硬件,与存储池无关。如果你要新增容量不一的硬盘驱动器,还需调整它们的权重。但是,为实现最佳性能,CRUSH 的分级结构最好按类型、容量来组织。 创建 OSD。...注册 OSD 认证密钥, ceph-{osd-num} 路径里的 ceph 值应该是 cluster-id ,如果你的集群名字不是 ceph ,那就用自己集群的名字。...增加 OSD( ceph-deploy ) 还可以通过 ceph-deploy 工具很方便的增加 OSD。 登入 ceph-deploy 工具所在的 Ceph admin 节点,进入工作目录。...我们建议把日志存储于另外的驱动器以最优化性能;你也可以指定一单独的驱动器用于日志(也许比较昂贵)、或者把日志放到 OSD 数据盘(不建议,因为它有损性能)。前例中我们把日志存储于分好区的固态硬盘。...ssh {admin-host} cd /etc/ceph vim ceph.conf 从 ceph.conf 配置文件里删除对应条目。
ceph是模块化和可扩展的,并且有容错设计。先进的分布式存储系统。...分布式、可大规模扩展,经济 虚拟平台KVM、VMWARE也支持ceph ceph存储介绍 ceph部署实战 ceph架构和组件 ceph内部构建 ceph部署 ceph存储配置 ceph...ceph可大规模扩展、高性能并且无单点故障的分布式存储系统。容量可扩展至EB级别。...image.png RADOS:可靠、自动、分布式对象存储(Reliable Autonomic Distributed Object Store),是ceph存储集群的基础。...ceph中的一切都以对象的形式存储,而RADOS就负责存储这些对象,而不考虑它们的数据类型。RADOS确保数据一致性和可靠性。
上一篇文章给大家简单介绍了GlusterFs(查看),今天再给大家来一个目前最流行的分布式存储系统Ceph的介绍,Ceph是开一个开源的项目,它的创始人是Sage Weil,作为当时的博士论文一部分,...目前Ceph已经得到很多厂商的支持,具有很好的生态系统,它同时具有自己的开源社区,活跃度极高。
领取专属 10元无门槛券
手把手带您无忧上云