首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

ceph分布式存储-常见 PG 故障处理

你可以用下列命令显式地列出卡住 PGsceph pg dump_stuck stale ceph pg dump_stuck inactive ceph pg dump_stuck unclean...下例展示了这种情况是如何发生,一个 PG 数据存储在 ceph-osd 1 2 上: 1 挂了 2 独自处理一些写动作 1 起来了 1 2 重新互联, 1 上面丢失对象加入队列准备恢复 新对象还未拷贝完...以下命令把未找到( unfound )对象标记为丢失( lost )。...为检测这种情况,monitor 会把任何主 OSD 失败 PG 标记为 stale (不新鲜),例如: ceph health HEALTH_WARN 24 pgs stale; 3/300 in osds...are down 可以找出哪些 PG 是 stale 状态,存储这些归置组最新 OSD ,命令如下: ceph health detail HEALTH_WARN 24 pgs stale; 3/

2.9K30
您找到你想要的搜索结果了吗?
是的
没有找到

centos 7.3 快速安装ceph

Ceph简介 Ceph是一种为优秀性能、可靠性可扩展性而设计统一、分布式文件系统。 部署逻辑架构 ?...防止时钟偏移导致故障)、openssh #sudo yum install ntp ntpdate ntp-doc #sudo yum install openssh-server 在各节点上配置防火墙开放所需要端口...源(本人这里选择jewel,这里推荐使用网易或阿里ceph源,若用官方源文件会很慢而且容易出现下载失败中断等问题,本人深受下载官方源坑害) 在 /etc/yum.repos.d/目录下创建 ceph.repo...ceph-deploy //若安装ceph后遇到麻烦可以使用以下命令进行清除包配置 #ceph-deploy purge node1 node2 node3 #ceph-deploy purgedata...23 pgs degraded; 41 pgs peering; 31 pgs stale; 12 pgs stuck inactive; 24 pgs stuck unclean; recovery

94620

ceph分布式存储-检查集群健康状态

ID 集群健康状况 monitor map 版本 mon 法定人数状态 OSD map 版本 OSD 状态摘要 PG map 版本 PG Pool 数量 集群存储数据量,对象总量,以及集群已用容量...用此值对比 full ratio near full ratio 来确保不会用尽集群空间。 输出 POOLS 段展示了存储池列表及各存储池大致使用率。...本段没有反映出副本、克隆快照占用情况。例如,如果你把 1MB 数据存储为对象,理论使用率将是 1MB ,但考虑到副本数、克隆数、快照数,实际使用量可能是 2MB 或更多。...pg dump pgs|grep ^1|awk ' {print $15}' > pgs.log sed -i "s/\[//g" pgs.log sed -i "s/\]//g" pgs.log for...元数据服务器有两种状态: up | down active | inactive ,执行下面的命令查看元数据服务器状态为 up 且 active : ceph mds stat e12557: 1/

1.1K10

PG详解

---- # PG状态 Creating 当创建一个池时候,Ceph会创建一些PG(通俗点说就是在OSD上建目录),处于创建中PG就被标记为creating,当创建完之后,那些处于Acting...当一个OSDdown了,Ceph会将这个OSD上PG都标记为降级。当这个挂掉OSD重新上线之后,OSD们必须重新peer。...当OSDdown掉五分钟后,集群会自动将这个OSD为out, 然后将缺少PGremap到其他OSD上进行恢复以保证副本充足,这个五分钟配置项是mon osd down out...PG如果丢了对象,Ceph也会将其标记为降级。 你可以继续访问没丢对象,但是不能读写已经丢失对象了。...Stale Ceph使用心跳来确保主机进程都在运行,OSD进程如果不能周期性发送心跳包, 那么PG就会变成stuck状态。

1.1K30

由OSD class配置引发PG异常状态修复

由OSD class配置引发PG异常状态修复 问题描述 ceph版本12.2.8,一个PG卡在remapped状态,但是集群状态是OK,为了修复这个remapped状态,才有了下面的操作。...osd crush rm-device-class 18 done removing class of osd(s): 18 查了一下L版本新增配置,发现有一个自动打class类型配置,于是在ceph.conf...#ceph.conf osd_class_update_on_start = false 之后试着重启OSD 18,ssdclass已经不会自动添加,但是发现remapped状态变成了undersized...因此,强烈建议所有需要自定义crush规则用户,都在ceph.conf中加上osd_class_update_on_start = false,来避免本文发生悲剧。...同时整个PG状态统计显示在L版本还存在一些bug,虽然不影响正常使用,但是仍然会给很多人带来困惑,甚至是误导,就如很早以前一个同行说,对待存储一定要时刻保持敬畏之心,所有的操作一定要慎重,不然分分钟丢掉饭碗

3.1K30
领券