专栏首页zhangdd.comceph修复pg inconsistent

ceph修复pg inconsistent

1、收到异常情况如下:

health: HEALTH_ERR
 2 scrub errors
 Possible data damage: 1 pg inconsistent

2、查看详细信息

ceph health detail
 HEALTH_ERR 2 scrub errors; Possible data damage: 1 pg inconsistent
 OSD_SCRUB_ERRORS 2 scrub errors
 PG_DAMAGED Possible data damage: 1 pg inconsistent
 pg 2.2f5 is active+clean+inconsistent, acting [22,2,27]

3.找出异常的 pg,然后到对应的osd所在主机上修复。

ceph osd find 22
 {
 “osd”: 22,
 “ip”: “1xx.xx.xx.xx:6812/73885”,
 “osd_fsid”: “99a7644b-50d6-4bd3-9a8b-36d499c8ddfd”,
 “crush_location”: {
 “host”: “ceph3”,
 “root”: “default”
 }
 }

4.

然后到 进行修复

1、停止osd systemctl stop ceph-osd@22.service 2、刷入日志 ceph-osd -i 22 –flush-journal 3、启动osd systemctl start ceph-osd@22.service 可以确认集群恢复OK

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • ceph分布式存储-常见 PG 故障处理

    创建一个新集群后,PG 的状态一直处于 active , active + remapped 或 active + degraded 状态, 而无法达到 act...

    Lucien168
  • Ceph 磁盘损坏现象和解决方法

    对于存储系统,磁盘是消耗品,损坏是很常见的,所以这篇文章记录一下 Ceph 中出现磁盘损坏时的现象,以及如何定位和更换损坏的磁盘。

    用户2443625
  • 如何从 Ceph (Luminous) 集群中安全移除 OSD

    工作中需要从 Ceph 的集群中移除一台存储服务器,挪作他用。Ceph 存储空间即使在移除该存储服务器后依旧够用,所以操作是可行的,但集群已经运行了很长时间,每...

    用户2443625
  • 分布式存储Ceph之PG状态详解

    继上次分享的《Ceph介绍及原理架构分享》,这次主要来分享Ceph中的PG各种状态详解,PG是最复杂和难于理解的概念之一,PG的复杂如下:

    Lucien168
  • 《 大话 Ceph 》 之 PG 那点事儿

    《大话 Ceph 》系列文章通过通俗易懂的语言并结合基础实验,用最简单的描述来讲解 Ceph 中的重要概念。让读者对分布式存储系统有一个清晰的理解。

    腾讯云TStack
  • Ceph组件的状态

    client 无法链接mon的可能原因 1.连通性和防火墙规则。在MON主机上修改允许TCP 端口6789的访问。 2.磁盘空间。每个MON主机上必须有超过5%...

    院长技术
  • Ceph 故障排查笔记 | 万字经验总结

    删除当前 osd 的所有数据,并且重新加载 osd,此操作一定要保证有冗余可用的 osd,否则会造成整个 osd 数据损坏。

    米开朗基杨
  • 从传统运维到云运维演进历程之软件定义存储(六)完结

    回到最初的Ceph运维工程师的问题,本系列讲述的是传统运维向新一代云运维转型之软件定义存储部分的转型,运维是企业业务系统从规划、设计、实施、交付到运维的最后一个...

    DevinGeng
  • Ceph的pg算法

    PG介绍 PG, Placement Groups。CRUSH先将数据分解成一组对象,然后根据对象名称、复制级别和系统中的PG数等信息执行散列操作,再将结果生成...

    院长技术
  • linux ceph原理及搭建

    Ceph是一个可靠地、自动重均衡、自动恢复的分布式存储系统,根据场景划分可以将Ceph分为三大块,分别是对象存储、块设备存储和文件系统服务。在虚拟化领域里,比较...

    葫芦
  • Ceph分布式存储日常运维管理手册

    nearfull osd(s) or pool(s) nearfull 此时说明部分osd的存储已经超过阈值,mon会监控ceph集群中OSD空间使用情况。如果...

    民工哥
  • Ceph recover的速度控制

    磁盘损坏对于一个大集群来说,可以说是必然发生的事情,即使再小的概率,磁盘量上去,总会坏那么几块盘,这个时候就会触发内部的修复过程,修复就是让不满足副本要求的PG...

    用户2772802
  • Ceph数据恢复初探

    大家好,我是焱融科技的研发猿小焱,本文由我和大家一起探讨下Ceph数据恢复相关的知识。

    焱融科技
  • 由OSD class配置引发的PG异常状态修复

    ceph版本12.2.8,一个PG卡在remapped状态,但是集群状态是OK的,为了修复这个remapped状态,才有了下面的操作。

    用户1260683
  • ceph 的crush算法 straw

    很多年以前,Sage 在写CRUSH的原始算法的时候,写了不同的Bucket类型,可以选择不同的伪随机选择算法,大部分的模型是基于RJ Honicky写的RUS...

    用户2772802
  • ceph分布式存储-PG和PGP的区别

    以上是来自邮件列表的 Karan Singh 的PG和PGP的相关解释,他也是 Learning Ceph 和 Ceph Cookbook的作者,以上的解释没有...

    Lucien168
  • Ceph部署在Centos7上简明摘要

    最近需要研究Ceph,也部署了一下环境,本文分为1,2,3,4章为概念介绍,第5章为实践环节。

    麒思妙想
  • ceph 运维操作-PG

    PG全称Placement Grouops,是一个逻辑的概念,一个PG包含多个OSD。引入PG这一层其实是为了更好的分配数据和定位数据。

    Lucien168
  • zhangdd谈ceph(一)初识ceph

    最近在研究ceph分布式存储,刚开始接触时感觉很混乱,无从下手的感觉。于是根据以往经验,先网上看各种资料,一个字 感觉乱,各种配置 各种环境 各种bug 各种坑...

    zhangdd

扫码关注云+社区

领取腾讯云代金券