但是,当我创建擦除编码池(k=3 +m=2(或k=4) )时,我总是得到不活动的pgs。ceph的详细信息如下:PG_AVAILABILITY Reduced data availability: 128 pgsinactive
pg 11.a is stuck inactive for 107.974251,
我有一个小的Ceph集群。这里描述了它的设置方式:
ceph health; ceph osd tree
HEALTH_ERR 370 pgs are stuckinactive for more than 300 seconds; 370 pgs stale; 370 pgs stuck stale; too many PGs per
我正在使用Ceph,通过radosgw上传许多文件。之后,我想删除这些文件。但是,当我在mon上运行ceph df时,它表明OSD仍然具有很高的利用率(例如,%RAW USED 90.91)。如果我继续编写(认为状态数据还没有赶上状态),Ceph基本上就会锁定(100%的利用率)。
到底怎么回事?than average (too few pgs?)从我在网上收集的资料来看,这不会导致我的问题。但我是刚认识的,可能是错的</e
我们的一个Ceph监视器出了问题。集群使用3个监视器,它们都在启动和运行。它们可以相互通信,并给出相关的-s输出。然而,仲裁显示第二个监视器已关闭。MDS daemons available 9 large omap objects
47 pgsDocs提到var/run/ceph中的监控器asok文件,而我没有将它放在假定的