我有一个小的Ceph集群。这里描述了它的设置方式:
在重新启动部署节点( ntp服务器所在的地方)之后,我得到:
ceph health; ceph osd tree
HEALTH_ERR 370 pgs are stuck inactive for more than 300 seconds; 370 pgs stale; 370 pgs stuck stale; too many PGs per OSD (307 > max 300)
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 10.8898
我使用推荐值配置了Ceph (使用文档中的公式)。我有3个OSD,我的配置(我已经放在监视器节点和所有3个OSD上)包括以下内容:
osd pool default size = 2
osd pool default min size = 1
osd pool default pg num = 150
osd pool default pgp num = 150
当我运行ceph status时,我得到:
health HEALTH_WARN
too many PGs per OSD (1042 > max 300)
这是令人困惑的,原因有二。首先,因为推荐的公式不能满
我一直在努力提高我们的ceph恢复速度,我在ceph文档和各种论坛上遇到的每一个选项似乎都没有效果。
我已经尝试了在恢复速度没有变化的情况下设置在线选项的组合。当前设置通过以下方式设置:
for i in $(sudo ceph osd ls)
do
sudo ceph tell osd.$i injectargs --osd-max-backfills=7 \
--osd-recovery-max-active=50 \
--osd-recovery
我按照这文档设置了Ceph集群。我有一个Manager节点、一个Monitor节点和三个OSD节点。问题是,在我设置完集群之后,ceph health返回了所有三个节点的HEALTH_OK。然而,当我回到我的集群时,情况就不太好了。这是健康检查的输出:
HEALTH_WARN Reduced data availability: 96 pgs inactive
PG_AVAILABILITY Reduced data availability: 96 pgs inactive
pg 0.0 is stuck inactive for 35164.889973, current stat
这是我得到的查询:
select * from order_shipping_date osd inner join
(SELECT MAX(osd.id) as id FROM order_shipping_date osd
group by osd.order_id) osdi ON osd.id = osdi.id
我可以这样保持它,但我希望可以将它定义为
以后使用这样的代码会更舒服,这是可行的吗?我找不到任何例子。
我有2个带CEPH的数据中心和12个osd (DC1: 3osd x 2节点,DC2: 3osd x 2节点)和1个复制大小为2的池。
压碎贴图:
ceph osd tree
ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF
-1 2.00000 root default
-105 1.00000 datacenter 1
-102 1.00000
从octopus开始,ceph集群默认将osd_pool_default_pg_autoscale_mode标志设置为on。
到目前为止,我可以像那样使用ceph config set global osd_pool_default_pg_autoscale_mode off从cli中关闭它。
我想从ceph.conf文件中设置它:
[global]
...
osd pool default pg autoscale mode = off
pg autoscale mode = off
然而,ceph osd pool autoscale-status仍然显示新创建的池打开了自动缩放,即使在重
我使用的是基于Ubuntu Server 14.04的3节点Ceph集群。实际上,我的问题是192个置放群组(Pg)处于active+remapped状态。所有节点都在线,并且所有osds都在线。
如何清理pgs?
root@node1:~# ceph status
cluster 776020a6-5c44-49c8-93e4-4a83703d4315
health HEALTH_WARN 192 pgs stuck unclean
monmap e1: 3 mons at {node1=192.168.178.101:6789/0,node2=192.1