前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【Ceph】Ceph集群的pg auto scale

【Ceph】Ceph集群的pg auto scale

作者头像
runzhliu
发布2020-11-24 15:28:14
1.5K0
发布2020-11-24 15:28:14
举报
文章被收录于专栏:容器计算容器计算

对部分集群从 V12 升级到 V14 之后,就迎来了 Nautilus 版本的一个重要特性,就是 pg 的自动扩展。运维 Ceph 集群的朋友应该会感受到,如果经常扩容,上了 OSD 之后,又还需要去计算一遍 pg 的个数,然后再设置一次,还是比较麻烦的,而且公式本身比较简单,为什么不能让 pg 打到阈值之后自动分裂扩展呢?在 Nautilus 版本,就提供了这么一个模块工具,开启之后,就可以以 pool 为粒度的 pg 自动扩展。

下面我们看一下效果,可以看到由于升级到 Nautilus 之后,PG 的默认数量调整成32了,所以升级之后马上就会有这个 Warning,表示之前的 Pool 的 PG 跟32相比,多数原来在 V12 设置为 8 的一些 Pool 绝对就会说少了,所以下面做个试验,把其中一个 Pool 设置成 pg auto scale。

代码语言:javascript
复制
ceph osd pool autoscale-status
ceph osd pool set default.rgw.buckets.index pg_autoscale_mode on

开启之后会发现,该 Pool 的 AUTOSCALE 的地方从 warn 变成了 on,意思是即将把 PG 拆成32了。

在这里插入图片描述
在这里插入图片描述

最后看一下结果,这里是需要等待一小段时间让 PG 做完扩展的,default.rgw.buckets.index 确实被设置成32个 PG 了。

在这里插入图片描述
在这里插入图片描述
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020-11-18 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档