###背景 随着ceph集群不断的变大和复杂,可能会遇到,整个容量很大,但是真正的数据使用率很低的情况。比如明明有100多TB的空间,但是数据才存了20TB,就发生了osd full的问题。磁盘使用率极为不平衡。这就需要人工干预了,其中有一些技巧和规范,我自己总结一下,希望对大家有用,另外下面都是我自己的理解,可能表述和理解是有问题,仅供参考,我尽可能用我实际操作的结果来证明我的理解。 ####机型的选择和crush map的划分
####容量的显示和理解
ceph df
rados df
但是要正确理解这些命令的输出,比如ceph df的输出global里的tatol size,他是指所有在线osd的存储容量总大小。你所在的pool最大可用要看对应的输出,他的计算一般是非常准确的,不过可能会让人感到很困惑,那是因为你对pool size的理解还不到位所致,但是记住,ceph df 中max available是非常准确的,它显示1T,你绝对存不了1025GB,你这里显示的比你预期的小,你得多找找原因。
####一些影响因素解释