我正在设置一个小型Kubernetes集群,使用一个VM (主)和3个裸机服务器(都运行Ubuntu 14.04)。我关注了Kubernetes的。每台裸机服务器还具有使用导出的2T磁盘空间。一切正常,但是当我尝试启动一个复制控制器时,我得到了以下信息(kubectl get pods):
NAME READY STATUS RESTARTS AGE
site2-zecnf 0/1 Image: site-img is ready, container is creat
我们面临一个关于监视卷存储的问题。
我们使用度量"kubelet_volume_stats_used_bytes“和"kubelet_volume_stats_capacity_bytes”。在我们的实验室中,我们有>100个卷安装到荚中,其中有14个卷是由Glusterfs存储创建的,其余的卷是由Ceph提供的。
$ kubectl get sc
NAME PROVISIONER AGE
default ceph.rook.io/b
我目前正在使用Rookv1.2.2在我的Kubernetes集群(v1.16.3)上创建一个Ceph集群,而且我没有在我的CrushMap上添加一个机架级别。
我想说的是:
ID CLASS WEIGHT TYPE NAME
-1 0.02737 root default
-3 0.01369 host test-w1
0 hdd 0.01369 osd.0
-5 0.01369 host test-w2
1 hdd 0.01369 osd.1
这样的事情:
ID CLASS WEIGHT TY
我得到了Kubernetes Cluster,它有1个master节点和3个worker节点。
calico v3.7.3 kubernetes v1.16.0通过kubespray 安装
在此之前,我通常部署所有的pod都没有任何问题。
我不能启动几个pod (Ceph):
kubectl get all --namespace=ceph
NAME READY STATUS RESTARTS AGE
pod/ceph-cephfs-test 0/1 Pend
我查找了RBD磁盘空间使用情况,但发现来自Ceph和挂载磁盘的主机的统计数据不同。 来自Ceph: $ rbd -p rbd du
NAME PROVISIONED USED
kubernetes-dynamic-pvc-13a2d932-6be0-11e9-b53a-0a580a800339 40GiB 37.8GiB 从装载磁盘的主机 $ df -h
Filesystem Size Used Available Use%
首先,对不起,我在ceph集群中的英语很差,当我运行ceph df detail命令时,它显示的结果如下所示
RAW STORAGE:
CLASS SIZE AVAIL USED RAW USED %RAW USED
hdd 62 TiB 52 TiB 10 TiB 10 TiB 16.47
ssd 8.7 TiB 8.4 TiB 370 GiB 377 GiB 4.22
TOTAL