我已经在kubernetes集群中部署了ceph集群,并尝试使用ceph和CephRbd类型的卷挂载在pod中git克隆一个存储库。
尽管将所有文件写入卷需要花费大量时间。
git存储库大约有4 4gb大小。
想知道这是否是正常行为?
规格:
4个kubernetes节点-1个主服务器+3个从节点3个Osd 3个mon 1个元数据服务器1个mnager守护进程
ceph使用3个节点作为存储,这是第二个100 as大小的ssd驱动器。
发布于 2020-11-05 16:38:55
我们也在运行一个小的ceph集群(4个节点,每个节点2个OSD)。节点由ceph独占使用。它们连接10千兆位以太网,有三星服务器级固态硬盘(我建议谨慎使用三星固态硬盘,因为有this incompatibility)。尤其是服务器级固态硬盘为我们带来了更高的吞吐量。降低延迟的每一部分都能为您带来更好的吞吐量和更好的响应速度,从而提高小文件的创建率。
我们一开始有三个节点,每个OSD有两个消费者OSD。那段时间是非常繁重的,因为有30个虚拟机使用ceph作为后备存储,我们遇到了一些情况,ceph无法快速跟上IO。
ceph节点越多越好。添加第四个节点对我们来说有很大的不同。保持ceph节点对ceph是唯一的。有足够的RAM。不要让OSD交换。使用推荐的硬件。
我只能强烈推荐这本书:Mastering Ceph 2nd Edition。它充满了有价值的信息。
https://stackoverflow.com/questions/64683937
复制相似问题