首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

Linux 远程挂载 Ceph RBD 磁盘

block storage RBD 是 Ceph 的块存储方案,最近需要在一台 Linux 服务器上挂载 Ceph 镜像,做法和 Kubernetes 挂 RBD 很像,但部分操作由于 Kubernetes...安装 Ceph 要挂载 RBD 磁盘的 Linux 服务器首先要有 Ceph 的客户端,也就是 RBD 的客户端,以及一些 RBD 专用的 kernel module,毕竟这是要通过网络走特定的协议来完成的磁盘挂载...创建和挂载磁盘 上一步,已经在要挂载 RBD 的 Linux 服务器上安装好了 Ceph,接下来的操作在要挂载 Ceph RBD 磁盘的 Linux 服务器上操作即可。...$ sudo rbd map / /dev/rbd0 接下来的操作和挂载一个本地磁盘就没有任何区别了: $ sudo mkfs.ext4 /dev/rbd0...Mismatch Error on Ceph Kernel Client Linux挂载RBD ceph分布式存储实战(4)——ceph存储配置(映射RBD镜像到客户端)

5.4K10

rbd-mirror配置指南-单向备份

The RBD mirroring 依赖两个新的rbd的属性 journaling: 启动后会记录image的事件 mirroring: 明确告诉rbd-mirror需要复制这个镜像 也有命令可以禁用单独的某个镜像...---- 配置实践部分 先介绍下一些简单的概念 rbd-mirror 进程 rbd-mirror进程负责将镜像从一个Ceph集群同步到另一个集群 根据复制的类型,rbd-mirror可以在单个集群上或者是镜像的两个集群上都运行...语法: rbd mirror pool enable 在lab8106主机上执行: rbd mirror pool enable rbd image 在lab8107...主机上执行: rbd mirror pool enable rbd image 上面的操作是对rbd存储池启动image模式的mirror配置 如果需要关闭: 语法: rbd mirror pool disable...[root@lab8106 ceph]# rbd info rbd/image-1 rbd image 'image-1': size 1024 MB in 256 objects order 22

1.7K11

rbd的image快照与Pool快照

23:13:10.266865 7efbfb7fe700 -1 librbd::image::CreateRequest: pool not configured for self-managed RBD...snapshot support rbd: create error: (22) Invalid argument 这个错我之前也没见过,并且因为很少用到快照,所以可能也就没有触发这个问题,在查看了一些资料以后...create testpool2 8 pool 'testpool2' created 我们在testpool1当中创建一个image,testpool2保留为空 [root@lab8106 ~]# rbd...RBD snapshot,创建的时候会去检查是否是自管理模式 这个地方有个配置项目是 rbd_validate_pool = true 我们把这个参数改成false,然后再次创建 [root@lab8106...~]# rbd -p testpool2 create testimag3 --size 4000 就可以创建了 本篇共出现了两次抛错,所以,这个是需要我们去做好选择的,总结下大概是这样的 ?

3.1K20

Ceph RBD和QEMU块设备qos测试

在本文中,我们将深入探讨 Ceph RBD 的 QoS 特性,重点关注如何验证和量化 RBD QoS 设置的效果。...测试步骤 在ceph 14版本开始支持rbd的qos 详细配置参数可以参考https://docs.ceph.com/en/latest/rbd/rbd-config-ref/ ceph rbd的qos...这里解释下rbd_qos_write_iops_burst_seconds=1表示在达到写入 IOPS 限制(由 rbd_qos_write_iops_limit 参数设置)之后,RBD 图像可以以突发模式继续写入操作的时间长度...config pool set libvirt-pool rbd_qos_iops_limit 0 rbd config pool set libvirt-pool rbd_qos_bps_limit...当然也可以使用qemu在块设备上做虚拟机磁盘的io限制,使用qemu做qos的优点是本地硬盘也可以进行限速,而ceph rbd的qos对象只是ceph集群中的rbd镜像。

34100
领券