前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >更换osd 停止集群迁移

更换osd 停止集群迁移

作者头像
用户3701490
修改2021-10-28 18:06:14
7750
修改2021-10-28 18:06:14
举报
文章被收录于专栏:学习使人进步学习使人进步

转载 https://cloud.tencent.com/developer/user/1021473/inventories

ceph 运维手册

https://www.kancloud.cn/willseecloud/ceph/1788307

Ceph添加、删除osd及故障硬盘更换

添加或删除osd均在ceph部署节点的cent用户下的ceph目录进行。

1. 添加osd

当前ceph集群中有如下osd,现在准备新添加osd:

  (1)选择一个osd节点,添加好新的硬盘:

  (2)显示osd节点中的硬盘,并重置新的osd硬盘:

列出节点磁盘:

代码语言:javascript
复制
ceph-deploy disk list rab1

擦净节点磁盘:

代码语言:javascript
复制
ceph-deploy disk zap rab1 /dev/sbd(或者)ceph-deploy disk zap rab1:/dev/vdb1

  (3)准备Object Storage Daemon:

代码语言:javascript
复制
ceph-deploy osd prepare rab1:/var/lib/ceph/osd1

  (4)激活Object Storage Daemon:

代码语言:javascript
复制
ceph-deploy osd activate rab1:/var/lib/ceph/osd1

2. 删除osd

现在要将 rab1中的 osd.4 删除:

(1)把 OSD 踢出集群

代码语言:javascript
复制
ceph osd out osd.4

(2)在相应的节点,停止ceph-osd服务

代码语言:javascript
复制
systemctl stop ceph-osd@4.service
systemctl disable ceph-osd@4.service

(3)删除 CRUSH 图的对应 OSD 条目,它就不再接收数据了

代码语言:javascript
复制
ceph osd crush remove osd.4

(4)删除 OSD 认证密钥

代码语言:javascript
复制
ceph auth del osd.4

(5)删除osd.4

代码语言:javascript
复制
ceph osd rm osd.4

3. ceph osd故障硬盘更换

正常状态:

down

故障状态:

up

实施更换步骤:

(1)关闭ceph集群数据迁移:

  osd硬盘故障,状态变为down。在经过mod osd down out interval 设定的时间间隔后,ceph将其标记为out,并开始进行数据迁移恢复。为了降低ceph进行数据恢复或scrub等操作对性能的影响,可以先将其暂时关闭,待硬盘更换完成且osd恢复后再开启:

代码语言:javascript
复制
for i in noout nobackfill norecover noscrub nodeep-scrub;do ceph osd set $i;done

(2)定位故障osd

代码语言:javascript
复制
ceph osd tree | grep -i down

(3)进入osd故障的节点,卸载osd挂载目录

代码语言:javascript
复制
[root@node3 ~]# umount /var/lib/ceph/osd/ceph-5

(4)从crush map 中移除osd

代码语言:javascript
复制
[root@node1 ~]# ceph osd crush remove osd.5
removed item id 5 name 'osd.5' from crush map

 (5)删除故障osd的密钥

代码语言:javascript
复制
[root@node1 ~]# ceph auth del osd.5
updated

(6)删除故障osd

代码语言:javascript
复制
[root@node1 ~]# ceph osd rm 5
removed osd.5

(7)更换完新硬盘后,注意新硬盘的盘符,并创建osd

(8)在部署节点,切换为cent用户,添加新的osd

代码语言:javascript
复制
[cent@deploy ceph]$ ceph-deploy osd create --data /dev/sdd node3

(9)待新osd添加crush map后,重新开启集群禁用标志

代码语言:javascript
复制
for i in noout nobackfill norecover noscrub nodeep-scrub;do ceph osd unset $i;done

ceph集群经过一段时间的数据迁移后,恢复active+clean状态

本文系转载,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文系转载前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Ceph添加、删除osd及故障硬盘更换
  • 1. 添加osd
  • 2. 删除osd
  • 3. ceph osd故障硬盘更换
相关产品与服务
文件存储
文件存储(Cloud File Storage,CFS)为您提供安全可靠、可扩展的共享文件存储服务。文件存储可与腾讯云服务器、容器服务、批量计算等服务搭配使用,为多个计算节点提供容量和性能可弹性扩展的高性能共享存储。腾讯云文件存储的管理界面简单、易使用,可实现对现有应用的无缝集成;按实际用量付费,为您节约成本,简化 IT 运维工作。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档