前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >openstack虚拟机内文件遭破坏的急救方案

openstack虚拟机内文件遭破坏的急救方案

作者头像
用户1057912
发布2018-08-02 15:04:11
4550
发布2018-08-02 15:04:11
举报
文章被收录于专栏:老安的博客老安的博客

一、场景:

    openstack虚拟机存放于ceph存储,由于用户将系统的grub误删除,导致系统无法正常引导。现在用户要求抢救文件。

二、可行的方案:

    1、将虚拟机保存为镜像,将镜像转换成云硬盘,将云硬盘挂载到其他虚拟机上镜像抢救。

        优点:依赖默认的dashboard就能完成操作,较为简单,不需要openstack命令行基础;

        缺点:只能抢救文件,不能修复原系统。

    2、将ceph中 虚拟机对应的rbd映射到到本地,挂载为本机的一个目录,进行抢救工作

       优点:可以直接修复原虚拟机的系统;

       缺点:需要一定的openstack命令行技能。

三、修复经过

    本文主要介绍 第二种的修复方法

    (一)、找出虚拟机对应的rbd

      1、查找虚拟机的宿主机

nova show a7584a2f-7b37-4a21-ae2f-3f244da49686 |grep hypervisor| OS-EXT-SRV-ATTR:hypervisor_hostname  | server-85.105.nanshu.polex.io

        2、关闭该虚拟机、

代码语言:javascript
复制
 nova stop a7584a2f-7b37-4a21-ae2f-3f244da49686

        3、登陆宿主机,查看xml文件  

代码语言:javascript
复制
<span style="font-size:14px;">ps -ef |grep a7584a2f-7b37-4a21-ae2f-3f244da49686<br>qemu      67511      1 17 14:17 ?        00:17:32 /usr/libexec/qemu-kvm -name instance-0000444a -S -machine pc-i440fx-rhel7.0.0,accel=kvm,usb=off -cpu Broadwell,+abm,+pdpe1gb,+rdrand,+f16c,+osxsave,+dca,+pdcm,+xtpr,+tm2,+est,+smx,+vmx,+ds_cpl,+monitor,+dtes64,+pbe,+tm,+ht,+ss,+acpi,+ds,+vme,+rtm,+hle -m 1024 -realtime mlock=off -smp 1,sockets=1,cores=1,threads=1 -uuid a7584a2f-7b37-4a21-ae2f-3f244da49686 -smbios type=1,manufacturer=Fedora Project,product=OpenStack Nova,version=13.1.2-1.el7.centos,serial=8153ba5c-de78-47c7-bc4c-c86b0d429f75,uuid=a7584a2f-7b37-4a21-ae2f-3f244da49686,family=Virtual Machine -no-user-config -nodefaults -chardev socket,id=charmonitor,path=/var/lib/libvirt/qemu/domain-instance-0000444a/monitor.sock,server,nowait -mon chardev=charmonitor,id=monitor,mode=control -rtc base=utc,driftfix=slew -global kvm-pit.lost_tick_policy=discard -no-hpet -no-shutdown -boot strict=on -device piix3-usb-uhci,id=usb,bus=pci.0,addr=0x1.0x2 -device virtio-serial-pci,id=virtio-serial0,bus=pci.0,addr=0x4 -drive file=rbd:pool-3aae4178cb8a470aab3dfcea9307e5c9/a7584a2f-7b37-4a21-ae2f-3f244da49686_disk:id=admin:key=AQAG1vlXEVDPIhAAyi0tZ3qZwt1HewbQHh731A==:auth_supported=cephx\;none:mon_host=10.48.106.247\:6789\;10.48.106.248\:6789\;10.48.106.249\:6789\;10.48.106.250\:6789\;10.48.106.251\:6789,if=none,id=drive-virtio-disk0,format=raw,cache=writeback,bps_rd=104857600,bps_wr=31457280,iops_rd=2000,iops_wr=500 -device virtio-blk-pci,scsi=off,bus=pci.0,addr=0x5,drive=drive-virtio-disk0,id=virtio-disk0,bootindex=1 -drive file=rbd:pool-3aae4178cb8a470aab3dfcea9307e5c9/a7584a2f-7b37-4a21-ae2f-3f244da4968_disk.config:id=admin:key=AQAG1vlXEVDPIhAAyi0tZ3qZwt1HewbQHh731A==:auth_supported=cephx\;none:mon_host=10.48.106.247\:6789\;10.48.106.248\:6789\;10.48.106.249\:6789\;10.48.106.250\:6789\;10.48.106.251\:6789,if=none,id=drive-ide0-1-1,readonly=on,format=raw,cache=writeback,bps_rd=104857600,bps_wr=31457280,iops_rd=2000,iops_wr=500 -device ide-cd,bus=ide.1,unit=1,drive=drive-ide0-1-1,id=ide0-1-1 -netdev tap,fd=32,id=hostnet0,vhost=on,vhostfd=34 -device virtio-net-pci,netdev=hostnet0,id=net0,mac=fa:16:3e:4d:5e:ad,bus=pci.0,addr=0x3 -chardev file,id=charserial0,path=/var/lib/nova/instances/a7584a2f-7b37-4a21-ae2f-3f244da49686/console.log -device isa-serial,chardev=charserial0,id=serial0 -chardev pty,id=charserial1 -device isa-serial,chardev=charserial1,id=serial1 -chardev socket,id=charchannel0,path=/var/lib/libvirt/qemu/org.qemu.guest_agent.0.instance-0000444a.sock,server,nowait -device virtserialport,bus=virtio-serial0.0,nr=1,chardev=charchannel0,id=channel0,name=org.qemu.guest_agent.0 -device usb-tablet,id=input0 -vnc 0.0.0.0:5 -k en-us -vga cirrus -incoming fd:25 -device virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x6 -msg timestamp=on<br> <br>  <br>  <br>cat /run/libvirt/qemu/instance-0000444a.xml |grep rbd<br>        <source protocol='rbd' name='pool-3aae4178cb8a470aab3dfcea9307e5c9/a7584a2f-7b37-4a21-ae2f-3f244da49686_disk'><br>        <source protocol='rbd' name='pool-3aae4178cb8a470aab3dfcea9307e5c9/a7584a2f-7b37-4a21-ae2f-3f244da49686_disk.config'><br></span>

可以看到 虚拟机对应是ceph中 叫 pool-3aae4178cb8a470aab3dfcea9307e5c9/a7584a2f-7b37-4a21-ae2f-3f244da49686_disk 的 rbd

   4 挂载 rbd到本地的/dev/rbd0

rbd map pool-3aae4178cb8a470aab3dfcea9307e5c9/a7584a2f-7b37-4a21-ae2f-3f244da49686_disk  /dev/rbd0

5、 挂载本地的/dev/rbd0 到 目录

   虚拟机是以raw格式的虚拟磁盘存放在ceph中,在挂在时候要计算偏移量,

  偏移量计算 参考文章 http://smilejay.com/2012/08/mount-an-image-file/

mount -o offset=1048576 /dev/rbd0 /mnt

至此 虚拟机的硬盘已经变成了我们节点上的一个目录,可以进去修复文件了。

6 撤退工作

umount /mnt    rbd unmap /dev/rbd0

四、需要注意的地方

    1、虚拟机一定要关机,不然文件系统在两处同时挂载的话会产生脏数据

    2、偏移量的计算

    3、快速迭代的虚拟机还是不要使用lvm

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017-07-13 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
专用宿主机
专用宿主机(CVM Dedicated Host,CDH)提供用户独享的物理服务器资源,满足您资源独享、资源物理隔离、安全、合规需求。专用宿主机搭载了腾讯云虚拟化系统,购买之后,您可在其上灵活创建、管理多个自定义规格的云服务器实例,自主规划物理资源的使用。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档