我创建了一个示例红宝石脚本文件,用于从系统中删除额外的LVM快照。
为了删除LVM快照,我们使用lvremove命令。此命令工作正常,我们可以从系统中删除快照。
# sudo lvremove /dev/ops/dbbackup
lvremove -- do you really want to remove "/dev/ops/dbbackup"? [y/n]: y
有时,当删除快照时,我们会得到以下错误。
Unable to deactivate open rootfs_12.10_20140812_00-cow (252:8)
Failed to resume ro
如何擦除此VG上的PE分配,使其再次为空白?目前只有18个免费;
root@box1:~# vgdisplay
--- Volume group ---
VG Name tester
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 8
VG Access read/write
VG Status resizable
MAX LV
服务器有几个卷的瘦LVM:
vm-130-disk-0 - was deleted and need to be restored.
vm-137-disk-0 - was NOT deleted.
尝试还原在删除之前创建的/etc/lvm/00336/pve_00336-2034680334.vg:
# vgcfgrestore --force --file /etc/lvm/archive/pve_00336-2034680334.vg pve
# vgimport pve
# lvchange -ay /dev/pve/vm-130-disk-0
Thin pool pve-
情况:
带有LVM和/是逻辑卷的debian 11 : /dev/mainvg/lv-root
通过执行lvcreate -L5G -n bkp_lvroot -s /dev/mainvg/lvroot创建根分区的快照。
现在我用apt更新了系统,安装了一个新内核,但是grub探测失败了。输出:
[...]
Setting up linux-image-5.10.0-21-amd64 (5.10.162-1) ...
I: /vmlinuz.old is now a symlink to boot/vmlinuz-5.10.0-20-amd64
I: /initrd.img.old is no
在ceph集群中,如何在保留osd id的同时替换失败的磁盘?
以下是以下步骤(不成功):
# 1 destroy the failed osd(s)
for i in 38 41 44 47; do ceph osd destroy $i --yes-i-really-mean-it; done
# 2 create the new ones that take the previous osd ids
ceph orch apply osd -i replace.yaml
# Scheduled osd.ceph_osd_ssd update...
The replace.yaml
se
因此,我有一个LVM瘦池(用于带快照的glusterfs ),它被过度提交,现在具有元数据只读(M属性)。泳池上还保留了一些快照lvs (砂砾创建了它们,我告诉它移除它们,但是很明显,在薄池变成只读之前,砂砾没有机会清理它们)。
现在,我想从瘦池中删除那些快照LVS,以便释放一些空间,这样gluster就可以完成其余的清理工作(同时删除了大量文件)。但是,当我尝试用lvremove移除它们时,我得到:
Do you really want to remove and DISCARD logical volume 20fdbb3671824f0ebb3885c808d975b1_0? [y/n]