我有一个用mdadm创建的raid 5设备。我当时正在做这件事,长话短说,我想输入mdadm --manage /dev/md127 -a /dev/sdd,但我意外地输入了mdadm --manage /dev/md127 -a /dev/md127 -a /dev/sdd,它将raid作为备用驱动器添加到了它自己。
Number Major Minor RaidDevice State
4 8 32 0 active sync /dev/sdc
1 8 16
不知何故,我的RAID 1配置中的两个驱动器已连接成两个设备(md0,md127):
~# lsblk -o NAME,SIZE,MOUNTPOINT,STATE,FSTYPE,MODEL,SERIAL,UUID,LABEL
NAME SIZE MOUNTPOINT STATE FSTYPE MODEL SERIAL UUID LABEL
sda 1.8T running linux_raid_member ST32
我正在远程服务器上运行Ubuntu14.04。这是唯一安装的操作系统。在重新启动机器之前,我需要非常谨慎,因为KVM对服务器的访问非常棘手。
在GRUB更新期间,有人问我在哪里安装GRUB。磁盘上有Raid1。我不知道我该去哪里。
下面是挂载表:
# mount
/dev/md2 on / type ext4 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw,noexec,nosuid,nodev)
none on /sys/fs/cgroup type tmpfs (rw)
none on /sys/fs/fuse
在/etc/mdadm.conf中定义了一个raid数组,如下所示:
ARRAY /dev/md0 devices=/dev/sdb6,/dev/sdc6
ARRAY /dev/md1 devices=/dev/sdb7,/dev/sdc7
但当我试图骑上它们的时候,我得到了这个:
# mount /dev/md0 /mnt/media/
mount: special device /dev/md0 does not exist
# mount /dev/md1 /mnt/data
mount: special device /dev/md1 does not exist
与此同时,/proc
我面临着一个非常烦人的错误,我已经用mdadm设置了一个软件RAID1,并且安装过程与这个结果完全一致。
/dev/md/luas.mgspativa.com.ar:0
我还配置了这样的mdadm.conf
DEVICE /dev/sda /dev/sdb
# auto-create devices with Debian standard permissions CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system HO
我试图识别一个嵌入式Linux发行版。以下是我到目前为止输入的命令:
$ uname -a
Linux LIN-SRV-EMB01 3.10.105 #25556 SMP Sat Aug 28 02:14:22 CST 2021 x86_64 GNU/Linux synology_bromolow_rs3412rpxs
$ lsb_release
-sh: lsb_release: command not found
$ ls /usr/lib/os-release
ls: cannot access /usr/lib/os-release: No such file or directo
当我尝试格式化dev/sdb1时,我会得到这个错误:
$ mkfs.ext4 -L data /dev/sdb1
mke2fs 1.42.13 (17-May-2015)
/dev/sdb1 is apparently in use by the system; will not make a filesystem here!
其中/dev/sdb有一个分区,我用echo 'type=83' | sudo sfdisk /dev/sdb创建了该分区:
$ fsdisk -l
Disk /dev/sdb: 1.8 TiB, 2000398934016 bytes,