我在我的Proxmox服务器上得到了以下错误。在过去的几天里,这种情况已经发生过多次。我怎样才能测试RAID硬盘是否有问题?
This is an automatically generated mail message from mdadm
running on myserver
A DegradedArray event had been detected on md device /dev/md2.
Faithfully yours, etc.
P.S. The /proc/mdstat file currently contains the following:
Per
只有远程访问(没有物理访问)、服务器(即SSH),如何(或者可能是可能的):
找出它是否配置了RAID?如果它是RAID配置的,它是软件还是硬件RAID?这是什么级别的突袭?
找到硬盘的RPM速度吗?
注意:在本例中,我可以访问基于RHEL4 4/5和CentOS4 4/5的Linux服务器。
编辑
下面是来自mount服务器的RHEL4命令的输出:
/dev/mapper/VolGroup00-LogVol00 on / type ext3 (rw)
none on /proc type proc (rw)
none on /sys type sysfs (rw)
none on /dev/
从昨天开始,我的服务器发送这样的邮件:
A DegradedArray event had been detected on md device /dev/md2
P.S. The /proc/mdstat file currently contains the following:
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md1 : active raid1 sdb1[1] sda1[2](F)
20478912 blocks
在使用gdisk时,有一个选项可以指定十六进制代码。我想知道它是什么,为什么需要它,见下文。因此,例如,如果我在我的驱动器上创建一个软件RAID,我假设我需要代码fd00。但是为什么呢?它是什么,我要用它吗?为什么我不能使用8300创建raid数组(不管这意味着什么)?
Command (? for help): n
Partition number (1-128, default 1):
First sector (34-5860533134, default = 2048) or {+-}size{KMGTP}:
Last sector (2048-5860533134, defaul
我在CentOS 6框上有一个RAID 5数组(顶部是LVM )。该阵列本身是一个LSI StorageTek磁盘架,有14个驱动器通过光纤通道电缆连接到服务器。
重新启动机器后,RAID阵列将不会恢复。Gnome中的磁盘实用程序声明它“不运行,部分组装”。
我运行了mdadmin --assemble --scan,上面说:
mdadm: /dev/md/:storagetek-1_0 assembled from 1 drive - not enough to start the array.
mdadm: No arrays found in config file or automat
我正在远程服务器上运行Ubuntu14.04。这是唯一安装的操作系统。在重新启动机器之前,我需要非常谨慎,因为KVM对服务器的访问非常棘手。
在GRUB更新期间,有人问我在哪里安装GRUB。磁盘上有Raid1。我不知道我该去哪里。
下面是挂载表:
# mount
/dev/md2 on / type ext4 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw,noexec,nosuid,nodev)
none on /sys/fs/cgroup type tmpfs (rw)
none on /sys/fs/fuse