最近我的一个驱动器在我的RAID中坏了,我正在用一个新的驱动器替换。我使用这个答案来镜像旧驱动器上的分区以进行重新同步。但我担心的是输出。我的驱动器是4k扇区,我第一次做错什么了吗?
Checking that no-one is using this disk right now ...
OK
Warning: partition 1 does not end at a cylinder boundary
Warning: partition 2 does not start at a cylinder boundary
Warning: partition 2 does not end a
只有远程访问(没有物理访问)、服务器(即SSH),如何(或者可能是可能的):
找出它是否配置了RAID?如果它是RAID配置的,它是软件还是硬件RAID?这是什么级别的突袭?
找到硬盘的RPM速度吗?
注意:在本例中,我可以访问基于RHEL4 4/5和CentOS4 4/5的Linux服务器。
编辑
下面是来自mount服务器的RHEL4命令的输出:
/dev/mapper/VolGroup00-LogVol00 on / type ext3 (rw)
none on /proc type proc (rw)
none on /sys type sysfs (rw)
none on /dev/
我正在远程服务器上运行Ubuntu14.04。这是唯一安装的操作系统。在重新启动机器之前,我需要非常谨慎,因为KVM对服务器的访问非常棘手。
在GRUB更新期间,有人问我在哪里安装GRUB。磁盘上有Raid1。我不知道我该去哪里。
下面是挂载表:
# mount
/dev/md2 on / type ext4 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw,noexec,nosuid,nodev)
none on /sys/fs/cgroup type tmpfs (rw)
none on /sys/fs/fuse
在使用gdisk时,有一个选项可以指定十六进制代码。我想知道它是什么,为什么需要它,见下文。因此,例如,如果我在我的驱动器上创建一个软件RAID,我假设我需要代码fd00。但是为什么呢?它是什么,我要用它吗?为什么我不能使用8300创建raid数组(不管这意味着什么)?
Command (? for help): n
Partition number (1-128, default 1):
First sector (34-5860533134, default = 2048) or {+-}size{KMGTP}:
Last sector (2048-5860533134, defaul
我在我的Proxmox服务器上得到了以下错误。在过去的几天里,这种情况已经发生过多次。我怎样才能测试RAID硬盘是否有问题?
This is an automatically generated mail message from mdadm
running on myserver
A DegradedArray event had been detected on md device /dev/md2.
Faithfully yours, etc.
P.S. The /proc/mdstat file currently contains the following:
Per
从昨天开始,我的服务器发送这样的邮件:
A DegradedArray event had been detected on md device /dev/md2
P.S. The /proc/mdstat file currently contains the following:
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md1 : active raid1 sdb1[1] sda1[2](F)
20478912 blocks
我有一个带有使用mdadm的软件raid1设置的centos7.2服务器。
今天早上我注意到mdadm正在“检查”数组,但我不知道为什么。根本没有邮件,我也找不到mdadm事件的任何日志文件。我试过问候/var/log/messages和journalctl,但是我在那里也没有发现任何东西。在/var/log/中似乎没有任何与raid相关的东西。
Centos中mdadm日志的默认位置是什么?
# mdadm.conf written out by anaconda
MAILADDR root
AUTO +imsm +1.x -all
ARRAY /dev/md/0 level=raid1 n