今日、私はRAIDアレイ(ソフトウェアRAID10)について文句を言う多くのメッセージを見つけて調べ始めましたが、ステータス出力を正しく解釈しているかどうかわからないので、助けが必要です(実際のRAIDが何であるか忘れました)設定は)マシンがリモートの場所にあり、約1〜2年前に設定したためでした。
システムEメール:
N 14 [email protected] Wed May 25 21:30 32/1059 Fail event on /dev/md/0:EDMedia
N 15 [email protected] Thu May 26 06:25 30/1025 DegradedArray event on /dev/md/0:EDMedia
N 16 [email protected] Thu May 26 06:25 30/1025 SparesMissing event on /dev/md/0:EDMedia
これで出力を見ていますが、特に混乱している点は次のとおりです。
Number Major Minor RaidDevice State
0 0 0 0 removed
これは、ディスクが削除(またはアレイから削除)されたことを意味しますか? 「/dev/sda1」をもう一度追加しますか?使用している特定のパーティションディスクを追加して状況を悪化させることなく、「/dev/sda1」が「/dev/md0」の一部であることを知る方法はありますか?
ステータス出力:
'mdadm -D /dev/md0' 出力:
/dev/md0:
Version : 1.2
Creation Time : Mon Feb 8 23:15:33 2016
Raid Level : raid10
Array Size : 2197509120 (2095.71 GiB 2250.25 GB)
Used Dev Size : 1465006080 (1397.14 GiB 1500.17 GB)
Raid Devices : 3
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Thu Sep 1 19:54:05 2016
State : clean, degraded
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Name : EDMEDIA:0
UUID : 6ebf98c8:d52a13f0:7ab1bffb:4dbe22b6
Events : 4963861
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 17 1 active sync /dev/sdb1
2 8 33 2 active sync /dev/sdc1
"lsblk" 出力:
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 1.4T 0 disk
└─sda1 8:1 0 1.4T 0 part
sdb 8:16 0 1.4T 0 disk
└─sdb1 8:17 0 1.4T 0 part
└─md0 9:0 0 2T 0 raid10
├─md0p1 259:0 0 1.5M 0 md
├─md0p2 259:1 0 244.5M 0 md /boot
└─md0p3 259:2 0 2T 0 md
├─EDMedia--vg-root 253:0 0 2T 0 lvm /
└─EDMedia--vg-swap_1 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 1.4T 0 disk
└─sdc1 8:33 0 1.4T 0 part
└─md0 9:0 0 2T 0 raid10
├─md0p1 259:0 0 1.5M 0 md
├─md0p2 259:1 0 244.5M 0 md /boot
└─md0p3 259:2 0 2T 0 md
├─EDMedia--vg-root 253:0 0 2T 0 lvm /
└─EDMedia--vg-swap_1 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 1.4T 0 disk
└─sdd1 8:49 0 1.4T 0 part
sdj 8:144 0 298.1G 0 disk
└─sdj1 8:145 0 298.1G 0 part
sr0 11:0 1 1024M 0 rom
「df」出力:
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/dm-0 2146148144 1235118212 801988884 61% /
udev 10240 0 10240 0% /dev
tmpfs 1637644 17124 1620520 2% /run
tmpfs 4094104 0 4094104 0% /dev/shm
tmpfs 5120 0 5120 0% /run/lock
tmpfs 4094104 0 4094104 0% /sys/fs/cgroup
/dev/md0p2 242446 34463 195465 15% /boot
'watch -n1 cat /proc/mdstat' 出力:
Every 1.0s: cat /proc/mdstat Thu Sep 1 21:26:22 2016
Personalities : [raid10]
md0 : active raid10 sdb1[1] sdc1[2]
2197509120 blocks super 1.2 512K chunks 2 near-copies [3/2] [_UU]
bitmap: 16/17 pages [64KB], 65536KB chunk
unused devices: <none>
ベストアンサー1
あなたのraid10アレイは、2つのアクティブドライブと1つのスペアドライブで構成されているようです。スペアパーツはありません。
これにはいくつかの理由があります。
- サーバーからスペアディスクを削除した可能性があります。
- ドライブが死んでいる可能性があり、再構築後に既存のホットスペアがアクティブになる可能性があります。
- ホットスペアが使用される前に破損している可能性があります。
- 過去のある時点で、ドライブ(またはケーブル)が「不良」であり、アレイから自動的に取り外された可能性があります。
サーバーに破損したディスクがあるかどうかを確認できます。これはlsblk出力でも表示できません。他のドライブ(sda1またはsdd1)の1つがアレイの一部でしたが、今は破損している可能性があります。 (小さすぎるためsdj1にはなりません。)
サーバーから破損したドライブを取り外します。
警告を回避するには、ホットスペアドライブ(使用されていない破損していないドライブのいずれか)を再度追加するか、ホットスペアドライブがなくなるようにアレイを設定します。ケース4では、同じドライブが再び失敗する可能性が高くなります。
しかし、過去に正確に何が起こったのかを確認するには、以前のログファイルで関連メッセージを参照してください。