ステータス出力:

ステータス出力:

今日、私はRAIDアレイ(ソフトウェアRAID10)について文句を言う多くのメッセージを見つけて調べ始めましたが、ステータス出力を正しく解釈しているかどうかわからないので、助けが必要です(実際のRAIDが何であるか忘れました)設定は)マシンがリモートの場所にあり、約1〜2年前に設定したためでした。

システムEメール:

 N 14 [email protected]  Wed May 25 21:30   32/1059  Fail event on /dev/md/0:EDMedia
 N 15 [email protected]  Thu May 26 06:25   30/1025  DegradedArray event on /dev/md/0:EDMedia
 N 16 [email protected]  Thu May 26 06:25   30/1025  SparesMissing event on /dev/md/0:EDMedia

これで出力を見ていますが、特に混乱している点は次のとおりです。

Number   Major   Minor   RaidDevice State
   0       0        0        0      removed

これは、ディスクが削除(またはアレイから削除)されたことを意味しますか? 「/dev/sda1」をもう一度追加しますか?使用している特定のパーティションディスクを追加して状況を悪化させることなく、「/dev/sda1」が「/dev/md0」の一部であることを知る方法はありますか?


ステータス出力:


'mdadm -D /dev/md0' 出力:

/dev/md0:
        Version : 1.2
  Creation Time : Mon Feb  8 23:15:33 2016
     Raid Level : raid10
     Array Size : 2197509120 (2095.71 GiB 2250.25 GB)
  Used Dev Size : 1465006080 (1397.14 GiB 1500.17 GB)
   Raid Devices : 3
  Total Devices : 2
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Thu Sep  1 19:54:05 2016
          State : clean, degraded
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

         Layout : near=2
     Chunk Size : 512K

           Name : EDMEDIA:0
           UUID : 6ebf98c8:d52a13f0:7ab1bffb:4dbe22b6
         Events : 4963861

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       17        1      active sync   /dev/sdb1
       2       8       33        2      active sync   /dev/sdc1

"lsblk" 出力:

NAME                       MAJ:MIN RM   SIZE RO TYPE   MOUNTPOINT
sda                          8:0    0   1.4T  0 disk
└─sda1                       8:1    0   1.4T  0 part
sdb                          8:16   0   1.4T  0 disk
└─sdb1                       8:17   0   1.4T  0 part
  └─md0                      9:0    0     2T  0 raid10
    ├─md0p1                259:0    0   1.5M  0 md
    ├─md0p2                259:1    0 244.5M  0 md     /boot
    └─md0p3                259:2    0     2T  0 md
      ├─EDMedia--vg-root   253:0    0     2T  0 lvm    /
      └─EDMedia--vg-swap_1 253:1    0    16G  0 lvm    [SWAP]
sdc                          8:32   0   1.4T  0 disk
└─sdc1                       8:33   0   1.4T  0 part
  └─md0                      9:0    0     2T  0 raid10
    ├─md0p1                259:0    0   1.5M  0 md
    ├─md0p2                259:1    0 244.5M  0 md     /boot
    └─md0p3                259:2    0     2T  0 md
      ├─EDMedia--vg-root   253:0    0     2T  0 lvm    /
      └─EDMedia--vg-swap_1 253:1    0    16G  0 lvm    [SWAP]
sdd                          8:48   0   1.4T  0 disk
└─sdd1                       8:49   0   1.4T  0 part
sdj                          8:144  0 298.1G  0 disk
└─sdj1                       8:145  0 298.1G  0 part
sr0                         11:0    1  1024M  0 rom

「df」出力:

Filesystem      1K-blocks       Used Available Use% Mounted on
/dev/dm-0      2146148144 1235118212 801988884  61% /
udev                10240          0     10240   0% /dev
tmpfs             1637644      17124   1620520   2% /run
tmpfs             4094104          0   4094104   0% /dev/shm
tmpfs                5120          0      5120   0% /run/lock
tmpfs             4094104          0   4094104   0% /sys/fs/cgroup
/dev/md0p2         242446      34463    195465  15% /boot

'watch -n1 cat /proc/mdstat' 出力:

Every 1.0s: cat /proc/mdstat                                                                                                                                                           Thu Sep  1 21:26:22 2016

Personalities : [raid10]
md0 : active raid10 sdb1[1] sdc1[2]
      2197509120 blocks super 1.2 512K chunks 2 near-copies [3/2] [_UU]
      bitmap: 16/17 pages [64KB], 65536KB chunk

unused devices: <none>

ベストアンサー1

あなたのraid10アレイは、2つのアクティブドライブと1つのスペアドライブで構成されているようです。スペアパーツはありません。

これにはいくつかの理由があります。

  1. サーバーからスペアディスクを削除した可能性があります。
  2. ドライブが死んでいる可能性があり、再構築後に既存のホットスペアがアクティブになる可能性があります。
  3. ホットスペアが使用される前に破損している可能性があります。
  4. 過去のある時点で、ドライブ(またはケーブル)が「不良」であり、アレイから自動的に取り外された可能性があります。

サーバーに破損したディスクがあるかどうかを確認できます。これはlsblk出力でも表示できません。他のドライブ(sda1またはsdd1)の1つがアレイの一部でしたが、今は破損している可能性があります。 (小さすぎるためsdj1にはなりません。)

サーバーから破損したドライブを取り外します。

警告を回避するには、ホットスペアドライブ(使用されていない破損していないドライブのいずれか)を再度追加するか、ホットスペアドライブがなくなるようにアレイを設定します。ケース4では、同じドライブが再び失敗する可能性が高くなります。

しかし、過去に正確に何が起こったのかを確認するには、以前のログファイルで関連メッセージを参照してください。

おすすめ記事