mdadmで構築されたRAID 5は、劣化モードで起動します。これは普通ですか?

mdadmで構築されたRAID 5は、劣化モードで起動します。これは普通ですか?

CentOS 7インストール(10x1TB)に新しいドライブセットを設定していますが、ビルドプロセス中に何か迷惑な現象が見られます。

アレイを構築しようとするとすぐに認識されますが、エラー状態(パフォーマンスの低下、ディスクが1つ欠落している)を示します。

完全なビルドコマンドは次のとおりです。

mdadm --create /dev/md1 --level=5 --raid-devices=9 /dev/sde1 /dev/sdg1 /dev/sdc1 /dev/sdd1 /dev/sdf1 /dev/sdl1 /dev/sdj1 /dev/sdi1 /dev/sdm1 --spare-devices=1 /dev/sdk1

しかし、その後、スペアドライブなしで同じことを試みました。

mdadm --create /dev/md1 --level=5 --raid-devices=9 /dev/sde1 /dev/sdg1 /dev/sdc1 /dev/sdd1 /dev/sdf1 /dev/sdl1 /dev/sdj1 /dev/sdi1 /dev/sdm1

以下は3つのドライブアレイのバリエーションです。

mdadm --create /dev/md1 --level=5 --raid-devices=3 /dev/sdj1 /dev/sdi1 /dev/sdm1

mdadm --create /dev/md1 --level=5 --raid-devices=3 /dev/sde1 /dev/sdg1 /dev/sdc1

すべての場合において、新しいアレイは予想される使用可能なサイズ(変形の場合は8TBおよび2TB)に初期化されます。再構築中もアレイを使用でき、ファイルを読み書きできます。

奇妙なことに、スペアドライブとして構築すると、スペアドライブは多くの読み取り/書き込みアクティビティを示しています。これは、このドライブが何とか構築に関与していることを意味します。

基本的にこれは正常ですか?正常でなければ、私が何を間違っているのでしょうか?

編集する:

これは次の出力です。mdadm --detail /dev/md1

/dev/md1:
        Version : 1.2
  Creation Time : Sun Jan  4 00:00:22 2015
     Raid Level : raid5
     Array Size : 7813042176 (7451.10 GiB 8000.56 GB)
  Used Dev Size : 976630272 (931.39 GiB 1000.07 GB)
   Raid Devices : 9
  Total Devices : 10
    Persistence : Superblock is persistent

    Update Time : Sun Jan  4 00:05:33 2015
          State : clean, degraded, recovering 
 Active Devices : 8
Working Devices : 10
 Failed Devices : 0
  Spare Devices : 2

         Layout : left-symmetric
     Chunk Size : 512K

 Rebuild Status : 0% complete

           Name : localhost.localdomain:1  (local to host localhost.localdomain)
           UUID : f2d4f470:9d5022bf:a397b5a0:45b94d28
         Events : 72

    Number   Major   Minor   RaidDevice State
       0       8       65        0      active sync   /dev/sde1
       1       8       97        1      active sync   /dev/sdg1
       2       8       33        2      active sync   /dev/sdc1
       3       8       49        3      active sync   /dev/sdd1
       4       8       81        4      active sync   /dev/sdf1
       5       8      177        5      active sync   /dev/sdl1
       6       8      145        6      active sync   /dev/sdj1
       7       8      129        7      active sync   /dev/sdi1
      10       8      193        8      spare rebuilding   /dev/sdm1

       9       8      161        -      spare   /dev/sdk1

ベストアンサー1

はい、これは正常です。配列を初めて作成するときは、パリティブロックを計算して作成する必要があります。これがまさに皆さんが見ているものです。ドライブがゼロで満たされていることがわかっている場合は、スイッチを使用して初期再同期をスキップ--assume-cleanできます。mdadmドライブが実際にゼロで満たされていない場合、正しいパリティを計算しなかったため、アレイの将来のパリティチェックで多くのエラーが報告されます。

また、参考までに、2番目のドライブが再構築される前にエラーが発生する可能性が高くなるため、raid5を使用してこれらの大規模アレイを作成することはお勧めできません。代わりにraid6を使用することもできます。

おすすめ記事