mdadmにアレイを起動するのに十分なデバイスがありません。復元できますか?

mdadmにアレイを起動するのに十分なデバイスがありません。復元できますか?

MD raid5アレイが突然動作を停止したようです。症状は少し似ています。この問題アレイを起動するのに十分なデバイスがないというエラーが発生するため、私の場合、3つのドライブすべてのイベント数は同じです。これはRAID 5アレイで、2つのアクティブドライブと1つのパリティが必要ですが、各ドライブのmdadm --examineは、スペアドライブとしてリストされている2つのドライブとアクティブドライブとしてリストされている1つの役割のみを示しています。

頑張ったmdadm --stop /dev/md1続いてmdadm - アセンブリ /dev/md1(--force および --run フラグの試行を含む)

SMARTデータはドライブ固有の問題を示していません(現在保留中および再割り当てされたセクターの数が0です)。raid.wiki.kernel.orgガイドマッピングの上書きデバイスの設定に関する手順は、以下のFrostschutzにリンクされています。

次に、次のコマンドを実行すると、読み取り専用のマウントを試みることができるRAIDアレイが作成され、その結果、読み取り可能なファイルシステムになるかどうかを確認できます(つまり、sdf1の私の推測がパリティチェックであるかどうか)。確認)。そうですか?それともsde1を使用して再試行する必要がありますか?しかし、以下に示すエラーが発生します(また、関連するループデバイスに沿って試みました)失われた設定 - リスト、結果は同じです)。

mdadm --create /dev/md2 --assume-clean --level=5 --chunk=64K --metadata=1.2 --data-offset=261888s --raid-devices=3 欠落 /dev/mapper/sdh1 /開発/マッパー/sdf1

mdadm: super1.x cannot open /dev/mapper/sdh1: Device or resource busy
mdadm: /dev/mapper/sdh1 is not suitable for this array.
mdadm: super1.x cannot open /dev/mapper/sdf1: Device or resource busy
mdadm: /dev/mapper/sdf1 is not suitable for this array.
mdadm: create aborted

しかも同時にmdadm - 詳細/dev/md1以前は次のような出力を提供していましたが(追加)、今は次のものを提供します。

/dev/md1:
           Version : 1.2
        Raid Level : raid0
     Total Devices : 3
       Persistence : Superblock is persistent

             State : inactive
   Working Devices : 3

              Name : bob:1  (local to host bob)
              UUID : 07ff9ba9:e8100e68:94c12c1a:3d7ad811
            Events : 373364

    Number   Major   Minor   RaidDevice

       -     253       11        -        /dev/dm-11
       -     253       10        -        /dev/dm-10
       -     253        9        -        /dev/dm-9

しかも私も気づいた。DM設置状態3つのオーバーレイすべてについて同じ情報が提供され、個々のドライブ(8TB)ではなく元のRAIDアレイ(16TB)のサイズを示す可能性がある疑わしい番号があります。これが本当かどうかはわかりません。 ?

sde1: 0 15627528888 snapshot 16/16777216000 16
sdh1: 0 15627528888 snapshot 16/16777216000 16
sdf1: 0 15627528888 snapshot 16/16777216000 16

この時点でデバイスを作成してマウントし、ファイルシステムをチェックして正しいパリティデバイスを推測したかどうかを確認する方法がわかりません。オーバーレイを使用して物理ドライブに何も書き込まないようにします。

修正する:以下のFrost Schutzの提案によると、アレイはプライマリドライブでタスクを実行する前に--stopを実行する必要があります。以前はこの可能性を過小評価していました。猫/proc/mdstatアレイは非アクティブとしてマークされます。これはバンドルドライブの原因にならないという意味だと思いましたが、そうではありません。 (以前は--stopも実行していましたが、後で何かが行われて戻りを引き起こしたようです。中断しない状態で)。正しいドライブ順序を取得した後(最初の試みではありませんでしたが、上書きを使用してうれしいです)、アレイは報告されたエラーなしでfsckチェックに合格しました。今何もなかったかのように動作しています。


他の診断コマンドを実行した結果:

猫/proc/mdstat:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md1 : inactive sdh1[1](S) sde1[3](S) sdf1[0](S)
      23440900500 blocks super 1.2

mdadm - 詳細/dev/md1:

/dev/md1:
           Version : 1.2
        Raid Level : raid0
     Total Devices : 3
       Persistence : Superblock is persistent

             State : inactive
   Working Devices : 3

              Name : bob:1  (local to host bob)
              UUID : 07ff9ba9:e8100e68:94c12c1a:3d7ad811
            Events : 373364

    Number   Major   Minor   RaidDevice

       -       8      113        -        /dev/sdh1
       -       8       81        -        /dev/sdf1
       -       8       65        -        /dev/sde1

試してみるとdmesgに表示される行mdadm - アセンブリ /dev/md1:

md/raid:md1: device sdh1 operational as raid disk 1
md/raid:md1: not enough operational devices (2/3 failed)
md/raid:md1: failed to run raid set.
md: pers->run() failed ..

そしてmdadm - 確認S

/dev/sde1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 07ff9ba9:e8100e68:94c12c1a:3d7ad811
           Name : bob:1  (local to host bob)
  Creation Time : Mon Mar  4 22:10:29 2019
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 15627267000 (7451.66 GiB 8001.16 GB)
     Array Size : 15627266688 (14903.32 GiB 16002.32 GB)
  Used Dev Size : 15627266688 (7451.66 GiB 8001.16 GB)
    Data Offset : 261888 sectors
   Super Offset : 8 sectors
   Unused Space : before=261808 sectors, after=312 sectors
          State : clean
    Device UUID : e856f539:6a1b5822:b3b8bfb7:4d0f4741

Internal Bitmap : 8 sectors from superblock
    Update Time : Sun May 30 00:22:45 2021
  Bad Block Log : 512 entries available at offset 40 sectors
       Checksum : 9b5703bc - correct
         Events : 373364

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : spare
   Array State : .AA ('A' == active, '.' == missing, 'R' == replacing)

/dev/sdf1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 07ff9ba9:e8100e68:94c12c1a:3d7ad811
           Name : bob:1  (local to host bob)
  Creation Time : Mon Mar  4 22:10:29 2019
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 15627267000 (7451.66 GiB 8001.16 GB)
     Array Size : 15627266688 (14903.32 GiB 16002.32 GB)
  Used Dev Size : 15627266688 (7451.66 GiB 8001.16 GB)
    Data Offset : 261888 sectors
   Super Offset : 8 sectors
   Unused Space : before=261800 sectors, after=312 sectors
          State : clean
    Device UUID : 7919e56f:2e08430e:95a4c4a6:1e64606a

Internal Bitmap : 8 sectors from superblock
    Update Time : Sun May 30 00:22:45 2021
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : d54ff3e1 - correct
         Events : 373364

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : spare
   Array State : .AA ('A' == active, '.' == missing, 'R' == replacing)

/dev/sdh1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 07ff9ba9:e8100e68:94c12c1a:3d7ad811
           Name : bob:1  (local to host bob)
  Creation Time : Mon Mar  4 22:10:29 2019
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 15627267000 (7451.66 GiB 8001.16 GB)
     Array Size : 15627266688 (14903.32 GiB 16002.32 GB)
  Used Dev Size : 15627266688 (7451.66 GiB 8001.16 GB)
    Data Offset : 261888 sectors
   Super Offset : 8 sectors
   Unused Space : before=261800 sectors, after=312 sectors
          State : clean
    Device UUID : 0c9a8237:7e79a439:d4e35b31:659f3c86

Internal Bitmap : 8 sectors from superblock
    Update Time : Sun May 30 00:22:45 2021
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 6ec2604b - correct
         Events : 373364

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 1
   Array State : .AA ('A' == active, '.' == missing, 'R' == replacing)


ベストアンサー1

不思議ですね。する必要があるかもしれませんmdadm --オーバーレイを使用して作成これを行うには(正しいデータオフセット、ブロックサイズ、およびドライブの順序を使用する)、おそらく最初のドライブが最初に故障しているように見えるため、欠落している可能性があります。

ドライブがそのデバイスの役割を覚えていなくなると、既存の方法を使用した回復はデフォルトでは不可能です。どちらも「スペア」と言われているため、ドライブがロール0かロール2か、まったくわかりません(一部のraid5設定は実際には何らかの理由でスペアドライブを使用します)。したがって、有用なデータがあるのか​​、そうであればどのような順番になっているのかは不明です。自分で決める必要があります。

これを実行するときは、SMARTデータも確認し、ddrescueまずこれらのドライブを使用して、RAID障害を引き起こす可能性がある再割り当てまたは保留中のセクタがあることを確認してください。

おすすめ記事