mdadm RAID - 成長中の再起動 - 外観の変更が回復しない

mdadm RAID - 成長中の再起動 - 外観の変更が回復しない

私は1週間前に新しくインストールされたDebian 10を使用しています。以前のサーバーからアレイを移動し、すべてが順調に進行しました。

その後、アレイに新しいドライブを追加して拡張しました。

mdadm --add /dev/md1 /dev/sda2
mdadm --grow /dev/md1 --raid-devices=5

残念ながら、リモデリングが進行中であることを忘れて、サーバーを完全にシャットダウンしました。

再起動時に攻撃台に「状態:クリーンアップ」と表示されたが、再構成は再開されませんでした。再構成が完了したら、配列サイズは6000 GBではなく8000 GB(2 TB x 4)でなければなりません。 「Delta Devices」行も引き続き表示されます。だから何か変です。

    # mdadm --detail /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Wed Feb  1 20:36:04 2017
        Raid Level : raid5
        Array Size : 5860113408 (5588.64 GiB 6000.76 GB)
     Used Dev Size : 1953371136 (1862.88 GiB 2000.25 GB)
      Raid Devices : 5
     Total Devices : 5
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Sat Jan  9 02:28:28 2021
             State : clean
    Active Devices : 5
   Working Devices : 5
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : bitmap

     Delta Devices : 1, (4->5)

              Name : Debbie-NAS:1  (local to host Debbie-NAS)
              UUID : d1915c3c:c727e641:060346f9:a4f590ac
            Events : 18828

    Number   Major   Minor   RaidDevice State
       0       8      130        0      active sync   /dev/sdi2
       1       8      146        1      active sync   /dev/sdj2
       3       8       98        2      active sync   /dev/sdg2
       4       8      114        3      active sync   /dev/sdh2
       5       8        2        4      active sync   /dev/sda2

外観の変更を手動で元に戻そうとしましたが、何もしませんでした。

# mdadm --grow --continue /dev/md1 --raid-devices=5

mdadmの出力 --検査:

# mdadm --examine /dev/sd[ijgha]2
/dev/sda2:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x45
     Array UUID : d1915c3c:c727e641:060346f9:a4f590ac
           Name : Debbie-NAS:1  (local to host Debbie-NAS)
  Creation Time : Wed Feb  1 20:36:04 2017
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 3906745344 (1862.88 GiB 2000.25 GB)
     Array Size : 7813484544 (7451.52 GiB 8001.01 GB)
  Used Dev Size : 3906742272 (1862.88 GiB 2000.25 GB)
    Data Offset : 259072 sectors
     New Offset : 254976 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 43eed232:f3d1d806:02e8bb5c:e1c90318

Internal Bitmap : 8 sectors from superblock
  Reshape pos'n : 2651604992 (2528.77 GiB 2715.24 GB)
  Delta Devices : 1 (4->5)

    Update Time : Sat Jan  9 02:28:28 2021
  Bad Block Log : 512 entries available at offset 16 sectors
       Checksum : 23eaf33b - correct
         Events : 18828

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 4
   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdg2:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x45
     Array UUID : d1915c3c:c727e641:060346f9:a4f590ac
           Name : Debbie-NAS:1  (local to host Debbie-NAS)
  Creation Time : Wed Feb  1 20:36:04 2017
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 3906745344 (1862.88 GiB 2000.25 GB)
     Array Size : 7813484544 (7451.52 GiB 8001.01 GB)
  Used Dev Size : 3906742272 (1862.88 GiB 2000.25 GB)
    Data Offset : 259072 sectors
     New Offset : 254976 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 2d31b7f3:57b1d12f:ba0d9e73:3cb36b33

Internal Bitmap : 8 sectors from superblock
  Reshape pos'n : 2651604992 (2528.77 GiB 2715.24 GB)
  Delta Devices : 1 (4->5)

    Update Time : Sat Jan  9 02:28:28 2021
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 401224d3 - correct
         Events : 18828

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdh2:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x45
     Array UUID : d1915c3c:c727e641:060346f9:a4f590ac
           Name : Debbie-NAS:1  (local to host Debbie-NAS)
  Creation Time : Wed Feb  1 20:36:04 2017
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 3906745344 (1862.88 GiB 2000.25 GB)
     Array Size : 7813484544 (7451.52 GiB 8001.01 GB)
  Used Dev Size : 3906742272 (1862.88 GiB 2000.25 GB)
    Data Offset : 259072 sectors
     New Offset : 254976 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 017bea40:0a6ce8e3:f4a5639e:97a33826

Internal Bitmap : 8 sectors from superblock
  Reshape pos'n : 2651604992 (2528.77 GiB 2715.24 GB)
  Delta Devices : 1 (4->5)

    Update Time : Sat Jan  9 02:28:28 2021
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 5eeeb1f0 - correct
         Events : 18828

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 3
   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdi2:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x45
     Array UUID : d1915c3c:c727e641:060346f9:a4f590ac
           Name : Debbie-NAS:1  (local to host Debbie-NAS)
  Creation Time : Wed Feb  1 20:36:04 2017
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 3906745344 (1862.88 GiB 2000.25 GB)
     Array Size : 7813484544 (7451.52 GiB 8001.01 GB)
  Used Dev Size : 3906742272 (1862.88 GiB 2000.25 GB)
    Data Offset : 259072 sectors
     New Offset : 254976 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 31b13e8c:ede4a229:8da4c45c:d7c1814d

Internal Bitmap : 8 sectors from superblock
  Reshape pos'n : 2651604992 (2528.77 GiB 2715.24 GB)
  Delta Devices : 1 (4->5)

    Update Time : Sat Jan  9 02:28:28 2021
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : d5a77dd7 - correct
         Events : 18828

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdj2:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x45
     Array UUID : d1915c3c:c727e641:060346f9:a4f590ac
           Name : Debbie-NAS:1  (local to host Debbie-NAS)
  Creation Time : Wed Feb  1 20:36:04 2017
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 3906745344 (1862.88 GiB 2000.25 GB)
     Array Size : 7813484544 (7451.52 GiB 8001.01 GB)
  Used Dev Size : 3906742272 (1862.88 GiB 2000.25 GB)
    Data Offset : 259072 sectors
     New Offset : 254976 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 3d5bc161:4f1b1a23:e16f3630:57fcee88

Internal Bitmap : 8 sectors from superblock
  Reshape pos'n : 2651604992 (2528.77 GiB 2715.24 GB)
  Delta Devices : 1 (4->5)

    Update Time : Sat Jan  9 02:28:28 2021
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : b380641a - correct
         Events : 18828

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)

しかし、何らかの理由で配列が読み取り専用であるようです。たぶん再構成を妨げるかもしれません。

# cat /proc/mdstat
    Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
    md1 : active (auto-read-only) raid5 sdi2[0] sdh2[4] sdj2[1] sdg2[3] sda2[5]
          5860113408 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/5] [UUUUU]
          bitmap: 0/15 pages [0KB], 65536KB chunk

デフォルトのファイルシステムが正しくマウントされており、私のデータにアクセスできます。

しかし、配列が予想より大きくなく、再構成が行われなかったため、どこかに問題があるようです。しかし、どのように解決するのかわかりません。

たぶん「検査」を始めてみることができますか?

echo 'check' > /sys/block/md1/md/sync_action

しかし、リシェイプが完全ではないと何か壊れるかと心配です。

どんなアイデアがありますか?

ベストアンサー1

最後に、次のコマンドを実行して再構成を開始しました。

mdadm --readwrite /dev/md1

cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md1 : active raid5 sdi2[0] sdh2[4] sdj2[1] sdg2[3] sda2[5]
      5860113408 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/5] [UUUUU]
      [======>..............]  reshape = 33.9% (662920160/1953371136) finish=6817.6min speed=3152K/sec
      bitmap: 0/15 pages [0KB], 65536KB chunk

だから、すべてが大丈夫だと思います。今回はサーバーをシャットダウンする前に再構成を完了します。

おすすめ記事