Raid0+1 - dmraidの予期しない結果

Raid0+1 - dmraidの予期しない結果

既存のRaid0アレイには4つの1.8TB HDD(2TB)があります。 /dev/md127

/dev/md127:
           Version : 1.2
     Creation Time : Fri Mar 31 21:34:58 2017
        Raid Level : raid0
        Array Size : 7813533696 (7.28 TiB 8.00 TB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

最近、Raid0に2x 3.7TB(4TB)NVMeを/ dev / md126として追加し、選択したraid1デバイス/ dev / md0に追加しました。

mdadm --create /dev/md0 --force --level=1 --raid-devices=1 /dev/md126

mkfs.ext4 -F /dev/md0 でフォーマットし、rsync でインストールした md127 ストライプの内容をコピーします。

その後、画像に2番目のraid0を追加しました。

mdadm --grow /dev/md0 --raid-devices=2 --add /dev/md127

同期が完了した後、/dev/md0 raid01 デバイスをマウントしようとしましたが、次のメッセージで失敗します。 "マウント:無効なファイルシステムの種類、無効なオプション、/ dev / md0の無効なスーパーブロック、コードページ、ヘルパーの欠落、その他のエラー。"

興味深いことに、raid1を停止してストリップの1つをマウントしようとすると、ストリップの1つもマウントできず、清掃する必要があるというメッセージが表示されます。 Dimesは、「グループ0のブロックビットマップがグループ(XXXXXXブロック)に存在せず、グループ記述子が破損しています」と表示します。

既存のデータを含むディスクをdmraid raid1に追加すると、データが保存されるという印象を受けましたが、そうではありませんか?

この問題を解決する「正しい方法」とは何ですか?データのバックアップがあります。簡単にマウントされたmd0デバイスに復元できますか?それともRAIDを消去して再起動する必要がありますか?

追加情報は次のとおりです。

cat /proc/mdstat
Personalities : [raid0] [raid1] 
md0 : active raid1 md126[1] md127[0]
      7813401600 blocks super 1.2 [2/2] [UU]
      bitmap: 0/59 pages [0KB], 65536KB chunk

md126 : active raid0 nvme1n1[1] nvme0n1[0]
      8001308672 blocks super 1.2 512k chunks
      
md127 : active raid0 sdd[1] sdb[0] sda[3] sdc[2]
      7813533696 blocks super 1.2 512k chunks
       
mdadm -D /dev/XXX
/dev/md0:
           Version : 1.2
     Creation Time : Sun Oct 29 17:34:29 2023
        Raid Level : raid1
        Array Size : 7813401600 (7.28 TiB 8.00 TB)
     Used Dev Size : 7813401600 (7.28 TiB 8.00 TB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Mon Oct 30 05:13:32 2023
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

              Name : bbox-arch:0  (local to host bbox-arch)
              UUID : ddec046f:e66d65b9:9c08802e:ef314054
            Events : 7846

    Number   Major   Minor   RaidDevice State
       0       9      127        0      active sync   /dev/md/nas:0
       1       9      126        1      active sync   /dev/md/bbox-arch:0
/dev/md126:
           Version : 1.2
     Creation Time : Sun Oct 22 17:53:50 2023
        Raid Level : raid0
        Array Size : 8001308672 (7.45 TiB 8.19 TB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sun Oct 22 17:53:50 2023
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

            Layout : -unknown-
        Chunk Size : 512K

Consistency Policy : none

              Name : bbox-arch:0  (local to host bbox-arch)
              UUID : 8f382f5f:ac064177:81ebd680:bdcc03ea
            Events : 0

    Number   Major   Minor   RaidDevice State
       0     259        5        0      active sync   /dev/nvme0n1
       1     259        6        1      active sync   /dev/nvme1n1
/dev/md127:
           Version : 1.2
     Creation Time : Fri Mar 31 21:34:58 2017
        Raid Level : raid0
        Array Size : 7813533696 (7.28 TiB 8.00 TB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Fri Mar 31 21:34:58 2017
             State : clean 
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : -unknown-
        Chunk Size : 512K

Consistency Policy : none

              Name : nas:0
              UUID : c24bdcd4:4df06194:67f69cea:60916fc8
            Events : 0

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       8       48        1      active sync   /dev/sdd
       2       8       32        2      active sync   /dev/sdc
       3       8        0        3      active sync   /dev/sda



lsblkの出力

NAME        MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINTS
sda           8:0    0   1.8T  0 disk  
└─md127       9:127  0   7.3T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1 
sdb           8:16   0   1.8T  0 disk  
└─md127       9:127  0   7.3T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1 
sdc           8:32   0   1.8T  0 disk  
└─md127       9:127  0   7.3T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1 
sdd           8:48   0   1.8T  0 disk  
└─md127       9:127  0   7.3T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1 
...
nvme0n1     259:5    0   3.7T  0 disk  
└─md126       9:126  0   7.5T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1 
nvme1n1     259:6    0   3.7T  0 disk  
└─md126       9:126  0   7.5T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1

ベストアンサー1

おすすめ記事