mdadmを使用して複数のRAIDを復元するときに発生する問題

mdadmを使用して複数のRAIDを復元するときに発生する問題

背景 私は最近、RAID 1冗長性を備えたSynology NASのLinux RAIDに3.0TBのチップを持っていました。最近、2台の8.0TBドライブを購入し、3.0TBドライブをバックアップしたいのですが、Synologyがランダムにシャットダウンし、高度な瞬間が発生します。この問題を解決するために、すべてのドライブをLinux Mint 18.x Liveを実行しているコンピュータに挿入しました。 3.0TB RAIDを8.0TB RAIDに再同期できるように、2つのRAIDをインストールしようとしています。

質問 どの攻撃ゾーンも再構築できないため、どのドライブにもアクセスできません。私のfidsk -l結果は次のとおりです。

mint ~ # fdisk -l
Disk /dev/loop0: 1.5 GiB, 1618886656 bytes, 3161888 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/nvme0n1: 477 GiB, 512110190592 bytes, 1000215216 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: DB2D71AC-EF2C-4540-A8E5-03C5D8F72D01

Device             Start        End   Sectors   Size Type
/dev/nvme0n1p1        40     409639    409600   200M EFI System
/dev/nvme0n1p2    409640  552935535 552525896 263.5G Apple HFS/HFS+
/dev/nvme0n1p3 552935536  554205071   1269536 619.9M Apple boot
/dev/nvme0n1p4 554205184  554237951     32768    16M Microsoft reserved
/dev/nvme0n1p5 554237952 1000214527 445976576 212.7G Microsoft basic data


Disk /dev/sda: 7.3 TiB, 8001563222016 bytes, 15628053168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 0A352E59-20D3-4471-AE03-F44E1C73E3EE

Device       Start         End     Sectors  Size Type
/dev/sda1     2048     4982527     4980480  2.4G Linux RAID
/dev/sda2  4982528     9176831     4194304    2G Linux RAID
/dev/sda5  9453280 15627846239 15618392960  7.3T Linux RAID


Disk /dev/sdb: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: FDB68AFA-6AA2-4AFF-B950-A65803C3E831

Device       Start        End    Sectors  Size Type
/dev/sdb1      256    4980735    4980480  2.4G Linux RAID
/dev/sdb2  4980736    9175039    4194304    2G Linux RAID
/dev/sdb3  9437184 5860328351 5850891168  2.7T Linux RAID


Disk /dev/sdc: 7.3 TiB, 8001563222016 bytes, 15628053168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 655B6D2C-8FDB-40B2-8A57-4A4C6CEA81FA

Device       Start         End     Sectors  Size Type
/dev/sdc1     2048     4982527     4980480  2.4G Linux RAID
/dev/sdc2  4982528     9176831     4194304    2G Linux RAID
/dev/sdc5  9453280 15627846239 15618392960  7.3T Linux RAID


Disk /dev/sdd: 465.8 GiB, 500107862016 bytes, 976773168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: AB7A0C0E-F0F0-4169-A6CC-AFD36D13706B

Device      Start       End   Sectors   Size Type
/dev/sdd1      40    409639    409600   200M EFI System
/dev/sdd2  409640 976510983 976101344 465.5G Apple HFS/HFS+


Disk /dev/sde: 14.9 GiB, 16008609792 bytes, 31266816 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 112D01E3-9B10-4E53-831E-6122DE30212F

Device      Start      End  Sectors  Size Type
/dev/sde1      40   409639   409600  200M EFI System
/dev/sde2  409640 31004631 30594992 14.6G Apple HFS/HFS+


Disk /dev/sdf: 3.8 GiB, 4026531840 bytes, 7864320 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: C0FCDDB9-DB52-4F40-8615-EB3CE0E2D4F4

Device     Start     End Sectors  Size Type
/dev/sdf1   2048 7864286 7862239  3.8G Microsoft basic data

重要な唯一のドライブは/dev/sda, /dev/sdb, /dev/sdc

私が試したこと

mdadm -Asf && vgchange -aySynology Webサイトに基づいて返された推奨事項

mdadm: Devices UUID-f2e5c234:6e894003:d490d253:6ab62f4d and UUID-f8782d0e:605a2e0e:4c50beb7:39f5970b have the same name: /dev/md/2

mdadm: Duplicate MD device names in conf file were found.

良いmdadm --assemble --scan収益も同じです。

mdadm --stop /dev/sdb私も読んでみました。ここ。まとめると、mdadmがドライブを所有していて正常にマウントできないというのですが、ドライブなので mdadm raidメタデータを破棄して正常にマウントすればいいです。このコードは次を返します。

mdadm --stop /dev/sdb
mdadm: /dev/sdb does not appear to be an md device

単一のドライブを独立してマウントしようとした後にmdadm -A /dev/sdb返されました。

mdadm: /dev/sdb does not appear to be an md device

仕事が壊れなかったと思う理由 私は過去に死んだ兄弟も接続していた3.0TB /dev/sdbドライブを正常にマウントしました。そのような場合、mdadmは単に1つのドライブでアレイを構築したと言います。この8.0TBドライブは、RAID 1構成ではなくSynology Hybrid RAIDにありますが、Synologyサーバーから取り出したばかりであることがわかり、これがどのような違いがあるのか​​わかりません。

私が考える問題は何ですか 私は正直に言うと(私は非常に限られた経験に照らして)同じシステムに2つのRAIDアレイが同時にあるため、mdadmを混乱させるのに問題があると思います。私の考えでは、解決策は、/etc/mdadm.confどのRAIDがどのRAIDに属するかを指定し、アセンブリを再試行する編集に関連している可能性があると思います。しかし、アレイを再構築しようとする独立した試みは、ドライブがmdデバイスとして表示されないことを示しています。だから今は何をすべきかわかりません。

ベストアンサー1

おすすめ記事