mdadm create raid 5が数時間後に停止しました。

mdadm create raid 5が数時間後に停止しました。

Nextcloudに対してraid 5を設定しようとしていますが、コマンドを実行すると停止しますmdadm --create

私の設定は次のとおりです。

Disk /dev/sda: 2.7 TiB, 3000592982016 bytes, 732566646 sectors
Units: sectors of 1 * 4096 = 4096 bytes
Sector size (logical/physical): 4096 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x42f4f4a0

Device     Boot Start       End   Sectors  Size Id Type
/dev/sda1         256 471859455 471859200  1.8T fd Linux raid autodetect


Disk /dev/sdb: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xfdae88e1

Device     Boot Start        End    Sectors  Size Id Type
/dev/sdb1        2048 3907029167 3907027120  1.8T fd Linux raid autodetect


Disk /dev/sdc: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x8c71de97

Device     Boot Start        End    Sectors  Size Id Type
/dev/sdc1        2048 3907029167 3907027120  1.8T fd Linux raid autodetect
  • sdbsdcSeagate IronWolf 2 - 3.5インチ5900RPM 64MoシリアルATA 6Gb / s。
  • sdaMaxell EシリーズUSB 3.0 HDD 3.5 EXT 3TB 5400RPM 8Mo 5Gb/s。

それから私はそうしました。

pi@raspberrypi:~ $ sudo mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sda1 /dev/sdb1 /dev/sdc1
mdadm: largest drive (/dev/sdb1) exceeds size (1887305728K) by more than 1%
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
pi@raspberrypi:~ $ cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] 
md0 : active raid5 sdc1[3] sdb1[1] sda1[0]
      3774611456 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
      [>....................]  recovery =  0.0% (788432/1887305728) finish=2213.9min speed=14201K/sec
      bitmap: 0/15 pages [0KB], 65536KB chunk

unused devices: <none>

しかし、数時間後、私はこれを得ました。

pi@raspberrypi:~ $ cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] 
md0 : active raid5 sdc1[3](S) sdb1[1] sda1[0](F)
      3774611456 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/1] [_U_]
      bitmap: 0/15 pages [0KB], 65536KB chunk

unused devices: <none>

私はRaspberry Piと2Tディスクを使って作成するのに約2日かかります。だから問題が発生しました。すべて削除して再起動しましたが、同じ問題が発生しました。

(F)オンラインで検索してみるとこんな意味だと分かりましたが、ディスクのせいfaultyだと思いますがsda、どうすればいいのか分かりません。

問題を特定するのに役立ちますか?

とても感謝しています!

ベストアンサー1

sda私のドライブに不良セクタがあるからです。解決策は、デッドセクタのないパーティションを作成することです。

問題を見つける方法

/var/log/messages機能しないパーティションとその理由を学びます。たとえば、次のようになりますmd/raid:md0: read error not correctable (sector 25205280 on sda1); md0: unable to read partition table。これは、ディスクに不良セクタがあることを意味します。

デッドゾーンのないパーティションを作成する方法

これで、ログに表示されたデッドセクタを含まない不良ディスク上の他のパーティションに再試行できます。これを行うには、前のセクションの削除を使用してfdisk /dev/sdaから開始と終了を正確に選択して新しいセクションを作成できます。

現在のレイドを削除する方法

再実行する前に、mdadm --create現在機能していないチームを削除することを忘れないでください。

  • 攻撃隊の削除mdadm --stop /dev/md0:mdadm --remove /dev/md0rm /dev/md0
  • ディスクのクリーニング:mdadm --zero-superblock /dev/sda1mdadm --zero-superblock /dev/sdb1mdadm --zero-superblock /dev/sdc1
  • 必要に応じてパーティションを削除して生ディスクを取得します。fdisk /dev/sda、、、。毎回削除するには「d」を、保存するには「w」を押します。fdisk /dev/sdbfdisk /dev/sdc

Romeo Ninovに感謝します!

おすすめ記事