突然終了した後、RAID-5の2つのディスクメンバーのうちの1つが見えなくなりますか?

突然終了した後、RAID-5の2つのディスクメンバーのうちの1つが見えなくなりますか?

RAID-5で組み立てられた2つのディスク(sdaとsdc、他のものの運命はわかりません)があります。数回の突然終了後、攻撃隊員の一人が透明になって再組み立てができなくなりました。私はRAID-5を含むLinuxファイルシステムに精通していません。私が知っている限り、RAID-5はファイルを失うことはありませんが、私のsdcディスクが破損しているかどうか、それ以外の場合は情報を失うことなく再組み立てできるかどうかはわかりません。どのようにアクセスしますか?私の書類。助けてくれてありがとう!

$ lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT

NAME     SIZE FSTYPE                        TYPE MOUNTPOINT
loop0   27,1M squashfs                      loop /snap/snapd/7264
loop1     55M squashfs                      loop /snap/core18/1705
loop2  240,8M squashfs                      loop /snap/gnome-3-34-1804/24
loop3   62,1M squashfs                      loop /snap/gtk-common-themes/1506
loop4   49,8M squashfs                      loop /snap/snap-store/433
sda      3,7T promise_fasttrack_raid_member disk 
└─sda1   3,7T linux_raid_member             part 
sdb    465,8G                               disk 
├─sdb1 186,4G ext4                          part /
├─sdb2     1K                               part 
├─sdb3 268,2G ext4                          part /home
└─sdb5  11,2G swap                          part [SWAP]

そして

$sudo parted -l

Model: ATA WDC WD40EZRX-00S (scsi)
Disk /dev/sda: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags: 

Number  Start   End     Size    File system  Name  Flags
 1      1049kB  4001GB  4001GB  ext4               raid


Model: ATA Samsung SSD 840 (scsi)
Disk /dev/sdb: 500GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags: 

Number  Start   End    Size    Type      File system     Flags
 1      1049kB  200GB  200GB   primary   ext4            boot
 2      200GB   212GB  12,0GB  extended
 5      200GB   212GB  12,0GB  logical   linux-swap(v1)
 3      212GB   500GB  288GB   primary   ext4

Ubuntuの「ディスク」アプリケーションでのみ表示され、sdcディスクの場合は「メディアなし」と表示されます。

ここに画像の説明を入力してください。

sdaパーティションが正しいようです。

ここに画像の説明を入力してください。

再組み立てできません。

sudo mdadm --assemble --scan

Ubuntu 20のアップグレード中に次のエラーが発生します。

grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdc1.
grub-probe: error: cannot read `/dev/sdc1': Input/output error.

修正する:

再起動後にディスクが表示されました(理由と方法がわかりません)。しかし、まだ組み立てと設置は不可能です。

$ lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
NAME     SIZE FSTYPE                        TYPE MOUNTPOINT
loop0     55M squashfs                      loop /snap/core18/1705
loop1   61,9M squashfs                      loop /snap/core20/1270
loop2   62,1M squashfs                      loop /snap/gtk-common-themes/1506
loop3  108,1M squashfs                      loop /snap/remmina/5130
loop4   49,8M squashfs                      loop /snap/snap-store/433
loop5  240,8M squashfs                      loop /snap/gnome-3-34-1804/24
loop6   27,1M squashfs                      loop /snap/snapd/7264
loop7  247,9M squashfs                      loop /snap/gnome-3-38-2004/87
loop8   55,5M squashfs                      loop /snap/core18/2284
loop9   43,4M squashfs                      loop /snap/snapd/14549
loop10     4K squashfs                      loop /snap/bare/5
loop11  65,2M squashfs                      loop /snap/gtk-common-themes/1519
loop12  54,2M squashfs                      loop /snap/snap-store/558
loop13   219M squashfs                      loop /snap/gnome-3-34-1804/77
sda      3,7T promise_fasttrack_raid_member disk 
└─sda1   3,7T linux_raid_member             part 
sdb    465,8G                               disk 
├─sdb1 186,4G ext4                          part /
├─sdb2     1K                               part 
├─sdb3 268,2G ext4                          part /home
└─sdb5  11,2G swap                          part [SWAP]
sdc      3,7T promise_fasttrack_raid_member disk 
└─sdc1   3,7T linux_raid_member             part 

mdadmアセンブリを試してからインストールしようとしましたが、失敗しました。

$ sudo mdadm --assemble --scan --force
$ sudo mount /dev/md0 /home/bilgen/
mount: /home/person: can't read superblock on /dev/md0.


$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md0 : inactive sdc1[2] sda1[1]
      7813771264 blocks super 1.2
       
unused devices: <none>


$ sudo mdadm --examine --scan
ARRAY /dev/md/0  metadata=1.2 UUID=92fd33d9:351dcee8:c809916a:b46055e5 name=zencefil:0

RAIDディスクsda1とsdc1を確認してください。 sda1の状態はクリーンですが、sdc1の状態はアクティブです。私はこれが問題をデバッグするために重要だと思います。 RAID-5であることを確認しましたが、コンピュータを受信したときにディスクが2つしかなかったため、ディスクの1つが破損している可能性があります。今私はそれを実現しました。

$ sudo mdadm -E /dev/sda1
/dev/sda1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 92fd33d9:351dcee8:c809916a:b46055e5
           Name : zencefil:0
  Creation Time : Thu Mar 12 00:17:27 2015
     Raid Level : **raid5**
   Raid Devices : **3**

 Avail Dev Size : 7813771264 (3725.90 GiB 4000.65 GB)
     Array Size : 7813770240 (7451.79 GiB 8001.30 GB)
  Used Dev Size : 7813770240 (3725.90 GiB 4000.65 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=1024 sectors
          **State : clean**
    Device UUID : 6212bf12:f2bacb20:6a10a588:ac50cb2d

    Update Time : Mon Jan 24 20:04:23 2022
       Checksum : cfb60638 - correct
         Events : 6360009

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : .AA ('A' == active, '.' == missing, 'R' == replacing)

$ sudo mdadm -E /dev/sdc1
/dev/sdc1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 92fd33d9:351dcee8:c809916a:b46055e5
           Name : zencefil:0
  Creation Time : Thu Mar 12 00:17:27 2015
     Raid Level : **raid5**
   Raid Devices : **3**

 Avail Dev Size : 7813771264 (3725.90 GiB 4000.65 GB)
     Array Size : 7813770240 (7451.79 GiB 8001.30 GB)
  Used Dev Size : 7813770240 (3725.90 GiB 4000.65 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=1024 sectors
          **State : active**
    Device UUID : daef079b:176d487a:cb152bdb:3d2548f9

    Update Time : Mon Jan 24 20:04:23 2022
       Checksum : cf7e70ca - correct
         Events : 6360009

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : .AA ('A' == active, '.' == missing, 'R' == replacing)

メッセージは状況を知らせるのに役立ちます。

dmesg | grep md0
[    8.147671] md/raid:md0: not clean -- starting background reconstruction
[    8.147750] md/raid:md0: device sdc1 operational as raid disk 2
[    8.147755] md/raid:md0: device sda1 operational as raid disk 1
[    8.149553] md/raid:md0: cannot start dirty degraded array.
[    8.149943] md/raid:md0: failed to run raid set.
[ 2878.821074] EXT4-fs (md0): unable to read superblock

状況がますます興味深くなっています。

mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Thu Mar 12 00:17:27 2015
        Raid Level : raid5
     Used Dev Size : 18446744073709551615
      Raid Devices : 3
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Mon Jan 24 20:04:23 2022
             State : active, FAILED, Not Started 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : unknown

              Name : zencefil:0
              UUID : 92fd33d9:351dcee8:c809916a:b46055e5
            Events : 6360009

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       -       0        0        1      removed
       -       0        0        2      removed

       -       8        1        1      sync   /dev/sda1
       -       8       33        2      sync   /dev/sdc1

ベストアンサー1

おすすめ記事