デフォルトのGPTテーブルの破損(RAID-1および/ homeとしてマウントされている)のため、Linuxを再インストールできません。

デフォルトのGPTテーブルの破損(RAID-1および/ homeとしてマウントされている)のため、Linuxを再インストールできません。

Env:Linux TRANQUILITY 5.3.18-150300.59.49-preempt #1 SMP PREEMPT Mon Feb 7 14:40:20 UTC 2022 (77d9d02) x86_64 x86_64 x86_64 GNU/Linuxまた、OpenSuse Leap 15.3およびKDE Plasma 5

USBスティックでOSインストールを実行したときにパーティションチェックを行いましたが、次のエラーが発生しました。 - (/usr/bin/udevadm /dev/sdd1 could not be found (failed)正確なエラーテキストは覚えていません。インストールプロセスを再度実行する必要はありませんが、これがポイントです。)

昨年(2021年4月)に/homeデータ損失の問題が発生し、非RAIDディスクをデータ復旧会社に持ち込む必要がありました。私が覚えているのは、これがGPTのバグだと思います。修正には費用がかかり、天文学的にはそうではありません(私のデータを安全に保つために喜んで支払います)。私は/homeそのディスク上のすべてのデータを私が購入した2つの1TB WD Blackディスクの1つに転送するようにしました。私は2つの新しいディスクでRAID-1を設定しましたが、最近まで正常に動作しているようです。

奇妙なことが起こり始めました。関係があるかどうかはわかりませんが、かなり体系的に見えました。たとえば、次のようになります。

  1. Firefoxタブが一部のWebサイトですぐにクラッシュし始めました。私の考えでは、これはFirefoxのバグかもしれません。
  2. Pythonは無関係なプログラムが失敗するほど動作を停止しましたが(主にLibre-Office - リカバリを続けています)、FreeCAD(主にPythonベース)はまだ機能していました。
  3. Corel AftershotProは、欠落しているか間違ったストレージのために起動できません(まだ存在しています)。

私が試した多くの修正はPythonに基づいているようです。最後に、Pythonを削除しましたが、これにより多くの重要なOSエントリ(特にGUI)が削除され、再インストールされました(そして自動的に削除されたほとんどのプロジェクト。 OS -/home前述したように、データは安全だと思いましたが、安全ではなく、コンピュータを安定させるために再インストールできませんでした。

lsblk
<snipped the loop devices>
sda             8:0    0 931.5G  0 disk  
└─sda1          8:1    0 931.5G  0 part  
  └─md127       9:127  0 931.5G  0 raid1 
    └─md127p1 259:0    0 931.5G  0 part  /home
sdb             8:16   0   1.8T  0 disk  
└─sdb1          8:17   0   1.8T  0 part  
  └─cr-auto-1 254:0    0   1.8T  0 crypt /china2
sdc             8:32   0 111.8G  0 disk  
├─sdc1          8:33   0   148M  0 part  
├─sdc2          8:34   0   100G  0 part  /
├─sdc3          8:35   0     2G  0 part  
└─sdc4          8:36   0     2G  0 part  
sdd             8:48   0 931.5G  0 disk  
sde             8:64   0   1.8T  0 disk  
└─sde1          8:65   0   1.8T  0 part  /chinaPhotos

これには次sda/sda1/md127/md127p1のようにインストールされています。/home

私の考えでは、sda物理sddRAIDデバイスが動作しているようです。sdd破損していますか?

私は以下を試しました:(/home表示/dev/md127p1

df -h
Filesystem                        Size  Used Avail Use% Mounted on
devtmpfs                          4.0M     0  4.0M   0% /dev
tmpfs                             7.8G  243M  7.5G   4% /dev/shm
tmpfs                             3.1G  335M  2.8G  11% /run
tmpfs                             4.0M     0  4.0M   0% /sys/fs/cgroup
/dev/sdc2                         100G   38G   63G  38% /
/dev/sdc2                         100G   38G   63G  38% /.snapshots
/dev/sdc2                         100G   38G   63G  38% /boot/grub2/i386-pc
/dev/sdc2                         100G   38G   63G  38% /boot/grub2/x86_64-efi
/dev/sdc2                         100G   38G   63G  38% /opt
/dev/sdc2                         100G   38G   63G  38% /root
/dev/sdc2                         100G   38G   63G  38% /srv
/dev/sdc2                         100G   38G   63G  38% /tmp
/dev/sdc2                         100G   38G   63G  38% /var
/dev/sdc2                         100G   38G   63G  38% /usr/local
/dev/sdb1                         1.8T  1.7T   94G  95% /chinaPhotos
/dev/md127p1                      932G  402G  530G  44% /home
<snipped loop devices>
/dev/mapper/cr-auto-1             1.9T  1.5T  399G  79% /china2
tmpfs                             1.6G   72K  1.6G   1% /run/user/1000
/dev/sdm                          3.4M  3.3M  116K  97% /run/media/░░░░/SBEAM
/dev/sdn                          1.6M   24K  1.6M   2% /run/media/░░░░/UPDATE
192.168.░░░.░░░:/volume1/DataBackup  2.7T  2.3T  492G  83% /░░░░░
<snipped loop devices>

ようやく試してみました。

mdadm --detail /dev/md*  
mdadm: /dev/md does not appear to be an md device
/dev/md127:
           Version : 1.0
     Creation Time : Sun Apr 25 17:58:55 2021
        Raid Level : raid1
        Array Size : 976761344 (931.51 GiB 1000.20 GB)
     Used Dev Size : 976761344 (931.51 GiB 1000.20 GB)
      Raid Devices : 2
     Total Devices : 1
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Sun Mar  6 19:26:29 2022
             State : clean, degraded 
    Active Devices : 1
   Working Devices : 1
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

              Name : any:home
              UUID : 75959fa2:f25b6088:7a9e9a80:c1f38480
            Events : 3183874

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       -       0        0        1      removed
/dev/md127p1:
           Version : 1.0
     Creation Time : Sun Apr 25 17:58:55 2021
        Raid Level : raid1
        Array Size : 976760303 (931.51 GiB 1000.20 GB)
     Used Dev Size : 976761344 (931.51 GiB 1000.20 GB)
      Raid Devices : 2
     Total Devices : 1
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Sun Mar  6 19:26:29 2022
             State : clean, degraded 
    Active Devices : 1
   Working Devices : 1
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

              Name : any:home
              UUID : 75959fa2:f25b6088:7a9e9a80:c1f38480
            Events : 3183874

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       -       0        0        1      removed

設置過程/dev/sddで問題があることが確認されましたが、fdisk以下のような問題があるようです。

fdisk /dev/sdd

Welcome to fdisk (util-linux 2.36.2).
Changes will remain in memory only, until you decide to write them.
Be careful before using the write command.

The primary GPT table is corrupt, but the backup appears OK, so that will be used.

そして

fdisk  /dev/sda

Welcome to fdisk (util-linux 2.36.2).
Changes will remain in memory only, until you decide to write them.
Be careful before using the write command.


Command (m for help): v
No errors detected.
Header version: 1.0
Using 1 out of 128 partitions.
A total of 2014 free sectors is available in 1 segment.

コンピュータはほとんど正常に動作し、/homeのほとんどのデータをバックアップしましたが、アップデートがバックアップ中であるため、安全に再インストールできません。

ハードウェアについては、各RAIDディスクを順番に物理的に取り外します(まずPCの電源を切ってobvs)。ディスクの1つは起動には影響しませんが(すべてのディスクは再起動時に機能します)、別のディスクを削除すると起動が停止します。 2番目のディスクは動作するRAID/dev/sdaディスク/homeで、1番目のディスクは「不良」ディスクのようです/dev/sdd!また、問題が発生した場合に備えて、破損したSATAケーブルを動作するSATAケーブルと交換してみましたが、何の役にも立ちませんでした!

次の点を確認するためにどのような追加の診断/処置を実行できますか?

  • ディスクに欠陥があるという私の仮定は正確でした。
  • 問題を調べる
  • フォーマットまたは復元し、RAID1アレイに再度追加します(または交換する必要がありますか?)。

ベストアンサー1

GPTエラーは無視できるほど小さいです。昨日はアレイからsddを削除したようです。実行しmdadm -E /dev/sdd1、その出力を質問に追加します。そのドライブでRAIDメタデータを表示し続け、最近削除されたことを確認できます。この場合、そのドライブmdadm --re-addをアレイに挿入することができます。

ただし、を使用してドライブをアレイに再追加する前に、ドライブの状態を確認できますsmartctl -a /dev/sdd

他の奇妙な症状の場合は、memtest86を実行してメモリを確認できます。

おすすめ記事