ソフトウェアRaidの再構築時のLVM2 VolGroupの問題

ソフトウェアRaidの再構築時のLVM2 VolGroupの問題

私は最も奇妙なLVMの問題を解決しようとしています。

私は4つの3TBディスクのうち、ソフトウェアRaid 5を使用して自宅で小規模なサーバーを実行しています。 (シャーシにはハードウェアRaidコントローラ用のスペースはありません)。

技術的な観点から見ると、Intel Rapid Storage Technologyです。

サーバーのストレージマウントは次のとおりです。

物理ディスク - >ソフトウェアRaid 5 - > LVM2 - > EXT4

先週、停電後にBIOSが故障したため、ディスクをRAIDとして再処理するようにBiosを再構成しました。

しかし、最初にRaidコントローラインタフェースを見た後、次のことがわかりました。

ここに画像の説明を入力してください。

Raid情報からディスクが完全に削除され、状態が失敗しました。 !

したがって、Raidアレイを削除して再作成する他のオプションがないため、この後にシステムを起動できますが、内部にLVMストレージはありません。

mdadm.confが次に変更されました。

ARRAY metadata=imsm UUID=3870907f:d7fafe1a:593e95f1:3496eea9
ARRAY /dev/md/Volume1 container=3870907f:d7fafe1a:593e95f1:3496eea9 member=0 UUID=0429e388:74a0f3ea:8ca3b4a3:5f976ec2

到着する:

ARRAY metadata=imsm UUID=52065345:de8d583c:8fa56cc8:55d93798
ARRAY /dev/md/Volume1 container=52065345:de8d583c:8fa56cc8:55d93798 member=0 UUID=b8f3dcf7:0e95fede:e6224238:b2426835

そして

blkid /dev/md126

今戻ってきてください

/dev/md126: UUID="Wzcm2T-H2pt-c41w-dbi5-K0IP-O7FU-GRfoA3" TYPE="LVM2_member"

Softwareaidが再生成されたので、/etc/lvm/backup/ Volume 0でPV0のUUIDをmowPbj-0RMX-Glr2-e6ar-vOgP-mcHH-k4sAmcからWzcm2T-H2pt-c41w-dbi5-K0IP-O7FU-GR 。 :

# Generated by LVM2 version 2.02.168(2) (2016-11-30): Mon Oct 14 00:05:24 2019

contents = "Text Format Volume Group"
version = 1

description = "Created *after* executing 'vgchange -ay'"

creation_host = "home"  # Linux home 4.15.17-1-pve #1 SMP PVE 4.15.17-9 (Wed, 9 May 2018 13:31:43 +0200) x86_64
creation_time = 1571004324  # Mon Oct 14 00:05:24 2019

LogVol0 {
    id = "Ch3etp-GYit-9qVW-nhEg-bv3K-IQnW-0jCjgM"
    seqno = 16
    format = "lvm2"         # informational
    status = ["RESIZEABLE", "READ", "WRITE"]
    flags = []
    extent_size = 8192      # 4 Megabytes
    max_lv = 0
    max_pv = 0
    metadata_copies = 0

    physical_volumes {

        pv0 {
            id = "Wzcm2T-H2pt-c41w-dbi5-K0IP-O7FU-GRfoA3"
            device = "/dev/md126"   # Hint only

            status = ["ALLOCATABLE"]
            flags = []
            dev_size = 17581580288  # 8.18706 Terabytes
            pe_start = 2048
            pe_count = 2146188  # 8.18706 Terabytes
        }
    }

    logical_volumes {

        Logical_Volume_00 {
            id = "BWUgvn-24uy-XXf5-aFVx-o9YA-RF2H-2uD3OV"
            status = ["READ", "WRITE", "VISIBLE"]
            flags = []
            creation_time = 1395998316  # 2014-03-28 10:18:36 +0100
            creation_host = "debian"
            segment_count = 1

            segment1 {
                start_extent = 0
                extent_count = 2146188  # 8.18706 Terabytes

                type = "striped"
                stripe_count = 1    # linear

                stripes = [
                    "pv0", 0
                ]
            }
        }
    }

}

"pvdisplay"の現在の出力:

pvdisplay 
  --- Physical volume ---
  PV Name               /dev/md126
  VG Name               LogVol0
  PV Size               8.19 TiB / not usable 4.00 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              2146188
  Free PE               0
  Allocated PE          2146188
  PV UUID               Wzcm2T-H2pt-c41w-dbi5-K0IP-O7FU-GRfoA3

(「vgcfgrestore LogVol0 LogVol0」を使用してボリュームグループを復元しようとしたときに、pvdiskが最初に失われ、この新しいpvdiskを作成しました。)

「新しい」PVdiskを作成してバックアップファイルを復元した後、lvdisplayは次のようになります。

  --- Logical volume ---
  LV Path                /dev/LogVol0/Logical_Volume_00
  LV Name                Logical_Volume_00
  VG Name                LogVol0
  LV UUID                BWUgvn-24uy-XXf5-aFVx-o9YA-RF2H-2uD3OV
  LV Write Access        read/write
  LV Creation host, time debian, 2014-03-28 10:18:36 +0100
  LV Status              NOT available
  LV Size                8.19 TiB
  Current LE             2146188
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto

PV:

  PV         VG      Fmt  Attr PSize   PFree 
  /dev/md126 LogVol0 lvm2 a--    8.19t     0 

左にスキャン:

  inactive          '/dev/LogVol0/Logical_Volume_00' [8.19 TiB] inherit

lsblk -f:

sdb                isw_raid_member                                              
└─md126            LVM2_member           Wzcm2T-H2pt-c41w-dbi5-K0IP-O7FU-GRfoA3 
sdc                isw_raid_member                                              
└─md126            LVM2_member           Wzcm2T-H2pt-c41w-dbi5-K0IP-O7FU-GRfoA3 
sdd                isw_raid_member                                              
└─md126            LVM2_member           Wzcm2T-H2pt-c41w-dbi5-K0IP-O7FU-GRfoA3 
sde                isw_raid_member                                              
└─md126            LVM2_member           Wzcm2T-H2pt-c41w-dbi5-K0IP-O7FU-GRfoA3 

したがって、「vgchange -ay」を使用して対応するVGを有効にすると、出力は次のように変更されます。

sdb                           isw_raid_member                                              
└─md126                       LVM2_member           Wzcm2T-H2pt-c41w-dbi5-K0IP-O7FU-GRfoA3 
  └─LogVol0-Logical_Volume_00 LVM2_member           mowPbj-0RMX-Glr2-e6ar-vOgP-mcHH-k4sAmc 
sdc                           isw_raid_member                                              
└─md126                       LVM2_member           Wzcm2T-H2pt-c41w-dbi5-K0IP-O7FU-GRfoA3 
  └─LogVol0-Logical_Volume_00 LVM2_member           mowPbj-0RMX-Glr2-e6ar-vOgP-mcHH-k4sAmc 
sdd                           isw_raid_member                                              
└─md126                       LVM2_member           Wzcm2T-H2pt-c41w-dbi5-K0IP-O7FU-GRfoA3 
  └─LogVol0-Logical_Volume_00 LVM2_member           mowPbj-0RMX-Glr2-e6ar-vOgP-mcHH-k4sAmc 
sde                           isw_raid_member                                              
└─md126                       LVM2_member           Wzcm2T-H2pt-c41w-dbi5-K0IP-O7FU-GRfoA3 
  └─LogVol0-Logical_Volume_00 LVM2_member           mowPbj-0RMX-Glr2-e6ar-vOgP-mcHH-k4sAmc  

/dev/LogVol0/Logical_Volume_00 のタイプは次のとおりです。

/dev/LogVol0/Logical_Volume_00: LVM2 PV (Linux Logical Volume Manager), UUID: mowPbj-0RMX-Glr2-e6ar-vOgP-mcHH-k4sAmc, size: 9001769107456

それでは、新しいLVMの内部に「古い」LVMをすでに作成しているため、インストールできませんか?

Testdiskを使用すると、LVM内のext4パーティションを見ることができますが、ボリュームをどのように再取得できますか?

あなたの助けをありがとう。

(ああ、もっと多くのバックアップが必要であることを知っています...)

ベストアンサー1

LVが非アクティブとマークされている場合は、次のことを試してください。

lvchange -ay

注:何か奇妙なことがあります。 BIOSでRAIDを設定しましたが、これはハードウェアRAIDであり、システムには1つの仮想デバイス(/dev/sdX)のみが表示されます。これを処理する専用カードがなくても、マザーボードがその役割を果たすことができます。

または、ソフトウェアraidがあり、オペレーティングシステム上のすべてのディスクを表示でき、raidを表す特別なデバイス()があります/dev/mdX。表面的にこれがあなたの状況です。 BIOSで何が起こっているのか理解していませんが。

おすすめ記事