RAID

RAID

Debian Liveを使用してRAID1(暗号化なし)からLVMを復元しようとしています。

明らかにRAID1は問題なく組み立てられましたが、LVMが破損しています。 LVMセクションにスキップできます。緊急事態に備えてRAID部分を予約してください。

RAID

# aptitude install mdadm
# mdadm --assemble --scan

情報:

[  617.036709] md: md0 stopped.
[  617.038099] md: bind<sdc1>
[  617.038302] md: bind<sda1>
[  617.214903] md: raid1 personality registered for level 1
[  617.215534] md/raid1:md0: active with 2 out of 2 mirrors
[  617.215694] created bitmap (8 pages) for device md0
[  617.215956] md0: bitmap initialized from disk: read 1 pages, set 0 of
14903 bits
[  617.682354] md0: detected capacity change from 0 to 1000068874240
[  617.693821]  md0:

これはRAIDです:

# ls -l /dev/md0
brw-rw---- 1 root disk 9, 0 Jan 21 19:34 /dev/md0

# mdadm --examine /dev/md0
/dev/md0:
   MBR Magic : aa55

# file -s /dev/{md0,sda,sdc}
/dev/md0: DOS/MBR boot sector
/dev/sda: DOS/MBR boot sector
/dev/sdc: DOS/MBR boot sector

DOS/MBR boot sectorそれが問題だと思います。これについては後で詳しく説明します。

場合に備えて追加情報

これは関係ないかもしれません。

# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Sun Jun 21 18:04:33 2015
     Raid Level : raid1
     Array Size : 976629760 (931.39 GiB 1000.07 GB)
  Used Dev Size : 976629760 (931.39 GiB 1000.07 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Wed Jan 20 22:28:23 2016
          State : clean 
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : bouzin:0
           UUID : 102b07b8:703e4597:574b2ecf:880a1aee
         Events : 4349

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       33        1      active sync   /dev/sdc1


# fdisk -l /dev/md0

Disk /dev/md0: 931.4 GiB, 1000068874240 bytes, 1953259520 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x9c0ff432

# sfdisk -l /dev/md0

Disk /dev/md0: 244157440 cylinders, 2 heads, 4 sectors/track
Units: cylinders of 4096 bytes, blocks of 1024 bytes, counting from 0

   Device Boot Start     End   #cyls    #blocks   Id  System
/dev/md0p1          0       -       0          0    0  Empty
/dev/md0p2          0       -       0          0    0  Empty
/dev/md0p3          0       -       0          0    0  Empty
/dev/md0p4          0       -       0          0    0  Empty

# sfdisk -l /dev/sda

Disk /dev/sda: 121601 cylinders, 255 heads, 63 sectors/track
Units: cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0

   Device Boot Start     End   #cyls    #blocks   Id  System
/dev/sda1          0+ 121601- 121602- 976760832   fd  Linux raid
autodetect
/dev/sda2          0       -       0          0    0  Empty
/dev/sda3          0       -       0          0    0  Empty
/dev/sda4          0       -       0          0    0  Empty

# sfdisk -l /dev/sdc

Disk /dev/sdc: 121601 cylinders, 255 heads, 63 sectors/track
Units: cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0

   Device Boot Start     End   #cyls    #blocks   Id  System
/dev/sdc1          0+ 121601- 121602- 976760832   fd  Linux raid
autodetect
/dev/sdc2          0       -       0          0    0  Empty
/dev/sdc3          0       -       0          0    0  Empty
/dev/sdc4          0       -       0          0    0  Empty

# cat /proc/mdstat
Personalities : [raid1] 
md0 : active (auto-read-only) raid1 sda1[0] sdc1[1]
      976629760 blocks super 1.2 [2/2] [UU]
      bitmap: 0/8 pages [0KB], 65536KB chunk

編集8:RAIDは自動読み取り専用でインストールされます。もともとここに書いたものとは異なり、読み書きに設定する必要はなく、説明したように必要に応じて自動的に行われます。ここ

LVM

# aptitude install lvm2

# pvscan
  No matching physical volumes found

# lvscan
  No volume groups found

構成ファイルの復元

lvm構成ファイルのバックアップがありません(必要なのかわかりません)。

次のようなKnoppix Linux LiveCDを使用してRAID1 LVMパーティションからデータを回復する

アイデアは、LVM構成ファイルを見つけるためにLVMパーティションの先頭を読み取ることです。

# dd if=/dev/md0 bs=512 count=4096 skip=1 of=/tmp/md0-raw-start

# vi /tmp/md0-raw-start

そこから設定ファイルを探します。バイナリと以前の設定バージョンを削除します。

これが私が得たものです(vg、lv ...は実際にLVMを設定するときに使用した名前です)。

# Generated by LVM2 version 2.02.111(2) (2014-09-01): Sun Jun 21 18:12:39 2015

contents = "Text Format Volume Group"
version = 1

description = ""

creation_host = "bouzin"        # Linux bouzin 3.16.0-4-amd64 #1 SMP Debian 3.16.7-ckt11-1 (2015-05-24) x86_64
creation_time = 1434910359      # Sun Jun 21 18:12:39 2015

vg {
id = "Yxknle-OEes-hihh-tWCt-QBxC-JtP9-bl360E"
seqno = 8
format = "lvm2"
status = ["RESIZEABLE", "READ", "WRITE"]
flags = []
extent_size = 8192
max_lv = 0
max_pv = 0
metadata_copies = 0

physical_volumes {

pv0 {
id = "gUyTdb-rc7j-rJh0-B2EZ-ebb7-mf77-KBgNWm"
device = "/dev/md0"

status = ["ALLOCATABLE"]
flags = []
dev_size = 1953259520
pe_start = 2048
pe_count = 238434
}
}

logical_volumes {

lv0 {
id = "AwliYc-HczW-LZ1x-czpO-YZOJ-sr7k-T13HUf"
status = ["READ", "WRITE", "VISIBLE"]
flags = []
creation_host = "bouzin"
creation_time = 1434910352
segment_count = 1

segment1 {
start_extent = 0
extent_count = 953

type = "striped"
stripe_count = 1

stripes = [
"pv0", 0
]
}
}

lv1 {
id = "Ec1tN2-WKaf-v2if-lAu2-MfiI-1hkE-XyKFGI"
status = ["READ", "WRITE", "VISIBLE"]
flags = []
creation_host = "bouzin"
creation_time = 1434910359
segment_count = 1

segment1 {
start_extent = 0
extent_count = 7152

type = "striped"
stripe_count = 1

stripes = [
"pv0", 953
]
}
}

lv2 {
id = "gFWdEh-7HUJ-zwX1-nqEU-DomC-tdfW-ZGChNw"
status = ["READ", "WRITE", "VISIBLE"]
flags = []
creation_host = "bouzin"
creation_time = 1434910366
segment_count = 1

segment1 {
start_extent = 0
extent_count = 230329

type = "striped"
stripe_count = 1

stripes = [
"pv0", 8105
]
}
}
}
}

これにより、パーティションが次の順序で設定されていることが確認されます。

swap
/
/home

編集2:重要な注意

私がリンクしたページに表示されているものとは異なり、vg {特に前の数行を見逃さないでくださいcontents = ...。それ以外の場合は、次のメッセージが表示されます。

`Can't process text format file - missing contents field.` 

使用中にエラーが発生しましたvgcfgrestore

復元された構成ファイルの使用

lvm構成ディレクトリに復元された構成ファイルをインストールし、lvmを起動します。

# mkdir /etc/lvm/backup
# cp /tmp/md0-raw-start /etc/lvm/backup/vg

# systemctl start lvm2

# systemctl status lvm2
● lvm2-activation.service - Activation of LVM2 logical volumes
   Loaded: loaded (/lib/systemd/system/lvm2-activation.service; enabled)
   Active: inactive (dead) since Thu 2016-01-21 20:37:42 UTC; 4s ago
     Docs: man:lvm(8)
           man:vgchange(8)
  Process: 22212 ExecStart=/sbin/lvm vgchange -aay --sysinit
(code=exited, status=0/SUCCESS)
 Main PID: 22212 (code=exited, status=0/SUCCESS)

Jan 21 20:37:42 debian lvm[22212]: No volume groups found

それが問題だ。No volume groups found

# vgscan
  Reading all physical volumes.  This may take a while...
  No volume groups found

いいえ。

# vgcfgrestore vg
  Couldn't find device with uuid gUyTdb-rc7j-rJh0-B2EZ-ebb7-mf77-KBgNWm.
  Cannot restore Volume Group vg with 1 PVs marked as missing.
  Restore failed.

このエラーメッセージは、復元されたlvm設定ファイル内の行がないことを識別して修正したため、よりvgcfgrestore明確になりました(上記の編集2を参照)。

しかし、どこに行くべきですか?

パーティションテーブルが削除されましたか?

アレイの説明に戻ります。

# file -s /dev/{md0,sda,sdc}
/dev/md0: DOS/MBR boot sector
/dev/sda: DOS/MBR boot sector
/dev/sdc: DOS/MBR boot sector

~からここに別の投稿があります、私は次のように期待しています:

$ file -s /dev/{sde1,md2}
/dev/sde1: LVM2 (Linux Logical Volume Manager) , UUID:
ZK8IfBzUHPH5befvm5CZ81oIXHm11TG
/dev/md2:  LVM2 (Linux Logical Volume Manager) , UUID:
ZK8IfBzUHPH5befvm5CZ81oIXHm11TG

この問題が発生する前に最後に起動したときにインストールしたものUSBスティックを使用したLinux Mint別のコンピュータでそのコンピュータを使用して起動可能なドライブを作成します。 GPartedを使用して「ハイブリッド」.isoをスティックにコピーしてから、ddFAT32でフォーマットし直すのに問題がありました。何度も試してfdiskから結局あきらめたようです。

fdisk考えてみると、私が間違った方法でシステムを台無しにした可能性があります/dev。私が何をしたのかはよくわかりませんが、手がかりかもしれません。私は他のことを考えることはできません。システムはDebian Jessieで、無人アップグレード機能がありますが、自動更新はそうすることはできないようです。

パーティションはスワップで始まるので、先頭をクリアすることは重要なファイルから始めるのと同じくらい重要ではないかもしれません。

DOS/MBR boot sectorこれが問題であり、USBスティックの間違ったパーティションが原因である可能性があることを誰でも確認できますか?

最も重要なのは、この問題を解決する方法についてのアイデアがありますか?

(私は毎日ドライブ上の重要なファイルをバックアップしています。理解を助けるために、そしてバックアップできなかったファイルを確認したいので、この問題を解決したいと思います。)

指示するここ適用されるかもしれませんが、少し不明確で、続行する前にもう少し詳細を知りたいです。

編集1:テストディスクオプション

誰かが提案したパーティション表の回復を放棄し、Testdiskを使用してデータを回復します。私はおそらく英雄的な仕事をしようとする前に、この方法で既存のデータをバックアップしてみますpvcreate

FWIW、これはTestdiskの出力です。

分析する

Disk /dev/md0 - 1000 GB / 931 GiB - CHS 244157440 2 4
Current partition structure:
     Partition                  Start        End    Size in sectors

No partition is bootable

クイック検索

Disk /dev/md0 - 1000 GB / 931 GiB - CHS 244157440 2 4
     Partition               Start        End    Size in sectors
 * Linux Swap             255   0  1   256   1  4         16
 P Linux                976128   0  1 8299775   1  4   58589184
 P Linux                8299776   0  1 244156671   1  4 1886855168

SWAP2 version 0, pagesize=8192, 8192 B
ext4 blocksize=4096 Large file Sparse superblock, 29 GB / 27 GiB
ext4 blocksize=4096 Large file Sparse superblock, 966 GB / 899 GiB

編集2:pvcreateオプション

ここにエラーメッセージが再表示されます。

# vgcfgrestore vg
  Couldn't find device with uuid gUyTdb-rc7j-rJh0-B2EZ-ebb7-mf77-KBgNWm.

今フォローしてくださいこの提案、これしてみようか?

dd if=/dev/zero count=1 of=/dev/md0
pvcreate --uuid gUyTdb-rc7j-rJh0-B2EZ-ebb7-mf77-KBgNWm --norestorefile
vcfgrestore

私はそれが確実だと確信していますが、確認したいと思います。

編集3:症状

起動時に受け取ったエラーメッセージに言及するのを忘れました。

初めて再起動したときに次のエラーが発生しました。

error: disk `lvmid/Yxknle-OEes-...` not found. 
Entering rescue mode...
grub rescue> ls
(hd0) (hdO,msdos1), (hd1) (hd1,msdos1) (hd2) (hd2,msdos2) (md/0)

その後、ディスクを削除しようとしました。お金を守ってください。その後、他のエラーが変更され、この新しいエラーが引き続き発生します。

error: file `/boot/grub/i386-pc/normal.mod` not found.

編集 4: strace pvscan

# strace -e trace=open pvscan 2>&1 | grep /dev/md
open("/dev/md0", O_RDONLY|O_DIRECT|O_NOATIME) = 3
open("/dev/md0", O_RDONLY)              = 5
open("/dev/md0", O_RDONLY)              = 3
open("/dev/md0", O_RDONLY|O_DIRECT|O_NOATIME) = 3
open("/dev/md0", O_RDONLY|O_DIRECT|O_NOATIME) = 3

編集5:lvmバックアップファイルの回復

Testdiskを使用して/etc/lvm/backup/vg

# Generated by LVM2 version 2.02.111(2) (2014-09-01): Sun Jun 21 20:19:54 2015

contents = "Text Format Volume Group"
version = 1

description = "Created *after* executing 'vgcfgbackup'"

creation_host = "bouzin"        # Linux bouzin 3.16.0-4-amd64 #1 SMP Debian 3.16.7-ckt11-1 (2015-05-24) x86_64
creation_time = 1434910794      # Sun Jun 21 20:19:54 2015

vg {
        id = "Yxknle-OEes-hihh-tWCt-QBxC-JtP9-bl360E"
        seqno = 8
        format = "lvm2"                 # informational
        status = ["RESIZEABLE", "READ", "WRITE"]
        flags = []
        extent_size = 8192              # 4 Megabytes
        max_lv = 0
        max_pv = 0
        metadata_copies = 0

        physical_volumes {

                pv0 {
                        id = "gUyTdb-rc7j-rJh0-B2EZ-ebb7-mf77-KBgNWm"
                        device = "/dev/md0"     # Hint only

                        status = ["ALLOCATABLE"]
                        flags = []
                        dev_size = 1953259520   # 931,387 Gigabytes
                        pe_start = 2048
                        pe_count = 238434       # 931,383 Gigabytes
                }
        }

        logical_volumes {

                lv0 {
                        id = "AwliYc-HczW-LZ1x-czpO-YZOJ-sr7k-T13HUf"
                        status = ["READ", "WRITE", "VISIBLE"]
                        flags = []
                        creation_host = "bouzin"
                        creation_time = 1434910352      # 2015-06-21 20:12:32 +0200
                        segment_count = 1

                        segment1 {
                                start_extent = 0
                                extent_count = 953      # 3,72266 Gigabytes

                                type = "striped"
                                stripe_count = 1        # linear

                                stripes = [
                                        "pv0", 0
                                ]
                        }
                }

                lv1 {
                        id = "Ec1tN2-WKaf-v2if-lAu2-MfiI-1hkE-XyKFGI"
                        status = ["READ", "WRITE", "VISIBLE"]
                        flags = []
                        creation_host = "bouzin"
                        creation_time = 1434910359      # 2015-06-21 20:12:39 +0200
                        segment_count = 1

                        segment1 {
                                start_extent = 0
                                extent_count = 7152     # 27,9375 Gigabytes

                                type = "striped"
                                stripe_count = 1        # linear

                                stripes = [
                                        "pv0", 953
                                ]
                        }
                }

                lv2 {
                        id = "gFWdEh-7HUJ-zwX1-nqEU-DomC-tdfW-ZGChNw"
                        status = ["READ", "WRITE", "VISIBLE"]
                        flags = []
                        creation_host = "bouzin"
                        creation_time = 1434910366      # 2015-06-21 20:12:46 +0200
                        segment_count = 1

                        segment1 {
                                start_extent = 0
                                extent_count = 230329   # 899,723 Gigabytes

                                type = "striped"
                                stripe_count = 1        # linear

                                stripes = [
                                        "pv0", 8105
                                ]
                        }
                }
        }
}

コメントがあるという点だけを除けば、私が復元した内容と内容が同じです。

編集6:物理ボリュームを作成しようとしました。

上に示すように、/dev/md0サイズは976629760kBです。

# dd if=/dev/md0 of=/media/user/bak/copy_lvm/start bs=1M count=1
# dd if=/dev/md0 of=/media/user/bak/copy_lvm/end bs=1M count=1 skip=953739

(正しく使ってほしいですdd。)

使用方法がわからないpvcreate

# pvcreate --uuid gUyTdb-rc7j-rJh0-B2EZ-ebb7-mf77-KBgNWm --norestorefile
  Can only set uuid on one volume at once
  Run `pvcreate --help' for more information.

# pvcreate --uuid gUyTdb-rc7j-rJh0-B2EZ-ebb7-mf77-KBgNWm --norestorefile /dev/md0
  Can't open /dev/md0 exclusively.  Mounted filesystem?

読み書きできるように配列を設定してみました。

# mdadm --readwrite /dev/md0
mdadm: failed to set writable for /dev/md0: Device or resource busy

なぜこんなに忙しいのかわかりません。lsof何も生産されません。

# lsof /dev/md0

編集7:ディスクを再テストしてください。

Testdiskのおかげで、自動的にバックアップされなかったファイルを正常にバックアップできました。今安全だと思います。これは、最初から再インストールしないようにシステムを保存するためのものです。 (/ etcもコピーしました)

Testdiskはパーティション検出とパーティションテーブルの回復も実行できます。私のパーティション(上記を参照)を検出しましたが、スワップ領域が起動可能であると言います。システムを保有しているものに変更しました。おそらく背後でTestdiskの不正行為が行われている可能性があります。とにかく「書き込み」を押して再起動しました。

再起動しても同じエラーが発生します。

error: file `/boot/grub/i386-pc/normal.mod` not found.

しかし、良いニュースがあります。 Debian Live から起動すると、アレイが自動的に組み立てられ、LVM が認識されます。パーティションをナビゲートできます。

/boot/grub/i386-pc/normal.modどこにあるべきかを確認できます。 (バイナリなので内容を確認できません。)

ああ、ルートのbashレコードも確認しましたが、このような混乱を引き起こすコマンドが見つかりませんでした。でfdiskを使用していますが、fdiskを誤って使用したり使用して/dev/sdhいるわけではありません。ただし、GPartedで使用できます。/dev/sda/dev/sdc

編集8:RAIDとLVMの状態

状況が変わったので、このコマンドをもう一度試してみると思いました。

# mdadm --examine /dev/md0
/dev/md0:
   MBR Magic : aa55
Partition[0] :           16 sectors at         2040 (type 82)
Partition[1] :     58589184 sectors at      7809024 (type 83)
Partition[2] :   1886855168 sectors at     66398208 (type 83)

# file -s /dev/{md0,sda,sdc}
/dev/md0: DOS/MBR boot sector; partition 1 : ID=0x82, start-CHS (0xff,0,1), end-CHS (0x10,1,4), startsector 2040, 16 sectors; partition 2 : ID=0x83, active, start-CHS (0x3ff,1,4), end-CHS (0x3ff,1,4), startsector 7809024, 58589184 sectors; partition 3 : ID=0x83, start-CHS (0x3ff,1,4), end-CHS (0x3ff,1,4), startsector 66398208, 1886855168 sectors
/dev/sda: DOS/MBR boot sector
/dev/sdc: DOS/MBR boot sector

# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Sun Jun 21 18:04:33 2015
     Raid Level : raid1
     Array Size : 976629760 (931.39 GiB 1000.07 GB)
  Used Dev Size : 976629760 (931.39 GiB 1000.07 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Sat Jan 23 21:43:23 2016
          State : clean 
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : bouzin:0
           UUID : 102b07b8:703e4597:574b2ecf:880a1aee
         Events : 4355

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       33        1      active sync   /dev/sdc1

# fdisk -l /dev/md0

Disk /dev/md0: 931.4 GiB, 1000068874240 bytes, 1953259520 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x9c0ff432

Device     Boot    Start        End    Sectors   Size Id Type
/dev/md0p1          2040       2055         16     8K 82 Linux swap / Solaris
/dev/md0p2 *     7809024   66398207   58589184    28G 83 Linux
/dev/md0p3      66398208 1953253375 1886855168 899.7G 83 Linux

# sfdisk -l /dev/md0

Disk /dev/md0: 244157440 cylinders, 2 heads, 4 sectors/track
Units: cylinders of 4096 bytes, blocks of 1024 bytes, counting from 0

   Device Boot Start     End   #cyls    #blocks   Id  System
/dev/md0p1        255     256       2          8   82  Linux swap / Solaris
/dev/md0p2   * 976128  8299775  7323648   29294592   83  Linux
/dev/md0p3     8299776  244156671  235856896  943427584   83  Linux
/dev/md0p4          0       -       0          0    0  Empty

# cat /proc/mdstat
Personalities : [raid1] 
md0 : active raid1 sda1[0] sdc1[1]
      976629760 blocks super 1.2 [2/2] [UU]
      bitmap: 0/8 pages [0KB], 65536KB chunk

unused devices: <none>

# vgscan
  Reading all physical volumes.  This may take a while...
  No volume groups found

私はあなたの懸念を理解し始めたと思います。 RAID()がLVMなしで分割されているようです/dev/md0。しかし、これは驚くべきことです。私はLVMを作成したことを覚えていて、私が見つけた設定ファイルがそれを確認するからです。

TestdiskはLVMを無視してパーティションテーブルに直接書き込み、LVMをオフロードできますか/dev/md0(該当する場合)。

編集9:私のLVMはどこにありますか?

FWIW、再起動しましたが、まだDebian Liveにmdadmをインストールした後、lvm2がインストールされる前にもRAIDが自動的に組み立てられました(liblvm2app2.2のみ)。これは、LVMが「消えた」という意味ですか?

# dmsetup ls
No devices found

# pvscan
  No matching physical volumes found

# vgscan 
  Reading all physical volumes.  This may take a while...
  No volume groups found

編集10:グラップ修正

ファイルシステム/LVMが正常に動作し、Grubエラーに焦点を当てているとします。

オンラインアドバイスに従ってこれを試しました。grub-install

# mount /dev/md0p2 /mnt
# grub-install --root-directory=/mnt /dev/md0
The file /mnt/boot/grub/stage1 not read correctly.

パーティションはLinuxとして認識されます。

# fdisk -l  /dev/md0

Disk /dev/md0: 931.4 GiB, 1000068874240 bytes, 1953259520 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x9c0ff432

Device     Boot    Start        End    Sectors   Size Id Type
/dev/md0p1          2040       2055         16     8K 82 Linux swap / Solaris
/dev/md0p2 *     7809024   66398207   58589184    28G 83 Linux
/dev/md0p3      66398208 1953253375 1886855168 899.7G 83 Linux

誰かが提案したgrub は inode サイズ 128 でのみ動作します。

# tune2fs -l /dev/md0p2 | grep -i 'inode size'
Inode size:               256

inodeのサイズが変わる理由がないので気にするかどうかわかりません。

ついています。

パーティションテーブルに奇妙なスワップサイズが表示されます。おそらく私はこのパーティションをめちゃくちゃにして、Testdiskがそれを誤って検出し、ここに示されている誤ったテーブルに書き込んでいた可能性があります。とにかく悪くない。必要ならいつでも変えることができると思います。

gparted は以下を表示します。

Partition     File System   Mount Point   Size         Flags
/dev/md0p1                                8 KiB
unallocated   unallocated                 3.72 GiB
/dev/md0p2    ext4          /mnt          27.94 GiB    boot
/dev/md0p3    ext4                        899.72 GiB
unallocated   unallocated                 3.72 GiB

私の/homeパーティション(/dev/md0p3)の終わりは何とか切り捨てられたようです。

LVMへの言及はありません。

近くに割り当てられていないスペースを追加する代わりに/ dev / md0p1を再生成する必要があります(そして失われた最後の4GBを忘れてください)、またはここでgpartedを使用すると状況が悪化しますか?

この場合、LVMを使用することはそれほど重要ではありません。 1TBディスクを使用すると、システムに30 GBの空き容量を確保できますが、5 GBのみが使用されます。最終設定が損なわれない限り、プロセスでLVMを失っても問題ありません。

編集11:データ保存、ファイルシステムの破棄

/homeこの時点では、他のディスクにインストールして権限とすべてをetc維持することができたrsyncため、最初から再インストールすることは実際には問題になりませんでした。

何が起きているのか理解できれば幸いですが、LVMの修正に時間を費やして完全に理解できず、信頼できない設定で終わるのは良い措置ではないため、最初から再インストールすることにしました。

Debian インストーラを使用してアレイに再インストールできますが、起動時に同じエラーが発生します。アレイを破壊して再生成するためにインストーラと戦わなければならず、最終的にすべてが解決されました。

別の教訓。これからさらにバックアップを行います。バックアップ用に別のディスクに入れました/home。リストをrsync保存し/etcて整理するために、職場では次のようにします。

etckeeperバージョンを使用して/etc別のドライブに複製します。apt-cloneインストールされているパッケージのリストを保存するために使用します。

#!/bin/sh
#
# Script to clone installation
#

DEST_DIR=/mnt/backup_drive

# Apt clone
apt-clone clone $DEST_DIR/apt-clone/apt-clone-$(lsb_release -si)-$(lsb_release -sc)-$(lsb_release -sr)-$(date +%F).tar.gz

# Git clone /etc
cd $DEST_DIR/etc; git pull --quiet

ベストアンサー1

あなたの情報は矛盾しています。/dev/md0PVとパーティションテーブルを同時にすることはできません。filePVが認められます。md0LVMボリュームが/dev/md0p1または等しいように分割されているようです/dev/md0p2

たぶん何らかの理由でpvscan/vgscan無視されたかもしれません/dev/md0/ /dev/md0p1(だからLVMはUUIDを見つけることができません)。pvscan次のコマンドを実行して、straceスキャンされたブロックデバイスを確認できます。

strace -e trace=open pvscan 2>&1 | grep /dev/md

おすすめ記事