私はDebian 10.7コンピュータでradi6(HDD)設定を実行しています。私はLVM VGにこのmdデバイスを使用します。 SSDを連続書き込みキャッシュとして追加しました。残念ながら、私のbash履歴にはビルドコマンドは含まれていません。ところで、ジョブ設定をして数日経過すると、キャッシュデバイスを含むSSDにエラーが発生しました。新しいDebianをインストールした後、ルートもSSDにあるため、LVMボリュームを起動できません。次のエラーメッセージが表示されます。
Couldn't find device with uuid
私はこれを試していますvgreduce --removemissing
。結果は、コンピュータがキャッシュを開始できないという苦情です。
同様の質問を探していて、答えを見つけました。新しいPVを追加し、UUIDが見つからない新しいLVを作成します。そうしましたがCouldn't find device with uuid
消えました。
ただし、LVMボリュームを起動できません。
root@fileserver:~#lvchange -ay raid6-4T
Check of pool raid6-4T/r6_4T_files_cache failed (status:1). Manual repair required!
root@fileserver:~# lvs -a --units m
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
lvm-var raid6-4T Cri---C--- 35944,00m [lvm-var_cache] [lvm-var_corig]
[lvm-var_cache] raid6-4T Cwi---C--- 5036,00m
[lvm-var_cache_cdata] raid6-4T Cwi------- 5036,00m
[lvm-var_cache_cmeta] raid6-4T ewi------- 40,00m
[lvm-var_corig] raid6-4T owi---C--- 35944,00m
[lvol0_pmspare] raid6-4T ewi------- 852,00m
r6_4T_files raid6-4T Cwi---C--- 15225324,00m [r6_4T_files_cache] [r6_4T_files_corig]
[r6_4T_files_cache] raid6-4T Cwi---C--- 34172,00m
[r6_4T_files_cache_cdata] raid6-4T Cwi------- 34172,00m
[r6_4T_files_cache_cmeta] raid6-4T ewi------- 852,00m
[r6_4T_files_corig] raid6-4T owi---C--- 15225324,00m
私は修正しようとします:
root@fileserver:~# lvconvert --repair /dev/raid6-4T/r6_4T_files_cache
bad checksum in superblock
Repair of cache metadata volume of cache raid6-4T/r6_4T_files_cache failed (status:1). Manual repair required!
root@fileserver:~# lvdisplay
--- Logical volume ---
LV Path /dev/raid6-4T/r6_4T_files
LV Name r6_4T_files
VG Name raid6-4T
LV UUID P1oxae-VTkp-mu6p-8a5z-un2R-pXz9-YjakTI
LV Write Access read/write
LV Creation host, time fileserver, 2019-08-08 15:57:56 +0200
LV Cache pool name r6_4T_files_cache
LV Cache origin name r6_4T_files_corig
LV Status NOT available
LV Size 14,52 TiB
Current LE 3806331
Segments 1
Allocation inherit
Read ahead sectors auto
--- Logical volume ---
LV Path /dev/raid6-4T/lvm-var
LV Name lvm-var
VG Name raid6-4T
LV UUID RNqJF7-FLxx-5WvX-6ceH-NtHl-hvqd-Fus5A5
LV Write Access read only
LV Creation host, time fileserver, 2020-12-13 14:45:51 +0100
LV Cache pool name lvm-var_cache
LV Cache origin name lvm-var_corig
LV Status NOT available
LV Size 35,10 GiB
Current LE 8986
Segments 1
Allocation inherit
Read ahead sectors auto`
root@fileserver:~# vgdisplay
--- Volume group ---
VG Name raid6-4T
System ID
Format lvm2
Metadata Areas 3
Metadata Sequence No 81
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 2
Open LV 0
Max PV 0
Cur PV 3
Act PV 3
VG Size 14,59 TiB
PE Size 4,00 MiB
Total PE 3825555
Alloc PE / Size 3825555 / 14,59 TiB
Free PE / Size 0 / 0
VG UUID 88lUal-4tQX-CEcf-ZNZe-rdGv-3B2x-4ZCDrp
改行コードを貼り付ける方法は? - この投稿の形式が間違っていることがわかります。
目的は、LVへのファイルシステムのマウントを最小限に抑えることです。データを保存したら、設定を再作成できます。最良のシナリオでは、設定を再度有効にします。
必要なすべての情報が含まれていることを願っています。そうでなければ苦情を提出してください!
まず、ありがとうございます!
ベストアンサー1
LVMボリュームを再度有効にすることはできませんが、データを読み取ることはできます。
root@fileserver:~# lvchange -ay raid6-4T/r6_4T_files_corig --activationmode partial
PARTIAL MODE. Incomplete logical volumes will be processed.
Do you want to activate component LV in read-only mode? [y/n]: y
Allowing activation of component LV.
Couldn't find device with uuid tOkG3t-aWGl-4PfO-DI3O-TMoG-ia1z-p4UQgP.
Couldn't find device with uuid qmDOrk-0SRI-9Z1S-PzgI-GRI8-xLrP-kC5LHd.
root@fileserver:~# mount -o noload -r /dev/mapper/raid6--4T-r6_4T_files_corig /media/data/
root@fileserver:~# lvchange -ay raid6-4T/lvm-var_corig --activationmode partial
PARTIAL MODE. Incomplete logical volumes will be processed.
Do you want to activate component LV in read-only mode? [y/n]: y
Allowing activation of component LV.
Couldn't find device with uuid tOkG3t-aWGl-4PfO-DI3O-TMoG-ia1z-p4UQgP.
Couldn't find device with uuid qmDOrk-0SRI-9Z1S-PzgI-GRI8-xLrP-kC5LHd.
root@fileserver:~# mount -o noload -r /dev/mapper/raid6--4T-lvm--var_corig /media/var/