ブート失敗 - RAID 1(CentOS 7)によるLVM(「root」、「/」)の拡張

ブート失敗 - RAID 1(CentOS 7)によるLVM(「root」、「/」)の拡張

質問:

別のRAID 1を使用してRAID 1のボリュームグループ(VG)を拡張した後、CentOS 7は起動しません。私たちが使用するプロセスは手順:RAID 1(「ルート」、「/」)によるLVMの拡張。私たちのプレゼンテーションにはどんなエラーや欠落がありますか?


コンテキスト:

2つの追加RAID 1(ソフトウェア)ディスクを使用して、ボリュームグループ(VG)を2つのRAID 1(ソフトウェア)ディスクに拡張しようとしています。


質問:

VG(ボリュームグループ)拡張後、CentOS 7は起動しません。


手順:RAID 1(「ルート」、「/」)によるLVMの拡張

  • ハードドライブフォーマット

追加された2つのハードディスクに新しいMBRパーティションテーブルを作成するには、次の2つのコマンドを実行します。

parted /dev/sdc mklabel msdos
parted /dev/sdd mklabel msdos

"fstab"を再読み込みしてください...

mount -a

fdiskコマンドを使用して各ドライブに新しいパーティションを作成し、それをLinux RAID自動検出ファイルシステムとしてフォーマットします。まず、/dev/sdcでこれを行います。

fdisk /dev/sdc

次のガイドラインに従ってください。

  • 新しいパーティションを作成するには、「n」と入力します。
  • デフォルトのパーティションを選択するには、「p」と入力します。
  • /dev/sdb1を生成するには、「1」と入力します。
  • Enter を押してデフォルトの最初のセクタを選択します。
  • Enterを押してデフォルトの最後のセクタを選択します。パーティションはドライブ全体に広がっています。
  • 「t」と入力して「fd」と入力して、パーティションタイプをLinux raid自動検出に設定します。
  • 上記の変更を適用するには、「w」と入力してください。

メモ:同じ手順に従って、「/dev/sdd」にLinux RAID自動検出パーティションを作成します。

これで、2つのRAIDデバイス「/dev/sdc1」と「/dev/sdd1」があります。

  • RAID 1論理ドライブの作成

次のコマンドを実行してRAID 1を作成します。

[root@localhost ~]# mdadm --create /dev/md125 --homehost=localhost --name=pv01 --level=mirror --bitmap=internal --consistency-policy=bitmap --raid-devices=2 /dev/sdc1 /dev/sdd1
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md125 started.

論理ボリュームの追加

[root@localhost ~]# pvcreate /dev/md125
  Physical volume "/dev/md125" successfully created.

以前に「pvcreate」コマンドを使用して作成した「/dev/md125」(「RAID 1」)物理ボリュームを追加して、「centosvg」ボリュームグループを展開します。

[root@localhost ~]# vgextend centosvg /dev/md125
  Volume group "centosvg" successfully extended

「lvextend」コマンドを使用して論理ボリュームを増やす - 元の論理ボリュームをインポートし、新しいディスク/パーティション/物理(「RAID 1」)ボリューム「/dev/md125」に展開します。

[root@localhost ~]# lvextend /dev/centosvg/root /dev/md125
  Size of logical volume centosvg/root changed from 4.95 GiB (1268 extents) to <12.95 GiB (3314 extents).
  Logical volume centosvg/root successfully resized.

このスペースを利用するには、「xfs_growfs」コマンドを使用してファイルシステムのサイズを変更します。

[root@localhost ~]# xfs_growfs /dev/centosvg/root
meta-data=/dev/mapper/centosvg-root isize=512    agcount=4, agsize=324608 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0 spinodes=0
data     =                       bsize=4096   blocks=1298432, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal               bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
data blocks changed from 1298432 to 3393536
  • RAID1 構成の保存

このコマンドは、システムの現在の状態と一致するようにブートカーネル設定を更新します。

mdadm --detail --scan > /tmp/mdadm.conf
\cp -v /tmp/mdadm.conf /etc/mdadm.conf

新しいデバイスを理解するためにGRUB設定を更新してください。

grub2-mkconfig -o "$(readlink -e /etc/grub2.cfg)"

上記のコマンドを実行した後、次のコマンドを実行して新しい "initramfs"イメージを作成する必要があります。

dracut -fv

間違い:

起動失敗!


インフラ/追加情報:

LSBLK

[root@localhost ~]# lsblk
NAME                MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sda                   8:0    0    8G  0 disk  
├─sda1                8:1    0    1G  0 part  
│ └─md127             9:127  0 1023M  0 raid1 /boot
└─sda2                8:2    0    7G  0 part  
  └─md126             9:126  0    7G  0 raid1 
    ├─centosvg-root 253:0    0    5G  0 lvm   /
    └─centosvg-swap 253:1    0    2G  0 lvm   [SWAP]
sdb                   8:16   0    8G  0 disk  
├─sdb1                8:17   0    1G  0 part  
│ └─md127             9:127  0 1023M  0 raid1 /boot
└─sdb2                8:18   0    7G  0 part  
  └─md126             9:126  0    7G  0 raid1 
    ├─centosvg-root 253:0    0    5G  0 lvm   /
    └─centosvg-swap 253:1    0    2G  0 lvm   [SWAP]
sdc                   8:32   0    8G  0 disk  
sdd                   8:48   0    8G  0 disk  
sr0                  11:0    1 1024M  0 rom

mdadm --/dev/sdc /dev/sdd 確認

[root@localhost ~]# mdadm --examine /dev/sdc /dev/sdd
/dev/sdc:
   MBR Magic : aa55
Partition[0] :     16775168 sectors at         2048 (type fd)
/dev/sdd:
   MBR Magic : aa55
Partition[0] :     16775168 sectors at         2048 (type fd)

mdadm --check /dev/sdc1 /dev/sdd1

[root@localhost ~]# mdadm --examine /dev/sdc1 /dev/sdd1
/dev/sdc1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 51a622a9:666c7936:1bf1db43:8029ab06
           Name : localhost:pv01
  Creation Time : Tue Jan  7 13:42:20 2020
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 16764928 sectors (7.99 GiB 8.58 GB)
     Array Size : 8382464 KiB (7.99 GiB 8.58 GB)
    Data Offset : 10240 sectors
   Super Offset : 8 sectors
   Unused Space : before=10160 sectors, after=0 sectors
          State : clean
    Device UUID : f95b50e3:eed41b52:947ddbb4:b42a40d6

Internal Bitmap : 8 sectors from superblock
    Update Time : Tue Jan  7 13:43:15 2020
  Bad Block Log : 512 entries available at offset 16 sectors
       Checksum : 9d4c040c - correct
         Events : 25


   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 51a622a9:666c7936:1bf1db43:8029ab06
           Name : localhost:pv01
  Creation Time : Tue Jan  7 13:42:20 2020
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 16764928 sectors (7.99 GiB 8.58 GB)
     Array Size : 8382464 KiB (7.99 GiB 8.58 GB)
    Data Offset : 10240 sectors
   Super Offset : 8 sectors
   Unused Space : before=10160 sectors, after=0 sectors
          State : clean
    Device UUID : bcb18234:aab93a6c:80384b09:c547fdb9

Internal Bitmap : 8 sectors from superblock
    Update Time : Tue Jan  7 13:43:15 2020
  Bad Block Log : 512 entries available at offset 16 sectors
       Checksum : 40ca1688 - correct
         Events : 25


   Device Role : Active device 1
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)

猫/proc/mdstat

[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1] 
md125 : active raid1 sdd1[1] sdc1[0]
      8382464 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md126 : active raid1 sda2[0] sdb2[1]
      7332864 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sda1[0] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

unused devices: <none>

mdadm --details/dev/md125

[root@localhost ~]# mdadm --detail /dev/md125
/dev/md125:
           Version : 1.2
     Creation Time : Tue Jan  7 13:42:20 2020
        Raid Level : raid1
        Array Size : 8382464 (7.99 GiB 8.58 GB)
     Used Dev Size : 8382464 (7.99 GiB 8.58 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Tue Jan  7 13:43:15 2020
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

              Name : localhost:pv01
              UUID : 51a622a9:666c7936:1bf1db43:8029ab06
            Events : 25

    Number   Major   Minor   RaidDevice State
       0       8       33        0      active sync   /dev/sdc1
       1       8       49        1      active sync   /dev/sdd1

fdisk -l

[root@localhost ~]# fdisk -l

Disk /dev/sda: 8589 MB, 8589934592 bytes, 16777216 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x000f2ab2

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *        2048     2101247     1049600   fd  Linux raid autodetect
/dev/sda2         2101248    16777215     7337984   fd  Linux raid autodetect

Disk /dev/sdb: 8589 MB, 8589934592 bytes, 16777216 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0002519d

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *        2048     2101247     1049600   fd  Linux raid autodetect
/dev/sdb2         2101248    16777215     7337984   fd  Linux raid autodetect

Disk /dev/sdc: 8589 MB, 8589934592 bytes, 16777216 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0007bd31

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1            2048    16777215     8387584   fd  Linux raid autodetect

Disk /dev/sdd: 8589 MB, 8589934592 bytes, 16777216 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x00086fef

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1            2048    16777215     8387584   fd  Linux raid autodetect

Disk /dev/md127: 1072 MB, 1072693248 bytes, 2095104 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/md126: 7508 MB, 7508852736 bytes, 14665728 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mapper/centosvg-root: 5318 MB, 5318377472 bytes, 10387456 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mapper/centosvg-swap: 2147 MB, 2147483648 bytes, 4194304 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/md125: 8583 MB, 8583643136 bytes, 16764928 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

df-h

[root@localhost ~]# df -h
Filesystem                 Size  Used Avail Use% Mounted on
devtmpfs                   484M     0  484M   0% /dev
tmpfs                      496M     0  496M   0% /dev/shm
tmpfs                      496M  6.8M  489M   2% /run
tmpfs                      496M     0  496M   0% /sys/fs/cgroup
/dev/mapper/centosvg-root  5.0G  1.4G  3.7G  27% /
/dev/md127                1020M  164M  857M  17% /boot
tmpfs                      100M     0  100M   0% /run/user/0

グラフィックディスプレイ

[root@localhost ~]# vgdisplay
  --- Volume group ---
  VG Name               centosvg
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  3
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                2
  Open LV               2
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               6.99 GiB
  PE Size               4.00 MiB
  Total PE              1790
  Alloc PE / Size       1780 / 6.95 GiB
  Free  PE / Size       10 / 40.00 MiB
  VG UUID               6mKxWb-KOIe-fW1h-zukQ-f7aJ-vxD5-hKAaZG

太陽電池スキャン

[root@localhost ~]# pvscan
  PV /dev/md126   VG centosvg        lvm2 [6.99 GiB / 40.00 MiB free]
  PV /dev/md125   VG centosvg        lvm2 [7.99 GiB / 7.99 GiB free]
  Total: 2 [14.98 GiB] / in use: 2 [14.98 GiB] / in no VG: 0 [0   ]

LVディスプレイ

[root@localhost ~]# lvdisplay
  --- Logical volume ---
  LV Path                /dev/centosvg/swap
  LV Name                swap
  VG Name                centosvg
  LV UUID                o5G6gj-1duf-xIRL-JHoO-ux2f-6oQ8-LIhdtA
  LV Write Access        read/write
  LV Creation host, time localhost, 2020-01-06 13:22:08 -0500
  LV Status              available
  # open                 2
  LV Size                2.00 GiB
  Current LE             512
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:1

  --- Logical volume ---
  LV Path                /dev/centosvg/root
  LV Name                root
  VG Name                centosvg
  LV UUID                GTbGaF-Wh4J-1zL3-H7r8-p5YZ-kn9F-ayrX8U
  LV Write Access        read/write
  LV Creation host, time localhost, 2020-01-06 13:22:09 -0500
  LV Status              available
  # open                 1
  LV Size                4.95 GiB
  Current LE             1268
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:0

猫/実行/initramfs/rdsosreport.txt

猫/実行/initramfs/rdsosreport.txt

ありがとうございます!=D

[参照: https://4fasters.com.br/2017/11/12/lpic-2-o-que-ee-para-que-serve-o-dracut/https://unix.stackexchange.com/a/152249/61742https://www.howtoforge.com/set-up-raid1-on-a-running-lvm-system-debian-etch-p2https://www.howtoforge.com/setting-up-lvm-on-top-of-software-raid1-rhel-fedorahttps://www.linuxbabe.com/linux-server/linux-software-raid-1-setuphttps://www.rootusers.com/how-to-increase-the-size-of-a-linux-lvm-by-adding-a-new-disk/ ]

ベストアンサー1

この問題の原因は次のとおりです。

dracut ドキュメントでは、すべての md raid アレイを自動的に組み立てる必要があり、「rd.md.uuid」パラメータは、起動中に特定のアレイのみを組み立てたい場合にのみ使用する必要があることを示しています。

実際、配列は自動的に組み立てられないようです。実際、「rd.md.uuid」パラメーターが設定されている場合にのみ組み立てられます(組み立てる必要がある各配列について)。おそらく、 "rd.lvm.lv"パラメータはすでに設定されているため、何らかの方法で "md"を妨げる可能性がありますが、テストする時間はありません。

つまり、 "/etc/default/grub"の "GRUB_CMDLINE_LINUX"変数にrd.md.uuidパラメータの2つの配列を追加してgrub構成を再生成することで問題を解決しました。

つまり、操作を開始するには、新しいアレイ(新しい「RAID 1」)が「ルート」(「/」)の一部になるため、「GRUB_CMDLINE_LINUX」パラメータに入力する必要があります。

詳しくはセクションをご覧ください。「RAID 1」設定を保存し、CentOSの起動を調整します。以下の全プロセスがあります。

[参照: https://4fasters.com.br/2017/11/12/lpic-2-o-que-ee-para-que-serve-o-dracut/https://forums.centos.org/viewtopic.php?f=47&t=49541#p256406https://forums.centos.org/viewtopic.php?f=47&t=51937&start=10#p220414https://forums.centos.org/viewtopic.php?t=72667https://unix.stackexchange.com/a/152249/61742https://unix.stackexchange.com/a/267773/61742https://www.howtoforge.com/set-up-raid1-on-a-running-lvm-system-debian-etch-p2https://www.howtoforge.com/setting-up-lvm-on-top-of-software-raid1-rhel-fedorahttps://www.linuxbabe.com/linux-server/linux-software-raid-1-setuphttps://www.rootusers.com/how-to-increase-the-size-of-a-linux-lvm-by-adding-a-new-disk/ ]


RAID 1(「ルート」、「/」)によるLVMの拡張

  • ハードドライブフォーマット

2つの新しいディスクを物理的に追加したら、次のコマンドを実行してすべてのディスク/デバイス(RAIDサブシステムを含む)を一覧表示します。

lsblk

メモ:この例では、デバイスは「sdc」および「sdd」と呼ばれ、デフォルトではそれぞれ「/dev/sdc」および「/dev/sdd」パスにあります。

追加された2つのハードディスクに新しいMBRパーティションテーブルを作成するには、次の2つのコマンドを実行します。

parted /dev/sdc mklabel msdos
parted /dev/sdd mklabel msdos

重要:両方のディスク上のすべてのデータは削除されます。

"fstab"を再読み込みしてください...

mount -a

「fdisk」コマンドを使用して各ドライブに新しいパーティションを作成し、それを「Linux raid自動検出」ファイルシステムにフォーマットします。まず、「/dev/sdc」でこれを行います。

fdisk /dev/sdc

次のガイドラインに従ってください。

  • 新しいパーティションを作成するには、「n」と入力します。
  • デフォルトのパーティションを選択するには、「p」と入力します。
  • /dev/sdb1を生成するには、「1」と入力します。
  • Enter を押してデフォルトの最初のセクタを選択します。
  • Enterを押してデフォルトの最後のセクタを選択します。パーティションはドライブ全体に広がっています。
  • パーティションの種類を変更する必要があるため、「t」と入力します。
  • パーティションタイプを「Linux raid 自動検出」に設定するには、「fd」と入力します。
  • 上記の変更を適用するには、「w」と入力してください。

メモ:同じ手順に従って、「/dev/sdd」にLinux RAID自動検出パーティションを作成します。

  • RAID 1論理ドライブの作成

次のコマンドを実行して「RAID 1」を生成します。

重要:

  • 「配列」名には「/dev/md/pv01」を割り当てます。この場合、これらのデバイスで認識される最も高い順序は「pv00」であるためです(「mdadm --detail --scan」コマンドの出力を参照)。 )。配列名「/dev/md/pv01」は、「/dev/md12X」デバイスへのシンボリックパスでもあります。パスは「mdadm」(以下のコマンド)によって自動的に生成されます。 「/dev/md12X」パスは新しいデバイスを表し、「/dev/sdc1」および「/dev/sdd1」(「RAID 1」)デバイスを表します。後でls /dev/md*コマンドまたはコマンドを使用して、readlink -f /dev/md/pv01デバイス名が実際に何であるか(「/dev/md125」、「/dev/md126」、「/dev/md127」など)を確認できます。
  • 「配列」名「/dev/md/pv01」は、現在CentOSで使用されている命名「パターン」に従います。使用することをお勧めします。
[root@localhost ~]# mdadm --create /dev/md/pv01 --name=pv01 --level=mirror --bitmap=internal --consistency-policy=bitmap --raid-devices=2 /dev/sdc1 /dev/sdd1
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md/pv01 started.

LVMを拡張するための物理ボリューム(PV)を作成します。

[root@localhost ~]# pvcreate /dev/md/pv01
  Physical volume "/dev/md/pv01" successfully created.

上記の「pvcreate」コマンドを使用して作成した「/dev/md/pv01」(「RAID 1」)の物理ボリューム(PV)を追加して、「centosvg」ボリュームグループを展開します。

ヒント:ターゲットVG(ボリュームグループ)の名前を見つけるには、「vgdisplay」コマンドを使用して「VG名」属性の値(この場合はcentosvg)を確認します。

[root@localhost ~]# vgextend centosvg /dev/md/pv01
  Volume group "centosvg" successfully extended

「lvextend」コマンドを使用して、「/dev/md/pv01」に新しいPV(物理ボリューム)論理ボリューム(LV)を追加します。

ヒント:ターゲット論理ボリューム(LV)パスを見つけるには、「lvdisplay」コマンドを使用して「LV Path」属性値(この場合は「/dev/centosvg/root」)を確認します。

[root@localhost ~]# lvextend /dev/centosvg/root /dev/md/pv01
  Size of logical volume centosvg/root changed from 4.95 GiB (1268 extents) to <12.95 GiB (3314 extents).
  Logical volume centosvg/root successfully resized.

"/dev/centosvg/root"論理ボリューム(LV)内のファイルシステムのサイズを変更するには、 "xfs_growfs"コマンドを使用して新しいスペースを利用します。

ヒント:上記で使用した論理ボリューム(LV)と同じパスを使用します(この場合は「/dev/centosvg/root」)。

[root@localhost ~]# xfs_growfs /dev/centosvg/root
meta-data=/dev/mapper/centosvg-root isize=512    agcount=4, agsize=324608 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0 spinodes=0
data     =                       bsize=4096   blocks=1298432, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal               bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
data blocks changed from 1298432 to 3393536
  • 「RAID 1」設定を保存し、CentOSの起動を調整します。

システムの現在の状態に合わせてブートカーネル設定を更新します。

コマンドの実行...

[root@localhost ~]# mdadm --detail --scan
ARRAY /dev/md/boot metadata=1.2 name=localhost:boot UUID=50ed66ef:6fb373da:5690ac4b:4fb82a45
ARRAY /dev/md/pv00 metadata=1.2 name=localhost:pv00 UUID=283a4a43:43c85816:55c6adf0:ddcbfb2b
ARRAY /dev/md/pv01 metadata=1.2 name=localhost.localdomain:pv01 UUID=e5feec81:20d5e154:9a1e2dce:75a03c71

...そして、配列/デバイス "/dev/md/pv01"(私たちの場合)を含む行を見てください。

"/etc/mdadm.conf"ファイルを開きます...

vi /etc/mdadm.conf

...そして最後にこのように1行を追加します...

モデル

ARRAY [NEW_ARRAY_NAME] level=raid1 num-devices=2 UUID=[NEW_ARRAY_UUID]

はい

ARRAY /dev/md/pv01 level=raid1 num-devices=2 UUID=e5feec81:20d5e154:9a1e2dce:75a03c71

"/etc/default/grub"ファイルを開きます...

vi /etc/default/grub

...そして「GRUB_CMDLINE_LINUX」パラメータを見つけます。

以下のように、「GRUB_CMDLINE_LINUX」パラメーター値で「ルート」パーティションを表す別のパラメーター「rd.lvm.lv」を見つけます。

モデル

rd.lvm.lv=[VG_NAME]/[LV_NAME]

はい

rd.lvm.lv=centosvg/root

...この「rd.lvm.lv」に「rd.md.uuid」を追加します。この場合、上記で使用したのと同じ「[NEW_ARRAY_UUID]」を次のように追加します。

モデル

GRUB_CMDLINE_LINUX="crashkernel=auto rd.lvm.lv=[LV_NAME] rd.md.uuid=283a4a43:43c85816:55c6adf0:ddcbfb2b rd.md.uuid=50ed66ef:6fb373da:5690ac4b:4fb82a45 rd.md.uuid=[NEW_ARRAY_UUID] rd.lvm.lv=centosvg/swap rhgb quiet"

はい

GRUB_CMDLINE_LINUX="crashkernel=auto rd.lvm.lv=centosvg/root rd.md.uuid=283a4a43:43c85816:55c6adf0:ddcbfb2b rd.md.uuid=50ed66ef:6fb373da:5690ac4b:4fb82a45 rd.md.uuid=e5feec81:20d5e154:9a1e2dce:75a03c71 rd.lvm.lv=centosvg/swap rhgb quiet"

新しいデバイスを理解するためにGRUB設定を更新してください。

grub2-mkconfig -o /boot/grub2/grub.cfg

上記のコマンドを実行した後、次のコマンドを実行して新しい "initramfs"イメージを作成する必要があります。

dracut -fv

いよいよ再起動...

reboot

重要:プロセスが正常に動作するために再起動する必要はありませんが、考えられるエラーを確認するために再起動することをお勧めします。

おすすめ記事