オペレーティングシステムのディスクに作成されるceph osdのサイズを増やす方法

オペレーティングシステムのディスクに作成されるceph osdのサイズを増やす方法

私はcephの世界に初めてアクセスし、仮想サーバーでcephクラスターをテストしています。

以下に基づいてosdを作成しています。 https://docs.ceph.com/docs/dumpling/start/quick-ceph-deploy/#add-ceph-osd-daemons

いくつかのディレクトリを作成します。

mkdir /tmp/osd0

実行の準備と有効化:

ceph-deploy osd prepare {osd-node-name}:/tmp/osd0

ceph-deploy osd activate {osd-node-name}:/tmp/osd0

osdの利用可能なサイズは10Gbにすぎないことを確認してください。

このサイズをどのように増やすことができますか?

まだ質問があります:

私のサーバーにはraid md0に2つのディスクがあり、raidにLVMを作成します。

pvs
  PV         VG  Fmt  Attr PSize  PFree
  /dev/md1   vg0 lvm2 a--  <1.82t    0
vgs
  VG  #PV #LV #SN Attr   VSize  VFree
  vg0   1   2   0 wz--n- <1.82t    0
lvs
  LV     VG  Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  root   vg0 -wi-ao----  1.81t
  swap_1 vg0 -wi-ao---- <4.77g
 lsblk
NAME             MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sda                8:0    0  1.8T  0 disk
├─sda1             8:1    0    1M  0 part
├─sda2             8:2    0  977M  0 part
│ └─md0            9:0    0  976M  0 raid1 /boot
└─sda3             8:3    0  1.8T  0 part
  └─md1            9:1    0  1.8T  0 raid1
    ├─vg0-swap_1 253:0    0  4.8G  0 lvm   [SWAP]
    └─vg0-root   253:1    0  1.8T  0 lvm   /
sdb                8:16   0  1.8T  0 disk
├─sdb1             8:17   0    1M  0 part
├─sdb2             8:18   0  977M  0 part
│ └─md0            9:0    0  976M  0 raid1 /boot
└─sdb3             8:19   0  1.8T  0 part
  └─md1            9:1    0  1.8T  0 raid1
    ├─vg0-swap_1 253:0    0  4.8G  0 lvm   [SWAP]
    └─vg0-root   253:1    0  1.8T  0 lvm   /

おそらく最善の方法は、lvmを使用して新しいパーティションを作成し、それをosdに使用することです。しかし、どうすればいいのかわかりません。特に、このディスクにルートパーティションをマウントします。

ベストアンサー1

おすすめ記事