私はいくつかの異なる用途に使用されるホームサーバーを構築しています。 Btrfs raid 1配列を使用して大容量データを保存したいのですが、CentOS 7(3.10より前は安定していたが古いカーネル)を使用しており、安定性と機能についていくつかの一般的な懸念があります。発生した問題を解決することが心配され、(現在は)MD RAID 1でext4を使い続けることにしました。しかし、後で変換できるように柔軟に保ちたいです。私の考えの最も簡単な方法は、ディスクごとに1つの論理ボリュームの上でMDを実行することで、時間の経過とともにRAIDサイズ全体をより簡単に調整でき、その上に別の論理ボリュームを配置してさまざまなタスクのディスク使用量を管理することです。です。 (LVM raidを使用できると思いますが、ここに記載されている理由で使用したくありません。LVMを使用したRAIDとMDRAIDの比較)
たとえば、次のようになります。
| /share | /userX | /userY | /media |
-----------------------------------
| LVM1 | LVM2 | LVM3 |
-----------------------------------
| RAID 1 Volume |
-----------------------------------
| LVM volume | LVM volume |
-----------------------------------
| Disk 1 | Disk 2 |
これにより、最上位レベルでディスク使用量を管理し、RAIDサイズ全体を管理できる柔軟性が得られるため、理論的には最終的に他のシステムに追加のディスク容量を使用できるようになります。そうですか?
何か抜けたような気がします。パフォーマンスが低下しましたか?あまりにも複雑ですか?追加する、この問題たとえそのポスターが少し違うことをしているようですが、私のアプローチに疑問があります。私はここに核コードを保存したいのではなく、重要な内容を外部にバックアップしておきます。しかし、問題を引き起こす可能性のあるソリューションで私を突くことは避けたいと思います。
ベストアンサー1
ほとんどのinitシステムはそれを期待していないため、LVM、MD、LVMを再アセンブルする準備ができていません。
MDの下にLVMを配置する場合は、非常に注意する必要があります。 MDは物理ディスクと一緒に使用する必要がありますが、LVをRAIDメンバーとして使用すると、同じディスクを共有する2つのメンバーで簡単に終了できます。つまり、LVM独自のRAID機能の代わりにMDをスタンドアロンレイヤーとして使用する場合、後者の場合、LVM自体がこれを保証します。
MDメンバーが最終的にディスクを共有すると、単一のディスク障害が原因で最終的に複数のメンバーがシャットダウンします。基本的に真の冗長性がなければ無意味なRAIDを実行しているのです。
問題は、そのような設定のポイントは何ですか?グラフを見ると、追加のLVMレイヤが重複していることは明らかです。ディスクを直接使用するだけです。
RAID1の設定を他のものに完全に変更したい人のほとんどは、ディスクを1つ削除して新しいシステムを構築するだけです。一時的にこのプロセスの冗長性は失われますが、とにかく常にバックアップが必要です。そうですか?
LVMの他の利点のほとんどはRAIDには適用されません。 RAIDを増減するために、LVMをRAIDの下に配置する必要はありません。 MDが直接できます。