3つのノードcephクラスタで5つのレプリカが可能ですか?

3つのノードcephクラスタで5つのレプリカが可能ですか?

これは妥当ですか? 3ノード設定で可能ですか?圧着ルールはどのように見えますか?これが現状です。これに対するアイデアは、複数のosdブレークを補償することです(たとえば、ノードごとに3つのosdが失敗する)。

# rules
rule replicated_rule {
id 0
type replicated
min_size 1
max_size 10
step take default
step chooseleaf firstn 0 type host
step emit
}

ベストアンサー1

はい、可能ですstep chooseleaf firstn 0 type osd。これが別の問題である場合、たとえばストレージのオーバーヘッドは非常に高いでしょう。能力があればこれを行うことができますが、cephはスケーラブルなソリューションとして設計されており、この設定では極端なケースに直面します。通常、ホストベースのレプリケーションはmin_size = 2両方に十分ですsize = 3。これにより、1つのホストで何台のOSDが失敗するかは問題になりません。 2番目のホストが失敗しても、データは失われず、OSDをオンラインに戻すまでパフォーマンスが低下します。ただし、ホストが3つしかない場合は、障害が発生したノードを回復できないため、ノードが回復するか、新しいノードがクラスタに参加するまで、クラスタは劣化した状態で実行されます。

あなたは編集することができます圧着ルール(またはテストするために最初に新しいホストを作成します)最初に利用可能なすべてのホストを選択し、次にOSDの数を選択します。

step choose firstn 0 type host
step chooseleaf firstn 2 type osd

申請する前にテストする必要がありますcrushtool

おすすめ記事