単一システムに小規模なCEPHクラスタを構築しようとしています。大規模なプロジェクトに移行する前に、ラボでテストしてみましょう。記憶力に問題があり、それを制御する方法が見つかりません。
私たちは古いCore2Duo CPU、4GBのRAMを持っています。 3つのローカル8TBディスクを使用して3つのOSDを作成します。
ceph-deployは、3つのOSDのそれぞれに対して2GBのサイズの1つのtmpfsパーティションを作成し、最大50GBのデータをCephFS Bluestoreにコピーした後、ボックスがRAMを積極的に使用し始め、最終的にすべてのスワップを使用することを除くそしてすべてがうまく動作するようにします。 OSDプロセスで使用できるRAMの量を制御する正しい設定が見つかりませんでした。
RAMよりもIOをもっと使っても大丈夫です。助けてください(可能な場合)。 :) Centos 7ですべてを構築しています。
ベストアンサー1
セフ 13.2.2リリースノート次のように教えてください...
bluestore_cache_*オプションはもう必要ありません。これは4GBのデフォルト値のosd_memory_targetに置き換えられます。 BlueStoreは、この制限内を維持するためにキャッシュを拡張および縮小します。アップグレードユーザーは、このデフォルト値が以前のbluestore_cache_sizeである1 GBを超えるため、BlueStoreを使用するOSDはデフォルトでより多くのメモリを使用することに注意してください。詳細については、BlueStoreのマニュアルを参照してください。
私はこれが私を驚かせた。私のOSDは常駐メモリ使用量のために狂っています。カーネルがosdプロセスを終了しています。
新しいキーに切り替えてosdプロセスをバウンスすると、堅牢なパフォーマンスが得られました。