GlusterFSレプリケーションボリュームの自動フェイルオーバーが機能しない

GlusterFSレプリケーションボリュームの自動フェイルオーバーが機能しない

複製されたGlusterボリュームを持つ2つのノードがあります。次に、3 番目のノードは、/etc/fstab で次のマウント文字列を使用してボリュームをマウントします。

node1,node2:/gv0   /glustermount   glusterfs   defaults 0 0

また、次のように、1つまたは2つのサーバーをバックアップvolfileサーバーとして追加しようとしました。

node1,node2:/gv0       /glustershare   glusterfs       defaults,backup-volfile-servers=node2:/gv0:node1:/gv0 0 0

ボリュームが正しくマウントされ、ノード3の内容を一覧表示できます。私の期待は、ノード1またはノード2を再起動できることです。一度に 1 つずつ再起動し、完全に起動し、完全に使用するのに十分な時間を与えれば、ノード 3 へのアクセス権を失うことはありません。

node1を再起動すると、問題なくリストを作成できます。 node1が完全に再起動して使用可能になったら(長い時間待って「glusterボリュームステータス」応答にオンラインでリストされていることを確認しました)、node2を再起動します。私はすぐに乗ることを失った。どんなに待っても戻りません。ただし、現在または後で「mount /glustermount」を使用して再マウントすることができ、ノード1のみが使用可能な状態に正常に再マウントされます(ノード2がダウンしているか再起動中)。

私の設定に問題がありますか?それとも予想される動作ではありませんか? NFSと比較してサーキットブレーカクライアントを使用する最大の利点は、一部のパフォーマンスを犠牲にして自動フェイルオーバーを実行できることです。

ノード 1 を再起動すると、ノード 3 の Gluster ログに次の見積もりが表示されます。

failed to connect with remote-host: node1 (No data available)
connecting to next volfile server node2

したがって、後でnode2を再起動すると、同様の逆エントリが表示されると予想されますが、代わりに表示される内容は次のとおりです。

Exhuasted all volfile servers
Unmounting '/glustermount'

では、なぜnode1を使用可能なvolfileサーバーとして表示しませんが、mountコマンドを再実行すると正しくマウントされ、node1のみを使用できますか?

ベストアンサー1

おすすめ記事