2つのノード(複製)、つまりserver1とserver2に分割された「gvol0」ボリュームがあります。
清掃後のボリューム情報は次のとおりです。
Volume Name: gvol0
Type: Replicate
Volume ID: 434237432743274327473247
Status: Started
Snapshot Count: 0
Number of Bricks: 1 x 2 = 2
Transport-type: tcp
Bricks:
Brick1: server1:/var/lib/gvol0/brick1
Brick2: server2:/var/lib/gvol0/brick2
Options Reconfigured:
nfs.rpc-auth-allow: x.x.x.*
nfs.export-volumes: on
nfs.addr-namelookup: off
auth.allow: x.x.x.*
transport.address-family: inet
performance.readdir-ahead: on
nfs.disable: off
その後、各ブロックはサーバーの次のマウントポイントの場所にインストールされます。/mnt/gluster/gvol0/
私たちが直面している問題は次のとおりです。
server1には、マウントポイントに特定のフォルダがあります。これを「_data」と呼びます。これには、サブフォルダやその中のファイルは表示されません。ただし、これらのファイル/フォルダの数を計算してファイルを編集して、ディスクに正常に書き込むこともできます。
File: ‘_data’
Size: 4096 Blocks: 8 IO Block: 131072 directory
Device: 27h/39d Inode: 10981725783047031592 Links: 35
Access: (2775/drwxrwsr-x) Uid: ( 48/ apache) Gid: (
1024/teamgroup)
Context: system_u:object_r:fusefs_t:s0
Access: 2017-06-13 15:42:18.653306032 +0000
Modify: 2017-06-13 15:42:22.461305492 +0000
Change: 2017-06-13 15:42:22.461305492 +0000
Birth: -
奇妙なことに、この問題はserver2のマウントポイントには存在せず、/var/lib/gvol0/brick1/_data/のブリック自体にある_data内のフォルダとファイルを正常に一覧表示できます。
自動回復デーモンを含むすべてのボリュームが稼働しています。
Status of volume: gvol0
Gluster process TCP Port RDMA Port Online Pid
------------------------------------------------------------------------------
Brick server1:/var/lib/gvol0/brick1 49156 0 Y 997
Brick server2:/var/lib/gvol0/brick2 49154 0 Y 1109
NFS Server on localhost 2049 0 Y 17085
Self-heal Daemon on localhost N/A N/A Y 17093
NFS Server on server 1 2049 0 Y 4971
Self-heal Daemon on server 2 N/A N/A Y 4979
Task Status of Volume gvol0
自己修復コマンドを実行しても問題は発生しません。
Brick server1:/var/lib/gvol0/brick1
Status: Connected
Number of entries: 0
Brick server2:/var/lib/gvol0/brick2
Status: Connected
Number of entries: 0
以前このような経験をした人はいますか?他の情報を教えてもらえますか? /var/log/glusterfs/... 内部のログファイルに明確な内容が表示されません。
ありがとうございます!