単一のマウントポイントに2つのドライブをマウントすると、予期しない結果が発生する

単一のマウントポイントに2つのドライブをマウントすると、予期しない結果が発生する

今日、私のサーバーの1つにスペースが足りなくなったため、新しい100 GBディスクをシステムに接続し、マウント解除せずに次のことを/tmp行い/usr/tmpDSKました/tmp

mkfs.ext4 /dev/xvde
mount /dev/xvde /tmp

これで出力は次のようになりますdf -h

Filesystem      Size  Used Avail Use% Mounted on
/usr/tmpDSK      98G  4.5G   89G   5% /tmp
/dev/xvde        98G  4.5G   89G   5% /tmp 

パフォーマンススケール/usr/tmpDSK:

[root@server2 usr]# ll -h /usr/tmpDSK
-rw------- 1 root root 2.3G Jan 27 17:32 /usr/tmpDSK 

いくつかのフォーラムでは、mhddfs単一のマウントポイントに複数のドライブをマウントすることを提案しましたが、ちょうどそれをやったので、それはうまくいくようです。それとも何か抜けたのでしょうか?

何が起こっているのかをよりよく理解したいと思います。

ベストアンサー1

ディレクトリの上部にファイルシステムをマウントすると、ファイルシステムがアンマウントされるまでそのディレクトリの内容が非表示になります。

ディレクトリが以前に他のファイルシステムのマウントポイントであったかどうかは重要ではありません。その場合、古いファイルシステムのファイルにアクセスするには、新しいファイルシステムをアンマウントする必要があります(または古いファイルシステムをアンマウントする必要があります)。

関連:


出力についてはあまり話すことができませんdf。私のOpenBSDシステムでは、両方のファイルシステムは出力dfに正しい個別の統計を持っています。

おすすめ記事