Linuxには、サーバーディレクトリにあるファイルに脆弱性があるかどうかを確認するセキュリティソフトウェアがあります(たとえば、ウェブサイトにハッカースクリプトがアップロードされている場合など)。デフォルトでは、ディレクトリあたりのリソース制限は10,000です。それ以外の場合は、そのディレクトリ内のファイルをスキャンしませんが、必要に応じて無制限に設定できます。
私は制限を増やすことを検討していますが、Linuxとディレクトリに多数のファイルがある場合は、何らかの種類の非線形速度の低下や制限の他の理由が発生するかどうか疑問に思います。 50,000個のファイルを含むディレクトリをスキャンするには、それぞれ100個のファイルを持つ500個のディレクトリをスキャンするよりも指数関数的に長い時間がかかります。それとも別の理由がありますか?
編集:コメントのいくつかのベンチマークは次のとおりです。
### directory with 50,000 test files ###
# time for file in *; do echo test > $file; done
real 0m3.432s
user 0m1.128s
sys 0m2.303s
# time for file in *; do a=$(head -1 $file); done
real 1m1.338s
user 0m5.878s
sys 0m22.885s
### directory with 500 test files ###
# time for i in {1..100}; do ( for file in *; do echo test > $file; done ) ; done
real 0m4.150s
user 0m1.309s
sys 0m2.801s
# time for i in {1..100}; do ( for file in *; do a=$(head -1 $file); done ) ; done
real 0m58.278s
user 0m3.558s
sys 0m18.554s