セキュリティソフトウェアが10,000を超えるリソースを含むディレクトリをスキャンしないのはなぜですか?

セキュリティソフトウェアが10,000を超えるリソースを含むディレクトリをスキャンしないのはなぜですか?

Linuxには、サーバーディレクトリにあるファイルに脆弱性があるかどうかを確認するセキュリティソフトウェアがあります(たとえば、ウェブサイトにハッカースクリプトがアップロードされている場合など)。デフォルトでは、ディレクトリあたりのリソース制限は10,000です。それ以外の場合は、そのディレクトリ内のファイルをスキャンしませんが、必要に応じて無制限に設定できます。

私は制限を増やすことを検討していますが、Linuxとディレクトリに多数のファイルがある場合は、何らかの種類の非線形速度の低下や制限の他の理由が発生するかどうか疑問に思います。 50,000個のファイルを含むディレクトリをスキャンするには、それぞれ100個のファイルを持つ500個のディレクトリをスキャンするよりも指数関数的に長い時間がかかります。それとも別の理由がありますか?

編集:コメントのいくつかのベンチマークは次のとおりです。

### directory with 50,000 test files ###

# time for file in *; do echo test > $file; done
real    0m3.432s  
user    0m1.128s 
sys     0m2.303s     

# time for file in *; do  a=$(head -1 $file); done
real    1m1.338s
user    0m5.878s
sys     0m22.885s


### directory with 500 test files ###

# time for i in {1..100}; do ( for file in *; do echo test > $file; done ) ; done 
real    0m4.150s 
user    0m1.309s 
sys     0m2.801s

# time for i in {1..100}; do ( for file in *; do a=$(head -1 $file); done ) ; done
real    0m58.278s
user    0m3.558s
sys     0m18.554s

ベストアンサー1

おすすめ記事