数時間でログファイルが27 GBに達すると、サーバーが重大な破損のためクラッシュしました。ログファイルは毎日圧縮され、通常は非常に小さく、24時間で最大10 MBまで可能です。今日私が寝ている間、スタックトレースは毎秒20回印刷され、ログは27GBになり、ハードドライブがいっぱいになると重大な破損やデータ損失が発生する問題が発生しました。ログファイルは常に「latest.log」と呼ばれ、将来このような問題を回避するには、ファイルが1 GBを超えるとファイルを削除するcron操作が必要です。助けてくれてありがとう。
ベストアンサー1
私はこれを行うためにcronを使用しません。もしあなたが主張するならば、単純なfind行はそのトリックをするでしょう。 Unixのファイルは廃止されたときにのみ消えるため、サービスを再起動する必要があります。
クローンタブに戻る:
*/10 * * * * find /dir -name latest.log -size +1GB -exec rm -f {} \; -exec command_to_restart_your_service \;
スタックについて話すときにTomcatについて話しているとします。以下の投稿を確認してください。ただし、サーバーが重要すぎる場合は、すべてのログをリモートログサーバーに転送します。なぜ危険にさらされますか?そこでもSQLサーバーを実行していますか?別のサーバーで実行します。
以下は、ログサイズの制限への記事リンクです。