ストレージマッピング用の大規模メタデータテーブルの作成

ストレージマッピング用の大規模メタデータテーブルの作成

すでにかなり大きなストレージスペースをどのように管理するのか悩んでいます。不要なファイルを確認した後、アーカイブ/削除するのがアイデアです。

現在は `du -h max-length 1 を実行し、出力をテキストファイルにパイプします。

ただし、現在のリポジトリをアーカイブ/削除する方法を理解できるように、より多くの情報が必要です。

---すべてのファイルのファイル形式とサイズを再帰的にインポートする最良の方法は何ですか?これは役に立たない中間ファイルをチェックする簡単な方法です。

---すべてのファイルメタデータ(データユーザー、ファイルタイプ、ファイルサイズ、タイムスタンプなど)を大きなtsvファイルとして出力し、サイズとファイルタイプに基づいてPython / Rで解析できるように考えています。サブ設定を行います。可能ですか?この情報をどのように取得しますか?

---ストレージ対時間を確認する方法はありますか?

---現在保存されているデータを整理/保存/削除する方法を見つけるのに役立つ他の診断/視覚化機能はありますか?

ベストアンサー1

コメントするには長すぎますが、答えるには十分ではありません。すみません。

---すべてのファイルのファイル形式とサイズを再帰的にインポートする最良の方法は何ですか?これは役に立たない中間ファイルをチェックする簡単な方法です。

「最も良い」部分はわかりませんが、まずGoogleで「高度なディスクを使用するLinux」を検索するとこれ

---すべてのファイルメタデータ(データユーザー、ファイルタイプ、ファイルサイズ、タイムスタンプなど)を大きなtsvファイルとして出力し、サイズとファイルタイプに基づいてPython / Rで解析できるように考えています。サブ設定を行います。可能ですか?この情報をどのように取得しますか?

もちろん、Pythonの場合は、os.walk()再帰ディレクトリを使用して各ファイルに関するすべての関連情報を印刷できます。おそらくTSVの代わりにSQLiteを出力形式として使用します。

---ストレージ対時間を確認する方法はありますか?

du -s定期的に実行し、結果をRRDデータベースに提供できます。これで美しいチャートを作成できます。

---現在保存されているデータを整理/保存/削除する方法を見つけるのに役立つ他の診断/視覚化機能はありますか?

必要がありますが、あなたの特別なケースではあまり役に立たないと思います。

おすすめ記事