ローカルディスクに保存せずにWeb URLのファイルを圧縮します。

ローカルディスクに保存せずにWeb URLのファイルを圧縮します。

http URLのリストがあります。 http://host.com/url1 http://host.com/url2 http://host.com/url3

各URLはファイルを指します。

ファイルをローカルにダウンロードせずにすべてのファイルを単一のzipアーカイブに圧縮する方法はありますか?私はlinux zipコマンドを使ってこれを行う方法を見つけることができませんでした。ファイルリストは許可されますが、URLリストは許可されません。

どんなアイデアがありますか?

ベストアンサー1

たとえば、ksh を使用します。

(
  for URL in http://host.com/url1 http://host.com/url2 http://host.com/url3
  do
    wget -O - -q "$URL"
  done
) | gzip -c > mysingle.zip

これで、すべてのデータを1つのファイルに圧縮しましたが、実際にはアーカイブではありません。ファイルの1つを抽出できず、ループに区切り文字を追加する必要があります。

おすすめ記事