httpを介して大容量ファイルを並列に取得するには?

httpを介して大容量ファイルを並列に取得するには?

質問:

HTTPはオフセットでの再開をサポートしているため、複数のスレッドを起動して異なるファイルオフセットから複数の要求と同時にファイルを取得できるツール(またはwgetやカールなどのコマンドの既存のオプション)はありますか?これは、各ソケットのパフォーマンスを個別に制限するのに役立ちます。

これを行うプログラムを書くことができますが、そのツールがすでに存在するかどうかを知りたいです。

背景:

最近大容量ISOをダウンロードしたいです。しかし!...サーバーとインターネットプロバイダの間のどこかで転送速度は100kbに​​制限されています!しかし、最初の5〜10秒間のスループットは数百メガビットで非常に高かったです。だから数秒後に再起動するための小さなbashスクリプトを書いた。

while ! timeout 8 wget -c http://example.com/bigfile.iso; do true; done

(私のサプライヤーではないことを願っていますが…そうかもしれません。誰かがネットワークの中立性を取り戻してください!)

ベストアンサー1

おすすめ記事