今wgetを使ってすべてのstackexchangeをダウンロードしてください。

今wgetを使ってすべてのstackexchangeをダウンロードしてください。

今日のstackexchange投稿とそれにリンクされたWikipediaの記事の両方を再帰的にダウンロードしたいとしましょう。

 wget -kprcH -l 4 -t 3 stackexchange.com

これはWikipediaやStackexchangeに加えて他の多くの外国のウェブサイトにリダイレクトされるため、良い選択肢ではありません。私が使うなら

wget -kprcH -l 4 -t 3 -D *stackexchange.com,*overflow.com,*overflow.net,*wikipedia.org stackexchange.com

結局、「stackexchange.com」という1ページだけをダウンロードするようになりました。

不要な資料をたくさんダウンロードせずに今日のスタック交換とここに含まれるWikipediaリンクの両方をダウンロードするには、どのコマンドを使用する必要がありますか?

ベストアンサー1

サイトの前の「*」(アスタリスク)を削除してください。私はこれを試してstackexchangeをダウンロードし、Wikipedia.comのindex.htmlファイルのみをダウンロードし、コンテンツはありませんでした!

おすすめ記事