Webページに表示されているすべての画像をどのようにダウンロードして保存しますか?

Webページに表示されているすべての画像をどのようにダウンロードして保存しますか?

たとえば、Webページに表示されている画像をダウンロードしたいとします。https://www.wikiart.org/en/paintings-by-style/art-nouveau-modern、(下にすべての作品タブ)フォルダに保存します(例:/ホーム/ブーマー/GH/A_nou/)。

この目標をどのように達成できますか?

wgetまたはを使用してこれを達成することができますが、curl残念ながらこれを行う方法を知りません。

また、中間画像(バナー、ロゴ、など。)、作品セクションの下のすべてのコンテンツはフルサイズの画像です。

ベストアンサー1

ソースコードを表示して検索すると、.jpg"すべての画像が表示されます。すべて二重引用符で囲まれています。したがって、HTMLソースをコンピュータに保存し、を選択して/tmp/test_art.html検索"し、改行に置き換えてから終わるすべての行をgrepし、jpgすべての行をwgetに渡します。

wget $(sed 's/"/\n/g;' /tmp/test_art.html| grep 'jpg$')

もちろんこれは本当に些細なことです。いくつかのsedの専門家がすぐに来て、grepを節約する1行のコードを出すでしょう...私の考えでは、この一時的な仕事をするにはあまりにも多くの作業のようです...速くて汚いです。

端末を開き、ディレクトリをファイルを保存したいディレクトリに変更します。

cd /home/boomer/GH/A_nou/

次に、上記のコマンドを実行します。

おすすめ記事