コマンドラインは、Webサイトを保存するために右クリックしてWebページを保存するのと同じです。

コマンドラインは、Webサイトを保存するために右クリックしてWebページを保存するのと同じです。

CentOSのMozilla FirefoxでWebサイトを右クリックすると、下のメニューから「名前を付けてページを保存」をクリックしてWebページを保存できます。

ここに画像の説明を入力してください。

コマンドラインを使用してこれを行う方法もありますか?

ブラウザでサイトを保存すると、カールとwgetを実行するよりも出力ファイルからより多くの詳細が得られることがわかりました。 wgetやカールなどのコマンドラインインタフェースを使用して、Webサイトの特定のファイルへのリンクを含むこれらの追加の詳細をどのように取得できますか?

ベストアンサー1

を使用してこれを行う方法がわかりませんが、curl同じオプションセットがあることは間違いありません。

を使用すると、wget以下を挿入して特定のページと関連リソースをダウンロードできます。

wget --adjust-extension --span-hosts --convert-links --backup-converted \
     --no-directories --timestamping --page-requisites \
     --directory-prefix=thepageslug \
     https://example.com/page/of/interest

https://gist.github.com/dannguyen/03a10e850656577cfb57

おすすめ記事