オフラインのコピーを取得するためにウィキペディア全体をダウンロードしたいと思います。次のコマンドを試してみました。
wget --recursive --domains --convert-links --no-clobber https://it.wikipedia.org/wiki/
ただし、最初のページのみがダウンロードされます。どうやって使うの?
ベストアンサー1
ウィキペディアrobots.txt
含まれませんwget
:
#
# Sorry, wget in its recursive mode is a frequent problem.
# Please read the man page and use it properly; there is a
# --wait option you can use to set the delay between hits,
# for instance.
#
User-agent: wget
Disallow: /
彼らのアドバイスに従ってください。特に、次のツールを使用してWikipediaをwget
ダウンロードしないでください。オフラインデータベースのダウンロード代わりに。