ウェブサイトのコンテンツを再帰的に「スキャン」して別のプログラムにパイプしたいと思います。
私が実行したとき:
wget -r -O - $SITE
わかりました。
WARNING: combining -O with -r or -p will mean that all downloaded content
will be placed in the single file you specified.
その後、「ダウンロード」プロセスが開始されますが、最初のページが完了した後に中断されます。 「停止」という言葉は何も起こらないようで、コマンドプロンプトをクリックするまでコマンドプロンプトに戻ることはありませんCtrl+C
。
wget
私は一時フォルダに出力し、ファイルごとにスキャンするオプションと独自のクリッパーを作成するオプションを避けたいと思います。これは、2012年後半に考えられる最も重複した動作のようです。
ベストアンサー1
検索でこのトピックを探している人のために(1年半後)、カールがデフォルトでstdoutにパスし、wgetがこの目的に適していないようであることがわかりました。だから私の解決策は次のとおりです。
wgetの代わりにカールを使用してください。