最初の例外が発生したときに、Scrapy Crawl を中断して終了させるにはどうすればよいですか? 質問する 2024-07-07 • python exception scrapy 開発上の理由から、最初の例外 (スパイダーまたはパイプライン内) が発生したらすぐに、すべてのスクレイピー クローリング アクティビティを停止したいと思います。 何かアドバイス? ベストアンサー1 スパイダーでは、投げるだけで閉じるスパイダー例外。 def parse_page(self, response): if 'Bandwidth exceeded' in response.body: raise CloseSpider('bandwidth_exceeded') その他(ミドルウェア、パイプラインなど)については、手動で呼び出すことができます。閉じるakhterが述べたように。 おすすめ記事 ソフトウェアを(手動で)アップグレードすると、既存のソフトウェアが破損しているかどうかを確認するには? MD RAID 5モジュールが起動時にロードされない Bacula バックアップ - 接続可能なボリュームがありません。 Notepadqqはrootとして再試行する必要はなく、gksuは機能しません。 保存されたuidが変数の場合。 与えられた文字列の後に文字列をキャッチする方法 PDFに署名する方法を探す GunicornをIPv6ローカルホストにバインドする - '[::1]:8000'の代わりに'[::]:8000'にバインドする ALSAと「AudioInjector Octo」でjackdを使用したときに発生する問題 Javaで文字列の最初の文字を大文字にするにはどうすればいいですか? 質問する