スクレイピング: SSL: http://en.wikipedia.org の CERTIFICATE_VERIFY_FAILED エラー [重複] 質問する

スクレイピング: SSL: http://en.wikipedia.org の CERTIFICATE_VERIFY_FAILED エラー [重複] 質問する

私は「Python による Web スクレイピング」のコードを実践していますが、次のような証明書の問題が発生し続けます。

from urllib.request import urlopen 
from bs4 import BeautifulSoup 
import re

pages = set()
def getLinks(pageUrl):
    global pages
    html = urlopen("http://en.wikipedia.org"+pageUrl)
    bsObj = BeautifulSoup(html)
    for link in bsObj.findAll("a", href=re.compile("^(/wiki/)")):
        if 'href' in link.attrs:
            if link.attrs['href'] not in pages:
                #We have encountered a new page
                newPage = link.attrs['href'] 
                print(newPage) 
                pages.add(newPage) 
                getLinks(newPage)
getLinks("")

エラーは次のとおりです:

  File "/Library/Frameworks/Python.framework/Versions/3.7/lib/python3.7/urllib/request.py", line 1319, in do_open
    raise URLError(err)
urllib.error.URLError: <urlopen error [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: unable to get local issuer certificate (_ssl.c:1049)>

ちなみに、私も scrapy を練習していましたが、問題が発生し続けました: コマンドが見つかりません: scrapy (オンラインでさまざまな解決策を試しましたが、どれも機能しません...本当にイライラします)

ベストアンサー1

昔、この問題に遭遇しました。macOS を使用している場合は、Macintosh HD > アプリケーション > Python3.6 フォルダ (または使用している Python のバージョン) に移動し、「Install Certificates.command」ファイルをダブルクリックします。:D

おすすめ記事