HTTPSConnectionPool(host='ssr1.scrape.center', port=443): Max retries exceeded with url: /page/1/ (Caused by SSLError(SSLCertVerificationError(1, '[SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: unable to get local issuer certificate (_ssl.c:1122)')))
时间: 2024-02-29 07:56:57 浏览: 20
这似乎是一个HTTPS连接池的问题,具体是因为SSL证书验证失败导致的。可能是因为您的计算机缺少必要的根证书或者证书过期等原因。您可以尝试以下解决方法:
1. 确认您的计算机时间是否正确,因为证书的有效期是有限的。
2. 确认您的计算机有最新版本的根证书。
3. 尝试添加对应的证书到信任列表中。
4. 通过设置 verify=False 参数来跳过证书验证(不推荐)。
相关问题
HTTPSConnectionPool(host='ssr.scrape.center', port=443):怎么解决
这个问题可能是由于无法建立与目标主机的安全连接而引起的。建议您尝试以下几个步骤:
1. 确认目标主机是否可用,可以通过 ping 命令测试。
2. 确认您的网络连接是否正常,可以通过访问其他网站进行测试。
3. 确认您的程序中是否存在访问限制,如代理设置等。
4. 确认您的程序中是否正确配置了 SSL/TLS 证书。
如果以上步骤都没有解决问题,建议您查看具体的错误信息和堆栈跟踪,以便更好地定位问题。
class CrawlSpiderSpider(scrapy.Spider): name = "crawl_spider" allowed_domains = ["ssr1.scrape.center"] start_urls = [f"https://ssr1.scrape.center/detail/{i}" for i in range(1,101)]
这是一个基于 Scrapy 的爬虫程序,名为 CrawlSpiderSpider。
首先,通过 `allowed_domains` 属性指定了爬虫可以抓取的域名,这里只抓取了 "ssr1.scrape.center" 这个域名下的页面。
接着,通过 `start_urls` 属性指定了爬虫的起始 URL,这里是一个包含 100 个页面的列表,分别为 "https://ssr1.scrape.center/detail/1" 到 "https://ssr1.scrape.center/detail/100"。
CrawlSpiderSpider 可以继承自 scrapy.spiders.CrawlSpider 来实现基于规则的爬虫,可以自动发现和跟进链接。在这个爬虫中,我们可以使用 rules 属性来定义爬取规则。