python爬虫于不信任的ssl证书

requests的解决方案

以前我也在博客里面写过关于不信任的证书的问题,比如(博客地址);

在这里插入图片描述
但是写的并不完善,现在如果只是这样单纯的
在这里插入图片描述
这样,结果是依然会报错的。
这里是由于官方强制加入了请求的安全证书验证,所以必须加入如下语句

import urllib
urllib3.disable_warnings()
reqs=requests.get(url=root_url,headers=headers,verify=False)

不导入urllib3也可以

requests.packages.urllib3.disable_warnings()
reqs=requests.get(url=root_url,headers=headers,verify=False)

urllib的解决方案

这个的话就和先前的博客写的一样

from urllib import request
import re
import os
import ssl
context = ssl._create_unverified_context()
省略若干代码
 b = request.urlopen(url, timeout=tolerate,context = context).read().decode('gb2312', 'ignore')
省略若干代码

或者这样

from urllib import request
import re
import os
import ssl
ssl._create_default_https_context = ssl._create_unverified_context
省略若干代码

猜你喜欢

转载自blog.csdn.net/FUTEROX/article/details/108230623
今日推荐