【Python爬虫学习笔记3】requests库的基本使用

在上一篇中学习了urllib库的基本使用,通过它我们可以完成爬虫中发送请求和处理响应的大部分功能,但在实际使用中多少会很繁琐,比如处理Cookie时需要创建handler和opener对象。正因为如此,就有了一个更友好且更强大的库requests,通过它我们也可以完成网页请求和处理,并且比urllib库显得更为简洁明了。

安装方法

可以直接通过pip进行安装:pip install requests

发送GET请求

使用requests发送GET请求只需要调用函数get(),并传入参数url即可,其在成功请求获取响应后返回一个<requests.models.Response>类的对象,该对象具有text,content,cookies,url,encoding和status_code等可访问的属性。

##示例1——使用requests.get发送GET请求
import requests

# 获取请求内容的两种方法: text和content
response = requests.get("http://www.baidu.com")
print(type(response.text))    # <class 'str'>
print(response.text)
print(type(response.content)) # <class 'bytes'>
print(response.content.decode('utf-8'))

# 其他属性
print(response.url)         # http://www.baidu.com/
print(response.encoding)    # ISO-8859-1
print(response.status_code) # 200

这里要注意的是有两个属性都可以获取请求的内容:text属性是根据浏览器设置自动地“猜测”内容的编码方式而进行相应解码为字符串,这可能会存有误差;而content属性是获取源生网络编码字节流(bytes型),这种方式较为安全,在后续需要进行人工解码处理。

同样,爬虫在发送请求时,也有必要添加一些参数数据或请求头以反-反爬虫。在requests中,实现这一功能也极为简单,只需在请求函数中添加相应的参数即可。其中参数数据为字典类型,使用时requests会自动对其进行格式化编码,有多个参数时也会一并转化。

##示例2——设置参数和请求头来获取网页信息
import requests

# 设置参数和请求头
params ={
     'wd':'博客园'
}
headers = {
     'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.92 Safari/537.36'
}

# 发送请求
response = requests.get('https://www.baidu.com/s',params=params,headers=headers)

# 写入(下载)文件
with open('baidu.html','w',encoding='utf-8')as fp:
     fp.write(response.content.decode('utf-8'))

发送POST请求

和get请求方法类似,调用post方法并传入相应参数即可。在此以拉勾网为例获取其职位信息,通过分析可获知其信息来源于图示的url中

image_thumb[2]

##示例3——使用requests.post发送请求
import requests

# 设置参数数据和请求头
data = {
     'first': 'true',
     'pn': '1',
     'kd': 'python'
}
headers = {
     'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.92 Safari/537.36',
     'Referer':'https://www.lagou.com/jobs/list_python?labelWords=&fromSearch=true&suginput=',
     'Cookie':'_ga=GA1.2.137369075.1536744524; user_trace_token=20180912172845-3f423c38-b66e-11e8-95a0-525400f775ce; LGUID=20180912172845-3f423ed0-b66e-11e8-95a0-525400f775ce; index_location_city=%E5%85%A8%E5%9B%BD; ab_test_random_num=0; hasDeliver=0; showExpriedIndex=1; showExpriedCompanyHome=1; showExpriedMyPublish=1; JSESSIONID=ABAAABAAAGFABEFEF1E1759C0E030B3417EBFF13B4E1731; _gat=1; LGSID=20180914232144-e370852e-b831-11e8-b93f-5254005c3644; PRE_UTM=; PRE_HOST=cn.bing.com; PRE_SITE=https%3A%2F%2Fcn.bing.com%2F; PRE_LAND=https%3A%2F%2Fwww.lagou.com%2F; Hm_lvt_4233e74dff0ae5bd0a3d81c6ccf756e6=1536744563,1536928793,1536938503; _putrc=3387DFFF4453A44E123F89F2B170EADC; login=true; unick=%E6%8B%89%E5%8B%BE%E7%94%A8%E6%88%B78638; gate_login_token=6284ccc0764f7fee185fe38407784e7cc3e472a013120475179916821e6cdfad; Hm_lpvt_4233e74dff0ae5bd0a3d81c6ccf756e6=1536938511; LGRID=20180914232152-e867958b-b831-11e8-b93f-5254005c3644; TG-TRACK-CODE=search_code; SEARCH_ID=5aad6e88f4e64f42959a2aae9a5363c4'
}

# 发送请求
response = requests.post('https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false', data=data, headers=headers)

print(response.json())

这里需说明的是,由于请求url内容为json数据,为方便查看,可使用json()方法返回其字典类型的数据。

使用代理

在requests中也可以使用代理服务器,使用方法也非常简单,在请求方法中加上proxies参数(字典类型)即可。

##示例4——使用代理服务器
import requests

# 未使用代理发送请求
response = requests.get('http://httpbin.org/ip')
print(response.text)

# 使用代理发送请求
proxy = {
    'http':'61.145.203.234:38695'
}
response = requests.get('http://httpbin.org/ip',proxies=proxy)
print(response.text)

image_thumb[7]

使用Session维持会话

由于HTTP请求的无状态性,在网页请求中常常需要利用一些数据以维护用户身份状态,在此过程中我们可以使用cookie来完成这一工作。然而,cookie的设置是一个比较繁琐的过程,而在requests中,有一个数据对象专门为我们简化了这一系列的工作,它可帮助我们自动地处理,并且能提供能加完备的功能——Session对象。

下面以登陆人人网并访问一用户主页为例

##示例5—— 使用session维持会话
import requests

# 设置url,参数数据和请求头
url ='http://www.renren.com/SysHome.do'
data = {
     'email':'[email protected]',
     'password':'123456'
}
headers = {
     'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.92 Safari/537.36'
}

# 创建session并发送登陆请求
session = requests.session()
session.post(url,data=data,headers=headers)

# 此后便可利用同一个session以登录状态访问网页
response = session.get('http://www.renren.com/880151247/profile')

print(response.content.decode('utf-8'))

不信任SSL证书网页的处理

在前面学习中提到过HTTP与HTTPS两种协议的区别,即HTTPS是HTTP的SSL加密版本,通常为国际认证的安全协议。我们有时候所请求的网页不一定拥有此认证,对于这些url,当我们正常情况下使用requests发送请求时会返回错误。若要允许访问非认证网页,则只需要在请求方法中添加参数’verify=False’,即忽略是否认证。

##示例6——处理请求未认证的网页
import requests

response = requests.get('https://kyfw.12306.cn/otn/index/init',verify=False)
print(response.content.decode('utf-8'))

猜你喜欢

转载自www.cnblogs.com/Unikfox/p/9653175.html