一.urlib模块
urllib提供了一系列用于操作URL的功能。
1.Get请求
- urllib的
request模块
可以非常方便地抓取URL内容,也就是发送一个GET请求
到指定的页面,然后返回HTTP的响应:
如: 对豆瓣https://api.douban.com/v2/book/2129651
进行抓取,并返回响应:
from urllib import request
with request.urlopen('https://www.baidu.com') as f:
data = f.read()
print('Status:', f.status, f.reason)
#响应头
for k, v in f.getheaders():
print('%s: %s' % (k, v))
#响应数据
print('Data:', data.decode('utf-8'))
可以看到HTTP响应的头和JSON数据:
Status: 200 OK
Server: nginx
Date: Tue, 26 May 2015 10:02:27 GMT
Content-Type: application/json; charset=utf-8
Content-Length: 2049
Connection: close
Expires: Sun, 1 Jan 2006 01:00:00 GMT
Pragma: no-cache
Cache-Control: must-revalidate, no-cache, private
X-DAE-Node: pidl1
Data: {
"rating":{
"max":10,"numRaters":16,"average":"7.4","min":0},"subtitle":"","author":["廖雪峰编著"],"pubdate":"2007-6",...}
如果我们要想模拟浏览器发送GET请求
,就需要使用Request对象,通过往Request对象添加HTTP头
,我们就可以把请求伪装成浏览器
。例如,模拟iPhone 6去请求豆瓣首页
:
from urllib import request
req = request.Request('http://www.douban.com/')
req.add_header('User-Agent', 'Mozilla/6.0 (iPhone; CPU iPhone OS 8_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) Version/8.0 Mobile/10A5376e Safari/8536.25')
with request.urlopen(req) as f:
print('Status:', f.status, f.reason)
for k, v in f.getheaders():
print('%s: %s' % (k, v))
print('Data:', f.read().decode('utf-8'))
这样豆瓣会返回适合iPhone的移动版网页:
...
<meta name="viewport" content="width=device-width, user-scalable=no, initial-scale=1.0, minimum-scale=1.0, maximum-scale=1.0">
<meta name="format-detection" content="telephone=no">
<link rel="apple-touch-icon" sizes="57x57" href="http://img4.douban.com/pics/cardkit/launcher/57.png" />
...
2.Post请求
如果要以POST发送一个请求,只需要把参数data以bytes形式传入。
我们模拟一个微博登录,先读取登录的邮箱和口令,然后按照weibo.cn的登录页的格式以username=xxx&password=xxx
的编码传入:
from urllib import request, parse
print('Login to weibo.cn...')
email = input('Email: ')
passwd = input('Password: ')
login_data = parse.urlencode([
('username', email),
('password', passwd),
('entry', 'mweibo'),
('client_id', ''),
('savestate', '1'),
('ec', ''),
('pagerefer', 'https://passport.weibo.cn/signin/welcome?entry=mweibo&r=http%3A%2F%2Fm.weibo.cn%2F')
])
req = request.Request('https://passport.weibo.cn/sso/login')
req.add_header('Origin', 'https://passport.weibo.cn')
req.add_header('User-Agent', 'Mozilla/6.0 (iPhone; CPU iPhone OS 8_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) Version/8.0 Mobile/10A5376e Safari/8536.25')
req.add_header('Referer', 'https://passport.weibo.cn/signin/login?entry=mweibo&res=wel&wm=3349&r=http%3A%2F%2Fm.weibo.cn%2F')
with request.urlopen(req, data=login_data.encode('utf-8')) as f:
print('Status:', f.status, f.reason)
for k, v in f.getheaders():
print('%s: %s' % (k, v))
print('Data:', f.read().decode('utf-8'))
如果登录成功,我们获得的响应如下:
Status: 200 OK
Server: nginx/1.2.0
...
Set-Cookie: SSOLoginState=1432620126; path=/; domain=weibo.cn
...
Data: {
"retcode":20000000,"msg":"","data":{
...,"uid":"1658384301"}}
如果登录失败,我们获得的响应如下:
...
Data: {
"retcode":50011015,"msg":"\u7528\u6237\u540d\u6216\u5bc6\u7801\u9519\u8bef","data":{
"username":"[email protected]","errline":536}}
3.代理
如果还需要更复杂的控制,比如通过一个Proxy去访问网站,我们需要利用ProxyHandler
来处理,示例代码如下:
proxy_handler = urllib.request.ProxyHandler({
'http': 'http://www.example.com:3128/'})
proxy_auth_handler = urllib.request.ProxyBasicAuthHandler()
proxy_auth_handler.add_password('realm', 'host', 'username', 'password')
opener = urllib.request.build_opener(proxy_handler, proxy_auth_handler)
with opener.open('http://www.example.com/login.html') as f:
pass
4.小结
urllib提供的功能就是利用程序去执行各种HTTP请求。如果要模拟浏览器完成特定功能,需要把请求伪装成浏览器。伪装的方法是·先监控浏览器发出的请求,再根据浏览器的请求头来伪装,User-Agent头就是用来标识浏览器的·。
二.reuests模块
我们已经讲解了Python内置的urllib模块,用于访问网络资源。但是,它用起来比较麻烦,而且,缺少很多实用的高级功能。
更好的方案是使用requests。它是一个Python第三方库,处理URL资源特别方便。
1.安装requests
-
如果安装了Anaconda(免费、易于安装的包管理器),requests就已经可用了。否则,需要在命令行下通过pip安装:
pip install requests
如果遇到Permission denied
安装失败,请加上sudo重试。
2.使用requests
GET请求
-
GET请求访问一个页面,只需要几行代码:
import requests r = requests.get('https://www.douban.com/') # 豆瓣首页 r.status_code #200 r.text #'<!DOCTYPE HTML>\n<html>\n<head>\n<meta name="description" content="提供图书、电影、音乐唱片的推荐、评论和...'
-
对于带参数的URL,传入一个
dict
作为params参数:r = requests.get('https://www.douban.com/search', params={ 'q': 'python', 'cat': '1001'}) r.url # 实际请求的URL #'https://www.douban.com/search?q=python&cat=1001'
-
requests自动检测编码,可以使用
encoding属性
查看:r.encoding #'utf-8'
-
无论响应是文本还是二进制内容,我们都可以用
content属性
获得bytes对象:r.content #b'<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv="Content-Type" content="text/html; charset=utf-8">\n...'
-
requests的方便之处还在于,对于特定类型的响应,例如JSON,可以直接获取:
r = requests.get('https://query.yahooapis.com/v1/public/yql?q=select%20*%20from%20weather.forecast%20where%20woeid%20%3D%202151330&format=json') r.json() #{'query': {'count': 1, 'created': '2017-11-17T07:14:12Z', ...
-
需要传入
HTTP Header
时,我们传入一个dict
作为headers参数:r = requests.get('https://www.douban.com/', headers={ 'User-Agent': 'Mozilla/5.0 (iPhone; CPU iPhone OS 11_0 like Mac OS X) AppleWebKit'}) r.text #'<!DOCTYPE html>\n<html>\n<head>\n<meta charset="UTF-8">\n <title>豆瓣(手机版)</title>...'
POST请求
-
要发送POST请求,只需要把get()方法变成post(),然后传入data参数作为POST请求的数据:
r = requests.post('https://accounts.douban.com/login', data={ 'form_email': '[email protected]', 'form_password': '123456'})
-
requests默认使用
application/x-www-form-urlencoded
对POST数据编码。如果要传递JSON数据,可以直接传入json参数:params = { 'key': 'value'} r = requests.post(url, json=params) # 内部自动序列化为JSON
-
类似的,上传文件需要更复杂的编码格式,但是requests把它简化成
files参数
:upload_files = { 'file': open('report.xls', 'rb')} r = requests.post(url, files=upload_files)
-
在读取文件时,注意务必使用
'rb'即二进制模式读取
,这样获取的bytes长度才
是文件的长度。
把post()方法替换为put(),delete()等,就可以以PUT或DELETE方式请求资源。
-
除了能轻松获取响应内容外,requests对获取HTTP响应的其他信息也非常简单。如,
获取响应头
:r.headers #{Content-Type': 'text/html; charset=utf-8', 'Transfer-Encoding': 'chunked', 'Content-Encoding': 'gzip', ...} r.headers['Content-Type'] #'text/html; charset=utf-8'
Cookie
-
requests对Cookie做了特殊处理,使得我们不必解析Cookie就可以轻松获取指定的Cookie:
r.cookies['ts'] #'example_cookie_12345'
-
要在请求中传入Cookie,只需准备一个
dict
传入cookies参数:cs = { 'token': '12345', 'status': 'working'} r = requests.get(url, cookies=cs)
超时时间
-
要指定超时,传入以秒为单位的timeout参数:
r = requests.get(url, timeout=2.5) # 2.5秒后超时
3.小结
- 用requests获取URL资源,就是这么简单!