零基础带你搞定分布式爬虫(第一节)

第一天内容:网络请求和数据提取

前奏

爬虫的实际例子

  1. 搜索引擎(百度、谷歌、360搜索等)。

  2. 伯乐在线。

  3. 惠惠购物助手。

  4. 数据分析与研究(数据冰山知乎专栏)。

  5. 抢票软件等。

为什么用Python写爬虫程序

  1. PHP:PHP是世界是最好的语言,但他天生不是做这个的,而且对多线程、异步支持不是很好,并发处理能力弱。爬虫是工具性程序,对速度和效率要求比较高。

  2. Java:生态圈很完善,是Python爬虫最大的竞争对手。但是Java语言本身很笨重,代码量很大。重构成本比较高,任何修改会导致代码大量改动。爬虫经常要修改采集代码。

  3. C/C++:运行效率是无敌的。但是学习和开发成本高。写个小爬虫程序可能要大半天时间。

  4. Python:语法优美、代码简洁、开发效率高、支持的模块多。相关的HTTP请求模块和HTML解析模块非常丰富。还有Scrapy和Scrapy-redis框架让我们开发爬虫变得异常简单。

准备工具

  1. Python3.6开发环境。

  2. Pycharm 2017 professional版。

  3. 虚拟环境。`virtualenv/virtualenvwrapper`。


http协议和Chrome抓包工具

http和https协议:(有时候浏览器自动补充完整)

HTTP协议:全称是HyperText Transfer Protocol,中文意思是超文本传输协议,是一种发布和接收HTML页面的方法。服务器端口号是80端口。 HTTPS协议:是HTTP协议的加密版本,在HTTP下加入了SSL层。服务器端口号是443端口。

http请求的过程:

  1. 当用户在浏览器的地址栏中输入一个URL并按回车键之后,浏览器会向HTTP服务器发送HTTP请求。HTTP请求主要分为“Get”和“Post”两种方法。

  2. 当我们在浏览器输入URL http://www.baidu.com 的时候,浏览器发送一个Request请求去获取http://www.baidu.com 的html文件,服务器把Response文件对象发送回给浏览器。

  3. 浏览器分析Response中的 HTML,发现其中引用了很多其他文件,比如Images文件,CSS文件,JS文件。 浏览器会自动再次发送Request去获取图片,CSS文件,或者JS文件

  4. 当所有的文件都下载成功后,网页会根据HTML语法结构,完整的显示出来了。

url详解

URL是Uniform Resource Locator的简写,统一资源定位符。 一个URL由以下几部分组成:

scheme://host:port/path/?query-string=xxx#anchor
  • scheme:代表的是访问的协议,一般为http或者https以及ftp等。

  • host:主机名,域名,比如www.baidu.com。

  • port:端口号。当你访问一个网站的时候,浏览器默认使用80端口。

  • path:查找路径。比如:www.jianshu.com/trending/now,后面的trending/now就是path。

  • query-string查询字符串,比如:www.baidu.com/s?wd=python,后面的wd=python就是查询字符串。

  • anchor:锚点,后台一般不用管,前端用来做页面定位的。

注意:浏览器会对url进行一个编码。除英文字母,数字和部分符号外,其他的全部使用百分号+十六进制码值进行编码。

两种常用的get请求和post请求

  1. get请求:一般情况下,只从服务器获取数据下来,并不会对服务器资源产生任何影响的时候会使用get请求。

  2. post请求:向服务器发送数据(登录)、上传文件等,会对服务器资源产生影响的时候会使用post请求。 以上是在网站开发中常用的两种方法。并且一般情况下都会遵循使用的原则。但是有的网站和服务器为了做反爬虫机制,也经常会不按常理出牌,有可能一个应该使用get方法的请求就一定要改成post请求,这个要视情况而定。

请求头参数

http协议中,向服务器发送一个请求,数据分为三部分,第一个是把数据放在url中,第二个是把数据放在body中(在post请求中),第三个就是把数据放在head中。(见拉勾)

1、User-Agent:浏览器名称。 2、Referer

3、Cookie:http协议是无状态的。也就是同一个人发送了两次请求,服务器没有能力知道这两个请求是否来自同一个人。因此这时候就用cookie来做标识。一般如果想要做登录后才能访问的网站,那么就需要发送cookie信息了。 (地铁上下客类比)

响应状态码:

  1. 200:请求正常,服务器正常的返回数据。

  2. 301:永久重定向。比如在访问www.jingdong.com的时候会重定向到www.jd.com。

  3. 302:临时重定向。比如在访问一个需要登录的页面的时候,而此时没有登录,那么就会重定向到登录页面。

  4. 400:请求的url在服务器上找不到。换句话说就是请求url错误。

  5. 403:服务器拒绝访问,权限不够。

  6. 500:服务器内部错误。可能是服务器出现bug了。

requests库

发送GET请求

response = requests.get("http://www.baidu.com/s", params = kw, headers = headers)

发送POST请求

resp = requests.post(url,headers=headers,data=data)

使用代理

requests添加代理也非常简单,只要在请求的方法中(比如get或者post)传递proxies参数

resp = requests.get(url,headers=headers,proxies=proxy)

session

用requests,也要达到共享cookie的目的,那么可以使用requests库给我们提供的session对象,这里的session不是web开发中的那个session,这个地方只是一个会话的对象而已。cookie存在session里面。

# 登录
session = requests.session()
session.post(url,data=data,headers=headers)
# 访问大鹏个人中心
resp = session.get('http://www.renren.com/880151247/profile')

处理不信任的SSL证书及解码

resp = requests.get('http://www.12306.cn/mormhweb/',verify=False)
print(resp.content.decode('utf-8')) #转成utf-8

response.text 和response.content的区别

response.text(默认ISO-8859-1

print(resp.encoding ) #查看

类型:str

解码类型:根据HTTP头部对响应的编码做出有根据的推测,推测的文本编码 ISO-8859-1

如何修改编码方式:response.encoding="gbk"

url = 'http://www.dytt8.net/html/gndy/dyzz/list_23_1.html'
 resp = requests.get(url,headers=HEADERS)
 print(resp.encoding ) #默认8859-1
resp.encoding = "gb2312"
print(resp.encoding) #2312
print(resp.text)

response.content(二进制)

类型:bytes

解码类型:没有指定

如何修改编码方式:response.content.decode("utf8")


返回json字符串转字典或者列表:非常强大response.json()

代理高匿名才有用

数据提取(xpath,lxml,bs4,re)

XPath语法和lxml模块

BeautifulSoup4库

tag.string获取标签中的文字。示例代码如下:

print soup.p.string
# The Dormouse's story

搜索文档树

1. find和find_all方法

2. select方法

正则表达式。

猜你喜欢

转载自blog.51cto.com/13719825/2170586
今日推荐