爬虫的原理(基本流程,Request与Response,怎么解决JavaScript渲染的问题,怎么保存数据)

什么是爬虫?
爬虫就是请求网站并提取数据的自动化程序。

爬虫基本流程

1.发起请求:通过HTTP库向目标站点发起请求,即发送一个Request,请求可以包含额外的headers等配置信息,等待服务器响应。
2.获取响应内容:如果服务器能正常响应,会得到一个Response,其中的内容便是所要获取的页面内容,类型可能有HTML,Json字符串,二进制数据(如图片视频)等类型。
3.解析内容:得到的内容可能是HTML,可以用正则表达式、网页解析库进行解析。可能是Json,可以直接转为Json对象解析,可能是二进制数据,可以做保存或者进一步的处理。
4.保存数据:保存形式多样,可以存为文本,也可以保存至数据库,或者保存特定格式的文件。

Request与Response

(1)浏览器发送消息给该网址所在的服务器,这个过程就叫做HTTP Request。
(2)服务器收到浏览器发送的消息后,能够根据浏览器发送消息的内容,做相应处理,然后把消息回传给浏览器。这个过程叫做HTTP Response。
(3)浏览器收到服务器的Response信息后,会对信息进行相应处理,然后展示。

Request

1.请求方式:主要有GET、POST两种类型,另外还有HEAD、PUT、DELETE、OPTIONS等。
2.请求URL:URL全称统一资源定位符,如一个网页文档、一张图片、一个视频等都可以用URL唯一来确定。
3.请求头:包含请求时的头部信息,如User-Agent、Host、Cookies等信息。
4.请求体:请求时额外携带的数据,如表单提交时的表单数据。

Response

1.相应状态:有多种响应状态,如200代表成功、301跳转、404找不到页面、502服务器错误。
2.响应头:如内容类型、内容长度、服务器信息、设置Cookie等等。
3.响应体:最主要的部分,包含了请求资源的内容,如网页HTML、图片二进制数据等。

简单试验

在python交互模式下执行以下命令:
import requests
response=requests.get(‘http://www.baidu.com’)
print(response.text)
在这里插入图片描述
这些命令将一次 requests后得到的response的内容通过库里的get方法获取,并打印出来。
在这里插入图片描述
还可以看看response的响应头长啥样:
print(response.headers)
在这里插入图片描述
可以看到这是一个字典形式的结构。
再看看状态码:
print(response.status_code)
在这里插入图片描述
以上就是简单用代码感受以下Request与Response的过程。

能抓怎样的数据

1.网页文本:如HTML文档、Json格式文本等。
2.图片:获取到的是二进制文件,保存为图片格式。
3.视频:同为二进制文件,保存为视频格式即可。
4.其他:只要是能请求到的,都能获取。

怎样来解析

1.直接处理
2.Json解析
3.正则表达式
4.BeautifulSoup解析库
5.PyQuery
6.XPath

为什么我们抓到的和浏览器审查看到的不一样?

以微博为例,我们可以看一下首页的源代码(右键:检查):
在这里插入图片描述
将代码赋值到文本编辑器中看一下:
在这里插入图片描述
可以看到这里有许多用js配置的形式,和我们直接浏览网站看到的并不一样。
现在我们用命令行试试,在python交互模式下执行以下命令:
import requests
requests.get(‘http://m.weibo.com’)
requests.get(‘http://m.weibo.com’).text
可以看到窗口中打印一堆密集的东西,这和刚才文本编辑器中看到的内容是一样的。
问题的回答就是:网页最终显示的页面源码是经过浏览器解释后的,我们get或者post请求到的源码是服务器直接返回的。二者是不一样的。

怎么解决JavaScript渲染的问题

1.分析Ajax请求

返回的是json格式的字符串,方便我们提取数据

2.用Selenium/WebDriver驱动一个浏览器来模拟加载网页

演示一下,在python交互模式下执行以下命令:
from selenium import webdriver
driver=webdriver.Chrome()
driver.get(‘http://m.weibo.com’)
driver.get(‘http://www.taobao.com’)
print(driver.page_source)
(注意,需要先安装webdriver这个库,以及Chromedriver,详情可以看这篇文章:https://blog.csdn.net/z714405489/article/details/83047772)
系统就会驱动一个浏览器,并且访问我们请求的网址,最后可以将该页面的源代码打印出来,这和我们审查网页源代码时看到的就是一样的了。

3.Splash

可以在github搜索详情。

4.PyV8、Ghost.py等等其他的库

怎样保存数据?

1.文本:纯文本、Json、Xml等。
2.关系型数据库:MySQL、Oracke、SQL Server等具有结构化表结构形式存储。
3.非关系型数据库:如MongoDB、Redis等Key-Value形式存储。
4.二进制文件:如图片、视频、音频等等直接保存成特定格式即可。

猜你喜欢

转载自blog.csdn.net/z714405489/article/details/83059471