scrapy的使用-Request

Request对象在我们写爬虫,爬取一页的数据需要重新发送一个请求的时候调用。这个类需要传递一些参数。其中比较常用的参数有:

1.url    请求的url对象

2.callback  在下载器下载完相应的数据后执行的回调函数

3.method   请求的方式,默认为GET方法,可以设置为其他方法

4.meta   比较常用,用于在不同的请求之间传递数据用的.Request.meta属性的初始值。如果给定,则此参数中传递的dict将被浅拷贝。

5.encoding   编码。默认的为  utf-8,使用默认的就可以了。

6.dot_filter    表示不有调度器过滤,在执行多次重复的请求的时候就用的比较多。

7.cookie     请求的cookie。

8.errback    在发生错误的时候执行的函数。

Response对象一般是有Scrapy给你自动构建,因此开发者不需要关心如何创建Response对象,而是如何使用它,Response对象有很多属性,可以用开提取数据,主要有一下属性:

1.meta   从其他请求传过来的meta属性,可以用来保持多个请求之间的数据连接。

扫描二维码关注公众号,回复: 8234678 查看本文章

2.encoding   返回当前字符串编码和解码的格式。

3.text   将返回来的数据作为unicode字符串返回。

4.xpath   xpath选择器。

5.css   css选择器。

6.body   将返回来的数据作为bytes字符串返回。

7.status     响应的HTTP状态。默认为200。

8.flags     一个包含属性初始值的 Response.flags列表。如果给定,列表将被浅拷贝

9.request    属性的初始值Response.request。这代表Request生成此响应。

猜你喜欢

转载自www.cnblogs.com/superSmall/p/12063968.html