python爬虫:常见python爬虫框架

一般比较小型的爬虫需求,

我是直接使用requests库 + bs4就解决了,再麻烦点就使用selenium解决js的异步 加载问题。相对比较大型的需求才使用框架,主要是便于管理以及扩展等。

一、爬虫技术库-urllib.request和requests库的使用(简单)

1. requests库

2. urllib.request库

二、常见python爬虫框架

1)Scrapy:很强大的爬虫框架,可以满足简单的页面爬取(比如可以明确获知url pattern的情况)。用这个框架可以轻松爬下来如亚马逊商品信息之类的数据。但是对于稍微复杂一点的页面,如weibo的页面信息,这个框架就满足不了需求了。

https://www.cnblogs.com/Lijcyy/p/9779196.html

2)Crawley: 高速爬取对应网站的内容,支持关系和非关系数据库,数据可以导出为JSON、XML等

3)Portia:可视化爬取网页内容

4)newspaper:提取新闻、文章以及内容分析

5)python-goose:java写的文章提取工具

6)Beautiful Soup:名气大,整合了一些常用爬虫需求。缺点:不能加载JS。

7)mechanize:优点:可以加载JS。缺点:文档严重缺失。不过通过官方的example以及人肉尝试的方法,还是勉强能用的。

8)selenium:这是一个调用浏览器的driver,通过这个库你可以直接调用浏览器完成某些操作,比如输入验证码。

9)cola:一个分布式爬虫框架。项目整体设计有点糟,模块间耦合度较高。

猜你喜欢

转载自blog.csdn.net/fei347795790/article/details/89955927
今日推荐