Python应用库大全总结

学python,想必大家都是从爬虫开始的吧。毕竟网上类似的资源很丰富,开源项目也非常多。

python学习网络爬虫主要分3个大的版块:抓取,分析,存储

当我们在浏览器中输入一个url后回车,后台会发生什么?

简单来说这段过程发生了以下四个步骤:

  1. 查找域名对应的ip地址。
  2. 向ip对应的服务器发送请求。
  3. 服务器响应请求,发回网页内容。
  4. 浏览器解析网页内容。

网络爬虫要做的,简单来说,就是实现浏览器的功能。通过指定url,直接返回给用户所需要的数据,而不需要一步步人工去操纵浏览器获取。

抓取这一步,你要明确要得到的内容是什么?是html源码,还是json格式的字符串等。将得到内容逐一解析就好。具体的如何解析,以及如何处理数据,文章后面提供了非常详细的且功能强大的开源库列表。

当然了,爬去别人家的数据,很有可能会遭遇反爬虫机制的,怎么办?使用代理。

适用情况:限制ip地址情况,也可解决由于“频繁点击”而需要输入验证码登陆的情况。

这种情况最好的办法就是维护一个代理ip池,网上有很多免费的代理ip,良莠不齐,可以通过筛选找到能用的。

对于“频繁点击”的情况,我们还可以通过限制爬虫访问网站的频率来避免被网站禁掉。

有些网站会检查你是不是真的浏览器访问,还是机器自动访问的。这种情况,加上user-agent,表明你是浏览器访问即可。有时还会检查是否带referer信息还会检查你的referer是否合法,一般再加上referer。也就是伪装成浏览器,或者反“反盗链”。

对于网站有验证码的情况,我们有三种办法:

使用代理,更新ip。

使用cookie登陆。

验证码识别。

接下来我们重点聊聊验证码识别。这个python q-u-n 227--435---450就是小编期待大家一起交流讨论,各种入门资料啊,进阶资料啊,框架资料啊 免费领取

可以利用开源的tesseract-ocr系统进行验证码图片的下载及识别,将识别的字符传到爬虫系统进行模拟登陆。当然也可以将验证码图片上传到打码平台上进行识别。如果不成功,可以再次更新验证码识别,直到成功为止。

好了,爬虫就简单聊到这儿,有兴趣的朋友可以去网上搜索更详细的内容。

文末附上本文重点:实用python库大全。

网络

urllib -网络库(stdlib)。

requests -网络库。

grab – 网络库(基于pycurl)。

pycurl – 网络库(绑定libcurl)。

urllib3 – python http库,安全连接池、支持文件post、可用性高。

httplib2 – 网络库。

robobrowser – 一个简单的、极具python风格的python库,无需独立的浏览器即可浏览网页。

mechanicalsoup -一个与网站自动交互python库。

mechanize -有状态、可编程的web浏览库。

socket – 底层网络接口(stdlib)。

网络爬虫框架

grab – 网络爬虫框架(基于pycurl/multicur)。

scrapy – 网络爬虫框架。

pyspider – 一个强大的爬虫系统。

cola – 一个分布式爬虫框架。

html/xml解析器

lxml – c语言编写高效html/ xml处理库。支持xpath。

cssselect – 解析dom树和css选择器。

pyquery – 解析dom树和jquery选择器。

beautifulsoup – 低效html/ xml处理库,纯python实现。

html5lib – 根据whatwg规范生成html/ xml文档的dom。该规范被用在现在所有的浏览器上。

feedparser – 解析rss/atom feeds。

markupsafe – 为xml/html/xhtml提供了安全转义的字符串。

文本处理

用于解析和操作简单文本的库。

difflib – (python标准库)帮助进行差异化比较。

levenshtein – 快速计算levenshtein距离和字符串相似度。

fuzzywuzzy – 模糊字符串匹配。

esmre – 正则表达式加速器。

ftfy – 自动整理unicode文本,减少碎片化。

自然语言处理

处理人类语言问题的库。

nltk -编写python程序来处理人类语言数据的最好平台。

pattern – python的网络挖掘模块。他有自然语言处理工具,机器学习以及其它。

textblob – 为深入自然语言处理任务提供了一致的api。是基于nltk以及pattern的巨人之肩上发展的。

jieba – 中文分词工具。

snownlp – 中文文本处理库。

loso – 另一个中文分词库。

浏览器自动化与仿真

selenium – 自动化真正的浏览器(chrome浏览器,火狐浏览器,opera浏览器,ie浏览器)。

ghost.py – 对pyqt的webkit的封装(需要pyqt)。

spynner – 对pyqt的webkit的封装(需要pyqt)。

splinter – 通用api浏览器模拟器(selenium web驱动,django客户端,zope)。

多重处理

threading – python标准库的线程运行。对于i/o密集型任务很有效。对于cpu绑定的任务没用,因为python gil。

multiprocessing – 标准的python库运行多进程。

celery – 基于分布式消息传递的异步任务队列/作业队列。

concurrent-futures – concurrent-futures 模块为调用异步执行提供了一个高层次的接口。

异步

异步网络编程库

asyncio – (在python 3.4 +版本以上的 python标准库)异步i/o,时间循环,协同程序和任务。

twisted – 基于事件驱动的网络引擎框架。

tornado – 一个网络框架和异步网络库。

pulsar – python事件驱动的并发框架。

diesel – python的基于绿色事件的i/o框架。

gevent – 一个使用greenlet 的基于协程的python网络库。

eventlet – 有wsgi支持的异步框架。

tomorrow – 异步代码的奇妙的修饰语法。

队列

celery – 基于分布式消息传递的异步任务队列/作业队列。

huey – 小型多线程任务队列。

mrq – mr. queue – 使用redis & gevent 的python分布式工作任务队列。

rq – 基于redis的轻量级任务队列管理器。

simpleq – 一个简单的,可无限扩展,基于amazon sqs的队列。

python-gearman – gearman的python api。

云计算

picloud – 云端执行python代码。

dominoup.com – 云端执行r,python和matlab代码

网页内容提取

提取网页内容的库。

html页面的文本和元数据

newspaper – 用python进行新闻提取、文章提取和内容策展。

html2text – 将html转为markdown格式文本。

python-goose – html内容/文章提取器。

lassie – 人性化的网页内容检索工具

websocket

用于websocket的库。

crossbar – 开源的应用消息传递路由器(python实现的用于autobahn的websocket和wamp)。

autobahnpython – 提供了websocket协议和wamp协议的python实现并且开源。

websocket-for-python – python 2和3以及pypy的websocket客户端和服务器库。

dns解析

dnsyo – 在全球超过1500个的dns服务器上检查你的dns。

pycares – c-ares的接口。c-ares是进行dns请求和异步名称决议的c语言库。

计算机视觉

opencv – 开源计算机视觉库。

simplecv – 用于照相机、图像处理、特征提取、格式转换的简介,可读性强的接口(基于opencv)。

mahotas – 快速计算机图像处理算法(完全使用 c++ 实现),完全基于 numpy 的数组作为它的数据类型。

代理服务器

shadowsocks – 一个快速隧道代理,可帮你穿透防火墙(支持tcp和udp,tfo,多用户和平滑重启,目的ip黑名单)。

tproxy – tproxy是一个简单的tcp路由代理(第7层),基于gevent,用python进行配置。

另:python有很多web开发框架,大而全的开发框架非django莫属,用得也最广泛.有很多公司有使用django框架,如某狐,某讯等。以简洁著称的web.py,flask都非常易于上手,以异步高性能著称的tornado,源代码写得美如画,知乎,quora都在用。

猜你喜欢

转载自www.cnblogs.com/jpfss/p/9686046.html