Python爬虫的基本概念及分类

本人对于Python学习创建了一个小小的学习圈子,为各位提供了一个平台,大家一起来讨论学习Python。欢迎各位到来Python学习群:943752371 一起讨论视频分享学习。Python是未来的发展方向,正在挑战我们的分析能力及对世界的认知方式,因此,我们与时俱进,迎接变化,并不断的成长,掌握Python核心技术,才是掌握真正的价值所在。

1. 为什么要爬虫?

“大数据时代”,数据获取的方式:

大型企业公司有海量用户,需要收集数据来提升产品体验

【百度指数(搜索),阿里指数(网购),腾讯数据(社交)】

数据管理咨询公司: 通过数据团队专门提供大量数据,通过市场调研,问卷调查等

政府/机构提供的公开数据

中华人民共和国统计局

World bank

Nasdaq

第三方数据平台购买数据

数据堂

贵阳大数据交易平台

爬虫数据

2. 什么是爬虫?

抓取网页数据的程序

3. 爬虫如何抓取网页数据?

首先需要了解网页的三大特征:

每个网页都有自己的URL(统一资源定位符)来定位

网页都使用HTML(超文本标记语言)来描述页面信息

网页都使用HTTP/HTTPS(超文本传输协议)来传输HTML数据

爬虫的设计思路:

首先确定需要爬取的网URL地址

通过HTTP/HTTPS协议来获取对应的HTML页面

提取HTML页面内有用的数据:

a. 如果是需要的数据--保存

b. 如果有其他URL,继续执行第二步

4. Python爬虫的优势?

5. 学习路线

抓取HTML页面:

HTTP请求的处理: urllib, urlib2, requests

处理器的请求可以模拟浏览器发送请求,获取服务器响应的文件

解析服务器相应的内容:

re, xpath, BeautifulSoup(bs4), jsonpath, pyquery等

使用某种描述性语言来给我们需要提取的数据定义一个匹配规则,符合这个规则的数据就会被匹配

采集动态HTML,验证码的处理

通用动态页面采集: Selenium + PhantomJS:模拟真实浏览器加载JS

验证码处理: Tesseract机器学习库,机器图像识别系统

Scrapy框架:

高定制性,高性能(异步网络框架twisted)->数据下载快

提供了数据存储,数据下载,提取规则等组件

分布式策略:

scrapy redis:在scarpy基础上添加了以redis数据库为核心的一套组件,主要在redis做请求指纹去重、请求分配、数据临时存储

爬虫、反爬虫、反反爬虫之间的斗争:

User-Agent, 代理, 验证码, 动态数据加载, 加密数据

6. 爬虫的分类

6.1 通用爬虫:

1.定义:搜索引擎用的爬虫系统

2.目标:把所有互联网的网页爬取下来,放到本地服务器形成备份,在对这些网页做相关处理(提取关键字,去除广告),最后提供一个用户可以访问的借口

3.抓取流程:

a) 首先选取一部分已有的URL, 把这些URL放到带爬取队列中

b) 从队列中取出来URL,然后解析NDS得到主机IP,然后去这个IP对应的服务器里下载HTML页面,保存到搜索引擎的本地服务器里,之后把爬过的URL放入已爬取队列

c) 分析网页内容,找出网页里其他的URL连接,继续执行第二步,直到爬取结束

4.搜索引擎如何获取一个新网站的URL:

主动向搜索引擎提交网址:https://ziyuan.baidu.com/linksubmit/index

在其他网站设置网站的外链: 其他网站上面的友情链接

搜索引擎会和DNS服务商进行合作,可以快速收录新网站

5.通用爬虫注意事项

通用爬虫并不是万物皆可以爬,它必须遵守规则:

Robots协议:协议会指明通用爬虫可以爬取网页的权限

我们可以访问不同网页的Robots权限

6.通用爬虫通用流程:

7.通用爬虫缺点

只能提供和文本相关的内容(HTML,WORD,PDF)等,不能提供多媒体文件(msic,picture, video)及其他二进制文件

提供结果千篇一律,不能针对不同背景领域的人听不同的搜索结果

不能理解人类语义的检索

聚焦爬虫的优势所在

DNS域名解析成IP: 通过在命令框中输入ping www.baidu.com,得到服务器的IP

6.2 聚焦爬虫:

爬虫程序员写的针对某种内容的爬虫-> 面向主题爬虫,面向需要爬虫

猜你喜欢

转载自blog.csdn.net/weixin_42209553/article/details/86476089