爬虫基础简介——第一章

什么是爬虫?

​ -通过编写程序,模拟浏览器上网,然后让其去互联网上抓取数据的过程。

爬虫的价值:

​ 抓取互联网上的数据,为我所用,有了大量的数据,就如同有了一个数据银行一样,下一步做的就是如何将这些爬取的数据产品化、商业化。从就业的角度来说,爬虫工程师目前来说属于紧缺人才,并且薪资待遇普遍较高,所以生深层次的掌握这门技术,对于就业来说,是非常有利的。有些人学习爬虫可能为了就业或者跳槽。从这个角度来说,爬虫工程师是不错的选择之一,随着大数据时代的来临,爬虫技术的应用将越来越广泛,在未来会拥有更好的发展空间。

  • 实际应用
  • 就业

爬虫究竟是合法的还是违法的?

—— 在法律中是不被禁止的

—— 具有违法风险

—— 善意爬虫 恶意爬虫

爬虫带来的风险可以体现在如下2个方面:

  • 爬虫干扰了被访问网站的正常运
  • 爬虫抓取了受到法律保护的特定类型的数据或信息

如何在使用编程爬虫的过程中避免进入局子的厄运呢?

	- 时常优化自己的程序,避免干扰被访问网站的正常运行
	- 在使用传播爬取收到的数据时,审查抓取到的内容,如果发现了涉及到用户 因私或者商业机密敏感内容时需要及时停止爬虫或传播

爬虫在使用场景中的分类

1、通用爬虫:

​ 抓取搜索引擎重要组成部分,抓取的是一整张页面数据

2、聚焦爬虫:

​ 是建立在通用爬虫的基础之上的。抓取的是页面中特定的局部内容

3、增量式爬虫:

​ 检测网站中数据更新的情况,只会抓取网站中最新更新出来的数据

爬虫的矛与盾

反爬机制

​ 相关门户网站,可以通过制定相应的策略或者技术手段,防止爬虫程序进行网站数据的爬取

反反爬策略

​ 爬虫程序可以通过制定相关的策略或者技术手段,破解相关门户网站中具备的反爬机制,从而可以获取门户网站中相关的数据

robots.txt协议

​ 君子协议,规定了网站中那些数据可以被爬虫爬取,那些数据不可以被爬取

例:www.taobap.com/robots.txt 可查看可爬取和不可爬取的数据

http协议

- 概念:就是服务器和客户端进行数据交互的一种形式

常用请求头信息

	- User-Agent:请求载体的身份标识(用户代理)
	- Connection:请求完毕后,是断开连接还是保持连接

常用相应头信息

	- Content-Type:服务器相应回客户端的数据类型

https协议:

	- 安全的超文本传输协议

加密方式

	- 对称密钥加密
	- 非对称密钥加密
	- 证书密钥加密

猜你喜欢

转载自blog.csdn.net/qq_48424500/article/details/115447547
今日推荐