--- Pythonの爬虫類爬虫類詳細分類、HTTPおよびHTTPS、証明書の暗号化、抗上昇および抗抗クライミング戦略機構、要求モジュールを使用する、一般的な問題との間の差

--- Pythonの爬虫類爬虫類詳細分類、HTTPおよびHTTPS、証明書の暗号化、抗上昇および抗抗クライミング戦略機構、要求モジュールを使用する、一般的な問題との間の差

ディアン爬虫類の概要

      プログラムクローリングによってプログラミングによって「アナログブラウザインターネット、インターネットとデータを得る工程

二ディアン爬虫類の分類

通用爬虫:

# 爬取一整张页面源码数据.搜索引擎(抓取系统,内部封装的一套爬虫程序). 重点使用的是该种形式的爬虫

集束クローラ:

# 抓取的是页面中指定的局部数据

インクリメンタル爬虫類:

# 监测网站的数据更新情况. 抓取的是网站最新更新的数据

水や爬虫類のセキュリティ

リスク

      爬虫類がアクセスされるサイトの正常動作を妨げます。

爬虫類は、データや情報の法的保護の特定の種類をクロール

リスクを回避する方法

      ロボットプロトコルサイトの設定に厳密に準拠。

迂回防止対策の爬虫類が、アクセスしたサイトの正常な動作との干渉を避けるために、あなたのコードを最適化する必要があります。

使用時には、クロールする情報の普及、クロールは他の利用者のプライバシーや企業秘密に属する見つかった個人情報は、速やかに停止する必要がある場合は、内容を確認し、削除する必要があります

四ディアン抗登るメカニズム

#解释:  应用在网站中

ファイブディアン抗抗クライミングメカニズム

#解释:  应用在爬虫程序中

六ディアン抗登るメカニズム

rebotes契約:

      プレーンテキストプロトコル、機能は次のとおりです。抗抗悪役は紳士ではありません

# https://www.taobao.com/robots.txt
User-agent:  Baiduspider
Allow:  /article
Allow:  /oshtml
Allow:  /ershou
Allow: /$
Disallow:  /product/
Disallow:  /

User-Agent:  Googlebot
Allow:  /article
Allow:  /oshtml
Allow:  /product
Allow:  /spu
Allow:  /dianpu
Allow:  /oversea
Allow:  /list
Allow:  /ershou
Allow: /$
Disallow:  /

UA検出:

# 每一个网站都存在User-Agent检测.
# User-Agent:请求载体身份标识
      通过浏览器发起的请求,请求载体为浏览器,则该请求的User-Agent为浏览器的身份标识,使用爬虫程序发起的请求,则该请求的载体为爬虫程序,则该请求的User-Agent为爬虫程序的身份标识。可以通过判断该值来获知该请求的载体究竟是基于哪款浏览器还是基于爬虫程序。

# 反爬机制:
      某些门户网站会对访问该网站的请求中的User-Agent进行捕获和判断,如果该请求的UA为爬虫程序,则拒绝向该请求提供数据。

# 反反爬策略:
      将爬虫程序的UA伪装成某一款浏览器的身份标识。

八のディアン暗号化

対称暗号化

# SSL 对称加密技术
    # 1.客户端采用已知算法对信息进行加密,如MD5 和 Base64,
    # 2.通过网络传输,中间会传递密钥.加密和解密是同一个秘钥. 秘钥是被加密传输的.
    # 3.存在潜在的风险,一旦被窃听,秘钥和信息都会被窃取.就可以轻而易举的破解秘钥
    
  

IMG

IMG

非対称暗号化

# 解释: 存在两把锁, 一个是 '私有秘钥' ,一个是 '公有秘钥'. 服务器端生成一对公私秘钥,把公钥发给客户端,客户端根据公钥进行加密,并把加密过后的数据发送给服务端,服务端利用私钥进行解密. 这样避免了网络传输中数据被窃取,就算数据被窃取,没有私钥也解不开加密的信息. 此种加密方式比较耗费资源和事件. 例如RSA就是采用非对称加密
# 缺点:
    第一个是:如何保证接收端向发送端发出公开秘钥的时候,发送端确保收到的是预先要发送的,而不会被挟持。只要是发送密钥,就有可能有被挟持的风险。

   第二个是:非对称加密的方式效率比较低,它处理起来更为复杂,通信过程中使用就有一定的效率问题而影响通信速度

IMG

証明書の暗号化

# 解释:
    1. 服务器的开发者携带公开密钥,向数字证书认证机构提出公开密钥的申请,数字证书认证机构在认清申请者的身份,审核通过以后,会对开发者申请的公开密钥做数字签名,然后分配这个已签名的公开密钥,并将密钥放在证书里面,绑定在一起
    2. 服务器将这份数字证书发送给客户端,因为客户端也认可证书机构,客户端可以通过数字证书中的数字签名来验证公钥的真伪,来确保服务器传过来的公开密钥是真实的。一般情况下,证书的数字签名是很难被伪造的,这取决于认证机构的公信力。一旦确认信息无误之后,客户端就会通过公钥对报文进行加密发送,服务器接收到以后用自己的私钥进行解密。

IMG

詳細な暗号化

ナインディアンHTTPおよびHTTPS

HTTPプロトコル

###  HTTP协议是Hyper Text Transfer Protocol(超文本传输协议)的缩写,是用于从万维网(WWW:World Wide Web )服务器传输超文本到本地浏览器的传送协议。

### 需要记住的重点: HTTP协议就是服务器(Server)和客户端(Client)之间进行数据交互(相互传输数据)的一种形式。

### HTTP四点注意事项:

    - HTTP允许传输任意类型的数据对象。正在传输的类型由Content-Type加以标记。

    - HTTP是无连接:无连接的含义是限制每次连接只处理一个请求。服务器处理完客户的请求,并收到客户的应答后,即断开连接。采用这种方式可以节省传输时间。

    - HTTP是媒体独立的:这意味着,只要客户端和服务器知道如何处理的数据内容,任何类型的数据都可以通过HTTP发送。客户端以及服务器指定使用适合的MIME-type内容类型。

    - HTTP是无状态:HTTP协议是无状态协议。无状态是指协议对于事务处理没有记忆能力。缺少状态意味着如果后续处理需要前面的信息,则它必须重传,这样可能导致每次连接传送的数据量增大。另一方面,在服务器不需要先前信息时它的应答就较快。

HTTPS

# 概念:
    HTTPS (Secure Hypertext Transfer Protocol)安全超文本传输协议,HTTPS是在HTTP上建立SSL加密层,并对传输数据进行加密,是HTTP协议的安全版。

HTTPの図暗号化されたバージョンは、暗号化証明書を使用しています。

IMG

共通ヘッダ情報

# 请求头
             accept:浏览器通过这个头告诉服务器,它所支持的数据类型
        Accept-Charset: 浏览器通过这个头告诉服务器,它支持哪种字符集
        Accept-Encoding:浏览器通过这个头告诉服务器,支持的压缩格式
        Accept-Language:浏览器通过这个头告诉服务器,它的语言环境
        Host:浏览器通过这个头告诉服务器,想访问哪台主机
        If-Modified-Since: 浏览器通过这个头告诉服务器,缓存数据的时间
        Referer:浏览器通过这个头告诉服务器,客户机是哪个页面来的 防盗链
        Connection:浏览器通过这个头告诉服务器,请求完后是断开链接还是何持链接
        X-Requested-With: XMLHttpRequest 代表通过ajax方式进行访问
        User-Agent:请求载体的身份标识

# 响应头
              Location: 服务器通过这个头,来告诉浏览器跳到哪里
         Server:服务器通过这个头,告诉浏览器服务器的型号
         Content-Encoding:服务器通过这个头,告诉浏览器,数据的压缩格式
         Content-Length: 服务器通过这个头,告诉浏览器回送数据的长度
         Content-Language: 服务器通过这个头,告诉浏览器语言环境
         Content-Type:服务器通过这个头,告诉浏览器回送数据的类型
         Refresh:服务器通过这个头,告诉浏览器定时刷新
         Content-Disposition: 服务器通过这个头,告诉浏览器以下载方式打数据
         Transfer-Encoding:服务器通过这个头,告诉浏览器数据是以分块方式回送的
         Expires: -1 控制浏览器不要缓存
         Cache-Control: no-cache 
         Pragma: no-cache

7つのモジュールを使用してディアンリクエスト

# 概念:基于网络请求的模块
# 作用:用来模拟浏览器发请求,从而实现爬虫

### 编码实现的实现流程
    # 1.指定URL
    # 2.发起请求
    # 3.获取响应数据
    # 4.持久化存储

ゴミ問題:

# 将响应数据的编码格式手动进行指定
response.encoding = 'utf-8'

UAの質問:

# UA伪装
headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'
}

動的なデータ:

### 参数的动态
    # GET 请求
    params={
        'key':'value',
    }

    # POST 请求
    data={
        'key':'value',
    }


###
    # response.json() 返回序列化好的JSON串数据或对象
    # response.text 返回字符串形式的数据
### 总结
    对一个陌生网站进行数据抓取时,首先确定爬取的数据是否是动态加载出来的.
         - 是: 需要通过抓包工具捕获到动态加载数据对应的数据包.从中提取URL和餐胡
          - 不是:直接对浏览器地址栏的URL发起请求即可

## 如何检测爬取的数据是不是动态加载出来的
    通过抓包工具进行局部搜索来验证是否是动态加载
        - 搜索到: 不是动态加载
        - 搜索不到: 是动态加载,可以使用抓包工具 '全局搜索进行定位'

おすすめ

転載: www.cnblogs.com/dengl/p/11639267.html