python asyncio+aiohttp异步请求 批量快速验证代理IP是否可用

一、爬虫代理

1. 代理的作用

对于爬虫来说,由于爬虫爬取速度过快,在爬取过程中可能遇到同一个 IP 访问过于频繁的问题,此时网站就会让我们输入验证码登录或者直接封锁 IP,这样会给爬取带来极大的不便。

使用代理隐藏真实的 IP,让服务器误以为是代理服务器在请求自己。这样在爬取过程中通过不断更换代理,就不会被封锁,可以达到很好的爬取效果。

  • 突破自身 IP 访问限制,访问一些平时不能访问的站点。
  • 访问一些单位或团体内部资源,如使用教育网内地址段免费代理服务器,就可以用于对教育网开放的各类 FTP 下载上传,以及各类资料查询共享等服务。
  • 提高访问速度,通常代理服务器都设置一个较大的硬盘缓冲区,当有外界的信息通过时,也将其保存到缓冲区中,当其他用户再访问相同的信息时, 则直接由缓冲区中取出信息,传给用户,以提高访问速度。
  • 隐藏真实 IP,上网者也可以通过这种方法隐藏自己的 IP,免受攻击,对于爬虫来说,我们用代理就是为了隐藏自身 IP,防止自身的 IP 被封锁。

2. 代理分类

代理分类时,既可以根据协议区分,也可以根据其匿名程度区分,总结如下:

根据协议区分

  • FTP 代理服务器,主要用于访问 FTP 服务器,一般有上传、下载以及缓存功能,端口一般为 21、2121 等。
  • HTTP 代理服务器,主要用于访问网页,一般有内容过滤和缓存功能,端口一般为 80、8080、3128 等。
  • SSL/TLS 代理,主要用于访问加密网站,一般有 SSL 或 TLS 加密功能(最高支持 128 位加密强度),端口一般为 443。
  • RTSP 代理,主要用于 Realplayer 访问 Real 流媒体服务器,一般有缓存功能,端口一般为 554。
  • Telnet 代理,主要用于 telnet 远程控制(黑客入侵计算机时常用于隐藏身份),端口一般为 23。
  • POP3/SMTP 代理,主要用于 POP3/SMTP 方式收发邮件,一般有缓存功能,端口一般为 110/25。
  • SOCKS 代理,只是单纯传递数据包,不关心具体协议和用法,所以速度快很多,一般有缓存功能,端口一般为 1080。SOCKS 代理协议又分为 SOCKS4 和 SOCKS5,SOCKS4 协议只支持 TCP,而 SOCKS5 协议支持 TCP 和 UDP,还支持各种身份验证机制、服务器端域名解析等。简单来说,SOCK4 能做到的 SOCKS5 都可以做到,但 SOCKS5 能做到的 SOCK4 不一定能做到。

根据匿名程度区分

  • 高度匿名代理,高度匿名代理会将数据包原封不动的转发,在服务端看来就好像真的是一个普通客户端在访问,而记录的 IP 是代理服务器的 IP。
  • 普通匿名代理,普通匿名代理会在数据包上做一些改动,服务端上有可能发现这是个代理服务器,也有一定几率追查到客户端的真实 IP。代理服务器通常会加入的 HTTP 头有 HTTP_VIA 和 HTTP_X_FORWARDED_FOR。
  • 透明代理,透明代理不但改动了数据包,还会告诉服务器客户端的真实 IP。这种代理除了能用缓存技术提高浏览速度,能用内容过滤提高安全性之外,并无其他显著作用,最常见的例子是内网中的硬件防火墙。
  • 间谍代理,间谍代理指组织或个人创建的,用于记录用户传输的数据,然后进行研究、监控等目的的代理服务器。

常见代理类型

  • 寻找网上的免费代理,最好挑选高度匿名代理,使用前抓取下来筛选一下可用代理,也可以进一步维护一个代理池。
  • 使用付费代理服务,互联网上存在许多代理商,可以付费使用,质量比免费代理好很多。
  • ADSL 拨号,拨一次号换一次 IP,稳定性高,也是一种比较有效的解决方案。
  • 蜂窝代理,即用 4G 或 5G 网卡等制作的代理,由于蜂窝网络用作代理的情形较少,因此整体被封锁的几率会较低,但搭建蜂窝代理的成本较高。

3. requests 和 aiohttp 设置代理

对于 requests 来说,代理设置非常简单,只需传入 proxies 参数即可

代码如下:

import requests


proxy = '221.180.170.104:8080'
proxies = {
   'http': 'http://' + proxy,
   'https': 'https://' + proxy,
}
try:
   response = requests.get('http://httpbin.org/ip', proxies=proxies)
   print(response.text)

except Exception as e:
   print('Error', e.args)

运行结果如下:

{
  "origin": "221.180.170.104"
}

对于 aiohttp 来说,可以通过 proxy 参数直接设置即可,HTTP 代理设置如下:

import asyncio
import aiohttp

proxy = 'http://140.143.6.16:1080'


async def main():
   async with aiohttp.ClientSession() as session:
       try:
           async with session.get('http://httpbin.org/ip', proxy=proxy) as response:
               print(await response.text())
       except Exception as e:
           print('Error:', e.args)

if __name__ == '__main__':
   asyncio.get_event_loop().run_until_complete(main())

运行结果如下:

{
  "origin": "140.143.6.16"
}

运行结果的 origin 如果是代理服务器的 IP,则证明代理已经设置成功。

二、批量快速验证代理IP是否可用

将网站的代理爬取下来后,就需要批量快速的验证代理IP是否可用。

代理的数量很多的时候,为了提高代理的检测效率,使用异步请求库 aiohttp 来进行检测。

requests 作为一个同步请求库,我们在发出一个请求之后,程序需要等待网页加载完成之后才能继续执行。也就是这个过程会阻塞等待响应,如果服务器响应非常慢,比如一个请求等待十几秒,那么我们使用 requests 完成一个请求就会需要十几秒的时间,程序也不会继续往下执行,而在这十几秒的时间里程序其实完全可以去做其他的事情,比如调度其他的请求或者进行网页解析等。

对于响应速度比较快的网站来说,requests 同步请求和 aiohttp 异步请求的效果差距没那么大。可对于检测代理的网站来说,检测一个代理获得响应需要等待的时间较长,这时候使用 aiohttp 异步请求库的优势就体现出来了,检测效率会大大提高。

读取数据:

with open('代理IP数据.txt', 'r', encoding='utf-8') as f:
    con = f.readlines()
    print(f'共有代理IP数据:{len(con)}条')

运行结果如下:

共有代理IP数据:1690条

Process finished with exit code 0

批量验证代理IP是否可用:

import asyncio
import aiohttp
import re


with open('代理IP数据.txt', 'r', encoding='utf-8') as f:
    con = f.readlines()
    print(f'共有代理IP数据:{len(con)}条')

proxy_ips = []
for x in con:
    m = x.split('@')
    proxy_ips.append(m[0])

print(proxy_ips)
n = len(proxy_ips)
useful_ip = []


async def test(i):
    async with aiohttp.ClientSession(connector=aiohttp.TCPConnector(ssl=False)) as session:
        try:
            async with session.get('http://httpbin.org/ip', proxy=f'http://{proxy_ips[i]}') as response:
                result = await response.text()
                print(result)
                datas = re.findall('"(.*?)": "(.*?)"', result)
                _, proxy = datas[0]
                if proxy in proxy_ips[i]:
                    useful_ip.append(proxy_ips[i])
                    print(f'该代理ip有效:{proxy_ips[i]}')
        except Exception as e:
            print('Error', e)


scrape_index_tasks = [asyncio.ensure_future(test(x)) for x in range(n)]
loop = asyncio.get_event_loop()
tasks = asyncio.gather(*scrape_index_tasks)
loop.run_until_complete(tasks)
print(useful_ip)

with open('可用代理IP.txt', 'w') as f:
    for item in useful_ip:
        f.write(item + '\n')

运行效果如下:

在这里插入图片描述

使用异步请求库 aiohttp 来进行检测代理IP是否可用,相比于requests 同步请求来说,效率非常快,程序运行成功,初步筛选出了部分可用代理IP,并保存到了txt里。

猜你喜欢

转载自blog.csdn.net/fyfugoyfa/article/details/108059798