用xpath和BeautifulSoup获取免费代理

最近看到一篇文章:「关于爬虫,这里有一份《中国焦虑图鉴》」,对于爬虫分析的很透彻,建议大家看一下。想围观的朋友自己搜索题目就可以找到。

如果你要问我在哪里搜索,我只会让你试着自己找答案。因为在你学习的过程中一定会遇到各种各样奇奇怪怪的问题,难道都要问别人吗?在学校有老师解答你的疑惑,走出学校,我们要试着自己独立解决问题。我经常去的Stack Overflow上面,别人提的问题都是经过自己独立思考,看到提问者对问题的理解,为解决问题尝试过哪些方法,最后还是没有解决才来提问,希望我们也能如此。

不扯别的,我们知道在爬虫中最重要的不是后两步,即解析数据,保存数据,最重要的还是请求数据。

在爬取小规模的网页,数据规模不大,网页没有什么反爬技术的情况下,我们的爬虫还是很好玩的,一旦我们要爬取的网页反爬很强,我们获取的数据量又非常大时,我们很容易就会被封ip,一旦IP被封,爬虫就无法继续下去。

常规的伪造请求头,构造参数已经没有办法解决我们的问题。

在爬虫的世界里,永远都是跟网页的反爬技术做斗争,封了我们的ip,我们还可以伪造ip,今天就带大家获取一些免费的ip。

这里请求的是一个国内免费的ip髙匿代理IP网站:http://www.xicidaili.com/nn/

请求一页就可以了,今天的代码帮助大家随机生成一个该网站上提供的ip地址。

请求网页

class Spider():
   '''随机获取一个IP地址'''

   def __get_page(self):
       '''获取数据,添加请求头'''
       url = 'http://www.xicidaili.com/nn/'
       headers = {
               'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36'
                                    ' (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
           }
       r = requests.get(url,headers=headers)
       if r.status_code == 200:
           print('爬取成功')
       return r.text

由于这个ip代理网站没有什么反爬技术,基本上带个请求头就可以了。

解析网页

这里用了两种方式解析网页

def __parse_page(self,html):
       '''这里用了两种方式获取解析IP,返回一个ip列表'''
       '''soup = BeautifulSoup(html,'lxml')
       ips = soup.find_all('tr')#先找到节点tr
       ip_list = []
       for i in range(1,len(ips)):
           ip_info = ips[i]
           tds = ip_info.find_all('td')
           ip_list.append(tds[1].text + ':' +tds[2].text)
       return ip_list'''

       data = etree.HTML(html)
       items = data.xpath('//tr[@class="odd"]')
       ip_list = []
       for item in items:
           ips = item.xpath('./td[2]/text()')[0]
           tds = item.xpath('./td[3]/text()')[0]
           ip_list.append(ips + ':' + tds)
       return ip_list

这里比较来看,我还是倾向于用xpath,一来简单,再者性能还好,相比较BeautifulSoup来说,性能就没那么好了。

处理数据

接下来是一个随机函数,生成一个随机ip地址:

def __get_random_ip(self,ip_list):
       proxy_list = []
       for ip in ip_list:
           #遍历ip列表,添加http://
           proxy_list.append('http://' + ip)
       proxy_ip = random.choice(proxy_list)#随机返回一个ip
       proxies = {'http':proxy_ip}#构造成字典。
       return proxies

   def run(self):
       html = self.__get_page()
       ip_list = self.__parse_page(html)
       proxy = self.__get_random_ip(ip_list)
       print(proxy)

if __name__ == '__main__':
   spider = Spider()
   spider.run()
   程序运行后,控制台输出:
   {'http': 'http://110.73.8.27:8123'}

程序运行后随机生成一个ip地址,你可以拿去用,当然你也可以导入你需要伪装ip的程序里。

总结

看了开篇提到的那篇文章之后,结合最近看到听到的消息,在想这样一个问题「爬虫犯法吗?」

爬虫犯不犯法,看你抓取的数据是什么内容,就好比百度,谷歌的搜索引擎每天在各个网站上爬到数据,展现给你。当然不犯法。

有位爬虫大佬这样说:

公开可查的就可以爬,这个就没啥事。那些用某些特殊权限的账号登录才可以的那就比较危险。还有必须破解才能爬的就构成犯罪了,另外,都建议使用代理ip,一个反爬,一个隐藏真实ip。

所以对于我们小白来说完全没有问题,只要不触碰一些敏感未公开的数据就没事。

公众号sixkery,专注于python爬虫。有任何学习上的问题都可以后台联系我哦

猜你喜欢

转载自blog.csdn.net/sixkery/article/details/81434076