python学习笔记1_爬虫(p站封面实现下载)

import requests
import urllib.request
N=0
imgName = 0
for page in range(0,100):#循环实现翻页动态爬取
 page=page+1
 i=str(page)
 url='http://moe.005.tv/moeimg/list_2_'+i+'.html'
 imgstr=requests.get(url)
 from bs4  import  BeautifulSoup #解析
 soup=BeautifulSoup(imgstr.text,'lxml')
 data=soup.select('body > div.nav_warp > div.nav_w_left > div.zhuti_w_list > ul > li > a > span > img')
 for each in data: #循环遍历data
  N_1=str(N)
  each = each.get('src')  # 抓取src
  print(each)
  urllib.request.urlretrieve(each, 'F:\\py\\%s'+N_1+'.jpg')#通过使用urlib库实现文件下载
  N=N+1
#仅供学习参考,违规后果自负。

#参考书籍 《python 3 爬虫 数据清洗与可视化实战》

猜你喜欢

转载自blog.csdn.net/weixin_36835848/article/details/80751085