python爬虫之分析Ajax请求抓取抓取今日头条街拍美图(七)

python爬虫之分析Ajax请求抓取抓取今日头条街拍美图

一、分析网站

1.进入浏览器,搜索今日头条,在搜索栏搜索街拍,然后选择图集这一栏。

2.按F12打开开发者工具,刷新网页,这时网页回弹到综合这一栏,点击图集,在开发者工具中查看 XHR这个选项卡。

 

3.具体分析url,请求参数

当我们在请求图集这个页面时,url如下:

 请求参数如下:

我们可以看到这个url的构成:

前面:https://www.toutiao.com/search_content/?

后面:offset=0&format=json&keyword=%E8%A1%97%E6%8B%8D&autoload=true&count=20&cur_tab=3&from=gallery

二、源代码

程序主体

import requests
from urllib.parse import urlencode
from requests.exceptions import RequestException
import json
import re
import os
import pymongo
from hashlib import md5
from bs4 import BeautifulSoup
from multiprocessing import Pool
from config import *

#导入mongodb
client = pymongo.MongoClient(MOMGO_URL,connect=False)
#创建数据库对象
db = client[MOMGO_DB]


#获取索引页内容
def get_page_index(offset,keyword):
    #构造请求参数
    data ={
    'offset':offset,
    'format':'json',
    'keyword':keyword,
    'autoload':'true',
    'count':'20',
    'cur_tab':'3',
    'from':'gallery',
    }
    headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko'}
    #请求url,  urlencode()将字典数据转为url请求
    url = 'https://www.toutiao.com/search_content/?' + urlencode(data)

    try:
        response = requests.get(url,headers=headers)
        if response.status_code ==200:
            return response.text
        return None
    except RequestException:
        print('请求页出错')
        return None


#解析索引网页,获得详细页面url
def parse_page_index(html):
    #解析json数据,转为json对象
    data = json.loads(html)
    #判断data是否存在,存在则返回所有的键名
    if data and 'data' in data.keys():
        for item in data.get('data'):
            #提取article_url,把article_url循环取出来
            yield item.get('article_url')

#获取详细页面内容
def get_page_detail(url):
    headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36 QIHU 360SE'}
    try:
        response = requests.get(url,headers=headers)
        if response.status_code == 200:
            return response.text
        return None
    except RequestException:
        print('请求详细页出错')
        return None

#解析详细页面内容
def parse_page_Detail(html,url):
    #生成BeautifulSoup对象,使用lxml解析
    soup = BeautifulSoup(html,'lxml')
    #匹配标题
    title_pattern = re.compile('BASE_DATA.galleryInfo = {.*?title: (.*?),',re.S)
    #匹配图片
    images_pattern = re.compile('BASE_DATA.galleryInfo = {.*?gallery: JSON.parse\("(.*?)"\)',re.S)
    result  =re.search(images_pattern,html)
    title = re.search(title_pattern,html)
    if result:
        data =json.loads(result.group(1).replace('\\',''))
        #如果sub_images存在,返回所有键名
        if data and 'sub_images' in data.keys():
            #获取sub_images的所有内容
            sub_images = data.get('sub_images')
            #获取一组图,构造列表
            images = [item.get('url') for item in sub_images]
            #下载图片,保存图片
            for image in images: down_images(image)
            return {
                'title':title.group(1),
                'url':url,
                'images':images
            }


def save_to_mongo(result):
    if db[MOMG_TABLE].insert(result):
        print('存储到mongodb成功')
        return True
    return False

#下载图片
def down_images(url):
    print('正在下载图片:'+ url)
    headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36 QIHU 360SE'}
    try:
        response = requests.get(url,headers=headers)
        if response.status_code == 200:
            sava_images(response.content)
        return None
    except RequestException:
        print('请求图片出错')
        return None

#保存图片
def sava_images(content):
    file_path = "{0}/{1}.{2}".format(os.getcwd(),md5(content).hexdigest(),'jpg')
    if not os.path.exists(file_path):
        with open(str(file_path),'wb') as f:
            f.write(content)
            f.close()



def main(offset):
#获取索引页内容
#传入第一个变量为offset值,第二个为关键字,网页通过滑动,offset值会发生改变
    html = get_page_index(offset,KEYWORD)
#解析索引页内容,获取详细页面URL
    for url in parse_page_index(html):
#将详细页面内容赋值给html
        html = get_page_detail(url)
#如果详细页面内容不为空,则解析详细内容
        if html:
            result = parse_page_Detail(html,url)
            print(result)
            if result:
                save_to_mongo(result)

if __name__=='__main__':

    groups = [x * 20 for x in range(GROUP_START,GROUP_END + 1)]
    #创建进程池
    pool=Pool()
    #开启多进程
    pool,map(main(offset=0), groups)

  

配置文件

#链接地址
MOMGO_URL='localhost'
#数据库名字
MOMGO_DB='toutiao'
#表名
MOMG_TABLE='toutiao'

GROUP_START=1
GROUP_END=20
KEYWORD="街拍"

  

猜你喜欢

转载自www.cnblogs.com/-wenli/p/9888176.html