百度图片下载脚本

    最近爬虫炒的越来越火,我也想加入其中一探究竟,闲来无聊,手动修改了一个在百度网爬取图片的脚本.

    一.代码详细讲解介绍:

    1.头文件介绍

    

import itertools
import urllib
import requests
import os
import re
import sys

    在脚本中用到了不少库,理所当然的库有request和urllib,正则表达式库re同样是是免不了的,os和sys则是对文件之类的一些操作了,知道你们都懂.

    Python的内建模块itertools提供的是用于操作迭代对象的函数.具体使用方式可以百度.

    2.建立字典

str_table = {
    '_z2C$q': ':',
    '_z&e3B': '.',
    'AzdH3F': '/'
}

char_table = {
    'w': 'a',
    'k': 'b',
    'v': 'c',
    '1': 'd',
    'j': 'e',
    'u': 'f',
    '2': 'g',
    'i': 'h',
    't': 'i',
    '3': 'j',
    'h': 'k',
    's': 'l',
    '4': 'm',
    'g': 'n',
    '5': 'o',
    'r': 'p',
    'q': 'q',
    '6': 'r',
    'f': 's',
    'p': 't',
    '7': 'u',
    'e': 'v',
    'o': 'w',
    '8': '1',
    'd': '2',
    'n': '3',
    '9': '4',
    'c': '5',
    'm': '6',
    '0': '7',
    'b': '8',
    'l': '9',
    'a': '0'
}

    str的translate方法要用单个字符的十进制unicode编码作为key,而value中的数字会被当做十进制unicode编码转换成字符,

    其实最简单的也可以使用字符串作为value


    废话不多说,直接上代码:解码图片URL

扫描二维码关注公众号,回复: 1536912 查看本文章

def decode(url):
    # 先替换字符串
    for key, value in str_table.items():
        url = url.replace(key, value)
    # 再替换剩下的字符
    return url.translate(char_table)

生成网址列表函数:

def buildUrls(word):
    word = urllib.quote(word)
    url = r"http://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&fp=result&queryWord={word}&cl=2&lm=-1&ie=utf-8&oe=utf-8&st=-1&ic=0&word={word}&face=0&istype=2nc=1&pn={pn}&rn=60"
    urls = (url.format(word=word, pn=x) for x in itertools.count(start=0, step=60))
    return urls

免不了使用正则表达式,解析图片URL

re_url = re.compile(r'"objURL":"(.*?)"')

好难介绍,还不如直接上代码哈

def resolveImgUrl(html):
    imgUrls = [decode(x) for x in re_url.findall(html)]
    return imgUrls


def downImg(imgUrl, dirpath, imgName):
    filename = os.path.join(dirpath, imgName)
    try:
        res = requests.get(imgUrl, timeout=15)
        if str(res.status_code)[0] == "4":
            print(str(res.status_code), ":", imgUrl)
            return False
    except Exception as e:
        print("抛出异常:", imgUrl)
        print(e)
        return False
    with open(filename, "wb") as f:
        f.write(res.content)
    return True


def mkDir(dirName):
    dirpath = os.path.join(sys.path[0], dirName)
    if not os.path.exists(dirpath):
        os.mkdir(dirpath)
    return dirpath

    在上面的程序读懂之后,然后我们可以进入正题了

if __name__ == '__main__':
    print("欢迎使用百度图片下载脚本!\n目前仅支持单个关键词。")
    print("下载结果保存在脚本目录下的results文件夹中。")
    print("=" * 50)
    word = raw_input("请输入你要下载的图片关键词:\n")
    #word ="csdn"
    # dirpath = mkDir("results")
    dirpath = mkDir(word)

    urls = buildUrls(word)
    index = 0
    for url in urls:
        print("正在请求:", url)
        html = requests.get(url, timeout=10).content.decode('utf-8')
        imgUrls = resolveImgUrl(html)
        if len(imgUrls) == 0:  # 没有图片则结束
            break
        for url in imgUrls:
            if downImg(url, dirpath, str(index) + ".jpg"):
                index += 1
                # print("已下载"+str(index)+",图片地址为:"+url)
                print('已下载第' + str(index) + '张图片,图片地址:' + str(url))
                # print("已下载 %s " % index)

运行便会出现下面的情形

这样,我们就可以下载百度图片了,开不开心,次不下刺激,下次使用多线程跑代码,让爬取的速度更加快速.

猜你喜欢

转载自blog.csdn.net/tcd1112/article/details/80492761