Python竟然可以批量下载百度图片?

有时候大家需要保存下载百度图片,但是在数量很大的情况下,一张一张地下载就显得很繁琐麻烦。那么,有没有一种方法可以把搜索到大量的百度图片直接下载到本地电脑中呢?当然有,答案就是利用Python。下面我们主要从方案思路和代码演示两个方面,来看看如何利用Python批量下载百度图片。
在这里插入图片描述

一、方案思路

1、获取图片的url链接

首先,打开百度图片首页,如下图url中的index。
在这里插入图片描述
接着,把页面切换成传统翻页版(flip),因为这样有利于我们爬取图片!如下图所示:
在这里插入图片描述
对比了几个url发现,pn参数是请求到的数量。通过修改pn参数,观察返回的数据,发现每页最多只能是60个图片。

注:gsm参数是pn参数的16进制表达,去掉无妨。
在这里插入图片描述
然后,右键检查网页源代码,直接(ctrl+F)搜索 obj[URL]。

在这里插入图片描述
这样,我们就找到了需要图片的url了。

2、把图片链接保存到本地。

现在,我们要做的就是将这些信息爬取出来。网页中有objURL,hoverURL…但是我们用的是objURL,因为这个是原图。那么,如何获取objURL?用正则表达式!那我们该如何用正则表达式实现呢?其实只需要一行代码。
在这里插入图片描述
二、代码演示

1、获取图片url代码:
在这里插入图片描述
2、保存图片到本地代码:
在这里插入图片描述
3、主函数代码:

在这里插入图片描述
使用说明:
在这里插入图片描述
总结一下利用Python批量下载百度图片的要点,首先打开百度图片首页,观察URL变化,页面切换成传统翻页版,然后发送请求,获取响应。接着解析网页,使用正则表达式。最后,创建本地文件夹,根据图片URL链接,保存到本地。
是不是get到一个小技巧啊。黑马视频库 带你玩转更多爬虫技术

猜你喜欢

转载自blog.csdn.net/JACK_SUJAVA/article/details/109466702
今日推荐