Pythonのバルクのダウンロードの写真をBaiduの

 

少し画像分類プロジェクトを行うために、必要性は、独自のデータセットを生成します。データセットを作成するには、インターネット、再統一プロセスからたくさんの写真をダウンロードする必要があります。

 

この場合、画像がダウンロード保存されている、それは非常に面倒になります。だから、イメージがローカルコンピュータに直接ダウンロードして検索する方法はありますか?

そこああ!Pythonでそれは!

キー・ワードは、500枚の画像をダウンロードしたとして、私は「テディは、」「コーギー」、「ラブラドール」に持っています。次に、私は子犬分類器を書くつもりだ、私はどのようにアドバイスを知りません!

結果は:

 

 

 

アイデアを書きます:

 

画像のURLリンクを取得します。1.

まず、Baiduのホーム・ページの画像を開いて、インデックスのURLで、次の図の点に注意してください。

これは私たちが絵をクロールするのに役立ちますので、次は、従来のバージョン(フリップ)にスイッチにページを反転さ!

URLは、いくつかの比較を発見し、PNパラメータの数への要求です。データを返すのpnパラメータを、修正することによって、我々はそれだけで60ページあたりの絵を発見しました。

注:GSMパラメータPnはとにかく削除進式パラメータであります

その後、OBJURLを検索(+ F CTRL)を直接右ページのソースコードをチェック

 

このように、我々は、画像のURLを見つける必要があります。

 

 

地元への画像リンクを保存2.

今、私たちがしなければならないことは出て登るために、この情報を取ることです。

注:これはオリジナルですので、ページがOBJURL、hoverURLを持っている...しかし、我々はOBJURLを使用しています

だから、どのようにOBJURLを取得しますか?正規表現を使用してください!

どのように我々はそれを達成するために正規表現を使うのですか?実際には、コードの一行だけ...

 

結果= re.findall( ' "OBJURL": "(*)。?"、'、HTML) 

コアコード:

コードのURL、画像を取得する1:

 

# 获取图片url连接
def get_parse_page(pn,name):

    for i in range(int(pn)):
        # 1.获取网页
        print('正在获取第{}页'.format(i+1))

        # 百度图片首页的url
        # name是你要搜索的关键词
        # pn是你想下载的页数

        url = 'https://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word=%s&pn=%d' %(name,i*20)

        headers = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.4843.400 QQBrowser/9.7.13021.400'}

        # 发送请求,获取相应
        response = requests.get(url, headers=headers)
        html = response.content.decode()
        # print(html)

        # 2.正则表达式解析网页
        # "objURL":"http://n.sinaimg.cn/sports/transform/20170406/dHEk-fycxmks5842687.jpg"
        results = re.findall('"objURL":"(.*?)",', html) # 返回一个列表

        # 根据获取到的图片链接,把图片保存到本地
        save_to_txt(results, name, i)

2.保存图片到本地代码:

 

# 保存图片到本地
def save_to_txt(results, name, i):

    j = 0
    # 在当目录下创建文件夹
    if not os.path.exists('./' + name):
        os.makedirs('./' + name)

    # 下载图片
    for result in results:
        print('正在保存第{}个'.format(j))
        try:
            pic = requests.get(result, timeout=10)
            time.sleep(1)
        except:
            print('当前图片无法下载')
            j += 1
            continue

        # 可忽略,这段代码有bug
        # file_name = result.split('/')
        # file_name = file_name[len(file_name) - 1]
        # print(file_name)
        #
        #終了= re.search( '(PNG | .JPG | .JPEG | .GIF)$'、file_nameに)
        #終了==なしの場合:
        #FILE_NAME = file_nameに+ 'の.jpg'

        #把图片保存到文件夹
        file_full_name = './' +名+ '/' + STR(I)+ ' - ' + STR(J)+ '.JPG'
        オープン(file_full_name、 'WB')とFとして:
            f.write(pic.content)

        J + = 1

コアコード:
PIC = requests.get(結果、タイムアウト= 10)
f.write(pic.content)

3.主な機能コード:

 

#主な機能
__name__ == '__main__' IF:

    名前= INPUT( 'ダウンロードにしたいキーワードを入力してください:')
    、PN = INPUT( 'あなたはページをダウンロードする前にしたい(1が60を持っている):')
    get_parse_page( PN、名前)

使用手順:

# 配置以下模块
import requests 
import re
import os
import time

# 1.运行 py源文件
# 2.输入你想搜索的关键词,比如“柯基”、“泰迪”等
# 3.输入你想下载的页数,比如5,那就是下载 5 x 60=300 张图片
 

おすすめ

転載: www.cnblogs.com/7758520lzy/p/11988856.html