[Python クローラー チュートリアル] Python を使用して、特定の場所にある KFC ストア リストのサンプル コードをクロールします (ページングをサポート)

Pythonで開発されたシンプルなクローラーで、KFC公式サイトが公開している店舗リストをクローリングする機能で、キーワード検索やページングに対応しています。

まずは効果を見てみましょう。

请输入想要查询的城市:北京
抓取成功第1页成功!!!
抓取成功第2页成功!!!
抓取成功第3页成功!!!
抓取成功第4页成功!!!
抓取成功第5页成功!!!
抓取成功第6页成功!!!
抓取成功第7页成功!!!
抓取成功第8页成功!!!
抓取成功第9页成功!!!
抓取成功第10页成功!!!
抓取结束

プログラムを実行すると、最初にインターフェイスで都市のクエリが表示され、入力後、データがページごとにキャプチャされ、ローカル ファイルに保存されます。

次のコードにはリクエスト モジュールが必要です。リクエスト モジュールがインストールされていない場合は実行する必要があります。

pip3 install request

インストール

import requests
import json
if __name__ == '__main__':
    url = 'http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=keyword'
    kw = input('请输入想要查询的城市:')
    page = 1
    pageSize = 10
    while True:
        params = {
    
    
            'cname': '',
            'pid': '',
            'keyword': kw,
            'pageIndex': page,
            'pageSize': pageSize 
        }
        header = {
    
    
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'
        }
        response = requests.post(url=url, data=params, headers=header)
        res = response.json()
        shopCount = len(res['Table1'])
        if shopCount > 0:
            fileName = kw + str(page) + '.json'
            fileIndex = open('./' + fileName, 'w', encoding='utf-8')
            json.dump(res, fp=fileIndex, ensure_ascii=False)
            print('抓取成功第' + str(page) + '页成功!!!')
            page = page+1
        if shopCount < pageSize:
            print('抓取结束')
            break

おすすめ

転載: blog.csdn.net/one_and_only4711/article/details/126086184