湖北省は、長年にわたって地震データをクロール

ホームアドレスが発生した、噂の様々なマイクロチャネルグループは、何が噂で、長年にわたって地震データを登るので、表示されます
#がデータをクロール
インポート要求
BS4インポートBeautifulSoupから


:DEF GET_HEADER()
    header_dic = { 
        'のUser-Agent': 'のMozilla / 5.0' 
    } 

DEF get_page():
    url_list = page_urls()
    URLのurl_listで:
        #プリント(URL)
        RES =要求.get(URL = urlには、ヘッダ= GET_HEADER())
        であればres.status_code == 200:
            スープ= BeautifulSoup(res.text、 'html.parser')
            equ_info_gover = soup.find(クラス_ = "gover_right_ul")find_all(。 '李')
            equ_infoでequ_info_gover用:
                equ_time = equ_info.span.text 
                equ_des = equ_info.a.text 
                #プリント(equ_time、equ_des)
                equ_time_des = equ_info.span.text + ' '+ equ_info.a.text + '\ n'は
                write_to_file(equ_time_des)
        他:
            プリント(URL)

デフwrite_to_file(equ_time_des):
    ''、' equ_hubei_info.txt'(オープンで、Fのよう= 'UTF8')をコードする:
        f.writeを(equ_time_des)
        f.close()



DEF page_urls():
    url_list = [] 
    の範囲内PAGE_NUM(1,13)のための:
        URL =「HTTP://www.eqhb ?.gov.cn / list_map.jsp equ7t = 12&equ7p = '+ STR(PAGE_NUM)+' &equ7c = 15&urltype = tree.TreeTempUrl&wbtreeid = 1008' 
        url_list.append(URL)
    戻りurl_list 


場合__name__ == '__main__':
    get_page()

  後チャート#を取得

おすすめ

転載: www.cnblogs.com/lijifei/p/12165916.html