Python爬虫 糗百段子

Python爬取糗事百科段子,并保存到本地

1、类比学习 安卓学习笔记 Json数据获取->解析
2、网络图片链接加载 安卓学习笔记 网络图片Bitmap
3、数据持久化保存到本地数据库 安卓学习笔记 数据持久化(推荐使用.SQLite)

# coding=utf-8
import requests
from lxml import etree
import json

class QiubaiSpider:
    def __init__(self):
        self.url_temp = "https://www.qiushibaike.com/8hr/page/{}/"
        #反爬虫,模拟浏览器加入头文件
        self.headers = { "User-Agent":"Mozilla/5.0 (Macintosh; Intel Mac OS X \
        10_13_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36"
        }
    #  self.headers = {"User-Agent","Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 "}

    def get_url_list(self):  #获取url列表
        return [self.url_temp.format(i) for i in range(1, 14)]

    def parse_url(self, url):  #发送请求,获取响应
        print(url)
        return requests.get(url, headers=self.headers).content.decode()

    def get_content_list(self, html_str):  #提取段子
        html = etree.HTML(html_str)
        div_list = html.xpath("//div[@id='content-left']/div")
        content_list = []
        for div in div_list:
            item = {}
            item["文本内容"] = div.xpath(
                ".//div[@class='content']/span/text()")
            item["文本内容"] = [i.strip() for i in item["文本内容"]]#由于文本内容有很多\n,所以strip掉,但是不能直接strip,所以要放在i里弄。
            item["好笑数量"] = div.xpath(".//span[@class='stats-vote']/i/text()")[0]if len(div.xpath(".//span[@class='stats-vote']/i/text()"))>0 else None
            item["评论数"] = div.xpath(".//span[@class='stats-comments']//i/text()")[0]if len(div.xpath(".//span[@class='stats-comments']//i/text()"))>0 else None
            item["图片地址"] = div.xpath(".//div[@class='thumb']//img/@src")
            item["图片地址"] = "https:"+item["图片地址"][0] if len(item["图片地址"])>0 else None
            content_list.append(item)
            print(item)  #打印查看
        return content_list  #返回Json_List

    def save_content_list(self, content_list):  # 保存数据
        fileObject = open('QiubaiSpider.txt','a', encoding='utf-8')  #'a'是追加,'w'是覆盖写入 encoding:编码
        for dic in content_list:
            d = json.dumps(dic, ensure_ascii=False)  #json.dumps 序列化时对中文默认使用的ascii编码.想输出真正的中文需要指定ensure_ascii=False:
            fileObject.write(d)
            fileObject.write('\n')
        fileObject.close()
        # pass数据使用自行改写

    def run(self):
        #1. url_list
        url_list = self.get_url_list()
        #2. 遍历,发送请求
        for url in url_list:
            html_str = self.parse_url(url)
            #3. 提取数据
            content_list = self.get_content_list(html_str)
            #4. 保存
            self.save_content_list(content_list)


if __name__ == '__main__':
    qiubai = QiubaiSpider()
    qiubai.run()

运行结果

这里写图片描述

猜你喜欢

转载自blog.csdn.net/lewyu521/article/details/81123418