Python爬取糗事百科段子,并保存到本地
1、类比学习 安卓学习笔记 Json数据获取->解析
2、网络图片链接加载 安卓学习笔记 网络图片Bitmap
3、数据持久化保存到本地数据库 安卓学习笔记 数据持久化(推荐使用.SQLite)
# coding=utf-8
import requests
from lxml import etree
import json
class QiubaiSpider:
def __init__(self):
self.url_temp = "https://www.qiushibaike.com/8hr/page/{}/"
#反爬虫,模拟浏览器加入头文件
self.headers = { "User-Agent":"Mozilla/5.0 (Macintosh; Intel Mac OS X \
10_13_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36"
}
# self.headers = {"User-Agent","Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 "}
def get_url_list(self): #获取url列表
return [self.url_temp.format(i) for i in range(1, 14)]
def parse_url(self, url): #发送请求,获取响应
print(url)
return requests.get(url, headers=self.headers).content.decode()
def get_content_list(self, html_str): #提取段子
html = etree.HTML(html_str)
div_list = html.xpath("//div[@id='content-left']/div")
content_list = []
for div in div_list:
item = {}
item["文本内容"] = div.xpath(
".//div[@class='content']/span/text()")
item["文本内容"] = [i.strip() for i in item["文本内容"]]#由于文本内容有很多\n,所以strip掉,但是不能直接strip,所以要放在i里弄。
item["好笑数量"] = div.xpath(".//span[@class='stats-vote']/i/text()")[0]if len(div.xpath(".//span[@class='stats-vote']/i/text()"))>0 else None
item["评论数"] = div.xpath(".//span[@class='stats-comments']//i/text()")[0]if len(div.xpath(".//span[@class='stats-comments']//i/text()"))>0 else None
item["图片地址"] = div.xpath(".//div[@class='thumb']//img/@src")
item["图片地址"] = "https:"+item["图片地址"][0] if len(item["图片地址"])>0 else None
content_list.append(item)
print(item) #打印查看
return content_list #返回Json_List
def save_content_list(self, content_list): # 保存数据
fileObject = open('QiubaiSpider.txt','a', encoding='utf-8') #'a'是追加,'w'是覆盖写入 encoding:编码
for dic in content_list:
d = json.dumps(dic, ensure_ascii=False) #json.dumps 序列化时对中文默认使用的ascii编码.想输出真正的中文需要指定ensure_ascii=False:
fileObject.write(d)
fileObject.write('\n')
fileObject.close()
# pass数据使用自行改写
def run(self):
#1. url_list
url_list = self.get_url_list()
#2. 遍历,发送请求
for url in url_list:
html_str = self.parse_url(url)
#3. 提取数据
content_list = self.get_content_list(html_str)
#4. 保存
self.save_content_list(content_list)
if __name__ == '__main__':
qiubai = QiubaiSpider()
qiubai.run()