"""
HTML下载器:利用requests模块下载HTML网页;
HTML解析器:利用re正则表达式解析出有效数据
数据存储器:将有效数据通过文件或者数据库的形式存储起来
"""
import requests
import json
import re
from multiprocessing.dummy import Pool
from requests.exceptions import RequestException
# 一、构造HTML下载器
headers = {
'User-Agent': 'Mozilla/5.0 '}
def get_one_page(url):
try:
res = requests.get(url, headers=headers)
if res.status_code == 200:
return res.text
return None
except RequestException:
return None
# 二、构造HTML解析器
def parse_one_page(html):
pattern = re.compile('<dd>.*?board-index.*?>(\d+)</i>.*?data-src="(.*?)".*?name"><a'
+ '.*?>(.*?)</a>.*?star">(.*?)</p>.*?releasetime">(.*?)</p>'
+ '.*?integer">(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>', re.S)
# re.findall(pattern,string[,flags]):搜索整个string,以列表的形式返回能匹配的全部子串,
# 其中参数是匹配模式,如re.S表示点任意匹配模式,改变“.”的行为
items = re.findall(pattern, html)
for item in items:
# 本来该return的地方用yield,如果用return,在第一轮循环就会跳出,结果文件只会有一部电影。
# 如果用yield,函数返回的就是一个生成器,而生成器作为一种特殊的迭代器,可以用for——in方法,一次一次的把yield拿出来
yield {
'index': item[0],
'image': item[1],
'title': item[2],
'actor': item[3].strip()[3:],
'time': item[4].strip()[5:],
'score': item[5] + item[6]
}
# 三、构造数据存储器
def write_to_file(content):
# open()函数传入encoding参数,将字符串自动转换成指定编码,
# w'模式直接覆盖写(相当于删掉后新写入一个文件),'a'为追加写
with open('result.txt', 'a', encoding='utf-8') as f:
# json默认是以ASCII来解析code的,由于中文不在ASCII编码当中,因此就不让默认ASCII生效
f.write(json.dumps(content, ensure_ascii=False) + '\n')
f.close()
def main(offset):
url = 'http://maoyan.com/board/4?offset=' + str(offset)
html = get_one_page(url)
for item in parse_one_page(html):
print(item)
write_to_file(item)
if __name__ == '__main__':
# Pool模块,多线程并发抓取
p = Pool()
p.map(main, [i * 10 for i in range(11)])
python爬虫--13 猫眼电影爬虫
猜你喜欢
转载自blog.csdn.net/qq_25672165/article/details/107814166
今日推荐
周排行