9月13日,柯南剧场版绀碧之拳全国首映,柯南作为小编童年的回忆(貌似暴露年龄了),给小编的童年增添了不一样的色彩(内心os:毕竟是死亡小学生)。距离首映也过了好几天了,小编想知道大家看完电影后是什么样的想法,于是小编就去猫眼电影的官网上爬取6000条用户的数据,并将其做成词云图,来看看大家是对其是怎么样的评论。
温馨提示:爬虫要在法律允许的条件下进行
一、工具及环境准备
Pycharm
Python3.7.3
二、网页分析
打开猫眼电影官网,发现猫眼电影在电脑网页上看不了很多的评论,于是小编打开开发者模式(按F12),并将其切换到手机端模拟状态。就是下面这个样子:
然后,点击柯南的那一栏直到出现评论:
之后小编就在想,前后端数据的传输肯定是以json格式传输,于是小编就在过滤器那里输入json过滤出json数据,额,,,发现什么都没有,有点尴尬:
不过别急,等我往下滑就出来了:
这样,相关的json数据就出来了,然后我们双击看一下是不是我们想要的评论:(密集恐惧者慎入)
接下来我们继续分析json数据接口url的特点和json格式数据中评论所在的地方,分析发现url的前面都是这样:
而变化的是后面的offset和ts,而且offset是从0开始之后每个增加15来开始增加的,而后面的ts则是一个长达13位的数据,不过如果对数字十分敏感的同学来说,1568854570326则是当前时间的毫秒级显示:
也就是说,这里传入的ts参数就是当前的时间戳,而小编也发现offset每次以15的数量增加,是因为每个json文件里对应15条评论。知道这些就好办了,接下来就是show time。
三、代码编写
总体思路:通过python构造对应的json文件的url,然后通过requests库的request.get方法向json文件的url发出请求从而获得对应的json文件数据,接下来就是对json文件数据的解析,获取我们所需要的评论,然后将评论存到一个.txt文件中,这样就完成了对评论数据的爬取了。代码如下:
import requests
import time
import json
import random
import codecs
# 伪装成浏览器
my_headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0;Win64; x64) '
'AppleWebKit/537.6 (KHTML),like Gecko Chrome/61.0.3613.00 '
'Safari/537.36',
'Referer':'http://m.maoyan.com/movie/1258394/comments?_v_=yes'
}
def requestURL():
baseUrl = 'http://m.maoyan.com/review/v2/comments.json'
off = 0
time_now = (int)(round(time.time()*1000))
for i in range(400):
parame = {
'movieId':'1258394',
'userId':'-1',
'offset':off,
'limit':'15',
'ts':time_now,
'type':'3'
}
off+=15
r = requests.get(baseUrl,params=parame,headers=my_headers,timeout=5)
if r.status_code==200:
data = json.loads(r.text)
commentList = data['data']['comments']
time_now = (int)(round(time.time()*1000))
writeToFile(commentList,off)
time.sleep(random.random())
else:
print(r.status_code)
def writeToFile(comments,off):
fileName = '电影评论.txt'
with codecs.open(fileName,'a+',encoding='utf-8') as f:
for contain in comments:
f.write(str(contain['content'])+'\n')
f.close()
print("已经爬取",off,"条数据")
if __name__=='__main__':
requestURL()
爬取过程:
爬取结果:
四、对评论进行数据分析
数据爬取完毕后,面对这么一堆数据,我们自然不好判断这部电影的好坏,在此处,小编采用词云进行数据的最直观的展示,顺便解释下什么是词云:
“词云”这个概念由美国西北大学新闻学副教授、新媒体专业主任里奇·戈登(Rich Gordon)于近日提出。戈登做过编辑、记者,曾担任迈阿密先驱报(Miami Herald)新媒体版的主任。他一直很关注网络内容发布的最新形式——即那些只有互联网可以采用而报纸、广播、电视等其它媒体都望尘莫及的传播方式。通常,这些最新的、最适合网络的传播方式,也是最好的传播方式。因此,“词云”就是对网络文本中出现频率较高的“关键词”予以视觉上的突出,形成“关键词云层”或“关键词渲染”,从而过滤掉大量的文本信息,使浏览网页者只要一眼扫过文本就可以领略文本的主旨。来源:百度百科
代码如下:
import numpy as np
from wordcloud import WordCloud
import PIL.Image as image
import codecs
if __name__=='__main__':
with codecs.open("电影评论.txt",encoding='utf-8') as fp:
text = fp.read()
mask = np.array(image.open("柯南.jpg"))
wordcloud = WordCloud(mask=mask,background_color='white').generate(text)
wordcloud.to_file('词云柯南.jpg')
生成的词云图如下:
(柯哀党勿喷)
纵观这张词云图,可以看出总体的评价还是不错的,基本上都是好看,然后就是基德很帅!
五、爬取的过程中的细微知识点
小编在将请求返回的数据转化成json格式的数据的时候,开始小编用的是json.dumps()这个函数,用了之后却报错,之后查了一下手册才发现需要用json.loads(),因为返回的数据是json格式的字符串而并不是真正的json类型,而json.loads()函数就是将字符串转化成真正的json类型,而对于json.dumps()函数来说,它是将字典格式的数据转化成json类型。这个是小编开始的时候没有注意到的。
哈哈,这期的python爬虫就到这里,咱们下期再见,小编已经迫不及待要去买票了。
扫描二维码
获取更多精彩
全栈高手