教你如何用python来爬取电影天堂上面的电影

在这里插入图片描述

1.首先导入需要的模块

import requests
from bs4 import BeautifulSoup
import csv
2.获取网页,并解析结果

def html_parser(url_start):
#获取html
try:
headers={‘User-Agent’:‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36’} #模拟浏览器登入
r=requests.get(url_start,headers=headers,timeout=10) #获取网页
except:
pass
#print(r.status_code)
else:
html = r.content.decode(‘gb2312’,‘ignore’) #解码gb2312,忽略其中有异常的编码,仅显示有效的编码

    #print(len(html))          

#解析网页
soup = BeautifulSoup(html,'lxml')                                
for li in soup.select('.co_area2 li'):  #选择所有class=co_area2 下的所有的 li 节点
    for a in li.select('a'):            #选择 li 节点下的 a 节点 
        link=url_start+a['href']        #构造每个电影的网页链接     
        item={                          #将获取的结果存储为字典
            "name":a.string,
            "link":link
        }
        save_result(item)               #每次获取一个结果后,存储一次
        item.clear()                    #存储后清空字典,为下次存储做准备

因为电影天堂的网页的编码方式是"gb2312",

电影天堂_免费电影_迅雷电影下载 需要在获取页面的时候,进行解码处理,如下

html = r.content.decode(‘gb2312’,‘ignore’) #解码gb2312,忽略其中有异常的编码,仅显示有效的编码
3.存储结果

def save_result(item): #存储结果
with open(‘dy.csv’,‘a’,newline=’’,encoding=‘utf-8’) as csvfile: #打开一个csv文件,用于存储
fieldnames=[‘name’,‘link’]
writer=csv.DictWriter(csvfile,fieldnames=fieldnames)
writer.writerow(item)
4.主函数

def main(): #主程序
with open(‘dy.csv’,‘a’,newline=’’) as csvfile: #写入表头
writer=csv.writer(csvfile)
writer.writerow([‘name’,‘link’])

url_start="https://www.dy2018.com/"
html_parser(url_start)

5.运行

if name == ‘main’: #运行主程序
main()
6.运行结果

在这里插入图片描述
文章来源:百度云盘资源https://www.rrdyw.cc/plus/list.php?tid=2&splxa=News

猜你喜欢

转载自blog.csdn.net/weixin_50277536/article/details/112027220