python-爬取中国最好大学网页

需求:
爬取中国最好大学网页2016-2019年:学校排名, 学校名称, 省份, 总分
先以17年为例:
http://www.zuihaodaxue.com/zuihaodaxuepaiming2017.html

第一步:获取页面信息

import requests
from bs4 import BeautifulSoup
import bs4

def get_content(url,):
    try:
        user_agent = "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.109 Safari/537.36"
        response = requests.get(url,  headers={'User-Agent': user_agent})
        response.raise_for_status()   # 如果返回的状态码不是200, 则抛出异常;
        response.encoding = response.apparent_encoding  # 判断网页的编码格式, 便于respons.text知道如何解码;
    except Exception as e:
        print("爬取错误")
    else:

        print(response.url)
        print("爬取成功!")
        return  response.content

第二步:
分析页面信息
审查元素,表头是我们不需要的信息。所以tbody是我们真正需要的信息,里面的tr标签里面的td标签是我们需要的信息
在这里插入图片描述在这里插入图片描述

def getUnivList(html):
    """解析页面内容, 需要获取: 学校排名, 学校名称, 省份, 总分"""
    soup = BeautifulSoup(html, 'lxml')
    # 该页面只有一个表格, 也只有一个tbody标签;
    # 获取tbosy里面的所有子标签, 返回的是生成器: soup.find('tbody').children
    # 获取tbosy里面的所有子标签, 返回的是列表:   soup.find('tbody').contents
    uList = []
    for tr in soup.find('tbody').children:
        # 有可能没有内容, 获取的tr标签不存在, 判断是否为标签对象?
        if isinstance(tr, bs4.element.Tag):
            tds = tr('td')
       		print(tds)

打印出来是列表形式,需要先把列表中的元素提取出来再string,我们需要里面的文本信息
在这里插入图片描述

def getUnivList(html):
    """解析页面内容, 需要获取: 学校排名, 学校名称, 省份, 总分"""
    soup = BeautifulSoup(html, 'lxml')
    # 该页面只有一个表格, 也只有一个tbody标签;
    # 获取tbosy里面的所有子标签, 返回的是生成器: soup.find('tbody').children
    # 获取tbosy里面的所有子标签, 返回的是列表:   soup.find('tbody').contents
    uList = []
    for tr in soup.find('tbody').children:
        # 有可能没有内容, 获取的tr标签不存在, 判断是否为标签对象?
        if isinstance(tr, bs4.element.Tag):
            # print(tr.td)
            # 返回tr里面的所有td标签;
            tds = tr('td')
            # print(tds)
            # 将每个学校信息以元组的方式存储到列表变量uList中;元组是为了方便我们存储为csv格式
            uList.append((tds[0].string, tds[1].string, tds[2].string, tds[3].string))
    return  uList

打印print(tds[0].string, tds[1].string, tds[2].string, tds[3].string)出来(为了理解):
在这里插入图片描述
第三步把打印单独封装,并在屏幕上显示:

def printUnivList(uList):
    """
    打印学校信息
    :param uList:
    :return:
    """
    # format的使用: {0} 变量的位置, 冒号后面执行属性信息: ^10占10个字节位置, 并且居中
    print("{0:^10} {1:^10} {2:^10} {3:^10}".format("排名", '学校名称', "省份/城市", "总分"))
    for item in uList:
        # print(item)
        print("{0:^10} {1:^10} {2:^10} {3:^10}".format(item[0], item[1], item[2], item[3]))

测试:
在这里插入图片描述

第四步把结果保存在csv格式里:

def saveUnivData(uList, year):
    import csv
    with open('doc/ranking-%s.csv' %(year), 'w') as f:
        writer = csv.writer(f)
        # 将列表的每条数据依次写入csv文件, 并以逗号分隔
        writer.writerows(uList)
        print("写入完成....")

列举个csv的例子:

import csv

with open('doc/example.csv', 'w') as f:
    writer = csv.writer(f)
    # 将列表的每条数据依次写入csv文件, 并以逗号分隔,逗号的位置在写入文件时相当于换行
    writer.writerows([['1', '2', '3'], ['4', '5', '6']])

with open('doc/example.csv', 'r') as f:
    reader = csv.reader(f)
    for row in reader:
        print(row)

输出:

['1', '2', '3']
['4', '5', '6']

文件中存储:在这里插入图片描述
第五步:主函数希望输入2016到2018就能一次全获取到,我们观察url地址
2016:http://www.zuihaodaxue.com/zuihaodaxuepaiming2016.html
2017:http://www.zuihaodaxue.com/zuihaodaxuepaiming2017.html
2018:http://www.zuihaodaxue.com/zuihaodaxuepaiming2018.html
发现只由年份变了,所以我们写一个for循环

if __name__ == '__main__':
    start_year = int(input("开始爬取的年份:"))
    end_year =  int(input("结束爬取的年份:"))
    for year in range(start_year, end_year+1):
    # year = 2017
        url = "http://www.zuihaodaxue.com/zuihaodaxuepaiming%s.html" %(year)
        content = get_content(url)
        uList = getUnivList(content)
        # printUnivList(uList)
        saveUnivData(uList, year)
        print("%s年信息爬取成功......" %(year))

输出:

在这里插入图片描述在这里插入图片描述
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/weixin_43067754/article/details/87786384