利用python第三方selenium库爬取QS大学排名

众所周知QS全球大学排名是全球最具权威性,和影响力的大学排名榜之一。今天我就来分享一下用Python爬取QS大学排名的过程。

首先看一下要爬取的QS大学排名的网址:

url = "https://www.topuniversities.com/university-rankings/world-university-rankings/2018"

如果用requests库爬取的话,获取的源代码是不完整的。由此我们也可以知道这个要爬取的网页是动态网页,因此可以选用selenium库进行爬取。使用selenium库的话,我们要提前安装好selenium库,并安装好浏览器驱动,且将其添加至系统环境变量中。

第一步:获取源代码

driver = webdriver.Chrome()
driver.get(url)
time.sleep(3)
driver.execute_script("window.scrollTo(0,document.body.scrollHeight);")
# 定位‘All’元素
option = driver.find_element_by_xpath('//*[@id="qs-rankings_length"]/label/select/option[5]')
# 模拟鼠标点击,点击 ‘All’
option.click()
time.sleep(3)
driver.execute_script("window.scrollTo(0,document.body.scrollHeight);")
# Waitting for html5 page loading
# get page source code
time.sleep(5)
html_src = driver.page_source

从上面的获取源代码的函数中,我们可以看到一个option.click(),这是一个模拟鼠标点击的动作。目的是让大学排名全部显示出来,这样获取源代码就会简单多。下面看一下当时的网页:

为了让大学排名全部显现出来,就需要点击 “All”。为了让大家更加明白上面的代码,我在Python console中分别执行上面代码中的几段重要的代码,然后再分别查看一下现象。

from selenium import webdriver
driver = webdriver.Chrome()
driver.get('https://www.topuniversities.com/university-rankings/world-university-rankings/2018')

此时,我们会看到:


可以看到每页的结果还是 25。接着执行:

span = driver.find_element_by_xpath('//*[@id="qs-rankings_length"]/label/span[2]/span[1]/span')
span.click()

这一步我用selenium模拟了鼠标,点击了数字 25 所在的区域。于是就出现了:


然后定位到 “All”所在的位置,点击一下即可。

# 定位'All'元素
option = driver.find_element_by_xpath('//*[@id="qs-rankings_length"]/label/select/option[5]')
# 点击
option.click()

这里用driver.find_element_by_xpath()这个方法来查找元素位置,它的具体操作方法是:

光标置于网页元素位置处----鼠标右键,检查元素----点击选中这行----右键----copy----copy XPath


执行后所有的大学排名便会显现出来:


# 获取网页源代码
html_src = driver.page_source

第二步:解析网页

这里可以定义一个解析函数parser_html_page(html), html是第一步中获取到的网页源代码。

def parser_html_page(html):
    soup = BeautifulSoup(html, 'html5lib')
    p_length = eval(soup.find('span', 'cp').string)
    # get universities names
    pattern2 = '<a class="title" href=".*?">(.*?)</a>'
    nui_ls = re.findall(pattern2, html)
    # get the country names
    pattern3 = 'data-original-title="(.*?)"'
    country_ls = re.findall(pattern3, html)
    # return the three lists
    # p_length 是参与排名的大学数量
     return nui_ls, country_ls, p_length

第三步:将数据写入到本地

定义一个写入函数write_file(), 写入模式为 ‘a’。

def write_file(ls1, ls2, ls3, length):
    # path 是文件存储路径
    with open(path, 'a') as f:
        for i in range(length):
            f.write(str(ls1[i]) + '    ' + str(ls2[i]) + '    ' + str(ls3[i]) + '\n')
        f.close()

最后定义一个主函数将三个函数的功能合并起来:

def main():
    url = "https://www.topuniversities.com/university-rankings/world-university-rankings/2018"
    html, ls1 = get_html_page(url)
    ls2, ls3, length = parser_html_page(html)
    write_file(ls1, ls2, ls3, length)

调用主函数:

if __name__ == "__main__":
    main()

最终得到的QS大学排名结果:


这样爬取QS大学排名的Python爬虫就完成了。

完整的python爬虫代码




猜你喜欢

转载自blog.csdn.net/zhouzying/article/details/80151028