中国の大学ランキング方向性クローラーは、Songtian先生のPythonクローラーコースで遭遇した問題と解決策を指します

まず、コースにプログラムを添付します。機能しません

2016年のURLを今年のURLに変更します:http://www.shanghairanking.cn/rankings/bcur/2020

コードは次のように表示されます。

import requests
from bs4 import BeautifulSoup
import bs4

def getHTMLText(url):
    try:
        r = requests.get(url, timeout=30)
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        return r.text
    except:
        return ""

def fillUnivList(ulist, html):
    soup = BeautifulSoup(html, "html.parser")
    for tr in soup.find('tbody').children:
        if isinstance(tr, bs4.element.Tag):
            tds = tr('td')
            ulist.append([tds[0].string, tds[1].string, tds[3].string])

def printUnivList(ulist, num):
    print("{:^10}\t{:^6}\t{:^10}".format("排名","学校名称","总分"))
    for i in range(num):
        u=ulist[i]
        print("{:^10}\t{:^6}\t{:^10}".format(u[0],u[1],u[2]))
    
def main():
    uinfo = []
    url = 'http://www.shanghairanking.cn/rankings/bcur/2020'
    html = getHTMLText(url)
    fillUnivList(uinfo, html)
    printUnivList(uinfo, 20) # 20 univs
main()

出力結果:

报错
AttributeError: 'NoneType'オブジェクトに属性 'children'がありません

問題の原因を見つける

最初にウェブサイトのコンテンツを出力します。コードは次のとおりです。

from bs4 import BeautifulSoup
import requests
r = requests.get('https://www.shanghairanking.cn/rankings/bcur/2020')
r.encoding = r.apparent_encoding
demo = r.text
soup = BeautifulSoup(demo,'html.parser')
print(soup.prettify())

出力の一部:

出力結果の一部を傍受する
出力結果では、tbodyタグにはすべての大学の情報が含まれ、trタグには大学のすべての情報が含まれ、tdタグには単一の大学の各情報が含まれていることがわかります。しかし、Songtianのコースウェアとの違いは、大学名を含むラベルがtdの下のラベルであるということです。
したがって、問題は大学名の取得の一部である必要があります。
印刷ulistの内容を印刷します。

コードは次のように表示されます。

ステートメント:

ulist.append([tds[0].string, tds[1].string, tds[4].string])

に:

ulist.append([tds[0].string, tds[1], tds[4].string])
def fillUnivList(ulist, html):
    soup = BeautifulSoup(html, "html.parser")
    for tr in soup.find('tbody').children:
        if isinstance(tr, bs4.element.Tag):
            tds = tr('td')
            ulist.append([tds[0].string, tds[1], tds[4].string])
    print(ulist)

出力結果:

ここに写真の説明を挿入
必要なコンテンツが印刷されていることがわかりますが、不要なものがあります。
必要なコンテンツがタグの下にあることがわかります。.find()メソッドを使用して、必要なコンテンツを取得できます。

コードは次のように表示されます。

for a in tr.find('a'):
	print('a')

出力は次のとおりです。

ここに写真の説明を挿入
これはまさに私たちが望むものであり、tdsに割り当てます。

コードは次のように表示されます。

def fillUnivList(ulist, html):
    soup = BeautifulSoup(html, "html.parser")
    for tr in soup.find('tbody').children:
        if isinstance(tr, bs4.element.Tag):
            tds = tr('td')
#            ulist.append([tds[0].string, tds[1], tds[4].string])
            for a in tr.find('a'):
#                print(a)
                ulist.append([tds[0].string, a, tds[4].string])

出力は次のとおりです。

ここに写真の説明を挿入
内容はまさに私たちが望むものですが、レイアウトは十分にきれいではありません。その理由は、ulistのコンテンツに改行が含まれているためです。
ulistのnewline文字を.replace()メソッドに置き換えれば、newlineの問題は発生しません。

コードは次のように表示されます。

def printUnivList(ulist, num):
    print("{:^10}\t{:^6}\t{:^10}".format("排名","学校名称","总分"))
    for i in range(num):
        u=ulist[i]
        print("{:^10}\t{:^6}\t{:^10}".format(u[0].replace('\n',''), u[1].replace('\n',''), u[2].replace('\n','')))

出力結果:

ここに写真の説明を挿入
これはまさに私たちが望むタイプ設定とコンテンツです。print()によって出力されるフォーマットを変更して、よりきれいなタイプ設定を取得します。

プログラムの全体的なコードは次のとおりです。

import requests
from bs4 import BeautifulSoup
import bs4

def getHTMLText(url):
    try:
        r = requests.get(url, timeout=30)
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        return r.text
    except:
        return ""

def fillUnivList(ulist, html):
    soup = BeautifulSoup(html, "html.parser")
    for tr in soup.find('tbody').children:
        if isinstance(tr, bs4.element.Tag):
            tds = tr('td')
#            ulist.append([tds[0].string, tds[1], tds[4].string])
            for a in tr.find('a'):
#                print(a)
                ulist.append([tds[0].string, a, tds[4].string])
    
def printUnivList(ulist, num):
    print("     {:^10}\t{:^6}\t      {:^10}".format("排名","学校名称","总分"))
    for i in range(num):
        u=ulist[i]
        print("{:^10}\t{:^6}\t{:^10}".format(u[0].replace('\n',''), u[1].replace('\n',''), u[2].replace('\n','')))
    
def main():
    uinfo = []
    url = 'http://www.shanghairanking.cn/rankings/bcur/2020'
    html = getHTMLText(url)
    fillUnivList(uinfo, html)
    printUnivList(uinfo, 20) # 20 univs
main()

出力は次のとおりです。

ここに写真の説明を挿入

おすすめ

転載: blog.csdn.net/qq_51005828/article/details/109405304