実際のクローラ: 5 つのケースとコード分析、ネットワーク データ リソースへの簡単なアクセス!

今日の情報化時代において、インターネット上には膨大で貴重なデータ資源が存在しており、クローラー技術はこれらのデータを効率的に取得するための鋭い剣となっています。この記事では、5 つの実際的なクローラ ケースを検討し、各ケースのコード実装を詳しく分析し、クローラ テクノロジを簡単に制御してより貴重なネットワーク データ リソースを取得できるようにする関連リソースへのリンクを提供します。

 

ケース 1: ニュースの見出しをクロールして分析する

まず、ニュースの見出しを取得する例を見てみましょう。ニュース Web サイトから最新のヘッドラインをクロールし、キーワード分析を実行したいとします。Python を使用してクローラー コードを作成し、requestsライブラリを使用して Web ページのコンテンツを取得し、BeautifulSoupライブラリを組み合わせて HTML を解析し、最後にニュースの見出しを取得して分析します。

 
 
import requests
from bs4 import BeautifulSoup

def scrape_news_headlines(url):
    response = requests.get(url)
    if response.status_code == 200:
        soup = BeautifulSoup(response.text, 'html.parser')
        headlines = soup.find_all('h2', class_='headline')
        for headline in headlines:
            print(headline.text)
    else:
        print("新闻获取失败")

if __name__ == "__main__":
    news_url = "https://www.example-news-site.com"  # 替换为目标新闻网站地址
    scrape_news_headlines(news_url)

コード分​​析:

  • requestsこのライブラリを使用してHTTP リクエストを送信し、Web ページのコンテンツを取得します。
  • BeautifulSoupHTML を解析して、ニュースの見出しを含む要素を抽出します。
  • 最後に取得したニュース見出しを出力します。

関連リソース:

ケース 2: 映画情報クローラー

さらに詳しく、映画情報のクローリングの例を見てみましょう。映画 Web サイトから映画の基本情報をクロールし、この情報をデータベースに保存するとします。Python でコードを作成して、映画 Web サイトの HTML コンテンツをスクレイピングし、sqlite3ライブラリを使用してデータベースを作成し、情報を保存します。

 
 
import requests
import sqlite3
from bs4 import BeautifulSoup

def scrape_movie_info(url, db_filename):
    response = requests.get(url)
    if response.status_code == 200:
        soup = BeautifulSoup(response.text, 'html.parser')
        movies = soup.find_all('div', class_='movie')
        
        conn = sqlite3.connect(db_filename)
        cursor = conn.cursor()
        cursor.execute('''CREATE TABLE IF NOT EXISTS movies
                          (title TEXT, year INTEGER, rating REAL)''')
        
        for movie in movies:
            title = movie.find('h3').text
            year = int(movie.find('span', class_='year').text)
            rating = float(movie.find('span', class_='rating').text)
            
            cursor.execute("INSERT INTO movies VALUES (?, ?, ?)", (title, year, rating))
        
        conn.commit()
        conn.close()
        print("电影信息已保存至数据库:", db_filename)
    else:
        print("电影信息获取失败")

if __name__ == "__main__":
    movie_url = "https://www.example-movie-site.com"  # 替换为目标电影网站地址
    database_filename = "movie_info.db"
    scrape_movie_info(movie_url, database_filename)

コード分​​析:

  • ライブラリを使用して、requests映画 Web サイトの HTML コンテンツを取得します。
  • HTMLを解析してBeautifulSoup動画情報を抽出します。
  • ライブラリを使用してsqlite3データベースを作成し、情報を保存します。

関連リソース:

ケース 3: ソーシャル メディア データの収集

ソーシャルメディアが溢れる今日の時代では、ソーシャルメディアデータの収集と分析が特に重要になっています。Twitter 上の特定のトピックに関連するツイートをクロールする例を見てみましょう。Twitter APIの認可とデータ取得にはライブラリを利用しtweepy、ツイート情報を簡単にクロールできるようにします。

 
 
import tweepy

def scrape_tweets(api_key, api_secret, access_token, access_secret, keyword):
    auth = tweepy.OAuthHandler(api_key, api_secret)
    auth.set_access_token(access_token, access_secret)
    api = tweepy.API(auth)
    
    tweets = api.search(q=keyword, count=10)
    
    for tweet in tweets:
        print(tweet.user.screen_name, ":", tweet.text)

if __name__ == "__main__":
    consumer_key = "your_consumer_key"
    consumer_secret = "your_consumer_secret"
    access_token = "your_access_token"
    access_secret = "your_access_secret"
    search_keyword = "#example"  # 替换为目标关键词
    scrape_tweets(consumer_key, consumer_secret, access_token, access_secret, search_keyword)

コード分​​析:

  • Twitter API認証とデータ取得にはライブラリを使用しますtweepy
  • キーワードを指定して関連するツイートを検索して出力します。

関連リソース:

ケース 4: IP アドレス属性のクエリ

ネットワークにおいて、IP アドレスの属性情報を知ることは、ネットワークのセキュリティと測位にとって非常に重要です。IP アドレスの帰属をクローリングして Web サイトの情報をクエリするケースを見てみましょう。ライブラリを利用してrequestsクエリWebサイトにアクセスし、IPアドレスの属性情報を取得します。

 
 
import requests

def query_ip_location(ip_address):
    url = f"https://www.example-ip-lookup-site.com/?ip={ip_address}"  # 替换为目标查询网站地址
    response = requests.get(url)
    if response.status_code == 200:
        location = response.text
        print("IP地址归属地:", location)
    else:
        print("查询失败")

if __name__ == "__main__":
    target_ip = "8.8.8.8"  # 替换为目标IP地址
    query_ip_location(target_ip)

コード分​​析:

  • このライブラリを使用して、requestsIP アドレス属性クエリ Web サイトにアクセスし、クエリ結果を取得します。

関連リソース:

ケース 5: Web コンテンツの監視

Web ページのコンテンツは常に更新されるため、Web ページの変更を監視することが重要なタスクになります。Web コンテンツ監視の例を見てみましょう。特定の Web ページ上のコンテンツの変更を監視し、変更があった場合に通知を送信するコードを作成します。

 
 
import requests
import time
from bs4 import BeautifulSoup

def monitor_web_content(url):
    prev_content = ""
    while True:
        response = requests.get(url)
        if response.status_code == 200:
            content = response.text
            if content != prev_content:
                # 发送通知,如邮件或消息
                print("网页内容发生变化!")
                prev_content = content
        else:
            print("网页访问失败")
        time.sleep(600)  # 每隔10分钟监控一次

if __name__ == "__main__":
    target_url = "https://www.example-site.com"  # 替换为目标网页地址
    monitor_web_content(target_url)

コード分​​析:

  • ライブラリを使用してrequestsWeb ページのコンテンツを取得し、前のコンテンツと比較します。
  • 内容が変更された場合は、通知操作を実行します (この例では、通知を印刷するだけです)。

関連リソース:

結論:

これら 5 つの実際のクローラー ケースを通じて、私たちはさまざまな分野でのクローラー テクノロジーの応用について深く理解しています。ニュース ヘッドラインのクローリングと分析から、ソーシャル メディア データの収集、IP アドレス帰属のクエリ、Web コンテンツの監視に至るまで、ネットワーク データ リソースの取得と処理におけるクローラー テクノロジーの強力なパワーを私たちは目の当たりにしてきました。これらのケースのコード実装と分析を学ぶことで、私たちはクローラ アプリケーションのより多くの領域を探索するための強固な基盤を築きました。

おすすめ

転載: blog.csdn.net/qq_72290695/article/details/132102498