爬取糗事百科的页面

import requests


class QiuShiBaiKe():
    def __init__(self):
        """
        初始化参数
        """
        self.url_bash = 'https://www.qiushibaike.com/imgrank/{}'
        self.headers = {"User-Agent":"ADC"}

    def url_lists(self):
        """
        生成下载列表
        :return:
        """
        return [self.url_bash.format(i) for i in range(1,11)]

    def dowmload_url(self,url_str):
        """
        使用requests get下载指定页面  并返回页面结果
        :param url_str:   下载链接  就是run函数里面的lits
        :return: 下载结果
        """
        result = requests.get(url_str,headers = self.headers)
        return result.content

    def save_result(self,result,num):
        """
        保存下载内容
        :param result: 爬去的页面
        :param num: 页码
        :return: 返回名字叫result.html的文件
        """
        filte_url = 'imgrank--第{}页.html'.format(num)

        with open(filte_url,'wb') as f:
            f.write(result)

    def run(self):
        """
        下载主线程  实现主要逻辑
        :return:
        """
        url_lits = self.url_lists()
        for lits in url_lits:
            result_str = self.dowmload_url(lits)
            num = url_lits.index(lits) + 1
            self.save_result(result_str,num)

if __name__ =='__main__':
    qiushi = QiuShiBaiKe()
    qiushi.run()

第一次接触爬虫   请多多支持   .....

猜你喜欢

转载自blog.csdn.net/weixin_42785547/article/details/85068500