用bs4-Beautifulsoup爬取三国演义的小说章节内容

今天使用Beautifulsoup爬取了http://www.shicimingju.com/book/sanguoyanyi.html网页上的三国演义小说内容。

-bs4数据解析原理:
   -1.实例化一个BeautifulSoup,并且将页面源码数据加载到该对象中
   -2.通过调用BeautifulSoup对象中相关的属性或者方法进行标签定位和数据提取
-环境安装
   -pip install bs4
   -pip install lxml(是一个解析器,bs4和xpath都会用到)
-如何实例化BeautifulSoup对象:
   from bs4 import BeautifulSoup
   -对象实例化
       -1.将本地的html文档中的数据加载到该对象中
                  #将本地的html文档中的数据加载到该对象中
                  fp = open('./text.html','r',encoding='utf-8')
                  soup = BeautifulSoup(fp,'lxml')
       -2.将互联网上获取的页面源代码加载到该对象中
              page_text = response.text
              soup = Beatifulsoup(page_text,'lxml')
   -提供的用于数据解析的方法和属性:
       -soup.tagName:返回的是文档中第一次出现的tagName(div、a等)对应的标签
       -soup.find():
              -find('tagName'):等同于soup.tagName
              -属性定位:
                    -soup.find('div',class_(写的话是标签就下划线)='song')
       -soup.find_all('tagName'):返回符合要求的所有标签(是一个列表)
       -select:
              -soup.select('某种选择器(id、class、标签。。。选择器)+标签'),返回的是一个列表
              -层级选择器
                   -soup.select('.tang > ul > li >a ')[0]   :  >表示一个层级,层级选择器
                   -soup.select('.tang > ul a ')   :空格表示多个层级,ul和a之间的li标签用空格表示
       -获取标签之间的文本数据
              -当定位到标签后,如soup.a.text/string/get_text获取对应文本数据
              soup.select('.tang > ul a ')[0].string
              -text与get_text可以获取某一个标签中所有文本内容
              -string只可以获取该标签下直系的文本数据
       -获取标签中属性值:
              -soup.a['herf']

还有个重点:标签名一定要写对!!!!!

下面话不多说上代码。

import requests
from bs4 import BeautifulSoup
if __name__=='__main__':
    headers = {
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3947.100 Safari/537.36'
    }
    url = 'http://www.shicimingju.com/book/sanguoyanyi.html'
    page_text = requests.get(url=url,headers=headers).text
    print(page_text)
    #在首页中解析出章节的标题和详情页的url
    #1.实例化对象,需要将页面源码数据加载到该对象中
    soup = BeautifulSoup(page_text,'lxml')
    #解析章节标题和详情页url
    li_list = soup.select('.book-mulu >ul >li')
    fp = open('./sanguo.text','w',encoding='utf-8')
    for li in li_list:
        title = li.a.string
        detail_url = 'http://www.shicimingju.com'+li.a['href']
        #对详情页发起请求,解析出章节内容
        detail_page_text = requests.get(url=detail_url,headers=headers).text
        #解析出详情页相关的章节内容
        detail_soup = BeautifulSoup(detail_page_text,'lxml')
        div_tag = detail_soup.find('div',class_='chapter_content')
        content = div_tag.text
        fp.write(title+':'+content+'\n')
        print(title,'爬取成功!!!')

结果上图。

猜你喜欢

转载自blog.csdn.net/qwerty1372431588/article/details/106086361