Заметки об исследовании поискового робота Python (6) ————Анализ BeautifulSoup (bs4)

Оглавление

1. Базовое введение bs4

(1) Аббревиатура от BeautifulSoup

(2) Что такое красивый суп?

(3) Преимущества и недостатки

2.bs4 установка и создание

(1) установка         

(2) импорт         

(3) Создание объектов

3. Позиционирование узла

(1) Найдите узел по имени метки

(2) функция

        ① найти (возвращает объект)

        ②find_all (возвращает список)

        ③выберите (в соответствии с селектором, чтобы получить объект узла) [рекомендуется]

               <1>элемент

                <2>.класс

                <3>#id

                <4> Селектор атрибутов

                <5> переключатель уровня

4. Информация об узле

(1) Получить содержимое узла: подходит для структуры вложенных тегов в теги

(2) Свойства узла

(3) Получить атрибуты узла

5. Примеры

(1) Анализ локальных файлов для создания объектов

 (2) Сканировать изображения и данные продуктов веб-сайта Starbucks — анализировать объект генерации файла, полученный от сервера. 


1. Базовое введение bs4

(1) Аббревиатура от BeautifulSoup

                бс4

(2) Что такое красивый суп?

                 BeautifulSoup, как и lxml, представляет собой парсер html, основной функцией которого является разбор и извлечение данных.

(3) Преимущества и недостатки

                Недостатки: эффективность не такая высокая, как у lxml

                Достоинства: удобный дизайн интерфейса, простота в использовании

2.bs4 установка и создание

(1) установка         

                пип установить bs4

(2) импорт         

                из bs4 импортировать BeautifulSoup

(3) Создание объектов

                Объект генерации файла для ответа сервера 

                        суп = BeautifulSoup(response.read().decode(), 'lxml')

                локальный объект генерации файлов

                        суп = BeautifulSoup(open('1.html'), 'lxml')

                        Примечание. Формат кодировки открытого файла по умолчанию — gbk, поэтому вам необходимо указать формат кодировки для открытия.

3. Позиционирование узла

(1) Найдите узел по имени метки

        суп.а [Примечание] Можно найти только первый а

                суп.а.имя

                суп.а.аттрс

(2) функция

        ① найти (возвращает объект)

                find('a'): найти только первый тег

                найти('а', title='имя')

                найти('а', class_='имя')

        ②find_all (возвращает список)

                 find_all('a') Найти все

                find_all(['a', 'span']) возвращает все a и span, чтобы добавить квадратные скобки

                find_all('a', limit=2) найти только первые два a

        ③выберите (в соответствии с селектором, чтобы получить объект узла) [рекомендуется]
               <1>элемент

                        например: р

                <2>.класс

                        например:.имя

                <3>#id

                        например:#имя

                <4> Селектор атрибутов

                        [атрибут]

                                например:ли = суп.выбрать('ли[класс]')

                        [атрибут=значение]

                                 например:ли = суп.выбрать('ли[класс="hengheng1"]')

                <5> переключатель уровня

                        элемент элемент  (пробел)

                                делитель р

                        элемент>элемент

                                делитель > р

                        элемент, элемент

                                дел,р

                                        например:суп = суп.выбрать('а,диапазон')

4. Информация об узле

(1) Получить содержимое узла: подходит для структуры вложенных тегов в теги

        obj.string

        obj.get_text() [рекомендуется]

(2) Свойства узла

        tag.name получить имя тега

                например:тег = найти('ли)

                        печать (тег.имя)

                tag.attrs возвращает значения атрибутов в виде словаря

(3) Получить атрибуты узла

        obj.attrs.get('title') [обычно используется]

        obj.get('название')

        объект ['название']

5. Примеры

(1) Анализ локальных файлов для создания объектов

HTML-файл

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>Title</title>
</head>
<body>

    <div>
        <ul>
            <li id="l1">张三</li>
            <li id="l2">李四</li>
            <li>王五</li>
            <a href="" id="" class="a1">尚硅谷</a>
            <span>嘿嘿嘿</span>
        </ul>
    </div>


    <a href="" title="a2">百度</a>

    <div id="d1">
        <span>
            哈哈哈
        </span>
    </div>

    <p id="p1" class="p1">呵呵呵</p>
</body>
</html>

код питона

from bs4 import BeautifulSoup


# 通过解析本地文件 来将bs4的基础语法进行讲解
# 默认打开的文件的编码格式是gbk 所以在打开文件的时候需要指定编码
soup = BeautifulSoup(open('075_尚硅谷_爬虫_解析_bs4的基本使用.html',encoding='utf-8'),'lxml')

# 根据标签名查找节点
# 找到的是第一个符合条件的数据
print(soup.a)
# 获取标签的属性和属性值
print(soup.a.attrs)

# bs4的一些函数
# (1)find
# 返回的是第一个符合条件的数据
print(soup.find('a'))

# 根据title的值来找到对应的标签对象
print(soup.find('a',title="a2"))

# 根据class的值来找到对应的标签对象  注意的是class需要添加下划线,为了与class关键字区分
print(soup.find('a',class_="a1"))


# (2)find_all  返回的是一个列表 并且返回了所有的a标签
print(soup.find_all('a'))

# 如果想获取的是多个标签的数据 那么需要在find_all的参数中添加的是列表的数据
print(soup.find_all(['a','span']))

# limit的作用是查找前几个数据
print(soup.find_all('li',limit=2))


# (3)select(推荐)
# select方法返回的是一个列表  并且会返回多个数据
print(soup.select('a'))

# 可以通过.代表class  我们把这种操作叫做类选择器
print(soup.select('.a1'))

print(soup.select('#l1'))


# 属性选择器---通过属性来寻找对应的标签
# 查找到li标签中有id的标签
print(soup.select('li[id]'))

# 查找到li标签中id为l2的标签
print(soup.select('li[id="l2"]'))


# 层级选择器
#  后代选择器
# 找到的是div下面的li
print(soup.select('div li'))

# 子代选择器
#  某标签的第一级子标签
# 注意:很多的计算机编程语言中 如果不加空格不会输出内容  但是在bs4中 不会报错 会显示内容
print(soup.select('div > ul > li'))


# 找到a标签和li标签的所有的对象
print(soup.select('a,li'))

# 节点信息
#    获取节点内容
# select方法返回的是一个列表  并且会返回多个数据,所以要取列表第一个数据,即【0】才能获得数据
obj = soup.select('#d1')[0]
# 如果标签对象中 只有内容 那么string和get_text()都可以使用
# 如果标签对象中 除了内容还有标签 那么string就获取不到数据 而get_text()是可以获取数据
# 我们一般情况下  推荐使用get_text()
print(obj.string)
print(obj.get_text())

# 节点的属性
obj = soup.select('#p1')[0]
# name是标签的名字
print(obj.name)
# 将属性值左右一个字典返回
print(obj.attrs)

# 获取节点的属性
obj = soup.select('#p1')[0]

print(obj.attrs.get('class'))  # attrs返回属性的字典,字典的get方法
print(obj.get('class'))
print(obj['class'])

 (2) Сканировать изображения и данные продуктов веб-сайта Starbucks — анализировать объект генерации файла, полученный от сервера. 


import urllib.request

url = 'https://www.starbucks.com.cn/menu/'

response = urllib.request.urlopen(url)

content = response.read().decode('utf-8')


from bs4 import BeautifulSoup

soup = BeautifulSoup(content,'lxml')

# xpath方法
# //ul[@class="grid padded-3 product"]//strong/text()

#bs4
name_list = soup.select('ul[class="grid padded-3 product"] strong')

for name in name_list:
    print(name.get_text())

Supongo que te gusta

Origin blog.csdn.net/laosao_66/article/details/131775482
Recomendado
Clasificación