数据解析——xpath

目录

一、安装

二、xpath基本语法

 2.1、依赖

 2.2、xpath语法

2.3、实例

 2.3.1、html文件

 2.3.2、python

三、获取百度网站首页的“百度一下”

 3.1、步骤

 3.2、注意


一、安装

 1)安装xpath插件

 2)在chrome中安装xpath插件

 3)将xpath拖入即可

 4)验证xpath

        1》点击 ctrl + shift + x 出现小黑框,即代表安装成功

        2》再次点击 ctrl + shift + x 即可关闭小黑框

二、xpath基本语法

 2.1、依赖

  1)安装 lxml 库

  2)导入 lxml.etree

  3)解析 html 文件

# xpath解析
(1)本地文件                                           etree.parse
(2)服务器响应的数据 response.read().decode('utf8')      etree.HTML()

  4)获取特定组件内容

tree.xpath('xpath路径')

 2.2、xpath语法

  1、路径查询

        //:查找所有子孙节点,不考虑层级关系

        /:找直接子节点

  2、谓词查询

        //div[@id]

        //div[@id="maincontent"]

  3、属性查询

        //@class

  4、模糊查询

        //div[contains(@id, "he")]

        //div[starts-with(@id, "he")]

  5、内容查询

        //div/h1/text()

  6、逻辑运算

        //div[@id="head" and @class="s_down"]

        //title | //price

2.3、实例

 2.3.1、html文件

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8"/>
    <title>Title</title>
</head>
<body>
    <ul>
        <li id="l1" class="c1">北京</li>
        <li id="l2">上海</li>
        <li>深圳</li>
        <li>武汉</li>
    </ul>

    <ul>
        <li>大连</li>
        <li>锦州</li>
        <li>沈阳</li>
    </ul>
</body>
</html>

 2.3.2、python

from lxml import etree

# xpath解析
# (1)本地文件                                           etree.parse
# (2)服务器响应的数据 response.read().decode('utf8')      etree.HTML()

# xpath解析本地文件
tree = etree.parse("17_xpath基本使用.html")

# tree.xpath('xpath路径')

# 查找ul下面的li
li_list= tree.xpath('//body//ul/li')

# 查找所有有id属性的li标签
# text()获取标签中的内容
li_list1 = tree.xpath('//ul/li[@id]/text()')

# 查找id为l1的li标签,注意“引号”的问题
li_list2 = tree.xpath('//ul/li[@id="l1"]/text()')

# 查找到id为l1的li标签的class的属性值
li1 = tree.xpath('//ul/li[@id="l1"]/@class')

# 查询id中包含l的li标签
li2 = tree.xpath('//ul/li[contains(@id,"l")]/text()')

# 查询id的值以l开头的li标签
li3 = tree.xpath('//ul/li[starts-with(@id,"l")]/text()')

# 查询id为l1和class为c1的标签
li4 = tree.xpath('//ul/li[@id="l1" and @class="c1"]/text()')

# 查询id为l1或id为l2的标签(只能通过标签获取而不是属性)
li = tree.xpath('//ul/li[@id="l1"]/text() | //ul/li[@id="l2"]/text()')

# 判断列表的长度
print(li)
print(len(li))

三、获取百度网站首页的“百度一下”

 3.1、步骤

 1)根据网页源码,编写xpath路径

 2)编写代码

from lxml import etree
import urllib.request

# (1)获取网页源码
# (2)解析服务器响应的数据 response.read().decode('utf8')      etree.HTML()
# (3)打印

url = "https://www.baidu.com/"

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'
}

# 请求对象的定制
request = urllib.request.Request(url=url, headers=headers)

# 模拟浏览器访问服务器
response = urllib.request.urlopen(request)

# 获取网页源码
content = response.read().decode("utf8")

# 解析网页源码,获取想要的数据
tree = etree.HTML(content)

# 获取想要的数据 xpath的返回值是一个列表类型的数据
result = tree.xpath('//input[@id="su"]/@value')[0]

print(result)

 3.2、注意

        爬取到的html可能和浏览器解析的html不一样,故存在浏览器xpath_helper可以获取到,而代码获取不到的情况,需要查看爬取到的源码:

猜你喜欢

转载自blog.csdn.net/weixin_44302046/article/details/126715462