selenium模块的基本使用

一、selenium库与requests库的区别

- selenium请求库:
        - 本质上是一个自动化测试模块; ---> 主要用于测试 UI界面

        - selenium除了可以做自动化测试,还可以做爬虫;


        *******
        - selenium可以帮我们打开(驱动)浏览器,然后往目标网站发送请求,获取响应数据;
            - 本质上是通过python代码取代人为 操作浏览器;

        *******
        - selenium对比requests请求库:
            - selenium:
                - 优点:
                    - 不需要分详细分析目标网站的请求流程;
                    - 可以帮我们做 绕过 登录滑动认证;
                    - 可以通过python代码执行js

                - 缺点:
                    - 爬虫效率低;

            - requests:
                - 优点:
                    - 爬虫效率高;  模拟浏览器,可能只需要获取一个user-agent即可, 无需等待css\js\视频等文件的加载;

                - 缺点:
                    - 每一个网站都需要,详细分析请求流程,分析的时间非常耗时;

二、介绍

selenium最初是一个测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题

selenium本质是通过驱动浏览器,完全模拟浏览器的操作,比如跳转、输入、点击、下拉等,来拿到网页渲染之后的结果,可支持多种浏览器

from selenium import webdriver
browser=webdriver.Chrome()
browser=webdriver.Firefox()
browser=webdriver.PhantomJS()  #无窗口浏览器
browser=webdriver.Safari()
browser=webdriver.Edge() 

三、安装

selenium+chromedriver使用

 1 #安装:selenium+chromedriver
 2 pip3 install selenium
 3 下载chromdriver.exe放到python安装路径的scripts目录中即可,
 4 国内镜像网站地址:http://npm.taobao.org/mirrors/chromedriver
 5 最新的版本去官网找:https://sites.google.com/a/chromium.org/chromedriver/downloads
注意:     若selenium驱动无法使用,可能是浏览器驱动版本与浏览器版本不相符;
         selenium3默认支持的webdriver是Firfox,而Firefox需要安装geckodriver
         下载链接:https://github.com/mozilla/geckodriver/releases
from selenium import webdriver
from selenium import webdriver
driver=webdriver.Chrome() # 弹出浏览器
driver.get('https://www.baidu.com')
# # webdriver.Chrome('谷歌浏览器的驱动路径')  # 指向谷歌浏览器驱动
# # webdriver.Firefox('火狐浏览器的驱动路径')  # 指向火狐浏览器驱动

四、基本使用

使用步骤:

from selenium import webdriver
import time
# # 1.通过谷歌浏览器驱动,打开谷歌浏览器
# # 打开浏览器方式一
driver = webdriver.Chrome(executable_path=r'C:\Users\15614\Desktop\chromedriver.exe')
#
# # 打开浏览器方式二  推荐
driver = webdriver.Chrome()

print(driver)

# 2.往目标网站发送请求
driver.get('https://www.baidu.com/')

# 3.获取数据
# 根据id查找input输入框
input_tag = driver.find_element_by_id('kw')
print(input_tag)
# 4.在输入框输入内容
input_tag.send_keys('python')

time.sleep(10)

# 关闭浏览器,回收资源
driver.close()

自动在百度输入内容,并搜索:

from selenium import webdriver
from selenium.webdriver.common.keys import Keys  # 键盘按键操作
import time

# 实现百度自动输入内容并搜索
driver = webdriver.Chrome()
# print(driver)
try:
    # 2.往目标网站发送请求
    driver.get('https://www.baidu.com/')

    time.sleep(0.1)

    # 等待元素加载的两种方式:
    # 一 隐式等待,等待所有标签元素加载
    driver.implicitly_wait(10)

    # 3.获取数据
    # 根据id查找百度的input输入框
    input_tag = driver.find_element_by_id('kw')
    # print(input_tag)

    # 往百度输入输入python
    input_tag.send_keys('python')

    # 点击百度一下的按钮
    submit_button = driver.find_element_by_id('su')
    submit_button.click()
    # input_tag.send_keys(Keys.ENTER)  # 按回车


    # 二 显式等待, 等待某一个元素加载10s  (了解)
    # WebDriverWait('驱动对象', '等待的时间')
    # wait = WebDriverWait(driver, 10)
    # wait.until()

    time.sleep(5)

except Exception as e:
    print(e)
finally:
    driver.close()  # 关闭浏览器

五、选择器

1.基本使用

所有方法:

    '''
    *********
    - find_element: 找第一个
    - find_elements: 找所有

    driver.find_element_by_id()    id
    driver.find_element_by_class_name()  class属性必须唯一
    driver.find_element_by_css_selector()   #id   .class
    driver.find_element_by_link_text()  文本
    driver.find_element_by_name()   name属性必须唯一 
    driver.find_element_by_partial_link_text()  局部文本
    driver.find_element_by_tag_name()  # 了解

    driver.find_element_by_xpath()   xpath解析语法
    '''
# 强调:
    from selenium.webdriver.common.by import By #按照什么方式查找,By.ID,By.CSS_SELECTOR
    # 1、上述均可以改写成find_element(By.ID,'kw')的形式
    # 2、find_elements_by_xxx的形式是查找到多个元素,结果为列表

以模拟百度登录为示例:

from selenium import webdriver
import time
driver = webdriver.Chrome()

try:
    # 1. 发送请求
    driver.get('https://www.baidu.com')

    # 2.隐式等待
    driver.implicitly_wait(10)

    # 3.查找标签
    # 根据登录文本查找登录a标签,并点击登录
    # bd_login = driver.find_element_by_link_text('登录')
    bd_login = driver.find_element_by_partial_link_text('登') # 局部文本
    # 点击
    bd_login.click()

    # 4.查找用户名与密码登录按钮并点击
    # 根据id查找该按钮标签
    user_pwd_button = driver.find_element_by_id('TANGRAM__PSP_10__footerULoginBtn')
    user_pwd_button.click()

    # 5.根据name属性选择器查找用户名输入框并输入  (name属性必须唯一)
    user_input = driver.find_element_by_name('userName')
    user_input.send_keys('tomjoy')

    time.sleep(1)
    # 6.根据class属性选择器查找密码输入框并输入  (class属性必须唯一)
    pwd_input = driver.find_element_by_class_name('pass-text-input-password')
    pwd_input.send_keys('2020')

    # 7.根据id查找确认登录按钮,并点击
    summit_login = driver.find_element_by_id('TANGRAM__PSP_10__submit')
    summit_login.click()

    time.sleep(5)
finally:
    driver.close()

2.xpath

#官网链接:http://selenium-python.readthedocs.io/locating-elements.html
from selenium import webdriver
from selenium.webdriver import ActionChains
from selenium.webdriver.common.by import By #按照什么方式查找,By.ID,By.CSS_SELECTOR
from selenium.webdriver.common.keys import Keys #键盘按键操作
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait #等待页面加载某些元素
import time

driver=webdriver.PhantomJS()
driver.get('https://doc.scrapy.org/en/latest/_static/selectors-sample1.html')
# wait=WebDriverWait(driver,3)
driver.implicitly_wait(3) #使用隐式等待

try:
    # find_element_by_xpath
    #//与/
    # driver.find_element_by_xpath('//body/a')  # 开头的//代表从整篇文档中寻找,body之后的/代表body的儿子,这一行找不到就会报错了

    driver.find_element_by_xpath('//body//a')  # 开头的//代表从整篇文档中寻找,body之后的//代表body的子子孙孙
    driver.find_element_by_css_selector('body a')

    #取第n个
    res1=driver.find_elements_by_xpath('//body//a[1]') #取第一个a标签
    print(res1[0].text)

    #按照属性查找,下述三者查找效果一样
    res1=driver.find_element_by_xpath('//a[5]')
    res2=driver.find_element_by_xpath('//a[@href="image5.html"]')
    res3=driver.find_element_by_xpath('//a[contains(@href,"image5")]') #模糊查找
    print('==>', res1.text)
    print('==>',res2.text)
    print('==>',res3.text)


    #其他
    res1=driver.find_element_by_xpath('/html/body/div/a')
    print(res1.text)

    res2=driver.find_element_by_xpath('//a[img/@src="image3_thumb.jpg"]') #找到子标签img的src属性为image3_thumb.jpg的a标签
    print(res2.tag_name,res2.text)

    res3 = driver.find_element_by_xpath("//input[@name='continue'][@type='button']") #查看属性name为continue且属性type为button的input标签
    res4 = driver.find_element_by_xpath("//*[@name='continue'][@type='button']") #查看属性name为continue且属性type为button的所有标签
    
    
    time.sleep(5)

finally:
    driver.close()

例子:

doc='''
<html>
 <head>
  <base href='http://example.com/' />
  <title>Example website</title>
 </head>
 <body>
  <div id='images'>
   <a href='image1.html'>Name: My image 1 <br /><img src='image1_thumb.jpg' /></a>
   <a href='image2.html'>Name: My image 2 <br /><img src='image2_thumb.jpg' /></a>
   <a href='image3.html'>Name: My image 3 <br /><img src='image3_thumb.jpg' /></a>
   <a href='image4.html'>Name: My image 4 <br /><img src='image4_thumb.jpg' /></a>
   <a href='image5.html' class='li li-item' name='items'>Name: My image 5 <br /><img src='image5_thumb.jpg' /></a>
   <a href='image6.html' name='items'><span><h5>test</h5></span>Name: My image 6 <br /><img src='image6_thumb.jpg' /></a>
  </div>
 </body>
</html>
'''
from lxml import etree

html=etree.HTML(doc)
# html=etree.parse('search.html',etree.HTMLParser())
# 1 所有节点
# a=html.xpath('//*')
# 2 指定节点(结果为列表)
# a=html.xpath('//head')
# 3 子节点,子孙节点
# a=html.xpath('//div/a')
# a=html.xpath('//body/a') #无数据
# a=html.xpath('//body//a')
# 4 父节点
# a=html.xpath('//body//a[@href="image1.html"]/..')
# a=html.xpath('//body//a[1]/..')
# 也可以这样
# a=html.xpath('//body//a[1]/parent::*')
# 5 属性匹配
# a=html.xpath('//body//a[@href="image1.html"]')

# 6 文本获取
# a=html.xpath('//body//a[@href="image1.html"]/text()')

# 7 属性获取
# a=html.xpath('//body//a/@href')
# # 注意从1 开始取(不是从0)
# a=html.xpath('//body//a[1]/@href')
# 8 属性多值匹配
#  a 标签有多个class类,直接匹配就不可以了,需要用contains
# a=html.xpath('//body//a[@class="li"]')
# a=html.xpath('//body//a[contains(@class,"li")]')
# a=html.xpath('//body//a[contains(@class,"li")]/text()')
# 9 多属性匹配
# a=html.xpath('//body//a[contains(@class,"li") or @name="items"]')
# a=html.xpath('//body//a[contains(@class,"li") and @name="items"]/text()')
# # a=html.xpath('//body//a[contains(@class,"li")]/text()')
# 10 按序选择
# a=html.xpath('//a[2]/text()')
# a=html.xpath('//a[2]/@href')
# 取最后一个
# a=html.xpath('//a[last()]/@href')
# 位置小于3的
# a=html.xpath('//a[position()<3]/@href')
# 倒数第二个
# a=html.xpath('//a[last()-2]/@href')
# 11 节点轴选择
# ancestor:祖先节点
# 使用了* 获取所有祖先节点
# a=html.xpath('//a/ancestor::*')
# # 获取祖先节点中的div
# a=html.xpath('//a/ancestor::div')
# attribute:属性值
# a=html.xpath('//a[1]/attribute::*')
# child:直接子节点
# a=html.xpath('//a[1]/child::*')
# descendant:所有子孙节点
# a=html.xpath('//a[6]/descendant::*')
# following:当前节点之后所有节点
# a=html.xpath('//a[1]/following::*')
# a=html.xpath('//a[1]/following::*[1]/@href')
# following-sibling:当前节点之后同级节点
# a=html.xpath('//a[1]/following-sibling::*')
# a=html.xpath('//a[1]/following-sibling::a')
# a=html.xpath('//a[1]/following-sibling::*[2]')
# a=html.xpath('//a[1]/following-sibling::*[2]/@href')

# print(a)

六、等待元素被加载

1、selenium只是模拟浏览器的行为,而浏览器解析页面是需要时间的(执行css,js),一些元素可能需要过一段时间才能加载出来,为了保证能查找到元素,必须等待

2、等待的方式分两种:
隐式等待:在browser.get('xxx')前就设置,针对所有元素有效
显式等待:在browser.get('xxx')之后设置,只针对某个元素有效

1.隐式等待

from selenium import webdriver
from selenium.webdriver import ActionChains
from selenium.webdriver.common.by import By #按照什么方式查找,By.ID,By.CSS_SELECTOR
from selenium.webdriver.common.keys import Keys #键盘按键操作
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait #等待页面加载某些元素

browser=webdriver.Chrome()

#隐式等待:在查找所有元素时,如果尚未被加载,则等10秒
browser.implicitly_wait(10)

browser.get('https://www.baidu.com')

input_tag=browser.find_element_by_id('kw')
input_tag.send_keys('靓女')
input_tag.send_keys(Keys.ENTER)

contents=browser.find_element_by_id('content_left') #没有等待环节而直接查找,找不到则会报错
print(contents)

browser.close()

2.显式等待

from selenium import webdriver
from selenium.webdriver import ActionChains
from selenium.webdriver.common.by import By #按照什么方式查找,By.ID,By.CSS_SELECTOR
from selenium.webdriver.common.keys import Keys #键盘按键操作
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait #等待页面加载某些元素

browser=webdriver.Chrome()
browser.get('https://www.baidu.com')

input_tag=browser.find_element_by_id('kw')
input_tag.send_keys('靓女')
input_tag.send_keys(Keys.ENTER)


#显式等待:显式地等待某个元素被加载
wait=WebDriverWait(browser,10)
wait.until(EC.presence_of_element_located((By.ID,'content_left')))

contents=browser.find_element(By.CSS_SELECTOR,'#content_left')
print(contents)

browser.close()

七、元素交互操作

1.点击与清空

点击: 标签对象.click
  清空: 标签对象.clear
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
from selenium.webdriver import ActionChains
import time

driver = webdriver.Chrome()

try:
    driver.get('https://www.baidu.com/')
    driver.implicitly_wait(10)

    input_tag = driver.find_element_by_id('kw')
    input_tag.send_keys('美女')

    input_tag.send_keys(Keys.ENTER)  # 回车

    time.sleep(2)

    # 再次找到input输入框,让鼠标悬浮在里面,清空输入框内容,重新输入即可
    input_tag = driver.find_element_by_id('kw')
    input_tag.clear()
    input_tag.send_keys('帅哥')
    input_tag.send_keys(Keys.ENTER)
    input_tag.clear()

    time.sleep(20)
finally:
    driver.close()

2.动作链(Action Chains)


from selenium import webdriver
from selenium.webdriver.common.keys import Keys
from selenium.webdriver import ActionChains
import time
'''
- Action Chains: 动作链
    - 调用动作链类可以得到一个对象,对象中有方法可以帮你做  拖拽图片等操作
    
'''
driver = webdriver.Chrome()

try:

    driver.get('http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable')
    driver.implicitly_wait(3)  # 使用隐式等待

    # iframe标签可以继续嵌套html文本
    # 切换到  id为iframeResult 的 iframe标签页面中
    driver.switch_to.frame('iframeResult')

    # 需要拖动图片块的 源位置
    source = driver.find_element_by_id('draggable')
    print(source.location)

    # 根据id为droppable 属性查找目标块 标签对象 目标位置
    target = driver.find_element_by_id('droppable')
    print(target.location)

    # 方式一:基于同一个动作链串行执行
    # actions = ActionChains(driver)
    #
    # # 制作动作链操作
    # # drag_and_drop(source, target): 从source标签位置开始拖拽 到target标签的位置放下
    # actions.drag_and_drop(source, target)
    #
    # # 调用perform() 才执行动作链
    # actions.perform()

    # 方式二: 模拟人的行为

    # 滑块的距离
    distance = target.location.get('x') - source.location.get('x')

    # 注意: 只要是 ActionChains(driver)调用的方法,都需要调用 perform方法来执行
    # 先点击鼠标,按住拖拽的标签
    ActionChains(driver).click_and_hold(source).perform()

    number = 0
    while number < distance:

        # 循环滑动,每次滑动3
        # 每次移动3格
        ActionChains(driver).move_by_offset(xoffset=20, yoffset=0).perform()
        number += 20

    # 移动完毕后,必须释放
    ActionChains(driver).release().perform()

    time.sleep(100)

finally:
    driver.close()

3.自己写js代码

from selenium import webdriver

try:
    browser=webdriver.Chrome()
    browser.get('https://www.baidu.com')
    browser.execute_script('alert("hello world")') #打印警告
finally:
    browser.close()

# 在交互动作比较难实现的时候可以自己写JS(万能方法)

4.frame标签的切换

frame标签是html文本里可以再嵌套html文本的标签

frame相当于一个单独的网页,在父frame里是无法直接查看到子frame的元素的,必须switch_to_frame切到该frame下,才能进一步查找

from selenium import webdriver

try:
    browser=webdriver.Chrome()
    browser.get('http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable')

    browser.switch_to.frame('iframeResult') #切换到id为iframeResult的frame

    tag1=browser.find_element_by_id('droppable')
    print(tag1)

    # tag2=browser.find_element_by_id('textareaCode') #报错,在子frame里无法查看到父frame的元素
    browser.switch_to.parent_frame() #切回父frame,就可以查找到了
    tag2=browser.find_element_by_id('textareaCode')
    print(tag2)

finally:
    browser.close()

八、其他方法

1.模拟浏览器前进后退

import time
from selenium import webdriver

browser=webdriver.Chrome()
browser.get('https://www.baidu.com')
browser.get('https://www.taobao.com')
browser.get('http://www.sina.com.cn/')

browser.back()  # 后退一页
time.sleep(10)
browser.forward() # 前进一页
browser.close()

2.cookies

from selenium import webdriver

browser=webdriver.Chrome()
browser.get('https://www.zhihu.com/explore')
print(browser.get_cookies())
browser.add_cookie({'name':'xxx','value':'yyy'})  # 设置cookies ,必须设置name,value键
print(browser.get_cookies())

browser.delete_all_cookies()   # 删除cookies
print(browser.get_cookies())

3.选项卡管理

#选项卡管理:切换选项卡,有js的方式windows.open,有windows快捷键:ctrl+t等,最通用的就是js的方式
import time
from selenium import webdriver

browser=webdriver.Chrome()
browser.get('https://www.baidu.com')
browser.execute_script('window.open()')

print(browser.window_handles) #获取所有的选项卡
browser.switch_to_window(browser.window_handles[1])
browser.get('https://www.taobao.com')
time.sleep(10)
browser.switch_to_window(browser.window_handles[0])
browser.get('https://www.sina.com.cn')
browser.close()

4.异常处理

from selenium import webdriver
from selenium.common.exceptions import TimeoutException,NoSuchElementException,NoSuchFrameException

try:
    browser=webdriver.Chrome()
    browser.get('http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable')
    browser.switch_to.frame('iframssseResult')

except TimeoutException as e:
    print(e)
except NoSuchFrameException as e:
    print(e)
finally:
    browser.close()

九、实战案例

1.爬取京东商品信息

from selenium import webdriver
from selenium.webdriver.common.keys import Keys  # 可以模拟键盘操作
import time


def get_goods(driver, f):

    try:
        # 模拟滚轮操作
        number = 1000
        for line in range(10):
            js_code = """
                    window.scrollTo(0, %s)
            """% number
            # execute_script: 该方法可以执行js代码
            driver.execute_script(js_code)
            time.sleep(0.5)
            number += 1000

        # js_code = """
        #         window.scrollTo(0, 5500)
        # """
        # driver.execute_script(js_code)

        # 执行完js代码后。等待2秒加载数据
        # time.sleep(2)


        # find_elements ---> [element_obj1, element_obj2, ...]
        goods_list = driver.find_elements_by_class_name('gl-item')
        # print(goods_list)
        print(len(goods_list))


        for goods in goods_list:
            # 商品名称
            goods_name = goods.find_element_by_css_selector('.p-name em').text

            # 商品详情url
            # 第一种方法
            # img_tag = goods.find_element_by_class_name('p-img')
            #         # a_tag = img_tag.find_element_by_tag_name('a')
            #         # # 获取a标签中的属性
            #         # href = a_tag.get_attribute('href')
            #         # print(href)
            # 第二种方法
            a_tag = goods.find_element_by_css_selector('.p-img a')
            # get_attribute:获取标签元素的属性
            goods_url = a_tag.get_attribute('href')


            # 获取商品图片
            img_tag = goods.find_element_by_css_selector('.p-img a img')

            goods_img = img_tag.get_attribute('src')
            print(goods_img)

            # 商品价格
            goods_price = goods.find_element_by_css_selector('.p-price i').text

            # 商品评价人数
            goods_commit = goods.find_element_by_css_selector('.p-commit a').text

            goods_data = f"""
                    商品名称: {goods_name}
                    商品详情: {goods_url}
                    商品图片: {goods_img}
                    商品价格: {goods_price}
                    评论人数: {goods_commit}
                    ---------------------------------------------------------------------
            """
            # print(goods_data)

            # 写入文件中
            f.write(goods_data)

        # 爬取完当前页,点击下一页继续爬
        next_tag = driver.find_element_by_class_name('pn-next')
        next_tag.click()

        # 递归执行爬取当前页所有商品数据
        get_goods(driver, f)
    except Exception as e:
        print(e)
        pass

if __name__ == '__main__':

    f = open('jd_goods.txt', 'a', encoding='utf-8')

    driver = webdriver.Chrome()

    try:
        # 1.发送请求
        driver.get('https://www.jd.com/')

        # 2.隐身等待
        driver.implicitly_wait(10)

        # 3.根据id找到商品输入框
        input_tag = driver.find_element_by_id('key')
        input_tag.send_keys('AJ1')
        input_tag.send_keys(
            Keys.ENTER    # 调用键盘回车键
        )

        get_goods(driver, f)

        time.sleep(1000)
    finally:
        driver.close()

注意: 使用selenium爬取商品信息,会导致图片加载不过来就爬取,导致得到的图片是空的,所以使用request

猜你喜欢

转载自www.cnblogs.com/guapitomjoy/p/12149806.html