20200203_selenium爬取百度新闻

这个单子还是没有做成功,本来觉得要成功了,可是,在爬取到第15页就爬不了,很难受,如果有大佬看到这个单子希望能帮我解决下

from lxml import etree
import requests
import pandas as pd
recommed_url='https://www.baidu.com/s?rtt=1&bsst=1&cl=2&tn=news&rsv_dl=ns_pc&word=%E7%BD%91%E8%B4%B7'
res=requests.get(url=recommed_url).content.decode('utf-8')
ele=etree.HTML(res)
# elements=ele.xpath("//*[@id='blogger_list']//a/@href")
# 导入Selenium的webdriver类
from selenium import webdriver
from time import sleep
# 设置url变量保存要访问的网站
url = "https://www.baidu.com/s?rtt=1&bsst=1&cl=2&tn=news&rsv_dl=ns_pc&word=%E7%BD%91%E8%B4%B7"
# 将webdriver类实例化,将浏览器设置为谷歌
# 参数executable_path是我们chromedriver.exe的路径
path = r"chromedriver.exe"
browser = webdriver.Chrome(executable_path=path)
# 打开浏览器并访问目标网站
i=0
while True:
    browser.get(url)
    elements=browser.find_elements_by_xpath('//*[@id="content_left"]/div[2]/div/h3/a')
    for t in elements:
        print(t.text)
    browser.find_element_by_xpath('//*[@id="page"]/a[10]').click()
    url=browser.current_url
    i=1+i
    print('第{}页'.format(i))
    sleep(2)
发布了76 篇原创文章 · 获赞 23 · 访问量 1万+

猜你喜欢

转载自blog.csdn.net/qq_39309652/article/details/104329893