Python爬虫基础教程(三)

九、多线程爬虫

9.1利用多线程爬虫爬取糗事百科的资源:

    

    

十、爬虫代码总结:

       要实现一个完整的爬虫,无外乎4个核心步骤:

       1.首先我们要确定要爬取的目标url:

                a.如果目标url地址有明显的规律,则可直接构建一个url_list来遍历读取数据

                b.如果目标url地址不明显,那就先获取第一页的url地址,通过代码提取下一页的url地址

       2.获取到url地址后,我们就可以向这个url发送请求,获取响应:

                a.添加随机的User-Agent,反反爬虫

                b.添加随机的代理ip,反反爬虫

                c.在对方判断出我们是爬虫之后,应该添加更多的headers字段,包括cookie

                d.cookie的处理可以使用session来解决

                e.准备一堆能用的cookie,组成cookie池:

                          - 如果不登录

                                    - 准备刚开始能够成功请求对方网站的cookie,即接收对方网站设置在response的cookie

                                    - 下一次请求的时候,使用之前的列表中的cookie来请求

                          - 如果登录

                                    - 准备多个账号

                                    - 使用程序获取每个账号的cookie

                                    - 之后请求登录之后才能访问的网站随机的选择cookie

        3. 提取数据

                a.确定数据的位置

                    - 如果数据在当前的url地址中:

                            1.提取的是列表页的数据

                                - 直接请求列表页的url地址,不用进入详情页

                            2.提取的是详情页的数据

                                - 1. 确定url

                                - 2. 发送请求

                                - 3. 提取数据

                                - 4. 返回

                    - 如果数据不在当前的url地址中:

                            1.在其他的响应中,寻找数据的位置:

                                - 从network中从上往下找

                                - 使用chrome中的过滤条件,选择出了js,css,img之外的按钮

                                - 使用chrome的search all file,搜索数字和英文

                 

                b.数据的提取

                        - xpath,从html中提取整块的数据,先分组,之后每一组再提取

                        - re,提取max_time,price,html中的json字符串

                        - json

        4.保存

              - 保存在本地,text,json,csv

              - 保存在数据库

十一、动态HTML处理:

        1.Selenium和PhantomJS介绍:

                  Selenium是一个Web的自动化测试工具,最初是为网站自动化测试而开发的,

                  Selenium 可以直接运行在浏览器上,它支持所有主流的浏览器(包括PhantomJS这些无界面的浏览器),

                  可以接收指令,让浏览器自动加载页面,获取需要的数据,甚至页面截屏

                  PhantomJS 是一个基于Webkit的“无界面”(headless)浏览器,它会把网站加载到内存并执行页面上的 JavaScript

        2.Selenium和PhantomJS的使用方法:

                加载网页:

                    * from selenium import webdriver

                    * driver = webdriver.PhantomJS(“c:…/pantomjs.exe”)

                    * driver.get("http://www.baidu.com/")

                    * driver.save_screenshot("长城.png")                //截屏

                定位和操作:

                    * driver.find_element_by_id(“kw”).send_keys(“长城”)

                    * driver.find_element_by_id("su").click()

                查看请求信息:

                    * driver.page_source

                    * driver.get_cookies()

                    * driver.current_url

                退出

                    * driver.close() #退出当前页面

                    * driver.quit()  #退出浏览器

                页面元素定位方法:

                    * find_element_by_id (返回一个)

                    * find_elements_by_xpath (返回一个列表,获取属性和文本需要使用get_attribute() 和.text)

                    * find_elements_by_link_text    (返回全部文本)

                    * find_elements_by_partial_link_text  (返回某个文本)

                    * find_elements_by_tag_name

                    * find_elements_by_class_name

                    * find_elements_by_css_selector

                页面等待:

                    * 如果网站采用了动态html技术,那么页面上的部分元素出现时间便不能确定,

                       这个时候就可以设置一个等待时间,强制要求在时间内出现,否则报错

                    * 强制等待:time.sleep(10)

    

        3.Selenium的使用注意点:

                 1.如果页面中含有iframe、frame,需要先调用driver.switch_to.frame的方法切换到frame中才能定位元素

                 2.selenium中find_element_by_class_name只能接收一个class对应的一个值,不能传入多个

                 3.使用selenium登录,遇到验证码

                      - url不变,验证码不变

                            - 1.请求验证码的地址,获得相应,识别

                      - url不变,验证码会变

                            - 1.selenium请求登录页面,同时拿到验证码的地址

                            - 2.获取登录页面中driver中的cookie,交给requests模块发送验证码的请求,识别

                            - 3.输入验证码,点击登录

        4.Selenium的使用总结:

                 a. 应用场景:

                        1. 动态html页面请求

                        2. 登录获取cookies

                 b. 如何使用

                        1. 导包并且实例化driver

                        2. 发送请求

                        3. 定位获取数据

                        4. 保存

                        5. 退出driver

                c. Cookies相关方法:

                        1.get_cookies()

                d. 页面等待

                        1.强制等待

        5.Tesseract认识:

                a.定义:Tesseract是一个将图像翻译成文字的OCR库

                b.安装:pip install pytesseract

                c.使用方法:

                            import pytesseract

                            from PIL import Image

                            image = Image.open(jpg)

                            pytesseract.image_to_string(image)

十二、斗鱼爬虫实例:

  

猜你喜欢

转载自blog.csdn.net/qq_40652101/article/details/90666458
今日推荐