Web Scraper 性能测试 (-_-)

刚在研究 Python 爬虫的时候,看到了个小白工具,叫 Web Scraper,于是来测试下好不好用。

Web Scraper 是什么?

它是一个谷歌浏览器的插件,
用于批量抓去网页信息,
主要特点为,小白操作,快速上手

安装方法

去 Google WebStore 里面搜,Web Scraper,然后点击安装就行了!

使用方法

自己上网搜吧,太多了!

测试结果

  1. 首先,它适用的范围是,网页的可见范围;就是页面上能看到的,都可以抓取。

    • 所以,工作范围有限;例如,当你有一个 Excel,里面有 50 只股票的名字,要找到股价,这时这个工具就做不了了。因为股票代码,在Excel里,不在网页上
    • 这种情况,需要用 Python 自己写个小爬虫,来完成!
  2. 然后,测试了抓取的精准度

    1. 发现,抓取的时候,插件不会把网页往下拉。

      • 在测试抓去一个页面的,70多个视频标题,的时候,不知为何只能抓取出20多个
      • 可能是因为,这个页面每次久显示20个,然后当手动拉到最底端的时候,才会再 Load 例外20个。而,这个 Scraper,好像不会去拉动页面,只是打开就抓取,所以页面其实只 Load 了20个视频。
      • 这是插件的局限性么?
    2. 再者,若是一个页面有很多信息要抓取时,会很不准确。

      • 如果一个页面,只有一个 Selector,只抓取一个 Element,会相对准确
      • 例如,当一个人网页有大量新闻的时候,需要抓取所有的,标题,作者,时间;
      • 这样需要在一个页面上,同时建立3个 Selector,来抓取3列数据。测试结果,抓去数据严重不全,基本没用。
      • 而当一个页面,只有一个 Selector,只抓取一个 Element 的时候,就会比较精确。

最后总结

测试结果差不多就这么多,遇到了我这样的用户,这软件基本被扒了层皮。
觉得,这个插件更适合,小白,和相对简单的抓取任务。

猜你喜欢

转载自www.cnblogs.com/bitssea/p/12547328.html