百度百科全站爬取教程

百度百科全站 目前有16,330,473个词条

这里介绍一个基于scrapy的分布式百度百科爬虫,能够全量爬取百度百科的词条

github地址

特性

  • 百科类网站全站词条抓取,包括百度百科、互动百科、wiki中英文站点;
  • 支持断点续爬;
  • 支持缓存百科词条页面;
  • 可分布式部署;
  • 经过单机测试,在i9-9900K 内存64G 100M网络带宽下,百度百科词条一天可以抓取大概50w条(默认系统配置下);互动百科测试结果
    类似,wiki网站抓取数据量较少,受到配置的代理延迟影响较大;

如何使用

  • 安装依赖 pip install -r requirement.txt
  • 初始数据库 python initialize_db.py
  • 初始化爬虫种子 python initialize_tasks_seeds.py
  • 开始运行爬虫 python start_spiders.py

分布式使用

  • 单机,多次运行 python start_spiders.py
  • 多机,配置好redis 和mysql 服务器,多次运行python start_spiders.py

常见问题

  • 理论上来说,只要你给的种子够全面,你就可以尽可能的抓取到更多的词条信息
  • 种子链接 提取码:iagw 来源于 百度百科 2012 dump

已知BUG

  • 多进程爬取下,Redis 的内存会溢出(64G),目前改为 1.5T内存尚未遇到BUG,运行三个小时,已使用内存高达38G

redis监控

欢迎star!

猜你喜欢

转载自blog.csdn.net/u013741019/article/details/102882731