每天几分钟跟小猫学前端之node系列:用node实现最简单的爬虫

先来段求分小视频:

https://www.iesdouyin.com/share/video/6550631947750608142/?region=CN&mid=6550632036246555405&titleType=title&timestamp=1525407578&utm_campaign=client_share&app=aweme&utm_medium=ios&iid=30176260384&utm_source=qq&tt_from=mobile_qq&utm_source=mobile_qq&utm_medium=aweme_ios&utm_campaign=client_share&uid=92735989673&did=30176260384

本文的教学视频地址:

https://v.qq.com/x/page/b0643tut4ze.html

前言
 
本喵最近工作中需要使用node,并也想晋升为全栈工程师,所以开始了node学习之旅,在学习过程中,
我会总结一些实用的例子,做成博文和视频教程,以实例形式来理解体会node的用法,所以跟小猫一起由浅及深的学node吧!
近期都会是些基础文章,主要用来了解node的各种功能,非常适合对node有所了解但没有开发node基础的前端工程师,
等基础掌握后,后续会进行进阶的探索和总结哟
 
 
本文将以抓取百度搜索结果中关键词的相关搜索为例子,教会大家以nodejs制作最简单的爬虫:
 
 
将使用的node模块及属性介绍:
 
request:
 
     用于发送页面请求,抓取页面代码
     GET请求
     
cheerio:
        
   cheerio 是一个 jQuery Core 的子集,其实现了 jQuery Core 中浏览器无关的 DOM 操作 API:
   本例子中将使用 load方法,以下是一个简单的示例:
     
 
express:
 
     基于Node.js 平台,快速、开放、极简的 web 开发框架,这里主要用来做简单的路由功能,就不做详细介绍了,主要是用了get,具体可以参考官网。
 
 
具体实现:
 
1.首先,我们要使用express搭建简单的node服务
 
 
 1 const request = require('request');
 2 const app = express();
 3 
 4 app.get('/:key',function(req,res){
 5     console.log(req.params.key)
 6     
 7 })
 8 
 9 app.listen(3000,()=>{
10     console.log("service start on port 3000");
11 })
 
使用命令行运行node demo.js,并在浏览器中访问 localhost:3000/key 运行结果为
 
 
 
2. 使用request实现页面抓取功能
 
 1 const express = require('express');
 2 const request = require('request');
 3 const app = express();
 4 
 5 app.get('/:key',function(req,res){
 6     console.log(req.params.key)
 7     let spider = new Spider();
 8     spider.fetch("http://www.baidu.com/s?wd="+req.params.key,(err,body)=>{
 9         if(!err){
10             res.send(body.toString());
11         }
12     })
13 })
14 
15 app.listen(3000,()=>{
16     console.log("service start on port 3000");
17 })
18 
19 class Spider{
20     fetch(url,callback){
21         request({url: url, encoding : null}, (error, response, body)=>{
22             if (!error && response.statusCode === 200){
23                 callback(null ,body);
24             }else{
25                 callback(error ,'<body></body>');
26             }
27         });
28     }
29 }
使用命令行运行node demo.js,并在浏览器中访问 localhost:3000/key 运行结果为
 
 
3.使用cheerio将页面代码解析为jquery格式,并用jQuery语法找到抓取的内容位置,这样这个爬虫就实现了!
 
 1 const express = require('express');
 2 const request = require('request');
 3 const app = express();
 4 const cheerio = require('cheerio');
 5 
 6 app.get('/:key',function(req,res){
 7     let spider = new Spider();
 8     
 9     spider.fetch("http://www.baidu.com/s?wd="+req.params.key,(err,$)=>{
10         spider.fetchCallback(err,$,res)
11     })
12     console.log("http://www.baidu.com/s?wd="+req.params.key)
13 })
14 
15 app.listen(3000,()=>{
16     console.log("service start on port 3000");
17 })
18 
19 class Spider{
20     fetch(url,callback){
21         request({url: url, encoding : null}, (error, response, body)=>{
22             if (!error && response.statusCode === 200){
23                 callback(null ,cheerio.load('<body>'+body+'</body>'));
24             }else{
25                 callback(error ,cheerio.load('<body></body>'));
26             }
27         });
28     }
29     fetchCallback(err,$,res){
30         if(!err){
31             let keyList = [];
32             let table = $('body').find("#rs table").html();
33             res.send(table);
34         }
35 
36     }
37 }
 
使用命令行运行node demo.js,并在浏览器中访问 localhost:3000/index 运行结果为
tips:
有些网站不是utf-8编码模式,这时可以使用iconv-lite来解除gb2312的乱码问题
当然各个网站都有反爬虫功能,可以通过 研究怎么模拟一个正常用户的请来规避部分问题(百度的中文搜索也会被屏蔽)
本文只是个入门,后序有机会将和大家详细讨论进阶版
 
谢谢大家的关注
 
 

猜你喜欢

转载自www.cnblogs.com/maorongmaomao/p/8994342.html