NodeJS制作爬虫全过程:
1、建立项目craelr-demo
建立一个Express项目,然后将app.js的文件内容全部删除,因为暂时不需要在Web端展示内容。当然我们也可以在空文件夹下直接 npm install express来使用需要的Express功能。
2、目标网站分析
如图,这是CNode首页一部分div标签,就是通过这一系列的id、class来定位需要的信息。
3、使用superagent获取源数据
superagent就是ajax API来使用的Http库,它的使用方法与jQuery差不多,通过它发起get请求,在回调函数中输出结果。
代码如下:
var express = require('express')
var url = require('url')//解析操作url
var superagent = require('superagent')//这三个外部依赖不要忘记npm install
var cheerio = require('cheerio')
var eventproxy = require('eventproxy')
var targetUrl = 'https://cnodejs.org/'
superagent.get(targetUrl)
.end(function (err, res) {
console.log(res)
})
4、使用cheerio解析
cheerio充当服务器端的jQuery功能,先使用它的.load()来载入HTML,再通过CSS selector来筛选元素。
代码如下:
var $ = cheerio.load(res.text)
//通过CSS selector来筛选数据
$('#topic_list .topic_title').each(function (idx, element) {
console.log(element)
})
5、使用eventproxy来并发抓取每个主题的内容
eventproxy就是使用事件(并行)方法来解决这个问题。当所有的抓取完成后,eventproxy接收到事件消息自动帮你调用处理函数。
代码如下:
//第一步:得到一个 eventproxy 的实例
var ep = new eventproxy()
//第二步:定义监听事件的回调函数。
//after方法为重复监听
//params: eventname(String) 事件名,times(Number) 监听次数, callback 回调函数
ep.after('topic_html', topicUrls.length, function(topics){
// topics 是个数组,包含了 40 次 ep.emit('topic_html', pair) 中的那 40 个 pair
//.map
topics = topics.map(function(topicPair){
//use cheerio
var topicUrl = topicPair[0]
var topicHtml = topicPair[1]
var $ = cheerio.load(topicHtml)
return ({
title: $('.topic_full_title').text().trim(),
href: topicUrl,
comment1: $('.reply_content').eq(0).text().trim()
})
})
//outcome
console.log('outcome:')
console.log(topics)
})
//第三步:确定放出事件消息的
topicUrls.forEach(function (topicUrl) {
superagent.get(topicUrl)
.end(function (err, res) {
console.log('fetch ' + topicUrl + ' successful')
ep.emit('topic_html', [topicUrl, res.text])
})
})
6、爬取结果分析