如何用最简单的Python爬虫采集整个网站

Python014

如何用最简单的Python爬虫采集整个网站,第1张

采集网站数据并不难,但是需要爬虫有足够的深度。我们创建一个爬虫,递归地遍历每个网站,只收集那些网站页面上的数据。一般的比较费时间的网站采集方法从顶级页面开始(一般是网站主页),然后搜索页面上的所有链接,形成列表,再去采集到的这些链接页面,继续采集每个页面的链接形成新的列表,重复执行。

这让我想到了一个应用场景,在实时网络征信系统中,通过即时网络爬虫从多个信用数据源获取数据。并且将数据即时注入到信用评估系统中,形成一个集成化的数据流。

可以通过下面的代码生成一个提取器将标准的HTML DOM对象输出为结构化内容。

图片来自集搜客网络爬虫官网,侵删。

有些网页需要你登录之后才可以访问,你需要提供账户和密码。

只要在发送http请求时,带上含有正常登陆的cookie就可以了。

1.首先我们要先了解cookie的工作原理。

Cookie是由服务器端生成,发送给User-Agent(一般是浏览器),浏览器会将Cookie的key/value保存到某个目录下的文本文件内,下次请求同一网站时就发送该Cookie给服务器(前提是浏览器设置为启用cookie)。Cookie名称和值可以由服务器端开发自己定义,对于JSP而言也可以直接写入jsessionid,这样服务器可以知道该用户是否合法用户以及是否需要重新登录等。

2.之后我们要获取到用户正常登录的cookie.

python提供了cookieJar的库,只要把cookieJar的实例作为参数传到urllib2的一个opener里面。

然后访问一次登录的页面,cookie就已经保存下来了。之后通过这个实例访问所有的页面都带有正常登陆的cookie了。

以人人网为例子。

#encoding=utf-8

import urllib2

import urllib

import cookielib

def renrenBrower(url,user,password):

#登陆页面,可以通过抓包工具分析获得,如fiddler,wireshark

login_page = "http://www.renren.com/PLogin.do"

try:

#获得一个cookieJar实例

cj = cookielib.CookieJar()

#cookieJar作为参数,获得一个opener的实例

opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))

#伪装成一个正常的浏览器,避免有些web服务器拒绝访问。

opener.addheaders = [('User-agent','Mozilla/4.0 (compatibleMSIE 6.0Windows NT 5.1)')]

#生成Post数据,含有登陆用户名密码。

data = urllib.urlencode({"email":user,"password":password})

#以post的方法访问登陆页面,访问之后cookieJar会自定保存cookie

opener.open(login_page,data)

#以带cookie的方式访问页面

op=opener.open(url)

#读取页面源码

data= op.read()

return data

except Exception,e:

print str(e)

#访问某用户的个人主页,其实这已经实现了人人网的签到功能。

print renrenBrower("http://www.renren.com/home","用户名","密码")