js逆向爬虫属于什么水平

JavaScript09

js逆向爬虫属于什么水平,第1张

高级水平

高级爬虫是应对反爬的,所以js爬虫是高级水平。

掌握了加密算法且可以将加密的密文进行解密破解的,也是我们从一个编程小白到大神级别的一个质的飞跃,且加密算法的熟练程度和剖析也是有助于我们实现高效的js逆向。

反爬虫

就是和爬虫抗衡,减少被爬取。

因为搜索引擎的流行,网络爬虫已经成了很普及网络技术,

相当部分国内爬虫不遵守robots协议。

所有有了保护自己内容不让别人抓取的反爬虫需求

1、手工识别和拒绝爬虫的访问

2、通过识别爬虫的User-Agent信息来拒绝爬虫

3、通过网站流量统计系统和日志分析来识别爬虫

4、网站的实时反爬虫防火墙实现

5、通过JS算法,文字经过一定转换后才显示出来,容易被破解。某技术网站采用了这种方法

6、通过CSS隐藏技术,可见的页面样式和HTML里DIV结构不同,增加了爬虫的难度,同时增加自己的维护难度。

技术网站采用了这种方法

7、通过JS不让用户复制,这对非专业人员有效,对技术人员/工程师来说,没有任何效果。不少网站采用。

8、通过flash等插件技术(会被破解,同时对用户不友好,有流失用户的可能性)。早期网站用得多,移动互联网来后,这种方式对用户不友好,少有专业网站采用了。

9、图片化

A:将文字图片化,增加了维护成本,和移动端的可读性

B:将标点符号图片化,再适当增加CSS混淆,这是一种较好的办法,不影响搜索引擎收录,不影响用户使用。但影响爬虫,是一种较好的反爬虫方式,某著名的文学网站采用了这种方法

10、交给专业反爬虫公司来处理

Ruby中爬虫的实现

Ruby中实现网页抓取,一般用的是mechanize,使用非常简单。 安装

sudo gem install mechanize

抓取网页

require 'rubygems'

require 'mechanize'

agent = Mechanize.new

page = agent.get('http://google.com/')

模拟点击事件

page = agent.page.link_with(:text =>'News').click

模拟表单提交

google_form = page.form('f')

google_form["q"] = 'ruby mechanize'

page = agent.submit(google_form, google_form.buttons.first)

pp page

分析页面,mechanize用的是nokogiri解析网页的,所以可以参照nokogiri的文档

table = page.search('a')

text = table.inner_text

puts text

有几点注意的地方: 如果需要先登录的网页,那么可以在网站先登录,登录后记录JSESSIONID,然后赋值给agent

cookie = Mechanize::Cookie.new("JSESSIONID", "BA58528B76124698AD033EE6DF12B986:-1")

cookie.domain = "datamirror.csdb.cn"

cookie.path = "/"

agent.cookie_jar.add!(cookie)

如果需要保存网页,使用.save_as,(或许save也可以,我没试过)例如

agent.get("google.com").save_as