Python爬虫如何避免爬取网站访问过于频繁

Python020

Python爬虫如何避免爬取网站访问过于频繁,第1张

一. 关于爬虫

爬虫,是一种按照一定的规则自动地抓取互联网信息的程序。本质是利用程序获取对我们有利的数据。

反爬虫,从不是将爬虫完全杜绝;而是想办法将爬虫的访问量限制在一个可接纳的范围,不要让它过于频繁。

二. 提高爬虫效率的方法

协程。采用协程,让多个爬虫一起工作,可以大幅度提高效率。

多进程。使用CPU的多个核,使用几个核就能提高几倍。

多线程。将任务分成多个,并发(交替)的执行。

分布式爬虫。让多个设备去跑同一个项目,效率也能大幅提升。

打包技术。可以将python文件打包成可执行的exe文件,让其在后台执行即可。

其他。比如,使用网速好的网络等等。

三. 反爬虫的措施

限制请求头,即request header。解决方法:我们可以填写user-agent声明自己的身份,有时还要去填写origin和referer声明请求的来源。

限制登录,即不登录就不能访问。解决方法:我们可以使用cookies和session的知识去模拟登录。

复杂的交互,比如设置“验证码”来阻拦登录。这就比较难做,解决方法1:我们用Selenium去手动输入验证码;方法2:我们用一些图像处理的库自动识别验证码(tesserocr/pytesserart/pillow)。

ip限制。如果这个IP地址,爬取网站频次太高,那么服务器就会暂时封掉来自这个IP地址的请求。 解决方法:使用time.sleep()来对爬虫的速度进行限制,建立IP代理池或者使用IPIDEA避免IP被封禁。

如何处理python爬虫ip被封

1、爬虫降低访问速度

由于上文所说的访问速度过快会引起IP被封,那么最直观的办法便是降低访问速度,这样就能避免了我们的IP被封的问题。只是呢,降低速度,爬虫的效率就降低,主要还是要降低到什么程度?

在这一点上吗,我们首先要测试出网站设置的限制速度阈值,如此一来我们才能设置合理的访问速度,建议不要设固定的访问速度,可以设置在一个范围之内,避免过于规律而被系统检测到,从而导致IP被封。

2、爬虫切换IP访问

降低了访问速度,在所难免的影响到了爬取的抓取效率,无法高效的抓取,如此一来的抓取速度与人工抓取有何区别呢?都没有了使用爬虫抓取的优势了。既然单个爬虫被控制了速度,但是我们可以使用多个爬虫同时去抓取啊!是的,我们可以使用多线程,多进程,配合使用代理,不同的线程使用不同的IP地址,就像是同时有不同的用户在访问,如此一来就能大大的提高爬虫的爬取效率了。