R语言中,RCurl优势在哪儿,做爬虫的话用Python还是RCurl效率高

Python022

R语言中,RCurl优势在哪儿,做爬虫的话用Python还是RCurl效率高,第1张

Python 用requests + BeautifulSoup 很方便。

【Step1】获取html:

import requests

r = requests.get(‘’)

html = r.text#这样3行代码就把网页的html取出来了

【Step2】解析:

html用你喜欢的方式解析就可以了,牛逼的话可以直接正则。

from bs4 import BeautifulSoup

soup = BeautifulSoup(html) #这样2行就可以很方便的操作soup解析了

或者专业点的用scrapy爬虫框架,默认用xpath解析。

代码如下:

>install.packages(“XML”)#安装XML包

>library(XML) #载入XML包

>u<-"XXX" #写入表格所在的网址

>tbls<-readHTMLTable(u) #分析网页中的表格,如果网页包含多个表格,需要确定读取哪个表。可通过识别表的行数来确定,具体见R语言网页数据抓取的一个实例_戊甲_新浪博客

>pop<-readHTMLTable(u,which=1) #读取网页中的第一张表

>write.csv(pop,file="d:/pop.csv") #存储pop为CSV文档至D盘中

这样,就快速实现了网页中的数据爬取。

如果没有时间限制的话,其实可以同时进行。

因为你会了用一个软件爬虫之后,你也就懂了爬虫的逻辑。另外一个也只是改代码而已。

我就是之前对python什么也不懂,然后不断摸索出来后,R的也大概知道怎么写了。再根据实际遇到的error改代码。

拓展Python的话会遇到很多问题,编码,网页获取等等。

个人感觉爬虫上,Python对中文相对友好点。