【Step1】获取html:
import requests
r = requests.get(‘’)
html = r.text#这样3行代码就把网页的html取出来了
【Step2】解析:
html用你喜欢的方式解析就可以了,牛逼的话可以直接正则。
from bs4 import BeautifulSoup
soup = BeautifulSoup(html) #这样2行就可以很方便的操作soup解析了
或者专业点的用scrapy爬虫框架,默认用xpath解析。
代码如下:>install.packages(“XML”)#安装XML包
>library(XML) #载入XML包
>u<-"XXX" #写入表格所在的网址
>tbls<-readHTMLTable(u) #分析网页中的表格,如果网页包含多个表格,需要确定读取哪个表。可通过识别表的行数来确定,具体见R语言网页数据抓取的一个实例_戊甲_新浪博客
>pop<-readHTMLTable(u,which=1) #读取网页中的第一张表
>write.csv(pop,file="d:/pop.csv") #存储pop为CSV文档至D盘中
这样,就快速实现了网页中的数据爬取。
如果没有时间限制的话,其实可以同时进行。因为你会了用一个软件爬虫之后,你也就懂了爬虫的逻辑。另外一个也只是改代码而已。
我就是之前对python什么也不懂,然后不断摸索出来后,R的也大概知道怎么写了。再根据实际遇到的error改代码。
拓展Python的话会遇到很多问题,编码,网页获取等等。
个人感觉爬虫上,Python对中文相对友好点。