R语言如何获取网站上的数据

Python053

R语言如何获取网站上的数据,第1张

首先打开r语言的命令行编辑窗口

先以简单数据为例,在r命令行窗口输入如下代码

data_test<-data.frame(c1<-c(7,8,9,10,11,12),c2<-c(23,36,87,54,15,98),c3<-c(400,325,567,212,698,555));

attach(data_test);

pdf("c:/four.pdf",family="gb1");

plot(c1,c2);

dev.off();

detach(data_test);

完成上述代码后,会在对应的输入路径(这里是c:/)下生产此pdf格式文件(这里命名为one.pdf)。使用pdf阅读器打开此文件查看。

完成上述代码后,会在对应的输入路径(这里是c:/)下生产此pdf格式文件(这里命名为two.pdf)。使用pdf阅读器打开此文件查看。

如果以后抓取网页碰到动态加载的数据,可以考虑使用 phantomjs 如果想更暴力直接开出一个有界面的浏览器做各式各样的操作,达到ajax无阻碍的,可以用Selenium + Beautifulsoup

library(rvest)

## Loading required package: xml2

url = "https://en.wikipedia.org/wiki/The_Fast_and_the_Furious"

film = read_html(url)

table=film%>%html_node("table.wikitable")%>%html_table(header = NA, trim = TRUE, fill=TRUE)

Then, I extra links of all the films.

links = film%>%html_node("table.wikitable")%>% html_nodes("a") %>% html_attr("href")

links = paste("https://en.wikipedia.org", links, sep = "")

table$link = links