R语言ggplot2做柱形图如何让起始位置不是0?

Python016

R语言ggplot2做柱形图如何让起始位置不是0?,第1张

突然有了灵感,做柱形图的时候可以不用 geom_bar() 或者 geom_col() 直接画柱子的函数,可以用 geom_segment() 画线段的函数,只是需要准备示例数据集的时候稍微做一个调整就可以了

正常柱形图的示例数据集如下

来自于论文 Seasonal variation in community composition and distributional ranges of birds along a subtropical elevation gradient in China 的figure4

论文中没有找到原始数据,自己构造一份吧 只准备两个物种的数据

这个只有两个物种的数据看起来和论文中的图差别还挺大的,物种准备全了效果就是一样的

小明的数据分析笔记本

云图中的每个字的大小与出现的频率或次数成正比,词云图的统计意义不是特别大,主要是为了美观,用于博客和网站比较常见。

导入数据

library(tm)

library(wordcloud)

Text1<-paste(scan("Text1.txt",what=character(0),sep=""),collapse="")

Text2<-paste(scan("Text2.txt",what=character(0),sep=""),collapse="")

TEXT<-data.frame(c(Text1,Text2),row.names=c("Text1","Text2"))

TEXT_title<-data.frame(doc_id=row.names(TEXT),text=TEXT$c.Text1..Text2.

复制

)#这里的doc_id不可替换成别的词

创建数据框格式的文本

#创建数据框格式的文本,第一列是doc_id,第二列是文章内容

TEXT_ds<-DataframeSource(TEXT_title)

复制

构建语料库

Corpus<-VCorpus(TEXT_ds)

复制

针对语料库文本转换

思路:删除语料库中的标点符号,字母转换为小写,删除数字,删除空白字符,过滤掉停止词库之后转换为纯文本。

Corpus<-tm_map(Corpus,removePunctuation)#删除标点符号

Corpus<-tm_map(Corpus,tolower)#转换为小写

Corpus<-tm_map(Corpus,removeNumbers)#删除数字

Corpus <- tm_map(Corpus,stripWhitespace)#删除空白字符

Corpus <- tm_map(Corpus,function(x){removeWords(x,stopwords())})

Corpus <- tm_map(Corpus,PlainTextDocument)#转换为纯文本

复制

针对语料库断字处理,生成词频权重矩阵

Term_matrix<-TermDocumentMatrix(Corpus)

>Term_matrix

<<TermDocumentMatrix (terms: 2462, documents: 2)>>

Non-/sparse entries: 3215/1709

Sparsity : 35%

Maximal term length: 16

Weighting : term frequency (tf)

复制

查看Term_matrix得知2篇文章共2456个字,稀疏度为35%,最大词长度是16。

#计算频率

Term_matrix<-as.matrix(Term_matrix)

复制

#对词频权重矩阵的表头进行命名

colnames(Term_matrix)<-c("Text1","Text2")

复制

#把矩阵转为便于后续统计分析的数据框

Data<-data.frame(Term_matrix)

复制

#导出两篇文章的频率分析结果,文件名为Term_matrix

write.csv(Data,'Term_matrix.csv')

复制

读取文件

read.csv('Term_matrix.csv',header=TRUE,row.names=1)

复制

#分开绘制两篇文章的词云

wordcloud(row.names(Data),Data$Text1,min.freq=9.5,col=brewer.pal(8,"Dark2"),rot.per=0.3)

复制

wordcloud(row.names(Data),Data$Text2,min.freq=9.5,col=brewer.pal(8,"Dark2"),rot.per=0.2)

复制

#两篇文章对比

comparison.cloud(Data,max.words=250,random.order=FALSE,colors=c("#00B2FF","#084081"))

复制

#通过设置max.word的大小决定显示图中文本的多少。

两篇文章共有词部分

commonality.cloud(Data,max.words=120,random.order=FALSE,colors="#66A61E")

复制

绘制星形图

将Data数据计算频率Freq=n/sum(n),根据频率绘制星形图。

wordcloud2(Data1,size=0.4,shape='star')

复制

本文参与 腾讯云自媒体分享计划,欢迎热爱写作的你一起参与!

本文章分享自微信公众号

菜鸟学数据分析之R语言

作者:刘晓雪

原始发表时间:2020-07-25

如有侵权,请联系 [email protected] 删除。

展开阅读全文

腾讯云图

文章来自专栏

菜鸟学数据分析之R语言

77 篇文章22 人关注

订阅

评论 (0)

写评论

暂无人发表评论

相关文章

Python数据可视化 词云图 绘制词云的方法总结

pyecharts是基于echarts的python库,能够绘制多种交互式图表,和其他可视化库不一样,pyecharts支持链式调用。

(数据科学学习手札71)在Python中制作个性化词云图

词云图是文本挖掘中用来表征词频的数据可视化图像,通过它可以很直观地展现文本数据中地高频词:

【数据挖掘 | 可视化】 WordCloud 词云(附详细代码案例)

在七夕节中,博主写了一篇为女友收集QQ聊天记录做可视化词云的文章获得广泛好评,一直有小伙伴希望能出一篇教程,今天他来啦! 一文带你速通词云?‍♂️

R-wordcloud: 词云图

好几位读者来信说,《R语言数据可视化之美》(增强版)的词云图的代码有问题,我今天更新了一轮,这主要原因在R语言及其包的更新,导致源代码有可能运行错误。R语言的优...

WordCloud词云库快速入门(一)

wordcloud是优秀的词云展示第三方库,以词语为基本单位,通过图形可视化的方式,更加直观和艺术的展示文本。

Day10.如何给⽑不易的歌曲做词云展示

我们经常需要对分析的数据提取常⽤词,做词云展示。⽐如⼀些互联⽹公司会抓取⽤户的画像,或者每⽇讨论话题的关键词,形成词云并进⾏展示。

词云绘制,推荐三种 Python包外加一个在线网站!

本篇文章先介绍几种制作词云的 Python 库,分别是 WordCloud、StyleCloud、Pyecharts;再加一个在线词云制作网站;最后通过代码实操...

关于词云可视化笔记一(wordcloud和英文词汇可视化)

一直比较关注数据可视化这块,对于分词和词的可视化却始终不明就里,直到看到词云,当时惊为天人,不过词云的制作还是非常麻烦,直到2017年Python走近我的视野中...

词云图,看过没做过?快来,教你秘籍

今天我们来说一说可视化的问题,如果这个时候我们要对频数进行可视化的话,我们首先想到的应该是一个什么样子的图形呢?很多人可能会说是柱状图。还有一些科研喵们,看过我...

使用pyecharts绘制词云图-淘宝商品评论展示

词云图是一种用来展现高频关键词的可视化表达,通过文字、色彩、图形的搭配,产生有冲击力地视觉效果,而且能够传达有价值的信息。

WordCloud 中英文词云图绘制,看这一篇就够了

摘要: 当我们手中有一篇文档,比如书籍、小说、电影剧本,若想快速了解其主要内容是什么,则可以采用绘制 WordCloud 词云图,显示主要的关键词(高频词)这种...

Python带你看不一样的《青春有你2》小姐姐之评论内容可视化

详细介绍和用法可以去github看:https://github.com/fxsjy/jieba,这里不多做介绍,只介绍本次用到的

NLP快速入门:手把手教你用wordcloud做词云

导读:在上一章节介绍在Python环境下调用HanLP包进行分词的基础上,本文将介绍如何使用wordcloud绘制词云。尽管目前市面上已经有很多成熟的在线交互词...

WordCloud 中英文词云图绘制,看这一篇就够了

摘要: 当我们手中有一篇文档,比如书籍、小说、电影剧本,若想快速了解其主要内容是什么,则可以采用绘制 WordCloud 词云图,显示主要的关键词(高频词)这种...

一起用Python来看看川普今年在推特上都发了些什么

川普作为一个推特狂人,上台以来一共发了一万多条推特,本文爬取了川普在2020年的全部推特内容并将其绘制成了词云图。

词云图wordcloud学习笔记

词云图,也叫文字云,是对文本中出现频率较高的“关键词”予以视觉化的展现,词云图过滤掉大量的低频低质的文本信息,使得浏览者只要一眼扫过文本就可领略文本的主旨。

excel也那绘制词云图哦!还有很多的可视化图表可挑选!

excel是老牌的数据可视化软件了,很多方面都已经很完美了,很多的图表都可以轻松绘制出来,但如果想要做的好看,就需要一些技巧了。

更多文章

社区活动

腾讯云自媒体分享计划

入驻社区,可分享总价值百万资源包

邀请好友加入自媒体分享计划

邀请好友,同享奖励 30 / 100 / 180 元云服务器代金券

长按识别或截图保存

关注腾讯云开发者

Copyright © 2013-2022

Tencent Cloud. All Rights Reserved.

腾讯云 版权所有

点赞

3

评论

0

最近接了一个大数据项目,需要进行到数据分析,作为一个从程序员往数据挖掘工程师转行的人来说,R语言在灵活性上不如Python,并且在深度神经网络等机器学习开源模块上,python也比R语言有更好的支持。本文主要利用Ubuntu来搭建虚拟机来进行数据分析工作,主要利用了sklearn和keras开源模块。Google开发的深度神经网络python开源模块tensorflow目前不支持windows系统,因此强烈建议使用linux操作系统,而redhat虽然是Linux系统中比较成熟的一种,但是其yum是付费服务,并且没有预装apt-get等大量的插件,因此选择ubuntu系统,对于刚入门的新手来说更友好。

环境配置:

VM Ware 12.0(在不同主机之间的文件复制粘贴比Visual Box要好一点)

Anaconda2 (python2.7以及相关的科学计算集成,安装完成后就可以直接使用科学计算所有的模块,包括最流行的numpy,pandas)

JetBrain Pycharm (Python开发最火的IDE集成开发工具,方便使用git和github进行代码的管理)

Ubuntu16.01 amd64位

1、Ubuntu虚拟机安装

选择Ubuntu的ISO镜像文件,这时VM Ware将自动选择为简易安装,不用考虑分区问题

设置虚拟主机的名称,新建一个user用户,并设置登录密码,这个密码必须记住,因为在进行管理员操作的时候必须用到。

选择虚拟机的安装目录和名称,这里命名为Ubunu64位

考虑到做大数据的数据分析,因此磁盘大小建议分配50G,反正只是逻辑磁盘,分配多点没有问题。

点击完成,则VM Ware自动帮你安装虚拟机,此时你只要耐心等待即可。

输入刚刚设置的登录密码,进入桌面

2、安装git

点击左上角的图标,点击terminal,打开命令行窗口。

输入sudo apt-get install git,下载git安装包

输入git config --global user.name "Your Name"git config --global user.email "[email protected]"设置你的git的用户名和邮箱

设置完成后,输入git config -list,显示信息如下:

user.name=Your Name

[email protected]

在命令行中输入git,要是有正确返回,则git安装完成。

3、Anaconda2的安装

从官网上直接下载Anaconda2 适合linux的安装包,复制粘贴到/home/bigdata/Downloads下,建议直接在Ubuntu的火狐浏览器下直接下载,这样直接从网上将Anaconda2、pycharm下载到相应的目录。pycharm下载后是tar.gz格式,可以右键点击extract here进行解压到当前目录。同时,在/home/bigdata/Downloads下新建data、tmp两个文件夹,存放数据分析的数据和模型结果。

此时,由于下载的Anaconda2是一个.sh文件,Ubuntu系统对于.sh文件不能很好的兼容,所以不能直接点击打开,必须使用命令行打开。

输入cd /home/bigdata/Downloads跳转到Anaconda2的目录

输入bash Anaconda2-4.1.1-Linux-x86_64.sh,启动安装程序,按照提示进行操作

完成后,/home/bigdata文件夹会有一个anaconda2的文件夹。

添加环境变量,使系统能够使用Anaconda里的工具命令。

输入sudo gedit /etc/environment,输入登录密码,这里的密码是不可见的。得到

在PATH路径中添加anaconda的bin包路径,注意要添加到“”中,并且用:隔开。

点击save保存。然后退出

打开命令行,输入python,如果出现下图,则Anaconda安装成功。

但这时安装好的Anaconda2里的python2.7.12仍然不是系统默认的Python工具

输入sudo rm /usr/bin/python删除原系统默认的python工具

输入sudo ln -s /home/bigdata/anaconda2/bin/python2.7 /usr/bin/python建立新连接

输入source /etc/environment让操作生效。

输入python,得到下列信息,则python和anaconda彻底安装成功。

4、机器学习相关开源模块安装

安装Anaconda后,可以使用pip或conda工具进行下载开源Python模块,但是必须保持网络连接状态。由于深度神经网络和一些机器学习的模块很新,所以必须两个命令都用到。

输入:

conda install theano

conda install keras

pip install tensorflow

pip install sklearn

安装提示信息安装,完成后,输入python进入python命令行工具,分别输入import keras和import sklearn,如果没有错误信息,则模块安装完成。

5、使用pycharm

打开命令行输入cd /home/bigdata/Downloads/pycharm-community-2016.2.2/bin

输入 bash pycharm.sh运行pycharm

点击左上角的FIle-->settings--->version control----->github,输入自己的github账号和密码,点击测试

点击Test后,第一次会让你设置本地github的登录密码,这个密码必须记住,因为是不是系统在你提交代码或者从github上clone时需要填写这个密码来验证。如果你的github账号密码都正确,则出现下图。

在选择git这个选项,设置你已经安装好的git工具的路径,一般为/usr/bin/git.

点击Test,出现下图则github和git都配置成功,可以使用了。

5、从github中导入项目

从菜单栏中点击VCS,选择checkout from version control,再选择github。

然后就可以选择你想要的项目导入到本地了

有兴趣的同学可以在URL那栏复制粘贴veld/PythonProgram.git,这是我分享的我找的一些机器学习的代码,以及sklearn和keras的用法,比较容易入手。机器学习的训练集和测试集留言并留下你的邮箱,我会尽快发给你。