R语言 数据挖掘-文本分析(1)

Python010

R语言 数据挖掘-文本分析(1),第1张

刚接触R语言一周,和matab不同R作用于数据挖掘的库很多,详解见 R语言数据挖掘包

,下面简介文本分析经常使用到的三个包

tm 为文本挖掘提供综合性处理 Rwordmsg 进行中文分词 wordcloud 统计词云

以第三届泰迪杯A题提供的数据集国美-Sheet1进行文本分析 : 第三届泰迪杯

转化为txt的数据集如下图所示:

生成词云:

介绍使用tidytext进行文本挖掘。

整洁的数据应该是这样的

对于整洁的文本数据,储存在每行中的数据通常是单个单词,但也可以是n-gram,句子或段落。

使用unnest_tokens函数对数据进行处理

简单介绍一下unnest_tokens函数:

unnest_tokens这里使用的两个基本参数。首先,输出的列名,上面是word,然后是文本来输入列(text在本例中)。

使用之后unnest_tokens,我们将每行拆分

文本分析的流程:

就是写了傲慢与偏见的那个人,说实话这部作品的确值得一看

数据来自于Jane Austen的 janeaustenr 包

linenumber 对应的是多少行, chapter 对应的是第多少章。

要将其作为一个整洁的数据集来处理,还需要将句子转化成文更加基本的格式

此函数使用 tokenizers 包将原始数据框中的每一行文本分隔为标记。默认标记化用于单词,但其他选项包括字符,n-gram,句子,行,段落或正则表达式模式周围的分隔。

也就是修改下面这个参数:

既然数据是每行一个字的格式,我们可以使用像dplyr这样的整洁工具来操作它。通常在文本分析中,我们会想要删除停用词停用词是对分析无用的词,通常是非常常见的词,例如英语中的“the”,“of”,“to”等等。我们可以用一个删除停用词(保存在tidytext数据集中stop_words)anti_join()。

我们也可以使用 dplyr count() 来查找所有书籍中最常见的单词。

可以看见,最常见的单词是 miss

进行可视化:

因为我们一直在使用整洁的工具,所以我们的字数存储在一个整洁的数据框中。这允许我们将它直接传递给ggplot2包,例如创建最常见单词的可视化

R语言实用案例分析-相关系数的应用

在日常工作中,经常会存在多个变量之间存在关联关系,比如学习数学好的同学,物理成绩可能也比较高。在公司中外貌和讨人喜欢的关系往往也比较大,在人事招聘过程中,如果想要更加综合的评价某个人,需要把相关系数比较高的方面进行权重或者均值处理。

如以下案例:

现有30名应聘者来公司应聘,公司为这些应聘者制定了15项指标,分别是:求职信的形式(FL)、外貌(APP)、专业能力(AA)、讨人喜欢(LA)、自信心(SC)、洞察力(LC)、诚实(HON)、推销能力(SMS)、经验(EXP)、驾驶水平(DRV)、事业心(AMB)、理解能力(POT)、交际能力(KJ)和适应性(SUIT)。每项分数是从0到10分,0分最低,10分最高。每位求职者的15项指标如下所示,公司计划只录取前5名申请者,公司到底该如何选择呢?

#读入数据

rt<-read.table("applicant.data")

AVG<-apply(rt,1,mean)

sort(AVG,descreasing=TRUE)

attach(rt)

#找到相关系数高的分为一组,然后取平均值,防止值过大

rt$G1<-(SC+LC+SMS+DRV+AMB+GSP+POT)/7

rt$G2<-(FL+EXP+SUIT)/3

rt$G3<-(LA+HON+KJ)/3

rt$G4<-AA

rt$G5<-APP

AVG<-apply(rt[,16:20], 1, mean)

sort(AVG, decreasing = TRUE)

找出前5名