用R语言进行文本挖掘和主题建模

我们每天都会遇到各种各样的文本数据 - 但大部分是非结构化的,并不是全部都是有价值的。请继续阅读以了解文本挖掘如何提供帮助。

估计,全球约80%的数据是非结构化的。这包括音频,视频和文本数据。在这篇文章中,我们将只讨论文本数据。在系列后面,我们将会谈论到其他非结构化数据.

我们阅读的书籍,博客,新闻文章,网页,电子邮件等都是文本数据。所有这些文本都为我们提供了大量的信息,并不断增长。但是,并非所有的数据都是有用的。我们过滤掉噪音,只保留重要的信息。这是一个乏味的过程,但作为人类,我们需要智慧 - 阅读是一个必不可少的工具。而且,当世界倾向于智能机器时,处理来自非结构化数据的信息的能力是必须的。对于人类和智能机器来说,从大量的文本数据中挖掘信息是必需的。文本挖掘可以提供方法来提取,总结和分析来自非结构化数据的有用信息,以获得新的见解。

文本挖掘可以用于各种任务。以下是我们的系列将进一步讨论的几个主题:

  • 主题建模
  • 文档聚类
  • 文档分类
  • 文字摘要

这篇文章主要关注主题建模。在接下来的帖子中,我们将深入到其他任务。

1、文本检索

文本文件可以有各种格式,如PDF,DOC,HTML等。第一步是将这些文档转换为可读的文本格式。接下来,必须创建一个语料库。语料库只是一个或多个文档的集合。当我们在R中创建语料库时,文本会被标记并可供进一步处理。

library(tm)
library(SnowballC)
library(topicmodels)
#设置工作目录(根据需要修改路径)
setwd("//Users//datascience//textmining//topicmodel")
#加载文档到语料库
#获取目录中的.txt文件列表
filenames <- list.files(getwd(),pattern="*.txt")
#将文件读入字符向量
files <- lapply(filenames,readLines)
#创建矢量语料库
articles.corpus <- Corpus(VectorSource(files))

2、文本预处理

接下来,我们需要对文本进行预处理,将其转换为可以处理以提取信息的格式。在分析文本之前减小特征空间的大小是非常重要的。我们可以在这里使用各种预处理方法,如停用词清除,案例折叠,词干化,词形化和收缩简化。但是,没有必要将所有的规范化方法应用于文本。这取决于我们检索的数据和要执行的分析类型。

# 将每个字母变成小写
articles.corpus <- tm_map(articles.corpus, tolower)
# 删除标点符号
articles.corpus <- tm_map(articles.corpus, removePunctuation)
#删除数字
articles.corpus <- tm_map(articles.corpus, removeNumbers);
# 删除通用和自定义的停用词
stopword <- c(stopwords('english'), "best");
articles.corpus <- tm_map(articles.corpus, removeWords, stopword)
articles.corpus <- tm_map(articles.corpus, stemDocument);

以下是我们应用于减少数据集特征空间的预处理方法的简短描述:

删除标点符号:删除了各种标点符号,如+, - 和〜。

停用词清除:将常用词和短语功能词等停用词过滤掉,以便对数据进行有效的分析。由NLTK提供的标准英语停用词列表与自定义词汇集合一起使用,以消除非正式词汇和产品名称。我们也可以从我们的文本中提供我们认为与我们的分析无关的文字。

案例折叠:案例折叠将所有大写字母转换为小写字母。

词干化:词干是将修饰词或派生词归为根的过程。例如,工作(进行时)和工作(过去式)都会被词干化为工作(原型)。

删除号码:对于某些文本挖掘活动,号码不是必需的。例如,在主题建模的情况下,我们关心的是找到描述我们语料库的基本词汇。在这种情况下,我们可以删除号码。然而,在某些情况下,例如,如果我们正在为财务报表进行主题建模,它们可能会增加实质性内容。

下一步是创建一个文档项矩阵(DTM)。这是一个重要的步骤,因为解释和分析文本文件,它们最终必须转换成文档术语矩阵。 DTM包含每个文档的术语出现次数。 DTM中的行代表文档,文档中的每个词代表一列。在将文集转换为文档项矩阵之后,我们还移除了低频词(稀疏词)。

articleDtm <- DocumentTermMatrix(articles.corpus, control = list(minWordLength = 3));
articleDtm2 <- removeSparseTerms(articleDtm, sparse=0.98)

3、主题建模

主题建模是为了找到最能代表集合的文档集合中的关键词/术语。Latent Dirichlet Allocation(LDA)模型是一种广泛使用的话题建模技术。你可以在这里这里了解更多关于LDA。

以上结果表明,这两个文件的主题都集中在机器学习和数据科学领域。这正是我所期望的,因为我拿起了前两篇关于人工智能数据科学的文章。

你可以从我的GitHub中找到数据集和代码。

原文链接:https://dzone.com/articles/text-mining-using-r-and-h2o-let-machine-learn-lang

原文作者:Sibanjan Das

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏PPV课数据科学社区

【译文】数据可视化的10个关键术语①

Format 交互方式 Interactive visualisations allow you to modify, manipulate and expl...

3294
来自专栏Y大宽

TBtools基因家族分析详细教程(3)基因家族成员的进化分析1

其中,No.of Bootstrap Replication默认最小50,即使设定10也自动调整为50。

2083
来自专栏CDA数据分析师

案例 | R语言数据挖掘实战:电商评论情感分析

随着网上购物的流行,各大电商竞争激烈,为了提高客户服务质量,除了打价格战外,了解客户的需求点,倾听客户的心声也越来越重要,其中重要的方式 就是对消费者的文本评论...

3719
来自专栏生信技能树

芯片数据分析,so easy?

我最早接触的高通量数据就是RNA-seq,后来接触的也基本是高通量测序结果而不是芯片数据,因此我从来没有分析过一次芯片数据,而最近有一个学员在看生信技能树在腾讯...

1433
来自专栏机器学习算法与Python学习

深度学习框架Caffe/CNTK/Tensorflow/Theano/Torch的评估与比较

分享 有问题请到留言区互动 人工智能无疑是计算机世界的前沿领域,而深度学习无疑又是人工智能的研究热点,那么现在都有哪些开源的深度学习工具,他们各自的优缺点又是什...

3718
来自专栏奇点大数据

深度强化学习选股-上证50指数增强

沪深300指数增强 github(https://github.com/AlphaSmartDog/DeepLearningNotes/tree/master/...

3324
来自专栏Crossin的编程教室

【每周一坑】暴力计算圆周率 +【解答】生成/识别二维码

我们之前有出过一些和概率相关的问题。我讲过,用计算机程序来解编程题有个很有意思的思路,就是暴力解法。就是利用电脑的计算能力,去模拟大量的情况(甚至所有情况),得...

372
来自专栏PPV课数据科学社区

电商评论情感分析

? 随着网上购物的流行,各大电商竞争激烈,为了提高客户服务质量,除了打价格战外,了解客户的需求点,倾听客户的心声也越来越重要,其中重要的方式 就是对消费者的文...

4917
来自专栏媒矿工厂

【视频编码】 Content Aware ABR技术(五)

在本系列前面的帖子中,我们梳理了Netflix、YouTube、Beamr和EuclidIQ在ABR方面的一些进展,本文将简要介绍一下编码优化领域的另一位成员—...

44910
来自专栏企鹅号快讯

Tensorflow:谷歌的一种深度学习框架/丹炉

懒人阅读:想要傻瓜式体验深度学习的请先绕开TF,可以考虑pytorch、keras。想要真正从事可部署产品研发的童鞋,TF可能是一个绕不开的存在。 写在前面:引...

2647

扫码关注云+社区