前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >CountVectorizer

CountVectorizer

作者头像
Spark学习技巧
发布2018-01-31 12:35:12
1.9K0
发布2018-01-31 12:35:12
举报
文章被收录于专栏:Spark学习技巧Spark学习技巧

CountVectorizer

关于文本特征提取,前面一篇文章TF-IDF介绍了HashingTF,本文将再介绍一种Spark MLlib的API CountVectorizer。

CountVectorizer CountVectorizerModel 旨在帮助将文本文档集合转化为频数向量。当先验词典不可用时,CountVectorizer可以用作Estimator提取词汇表,并生成一个CountVectorizerModel。该模型会基于该字典为文档生成稀疏矩阵,该稀疏矩阵可以传给其它算法,比如LDA,去做一些处理。

在拟合过程中,CountVectorizer会从整个文档集合中进行词频统计并排序后的前vocabSize个单词。

一个可选参数minDF也会影响拟合过程,方法是指定词汇必须出现的文档的最小数量(或小于1.0)。另一个可选的二进制切换参数控制输出向量。如果设置为true,则所有非零计数都设置为1.这对于模拟二进制计数而不是整数计数的离散概率模型特别有用。

举例说明该算法

假如我们有个DataFrame有两列:id和texts。

id

texts

0

Array("a", "b", "c")

1

Array("a", "b", "b", "c", "a")

每一行texts都是一个Array [String]类型的文档。使用字典(A,B,C)调用CountVectorizer产生CountVectorizerModel。然后转换后的输出列“向量”包含

vector列:

id

texts

vector

0

Array("a", "b", "c")

(3,[0,1,2],[1.0,1.0,1.0])

1

Array("a", "b", "b", "c", "a")

(3,[0,1,2],[2.0,2.0,1.0])

将两篇文档中的词去重后就组成了一个字典,这个字典中有3个词:a,b,c,分别建立索引为0,1,2. 在第三列的文档向量,是由基于字典的索引向量,与对应对索引的词频向量所组成的。 文档向量是稀疏的表征,例子中只有3个词可能感觉不出,在实际业务中,字典的长度是上万,而文章中出现的词可能是几百或几千,故很多索引对应的位置词频都是0.

spark中的源码

导包

代码语言:javascript
复制
import org.apache.spark.ml.feature.{CountVectorizer, CountVectorizerModel}

准备数据

代码语言:javascript
复制
val df = spark.createDataFrame(Seq(  (0, Array("a", "b", "c")),  (2, Array("a", "b", "c", "c", "a")))).toDF("id", "words")

从全文集中拟合CountVectorizerModel(自动计算字典)

代码语言:javascript
复制
val cvModel: CountVectorizerModel = new CountVectorizer()  .setInputCol("words")  .setOutputCol("features")  .setVocabSize(3)  .setMinDF(2).fit(df)

查看结果

代码语言:javascript
复制
cvModel.transform(df).show(false)

指定预先字典

代码语言:javascript
复制
val cvm = new CountVectorizerModel(Array("a", "b", "c")).setInputCol("words").setOutputCol("features")

为了避免重复,重新造一组数据

代码语言:javascript
复制
val df = spark.createDataFrame(Seq(  (0, Array("a", "b", "c")),  (2, Array("a", "b", "c", "c", "a")))).toDF("id", "words")

查看结果

代码语言:javascript
复制
cvm.transform(df).show(false)
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-12-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 浪尖聊大数据 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档