首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【机器学习笔记之八】使用朴素贝叶斯进行文本的分类

【机器学习笔记之八】使用朴素贝叶斯进行文本的分类

作者头像
Angel_Kitty
发布2018-04-09 15:47:12
1.1K0
发布2018-04-09 15:47:12
举报

使用朴素贝叶斯进行文本的分类

引言

朴素贝叶斯由贝叶斯定理延伸而来的简单而强大的概率模型,它根据每个特征的概率确定一个对象属于某一类别的概率。该方法基于一个假设,所有特征需要相互独立,即任一特征的值和其他特征的值没有关联关系。 虽然这种条件独立的假设在许多应用领域未必能很好满足,甚至是不成立的。但这种简化的贝叶斯分类器在许多实际应用中还是得到了较好的分类精度。训练模型的过程可以看作是对相关条件概率的计算,它可以用统计对应某一类别的特征的频率来估计。 朴素贝叶斯最成功的一个应用是自然语言处理领域,自然语言处理的的数据可以看做是在文本文档中标注数据,这些数据可以作为训练数据集来使用机器学习算法进行训练。 本小节中,主要介绍使用朴素贝叶斯方法来进行文本的分类,我们将要使用一组标记类别的文本文档来训练朴素贝叶斯分类器,进而对未知的数据实例进行类别的预测。这个方法可以用作垃圾邮件的过滤。

数据集

该实验的数据可以通过scikit-learn获取一组新闻信息。 数据集由19,000个新闻信息组成,其中包含了20个不同的主题,包含政治、体育、科学等内容。 该数据集可以分成训练和测试两部分,训练和测试数据的划分基于某个特定日期。

数据的加载有两种方式:

  1. sklearn.datasets.fetch_20newsgroups,该函数返回一个原数据列表,可以将它作为文本特征提取的接口(sklearn.feature_extraction.text.CountVectorizer)的输入
  2. sklearn.datasets.fetch_20newsgroups_vectorized,该接口直接返回直接可以使用的特征,可以不再使用特征提取了
1 from sklearn.datasets import fetch_20newsgroups 
2 news = fetch_20newsgroups(subset='all') 
3 print news.keys() 
4 print type(news.data), type(news.target), type(news.target_names) 
5 print news.target_names 
6 print len(news.data) 
7 print len(news.target)

打印信息:

1 ['DESCR', 'data', 'target', 'target_names', 'filenames']
2 
3 <type 'list'> <type 'numpy.ndarray'> <type 'list'>
4 ['alt.atheism', 'comp.graphics', 'comp.os.ms-windows.misc', 'comp.sys.ibm.pc.hardware', 'comp.sys.mac.hardware', 'comp.windows.x', 'misc.forsale', 'rec.autos', 'rec.motorcycles', 'rec.sport.baseball', 'rec.sport.hockey', 'sci.crypt', 'sci.electronics', 'sci.med', 'sci.space', 'soc.religion.christian', 'talk.politics.guns', 'talk.politics.mideast', 'talk.politics.misc', 'talk.religion.misc']
5 18846
6 18846

我们可以查看一下第一项新闻的内容和对应的类别:

print news.data[0]
print news.target[0], news.target_names[news.target[0]]

打印的新闻内容略去,类别为10,类别名为rec.sport.hockey。

数据的预处理

机器学习算法只能作用在数值数据上,算法期望使用定长的数值特征而不是不定长的原始文本文件,我们下一步的工作是将文本数据集转换成数值数据集。 现在,我们只有一种特征:新闻消息的文本内容,我们需要一个函数将一段文本转换成一组有意义的数值特征。 直觉上,可以尝试着眼于每种文本类别的独立字符串(更准确说是标记,token),然后将每种类别对应的标记词的频率分布特性描述出来。sklearn.feature_extraction.text模块具有一些用文本文档来构建数值特征向量的有用的工具。

划分训练与测试数据

在进行转换工作之前,我们需要将数据划分为训练和测试数据集。由于载入的数据是随机顺序出现的,我们可以将数据划分为两部分,75%作为训练数据,25%作为测试数据:

1 SPLIT_PERC = 0.75 
2 split_size = int(len(news.data)*SPLIT_PERC) 
3 X_train = news.data[:split_size] 
4 X_test = news.data[split_size:] 
5 Y_train = news.target[:split_size] 
6 Y_test = news.target[split_size:]

因为sklearn.datasets.fetch_20newsgroups本身可以根据subset参数来选择训练数据和测试数据,这里训练数据有11,314条,占总数据集的60%,测试数据集占40%。可以通过如下方式得到:

1 news_train = fetch_20newsgroups(subset='train') 
2 news_test = fetch_20newsgroups(subset='test') 
3 X_train = news_train.data 
4 X_test = news_test.data 
5 Y_train = news_train.target 
6 Y_test = news_test.target

词袋(Bag of Words)表征

词袋模型是在自然语言处理和信息检索中的一种简单假设。在这种模型中,文本(段落或者文档)被看作是无序的词汇集合,忽略语法甚至是单词的顺序。 词袋模型被用在文本分类的一些方法当中。当传统的贝叶斯分类被应用到文本当中时,贝叶斯中的条件独立性假设导致词袋模型。 scikit-learn提供了一些实用工具可以用最常见的方式从文本内容中抽取数值特征,比如说:

  • 标记(tokenizing)文本以及为每一个可能的标记(token)分配的一个整型ID,例如用空格和标点符号作为标记的分割符(中文的话涉及到分词的问题)
  • 计数(counting)标记(token)在每个文本中的出现频率
  • 在大多数样本/文档中都出现的标记的重要性递减过程中,进行标准化(normalizing)和加权(weighting) 我们将上面这个从一堆文本文件转化成数值特征向量的过程的策略称为词袋

在这种策略下,特征和样本定义如下: 将每个独立的标记(token)的出现频率(不管是否标准化)看做是特征 给定一个文档的所有标记的频率构成向量看做是一个多变量的样本 这样一个文本的语料库就可以表征为一个矩阵,其中每一行代表了一个文档,而每一列代表了在该语料库中出现的一个标记词。

文本可以用词语的出现频率表征,这样可以完全忽略词在文本中的相对位置信息,这一点应该就保证了贝叶斯的条件独立性。

稀疏性

大多数文档通常只会使用语料库中所有词的一个子集,因而产生的矩阵将有许多特征值是0(通常99%以上都是0)。 例如,一组10,000个短文本(比如email)会使用100,000的词汇总量,而每个文档会使用100到1,000个唯一的词。 为了能够在内存中存储这个矩阵,同时也提供矩阵/向量代数运算的速度,通常会使用稀疏表征例如在scipy.sparse包中提供的表征。

文本特征提取的接口

sklearn.feature_extraction.text提供了以下构建特征向量的工具:

  • feature_extraction.text.CountVectorizer([...]) Convert a collection of text documents to a matrix of token counts
  • feature_extraction.text.HashingVectorizer([...]) Convert a collection of text documents to a matrix of token occurrences
  • feature_extraction.text.TfidfTransformer([...]) Transform a count matrix to a normalized tf or tf-idf representation
  • feature_extraction.text.TfidfVectorizer([...]) Convert a collection of raw documents to a matrix of TF-IDF features.

解释:

  • CountVectorizer方法构建单词的字典,每个单词实例被转换为特征向量的一个数值特征,每个元素是特定单词在文本中出现的次数
  • HashingVectorizer方法实现了一个哈希函数,将标记映射为特征的索引,其特征的计算同CountVectorizer方法
  • TfidfVectorizer使用了一个高级的计算方法,称为Term Frequency Inverse Document Frequency (TF-IDF)。这是一个衡量一个词在文本或语料中重要性的统计方法。直觉上讲,该方法通过比较在整个语料库的词的频率,寻求在当前文档中频率较高的词。这是一种将结果进行标准化的方法,可以避免因为有些词出现太过频繁而对一个实例的特征化作用不大的情况(我猜测比如a和and在英语中出现的频率比较高,但是它们对于表征一个文本的作用没有什么作用)

构建朴素贝叶斯分类器

由于我们使用词的出现次数作为特征,可以用多项分布来描述这一特征。在sklearn中使用sklearn.naive_bayes模块的MultinomialNB类来构建分类器。 我们使用Pipeline这个类来构建包含量化器(vectorizers)和分类器的复合分类器(compound classifer)。

1 from sklearn.naive_bayes import MultinomialNB 
2 from sklearn.pipeline import Pipeline 
3 from sklearn.feature_extraction.text import TfidfVectorizer, HashingVectorizer, CountVectorizer 
4 
5 #nbc means naive bayes classifier 
6 nbc_1 = Pipeline([ ('vect', CountVectorizer()), ('clf', MultinomialNB()), ]) nbc_2 = Pipeline([ ('vect', HashingVectorizer(non_negative=True)), ('clf', MultinomialNB()), ]) 
7 nbc_3 = Pipeline([ ('vect', TfidfVectorizer()), ('clf', MultinomialNB()), ]) 
8 nbcs = [nbc_1, nbc_2, nbc_3]

交叉验证

我们下面设计一个对分类器的性能进行测试的交叉验证的函数:

 1 from sklearn.cross_validation import cross_val_score, KFold 
 2 from scipy.stats import sem 
 3 import numpy as np 
 4 def evaluate_cross_validation(clf, X, y, K): 
 5 # create a k-fold croos validation iterator of k=5 folds 
 6 cv = KFold(len(y), K, shuffle=True, random_state=0) 
 7 # by default the score used is the one returned by score method of the estimator (accuracy) 
 8 scores = cross_val_score(clf, X, y, cv=cv) 
 9 print scores 
10 print ("Mean score: {0:.3f} (+/-{1:.3f})").format( np.mean(scores), sem(scores))

将训练数据分成5份,输出验证的分数:

for nbc in nbcs:
    evaluate_cross_validation(nbc, X_train, Y_train, 5)

输出为:

1 [ 0.82589483 0.83473266 0.8272205 0.84136103 0.83377542]
2 Mean score: 0.833 (+/-0.003)
3 [ 0.76358816 0.72337605 0.72293416 0.74370305 0.74977896]
4 Mean score: 0.741 (+/-0.008)
5 [ 0.84975696 0.83517455 0.82545294 0.83870968 0.84615385]
6 Mean score: 0.839 (+/-0.004)

从上面的结果看出,CountVectorizer和TfidfVectorizer进行特征提取的方法要比HashingVectorizer的效果好。

优化特征提取提高分类的效果

接下来,我们通过正则表达式来解析文本得到标记词。

优化提取单词规则参数

TfidfVectorizer的一个参数token_pattern用于指定提取单词的规则。 默认的正则表达式是ur"\b\w\w+\b",这个正则表达式只匹配单词边界并考虑到了下划线,也可能考虑到了横杠和点。 新的正则表达式是ur"\b[a-z0-9_\-\.]+[a-z][a-z0-9_\-\.]+\b"

1 nbc_4 = Pipeline([ 
2 ('vect', TfidfVectorizer( 
3 token_pattern=ur"\b[a-z0-9_\-\.]+[a-z][a-z0-9_\-\.]+\b", 
4 )), 
5 ('clf', MultinomialNB()), 
6 ]) 
7 
8 evaluate_cross_validation(nbc_4, X_train, Y_train, 5)
[ 0.86478126 0.85461776 0.84489616 0.85505966 0.85234306]
Mean score: 0.854 (+/-0.003)

这个分数已经比之前的0.839提高了一些了。

优化省略词参数

TfidfVectorizer的一个参数stop_words这个参数指定的词将被省略不计入到标记词的列表中,比如一些出现频率很高的词,但是这些词对于特定的主题不能提供任何的先验支持。

 1 def get_stop_words(): 
 2 result = set() 
 3 for line in open('stopwords_en.txt', 'r').readlines(): 
 4 result.add(line.strip()) 
 5 return result 
 6 
 7 stop_words = get_stop_words() 
 8 nbc_5 = Pipeline([ 
 9 ('vect', TfidfVectorizer( 
10 stop_words=stop_words, 
11 token_pattern=ur"\b[a-z0-9_\-\.]+[a-z][a-z0-9_\-\.]+\b", 
12 )), 
13 ('clf', MultinomialNB()), 
14 ]) 
15 
16 evaluate_cross_validation(nbc_5, X_train, Y_train, 5)
[ 0.88731772 0.88731772 0.878038 0.88466637 0.88107869]
Mean score: 0.884 (+/-0.002)

分数又提升到了0.884。

优化贝叶斯分类器的alpha参数

MultinomialNB有一个alpha参数,该参数是一个平滑参数,默认是1.0,我们将其设为0.01。

1 nbc_6 = Pipeline([ 
2 ('vect', TfidfVectorizer( 
3 stop_words=stop_words, 
4 token_pattern=ur"\b[a-z0-9_\-\.]+[a-z][a-z0-9_\-\.]+\b", 
5 )), 
6 ('clf', MultinomialNB(alpha=0.01)), 
7 ]) 
8 
9 evaluate_cross_validation(nbc_6, X_train, Y_train, 5)
[ 0.91073796 0.92532037 0.91604065 0.91294741 0.91202476]
Mean score: 0.915 (+/-0.003)

这下分数已经优化的很好了。

评估分类器性能

我们通过交叉验证得到了效果比较好的分类器参数,下面我们可以用该分类器来测试我们的测试数据了。

 1 from sklearn import metrics 
 2 nbc_6.fit(X_train, Y_train) 
 3 print "Accuracy on training set:" 
 4 print nbc_6.score(X_train, Y_train) 
 5 print "Accuracy on testing set:" 
 6 print nbc_6.score(X_test,Y_test) 
 7 y_predict = nbc_6.predict(X_test) 
 8 print "Classification Report:" 
 9 print metrics.classification_report(Y_test,y_predict) 
10 print "Confusion Matrix:" 
11 print metrics.confusion_matrix(Y_test,y_predict)

这里只输出准确率:

Accuracy on training set:
0.997701962171
Accuracy on testing set:
0.846919808816

参考资料

wiki:词袋模型

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017-08-23 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 使用朴素贝叶斯进行文本的分类
    • 引言
      • 数据集
        • 数据的预处理
          • 划分训练与测试数据
          • 词袋(Bag of Words)表征
          • 稀疏性
          • 文本特征提取的接口
        • 构建朴素贝叶斯分类器
          • 交叉验证
        • 优化特征提取提高分类的效果
          • 优化提取单词规则参数
          • 优化省略词参数
          • 优化贝叶斯分类器的alpha参数
        • 评估分类器性能
          • 参考资料
          相关产品与服务
          NLP 服务
          NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档