前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >朴素贝叶斯算法文本分类原理

朴素贝叶斯算法文本分类原理

作者头像
code4it
发布2018-09-17 16:07:00
1.5K0
发布2018-09-17 16:07:00
举报
文章被收录于专栏:码匠的流水账码匠的流水账

本文主要简单研究一下朴素贝叶斯算法是如何对文本进行分类的。

贝叶斯算法

贝叶斯方法把计算“具有某特征的条件下属于某类”的概率转换成需要计算“属于某类的条件下具有某特征”的概率,属于有监督学习。

代码语言:javascript
复制
后验概率 = 先验概率 x 调整因子

这就是贝叶斯推断的含义。我们先预估一个”先验概率”,然后加入实验结果,看这个实验到底是增强还是削弱了”先验概率”,由此得到更接近事实的”后验概率”。

公式

代码语言:javascript
复制
p(yi|x) = p(yi) * p(x|yi) / p(x)

p(所属类别yi|某种特征x) = p(所属类别yi) * p(某种特征x|所属类别yi) /p(某种特征x)

根据公式就可以把计算“具有某种特征的条件下属于某个类别”的概率转换为:“属于某种类别的条件下,具有某种特征”的概率。

  • 先验概率 其中p(yi)称为先验概率,即在x事件发生之前,发生yi事件的概率
  • 后验概率 p(yi|x)称为后验概率,即在x事件发生之后,发生yi事件的概率,属于可观测的值
  • 调整因子 p(x|yi)/p(x)为调整因子,也成为可能性函数(Likelyhood),使得预估概率更接近真实概率

朴素贝叶斯算法

朴素贝叶斯理论源于随机变量的独立性:就文本分类而言,从朴素贝叶斯的角度来看,句子中的两两词之间的关系是相互独立的,即一个对象的特征向量中每个维度都是相互独立的。这是朴素贝叶斯理论的思想基础。其流程如下

代码语言:javascript
复制
- 第一阶段,训练数据生成训练样本集:TF-IDF。
- 第二阶段,对每个类别计算P(yi)。
- 第三阶段,对每个特征属性计算所有类别下的条件概率p(ai|yi)。
- 第四阶段,对每个类别计算p(x|yi)p(yi)。
- 第五阶段,以p(x|yi)p(yi)的最大项作为x的所属类别。

问题

假设x是一个待分类文本,其特征为{a1,a2,…,am};已知类别集合{y1,y2,…yn};求x所属的类别

基本思路

代码语言:javascript
复制
如果p(yi|x) = max{p(y1|x),p(y2|x),p(y3|x),...,p(yn|x)},则x属于yi类别

如何计算p(yi|x)

利用贝叶斯公式

代码语言:javascript
复制
p(yi|x) = p(x|yi)*p(yi) / p(x)

问题转换为对每个类别计算p(x|yi)p(yi),以p(x|yi)p(yi)的最大项作为x的所属类别

计算p(x|yi)

由于朴素贝叶斯假定各个特征是相互独立的,因此

代码语言:javascript
复制
p(x|yi) = p(a1|yi)*p(a2|yi)...*p(am|yi)

p(x|yi)/p(x)为调整因子

计算p(ai|yi)

而p(ai|yi)则可以通过训练集(已经分好类),统计各个类别下面各种特征的条件概率p(ai|yi)得到。

自此求x所属的类别p(yi|x)被一步步化解,可以通过计算训练集中每个类别下各种特征的条件概率p(ai|yi)来求解得到。

而训练的过程则是根据训练集去计算调整因子的影响因素p(x|yi)=p(a1|yi)p(a2|yi)…p(am|yi),因此训练集的好坏直接影响预测结果的准确性。

TF-IDF

TF-IDF( term frequency–inverse document frequency )是一种用于信息检索与数据挖掘的常用加权方法。

代码语言:javascript
复制
TF-IDF = TF * IDF

TF-IDF的主要思想是:如果某个词或短语在一篇文章中出现的频率 TF 高,并且在其他文章中很少出现(IDF值大),则认为此词或者短语具有很好的类别区分能力,适合用来分类。

TF

意思是词频( Term Frequency ),即某个词在文件中出现的频率

代码语言:javascript
复制
TFi = Ndti / Ndt1..n

即该词在文档中出现的次数/该文档所有词出现的次数之和

IDF

意思是逆向文件频率( Inverse Document Frequency ),它是一个词语重要性的调整系数,衡量一个词是不是常见词。如果某个词比较少见,但是它在这篇文章中多次出现,那么它很可能就反映了这篇文章的特性,正是我们所需要的关键词。

某一特定词语的IDF,可以由总文件数目除以包含该词语之文件的数目,再将得到的商取对数得到

代码语言:javascript
复制
IDF = log(Nd/Ndt)

Nd为总文件数,Ndt为包含该词语的文件数目

如果一个词非常常用则Ndt变大,则IDF值会变小,因而TF-IDF值也会变小,这样就很好地削弱了常用词的特征性。

小结

朴素贝叶斯算法将问题一步步化解,最后通过训练集求解,值得好好学习推敲。

doc

  • NLP汉语自然语言处理原理与实践
  • 请用简单易懂的语言描述朴素贝叶斯分类器?
  • 数学之美番外篇:平凡而又神奇的贝叶斯方法
  • 贝叶斯推断及其互联网应用(一):定理简介
  • 贝叶斯推断及其互联网应用(二):过滤垃圾邮件
  • 从决策树学习谈到贝叶斯分类算法、EM、HMM
  • 机器学习|TF-IDF提取文本特征词
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-04-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 码匠的流水账 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 贝叶斯算法
    • 公式
    • 朴素贝叶斯算法
      • 问题
        • 基本思路
          • 如何计算p(yi|x)
            • 计算p(x|yi)
              • 计算p(ai|yi)
              • TF-IDF
                • TF
                  • IDF
                  • 小结
                  • doc
                  相关产品与服务
                  NLP 服务
                  NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
                  领券
                  问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档