Adaboost

NaiveBayesSpamFilter

利用朴素贝叶斯算法实现垃圾邮件的过滤,并结合Adaboost改进该算法。

1 Naive Bayes spam filtering

  假设邮件的内容中包含的词汇为Wi,垃圾邮件Spam,正常邮件ham。 判断一份邮件,内容包含的词汇为Wi,判断该邮件是否是垃圾邮件,即计算P(S|Wi)这个条件概率。根据Bayes’ theorem:

  Bayes’ theorem

  其中:

Pr(S|Wi) 出现词汇Wi的邮件是垃圾邮件的条件概率(即后验概率); Pr(S) 训练阶段邮件数据集中垃圾邮件的概率,或实际调查的垃圾邮件的概率(即先验概率); Pr(Wi|S) 垃圾邮件中词汇Wi出现的概率; Pr(H) 训练阶段邮件数据集中正常邮件的概率,或实际调查的正常邮件的概率; Pr(Wi|H) 正常邮件中词汇Wi出现的概率;   对于邮件中出现的所有词汇,考虑每个词汇出现事件的独立性,计算Pr(S|Wi)的联合概率Pr(S|W),W={W1,W2,…Wn}:

  Bayes’ theorem

  其中:

P 即Pr(S|W),出现词汇W={W1,W2……Wn}的邮件是垃圾邮件的条件概率; Pi 即Pr(S|Wi),出现词汇Wi的邮件是垃圾邮件的条件概率;   注: 程序中,通过计算出Pr(S|W)和Pr(H|W),比较Pr(S|W)和Pr(H|W)的大小,判断是垃圾邮件还是正常邮件。我们发现Pr(S|W)和Pr(H|W)计算的分母相同,所以我们只需要比较分子即可。

  但存在两个问题:

当词汇不存在时,即ni=0,此时Pr(S|Wi) = 0,会造成P=0,无法比较 当Pr(S|Wi)较小时,连乘操作会造成下溢出问题   解决方案:

计算P(Wi|S)和P(Wi|H)时,将所有词汇初始化出现的次数为1,并将分母初始化为2(或根据样本/实际调查结果调整分母的值)。

# 统计语料库中词汇在S和H中出现的次数
wordsInSpamNum = np.ones(numWords)
wordsInHealthNum = np.ones(numWords)
spamWordsNum = 2.0
healthWordsNum = 2.0

计算P(Wi|S)和P(Wi|H)时,对概率取对数 pWordsSpamicity = np.log(wordsInSpamNum / spamWordsNum) pWordsHealthy = np.log(wordsInHealthNum / healthWordsNum)   所以最终比较的是,P(W1|S)P(W2|S)….P(Wn|S)P(S)和P(W1|H)P(W2|H)….P(Wn|H)P(H)的大小。

ps = sum(testWordsMarkedArray  pWordsSpamicity) + np.log(pSpam)
ph = sum(testWordsMarkedArray  pWordsHealthy) + np.log(1 - pSpam)

  测试效果: 5574个样本,采用交叉验证,随机选取4574个作为训练样本,产生词汇列表(语料库),对1000个测试样本,分类的平均错误率约为:2.5%。

2 Running Adaboost on Naive Bayes

  我们在计算ps和ph联合后验概率时,可引入一个调整因子DS,其作用是调整词汇表中某一词汇的“垃圾程度”(spamicity),

ps = sum(testWordsMarkedArray * pWordsSpamicity * DS) + np.log(pSpam)

  其中DS通过Adaboost算法迭代获取最佳值。原理如下:

设定adaboost循环的次数count 交叉验证随机选择1000个样本 DS初始化为和词汇列表大小相等的全一向量 迭代循环count次: 设定最小分类错误率为inf 对于每一个样本: 在当前DS下对样本分类 如果分类出错: 计算出错的程度,即比较ps和ph的相差alpha 如果样本原本是spam,错分成ham: DS[样本包含的词汇] = np.abs(DS[样本包含的词汇] - np.exp(alpha) / DS[样本包含的词汇]) 如果样本原本是ham,错分成spam: DS[样本包含的词汇] = DS[样本包含的词汇] + np.exp(alpha) / DS[样本包含的词汇] 计算错误率 保存最小的错误率和此时的词汇列表、P(Wi|S)和P(Wi|H)、DS等信息,即保存训练好的最佳模型的信息   测试效果: 5574个样本,获取Adaboost算法训练的最佳模型信息(包括词汇列表、P(Wi|S)和P(Wi|H)、DS等),对1000个测试样本,分类的平均错误率约为:0.5%。

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏计算机视觉战队

在局部误差边界条件下的随机子梯度方法的加速

今天我们主要针对Stochastic Subgradient Methods来进行详细讲解,如果有兴趣的读者,进认真和我们一起阅读下去,记得拿好纸和笔。

1023
来自专栏SnailTyan

CRNN论文翻译——中文版

An End-to-End Trainable Neural Network for Image-based Sequence Recognition and ...

3008
来自专栏宏伦工作室

用自编码器进行图像去噪

1314
来自专栏互联网大杂烩

支持向量机(SVM)

支持向量机(support vector machine)是一种分类算法,通过寻求结构化风险最小来提高学习机泛化能力,实现经验风险和置信范围的最小化,从而达到在...

532
来自专栏大学生计算机视觉学习DeepLearning

转-------CNN图像相似度匹配 2-channel network

5465
来自专栏魏晓蕾的专栏

【深度学习】深度学习中的一些数学公式

5、交叉熵损失(cross-entropy loss)函数:

19910
来自专栏ATYUN订阅号

怎样在Python的深度学习库Keras中使用度量

Keras库提供了一种在训练深度学习模型时计算并报告一套标准度量的方法。 除了提供分类和回归问题的标准度量外,Keras还允许在训练深度学习模型时,定义和报告你...

3948
来自专栏大数据挖掘DT机器学习

在深度学习TensorFlow 框架上使用 LSTM 进行情感分析

在这篇教程中,我们将介绍如何将深度学习技术应用到情感分析中。该任务可以被认为是从一个句子,一段话,或者是从一个文档中,将作者的情感分为积极的,消极的或者中性的。...

6007
来自专栏杨熹的专栏

attention 机制入门

在下面这两篇文章中都有提到 attention 机制: 使聊天机器人的对话更有营养 如何自动生成文章摘要 今天来看看 attention 是什么。 下面这篇...

3768
来自专栏机器之心

教程 | 如何使用深度学习执行文本实体提取

选自TowardsDataScience 作者:Dhanoop Karunakaran等 机器之心编译 参与:Tianci LIU、路 本文介绍了如何使用深度学...

3476

扫码关注云+社区