转载授权:AI算法之心
yuquanle编辑
简介
在某些平台评论中会经常出现一些有毒评论(即一些粗鲁,不尊重或者可能让某人离开讨论的评论),这使得许多人不愿意再表达自己并放弃在平台中评论。因此,为了促进用户对话,提出一系列的方案,来缓解这一问题。我们将其看作一个文本分类问题,来介绍一系列的文本分类方案。
数据描述
数据分为训练集和测试集,训练集包含153165条样本,测试集包含153164条样本,标签分为6类,分别是toxic,severe_toxic,obscene,threat,insult,identity_hate。部分样本展示如下:
评价指标
每类标签的AUC的平均值,作为评价指标。
方案
在这篇文章中,我将介绍最简单也是最常用的一种文本分类方法——从TFIDF中提取文本的特征,以逻辑回归作为分类器。
1、首先,我们利用TFIDF提取文本词语的信息:
2、为了充分表征文本信息,我们也提取文本字的ngram信息,我们将ngram设置为(2,6),也就是说我们会最少提取两个字母作为单词的信息,最多会提取6个字母作为单词:
3、接下来我们就开始合并文本词表征以及字表征:
4、所有的文本特征都提取完成后,我们就可以用机器学习的分类器——逻辑回归,训练模型。这是一个多标签问题,我们将其看作6个二分类问题求解,即我们假设两两标签是没有关系的。
如果你想运行该代码,可参考完整代码如下:
上述代码可以在github上面找到:https://github.com/hecongqing/TextClassification
数据集可以在这里下载:
https://share.weiyun.com/5c7KYLw
接下来的文章中我将介绍其他的机器学习方法和深度学习来解决有毒评论的文本分类问题。
参考:
1.https://www.kaggle.com/tunguz/logistic-regression-with-words-and-char-n-grams
The End
领取专属 10元无门槛券
私享最新 技术干货