专栏首页数据派THU独家 | 基于NLP的COVID-19虚假新闻检测(附代码)

独家 | 基于NLP的COVID-19虚假新闻检测(附代码)

作者:Susan Li

翻译:杨毅远

校对:吴金笛

本文长度为4400字,建议阅读8分钟

本文为大家介绍了基于自然语言处理的COVID-19虚假新闻检测方法以及可视化方法,并结合真实的新闻数据集与完整的代码复现了检测以及可视化的过程。

标签:自然语言处理 数据可视化

最近有这样一则新闻:一半的加拿大人被COVID-19的阴谋论所愚弄,这个新闻真的令人心碎。

世界卫生组织(WHO)称,与COVID-19相关的信息流行病与病毒本身同样危险。同样地,阴谋论、神话和夸大的事实可能会产生超出公共健康范围的后果。

多亏了Lead Stories,Poynter,FactCheck.org,Snopes,EuVsDisinfo等项目可以监视、识别和检查散布在世界各地的虚假信息。

为了探究COVID-19虚假新闻的内容,我对于真实新闻和虚假新闻进行了严格的定义。具体来说,真实新闻是众所周知的真实报道并且来自可信赖的新闻机构;虚假新闻是众所周知的错误报道并且来自知名的有意试图散布错误信息的虚假新闻网站。

基于以上定义,我从各种新闻资源中收集了1100篇有关COVID-19的新闻文章和社交网络帖子并对其进行了标记。

数据集可以在这里找到:

https://raw.githubusercontent.com/susanli2016/NLP-with-Python/master/data/corona_fake.csv

数据

1. from nltk.corpus import stopwords  
2. STOPWORDS = set(stopwords.words('english'))  
3. from sklearn.feature_extraction.text import CountVectorizer  
4.   
5. from textblob import TextBlob  
6. import plotly.express as px  
7. import plotly.figure_factory as ff  
8. import plotly.graph_objects as go  
9.   
10. df = pd.read_csv('data/corona_fake.csv')  
11. df.loc[df['label'] == 'Fake', ['label']] = 'FAKE'  
12. df.loc[df['label'] == 'fake', ['label']] = 'FAKE'  
13. df.loc[df['source'] == 'facebook', ['source']] = 'Facebook'  
14.   
15. df.loc[5]['label'] = 'FAKE'  
16. df.loc[15]['label'] = 'TRUE'  
17. df.loc[43]['label'] = 'FAKE'  
18. df.loc[131]['label'] = 'TRUE'  
19. df.loc[242]['label'] = 'FAKE'  
20.   
21. df = df.sample(frac=1).reset_index(drop=True)  
22. df.label.value_counts()

process_data.py

经过数据清洗,我们可以看到共有586篇真实新闻和578篇虚假新闻。

df.loc[df['label'] == 'TRUE'].source.value_counts()

图一

真实新闻主要来自哈佛健康出版社(Harvard Health Publishing)、《纽约时报》(The New York Times)、约翰霍普金斯大学彭博公共卫生学院(Johns Hopkins Bloomberg School of Public Health)、世卫组织(WHO)以及疾病预防控制中心(CDC)等机构。

df.loc[df['label'] == 'FAKE'].source.value_counts()

图二

其中的几个虚假新闻是从Facebook的帖子中收集的,其是一个名为Natural News的极右网站和一个名为orthomolecular.org的替代医学网站。一些文章或帖子已从互联网或社交网络中删除,但是,他们仍能够在网络中被查询到。

使用下面的函数,我们将能够阅读任何给定的新闻内容并由此确定如何清洗它们:

1. def print_plot(index):  
2.     example = df[df.index == index][['text','label']].values[0]  
3.     if len(example) > 0:  
4.         print(example[0])  
5.         print('label:', example[1])  
6.           
7. print_plot(500)

print_plot.py

print_plot(1000)

由于我们数据集中文章内容很清晰,所以我们仅需要删除标点符号并将大写字母改为小写即可。

1. df['text'] = df['text'].str.replace('[^\w\s]','')  
2. df['text'] = df['text'].str.lower()

文章长度

在接下来的步骤中:

  • 获取每篇新闻的情感得分,而且分数控制在[-1,1]范围内,其中1表示积极情绪,-1表示消极情绪。
  • 获取每篇文章的长度(字数)。
df['polarity'] = df['text'].map(lambda text: TextBlob(text).sentiment.polarity)  
   
def text_len(x):  
    if type(x) is str:  
             return len(x.split())  
    else:  
        return 0  
   
df['text_len'] = df['text'].apply(text_len)  
nums_text = df.query('text_len > 0')['text_len']  
   
fig = ff.create_distplot(hist_data = [nums_text], group_labels = ['Text'])  
fig.update_layout(title_text='Distribution of article length', template="plotly_white")  
fig.show()  

polarity_length.py

图三

数据集中的大多数文章少于1000个单词。不过,有少数文章超过4000个单词。

当我们按标签区分时,就文章的长度而言,真实新闻和虚假新闻之间没有明显的区别,尽管在数据集中大多数真实新闻似乎都比虚假新闻短一些。

1. fig = px.histogram(df, x="text_len", y="text", color="label",  
2.                    marginal="box",  
3.                    hover_data=df.columns, nbins=100)  
4. fig.update_layout(title_text='Distribution of article length', template="plotly_white")  
5. fig.show()  
text_len_hist.py

图四

为了显示不同新闻的文本长度的概率密度,我们使用小提琴图(violin plot)表示:

1. fig = px.violin(df, y='text_len', color='label',  
2.                 violinmode='overlay',   
3.                 hover_data=df.columns, template='plotly_white')  
4. fig.show()

text_len_violin.py

图五

  • Facebook vs. Harvard

平均而言,Facebook的帖子比哈佛健康的文章短得多:

1. df_new = df.loc[(df['source'] == 'Facebook') | (df['source'] == 'https://www.health.harvard.edu/')]  
2.   
3. fig = px.histogram(df_new, x="text_len", y="text", color='source',  
4.                    marginal="box",  
5.                    hover_data=df_new.columns, nbins=100)  
6. fig.update_layout(title_text='Distribution of article length of two sources', template="plotly_white")  
7. fig.show()

facebook_harvard_textlen_hist.py

图六

我们也可以使用小提琴图(violin plot)来呈现:

1. fig = px.violin(df_new, y='text_len', color='source',  
2.                 violinmode='overlay',   
3.                 hover_data=df_new.columns, template='plotly_white')  
4. fig.show() 

facebook_harvard_textlen_violin.py

图七

也许我们大家都很熟悉,Facebook虚假帖子的内容往往更短。发表文章的人试图通过试探法而非说服力来说服读者。

  • 情感极性
1. x1 = df.loc[df['label']=='TRUE']['polarity']  
2. x2 = df.loc[df['label'] == 'FAKE']['polarity']  
3.   
4. group_labels = ['TRUE', 'FAKE']  
5.   
6. colors = ['rgb(0, 0, 100)', 'rgb(0, 200, 200)']  
7.   
8. fig = ff.create_distplot(  
9.     [x1, x2], group_labels,colors=colors)  
10.   
11. fig.update_layout(title_text='polarity', template="plotly_white")  
12. fig.show()

label_polarity.py

图八

真实新闻与虚假新闻在情感方面没有明显差异,我们可以使用小提琴图(violin plot)来证实:

1. fig = p.violin(df, y='polarity', color="label",  
2.                 violinmode='overlay',  
3.                 template='plotly_white')  
4. fig.show()

polarity_violin.py

图九

当我们比较这四个来源之间的情绪极性时,我们可以看到《纽约时报》和《自然新闻》的情绪分布比哈佛健康新闻和Facebook的情绪分布要窄得多。

1. x1 = df.loc[df['source']=='Facebook']['polarity']  
2. x2 = df.loc[df['source'] == 'https://www.health.harvard.edu/']['polarity']  
3. x3 = df.loc[df['source'] == 'https://www.nytimes.com/']['polarity']  
4. x4 = df.loc[df['source'] == 'https://www.naturalnews.com/']['polarity']  
5. group_labels = ['Facebook', 'Harvard', 'nytimes', 'naturalnews']  
6.   
7. colors = ['rgb(0, 0, 100)', 'rgb(0, 200, 200)', 'rgb(100, 0, 0)', 'rgb(200, 0, 200)']  
8.   
9. # Create distplot with custom bin_size  10. fig = ff.create_distplot(  
11.     [x1, x2, x3, x4], group_labels,colors=colors)  
12.   
13. fig.update_layout(title_text='polarity', template="plotly_white")  
14. fig.show()  

polarity_source.py

图十

这意味着《纽约时报》的新闻和数据中的自然新闻听起来不那么具有情绪。

可以用以下小提琴图(violin plot)来证实:

1. fig = go.Figure()  
2.   
3. sources = ['https://www.health.harvard.edu/', 'https://www.nytimes.com/', 'Facebook', 'https://www.naturalnews.com/']  
4.   
5. for source in sources:  
6.     fig.add_trace(go.Violin(x=df['source'][df['source'] == source],  
7.                             y=df['polarity'][df['source'] == source],  
8.                             name=source,  
9.                             box_visible=True,  
10.                             meanline_visible=True))  
11. fig.update_layout(title_text='Polarity of four sources', template='plotly_white')  
12. fig.show()

source_violin.py

图十一

  • 情绪vs文章长度vs真实性

我注意到我收集的新闻和帖子既不是非常积极,也不是非常消极。它们大多数处于适度的正数范围内,并且大多数长度少于1000个字。

1. fig = px.density_contour(df, x='polarity', y='text_len', marginal_x='histogram', marginal_y='histogram', template='plotly_white')  
2. fig.update_layout(title_text='Sentiment vs. Article length')  
3. fig.show()

len_polarity.py

图十二

情感与文章的长度之间没有明显的关系。通常,文章的情感或篇幅不能反映其真实性。虚假新闻与真实新闻之间的区别可能是相当随意的。

1. fig = px.scatter(df, x='polarity', y='text_len', color='label', template="plotly_white")  
2. fig.update_layout(title_text='Sentiment polarity')  
3. fig.show()

polarity_scatter.py

图十三

df.groupby(['source']).mean().sort_values('polarity', ascending=False)

图十四

我注意到鲁迪·朱利安妮(Rudy Giuliani)的帖子是情感评分最高的帖子之一,所以我很好奇想知道这篇帖子是关于什么的:

df.loc[df['source'] == 'RudyGiuliani']['text'][880]

当然是关于羟氯喹(Hydroxychloroquine)的啦~。

真实与虚假新闻的内容

现在,我们将了解数据集中包含哪些主题:

1. common_bigram_true = get_top_n_bigram(df.loc[df['label'] == 'TRUE']['text'], 20)  
2. for word, freq in common_bigram_true:  
3.     print(word, freq)

true_bigram.py

1. common_bigram_fake = get_top_n_bigram(df.loc[df['label'] == 'FAKE']['text'], 20)  
2. for word, freq in common_bigram_fake:  
3.     print(word, freq)

fake_bigram.py

  • 促进治愈:这包括使用大剂量静脉注射维生素C。
  • 关于起源的推测:这个主题包括声称冠状病毒是在用于生物武器的实验室中制造的,或者是5G技术导致了这种疾病。
  • 关于有影响力人士的谣言:例如比尔·盖茨和福西博士代表制药公司策划了冠状病毒。
  • 应对人们的恐惧:例如梅林达·盖茨基金会和约翰·霍普金斯大学在三个月前通过Event 201预测了冠状病毒。

从我们的数据来看,真实和虚假新闻内容之间的一个明显区别是,虚假新闻似乎更多地使用了人的名字,这表明虚假新闻可能更加个性化。

naturalnews.com vs orthomolecular.org

以上两个新闻来源都提倡阴谋论,但是它们却关注不同的主题。

1. naturalnews_bigram = get_top_n_bigram(df.loc[df['source'] == 'https://www.naturalnews.com/']['text'], 20)  
2. for word, freq in naturalnews_bigram:  
3.     print(word, freq)

natural_bigram.py

naturalnews.com一直在传播虚假信息,例如在中国实验室将冠状病毒设计为生物武器,并且/或者传播病毒来掩盖暴露于5G无线技术有关有害健康的影响。

1. ortho_bigram = get_top_n_bigram(df.loc[df['source'] == 'http://orthomolecular.org/']['text'], 20)  
2. for word, freq in ortho_bigram:  
3.     print(word, freq)

ortho_bigram.py

orthomolecular.org一直在推广使用大剂量静脉注射维生素C作为治疗方法,但尚无根据。

根据以上分析,大家可以随时自行判断其他新闻的真实性。

总结

首先,我们不知道在收集数据时是否存在选择偏差。其次,虽然以上的新闻都是用户参与度很高的新闻,但我们无法说出这些新闻报导产生的实际流量。尽管有这些不足,但此数据集提供了合理的标签,并且我们知道其内的所有新闻都已被广泛阅读和分享。

原文标题:

Explore COVID-19 Infodemic

原文链接:

https://towardsdatascience.com/explore-covid-19-infodemic-2d1ceaae2306

编辑:王菁

校对:杨学俊

译者简介

杨毅远,清华大学自动化系研一在读,本科毕业于华中科技大学自动化学院实验班,研究方向为工业过程检测中的AI算法。喜欢唱歌、喜欢接触新鲜事物的我对于“AI+”格外感兴趣;入门CV和数据挖掘的我,希望接触到更多非自己研究领域内的事物,拓宽自己的知识圈。

转载须知

如需转载,请在开篇显著位置注明作者和出处(转自:数据派ID:DatapiTHU),并在文章结尾放置数据派醒目二维码。有原创标识文章,请发送【文章名称-待授权公众号名称及ID】至联系邮箱,申请白名单授权并按要求编辑。

本文分享自微信公众号 - 数据派THU(DatapiTHU),作者:Susan Li

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2020-07-01

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • Pandas进阶修炼120题,给你深度和广度的船新体验

    本文为你介绍Pandas基础、Pandas数据处理、金融数据处理等方面的一些习题。

    数据派THU
  • 独家 | 11个Python Pandas小技巧让你的工作更高效(附代码实例)

    Pandas是一个在Python中广泛应用的数据分析包。市面上有很多关于Pandas的经典教程,但本文介绍几个隐藏的炫酷小技巧,我相信这些会对你有所帮助。

    数据派THU
  • 独家 | 探索性文本数据分析的新手教程(Amazon案例研究)

    本文利用Python对Amazon产品的反馈对数据文本进行探索性研究与分析,并给出结论。

    数据派THU
  • 【Python环境】python 中数据分析几个比较常用的方法

    1,表头或是excel的索引如果是中文的话,输出会出错 ? 解决方法:python的版本问题!换成python3就自动解决了!当然也有其他的方法,这里就不再深究...

    陆勤_数据人网
  • 房价数据转换和清洗2

    下载链接:https://pan.baidu.com/s/16D5hw-XBEQnwtsf4fDJ8xw 密码:e1fg

    潇洒坤
  • Python-科学计算-pandas-06-Df合并

    系统:Windows 7 语言版本:Anaconda3-4.3.0.1-Windows-x86_64 编辑器:pycharm-community-2016.3....

    zishendianxia
  • 玩转数据处理120题|Pandas&R

    本文精心挑选在数据处理中常见的120种操作并整理成习题发布。并且每一题同时给出Pandas与R语言解法,同时针对部分习题给出了多种方法与注解。本系列一共涵盖了数...

    刘早起
  • Kaggle初探--房价预测案例之模型建立

    本文数据来源kaggle的House Prices: Advanced Regression Techniques大赛。

    zhuanxu
  • SparkSQL入门_1

    概述 DataFrame SQL query ReadWrite Example 概述 先说说准备工作吧。 目前使用的是伪分布式模式,hadoop,spar...

    用户1147754
  • Golang同步:锁的使用案例详解

    互斥锁 互斥锁是传统的并发程序对共享资源进行访问控制的主要手段。它由标准库代码包sync中的Mutex结构体类型代表。只有两个公开方法 Lock Unlock ...

    李海彬

扫码关注云+社区

领取腾讯云代金券