专栏首页凹凸玩数据用Python爬取b站弹幕,看大家还会接受《爱情公寓5》吗?

用Python爬取b站弹幕,看大家还会接受《爱情公寓5》吗?

尽管抄袭傍身,也没能阻挡《爱情公寓5》进击的脚步。 最近爱情公寓电视剧微博发布了长达8分钟的揭幕视频,官宣新季将在2020正式开播。 几位主演纷纷转发宣传,将#爱情公寓5揭幕#的话题送上了热搜。 观众在经历过一次《爱情公墓》的诈骗后,能否接受《爱情公寓5》(下文简称爱5)? 让我们来分析一下。 获取数据 首先,我选取了在B站上最热的视频,目前已经179万播放量,2万弹幕。

为什么选择B站呢? 著名UP主“残狼之卑”,曾经在b站上传了几十个对比视频,做成《爱情公寓的抄袭史》,每期视频播放量都几十万,所以按理来说B站的用户反对爱情公寓的人应该很多。 如果B站的用户都可以接受,那么《爱5》可能真的会取得不错的播放量。 B站的弹幕数据是有接口的,比如说: https://comment.bilibili.com/********.xml 它以一个固定的url地址+视频的cid+.xml组成。只要找到你想要的视频cid,替换这个url就可以爬取所有弹幕了。 以刚才的视频为例

它的cid就是123519261,构成url就是: https://comment.bilibili.com/123519261.xml 下载并打开这个XML格式的弹幕文件。

观察上图,所有的弹幕都放在了<d>标签下

那么我们写段爬虫:

from bs4 import BeautifulSoup
import pandas as pd
import requests

url = 'http://comment.bilibili.com/123519261.xml'
html = requests.get(url)
html.encoding='utf8'

soup = BeautifulSoup(html.text, 'lxml')
results = soup.find_all('d')

comments = [comment.text for comment in results]
comments_dict = {'comments': comments}

df = pd.DataFrame(comments_dict)
df.to_csv('bili_ai5.csv', encoding='utf-8-sig')

最后成功获取1000条弹幕数据。

(b站给出的字幕限制是1000条)

数据分析

在弹幕中看到很多人提及“大二了”,“从小学5年级开始看”,我们来看一下学生阶段在弹幕中的提及数。

#学生阶段在弹幕中的提及数
a = {'小学':'小学|一年级|二年级|三年级|四年级|五年级|六年级', 
     '初中':'初中|初一|初二|初三', 
     '高一':'高一', 
     '高二':'高二',
     '高三':'高三', 
     '大一':'大一', 
     '大二':'大二', 
     '大三':'大三', 
     '大四':'大四',}
for key, value in a.items():
    data[key] = data['comments'].str.contains(value)
staff_count = pd.Series({key: data.loc[data[key], 'comments'].count() for key in a.keys()}).sort_values()
print(staff_count)

1000条弹幕就包含了这么多关于年龄的怀念。

数据可视化 我们将爬取得到的弹幕做个词云,更加直观地展示。

import jieba
from collections import Counter
from pyecharts import WordCloud

stop_words = [x.strip() for x in open ('stopwords.txt',encoding="utf-8") ]
text = ''.join(data['comments'])
words = list(jieba.cut(text))
ex_sw_words = []
for word in words:
    if len(word)>1 and (word not in stop_words):
        ex_sw_words.append(word)
c = Counter()
c = Counter(ex_sw_words)
wc_data = pd.DataFrame({'word':list(c.keys()), 'counts':list(c.values())}).sort_values(by='counts', ascending=False).head(100)
wordcloud = WordCloud(width=1300, height=620)
wordcloud.add("", wc_data['word'], wc_data['counts'], word_size_range=[15, 80])

词云图上,可以看到《爱情公寓》依旧是一代人快乐的回忆,即便是电影导致IP口碑全面崩盘,但粉丝好感似乎用之不尽。即便有人提到抄袭借鉴之类的,也会被说“黑粉gun开”。 通过这次B站弹幕的爬取分析,我现在可以肯定的是《爱5》依然会有很多人看。只要片方挥舞着“十年怀旧,挥别青春”的大旗便会无往不利,这也是他们的底气所在。 其实我理解大家只是想要一个结局。 但《爱5》过后。 没有演技的演员重新找路。 靠着怀旧的片方盆丰钵满。 这是我们想要的结局吗? 朱小五,某互联网公司数据分析师,热衷于爬虫,数据分析,可视化,个人公众号《凹凸玩数据》 本文相关代码已上传github: https://github.com/zpw1995/aotodata/tree/master/bilibili_danmu

本文分享自微信公众号 - 凹凸数据(alltodata),作者:朱小五

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2019-10-17

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 用Python演绎5种常见可视化视图

    如果你想要用Python进行数据分析,就需要在项目初期开始进行探索性的数据分析,这样方便你对数据有一定的了解。其中最直观的就是采用数据可视化技术,这样,数据不仅...

    朱小五
  • 原来Python自带了数据库,用起来真方便!

    Python作为数据科学主流语言,被广泛用于数据读存、处理、分析、建模,可以说是无所不能。

    朱小五
  • 利用Tableau绘制辐射堆叠图,炫酷易上手

    我在不久前见到过这样的图,我就想可以写一篇关于如何在Tableau中创建辐射堆叠图,这是个基于合计百分比运算的堆叠图,但整体的形状是圆形的,作图的整个过程十分有...

    朱小五
  • 用Python爬取b站弹幕,看大家还会接受《爱情公寓5》吗?

    为什么选择B站呢? 著名UP主“残狼之卑”,曾经在b站上传了几十个对比视频,做成《爱情公寓的抄袭史》,每期视频播放量都几十万,所以按理来说B站的用户反...

    数据森麟
  • 漏洞笔记 | ASP.NET允许文件调试

    发送DEBUG动作的请求,如果服务器返回内容为OK,那么服务器就开启了调试功能,可能会导致有关Web应用程序的敏感信息泄露,例如密码、路径等。

    TeamsSix
  • Python数据可视化:啥是佩奇

    网址:http://comment.bilibili.com/72036817.xml

    小F
  • Python数据可视化:啥是佩奇

    网址:http://comment.bilibili.com/72036817.xml

    前端皮皮
  • 开发|Springboot简单实现文件上传

    首先在config文件夹下创建一个MyWebConfig的配置类,用于配置资源映射路径。

    算法与编程之美
  • Java NIO 系列学习 05 - Scatter and Gather

    Java NIO 提供了内置的Scatter和Gather支持。Scatter和Gatter是用于读写Channel的概念。

    许杨淼淼
  • 腾讯云多Kubernetes的多维度监控实践

    本次分享的主要内容涉及腾讯云容器的顶层整体设计,包括产品功能,及提供的附加能力。同时会介绍我们现在Master集群化部署的整体方案。

    云加社区

扫码关注云+社区

领取腾讯云代金券