前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >B站弹幕爬虫

B站弹幕爬虫

作者头像
HuangWeiAI
发布2020-02-24 12:49:03
1K0
发布2020-02-24 12:49:03
举报
文章被收录于专栏:浊酒清味浊酒清味

前言

B站作为弹幕文化的代表,有着非常丰富的弹幕资源。今天我们尝试对B站的弹幕进行爬虫并且绘制词云图展示爬虫结果。

爬虫方式

01

PART

众所周知,B站的内容非常丰富:

要想找到一个视频中的弹幕,我们其实有很多种方法。

给大家介绍Github上一个B站爬虫数据接口大全:

https://github.com/Vespa314/bilibili-api/blob/master/api.md

在这次爬虫中,我们使用【读取Up视频列表】的方式:

02

PART

基本信息

我们选取一位叫做【小时姑娘】的Up主来爬取:

注意上面网址中的id=99239148,这是个核心信息。

由于我们是数据接口是列表的形式,所以原则上可以爬取该Up主的所有视频信息。

但是,这次我们专注于一个视频。

没错,就是上面图片中第三个视频,播放量为80.3万的现场版【爱殇】。

这个视频来自于bilibili晚会。弹幕和播放量都够我们爬的。

爬虫代码

03

PART

我们爬虫的代码主要参考知乎的一个回答:

https://www.zhihu.com/question/56924570/answer/236892766

只需要根据Up主id信息以及视频在列表中位置就可以顺利爬虫:

import requests
import re
import os
import sys
import json

# B站API详情 https://github.com/Vespa314/bilibili-api/blob/master/api.md

# 视频AV号列表
aid_list = []

# 评论用户及其信息
info_list = []

# 获取指定UP的所有视频的AV号 mid:用户编号 size:单次拉取数目 page:页数
def getAllAVList(mid, size, page):
    for n in range(1,page+1): 
        url = "http://space.bilibili.com/ajax/member/getSubmitVideos?mid=" + str(mid) + "&pagesize=" + str(size) + "&page=" + str(n)
        r = requests.get(url) 
        text = r.text 
        json_text = json.loads(text) 
        print (json_text)
        # 遍历JSON格式信息,获取视频aid 
        for item in json_text["data"]["vlist"]: 
            aid_list.append(item["aid"]) 
    print(aid_list)
# 获取一个AV号视频下所有评论 
def getAllCommentList(item): 
    url = "http://api.bilibili.com/x/reply?type=1&oid=" + str(item) + "&pn=1&nohot=1&sort=0" 
    r = requests.get(url) 
    numtext = r.text 
    json_text = json.loads(numtext) 
    commentsNum = json_text["data"]["page"]["count"] 
    page = commentsNum // 20 + 1 
    for n in range(1,page): 
        url = "https://api.bilibili.com/x/v2/reply?jsonp=jsonp&pn="+str(n)+"&type=1&oid="+str(item)+"&sort=1&nohot=1" 
        req = requests.get(url) 
        text = req.text 
        json_text_list = json.loads(text) 
        for i in json_text_list["data"]["replies"]: 
            info_list.append([i["member"]["uname"],i["content"]["message"]]) 
    # print(info_list)

# 保存评论文件为txt 
def saveTxt(filename,filecontent): 
    filename = str(filename) + ".txt" 
    for content in filecontent: 
        with open(filename, "a", encoding='utf-8') as txt: 
            txt.write(content[0] +' '+content[1].replace('\n','') + '\n\n') 
        print("文件写入中")

if __name__ == "__main__": 
    # 爬取小时姑娘 只爬取第一页的第一个 
    getAllAVList(99239148,3,1) 
    for item in aid_list: 
        info_list.clear() 
        getAllCommentList(item) 
        saveTxt(item,info_list)

04

PART

词云图

我们将结果通过词云图的方式展示出来:

可以看出来,弹幕还是非常丰富多彩的。

有夸唱的好听的,有提到小时姑娘名字的,还有卧槽,哈哈哈。

值得注意的是里面有很多提到了东宫,查了一下资料才发现这首歌原来已经出现很久了:

大家感兴趣的话,可以去爬自己喜欢的视频哦。

·END·

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-01-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Python与机器学习之路 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
腾讯云图数据可视化
腾讯云图数据可视化(Tencent Cloud Visualization) 是一站式数据可视化展示平台,旨在帮助用户快速通过可视化图表展示大量数据,低门槛快速打造出专业大屏数据展示。精心预设多种行业模板,极致展示数据魅力。采用拖拽式自由布局,全图形化编辑,快速可视化制作。腾讯云图数据可视化支持多种数据来源配置,支持数据实时同步更新,同时基于 Web 页面渲染,可灵活投屏多种屏幕终端。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档