前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >python数据可视化 豆瓣电影top250数据分析

python数据可视化 豆瓣电影top250数据分析

作者头像
叶庭云
修改2021-01-23 14:29:14
3.5K0
修改2021-01-23 14:29:14
举报
文章被收录于专栏:Python进阶之路

文章目录

一、上映高分电影数量最多的年份Top10

代码语言:txt
复制
import collections
import pandas as pd
from matplotlib import pyplot as plt


# 读取数据
df = pd.read_excel("movie.xlsx")
# print(type(df))    # <class 'pandas.core.frame.DataFrame'>

show_time = list(df["上映时间"])
# 有上映时间数据是1961(中国大陆)这样的  处理一下  字符串切片
show_time = [s[:4] for s in show_time]

show_time_count = collections.Counter(show_time)

# 取数量最多的前10  得到一个列表  里面每个元素是元组
# (年份, 数量)
show_time_count = show_time_count.most_common(10)
# 字典推导式
show_time_dic = {k: v for k, v in show_time_count}

# 按年份排序
show_time = sorted(show_time_dic)
# 年份对应高分电影数量
counts = [show_time_dic[k] for k in show_time]

plt.figure(figsize=(9, 6), dpi=100)
# 设置字体
plt.rcParams['font.sans-serif'] = ['Microsoft YaHei']

# 绘制条形图
plt.bar(show_time, counts, width=0.5, color="cyan")

# y轴刻度重新设置一下
plt.yticks(range(0, 16, 2))

# 添加描述信息
plt.xlabel("年份")
plt.ylabel("高分电影数量")
plt.title("上映高分电影数量最多的年份Top10", fontsize=15)

# 添加网格  网格的透明度  线条样式
plt.grid(alpha=0.2, linestyle=":")

plt.show()

二、豆瓣电影Top250评分-排名的散点分布

代码语言:txt
复制
import pandas as pd
from matplotlib import pyplot as plt

# 读取数据
df = pd.read_excel("movie.xlsx")

# 豆瓣电影Top250  排名  评分  散点图   描述关系
rating = list(df["排名"])
rating_score = list(df["评分"])


plt.figure(figsize=(9, 6), dpi=100)
# 设置字体
plt.rcParams['font.sans-serif'] = ['Microsoft YaHei']

# 绘制散点图  设置点的颜色
plt.scatter(rating_score, rating, c='r')

# 添加描述信息  设置字体大小
plt.xlabel("评分", fontsize=12)
plt.ylabel("排名", fontsize=12)
plt.title("豆瓣电影Top250评分-排名的散点分布", fontsize=15)

# 添加网格  网格的透明度  线条样式
plt.grid(alpha=0.5, linestyle=":")

plt.savefig('test2.PNG')
plt.show()

三、电影类型分析

代码语言:txt
复制
import collections
import xlrd
import matplotlib.pyplot as plt
from wordcloud import WordCloud

# 读取数据
data = xlrd.open_workbook('movie.xlsx')
table = data.sheets()[0]
type_list = []
for i in range(1, table.nrows):
    x = table.row_values(i)
    genres = x[5].split(" ")
    for j in genres:
        type_list.append(j)

type_count = collections.Counter(type_list)

# 绘制词云
my_wordcloud = WordCloud(
    max_words=100,           # 设置最大显示的词数
    font_path='simhei.ttf',  # 设置字体格式
    max_font_size=66,        # 设置字体最大值
    random_state=30,         # 设置随机生成状态,即多少种配色方案
    min_font_size=12,        # 设置字体最小值
).generate_from_frequencies(type_count)

# 显示生成的词云图片
plt.imshow(my_wordcloud, interpolation='bilinear')
plt.axis('off')
plt.savefig('test3.PNG')
plt.show()

四、国家或地区上榜电影数量最多的Top10

代码语言:txt
复制
import pandas as pd
import collections
from matplotlib import pyplot as plt

df = pd.read_excel('movie.xlsx')
area = list(df['上映地区'])
sum_area = []
for x in area:
    x = x.split(" ")
    for i in x:
        sum_area.append(i)

area_count = collections.Counter(sum_area)
area_dic = dict(area_count)
area_count = [(k, v) for k, v in list(area_dic.items())]
# 按国家或地区上榜电影数量排序
area_count.sort(key=lambda k: k[1])
# 取国家或地区上榜电影数量最多的前十
area = [m[0] for m in area_count[-10:]]
nums = [m[1] for m in area_count[-10:]]


plt.figure(figsize=(9, 6), dpi=100)
# 设置字体
plt.rcParams['font.sans-serif'] = ['Microsoft YaHei']
# 绘制横着的条形图
plt.barh(area, nums, color='red')

# 添加描述信息
plt.xlabel('电影数量')
plt.title('国家或地区上榜电影数量最多的Top10')

plt.savefig('test4.PNG')
plt.show()

五、豆瓣电影Top250-评价人数Top10

代码语言:txt
复制
import pandas as pd
from matplotlib import pyplot as plt

df = pd.read_excel('movie.xlsx')
name = list(df['电影名'])
ranting_num = list(df['评价人数'])
# (电影名, 评价人数)
info = [(m, int(n.split('人')[0])) for m, n in list(zip(name, ranting_num))]
# 按评价人数排序
info.sort(key=lambda x: x[1])
# print(info)

name = [x[0] for x in info[-10:]]
ranting_num = [x[1] for x in info[-10:]]

plt.figure(figsize=(12, 6), dpi=100)
# 设置字体
plt.rcParams['font.sans-serif'] = ['Microsoft YaHei']

# 绘制横着的条形图
plt.barh(name, ranting_num, color='cyan', height=0.4)

# 添加描述信息
plt.xlabel('评价人数')
plt.title('豆瓣电影Top250-评价人数Top10')

plt.savefig('test5.PNG')
plt.show()

六、对肖申克的救赎的部分评论进行文本分词并绘制词云

代码语言:txt
复制
from stylecloud import gen_stylecloud
import jieba
import re


# 读取数据
with open('reviews.txt', encoding='utf-8') as f:
    data = f.read()

# 文本预处理  去除一些无用的字符   只提取出中文出来
new_data = re.findall('[\u4e00-\u9fa5]+', data, re.S)
new_data = " ".join(new_data)

# 文本分词
seg_list_exact = jieba.cut(new_data, cut_all=False)

result_list = []
with open('stop_words.txt', encoding='utf-8') as f:
    con = f.readlines()
    stop_words = set()
    for i in con:
        i = i.replace("\n", "")   # 去掉读取每一行数据的\n
        stop_words.add(i)

for word in seg_list_exact:
    # 设置停用词并去除单个词
    if word not in stop_words and len(word) > 1:
        result_list.append(word)
print(result_list)

gen_stylecloud(
    text=' '.join(result_list),
    size=500,
    collocations=False,
    font_path=r'C:\Windows\Fonts\msyh.ttc',
    output_name='test3.png',
    icon_name='fas fa-video',
    palette='colorbrewer.qualitative.Dark2_7'
)

运行效果如下:

作者:叶庭云 微信公众号:修炼Python CSDN:https://yetingyun.blog.csdn.net/ 本文仅用于交流学习,未经作者允许,禁止转载,更勿做其他用途,违者必究。 觉得文章对你有帮助、让你有所收获的话,期待你的点赞呀,不足之处,也可以在评论区多多指正。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020/05/05 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 文章目录
    • 一、上映高分电影数量最多的年份Top10
      • 二、豆瓣电影Top250评分-排名的散点分布
        • 三、电影类型分析
          • 四、国家或地区上榜电影数量最多的Top10
            • 五、豆瓣电影Top250-评价人数Top10
              • 六、对肖申克的救赎的部分评论进行文本分词并绘制词云
              领券
              问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档