前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >python简单分析《一出好戏》,黄渤导演处女作

python简单分析《一出好戏》,黄渤导演处女作

原创
作者头像
Python疯子
发布2018-08-27 01:28:52
2880
发布2018-08-27 01:28:52
举报
文章被收录于专栏:Python疯子Python疯子

平时最爱黄渤,智商情商双高,作品幽默又搞笑,为人也很随和。

吧啦吧啦,此处省略2万字。。。无奈,不善言辞,请原谅)

我们简单看一下他的处女导演做品:《一出好戏》
一出好戏
一出好戏

数据来源:猫眼app 网站上拿不到数据,只能从app获取

代码语言:txt
复制
## 设置headers和cookie
header = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win32; x32; rv:54.0) Gecko/20100101 Firefox/54.0',
      'Connection': 'keep-alive'}
cookies = 'v=3; iuuid=1A6E888B4A4B29B16FBA1299108DBE9CDCB327A9713C232B36E4DB4FF222CF03; webp=true; ci=1%2C%E5%8C%97%E4%BA%AC; __guid=26581345.3954606544145667000.1530879049181.8303; _lxsdk_cuid=1646f808301c8-0a4e19f5421593-5d4e211f-100200-1646f808302c8; _lxsdk=1A6E888B4A4B29B16FBA1299108DBE9CDCB327A9713C232B36E4DB4FF222CF03; monitor_count=1; _lxsdk_s=16472ee89ec-de2-f91-ed0%7C%7C5; __mta=189118996.1530879050545.1530936763555.1530937843742.18'
cookie = {}
for line in cookies.split(';'):
    name, value = cookies.strip().split('=', 1)
    cookie[name] = value

## 爬取数据,每次理论上可以爬取1.5W调数据,存在大量重复数据,需要多次执行,最后统一去重
tomato = pd.DataFrame(columns=['userId', 'nickName', 'date', 'score', 'city', 'comment'])
for i in range(0, 1000):
    j = random.randint(1, 1000)
    print(str(i) + ' ' + str(j))
    try:
        time.sleep(2)
        url = 'http://m.maoyan.com/mmdb/comments/movie/1203084.json?_v_=yes&offset=' + str(j)
        html = requests.get(url=url, cookies=cookie, headers=header).content
        data = json.loads(html.decode('utf-8'))['cmts']
        for item in data:
            tomato = tomato.append({'userId':item['userId'] , 'nickName':item['nickName'], 'date': item['time'].split(' ')[0], 'city': item['cityName'],
                                'score': item['score'], 'comment': item['content']}, ignore_index=True)

        tomato.to_excel('./一出好戏.xlsx', index=False)
    except:
        continue

获取的评论信息,你也可以修改一下电影的ID,获取你想要的电影的数据。

我这里获取的主要信息有:用户ID,昵称,日期,评分,城市,评论内容

因为获取的用户数据会有重复数据,所以我用userId来进行去重操作

去重操作

代码语言:txt
复制
# 根据userId进行去重, 获取去重后的真实数据
data = csvFrame.drop_duplicates(['userId'])

目标:获取全国各个城市的平均评分和对电影的热爱程度

接下来就是对数据进行过滤,筛选

代码语言:txt
复制
  # 1、查看是否有缺省参数,如果有直接删除该条数据

然后我们按城市分组,发现有很多城市的数据只有1,2条,这些数据太少不足以代表改城市,所有我们选出 >10 条数据的城市

代码语言:txt
复制
# 根据城市进行分组
cityGroup = data.groupby("city")

# 评分人数 > 10的方为有效评分城市
countInfo = cityGroup.count()
data2 = countInfo[countInfo['userId']>10]

获取城市的评分

代码语言:txt
复制
 # # 真实数据根据城市进行分组
    cityGroup2 = frame.groupby("city")
    cityScores = cityGroup2['score']

    # 获得城市的平均分 和 观看人数
    city_com = cityScores.agg(['mean', 'count'])
    citys = city_com.index
    city_mean = city_com["mean"].values
    city_count = city_com["count"].values

    # 对打分数据进行优化处理,保留两位小数
    city_mean = np.array(city_mean)
    city_score = np.round(city_mean, 2)

接下来就是对数据进行可视化展示:

代码语言:txt
复制
# 主城市打分柱状图
bar = Bar("《一出好戏》部分城市评分", "猫眼均分")
bar.add("Score", citys, city_score)
bar.show_config()
bar.render(path="./signs/评分柱状图.html")
评分柱状图
评分柱状图

全国观看热力图

代码语言:txt
复制
geo = Geo('《一出好戏》观众分布图', title_color="#fff",
      title_pos="center", width=1200, height=600,     background_color='#404a59')
geo.add("", citys, city_count, type='heatmap', visual_range=[0, 35],
    visual_text_color="#fff", symbol_size=10, is_visualmap=True,
    is_roam=False)
geo.render('./signs/观众分布图.html')
观众分布
观众分布

观看占比

代码语言:txt
复制
pie = Pie()
pie.add("", citys, city_count, is_label_show=True)
pie.render(path="./signs/观众占比饼图.html")
观看占比.png
观看占比.png

绘制词云

对中文分词用的是jieba,词频统计用的是TD-IDF

最后选出出现次数最多的前100个关键词,也可以选择大于指定阀值

代码语言:txt
复制
# 大于指定数值
# print(ser[ser.values > 0.05])
# 排序,选择前n个
ser2 = ser.sort_values(ascending=False)
# 获取排名靠前的100个单词
worlds = ser2[0:100].index
注意点:在过滤关键词时,可以选择国内指定的停用统计词,这里之所有没有使用,是因为对电影的评价的词在停用词库中,如:一般
关键词.png
关键词.png

关注公众号:Python疯子 后台回复: 一出好戏 获取源代码

分享最实用的Python功能,下期分享 地图功能

公众号:Python疯子
公众号:Python疯子

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档