首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >电影知识图谱问答(一)|爬取豆瓣电影与书籍详细信息

电影知识图谱问答(一)|爬取豆瓣电影与书籍详细信息

作者头像
小一
发布2019-08-14 16:00:40
1.6K0
发布2019-08-14 16:00:40
举报
文章被收录于专栏:谓之小一谓之小一谓之小一

最近在做关于知识图谱方面的实验,需要一些数据,于是爬取了豆瓣上关于电影和书籍的信息。两天时间内共爬取20W+条数据,包括电影信息、电影演员信息、书籍信息、书籍作者信息,GitHub链接为https://github.com/weizhixiaoyi/DouBan-Spider。


1. 数据说明

  • 电影信息包括电影id、图片链接、名称、导演名称、编剧名称、主演名称、类型、制片国家、语言、上映日期、片长、季数、集数、其他名称、剧情简介、评分、评分人数,共67245条数据信息。虽说是电影信息,但其中也包括电视剧、综艺、动漫、纪录片、短片。
  • 电影演员信息包括演员id、姓名、图片链接、性别、星座、出生日期、出生地、职业、更多中文名、更多外文名、家庭成员、简介,共89592条数据信息。这里所指的演员包括电影演员、编剧、导演。
  • 书籍信息包括书籍id、图片链接、姓名、子标题、原作名称、作者、译者、出版社、出版年份、页数、价格、内容简介、目录简介、评分、评分人数,共64321条数据信息。
  • 书籍作者信息包括作者id,姓名、图片链接、性别、出生日期、国家、更多中文名、更多外文名、简介,共6231条数据信息。这里作者包括书籍作者和译者。

2. 配制环境

  • 系统环境:ubuntu 18.04
  • python环境:python3.6
  • python依赖包:requests, bs4, redis, yaml, multiprocessing

3. 爬虫思路

3.1电影爬虫

进入电影分类界面后,找到开发者工具,找到NetWork->XHR,我们能够看到Request URL为https://movie.douban.com/j/new_search_subjects?sort=U&range=0,10&tags=&start=0&genres=剧情。

打开上述Request URL,能够看到一系列电影信息,我们只需要拿到其中的id即可。为了确保不重复爬取相同的电影,每拿到一个id之后,都存到redis已爬取队列之中。如果下次再遇到相同的id,则跳过不进行爬取。

另外,再次观察上面URL,发现只要改变start和genres,便能够拿到所有电影id。

以新喜剧之王id 4840388为例,拼接https://movie.douban.com/subject后得到Movie URL为https://movie.douban.com/subject/4840388。请求Movie URL,便能得到电影信息。

通过BeautifulSoup选取相应标签,便能够拿到电影id、图片链接、名称、导演名称、编剧名称、主演名称、类型、制片国家、语言、上映日期、片长、季数、集数、其他名称、剧情简介、评分、评分人数信息。

爬取电影信息结束之后,将演员id单独进行提取出来。同样为了保证不重复爬取,每得到一个演员id,都存放到redis已爬取队列之中。

以张全蛋id /celberity/1350283为例,拼接https://movie.douban.com,便能得到演员URF为https://movie.douban.com/celebrity/1350283/。然后请求演员URL,利用BeautifulSoup选取相应标签,便能拿到演员id、姓名、图片链接、性别、星座、出生日期、出生地、职业、更多中文名、更多外文名、家庭成员、简介信息。

总结一下,获取电影信息和电影演员信息流程为

  1. 获取https://movie.douban.com/tag/#/界面所有电影类别genres,循环电影类别genres。
  2. 请求https://movie.douban.com/j/new_search_subjects?sort=U&range=0,10&tags=&start=0&genres=剧情网址,每次返回20个电影id。如果返回为空,更换电影类别genres。
  3. 对返回的20个电影id存放到redis已爬取队列之中,返回去重后的电影id list。
  4. 多线程爬取电影id list之中的电影信息。
  5. 获取电影演员id,存到到redis已爬取队列之中,返回去重后的演员id list。
  6. 多线程爬取演员id list之中的电影信息。
  7. start加20循环2-7步骤。
3.2 书籍爬虫

进入豆瓣图书标签页面,请求https://book.douban.com/tag/?view=type&icn=index-sorttags-all,利用BeautifulSoup得到所有图书标签。

以小说标签为例,URL为https://book.douban.com/tag/小说?start=0&type=T,请求URL之后,利用BeautifulSoup选取相应标签,便能够拿到当前页面所有书籍id。为了确保不重复爬取相同的书籍,每拿到一个id之后,都存到redis已爬取队列之中。如果下次再遇到相同的id,则跳过不进行爬取。

同样,观察上述URL,我们只需要通过遍历start和tag便能够拿到所有书籍id。

以解忧杂货店id 25862578为例,拼接https://book.douban.com/subject/后便能得到书籍URL为https://book.douban.com/subject/25862578/。然后请求书籍URL页面,通过BeautifulSoup选取相应标签,便能够拿到书籍id、图片链接、姓名、子标题、原作名称、作者、译者、出版社、出版年份、页数、价格、内容简介、目录简介、评分、评分人数信息。

爬取书籍信息结束之中,将作者id单独提取出来。同样为了保证不重复爬取,每得到一个作者id,都存放到redis已爬取队列之中。

以东野圭吾为例,获取作者id 4537266,拼接https://book.douban.com/author/之后,便能得到作者URL为https://book.douban.com/author/4537266/。然后请求作者URL,利用BeautifulSoup选取相应标签,便能拿到作者id,姓名、图片链接、性别、出生日期、国家、更多中文名、更多外文名、简介信息。

总结一下,获取书籍信息和书籍作者流程为

  1. 请求https://book.douban.com/tag/?view=type&icn=index-sorttags-all界面,利用BeautifulSoup获取图书所有标签。
  2. 请求https://book.douban.com/tag/小说?start=0&type=T,利用BeautifulSoup获取20个书籍ID。如果为空,则更换书籍标签tag。
  3. 对返回的20个书籍id存放到redis已爬取队列之中,返回去重后的书籍id list。
  4. 多线程爬取书籍id list之中的书籍信息。
  5. 获取书籍作者id,存放到redis已爬取队列之中,返回去重后的作者id list。
  6. 多线程爬取演员id list之中的作者信息。
  7. start加20循环2-7步骤。

4. 使用教程

├── book
│   ├── __init__.py
│   ├── book_crawl.py
│   ├── book_page_parse.py
│   ├── book_person_page_parse.py
│   └── book_spider_config.yaml
├── log
│   ├── book_log_config.yaml
│   └── movie_log_config.yaml
├── movie
│   ├── __init__.py
│   ├── movie_crawl.py
│   ├── movie_page_parse.py
│   ├── movie_person_page_parse.py
│   └── movie_spider_config.yaml
└── proxy
    ├── get_ip.py
    ├── ip_list.txt
    └── ua_list.txt

爬取之前,需要先启动redis server,然后再配置proxy中的getip。爬取过程中为了省事,我用的是收费的ip代理池,蘑菇代理,每三分钟请求10个ip。如果你要使用的话,可以找一些免费的ip代理工具,成功之后,将有效ip写入到iplist之中即可。方便一点的话,可以直接购买ip代理池,同样成功后将ip写入到ip_list即可。

moviespiderconfig.yaml和bookspiderconfig用于配制一些爬虫信息,比如超时时间和redis信息。

movielogconfig.yaml和booklogconfig.yaml用于配制log信息,比如log地址和写文件格式信息。

如果你想爬取一些电影或书籍的其他信息,比如电影评论等,可以根据需求更改moviepageparse, moviepersonpageparse, bookpageparse, bookpersonpageparse的代码。

最后,配置好redis和ip代理池之后,分别启动moviecrawl和bookcrawl即可。

5.数据获取

豆瓣数据下载链接为https://pan.baidu.com/s/1cLdsAXLGH2akJqMIsGdoig 提取码: n97y。配置过程中有任何问题,欢迎在公众号后台提问,随时回答,内容转载请注明出处。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-08-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 谓之小一 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1. 数据说明
  • 2. 配制环境
  • 3. 爬虫思路
    • 3.1电影爬虫
      • 3.2 书籍爬虫
      • 4. 使用教程
      • 5.数据获取
      相关产品与服务
      云数据库 Redis
      腾讯云数据库 Redis(TencentDB for Redis)是腾讯云打造的兼容 Redis 协议的缓存和存储服务。丰富的数据结构能帮助您完成不同类型的业务场景开发。支持主从热备,提供自动容灾切换、数据备份、故障迁移、实例监控、在线扩容、数据回档等全套的数据库服务。
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档