前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >爬虫实战-手把手教你爬豆瓣电影

爬虫实战-手把手教你爬豆瓣电影

作者头像
小一不二三
修改2020-01-02 16:58:55
8530
修改2020-01-02 16:58:55
举报

作者:小一

全文共4974字,阅读全文需18分钟

Python版本3.8.0,开发工具:Pycharm

写在前面的话

目前为止,你应该已经了解爬虫的三个基本小节:

如果上面三小节还有问题,可以点回去再复习一下。作为基础内容并不是要求大家一定都掌握,特别是第三小节,网页解析用法特别多,一般人很难都记住。 我在写这篇的时候也会时不时的翻回去看一看之前的文章,可能有的方法并不是最简单的方法,但是只要达成目的就ok,这里你们自由发挥

“小一哥,为什么你这里用的是 find 方法解析,我用正则表达式可以吗?” “当然可以啊,或许你的正则表达式实现起来更简单” 那么,作为我们爬虫的第一个小项目,我会尽可能的讲清楚每一步代码,就算没讲到,也会有注释,不用担心跟不上看不懂。 另外,虽然说是第一篇爬虫文章,但我还是会对爬虫的结果进行数据分析。对于项目而言比较简单,目的是让大家了解整个分析的过程。 记住一点:爬虫永远不是我们的终点,最多算是我们数据分析之路的踏板

源码获取方式在文末

正文

明确需求 我们今天要爬的数据是豆瓣电影Top250,是的,只有250条数据,你没猜错。 输入网址我们可以看到网页长这样https://movie.douban.com/top250:

文章首发:公众号【知秋小梦】
文章首发:公众号【知秋小梦】
文章首发:公众号【知秋小梦】
文章首发:公众号【知秋小梦】

250条数据清清楚楚,没有问题。 可以看到,这个页面其实已经包含了影片的主要内容:影片名、排序、编剧、主演、年份、类型、评论人数、评分,基本上都在这个页面中。

但我点开详细影片之后,发现了这个:

文章首发:公众号【知秋小梦】
文章首发:公众号【知秋小梦】

似乎这个页面数据更全一些,我们爬数据要的是什么,肯定是数据越多越好啊

相比这个详细内容,更是多了每个星级的影评占比,那我们肯定选择它了啊 好,那理一下我们的思路

  • 首先,进入豆瓣电影Top250,一共10页,每页25个影片。
  • 然后,针对每一页的25个影片,进入其详细内容页面
  • 最后,解析每个影片的详细内容,保存内容到数据库中

写一下伪代码

代码语言:javascript
复制
# 遍历10页
data_movies # 保存所有影片数据集
for per_page in pages:    
    # 爬取10页的每一页数据 
    movies = craw_page_info(per_page)
    # 遍历每一页的25个影片
    for movie in movies:
        # 爬取每个影片的详细内容
        data_per_movie = craw_detail_info(movie)
        # 保存每个影片信息到数据集中
        data_movies.append(data_per_movie)

# 保存结果到数据库中
data_movies_to_mysql

稍微解释一下:两层循环,第一层是遍历10页网页,因为其中每个网页分别有25个影片,所以,第二层循环又依次遍历25个影片获取详细信息,最后保存结果到数据库中!

是不是,很,简,单!

但是,实操起来你可能会遇到各种各样的问题,做好心理准备!

开始实操

首先,确定我们要输出的影片字段 主要数据包括:影片排序、影片名称、影片导演、影片编剧、影片主演、影片又名、影片链接 关键数据包括:影片类型、制片国家、影片语言、上映日期、影片片长 核心数据包括:影片评分、评论人数、5/4/3/2/1各星级对应的评论占比

字段如下

代码语言:javascript
复制
movie_rank:影片排序
movie_name:影片名称
movie_director:影片导演
movie_writer:影片编剧
movie_starring:影片主演
movie_type:影片类型
movie_country:影片制片国家
movie_language:影片语言
movie_release_date:影片上映日期
movie_run_time:影片片长
movie_second_name:影片又名
movie_imdb_href:影片IMDb 链接
movie_rating:影片总评分
movie_comments_user:影片评论人数
movie_five_star_ratio:影片5星占比
movie_four_star_ratio:影片4星占比
movie_three_star_ratio:影片3星占比
movie_two_star_ratio:影片2星占比
movie_one_star_ratio:影片1星占比
movie_note:影片备注信息,一般为空

然后,开始主流程 确认一下主要参数,起始页码(默认为0),每页影片25个,共10页 参数如下

代码语言:javascript
复制
start_page:起始页码
page_size:每一页大小
pages:总页码

定义类对象

这里我们将每个影片封装成一个对象,传入我们的主要参数,设置爬虫头部,并建立和数据库的相关连接

类对象定义如下

代码语言:javascript
复制
class DouBanMovie:
    def __init__(self, url, start_page, pages, page_size):
        """
        初始化
        @param url: 爬取主网址
        @param start_page: 起始页码
        @param pages: 总页码(截止页码)
        @param page_size: 每页的大小
        """
        self.url = url
        self.start_page = start_page
        self.pages = pages
        self.page_size = page_size
        self.data_info = []
        self.pymysql_engine, self.pymysql_session = connection_to_mysql()
        self.headers = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36'
        }

“小一哥,你这里的数据库连接用的是什么啊,我怎么看不太懂?”

“我封装了一下,数据库的连接这里选用了 SQLAlchemy。”

不要着急,以后会专门写一篇 SQLAlchemy 关于数据库的相关操作。

代码语言:javascript
复制
#  创建基类,
Base = declarative_base()

def connection_to_mysql():
    """
    连接数据库
    @return:
    """
    engine = create_engine('mysql+pymysql://username:passwd@localhost:3306/db_name?charset=utf8')
    Session = sessionmaker(bind=engine)
    db_session = Session()
    # 创建数据表
    Base.metadata.create_all(engine)

    return engine, db_session

确定主框架:

代码语言:javascript
复制
# 如果当前页码小于0,异常退出
if self.start_page < 0:
    return ""
# 如果起始页面大于总页码数,退出
if self.start_page > self.pages:
    return ""

# 若当前页其实页码小于总页数,继续爬取数据
while self.start_page < pages:
    # 拼接当前页的网址
    # 主爬虫代码
    # 下一页
    self.start_page = self.start_page + 1

拼接当前页的网址这里解释一下,当我们去访问第一页的时候发现网址如下:

代码语言:javascript
复制
https://movie.douban.com/top250

去访问下一页的时候发现网址变化如下:

代码语言:javascript
复制
https://movie.douban.com/top250?start=25&filter=

而再下一页的网址变化如下:

代码语言:javascript
复制
https://movie.douban.com/top250?start=50&filter=

可以发现,新的网址只是变化了后面的 start 参数,于是我们拼接出每一页的网址:

代码语言:javascript
复制
start_number = self.start_page * self.page_size
new_url = self.url + '?start=' + str(start_number) + '&filter='

爬取第一个页面 确定好主框架之后,我们需要去爬取第一个网页,也就是包含25个影片的页面

这时候,我们前三节提到的爬虫实现方式直接拿过来用:

代码语言:javascript
复制
# 爬取当前页码的数据
response = requests.get(url=new_url, headers=self.headers)

成功获取到页面数据之后,我们需要对页面解析,拿到每一个影片跳转详细页面的超链接

通过谷歌浏览器 F12 开发者工具可查看网页源码

可以看到每个影片的详细信息在一个li 标签中,而每个 li 标签中都有一个class='pic' 的 div,在 div 里面存在这样一个 a 标签

而这个 a 标签的 href 正是我们要需要的 详细页面信息的超链接

文章首发:公众号【知秋小梦】
文章首发:公众号【知秋小梦】

确定了超链接位置所在,打开我们上一节的 BeautifulSoup 详解,定位、解析

代码语言:javascript
复制
soup = BeautifulSoup(response.text, 'html.parser')
# 定位到每一个电影的 div (pic 标记的 div)
soup_div_list = soup.find_all(class_="pic")
# 遍历获取每一个 div 的电影详情链接
for soup_div in soup_div_list:
    # 定位到每一个电影的 a 标签
    soup_a = soup_div.find_all('a')[0]
    movie_href = soup_a.get('href')
    print(movie_href)

拿到当前页面的25 个影片的详细内容的超链接

我们离成功又进了一步! 爬取详细页面 同样,一行代码拿下页面数据

代码语言:javascript
复制
'''爬取页面,获得详细数据'''
response = requests.get(url=movie_detail_href, headers=self.headers)

创建一个有序字典,保存当前影片数据

代码语言:javascript
复制
# 生成一个有序字典,保存影片结果
movie_info = OrderedDict()

我们再来看一下这个页面的的源码是什么样的,首先是影片排序和影片名称,我们可以从上个页面传递过来。

但是,既然它这里有,我直接解析行不行?必须行啊!

文章首发:公众号【知秋小梦】
文章首发:公众号【知秋小梦】

这个更简单,影片排名直接定位一个 class='top250-no' 的 span 标签。

“ 那影片名称呢?”

影片名称直接可以定位一个 property='v:itemreviewed'的span标签,获取标签内容即可

代码语言:javascript
复制
# 解析电影排名和名称
movie_info['movie_rank'] = soup.find_all('span', class_='top250-no')[0].string
movie_info['movie_name'] = soup.find_all('span', property='v:itemreviewed')[0].string

接下来是影片主要数据

这个时候我们需要先定位到 id='info' 的 div中,然后可以看到整个 div 的数据就是我们需要的主要数据。

代码语言:javascript
复制
# 定位到影片数据的 div
soup_div = soup.find(id='info')

“不对啊,小一哥,我发现编剧有时候是一个,有时候是多个。多个的时候存在在多个 span 标签中,这个怎么办啊?”

文章首发:公众号【知秋小梦】
文章首发:公众号【知秋小梦】

“这个简单,我写一个小函数,统一处理一下。”

代码语言:javascript
复制
def get_mul_tag_info(self, soup_span):
    """
    获取多个标签的结果合并在一个结果中返回,并用 / 分割
    """
    info = ''
    for second_span in soup_span:
        # 区分 href 和标签内容
        info = ('' if (info == '') else '/').join((info, second_span.string))

    return info

“对了,你记得把最外层的 span 标签给我就行。像这种:”

代码语言:javascript
复制
# 解析电影发布信息
movie_info['movie_director'] = self.get_mul_tag_info(soup_div.find_all('span')[0].find_all('a'))
movie_info['movie_writer'] = self.get_mul_tag_info(soup_div.find_all('span')[3].find_all('a'))
movie_info['movie_starring'] = self.get_mul_tag_info(soup_div.find_all('span')[6].find_all('a'))
movie_info['movie_type'] = self.get_mul_tag_info(soup_div.find_all('span', property='v:genre'))
movie_info['movie_country'] = soup_div.find(text='制片国家/地区:').next_element.lstrip().rstrip()
movie_info['movie_language'] = soup_div.find(text='语言:').next_element.lstrip().rstrip()
movie_info['movie_release_date'] = self.get_mul_tag_info(soup_div.find_all('span', property='v:initialReleaseDate'))
movie_info['movie_run_time'] = self.get_mul_tag_info(soup_div.find_all('span', property='v:runtime'))
movie_info['movie_imdb_href'] = soup_div.find('a', target='_blank')['href']

“小一哥,又出问题了,有的影片没有 又名 标签,这个怎么处理呢?”

“这个我们做个异常检测,没有的手动赋空值就行了。”

代码语言:javascript
复制
movie_second_name = ''
try:
    movie_second_name = soup_div.find(text='又名:').next_element.lstrip().rstrip()
except AttributeError:
    print('{0} 没有又名'.format(movie_info['movie_name']))
    movie_info['movie_second_name'] = movie_second_name

最后还剩下评分数据 评分数据不但有总评分,还有每个星级的评分。

“那小一哥,你说我们取哪个数据啊?” “小孩才做选择,我当然是全部都要!”

文章首发:公众号【知秋小梦】
文章首发:公众号【知秋小梦】

可以看到,总评分和总评论人数分别有一个唯一的property,分别是property='v:average' 的 strong 标签和 property='v:votes'的 span 标签

ok,接下来直接拿数据:

代码语言:javascript
复制
# 获取总评分和总评价人数
movie_info['movie_rating'] = soup.find_all('strong', property='v:average')[0].string
movie_info['movie_comments_user'] = soup.find_all('span', property='v:votes')[0].string

最后就剩下每个星级的评分占比,可以看到 5星/4星/3星/2星/1星 分别对应 力荐/推荐/还行/较差/很差,可以看到他们都存在在一个class='ratings-on-weight’ 的 div中

所以,先定位 div :

代码语言:javascript
复制
# 定位到影片星级评分占比的 div
soup_div = soup.find('div', class_="ratings-on-weight")

然后获取每个星级评分占比数据:

代码语言:javascript
复制
# 获取每个星级的评分
movie_info['movie_five_star_ratio'] = soup_div.find_all('div')[0].find(class_='rating_per').string
movie_info['movie_four_star_ratio'] = soup_div.find_all('div')[2].find(class_='rating_per').string
movie_info['movie_three_star_ratio'] = soup_div.find_all('div')[4].find(class_='rating_per').string
movie_info['movie_two_star_ratio'] = soup_div.find_all('div')[6].find(class_='rating_per').string
movie_info['movie_one_star_ratio'] = soup_div.find_all('div')[8].find(class_='rating_per').string

打印一下看一下我们当前的影片数据:

对 movie_starring 字段只输出部分显示

代码语言:javascript
复制
OrderedDict(
    [
        ('movie_rank', 'No.1'), 
        ('movie_name', '肖申克的救赎 The Shawshank Redemption'), 
        ('movie_director', '弗兰克·德拉邦特'), 
        ('movie_writer', '弗兰克·德拉邦特/斯蒂芬·金'), 
        ('movie_starring', '蒂姆·罗宾斯/摩根·弗里曼/鲍勃·冈顿/威廉姆·赛德勒/), 
        ('movie_type', '剧情/犯罪'), 
        ('movie_country', '美国'), 
        ('movie_language', '英语'), 
        ('movie_release_date', '1994-09-10(多伦多电影节)/1994-10-14(美国)'), 
        ('movie_run_time', '142分钟'), 
        ('movie_imdb_href', 'https://www.imdb.com/title/tt0111161'), 
        ('movie_rating', '9.7'), 
        ('movie_comments_user', '1720706'), 
        ('movie_five_star_ratio', '84.8%'), 
        ('movie_four_star_ratio', '13.6%'), 
        ('movie_three_star_ratio', '1.4%'), 
        ('movie_two_star_ratio', '0.1%'), 
        ('movie_one_star_ratio', '0.1%'), 
        ('movie_note', '')
    ]
)

搞定,成功拿到了想要的数据

最后一步:保存数据库

代码语言:javascript
复制
# 保存当前影片信息
self.data_info.append(movie_info)

# 获取数据并保存成 DataFrame
df_data = pd.DataFrame(self.data_info)
# 导入数据到 mysql 中
df_data.to_sql('t_douban_movie_top_250', self.pymysql_engine, index=False, if_exists='append')

看一眼我们的数据库,该有的数据都存进去了

文章首发:公众号【知秋小梦】
文章首发:公众号【知秋小梦】

到这里,爬虫就算是结束了。

总结一下:

准备工作:

  • 首先我们定义了一个影片对象,传入了网址的参数信息,设置了爬虫头部,并建立了数据库连接
  • 我们通过下一页分析出每个影片页的超链接,发现只是改变了参数
  • 建立了主流程,并写出了主流程的伪代码

开始爬虫:

  • 爬取第一页的网页内容
  • 解析第一页的内容,获取每页中25个影片的详细超链接
  • 爬取详细影片的网页内容
  • 解析第二页的内容,保存到每个影片对象中
  • 保存数据到数据库中

思考:

以上就是我们今天爬虫实战的主要内容,相对来说比较简单。 第一个项目,旨在让大家了解爬虫流程,同时,也可以思考一下以下几点:

  • 影片详细页面的短评论数据
  • 影片详细页面的获奖情况数据
  • 影片详细页面的讨论区数据

以上数据的获取是否可以用今天的获取方法?如果不行,那应该通过什么方式获取这些数据?

写在后面的话

今天的实战项目就结束了,需要源代码的同学可以在公众号后台回复 “豆瓣电影” 获取,如果觉得小一哥讲的还不错的话,不妨点个赞? 开篇已经提到,我们的目的不是爬数据。所以,我会利用这些数据做一个简单数据分析,目的很简单:了解数据分析的流程。下期见。

碎碎念一下

我发现写技术文比写软文难了不止一个档次,虽然软文没啥技术含量,但是大家爱看啊。 技术性文章苦涩难懂,不过像我讲这么详细的,你确定不点个再看支持一下?

Python系列

Python系列会持续更新,从基础入门到进阶技巧,从编程语法到项目实战。若您在阅读的过程中发现文章存在错误,烦请指正,非常感谢;若您在阅读的过程中能有所收获,欢迎一起分享交流。

如果你也想和我一起学习Python,关注我吧!

学习Python,我们不只是说说而已

End

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-12-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 知秋小梦 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 写在前面的话
  • 正文
  • 开始实操
  • 总结一下:
  • 写在后面的话
    • 碎碎念一下
    • Python系列
    相关产品与服务
    云开发 CLI 工具
    云开发 CLI 工具(Cloudbase CLI Devtools,CCLID)是云开发官方指定的 CLI 工具,可以帮助开发者快速构建 Serverless 应用。CLI 工具提供能力包括文件储存的管理、云函数的部署、模板项目的创建、HTTP Service、静态网站托管等,您可以专注于编码,无需在平台中切换各类配置。
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档