前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >专栏:009:高评分电影都在这里

专栏:009:高评分电影都在这里

作者头像
谢伟
发布2018-06-06 11:44:57
5020
发布2018-06-06 11:44:57
举报
文章被收录于专栏:GopherCoder

用理工科思维看待这个世界

系列爬虫专栏

崇尚的学习思维是:输入,输出平衡,且平衡点不断攀升。

曾经有大神告诫说:没事别瞎写文章;所以,很认真的写的是能力范围内的,看客要是看不懂,不是你的问题,问题在我,得持续输入,再输出。

今天的主题是:实战爬取电影,并存储至MySQL数据库


1:框架

序号

目标

说明

01

抓取目标分析

-目标是什么

02

分解任务

--

03

MySQL建表操作

本地建表

04

实战抓取

--

05

参考及总结

--


2:目标

任务是:抓取网站数据,存放至MySQL数据库中。

效果显示:抓取的目标存放至本地MySQL数据库

001.png

初始URL url = https://movie.douban.com/top250

字段: Film : 电影名称 Director: 电影导演 Rates : 评分数 Numbers : 评分人数 Url: 电影链接 Describe: 电影介绍 (网站的一句话,经典台词之类的)


3:任务分解

具体点击网页审查元素:链接

  • 字段的正则表达式

电影名称: Film_pattern = r'<span class="title">(.*?)</span>'

电影导演: Director_pattern = r'<p class="">(.*?)</p>'

评分数: Rates_pattern = r'<span class="rating_num" property="v:average">(.*?)</span>'

评分人数:先抓大,再在大的里面匹配所需的文本信息 Number_pattern_large = r'<div class="star">(.*?)</div>' Number_pattern_small = r'<span>(.*?)</span>'

电影链接:先抓大,再在大的里面匹配所需的文本信息 Urlfilm_pattern_large = r'<div class="hd">(.*?)</div>' Urlfilm_pattern_small = r'<a href="(.*?)"'

电影介绍: Describe_pattern = r'<span class="inq">(.*?)</span>'

  • URL的分析: 由翻页,自己匹配出网址:(也可以网址抓取)。10页。 urls = ["https://movie.douban.com/top250?start={}&filter=".format(i) for i in range(0,250,25)]

网址分析完成,正则分析完成。任务完成了大半。


4:数据库建表操作

在本地:数据库名为:exercise 下创建一个表名为:douban_film

建表的SQL语法:参照w3school

代码语言:javascript
复制
CREATE TABLE `douban_film` (
  `Film` CHAR(32) DEFAULT NULL COMMENT '电影名称',
  `Director` CHAR(32) DEFAULT NULL COMMENT '电影导演',
  `Rates` FLOAT DEFAULT NULL COMMENT '评分数',
  `Number` CHAR(16) DEFAULT NULL COMMENT '评分人数',
  `Url` CHAR(128) DEFAULT NULL COMMENT '评分人数',
  `Describe` CHAR(128) DEFAULT NULL COMMENT '电影介绍'
) ENGINE=INNODB DEFAULT CHARSET=utf8 COMMENT='豆瓣电影250介绍'
`douban_film`
# 执行sql语句就可以创建一个表,各字段及其属性如上示

5:实战抓取

单独使用正则,会出现很多难以匹配(可能没有尝试其他匹配规则)。需要对网页进行不断的分析。

抓取核心代码:(大神轻拍代码...)

代码语言:javascript
复制
# 网页抓取字段示例
 def content_json(self, content):
     Film_all = re.findall(self.Film_pattern, content, re.S)
     Film = []
     for one_film in Film_all:
         if "&nbsp" not in one_film:
             Film.append(one_film)
     Director_all = re.findall(self.Director_pattern, content, re.S)
     Director = []
     for one_Director in Director_all:
         one = self.str_replace(one_Director)
         Director.append(one)
     Rates = re.findall(self.Rates_pattern, content, re.S)
     Number_large = re.findall(self.Number_pattern_large, content, re.S)
     Number = []
     for one_number in Number_large:
         Number_one = re.findall(self.Number_pattern_small, one_number, re.S)[0]
         Number.append(Number_one)
     Describe = re.findall(self.Describe_pattern, content, re.S)
     Url_largre = re.findall(self.Urlfilm_pattern_large, content, re.S)
     Url =[]
     for one_url in Url_largre:
         Url_one = re.findall(self.Urlfilm_pattern_small, one_url, re.S)[0]
         Url.append(Url_one)
     Film_collection = []
     for Film, Director, Rates, Number, Describe, Url in zip(Film, Director, Rates, Number, Describe, Url):
         data = {
             "Film": Film,
             "Director": Director,
             "Rates": Rates,
             "Number": Number,
             "Describe": Describe,
             "Url": Url
         }
         Film_collection.append(data)
     return Film_collection
代码语言:javascript
复制
# 文本匹配会有很多不需要的字段,如下函数实现数据清洗
def str_replace(self, str_one):
    str_one_1 = str_one.replace("\n", '')
    str_one_2 = str_one_1.replace("<br>", '')
    str_one_3 = str_one_2.replace(" ", '')
    str_one_4 = str_one_3.replace("\t", "")
    str_one_5 = str_one_4.replace(" ", '').strip()
    return str_one_5
代码语言:javascript
复制
# 单独写sql语句比较繁琐,如下函数实现JSON格式数据转换成SQL语句
import copy
def json_to_mysql(json_obj, table, sql_type="insert"):
    local_copy = copy.deepcopy(json_obj)
    if sql_type == "insert":
        sql_part1 = "insert into " + table
        keys = local_copy.keys()

        sql_part2 = "("
        for key in keys:
            sql_part2 += "`%s`"%(key)
            sql_part2 += ","
        sql_part2 = sql_part2.rstrip(",")
        sql_part2 += ")"

        sql_part3 = "("
        for key in keys:
            sql_part3 += "'" + (local_copy[key]) + "'"
            sql_part3 += ","
        sql_part3 = sql_part3.rstrip(",")
        sql_part3 += ")"

        sql = sql_part1 + " " + sql_part2 + " values " + sql_part3
    return sql

核心代码已经完成: 整体思路如下:

  • 分析首页文本信息的正则表达式
  • 抓取首页的字段
  • 对字段进行数据的清洗,去掉不需要的信息
  • 将数据结构化
  • 循环操作
  • 获取的全部信息执行sql语句,存入已经建表的MySQL数据库中

完整版代码:完整版代码

另一款数据库可视化工具显示效果:

002.png

可知:抓取了243条信息。全站存在250条数据。代码存在Bug...

你懂的。可以继续重构。


6:参考及总结

自勉:

在通往牛逼的路上,别人一定存在许多值得借鉴的地方。

学习学习在学习

实践实践再实践

感谢互联网时代,让学习如此触手可及

Github

关于本人: 国内小硕,半路出家的IT学习者。 兴趣领域:爬虫 , 数据科学 本人正在构建一个共同成长爬虫小型社群。QQ群:539065787 持续精进。如果理念相似,欢迎加入。 文档及代码托管在Github上。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2016.05.03 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1:框架
  • 2:目标
  • 3:任务分解
  • 4:数据库建表操作
  • 5:实战抓取
  • 6:参考及总结
相关产品与服务
对象存储
对象存储(Cloud Object Storage,COS)是由腾讯云推出的无目录层次结构、无数据格式限制,可容纳海量数据且支持 HTTP/HTTPS 协议访问的分布式存储服务。腾讯云 COS 的存储桶空间无容量上限,无需分区管理,适用于 CDN 数据分发、数据万象处理或大数据计算与分析的数据湖等多种场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档