我用Python爬了7W知乎用户信息,终于捕获了心仪小姐姐......

作为一个 Python 程序员,要如何找到小姐姐,避开暴击伤害,在智中取胜呢?于是就有了以下的对话:

so~今天我们的目标是,爬社区的小姐姐~而且,我们又要用到新的姿势(雾)了~scrapy 爬虫框架~

本文主要讲 scrapy 框架的原理和使用,建议至少在理解掌握 Python 爬虫原理后再使用框架(不要问我为什么,我哭给你看)。

scrapy 原理

在写过几个爬虫程序之后,我们就会知道,利用爬虫获取数据大概的步骤:

  • 请求网页。
  • 获取网页。
  • 匹配信息。
  • 下载数据。
  • 数据清洗。
  • 存入数据库。

scrapy 是一个很有名的爬虫框架,可以很方便的进行网页信息爬取。那么 scrapy 到底是如何工作的呢?之前在网上看了不少 scrapy 入门的教程,大多数入门教程都配有这张图。

也不知道是这张图实在太经典了,还是程序员们都懒得画图,我第一次看到这个图的时候,心情是这样的。

经过了一番深入的理解,大概知道这幅图的意思,让我来举个栗子(是的,我又要举奇怪的栗子了):

scrapy 原理图之我要吃好吃的

当我们想吃东西的时候,我们会出门,走到街上,寻找一家想吃的店,然后点餐,服务员再通知厨房去做,最后菜到餐桌上,或者被打包带走。这就是爬虫程序在做的事,它要将所有获取数据需要进行的操作,都写好。

而 scrapy 就像一个点餐 APP 一般的存在,在订餐列表(spiders)选取自己目标餐厅里想吃的菜(items),在收货(pipeline)处写上自己的收货地址(存储方式)。

点餐系统(scrapy engine)会根据订餐情况要求商铺(Internet)的厨房(download)将菜做好,由于会产生多个外卖取货订单(request),系统会根据派单(schedule)分配外卖小哥从厨房取货(request)和送货(response)。说着说着我都饿了。。。。

什么意思呢?在使用 scrapy 时,我们只需要设置 spiders(想要爬取的内容),pipeline(数据的清洗,数据的存储方式),还有一个 middlewares,是各功能间对接时的一些设置,就可以不用操心其他的过程,一切交给 scrapy模块来完成。

创建 scrapy 工程

安装 scrapy 之后,创建一个新项目:

$ scrapy startproject zhihuxjj

我用的是 pycharm 编译器,在 spiders 文件下创建 zhihuxjj.py。

在 zhihuxjj.py 这个文件中,我们要编写我们的爬取规则。

爬取规则制定(spider)

创建好了项目,让我们来看一下我们要吃的店和菜…哦不,要爬的网站和数据。

我选用了知乎作为爬取平台,知乎是没有用户从 1 到 n 的序列 id 的,每个人可以设置自己的个人主页 id,且为唯一。

所以采选了一枚种子用户,爬取他的关注者,也可以关注者和粉丝一起爬,考虑到粉丝中有些三无用户,我仅选择了爬取关注者列表,再通过关注者主页爬取关注者的关注者,如此递归。

对于程序的设计,是这样的。

之后就是种子用户的个人主页,知乎粉丝多的大 V 很多,但是关注多的人就比较难发现了,这里我选择了知乎的黄继新,联合创始人,想必关注了不少优质用户(≖‿≖)✧。

分析一下个人主页可知,个人主页由'https://www.zhihu.com/people/' + 用户 id 组成。

我们要获取的信息是用 callback 回调函数(敲黑板!!划重点!!)的方式设计,这里一共设计了俩个回调函数:用户的关注列表和关注者的个人信息。

使用 chrome 浏览器查看上图的页面可知获取关注列表的 url,以及关注者的用户 id。

将鼠标放在用户名上,如下图:

可以获得个人用户信息的 url,分析 url 可知:

关注者列表链接构成:'https://www.zhihu.com/api/v4/members/' + '用户id' + '/followees?include=data[*].answer_count,articles_count,gender,follower_count,is_followed,is_following,badge[?(type=best_answerer)].topics&offset=0&limit=20'
个人信息链接构成:'https://www.zhihu.com/api/v4/members/' + '用户id' + '?include=allow_message%2Cis_followed%2Cis_following%2Cis_org%2Cis_blocking%2Cemployments%2Canswer_count%2Cfollower_count%2Carticles_count%2Cgender%2Cbadge%5B%3F(type%3Dbest_answerer)%5D.topics'

so,我们在上一节中创建的 zhihuxjj.py 文件中写入以下代码:

import json
from zhihuxjj.items import ZhihuxjjItem
from scrapy import Spider,Request

class ZhihuxjjSpider(Spider):
    name='zhihuxjj' #scrapy用于区别其他spider的名字,具有唯一性。
    allowed_domains = ["www.zhihu.com"] #爬取范围
    start_urls = ["https://www.zhihu.com/"]
    start_user = "jixin"
    followees_url = 'https://www.zhihu.com/api/v4/members/{user}/followees?include=data[*].answer_count,articles_count,gender,follower_count,is_followed,is_following,badge[?(type=best_answerer)].topics&offset={offset}&limit=20' #关注列表网址
    user_url = 'https://www.zhihu.com/api/v4/members/{user}?include=locations,employments,gender,educations,business,voteup_count,thanked_Count,follower_count,following_count,cover_url,following_topic_count,following_question_count,following_favlists_count,following_columns_count,avatar_hue,answer_count,articles_count,pins_count,question_count,commercial_question_count,favorite_count,favorited_count,logs_count,marked_answers_count,marked_answers_text,message_thread_token,account_status,is_active,is_force_renamed,is_bind_sina,sina_weibo_url,sina_weibo_name,show_sina_weibo,is_blocking,is_blocked,is_following,is_followed,mutual_followees_count,vote_to_count,vote_from_count,thank_to_count,thank_from_count,thanked_count,description,hosted_live_count,participated_live_count,allow_message,industry_category,org_name,org_homepage,badge[?(type=best_answerer)].topics' #个人信息链接
    def start_requests(self):
        yield Request(self.followees_url.format(user=self.start_user,offset=0),callback=self.parse_fo) #回调种子用户的关注列表
        yield Request(self.user_url.format(user=self.start_user,include = self.user_include),callback=self.parse_user) #回调种子用户的个人信息

    def parse_user(self, response):
        result = json.loads(response.text)
        print(result)
        item = ZhihuxjjItem()
        item['user_name'] = result['name']
        item['sex'] = result['gender']  # gender为1是男,0是女,-1是未设置
        item['user_sign'] = result['headline']
        item['user_avatar'] = result['avatar_url_template'].format(size='xl')
        item['user_url'] = 'https://www.zhihu.com/people/' + result['url_token']
        if len(result['locations']):
            item['user_add'] = result['locations'][0]['name']
        else:
            item['user_add'] = ''
        yield item

    def parse_fo(self, response):
        results = json.loads(response.text)
        for result in results['data']:
            yield Request(self.user_url.format(user=result['url_token'], include=self.user_include),callback=self.parse_user)
            yield Request(self.followees_url.format(user=result['url_token'], offset=0),callback=self.parse_fo)  # 对关注者的关注者进行遍历,爬取深度depth+=1
        if results['paging']['is_end'] is False: #关注列表页是否为尾页
            next_url = results['paging']['next'].replace('http','https')
            yield Request(next_url,callback=self.parse_fo)
        else:
            pass

这里需要划重点的是 yield 的用法,以及 item['name'],将爬取结果赋值给 item,就是告诉系统,这是我们要选的菜…啊呸…要爬的目标数据。

设置其他信息

在 items.py 文件中,按照 spider 中设置的目标数据 item,添加对应的代码。

import scrapy
class ZhihuxjjItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    user_name = scrapy.Field()
    sex  = scrapy.Field()
    user_sign = scrapy.Field()
    user_url = scrapy.Field()
    user_avatar = scrapy.Field()
    user_add = scrapy.Field()
    pass

在 pipeline.py 中添加存入数据库的代码:

import pymysql

def dbHandle():
    conn = pymysql.connect(
        host='localhost',
        user='root',
        passwd='数据库密码',
        charset='utf8',
        use_unicode=False
    )
    return conn

class ZhihuxjjPipeline(object):
    def process_item(self, item, spider):
        dbObject = dbHandle()  # 写入数据库
        cursor = dbObject.cursor()
        sql = "insert into xiaojiejie.zhihu(user_name,sex,user_sign,user_avatar,user_url,user_add) values(%s,%s,%s,%s,%s,%s)"
        param = (item['user_name'],item['sex'],item['user_sign'],item['user_avatar'],item['user_url'],item['user_add'])
        try:
            cursor.execute(sql, param)
            dbObject.commit()
        except Exception as e:
            print(e)
            dbObject.rollback()
        return item

因为使用了 pipeline.py,所以我们还需要在 setting.py 文件中,将 ITEM_PIPELINE 注释解除,这里起到连接两个文件的作用。

到这里,基本就都设置好了,程序基本上就可以跑了。

不过因为 scrapy 是遵循robots.txt法则的,所以让我们来观察一下知乎的法则:https://www.zhihu.com/robots.txt

emmmmmmm,看完法则了吗,很好,然后我们在setting.py中,将ROBOTSTXT_OBEY 改成 False。

好像…还忘了点什么,对了,忘记设置 headers 了。

通用的设置 headers 的方法同样是在 setting.py 文件中,将 DEFAULTREQUESTHEADERS 的代码注释状态取消,并设置模拟浏览器头。

知乎是要模拟登录的,如果使用游客方式登录,就需要添加 authorization,至于这个 authorization 是如何获取的,我,就,不,告,诉,你......

DEFAULT_REQUEST_HEADERS = {
    "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36",
    'authorization': 'oauth c3cef7c66a1843f8b3a9e6a1e3160e20'
}

为了减少服务器压力&防止被封,解除 DOWNLOAD_DELAY 注释状态,这时设置下载延迟,将下载延迟设为 3(robots 法则里要求是 10,但 10 实在太慢了_(:зゝ∠)知乎的程序员小哥哥看不见这句话看不见这句话…

写到这里你会发现,很多我们需要进行的操作,scrapy 都已经写好了,只需要将注释去掉,再稍作修改,就可以实现功能了。scrapy 框架还有很多功能,可以阅读官方文档了解。

运行scrapy文件

写好 scrapy 程序后,我们可以在终端输入。

$ scrapy crawl zhihuxjj

运行文件,但也可以在文件夹中添加 main.py,并添加以下代码。

然后直接用 pycharm 运行 main.py 文件即可,然后我们就可以愉快的爬知乎用户啦~(小姐姐我来啦~)

查找小姐姐

经过了 X 天的运行,_(:зゝ∠)_爬到了 7w 条用户数据,爬取深度 5。(这爬取速度让我觉得有必要上分布式爬虫了…这个改天再唠)

有了数据我们就可以选择,同城市的用户进行研究了……先国际惯例的分析一下数据。

知乎用户性别分布

在 7w 用户中,明显男性超过了半数,标明自己是女性的用户只占了 30% 左右,还有一部分没有注明性别,优质的小姐姐还是稀缺资源呀~

再来看看小姐姐们都在哪个城市。(从 7w 用户中筛选出性别女且地址信息不为空的用户)

知乎女性用户位置分布

看来小姐姐们还是集中在北上广深杭的,所以想发现优质小姐姐的男孩纸们还是要向一线看齐啊,当然也不排除在二三线的小姐姐们没有标记出自己的地理位置。

emmmmm……这次的分析,就到此为止,你们可以去撩小姐姐们了。

研究小姐姐

意不意外?开不开心?这里还有一章。正所谓,授之以鱼,不如授之以渔;撒了心灵鸡汤,还得加一只心灵鸡腿;找到了小姐姐,我们还要了解小姐姐…………

让我再举个栗子~来研究一个小姐姐。(知乎名:动次,已获取小姐姐授权作为示例。)

知乎用户:动次

让我们来爬一下她的动态,chrome 右键检查翻 network 这些套路我就不说了,直接讲研究目标。

  • 赞同的答案和文章(了解小姐姐的兴趣点)
  • 发布的答案和文章(了解小姐姐的世界观、人生观、价值观)
  • 关注的问题和收藏夹(了解小姐姐需求)
  • 提出的问题(了解小姐姐的疑惑)

代码也不贴了,会放在 GitHub 的,来看一下输出。

研究动次的结果输出

因为你乎风格,所以对停用词进行了一些加工,添加了“如何”、“看待”、“体验”等词语,得到了小姐姐回答问题的词频。小姐姐的回答里出现了喜欢、朋友、爷爷等词语。

动次回答问题的词频

还有!!在关注、赞同和输出中,都有的词(✪ω✪)。(是不是可以靠美味捕获小姐姐呢……

再来一张刘看山背景的,答题词云。

动次的回答问题词云

后记

本文涉及项目会持续更新,会将研究对象拓展至各平台,并进行后续优化,有兴趣的盆友可以关注 GitHub 项目。

结尾引用知乎用户陈壮壮在《当你追求女生时,你们聊些什么?》的回答。(因为穷我就不申请转载了你们自己点进去看吧(ಥ﹏ಥ),你们只要知道我有颗带你们撩妹的心就行了)

参考链接:

安装scrapy:

http://scrapy-chs.readthedocs.io/zh_CN/1.0/intro/install.html

pycharm编译器:

http://www.jianshu.com/p/23e52f7b8ec7

回调函数:

https://www.zhihu.com/question/19801131

yield的用法:

https://www.ibm.com/developerworks/cn/opensource/os-cn-python-yield/

robots.txt法则:

https://baike.baidu.com/item/robots%E5%8D%8F%E8%AE%AE/2483797?fr=aladdin&fromid=9518761&fromtitle=robots.txt

scrapy官方文档:

http://scrapy-chs.readthedocs.io/zh_CN/1.0/index.html

动次:https://www.zhihu.com/people/wang-dong-ci/activities

GitHub项目:

https://github.com/otakurice/danshengoustyle

当你追求女生时,你们聊些什么?

https://www.zhihu.com/question/25955712/answer/37668446

作者:大吉大利小米酱 来源:https://zhuanlan.zhihu.com/p/30903845


原文发布于微信公众号 - 马哥Linux运维(magedu-Linux)

原文发表时间:2017-11-14

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏牛客网

成都-阿里Java研发工程师面经

11号去成都参加阿里面试,网上预约的3点,两点半就到了,刚签完到马上就喊去面试。经历了一面二面和HR面。 一面 1.介绍一下你的项目,说一下哪个项目印象最深 ...

44380
来自专栏我和PYTHON有个约会

大牧夜话——爬虫篇-预告片PYTHON爬虫-江湖夜话

应大家的要求,最近打算整理一下PYTHON爬虫的东东,希望能对入门的童鞋们有所助益!本人技术一般水平有限,如有不妥请联系或者私信本人,互相进步。 内容会同步在...

10520
来自专栏编舟记

架构整洁之道导读(三)

上回说到组件聚合,反映的是组件内部的“基本元素”的选择标准。第14章介绍的组件耦合则是指组件和组件之间的关系,这些依赖关系有些是好的,有些是不好的,我们即将看到...

16130
来自专栏Python专栏

继万字谏言后,Python Web 怎么学,看这篇就够了!

之前那篇「万字谏言,给那些想学Python的人,建议收藏后细看!」得到很多后台读者的留言,表示想再来点,甚至说万字系?你知道万字有多少么?不要杠我根本没有万字!...

14110
来自专栏大数据挖掘DT机器学习

不踩坑的Python爬虫:如何在一个月内学会爬取大规模数据

Python爬虫为什么受欢迎 如果你仔细观察,就不难发现,懂爬虫、学习爬虫的人越来越多,一方面,互联网可以获取的数据越来越多,另一方面,像 Python这样的...

681100
来自专栏Python中文社区

不踩坑的Python爬虫:如何在一个月内学会爬取大规模数据

Python爬虫为什么受欢迎 如果你仔细观察,就不难发现,懂爬虫、学习爬虫的人越来越多,一方面,互联网可以获取的数据越来越多,另一方面,像 Python这样的...

513120
来自专栏程序人生

上帝说:要有一门面向未来的语言,于是有了 erlang

今个谈谈 erlang。 这些文章流于表面,更多是简单的介绍。这篇文章不同,因为 erlang 并不是一门新语言,简单介绍它的人不算少,我希望这篇文章能在深度上...

428110
来自专栏LET

CPU简介

34190
来自专栏腾讯Bugly的专栏

关于 Android N 那些你不知道的事儿

今年3月,Google 破天荒提前半年发布了 Android N 开发者预览版。当然,作为一个不合格的谷粉并没有第一时间体验安装,因为至今仍然能够回忆起来去年今...

35960
来自专栏机器学习算法与Python学习

不踩坑的Python爬虫:如何在一个月内学会爬取大规模数据

Python爬虫为什么受欢迎 如果你仔细观察,就不难发现,懂爬虫、学习爬虫的人越来越多,一方面,互联网可以获取的数据越来越多,另一方面,像 Python这样的编...

5.4K700

扫码关注云+社区

领取腾讯云代金券