前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >手把手教你抓取链家二手房首页的全部数据

手把手教你抓取链家二手房首页的全部数据

作者头像
前端皮皮
发布2022-08-17 18:50:11
5000
发布2022-08-17 18:50:11
举报
文章被收录于专栏:前端进阶学习交流

大家好,我是皮皮。

一、前言

前几天在Python白银交流群大家在交流链家网二手房数据的抓取方法,如下图所示。

这里想要上图中红色圈圈里边的信息。

二、实现过程

这里群友【🇳 🇴 🇳 🇪】大佬给了一份代码,分享给大家。

代码语言:javascript
复制
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# Created by iFantastic on 2022/6/7

import scrapy
from scrapy.cmdline import execute



class LJ_spiders(scrapy.Spider):
    name = 'lj'
    start_urls = [f'https://cs.lianjia.com/ershoufang/pg{page}/' for page in range(1, 101)]

    def parse(self, response, **kwargs):
        for info in response.xpath("//div[@class='info clear']"):
            yield {
                'title': info.xpath('./div[@class="title"]/a/text()').get(),
                'positionInfo': info.xpath('./div[@class="flood"]//text()').extract(),
                'houseInfo': info.xpath('./div[@class="address"]/div/text()').get(),
                'followInfo': info.xpath('./div[@class="followInfo"]//text()').get(),
                'tag': info.xpath('./div[@class="tag"]//text()').extract(),
                'totalPrice': info.xpath('//div[@class="priceInfo"]/div[1]/span/text()').get() + '万',
                'unitPrice': info.xpath('//div[@class="priceInfo"]/div[2]/span/text()').get()
            }


if __name__ == '__main__':
    execute('scrapy crawl lj -o 长沙二手房.csv'.split())

这里他是使用Scrapy框架抓取的,上面的代码是爬虫文件中的所有代码,速度非常快,可以轻而易举的把数据获取到。

运行之后,结果图下图所示:

后面遇到类似的,不妨拿出来实战下,事半功倍!

三、总结

大家好,我是皮皮。这篇文章主要分享了链家网二手房首页数据抓取,文中针对该问题给出了具体的解析和代码实现,帮助粉丝顺利解决了问题。需要本文完整代码的小伙伴,可以私我获取。

最后感谢粉丝【dcpeng】提问,感谢【🇳 🇴 🇳 🇪】给出的思路和代码解析,感谢【dcpeng】、【猫药师Kelly】、【冫马讠成】、【月神】等人参与学习交流。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-06-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Python共享之家 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、前言
  • 二、实现过程
  • 三、总结
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档