前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >python爬取链家租房之获得每一页的房屋信息地址(持续更新)

python爬取链家租房之获得每一页的房屋信息地址(持续更新)

作者头像
98k
发布2018-04-11 15:25:09
1.1K0
发布2018-04-11 15:25:09
举报
文章被收录于专栏:Django ScrapyDjango Scrapy
代码语言:javascript
复制
__author__ = 'Lee'
import requests
from bs4 import BeautifulSoup

url_text = 'https://bj.lianjia.com/zufang/xicheng/'

area_list = []
headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36',
}
proxies = {"http": "http://119.57.105.241:8080"}
wb_data = requests.get(url_text,headers=headers)
soup = BeautifulSoup(wb_data.text,'lxml')
# 面包屑模块
# 面包屑 breadcrumbs
bread_crumbs =soup.select('#house-lst > li')
item_url = soup.select('#house-lst > li > div > h2 > a')
for url in item_url:

    url1 = url.get('href')
    print(url1)
'''
上边的code中,get方法不能直接使用 因为数据类型不支持,
特别注意的是item_url,url两个变量数据类型不同,分别是list,bs4.element.Tag
只有url支持get方法
'''

'''
#house-lst > li:nth-child(1) > div.info-panel > h2 > a
'''
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017.06.13 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档