前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >20行代码爬取浙大附一现有专家

20行代码爬取浙大附一现有专家

作者头像
火星娃统计
发布2020-11-03 14:41:20
4550
发布2020-11-03 14:41:20
举报
文章被收录于专栏:火星娃统计火星娃统计

20行代码爬取浙大附一现有专家

概述

爬虫系列突然有点不想更新了,俗话说,“爬虫学得好,牢饭吃到饱”,前几天接触到了一个收费的爬虫项目,最后还是拒绝了,通过爬虫来挣钱,是一个危险的活儿,害怕有一天突然触及到这个底线,不过想想我也没有用这个挣钱呀,不知道我的读者中有没有了解行情的。

目标网址

浙附一官网 http://www.zy91.com/index/index.jhtml

代码

代码语言:javascript
复制
import requests
import parsel
import csv

with open ('./python/爬取穷游网/zheda.csv',mode='a',encoding='utf-8',newline='') as f:
    for page in range(1,113):
        # 请求
        url = "http://www.zy91.com/zjxq/index_{}.jhtml".format(str(page))
        headers={"User-Agent":'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:81.0) Gecko/20100101 Firefox/81.0'}
        resp = requests.get(url=url,headers=headers)
        html_data=resp.text
        # 数据解析
        # 转换数据类型
        selector = parsel.Selector(html_data)
        divs=selector.xpath('//div[@class="main"]/div')
        for li in divs[2:8]:
            name=li.xpath('.//div[@class="color"]/text()').get()
            keshi_all=li.xpath('.//div[@class="title2"]/span/text()').getall()
            # 保存
            csv_writer=csv.writer(f)
            csv_writer.writerow([name,keshi_all])

结果

结束语

关于爬虫犯罪其实有点言过其实,只是最近经历的事儿突然发现,要找你事儿,真的很容易,真是烦。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-10-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 火星娃统计 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 20行代码爬取浙大附一现有专家
    • 概述
      • 目标网址
        • 代码
          • 结果
            • 结束语
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档