前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >使用虚拟环境,搭建python3+scrapy

使用虚拟环境,搭建python3+scrapy

作者头像
98k
发布2018-04-11 15:41:10
6020
发布2018-04-11 15:41:10
举报
文章被收录于专栏:Django ScrapyDjango ScrapyDjango Scrapy

使用虚拟环境

查看当前的虚拟环境 wokon

workon

选择自己用的 wokon xxx

workon article_spider

scrapy的搭建

在安装好scrapy的前前提下进行

创建scrapy

scrapy startproject ArticleSpider

scrapy创建

创建完成后

目录介绍

目录结构

scrapy大量的借鉴了django的设计理念

scrapy.cfg 配置文件 类似django settings.py 配置文件 工程,module(路径) pipelines.py 数据存贮 middlewares.py items.py from 定义数据保存的一种格式 比django简单 spiders 写爬虫的目录,默认是空的

genspider 命令

scrapy genspider jobbole blog.jobbole.com 执行成功后,会在spiders目录下生成jobbole.py文件

import scrapy


class JobboleSpider(scrapy.Spider):
    name = 'jobbole'
    allowed_domains = ['blog.jobbole.com']
    start_urls = ['http://blog.jobbole.com/']

    def parse(self, response):
        pass

修改settings.py中的 ROBOTSTXT_OBEY = False

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017.10.19 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 使用虚拟环境
  • scrapy的搭建
  • 创建scrapy
  • 目录介绍
  • genspider 命令
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档