腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
3
回答
从
脚本
中
运行
刮擦蜘蛛会导致错误ImportError:没有名为
scrapy
的模块
python
、
web-scraping
、
import
、
scrapy
我安装了
scrapy
,并创建了一个蜘蛛,当从命令行
运行
时,它可以使用命令
scrapy
。我的问题是,当某些特定的事情发生时,我需要从
另一个
脚本
运行
蜘蛛。我有一个单独的
python
脚本
,这只是一个测试,但它试图按行
运行
蜘蛛: execfile("../
scrapy
/data_
spider
/data_
spider
/spiders/
浏览 7
提问于2019-08-01
得票数 0
1
回答
如何让
Scrapy
在
python
项目中爬行?
python
、
scrapy
我想在这个url上保存信息,我按照
Scrapy
教程学习了如何使用这个工具。但是,有没有一种方法可以在MyScrapClass.crawl()这样的
Python
项目中启动爬行,而不是使用linux命令
scrapy
crawl MyScrapProject?
浏览 1
提问于2016-03-21
得票数 0
1
回答
Scrapy
:
从
python
脚本
中
运行
一个蜘蛛,并等待其执行结束。
python
、
django
、
scrapy
、
scrapy-spider
我创建了一个具有以下结构的小型
Scrapy
项目: ├──
scrapy
.cfg ├── __init__.py ├── crawl_products.pycrawl_products.py包含蜘蛛products_
spider
为了启动我正在使用的蜘蛛:现在,我
浏览 4
提问于2017-05-11
得票数 2
1
回答
从
项目目录外部
运行
的
scrapy
引发异常
python
、
scrapy
我想通过我的自定义
python
脚本
runspiders.py
运行
这个蜘蛛。
脚本
从
scrapy
项目文件夹内
运行
时,蜘蛛将正确
运行
。C:\wamp64\www\tutorial>
python
runspiders.pyC:\wamp64\www>
py
浏览 9
提问于2016-12-14
得票数 2
3
回答
如何将
Scrapy
脚本
打包到独立的应用程序中?
python
、
scrapy
、
desktop-application
、
py2exe
、
pyinstaller
它们需要每天
从
桌面应用程序
运行
。
从
用户的角度来看,在另一台windows计算机上安装和
运行
它的最简单方法是什么?
浏览 1
提问于2013-08-30
得票数 3
2
回答
使用
Python
的"
Scrapy
“时出错
python
、
scrapy
我在
Python
2.7上安装了最新版本的
Scrapy
(是的,我仍然使用这个版本),在
运行
Scrapy
的教程
脚本
时遇到了一个错误。我正在
运行
的代码是: name = "dmoz.org"\
scrapy
\
spider
.py", line 7, in
浏览 7
提问于2011-03-15
得票数 1
回答已采纳
4
回答
从
脚本
中抓取爬虫
python
、
python-2.7
、
scrapy
我想从
脚本
而不是scrap crawl
运行
爬行器有什么需要帮忙的吗?
浏览 1
提问于2014-02-10
得票数 23
4
回答
在刮刮中
运行
多个蜘蛛
python
、
scrapy
、
web-crawler
例如,如果我有两个包含不同的,那么就可以使用
scrapy
中的。现在,我想写两个单独的蜘蛛各一个,并希望同时
运行
这两个蜘蛛。在编写了多个蜘蛛之后,我们如何安排它们每6个小时
运行
一次(可能就像cron作业)提前谢谢。
浏览 8
提问于2012-06-08
得票数 8
回答已采纳
1
回答
在
运行
时环境(如cgi、wsgi )中调用
scrapy
scrapy
我想模拟 是否有给我提供HtmlXPathSelector (hxs)对象的url的刮伤实用程序?
浏览 5
提问于2013-06-24
得票数 1
2
回答
从
Python
脚本
中
运行
scrapy
- CSV导出程序不起作用
python
、
python-2.7
、
export
、
twisted
、
scrapy
当我从命令行
运行
它时,我的刮取器工作得很好,但是当我试图在
python
脚本
中
运行
它(使用使用Twisted的方法概述 )时,它不会输出它通常所做的两个CSV文件。我有一个创建和填充这些文件的管道,其中一个使用CsvItemExporter(),
另一个
使用writeCsvFile()。are normally created in this folder
scrapy</
浏览 3
提问于2013-07-20
得票数 6
回答已采纳
1
回答
Python
+
Scrapy
:
从
脚本
运行
爬虫时
运行
"ImagesPipeline“的问题
python
、
scrapy
、
scrapy-pipeline
我是
Python
的新手,所以如果这里有一个愚蠢的错误,我很抱歉.我已经在网上搜索了好几天,看过类似的问题,梳理了一下
Scrapy
文档,似乎没有什么能真正解决这个问题.我有一个
Scrapy
项目,它成功地抓取源网站,返回所需的项,然后使用ImagePipeline
从
返回的图像链接下载(然后相应地重命名)图像.但只有当我使用"runspider".
从
终端
运行
时,才能
运行
每当我使用来自终端或CrawlProcess的“爬行”
从
脚本<
浏览 0
提问于2019-08-22
得票数 1
3
回答
对
从
Python
脚本
中
运行
Scrapy
感到困惑
python
、
web-scraping
、
scrapy
遵循,我可以
从
Python
脚本
运行
scrapy
,但我无法获得
scrapy
结果。这是我的蜘蛛:from
scrapy
.selector import HtmlXPathSelector
scrapy
crawl douban但是我无法
从
Python
脚本
浏览 1
提问于2013-07-10
得票数 6
回答已采纳
2
回答
CrawlerProcess对CrawlerRunner
python
、
web-scraping
、
scrapy
解释说,有两种方法可以
从
脚本
中
运行
Scrapy
蜘蛛 这两者有什么区别呢?我什么时候应该使用“过程”和“跑步者”?
浏览 6
提问于2016-09-26
得票数 32
回答已采纳
5
回答
在
脚本
文件函数中获取
Scrapy
crawler输出/结果
python
、
scrapy
、
web-crawler
、
twisted
、
scrapy-spider
我使用
脚本
文件在
scrapy
项目中
运行
爬行器,并且爬行器记录爬虫的输出/结果。但是我想在
脚本
文件中使用爬行器输出/结果,在某些函数中,.I不想将输出/结果保存在任何文件或DB中。下面是
从
获取的
脚本
代码from
scrapy
.crawler import CrawlerRunner from
scrapy
.utils.log%(levelname)s
浏览 3
提问于2016-10-25
得票数 12
1
回答
-第一个任务后的“流程完成”,不会
运行
以下作业。
python
、
scrapy
、
scheduled-tasks
、
scheduler
、
scrapy-spider
我使用
Python
()实现了一个网络爬虫。现在我想自动
运行
这些进程。我查看了模块Schedule (,),并编写了以下代码:import timefrom scrapers.
scrapy
_new_users.helper
浏览 5
提问于2018-03-16
得票数 0
2
回答
运行
抓取爬虫的最简单方法,这样它就不会阻止
脚本
python
、
scrapy
给出了
从
代码中
运行
scrapy
爬虫的许多方法:from
scrapy
.crawler import CrawlerProcess # Your
spider
definitionprocess.start() # the script will block here until the c
浏览 3
提问于2016-02-26
得票数 3
回答已采纳
1
回答
我们能在
scrapy
shell之外
运行
擦伤代码吗?
python
、
web-scraping
、
scrapy
我试着用
Scrapy
建造一个爬虫。在
scrapy
的官方文档或博客中,我看到人们在.py代码中创建一个类,并通过
scrapy
执行它。在它们的主页上,给出了以下示例 name = 'blogspider'我无法找到一种方式来编写相同的代码,这种方式可以用以下方式执行
python
浏览 0
提问于2018-03-09
得票数 3
回答已采纳
1
回答
Windows无法在dir中找到刮伤文件。
python
、
windows
、
scrapy
因此,我得到了一个简单的
运行
脚本
,它将使用Popen来调用蜘蛛。
运行
脚本
如下:import time p = Popen(["
scrapy
", "crawl", "当我
从
cmd行
运行
该蜘蛛时,它将从dir:C:\Users\Kasutaja\Desktop\scrapyTest中完美地
运行
。当我
浏览 1
提问于2013-06-27
得票数 2
1
回答
如何建立我的抓取蜘蛛到一个可执行文件使用py2exe?
python
、
exe
、
scrapy
、
py2exe
我使用
scrapy
创建一个项目,并在"spiders“文件夹中添加我自己的爬行器,比如"
spider
_us.py",我想构建一个可在其他计算机上执行的可执行文件,而不需要安装
scrapy
。我在同一个文件夹中创建了一个新文件"Setup.py“,内容如下:import py2exe 然而,它不起作用,因为当我
运行
浏览 1
提问于2013-10-18
得票数 6
2
回答
从
python
脚本
调用
scrapy
而不是创建JSON输出文件
python
、
json
、
web-crawler
、
scrapy
下面是我用来调用
scrapy
的
python
脚本
,答案是 reactor.stop()from
scrapy
import log,signals return item 此代码
浏览 4
提问于2013-03-19
得票数 3
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券