腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Scrapy
shell
返回
None
作为
响应
、
、
scrapy
shell
>>>print (response)
None
vs当我使用请求时: >>>import requests
浏览 17
提问于2021-06-23
得票数 0
1
回答
为什么我的基本
scrapy
请求没有得到
响应
?
、
、
、
当我使用
scrapy
shell
时:它打开
shell
,但不包含
响应
对象。正在运行
返回
none
。为什么使用不同的URL时没有
响应
?这跟https有关系吗?由于链接包含表单,我是否需要使用
浏览 5
提问于2017-08-10
得票数 0
回答已采纳
1
回答
为什么
Scrapy
不提供
响应
对象?
、
我使用
Scrapy
Shell
并使用以下命令:没有错误消息,但是
响应
对象的类型是
None
,我不知道为什么。
浏览 2
提问于2020-01-18
得票数 0
1
回答
对robots.txt的苛刻和尊重
、
我昨天发现
Scrapy
默认使用robots.txt文件(ROBOTSTXT_OBEY = True)。如果我用
scrapy
shell
url请求一个URL,如果我得到了
响应
,这是否意味着url不受robots.txt的保护?
浏览 13
提问于2019-03-22
得票数 2
回答已采纳
2
回答
NameError:使用
Scrapy
时未定义名称'hxs‘
、
我已经启动了
Scrapy
外壳,并成功地点击了维基百科。
scrapy
shell
http://en.wikipedia.org/wiki/Main_Page 我相信,从
Scrapy
反应的冗长性来看,这一步骤是正确的。我知道
Scrapy
安装得很好,已经接受了目的地的URL,但是为什么没有hxs命令会出现问题呢?
浏览 1
提问于2014-09-21
得票数 3
回答已采纳
1
回答
我们到底应该通过什么回应,而要求在邮件在刮刮?
、
、
但是,我想要执行这个活动,而不是
作为
命令行参数。因此,我试图在子进程中使用上面的命令登录。","fetch", req],
shell
=True) TypeError:类型为“FormRequest”的参数不可迭代 response = call(["
sc
浏览 5
提问于2020-10-13
得票数 0
1
回答
在木星笔记本中使用
Scrapy
/直接访问
响应
、
、
、
、
我想直接与木星笔记本中的
Scrapy
response对象进行交互,就像在命令行中输入
scrapy
shell
"some-url"之后,您可以这样做。在笔记本中,我可以在没有错误的情况下运行这些命令:request =
scrapy
.Request("some-url") 通常,请求对象在蜘蛛中生成并在系统中传递,直到它们到达下载器,后者执行请求并
浏览 1
提问于2018-04-18
得票数 8
回答已采纳
2
回答
抓取爬虫蜘蛛不跟随链接
、
、
为此,我在
Scrapy
爬行蜘蛛示例中使用了示例:from
scrapy
.selector import HtmlXPathSelectorcrawl basketsp 2013-11-17 01:40:15+0200 [
scrapy
] INFO:
Scrapy
浏览 3
提问于2013-11-16
得票数 1
回答已采纳
1
回答
scrapy
在尝试加载nepalstock.com时给出500个内部服务器错误
、
当我试图将url http://nepalstock.com/todaysprice加载到
scrapy
shell
中时,它会
返回
500个内部服务器错误。为什么这个网站会抛出这样的错误呢?我已经尝试过加载其他网站,它们都在
shell
中加载得很好。我也尝试过用和不使用http来执行它们。
scrapy
shell
'http://nepalstock.com' 2019-04-07 12:09:41 [
scrapy
浏览 1
提问于2019-04-07
得票数 1
回答已采纳
1
回答
Scrapy
:为什么我的
响应
对象没有body_as_unicode方法?
、
我尝试在
scrapy
shell
中fetch url,并根据
返回
的
响应
创建一个HtmlXPathSelector对象。这就是我得到错误的时候[
scrapy
shell
] fetch('http://example.com') #its something other than example.[
scrapy
shell
] from
scrapy
.selector import
浏览 2
提问于2013-01-19
得票数 3
回答已采纳
1
回答
scrapy
LinkExtractor会检查每个yield(ed)请求中的链接吗?
、
Scrapy
具有LinkExtractor类,该类跟踪链接并
返回
回调 Linkextractor是否检查来自每个yield(ed) Request的
响应
中的链接?
浏览 1
提问于2015-08-13
得票数 0
1
回答
LinkedIn抓取多个页面
、
、
但是,使用
scrapy
这个方法不起作用。res = requests.get('https://www.linkedin.com/jobs/search/?
浏览 1
提问于2019-10-24
得票数 0
1
回答
如何在
Scrapy
中修复403
响应
、
http://prntscr.com/o56670 请查看截图 我正在使用python 3并在我的终端上使用
scrapy
。fetch("https://angel.co/adil-wali") 当请求链接时,它以403
响应
。所以我已经改变和轮换了用户代理和机器人,但仍然显示403
响应
,所以这次我购买了爬虫计划,但爬虫仍然说523
响应
您知道为什么在
scrapy
shell
中请求
返回
403而不
浏览 5
提问于2019-06-22
得票数 0
回答已采纳
1
回答
为什么这个粗糙的
scrapy
中间件会发出重复的请求?
、
、
、
但是,当dont_filter=False时,日志是2017-07-19 13:54:25 [
scrapy
.extensions.logstats] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min) 2017-07-19 13:54:25 [
scrapy
.extensions.telnet] DEBUG:
浏览 3
提问于2017-07-19
得票数 0
回答已采纳
2
回答
iPython notebook中的
scrapy
shell
url
返回
SyntaxError
、
在windows power
shell
中,我可以运行
scrapy
shell
'http://www.hao123.com',我可以运行ipython,我可以运行ipython,但不能在ipython笔记本中运行
scrapy
shell
'http://www.hao123.com' ,我也不能运行
scrapy
shell
'http://www.hao123
浏览 0
提问于2017-04-28
得票数 2
1
回答
忽略导出
SCRAPY
_SETTINGS_MODULE的刮擦外壳
、
、
、
、
无论如何,我设置了上面的内容,并在没有指定任何蜘蛛的情况下,针对我想要的示例URL运行
scrapy
。启动时没有异常或警告,但不使用我提供的设置模块。 我做错了什么?
浏览 3
提问于2017-09-11
得票数 1
回答已采纳
1
回答
Scrapy
shell
没有hxs或xxs
作为
可用的对象
、
、
我运行:从教程中可以看到:“
shell
还实例化了两个选择器所以让我们尝试一下:”[s] Available
Scrapy
objects: [s] crawler <
scrapy
.cra
浏览 1
提问于2014-08-11
得票数 2
2
回答
如何将
scrapy
shell
与url和基本身份验证凭据一起使用?
、
、
、
、
我想为url使用
scrapy
shell
和测试
响应
数据,这需要基本的身份验证凭据。我试图检查
scrapy
shell
文档,但我在那里找不到它。我尝试使用
scrapy
shell
'http://user:pwd@abc.com',但它不起作用。有人知道我怎样才能做到这一点吗?
浏览 19
提问于2017-03-16
得票数 9
回答已采纳
1
回答
用Python3 (
Scrapy
,BS4)抓取网站确实会产生不完整的数据。找不到原因
、
、
我现在正试图从其他网站上获取其他的数据,这一次是使用
SCRAPY
。我尝试了以下URLS: name = "whisky" ] yield
浏览 4
提问于2020-10-22
得票数 0
1
回答
shell
中的
Scrapy
- 301重定向
、
、
、
我正在使用
Scrapy
(最新版本),并试图调试一个爬虫。使用
scrapy
shell
https://jigsaw.w3.org/HTTP/300/301.html ->,它不遵循重定向(它使用默认的爬行器来获取数据)。如何才能让
shell
遵循301来调试最终页面呢?
浏览 13
提问于2016-07-31
得票数 4
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Scrapy向导
scrapy官方文档提供的常见使用问题
高级爬虫:Scrapy爬虫框架初探
学习Python爬虫必备框架:Scrapy
Scrapy 爬虫(2):听说你的爬虫又被封了?
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券