腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
3
回答
将
Scrapy
Python
输出
写入
JSON
文件
、
、
、
、
我是
Python
和web抓取的新手。在这个程序中,我想写的最终
输出
(产品名称和价格从所有3个链接)到
JSON
文件
。请帮帮我!import
scrapy
import csv, os,
json
name = "spider1" def start_r
浏览 13
提问于2019-05-27
得票数 2
回答已采纳
2
回答
Scrapy
Json
输出
的Unicode
、
、
、
、
json
输出
文件
中的Unicode文本转义如下:"\u00d6\u011fretmen S\u00fcleymanYurtta\u015fCad“。那么,有什么方法可以使scrapyjsonencoder编码器在
写入
文件
时不转义。这是标准刮痕爬虫。抓取爬行--nolog -output=output.
json
-t
json<
浏览 4
提问于2015-06-19
得票数 1
2
回答
Scrapy
:存储数据
、
我正在尝试遵循
Scrapy
教程,但我不理解的逻辑。
scrapy
crawl spidername -o items.
json
-t
json
scrapy
crawl spidername --set FEED_URI=output.csv --set
浏览 4
提问于2012-12-28
得票数 14
回答已采纳
2
回答
将
结果从yield路由到一个
文件
、
我有以下使用
Scrapy
的
Python
脚本: name = "site" self.log(next_page) yield
scrapy
.Request(next_page, callback'product_price':
浏览 0
提问于2019-06-21
得票数 0
1
回答
S3存储桶的剪贴画:缺少1个必需的位置参数:“uri”
、
我正在尝试让
scrapy
将
结果
写入
到S3存储桶中。我的配置
文件
中有以下内容: '
scrapy
.pipelines.files.S3FilesStore': 1FEED_URI = 's3://1001-results-bucket/results.
json
'我的解析函数非常简单: cla
浏览 9
提问于2018-02-14
得票数 1
7
回答
在Visual代码中调试
Scrapy
项目
、
、
、
、
爬行器工作正常,但我想调试代码,为此我在我的launch.
json
文件
中添加了以下内容: "name": "
Scrapy
with Integrated Terminal/Console","type": "
python
", "stopOnEntry": true, "pythonPath
浏览 1
提问于2018-03-09
得票数 23
回答已采纳
2
回答
Scrapy
-无法在项目位置之外保存已擦伤的数据。
、
、
我是
Python
-
Scrapy
.的新手我无法弄清楚如何在项目之外保存被刮掉的
输出
文件
(Project在Eclipse中)。我的项目结构是:这就是我如何运行我的刮刮项目: 但是,我希望在运行时将该
浏览 2
提问于2016-02-05
得票数 1
1
回答
Scrapyd:如何
将
数据
写入
json
文件
?
、
、
我有一个正在运行的
scrapy
2.1.0项目,其中我
将
数据
写入
json
文件
: self.file = open('data/'+datetime.datetime.now().strftime ("%Y%m%d") + '_' + spider.name + '.
json
', 'wb') self.e
浏览 2
提问于2020-05-19
得票数 0
2
回答
使用
scrapy
将
抓取的项目保存到
json
/csv/xml
文件
、
crawl myspider用于在
文件
中获取结果的
scrapy
crawl myspider -o item.
json
我的问题是,只有当
scrapy
完成抓取时,
scrapy
才会将抓取的结果转储到item.
json
。意味着要等到爬行结束。因此,对于大型项目,我将不得不等待非常非常长的时间,因为我猜
scrapy
将在所有爬行
浏览 2
提问于2014-02-04
得票数 4
1
回答
同时运行相同的爬虫
、
、
我使用的是
scrapy
0.20和
python
2.7请注意,我使用的是管道,以便
将
结果
写入
json
文件
。 谢谢
浏览 1
提问于2014-02-25
得票数 1
1
回答
一次运行
Scrapy
脚本,处理
输出
,并加载到数据库?
、
我已经成功地编写了一个从网页抓取数据的
Scrapy
项目,当我在命令行使用
scrapy
crawl dmoz -o items.
json
-t
json
调用它时,它成功地
将
抓取的数据
输出
到
JSON
文件
中。然后,我编写了另一个脚本,获取该
JSON
文件
,加载它,更改数据的组织方式(我不喜欢它的默认组织方式),并将其作为第二个
JSON
文件
输出
。然后使用Django的man
浏览 0
提问于2013-02-03
得票数 1
回答已采纳
1
回答
php shell_exec() - ampps -拒绝
scrapy
命令的权限
、
、
、
我已经在php和html中开发了一个ui,以显示在运行
scrapy
命令时从正在生成的
json
文件
中获取被刮掉的data.this数据。iam使用ampps来运行php。-o example.
json
2>&1');我得到的结果是'
scrapy
命令找不到‘。-o example.
json
2>&1');现在我得到了包含消息的
输出
Permi
浏览 0
提问于2019-03-21
得票数 1
回答已采纳
1
回答
如何
将
项转换为
JSON
字符串,以便
将
项导出到S3
、
我正在编写自己的
Scrapy
项目管道,以便
将
单个
JSON
文件
输出
到S3中。到目前为止,这是我的代码,但我无法解决如何
将
每个项序列化为
JSON
。(item) File "/usr/local/Cellar/
python
/2.7.13/Frameworks/
Python
.framework/Versions/2.7/lib
浏览 2
提问于2017-01-01
得票数 1
回答已采纳
3
回答
如何在
Scrapy
Spider完成后触发Mongodb导入?
、
、
、
、
我正在使用
Python
库
Scrapy
来抓取网站并定期生成
json
输出
文件
。为了提高效率,我希望在每个爬行器完成后
将
这些
json
文件
批量上传到Mongodb中。我相信我可以这样做:然而,我想知道在爬虫完成后触发这个导入的最好方法是什么我希望我可以使用这里描述的close_spide
浏览 0
提问于2018-09-23
得票数 0
1
回答
Scrapy
:如何
将
爬行统计数据保存到
json
文件
?
、
在
scrapy
2.0.1中,我
将
新数据
写入
到
json
文件
中。在这个过程的最后,我想附加一些粗略的统计数据。现在我知道有一个
scrapy
stats集合可用: https://docs.
scrapy
.org/en/latest/topics/stats.html 所以正确的代码行可能是下面这一行:stats.get_statstest_pipeline(object):
浏览 18
提问于2020-04-24
得票数 3
2
回答
将
数据放在CSV
文件
中,从爬虫抓取不同的网站(
Scrapy
)
、
、
但是现在我似乎不能将数据放入一个普通的csv或
json
文件
中。在我组合爬虫之前,我只需要抓取afg2 -o数据_set.csv',但现在似乎不起作用。 获取csv
文件
中的数据的最简单方法是什么?下面是我的代码: import
scrapy
浏览 44
提问于2020-07-23
得票数 0
回答已采纳
5
回答
在脚本
文件
函数中获取
Scrapy
crawler
输出
/结果
、
、
、
、
我使用脚本
文件
在
scrapy
项目中运行爬行器,并且爬行器记录爬虫的
输出
/结果。但是我想在脚本
文件
中使用爬行器
输出
/结果,在某些函数中,.I不想将
输出
/结果保存在任何
文件
或DB中。下面是从获取的脚本代码from
scrapy
.crawler import CrawlerRunner from
scrapy
.utils.logimpo
浏览 3
提问于2016-10-25
得票数 12
1
回答
从单独的脚本运行
Scrapy
-o
JSON
、
、
、
我有一个
python
3脚本,我在其中调用了2个抓取爬行器,以便在代码中的某个时刻
输出
一个
JSON
文件
。目前,我通过运行如下所示的bat脚本来做到这一点:Bat脚本:
scrapy
crawl proje
浏览 20
提问于2020-07-30
得票数 1
回答已采纳
7
回答
如何保存
Scrapy
crawl命令
输出
、
我正在尝试保存
scrapy
crawl命令的
输出
,我已经尝试过
scrapy
crawl someSpider -o some.
json
-t
json
>> some.text,但它不起作用,有人告诉我如何
将
输出
保存到文本
文件
中...我的意思是通过
scrapy
打印的日志和信息……我正在尝试保存
scrapy
crawl命令的
输出
,但它不起作用。
浏览 5
提问于2013-05-20
得票数 12
回答已采纳
1
回答
哪些
文件
的名称来自结果dir(
scrapy
)命令?
、
定义和语句的
文件
。因此,我尝试查找
scrapy
文件
来查看内部的定义名称:/usr/local/lib/
python
2.7/dist-packages/
scrapy
/usr/local/lib/
python
2.7/dist-packages/
scrapy
浏览 0
提问于2018-07-28
得票数 0
回答已采纳
点击加载更多
相关
资讯
把Python程序的输出和异常信息自动写入文件
10行代码教你用Python批量读取json文件,并将其写入excel
python文件操作全套讲解(二):写入文件
python笔记19-yaml文件写入
如何扩展python的logging组件支持json日志输出
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券