腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Scrapy
每隔
一行
打印
csv
文件
中
的
数据
、
、
、
、
我用python
scrapy
写了一个脚本,用来解析来自yellowpage
的
一些条目。当我执行我
的
脚本时,它确实可以完美地解析所有项。但是,每当涉及到将这些抓取
的
数据
相应地写入
csv
文件
时,我都会遇到问题,即当我打开
csv
文件
并填充
数据
时,我看到
数据
每隔
一行
打印
一次。怎样才能去掉空行?我在下面粘贴了脚本信息,供您参考。"items.p
浏览 5
提问于2017-08-04
得票数 0
2
回答
我需要稍微调整一下我
的
简陋
的
代码,以摆脱冗余
数据
、
、
我用
scrapy
写了一段代码,从yellowpage上抓取咖啡店。总
数据
大约是870个,但我得到
的
是1200个左右
的
最小重复数。此外,在
csv
输出
中
,
数据
被放置在
每隔
一行
中
。
文件
夹名称"yellpg“和"items.py”包含class YellpgItem(Item): name
浏览 0
提问于2017-04-05
得票数 0
3
回答
每隔
一行
读取一次并
打印
到新
文件
我正在尝试读取
CSV
文件
中
的
每隔
一行
,并将其
打印
到一个新
文件
中
。不幸
的
是,我得到了一个空行,我无法删除它。lines = open( 'old.
csv
', "r" ).readlines()[::2]n = 0 for line in lines
浏览 1
提问于2013-07-06
得票数 6
回答已采纳
1
回答
无法消除
csv
输出
中
的
空白行
、
、
、
、
然而,我遇到
的
唯一问题是
csv
输出
中
数据
被刮掉
的
方式。它总是两行之间
的
一行
(行)间隔。我
的
意思是:
数据
被
打印
在每
一行
。看到下面的图片,你就会明白我
的
意思。如果不是因为刮擦,我可以用换行符=‘’。但是,不幸
的
是,我在这里完全无助。如何消除
csv
输出中出现
的
空行?事先谢谢您来看一下。items.py包括: import
sc
浏览 3
提问于2017-08-27
得票数 0
回答已采纳
1
回答
如何在不附加关键字
的
情况下将字典附加到
csv
、
、
、
、
我需要将其保存为
csv
文件
。但这个字典在每次迭代中都会更新,并将一个新
的
字典附加到现有的
csv
文件
中
。我在
scrapy
中使用它。category/', 'parse_category'), yield
scrapy
.Requestdf = pd.DataFrame.from_dic
浏览 12
提问于2020-04-22
得票数 0
回答已采纳
1
回答
使用
scrapy
顺序运行两个爬行器时仅得到一个结果
、
我
的
spider.py类中有两个爬行器,我想运行它们并生成
csv
文件
。=
scrapy
.Field() product_price_jd =
scrapy
.Field() 我想生成一个包含四列
的
csv
文件
: product_name_tmall | product_price_tmall| product_name_jd | product_price_jd 我在pycharm
的
终端
中
执行了
scrap
浏览 16
提问于2020-07-08
得票数 1
1
回答
如何使用
scrapy
python将多个网页抓取
数据
到
csv
文件
中
、
、
、
、
我有下面的代码,它从一个网站抓取所有可用
的
网页。这完全是crawling有效页面,因为当我使用
打印
函数时-我可以从'items'列表中看到
数据
,但是当我尝试使用.
csv
作为目标
文件
转储统计
数据
时,我看不到任何输出。(在命令提示符中使用此命令:
scrapy
crawl craig -o test.
csv
-t
csv
),请帮我把
数据
输出到一个
csv
文件
中<
浏览 0
提问于2015-05-01
得票数 0
回答已采纳
2
回答
使用cronjob运行杂乱无章但不符合预期
的
结果
、
、
我正在使用cron作业来安排我
的
抓取程序
每隔
12小时运行一次。 我已经创建了一个爬虫,它抓取
数据
并使用FEED_FORMAT将其存储在
csv
文件
中
。 这是我
的
shell
文件
的
内容 #!bin/bash PATH=$PATH:/usr/local/bin/
scrapy
<em
浏览 28
提问于2020-03-26
得票数 0
1
回答
Scrapy
dmoz教程,
csv
文件
中
没有desc
的
数据
。
、
、
我按照
Scrapy
官方网站上
的
dmoz教程来抓取Python书籍和资源
的
标题、链接和描述。在本教程
中
,我使用了完全相同
的
蜘蛛,内容如下:from tutorial.items import DmozItem item['desc'] = sel.xpath('text()').extract()
浏览 3
提问于2015-10-07
得票数 1
回答已采纳
1
回答
如何访问
中
项
文件
中
的
蜘蛛
文件
数据
?
、
、
、
FlipKart.py主蜘蛛
文件
,用于flipkart.com
的
报废名称、价格和链接from ..items import FlipkartScraperItem import
scrapy
from itemloaders.processors import TakeFirstname) 我想废除Flipkart移动电话
浏览 7
提问于2022-11-20
得票数 -1
回答已采纳
1
回答
使用带有抓取命令
的
基本Spider类- parse()可以多次输出吗?
、
我运行下面的爬行器:from ..items import PythonlibrariesItem return item 命令:$
scrapy
crawl lib
浏览 0
提问于2017-04-17
得票数 0
2
回答
如何在
csv
文件
中
创建列并在python
scrapy
中
插入行
、
请帮助我在
csv
文件
中使用python
scrapy
创建列和在它们下面插入行。我需要将抓取
的
数据
写入3列。因此,首先要创建三列,然后在每
一行
中
输入
数据
。
浏览 0
提问于2012-01-27
得票数 0
2
回答
Scrapy
:存储
数据
、
我正在尝试遵循
Scrapy
教程,但我不理解
的
逻辑。
scrapy
crawl spidername -o items.json -t json 我不明白以下
的
意思: 谢谢你
的
帮助
浏览 4
提问于2012-12-28
得票数 14
回答已采纳
1
回答
用
scrapy
从wordpress网站抓取
、
、
我想用
scrapy
抓取一个wordpress站点。我
的
问题是我想要标题,文本,日期和作者。作者
数据
没有
打印
在正文上,整个文本也不在简短版本
中
。因此,我必须首先复制作者,然后访问该帖子
的
完整版本以获取文本。我想不出如何将
数据
从两个urls发送到同一
csv
线路。所以我想访问复制作者-->转到第一篇文章复制标题,日期和文本-->将
数据
存储到
csv
(作者,标题,日期,文本) -->返回,对第二篇文章做同样
浏览 11
提问于2020-05-14
得票数 3
回答已采纳
1
回答
使用Pandas写入
文件
会创建空行
、
我正在使用pandas库将mysql
数据
库
的
内容写入
csv
文件
。 此外,它还将行号
打印
到我不想要
的
左边。第一列应该是“帐号”。下面是我
的
代码:read_sql = """ SELECT LinkedAccountId,Product
浏览 0
提问于2019-05-31
得票数 15
回答已采纳
2
回答
备用
CSV
行删除
我有如下
csv
文件
:1237我错误地把每个元素
打印
了两次。如何删除每个重复
的
行,并得到以下结果:13 7
浏览 0
提问于2012-04-18
得票数 0
回答已采纳
1
回答
如何将爬行器
的
项目附加到列表
中
?
、
、
、
我正在使用一种基本
的
蜘蛛,从网站上
的
链接
中
获取特定
的
信息。我
的
代码如下所示:from
scrapy
import Requestfrom properties importPropertiesItem, ItemLoader class BasicSpider(
scrapy</em
浏览 1
提问于2017-01-04
得票数 0
回答已采纳
1
回答
Google API使用php追加
CSV
文件
、
、
、
尝试
每隔
30分钟将来自谷歌AdWords应用程序接口
的
新
数据
追加到
CSV
文件
中
。即不断添加到现有
CSV
文件
的
新行
数据
。 // Run the example.DownloadCriteriaReportExample($user, $filePath
浏览 1
提问于2015-07-22
得票数 1
1
回答
抓取-在抓取和随机更改用户代理时访问
数据
、
、
当抓取在爬行时,是否可以访问
数据
?我有一个脚本,它找到一个特定
的
关键字,并在.
csv
中
写入关键字以及找到它
的
链接。但是,我必须等待抓取完成爬行,当完成时,它将实际输出.
csv
文件
中
的
数据
。我也试图随机改变我
的
用户代理,但它不起作用。如果不允许我在一个问题中回答两个问题,我将把它作为一个单独
的
问题发布。# -
浏览 1
提问于2015-12-02
得票数 0
回答已采纳
1
回答
使用抓取
的
爬行器写入
csv
文件
时出现问题
、
我写了一个简单
的
爬行器,当我尝试将
数据
写入
csv
文件
时得到一个错误。错误I get it ERROR:爬行器必须返回Request,BaseItem,dict或None,当我尝试
打印
结果时,得到了'str‘,一切似乎都很好,我只是不知道如何将其写入
csv
。我使用了
scrapy
crawl mmadness -o file.
csv
,但是除了这个错误什么都没有发生。已创建
Csv
文件
,但该
文件
为
浏览 9
提问于2019-01-10
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券