腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
并行
处理
将
字典
写入
多个
csv
文件
、
、
我有一个很大的数据帧,我想根据特定列中的值将其
写入
不同的
文件
。 data.to_
csv
data = np.array(df[df.iloc[:,1] == item])
浏览 3
提问于2017-12-09
得票数 0
回答已采纳
1
回答
在循环刮板中实现多
处理
并附加数据
、
、
、
要解析的页面数量估计在60K及以上,这就是我要实现多
处理
的原因。def harvester(index): ....this function gather the data from the given url'''现在,我想要做的是让一定数量的工作者函数在不同的页面上
并行
地收集数据然后,
将
这些数据附加到一个位于收割机中的大
字典
中,或者由worker函数直接
写入</e
浏览 4
提问于2016-10-23
得票数 0
回答已采纳
1
回答
如何避免多次编写
CSV
头?
、
、
、
、
我正在用循环从
多个
字典
编写一个
csv
文件
。其中我使用键作为标题,
字典
值作为条目。with open(
浏览 2
提问于2021-12-29
得票数 1
回答已采纳
1
回答
使用python
将
包含
多个
值的FIX标记
写入
字典
、
我正在尝试
将
修复消息从.log
文件
导出到.
csv
文件
。我逐行读取.log
文件
,
将
标记和值
写入
字典
,然后
将
字典
写入
.
csv
文件
。我遇到的问题与修复标记<128>有关,这些标记包含我无法读取并附加到
字典
的
多个
值。下面是我的代码:import time csv
浏览 70
提问于2018-07-18
得票数 0
回答已采纳
6
回答
编写UTF-8编码
CSV
文件
的Python
、
、
、
我有一个包含unicode字符串的
字典
列表。 def utf_8_encoder(unicode_
csv
_data
浏览 4
提问于2011-04-30
得票数 53
回答已采纳
1
回答
编写从
字典
到
多个
文件
的字符串,同时在Python中打开最少次数的
文件
、
、
、
我有本
字典
: dict = [{'account': 'xyz', 'email':'abc@xyz.com'}, {'account': 'xyz', 'email':'zxc@vbn.com'},对于
字典
上的每个“帐户”,我想创建一个
CSV
文件
,
CSV
文件
应该拥有属于同一个帐户的每个电子邮件。因此,有
多个
<e
浏览 1
提问于2022-01-25
得票数 -1
回答已采纳
1
回答
Gawk和GNU
并行
于一个
文件
?
、
、
使用下面的带有Gawk 4.1的脚本来基于日期列
将
多个
源
文件
转换并组合成更少的
csv
文件
,我试图使用GNU
并行
来加快速度:{ gsub(/,[^0-9]|,$/, ",0", $7) # null measure
浏览 5
提问于2016-08-27
得票数 1
回答已采纳
3
回答
在16个CPU上而不是在一个CPU上运行python脚本
、
、
J XXXXX#SBATCH --cpus-per-task=16 python脚本正在扫描一个非常大的
文件
(~480,000,000行),并创建一个
字典
,该
字典
稍后将作为输出
文件
编写: reader=
csv
.reader (
浏览 0
提问于2021-11-21
得票数 0
1
回答
python,多线程,在普通
文件
上使用熊猫"to_
csv
“安全吗?
、
、
这是一个时间循环,它遍历日期列表,在我的硬盘上查找与这些日期相对应的
文件
,对这些
文件
进行一些计算,然后使用以下命令输出到"results.
csv
“
文件
:我想知道是否可以为每个日期创建一个新线程,并一次在
多个
日期上调用while循环中的内容?self.name helperPY.h
浏览 4
提问于2016-09-30
得票数 2
回答已采纳
1
回答
将
值从
字典
写入
csv
文件
、
、
我有两个
csv
文件
需要比较并
写入
新的输出
文件
。我有这部分工作,但有一个例外。我
将
第一个
csv
文件
转换为
字典
,然后
将
第二个
csv
文件
中的列与
字典
键进行比较以查找匹配项。我遇到的问题是我的
字典
有一个具有
多个
值的键。当我
将
这些值
写入
新的
csv
文件
时,我获得了一个列中的元组,但我需要
浏览 3
提问于2018-02-22
得票数 2
回答已采纳
1
回答
NVMe
并行
写入
、
我有一个进程,它在一个批
处理
作业中将大量数据
写入
磁盘(~100 gb)。数据分布在100
多个
文件
中。感谢
浏览 0
提问于2022-03-04
得票数 1
2
回答
Pandas/Dask -
写入
文件
的时间非常长
、
、
、
我有几份
文件
。最大的一个大约有8700万行。我还有其他的,大约500K行。我正在做的一部分是加入他们,当我试图与熊猫一起做这件事时,我得到了内存问题。所以我一直在使用Dask。执行所有的连接/应用是非常快的,但是即使我知道结果数据帧只有26行,也需要5个小时才能写出
csv
。 我读到一些连接/应用对于Dask来说并不是最好的,但这是否意味着使用Dask会更慢?
浏览 27
提问于2020-05-05
得票数 0
4
回答
将
多个
字典
写入
csv
文件
?
、
、
多亏了另一个线程,我成功地用Python:作为初学者将我的
字典
写成了
csv
。dict1 = {0 : 24.7548, 1: 34.2422, 2: 19.3290}0 24.75482 19.3290当然,有很多线程试图做类似的事情,比如:,但是我的数据没有以相同的方式构造(但是…)。
浏览 3
提问于2014-03-08
得票数 4
回答已采纳
1
回答
如何在多线程中合并数组(python)
、
我有将近7000个
csv
文件
,总共有240万行。我写了一些代码来打开
csv
,做一些计算来添加新的列。最后,我想将所有这些
文件
vstack到一个主
csv
/txt
文件
中。我的代码示例(请原谅任何愚蠢的错误,因为这是一个示例代码): df = pd.read_
csv
(file) for ii in
csv
浏览 0
提问于2021-06-18
得票数 0
1
回答
在dask.async.MemoryError上运行大数据计算时的EC2
、
、
、
在运行了大约24小时之后,我得到了这个结果,这大致相当于任务完成所需的时间,因此我不确定错误是否是由于内存不足、磁盘内存不足而导致的,我执行DF.to_
csv
()来
将
大的DF
写入
磁盘,还是熊猫/numpy一旦整个dfpath_ddf.apply()完成,就会发生一个df.to_
csv
(),但正如您所说的,最好定期
写入
磁盘。 现在的问题是,我如何实现像周期性
写入
磁盘,比如说每200 k行?
浏览 2
提问于2016-07-18
得票数 1
回答已采纳
1
回答
Python/Pandas dataframe:在程序停止时完成对
文件
的
写入
、
、
对于
多个
CSV
文件
,我使用pandas数据帧的to_
csv
()函数以
并行
方式
将
数据附加到python中的数据帧中。 然而,当我停止程序运行时,一些
文件
被完全清空了。当我意外地停止程序时,我希望python要么完成对
文件
的
写入
,要么让它保持原样。 你知道如何实现它吗? 感谢您的帮助:)
浏览 22
提问于2021-06-28
得票数 0
2
回答
并行
读写
文件
是个好主意吗?
、
、
例如:20100102.
csv
.20140228.
csv
station_001.
csv
.station_999.
csv
为了加快速度,我决定使用foreach和doMC包
并行
读取每天
浏览 3
提问于2014-02-28
得票数 3
回答已采纳
2
回答
如何为python中的类函数
并行
运行for循环?
、
、
、
我有一个包含velocity_params函数的My_mechanism类,该函数
将
结果
写入
一个
csv
文件
。我需要在某个范围内迭代,但迭代非常慢(一次只使用一个CPU核心)。
浏览 20
提问于2019-10-08
得票数 0
1
回答
优化从许多html
文件
中提取信息的代码
、
、
、
、
我正在尝试从前面使用python的请求库提取的html
文件
目录中提取特定信息。html的提取已经很慢了,因为我构建了一个随机等待计时器,但是现在我想迭代每个检索到的html
文件
,我的脚本似乎没有得到很好的优化。这是一个问题,因为我想迭代42000
多个
html
文件
,每个
文件
的行数都> 8000行。这可能需要很长时间。 因为我从来没有遇到过这些对我的电脑要求如此高的问题,我不知道从哪里开始学习优化我的代码。我的问题是,我是否应该以更有时间效率的方式来
处理
这个问题呢?非常感谢你的建议。最
浏览 3
提问于2021-03-07
得票数 2
回答已采纳
1
回答
Spring batch中的
并行
处理
、
、
我有一个批
处理
,它正在执行以下操作步骤2:使用MultiResourceItemReader读取
文件
,进行一些
处理
并
写入
另一个数据库。这一步使用MultiResourcePartitioner
并行
化 现在,为了获得更好的性能,我希望
将
步骤1和步骤2
并行
化,以便在步骤1完成
文件
<
浏览 2
提问于2014-01-27
得票数 1
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券