腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
json
和
请求
的
Dask
内存
泄漏
问题
、
、
、
、
这只是一个在远程
Dask
kubernetes集群中重现
内存
泄漏
问题
的
样本最小测试。requests.get("https://github.com/datasets/geo-countries/raw/master/data/countries.geojson") return size_temp L_geojson = cl
浏览 32
提问于2020-09-24
得票数 6
1
回答
达斯克工人
的
记忆清理
、
、
我正在一个多节点分布式
Dask
集群上运行多个并行任务。然而,一旦任务完成,工作人员仍然持有大量
内存
,集群很快就会被填满。,因为我们在map函数中使用了大量
的
自定义对象
和
函数。为已知变量添加del
和
gc.collect()也没有多大帮助。trigger worker restart if no tasks
浏览 2
提问于2020-01-18
得票数 4
1
回答
Dask
分布式工作线程在运行许多任务时总是会
泄漏
内存
、
解决或调试这个
问题
的
一些策略是什么? distributed.worker -警告-
内存
使用率较高,但工作进程没有要存储到磁盘
的
数据。也许其他进程正在
泄漏
内存
?进程
内存
: 26.17 GB --工作
内存
限制: 32.66 GB 基本上,我只是在单机上运行许多并行作业,但只是一个任务调度程序,并尝试了各种数量
的
工人。每当我启动大量作业时,随着时间
的
推移,
内存
会逐渐上升,只有当我反弹集群时,
内存
浏览 20
提问于2019-10-08
得票数 1
1
回答
Read_
json
()任务是并行
的
吗?
、
、
使用
dask
distributed读取100个
json
文件:(Workers:5核:5
内存
: 50.00 GB) from
dask
.distributed import Client df = dd.read_
json
('gs://xxxxxx/2018-04-18/data-*
浏览 8
提问于2019-04-16
得票数 2
2
回答
当SSL
和
客户端证书与HttpWebRequest对象一起使用时,
内存
泄漏
、
、
、
、
我使用HttpWebRequest对象使用带有客户端证书
的
SSL上载文件,我
的
服务器上有一个有效
的
证书,我
的
应用程序有
内存
泄漏
问题
,微软在以下链接中发布了与此
问题
有关
的
内容: 是否有任何工作可以避免
内存
泄漏
,特别是每个
请求
都在消耗8K
泄漏
内存
,这将导致我
的
应用程序消耗这么多
内存
。ValidateRemoteC
浏览 4
提问于2011-05-21
得票数 4
回答已采纳
1
回答
显示
dask
.compute(*something)调用
的
进度
、
、
、
我使用
Dask
在我
的
代码上有以下结构: @
dask
.delayed services = data.service_id r = calculate(parts[parts.quotation_id == qid]) output.append(r) 事实证明,当我在output列表上调用
dask
.computeDiagnostic UI没有“捕获”这个操作,我甚至不确定它
浏览 49
提问于2021-01-08
得票数 0
回答已采纳
1
回答
达斯克在这里显示
的
是什么记忆?
在运行
dask
之后,我看到下面的输出,
内存
为40.53GB。40.53GB指的是这里
的
分布式
内存
还是磁盘
内存
?谢谢
浏览 0
提问于2017-06-14
得票数 2
回答已采纳
1
回答
Dask
Distributed -用于监控
内存
使用
的
插件
、
我有一个分布式
Dask
集群,我通过
Dask
分布式客户端将大量工作发送到该集群。 在发送完一堆工作后,我希望得到一份报告或其他东西,告诉我每个工作人员
的
内存
使用峰值是多少。https://docs.
dask
.org/en/latest/diagnostics-distributed.html 谢谢!最好
的
浏览 18
提问于2021-02-06
得票数 1
2
回答
jQuery
的
AJAX
内存
泄漏
响应文本?
、
、
、
、
我正在用工具调试我
的
应用程序
内存
泄漏
:堆快照,并注意到一些奇怪
的
东西。 我提出了一个AJAX
请求
来获取一个大型
的
JSON
博客,显然原始
的
响应文本在
内存
中停留,导致我
的
应用程序中
的
内存
泄漏
。在我看来,$.ajax中不太可能有一个巨大
的
内存
泄漏
,但我希望能得到解释为什么会这样……如果我在香草JS上做同样
的<
浏览 4
提问于2014-05-09
得票数 7
回答已采纳
1
回答
缓存忽略可用
内存
参数。
、
我正在处理一个不适合
内存
的
大数据集,因此缓存是唯一
的
选择。 其次,磁盘缓存在我
的
代码中似乎不起作用。我尝试上述两种方法。缓存机制失败:它填充了整个ram+swap
内存
,忽略了available_memo
浏览 0
提问于2018-02-16
得票数 1
回答已采纳
1
回答
使用
dask
转换大量文件
的
最佳方式是什么?
我在s3中有大量相对较小
的
文件。我需要读取每个文件,进行一些处理,然后将它们写回Google Cloud Storage。每个文件都足够小,可以放入
内存
中。保留每个文件
的
名称
和
内容非常重要。在多个内核/线程间扩展此工作时,最好
的
dask
抽象是什么? 我尝试使用
dask
.bag处理文件,并成功地处理了小批量文件,但在尝试处理大量文件时遇到了
内存
问题
。我在读取文件时使用了include_path,但在没有首先创建路径列表
浏览 1
提问于2021-03-09
得票数 1
2
回答
关闭
dask
客户端警告
、
、
达克客户端垃圾邮件警告在我
的
木星笔记本输出。有办法关掉达斯克警告吗?import pandas as pdfrom sqlalchemy imp
浏览 0
提问于2019-08-09
得票数 6
回答已采纳
1
回答
使用带块
的
熊猫读取大
json
数据集
、
、
我想读一个6gb大小
的
json
(我还有一个1.5GB
的
json
),我试着
和
熊猫一起阅读(就用pd.read_
json
),很明显记忆消失了。然后,我试着用块状
的
平面图,就像: df = [] df_reader =pd.read_
json
(f, lines=T
浏览 1
提问于2018-11-21
得票数 2
1
回答
使用
Dask
并行化读取
的
JSON
->保存部分
、
、
、
我想使用
Dask
摄取一个大
的
(>2GB,> 1M行)行分隔
的
JSON
,并将其保存为一批Parquet文件。我正在我
的
个人电脑上进行这些实验,所以这个文件比可用
的
内存
还要大。试图将整个
JSON
文件加载到
内存
中会导致
内存
错误。我知道
Dask
对于read_
json
有一些类似的参数(块大小使用字节而不是行),但我无法使并行化正常工作。根据我对
的
理解,我编写了以
浏览 9
提问于2022-09-01
得票数 0
1
回答
在单台多核机器上索引大型
dask
数据时
的
内存
使用情况
、
、
、
、
我正试图将变成Parquet背景
的
dataframe,在450 g 16核GCP实例中按标题索引。CirrusSearch转储作为一个单独
的
json
行格式化文件。最简单
的
方法就是import
dask
from toolz import curried, npartitions=npartitions) .to_parquet(f'{lan
浏览 1
提问于2018-06-29
得票数 5
1
回答
在fastAPI应用程序中通过python缓慢读取小zarr/S3数据
、
、
、
、
) float32
dask
.array<chunksize=(24,), meta=np.ndarray>ds['
浏览 10
提问于2022-10-13
得票数 0
1
回答
红宝石记忆
泄漏
(MRI)
、
每当我编写一个在循环中执行某些任务
的
测试应用程序时,它都在缓慢地
泄漏
内存
。我使用MemoryProfiler
和
GC::Profiler.enable运行了代码,这表明我没有
泄漏
。因此,必须有两种选择: 没有
内存
泄漏
,这是某种Ruby
内存
管理机制。
问题
是,我能
浏览 6
提问于2016-12-02
得票数 11
1
回答
当头中没有返回字符集时,REST
请求
内存
泄漏
、
、
使用Delphi 10.2 (东京)
泄漏
内存
的
执行而不是
泄漏
内存
的
内存
包含
浏览 2
提问于2017-03-29
得票数 5
回答已采纳
1
回答
如何释放
内存
分配给某种结构
的
晶体-手动?
、
、
根据GC警告消息,我
的
代码“可能导致
内存
泄漏
”,我自己
的
测量结果显示,在应用程序运行时,
内存
正在“
泄漏
”。所以,我想,释放分配给Hash
的
内存
是很好
的
,它是手动
的
JSON
字符串表示,但是我不知道如何做到这一点:我用文档错误
的
GC.free方法所做
的
实验并不成功,我不知道该往哪个方向继续我
的
研究…… 请告诉我我能做些什么来避免
内存
浏览 0
提问于2018-06-09
得票数 6
回答已采纳
1
回答
使用
Dask
读取不适合
内存
的
数据
、
、
、
我有一个很大
的
文件(25 to ),
内存
放不下。我想用
Dask
在这上面做一些操作。我尝试了两种方法,但都因
内存
错误而失败。方法1>>> df = dd.read_
json
('myfile.jsonl', lines=True)方法in 12 pieces with the unix split command >>> #
浏览 4
提问于2020-10-22
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券