腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
奇形怪状的
Cuda
在Py手电中的记忆行为
、
以下是我尝试过的:"RuntimeError:数据自动化系统错误:
内存不足
“”"RuntimeError:
CUDA
内存不足
图像大小= 224,批处理大小= 8 "RuntimeError:
CUDA
内存不足
。:数据自动化系统
内存不足
。:
CUDA
内存不足
。:
CUDA
内存不足
。
浏览 0
提问于2021-03-15
得票数 3
回答已采纳
1
回答
使用
PyTorch
时
CUDA
内存不足
、
、
、
尝试
使用
Google Colab从这个代码库- Super Resolution -重现超级分辨率GAN,但每次当我执行最后一段代码
时
,都会发生以下错误: RuntimeError23-b9349075c05d> in <module>() 17 gen_out = gen(torch.from_numpy(lr_images).to(
cuda
18 _,f_label = disc(gen_out) 19 _,r_label = disc
浏览 109
提问于2021-07-09
得票数 0
3
回答
强制
PyTorch
中的图形处理器内存限制
有没有办法强制设置特定
Pytorch
实例可用的GPU内存量的最大值?例如,我的GPU可能有12 4Gb可用空间,但我想将最大4 4Gb分配给一个特定的进程。
浏览 0
提问于2018-03-28
得票数 14
回答已采纳
1
回答
Cuda
无法检测GPU
在
使用
函数'torch.
cuda
.is_available()‘
时
,返回一个false。我读到这意味着驱动程序配置不正确,但是我不知道如何解决这个问题。| NVIDIA-SMI 511.23 Driver Version: 511.23
CUDA
PyTorch
version: 1.12.0
CUD
浏览 15
提问于2022-07-08
得票数 -2
1
回答
当内存空闲时获取"RuntimeError:
CUDA
错误:
内存不足
“
代码是foo = foo.to('
cuda
')跟踪(最近一次调用):File“/remote/刀片/test.py”,第3行,在foo = foo.to('
CUDA
') RuntimeError中:
CUDA
错误:
内存不足
的
CUDA
内核错误可能在其他API调用中异步报告,因此下面的堆栈跟踪可能是不正确的要调试,请考虑传递
浏览 14
提问于2021-12-07
得票数 3
2
回答
库达出内存运行时错误,无论如何要删除py手电“保留内存”。
、
和其他许多机制一样,我从内存中得到了
Cuda
的运行时错误,但出于某种原因,Py火炬保留了大量的运行时错误。我尝试过torch.
cuda
.empy_cache当我在运行python程序之前检查我的gpu
使用
情况(nvidia-smi)
时
,它是免费的。
浏览 4
提问于2020-08-07
得票数 2
2
回答
Anaconda /
Pytorch
-尝试使
Pytorch
工作
时
出现错误
、
、
、
、
我在Windows10系统上尝试
使用
Anaconda安装
Pytorch
,但每次尝试都会返回各种错误。我从https://anaconda.org/peterjc123/
pytorch
/files下载了该软件包的windows兼容的tar文件,显然能够
使用
conda install filename.tar.bz2显然,我的意思是
Pytorch
出现在我为
使用
Pytorch
而设置的环境中可用包的列表中。但是当我加载这个包<e
浏览 91
提问于2018-05-06
得票数 1
1
回答
RuntimeError:库达
内存不足
。如何设置max_split_size_mb?
、
、
、
RuntimeError:库达
内存不足
。尝试分配8.00 GiB (GPU 0;15.90 GiB总容量;12.04 GiB已经分配;2.72 GiB空闲;12.27 GiB被
PyTorch
总共保留)如果保留内存是>>分配的内存,尝试设置max_split_size_mb请参阅内存管理和
PYTORCH
_
CUDA
_ALLOC_CONF文档在这一点上,我想我唯一可以尝试的就是设置max_split_size_mb。
浏览 248
提问于2022-09-16
得票数 5
2
回答
大型数据集和库达内存问题
我正在处理一个大型数据集,并遇到了以下错误:"RuntimeError:
CUDA
,
内存不足
。尝试分配1.35 GiB (GPU 0;8.00 GiB总容量;3.45 GiB已经分配;1.20 GiB空闲;4.79 GiB被
PyTorch
保留)。 对如何解决这个问题有什么想法吗?
浏览 4
提问于2021-04-08
得票数 0
回答已采纳
1
回答
训练
时
库达失忆
、
、
、
、
但是当我添加一个验证过程
时
,我会得到这个oom问题。我看不出发生了什么事。 我尝试过:将所有变量的批大小更改为1、torch.
cuda
.empty_cache()和tensor.cpu()。RuntimeError:库达
内存不足
。尝试分配98.00 MiB (GPU 0;8.00 GiB总容量;7.21 GiB已经分配;0字节空闲;7.29 GiB被
PyTorch
总共保留)如果保留内存是>>分配的内存,尝试设置max_split_size_mb请参阅内存管理和
PYTORCH
_
CUDA<
浏览 6
提问于2022-09-07
得票数 -1
回答已采纳
1
回答
我的本地机器上的Py手电筒以前版本的安装冲突
、
、
、
、
我试图在python2.7环境中
使用
以下conda命令安装
PyTorch
和Torchvisionpython=2.7 -> vc=9 -> vs2008_runtime[version='>=9.0.30729.1,<10.0a0']
pytorch
当我试图卸载sqlite
时
,整个用于
浏览 5
提问于2021-02-17
得票数 1
回答已采纳
1
回答
即使
使用
亚马逊网络服务P8实例,Yolo5模型训练也会因
CUDA
内存不足
而失败
、
、
、
、
我正在自定义数据集上训练yolo5,但我一直在耗尽GPU的内存,因为它只
使用
8个GPU中的一个。我应该如何运行它才能
使用
所有的GPU?YOLOv5 v4.0-83-gd2e754b torch 1.7.1
CUDA
:0 (Tesla K80,11441.1875MB)
CUDA
:1 (Tesla K80,11441.1875MB)
CUDA
K80,11441.1875MB)
CUDA
:6 (Tesla K80,11441.1875MB)
CUDA
:7 (Tesla K8
浏览 18
提问于2021-02-19
得票数 0
1
回答
无法
使用
Conda将
PyTorch
1.4.0更新到1.5.0
、
、
、
、
当我试图将
PyTorch
从1.4.0修改为1.5.0
时
,Anaconda说所有的软件包都已经安装好了。可以在
pytorch
频道上
使用
# Name_0
pytorch
pytorch
1.5.0 py3.7_
cuda
10.2.89_cu
浏览 2
提问于2020-04-24
得票数 5
回答已采纳
4
回答
Torch.
cuda
.is_available()一直切换到False
、
我已经尝试过几种解决方案,这些方案暗示了当
CUDA
GPU可用并且安装了
CUDA
,但是Torch.
cuda
.is_available()返回False
时
该做什么。他们确实提供了帮助,但只是暂时的,这意味着torch.
cuda
-is_available()报告说是真的,但过了一段时间,它又变成了假的。我
使用
CUDA
9.0.176和GTX 1080。我尝试了以下方法:注意:当torch.
cuda
.is_available()正常工作,但在某个时候切
浏览 2
提问于2019-04-16
得票数 8
1
回答
Pytorch
只能看到15 the内存,而设备应该有更多内存
、
根据他们的,该实例需要128 in内存,如下图所示:然而,我注意到我的模型总是
内存不足
。当我调查
时
,我看到了这个:_CudaDeviceProperties(name='TeslaT4', major=7, minor=5, total_memory=15109MB, multi_processor_count=40) 事实证明,该设备只能<em
浏览 15
提问于2021-03-07
得票数 0
回答已采纳
3
回答
Pytorch
说
CUDA
不可用
、
、
我正在尝试在我现有的笔记本电脑上运行
Pytorch
。这是一个较老的型号,但它确实有Nvidia显卡。并且我已经安装了正确的标头,通过尝试
使用
sudo apt-get install linux-headers-$(uname -r)安装它们来验证+-------------------------------------------------------------
浏览 3
提问于2020-06-13
得票数 26
回答已采纳
1
回答
使用
使用
gpu的stanfordnlp对python代码进行容器化
、
、
我想停靠容器我的python脚本,
使用
gpu。容器化的原因是我试图在一个安装了python3.5的服务器上运行这段代码,但是stanfordnlp需要python3.6+。因此,我的方法是创建一个
使用
最新python镜像的容器,运行将
使用
nvidia gpu的python脚本。/lemmatizer.py" ] 当我构建并运行Dockerfile
时
,根据此中的指导,
使用
以下命令在创建和部署容器
时
使用
gpu服务。nvidia-docker build
浏览 23
提问于2020-03-17
得票数 0
回答已采纳
2
回答
为conda YAML文件中的py手电筒指定cpu
、
、
、
我可以成功地设置conda环境,如下所示:conda install
pytorch
==1.6.0 torchvision==0.7.0 cpuonly -c
pytorch
name: temp -
pytorch
dependencies: - blasdependencies: - python
浏览 3
提问于2020-11-04
得票数 5
回答已采纳
1
回答
新的曼巴环境迫使火炬CPU和我不知道为什么
、
、
、
、
当创建一个新的mamba (conda)环境
时
,我只会得到Py火炬的CPU包。有人知道如何确保/强制GPU版本吗?mamba install
pytorch
torchvision torchaudio -c
pytorch
-c conda-forge +
pytorch
1.13.0 py3.9_cpu_0
pytorch
/win-64
浏览 14
提问于2022-10-28
得票数 1
1
回答
在推理的同时从记忆中消失
、
、
、
我试图找出图像是被操纵的还是不
使用
MantraNet的。在运行2-3个推论之后,我会将
CUDA
从内存中提取出来,然后在重新启动内核之后也会得到相同的错误:错误如下所示: RuntimeError:库达
内存不足
。尝试分配616.00 MiB (GPU0;4.00 GiB总容量;1.91 GiB已经分配;503.14 MiB空闲;1.93 GiB被
PyTorch
总共保留)如果保留内存是>>分配的内存,尝试设置max_split_size_mb请参阅内存管理和
PYTORCH
_
CUDA</em
浏览 8
提问于2022-01-13
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券