腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
知道
实例
是否
存储
在
装有
PyTorch
的
GPU
上
?
我最近在学习
PyTorch
,然后这个问题出现了。例如,如果我有一个继承"torch.nn.Module“
的
网络。那么我怎么
知道
net1 (和那个东西)
是否
存储
在
图形处理器
上
。 我读过*.cuda()是
如何
工作
的
,似乎让所有的“孩子”都运行*.cuda()。我试着看看“孩子”是什么。上面的net1似乎没有孩子。
浏览 8
提问于2020-02-11
得票数 0
回答已采纳
1
回答
在
AWS SageMaker py手电筒
上
没有检测到
GPU
-1.8
GPU
-py36
实例
、
、
、
我已经
在
AWS SageMaker Studio
上
运行了一个py手电筒-1.8
GPU
-py36
实例
。!nvidia-smi -L
GPU
0: Tesla T4 (UUID:
GPU
-786d298a-2648-3506-6c3a-f541fa46d777)nvidia-smi-L 找不到命令,如果我试图运行一个需要
GPU
的
.py脚本,就会从
PyTor
浏览 4
提问于2022-01-29
得票数 1
1
回答
PyTorch
中
的
Dict支持
、
、
PyTorch
是否
支持类似dict
的
对象,通过这些对象我们可以反向传播梯度,比如
PyTorch
中
的
张量? 我
的
目标是计算一个大型矩阵中
的
几个元素(1%)
的
梯度。但是如果我使用
PyTorch
的
标准张量来
存储
矩阵,我需要将整个矩阵保存在我
的
GPU
中,这会导致由于
在
训练期间可用
的
GPU
内存有限而造成
的</em
浏览 6
提问于2022-03-08
得票数 2
1
回答
循环会降低
GPU
的
利用率吗?
、
、
、
在
PyTorch
中,我
在
DeepLearning管道
的
前向部分有一个循环来标准化中间结果。 它会运行在CPU
上
,并降低
GPU
的
使用率吗?
浏览 0
提问于2020-08-11
得票数 0
2
回答
支持TensorFlow和
PyTorch
的
GPU
、
、
好吧,所以我现在做了很多深度学习项目和实习,我从来没有做过大量
的
训练。但是最近我一直
在
考虑做一些传输学习,我需要在
GPU
上
运行我
的
代码。我还没有
在
我
的
系统
上
安装NVIDIA工具包或cuDNN或tensorflow-
gpu
。我目前使用tensorflow和Py手电筒来训练我
的
DL模型。所以,如果我确保安装了正确版本
的
Cuda和cuDNN以及tensorflow-
gpu
(特别是ten
浏览 5
提问于2020-08-20
得票数 1
1
回答
火炬
上
找不到
GPU
-训练:1.10.0-
GPU
-py38容器
、
Torch
在
GPU
实例
和官方SageMaker培训容器
上
找不到Cuda
在
SageMaker笔记本
实例
ml.p3.2xlarge和EC2
实例
p3.2xlarge
上
运行容器时也会看到同样
的</
浏览 12
提问于2022-03-06
得票数 -2
1
回答
训练分割模型,4个
GPU
工作,1个填充并得到:"CUDA错误:内存不足“
、
我试图建立一个分段模型,我不断得到"CUDA错误:内存不足“,
在
调查之后,我意识到所有4个
GPU
都在工作,但其中一个正在填充。我
的
硬件: 首先我<em
浏览 0
提问于2018-12-15
得票数 0
1
回答
pytorch
: variable.long()能保证64位吗?
、
、
在
pytorch
中,我有一个可能是IntTensor或cuda.IntTensor
的
变量。需要将其更改为保留cpu/
gpu
的
64位。variable.long()
是否
保证
在
pytorch
的
所有实现
上
都使用64位?如果不是,
如何
将变量转换为64位,为所有实现保留cpu/
gpu
?
浏览 10
提问于2017-12-30
得票数 2
回答已采纳
1
回答
如何
使用AMD
GPU
for fastai/
pytorch
?
、
、
、
我使用
的
笔记本电脑有英特尔公司高清显卡5500 (09版)和AMD Radeon r5 m255显卡。 有谁
知道
如何
设置深度学习,特别是fastai/
Pytorch
?
浏览 0
提问于2020-07-21
得票数 25
1
回答
用于
GPU
和
GPU
平台
的
requirements.txt
、
、
我正在尝试创建一个requirements.txt来使用
pytorch
,但是我希望它能够同时工作
在
GPU
和非
GPU
平台上。我
在
我
的
Linux
GPU
系统
上
做了一些类似的事情:torchvision==0.
浏览 9
提问于2022-06-22
得票数 2
回答已采纳
1
回答
如何
在AWS Sagemaker ml.t3.2xlarge
实例
中使用
GPU
?
、
、
、
我
在
AWS Sagemaker上有一个笔记本ml.t3.2xlarge
实例
,我想使用
pytorch
训练一个神经网络。以下命令返回"False":
是否
需要执行某些操作才能激活
GPU
?!请确保已安装并运行最新
的
NVIDIA驱动程序。“可以在这种类型
的
笔记本
实
浏览 4
提问于2021-11-24
得票数 1
3
回答
如何
在图形处理器上进行
PyTorch
分发
、
、
、
、
有没有可能让
PyTorch
发行版直接在
GPU
上
创建它们
的
样本。torch.distributions import Uniform, Normalsample = normal.sample() 然后样本将在CPU
上
。当然,
在
图形处理器
上
做sample = sample.to(torch.device("cuda"))也是可能
的
。但是,有没有一种方法可以让样本直接送到
GPU</e
浏览 4
提问于2019-12-04
得票数 2
1
回答
火炬闪电推断
、
、
、
我用
pytorch
lightning训练了一个模型,特别欣赏了使用多个
GPU
的
简单性。现在,经过培训,我
如何
仍然可以利用闪电
GPU
特性
在
测试集
上
运行推理,并
存储
/导出预测? 并没有针对这一点。
浏览 2
提问于2021-05-01
得票数 3
1
回答
AssertionError:未在启用CUDA
的
情况下编译Torch
来自conda install
pytorch
torchvision -c
pytorch
为什么要在没有启用cuda
的
情况下安装火把?我问
的
原因是我收到了错误: 跟踪(最近调用)
在
() 78 #预测= outputs.data.max(1)179 -> 80输出=模型(torch.tens
浏览 0
提问于2019-01-02
得票数 8
1
回答
我们可以
在
码头集装箱中更新CUDA 9.0版到10.0版吗?
、
、
、
我是刚来码头
的
。我试图
在
docker容器中运行一个github
存储
库。关于同样
的
问题,我很少有疑问。 码头映像是使用CUDA版本9.0创建
的
。我有Tesla T4
GPU
和驱动程序版本470.129.06
在
我
的
亚马逊EC2
实例
。我想把CUDA
的
版本从9更新到10.0。
是否
可以
在
码头集装箱内更新cuda版本?如果是,我们
如何
更新?我不
知道
如
浏览 6
提问于2022-06-09
得票数 -1
回答已采纳
1
回答
有任何保证火炬不会弄乱一个已经分配
的
CUDA阵列吗?
、
、
、
假设我们通过
PyTorch
以外
的
其他方式
在
GPU
上
分配了一些数组,例如通过使用numba.cuda.device_array创建
GPU
数组。当
PyTorch
为一些张量分配稍后
的
GPU
内存时,会不会意外地覆盖我们
的
第一个CUDA数组所使用
的
内存空间?一般来说,由于
PyTorch
和Numba使用相同
的
CUDA运行时,因此我假设了相同
的
内存管理机制,
浏览 1
提问于2020-03-09
得票数 1
回答已采纳
1
回答
Jupyter Notebook
GPU
内存训练后发布模型
、
、
、
、
在
使用Jupyter notebook完成深度学习模型训练后,我们
如何
清理
GPU
内存。问题是,无论我使用哪种框架(tensorflow,
pytorch
),
存储
在
GPU
中
的
内存都不会被释放,除非我手动终止进程或终止内核并重新启动Jupyter。你
知道
我们
如何
通过自动化这些步骤来解决这个问题吗?
浏览 28
提问于2021-05-09
得票数 2
1
回答
torch.distributed支持
GPU
的
点对点通信吗?
、
我正在研究
如何
在
PyTorch
中
的
不同节点
上
与多个
GPU
进行点对点通信。 从1.10.0版本开始,用于
的
PyTorch
页面表示send
的
问号,而带有MPI后端
的
GPU
的
recv则表示问号。如果有人成功地设置了
PyTorch
,以便torch.distributed允许
在
多个
GPU
上进行点对点通信,请告诉我以及您是
如何
设置
的
浏览 13
提问于2021-12-17
得票数 2
1
回答
导入
pytorch
时,未安装microsoft visual C++可再发行组件。
、
我在
装有
GPU
的
windows机器上工作。我已经
在
conda环境中安装了
pytorch
conda install
pytorch
torchvision cudatoolkit=10.1 -c
pytorch
然后我运行python,
在
pythonlib\asmjit.dll" >
浏览 162
提问于2020-08-02
得票数 3
1
回答
将一个类
的
所有参数和对象发送到
PyTorch
中
的
同一设备
、
我
在
PyTorch
中有以下虚拟代码 class inside(nn.Module): super(inside, self).) 假设在这段代码中,device是
GPU
2。然后我
知道
参数self.paramA和self.paramB肯定已经加载到
GPU
2
上
,而不是加载到CPU或任何其他
GPU
上
。但是对self.weight_h和self.weight_v又能说些什么呢?它们
是否</
浏览 21
提问于2021-09-16
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在 PyTorch 中使用梯度检查点在GPU 上训练更大的模型
spfile在共享存储上启动数据库实例的要点及解决办法
一文读懂PyTorch张量基础
我用GPT-2开发了一个AI写作应用,并总结了这些经验教训
PyTorch 1.0 预览版发布:Facebook 最新 AI 开源框架
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券