腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
有没有
办法
确定
PyTorch
型号
是
在
cpu
上
还是
在
设备
上
?
python
、
pytorch
、
gpu
我想弄清楚,
PyTorch
模型
是
在
cpu
上
还是
在
cuda
上
,以便根据模型将其他变量初始化为Torch.Tensor或Torch.cuda.Tensor。然而,查看dir()函数的输出,我只看到.
cpu
(),.cuda(),to()方法,它们将模型放在
设备
上
,图形处理器或其他
设备
上
,在到中指定。对于
PyTorch
张量,有is_cuda属性,但没有对
浏览 6
提问于2021-01-29
得票数 1
1
回答
在
知识蒸馏中,学生模型和教师模型如何并行运行?
tensorflow
、
machine-learning
、
neural-network
、
pytorch
、
mxnet
它们逐步执行学生和教师模型的前向操作,即不在不同的
设备
(GPU或
CPU
)
上
并行执行。我正在尝试加快这个训练过程,以便使用多个
设备
同时运行两个模型(例如,
在
CPU
上
加载一个模型,而不中断另一个模型的GPU训练)。编辑: 我的计划
是
在
CPU
上
放置一个轻量级的预训练的教师模型,它只
在</em
浏览 5
提问于2020-09-11
得票数 0
4
回答
OpenCL
设备
唯一性
opencl
有没有
办法
让OpenCL给我一个列表,列出所有具有可用的OpenCL实现的唯一物理
设备
?我知道如何迭代平台/
设备
列表,但例如,
在
我的例子中,我有一个Intel提供的平台,它为我的
CPU
提供了一个有效的
设备
实现,而APP平台为我的GPU提供了一个快速的实现,但对我的
CPU
来说却是一个糟糕的实现
有没有
办法
确定
这两个
CPU
设备
实际
上
是
浏览 1
提问于2012-06-01
得票数 11
回答已采纳
1
回答
Prometheus-Alertmanager警报的复杂规则/过滤器
monitoring
、
prometheus
、
health-monitoring
、
prometheus-alertmanager
、
pagerduty
情境:我有Prometheus和Alertmanager的设置来监控各种
设备
的
CPU
温度。警报管理器从生产
设备
向PagerDuty发送警报。 我所监测的
设备
有不同的
型号
和不同的操作规格。
型号
1-5的正常
CPU
温度为50C,而
型号
6的正常
CPU
温度为70C。目前
CPU
温度警报的阈值为60℃,因此PagerDuty不断从正常温度下运行的
型号
6
设备
收到警报。如果温度低于80℃,并且仍然<
浏览 0
提问于2018-07-19
得票数 5
回答已采纳
1
回答
Onnxruntime vs
PyTorch
gpu
、
cpu
、
onnxruntime
我已经使用
PyTorch
在
我的自定义数据集
上
训练了YOLO-v3 tiny。为了比较推断时间,我
在
CPU
、
PyTorch
GPU和
PyTorch
CPU
上
尝试了on。平均运行时间约为: 运行时
cpu
: 110毫秒-
CPU
使用率: 60%
Pytorch
GPU: 50毫秒
Pytorch
CPU
: 165毫秒-
CPU
使用率:
浏览 10
提问于2021-06-12
得票数 2
1
回答
有没有
办法
知道dask-worker
是
在
CPU
设备
上
运行
还是
在
GPU
设备
上
运行?
dask
、
dask-distributed
假设一个dask集群有一些
CPU
设备
和一些GPU
设备
。每个
设备
运行一个单独的dask-worker。现在,问题
是
我如何发现dask-worker的底层
设备
是
CPU
或GPU。例如:-如果dask-worker
在
CPU
设备
上
运行,我应该知道它在
CPU
上
运行,或者如果dask-worker
在
GPU
设备
上</e
浏览 0
提问于2018-04-19
得票数 0
3
回答
在
Eclipse中更改显示的Android
设备
名称
android
、
eclipse
、
device
在
将几个Android
设备
连接到我的开发机器
上
时,很快就很难从Eclipse中
确定
哪个
设备
是
哪个
设备
,因为
设备
名称似乎用它们的序列号表示。例如,Devices列表:
有没有
办法
显示电话
型号
或更改
设备
名称?
浏览 3
提问于2011-05-24
得票数 11
回答已采纳
1
回答
确定
Windows /CE
设备
的
型号
和制造商
windows-mobile
、
compact-framework
、
windows-ce
我们正在两个
设备
上
运行我们的Windows mobile / CE通用移动应用程序(摩托罗拉、霍尼韦尔、.)想要自动检测我们在哪个
设备
上
运行。目前,我们需要配置要使用的
设备
服务(例如,用于扫描),但我们希望将该过程自动化。 通过Sys
浏览 1
提问于2013-03-04
得票数 4
回答已采纳
1
回答
Zram解压缩失败,新内核
bug-reporting
我
在
HWE内核中使用Ubuntu18.04。Ubuntu20.04也提供了5.4.0-54内核,所以我测试了它以及我得到了什么?同样的问题!解压缩错误 错误不是从一开始就发生的,它是
在
一段时间后发生
浏览 0
提问于2020-11-28
得票数 2
2
回答
如何在
pytorch
中使cuda不可用
cuda
、
pytorch
我正在使用cudas运行一些代码,我需要在
CPU
上
测试相同的代码以比较运行时间。为了决定是使用常规
pytorch
张量
还是
使用cuda浮点张量,我使用的库称为torch.cuda.is _ 可用()。
有没有
简单的方法让这个函数返回false?我尝试使用以下命令更改Cuda可视
设备
os.environ["CUDA_VISIBLE_DEVICES"]="" 但是torch.cuda.is _ available()仍然返回True。我查看了
py
浏览 350
提问于2018-10-24
得票数 4
回答已采纳
2
回答
不能将GPU与火炬一起使用
tensorflow
、
machine-learning
、
anaconda
、
artificial-intelligence
、
pytorch
我一直
在
尝试使用Py手电筒时出现这个错误。 RuntimeError:试图
在
CUDA
设备
上
反序列化对象,但是torch.cuda.is_available()
是
假的。如果您在一台只运行
CPU
的机器
上
运行,请使用torch.load和map_location=torch.device(“
CPU
”)将您的存储映射到
CPU
。我使用conda install
pytorch
torchvision cudatoolkit=
浏览 3
提问于2019-12-27
得票数 3
2
回答
将Keras/TF/
PyTorch
层分配给硬件类型
tensorflow
、
keras
、
deep-learning
、
pytorch
我们奇特的GPU
在
解决CNN层问题上非常快。虽然使用较低的时钟,但它可以并行执行许多卷积,因此速度。然而,对于(非常长的)结果时间序列,我们的高级
CPU
速度更快,因为时间步骤不能并行化,而且处理的利润来自较高的
CPU
时钟。所以执行的(据说)聪明的想法
是
这样的: 这就引出了两个重
浏览 0
提问于2019-08-02
得票数 1
1
回答
为什么
在
Caffe2
上
使用LibTorch或Core而不是LibTorch(.pt文件)?
pytorch
、
coreml
、
onnx
、
caffe2
、
libtorch
似乎有几种方法可以
在
iOS
上
运行
Pytorch
模型。caffe2
PyTorch
(.pt)
PyTorch
(.pt) -> onnx -> -> onnx -> Core-ML (.mlmodel)
PyTorch
(.pt) -> LibTorch (.pt)
PyTorch
Mobile?
浏览 3
提问于2020-06-05
得票数 4
回答已采纳
1
回答
循环会降低GPU的利用率吗?
python
、
tensorflow
、
pytorch
、
gpu
在
PyTorch
中,我
在
DeepLearning管道的前向部分有一个循环来标准化中间结果。def forward(self): ...
浏览 0
提问于2020-08-11
得票数 0
1
回答
PyTorch
的GPU版和
CPU
版能否同时安装在同一个Conda环境中?
python
、
gpu
、
pytorch
、
cpu
、
conda
展示了如何安装
PyTorch
的图形处理器和中央处理器版本:和两个版本可以安装在同一个Conda环境中吗?
浏览 97
提问于2019-10-23
得票数 4
1
回答
修改
PyTorch
模型以进行推理-然后恢复训练
pytorch
我想在
PyTorch
的模型中交替推理和训练,但我需要在推理过程中修改它,我对此有一些问题。我可以通过调用model.to('
cpu
')从gpu卸载模型,创建一个修改的副本(并在gpu
上
运行它),然后通过调用model.to('gpu')将原件移回gpu吗?换句话说,移动模型gpu->
cpu
->gpu
是
无损操作吗?传递给优化器的参数发生了什么变化?我不想失去优化器状态 复制内存模型的最佳方法是什么?我可以保存它,然后重新加载一个副本,但不
确定</e
浏览 36
提问于2020-07-14
得票数 0
5
回答
如果我没有指定使用
CPU
/GPU,我的脚本使用哪一个?
python
、
pytorch
如果我没有写任何关于使用
CPU
/GPU的文章,并且我的机器支持CUDA (torch.cuda.is_available() == True): 我的脚本使用什么,
CPU
还是
GPU?如果
是
CPU
,我应该怎么做才能让它在GPU
上
运行?我需要重写所有东西吗?这种情况
是
在
0.4版
还是
在即将发布的1.0版中发生变化?
浏览 2
提问于2018-05-23
得票数 12
回答已采纳
2
回答
TypeError:期望数据为int,序列或映射,但得到方法
pytorch-lightning
trainer = Trainer(gpus=1, progress_bar_refresh_rate=20, max_epochs=2) 但我目前收到的错误
是
"RuntimeError:输入、输出和索引必须在当前
设备
上
“。我目前正在用GPU实例
在
Colab中运行它,似乎没有什么能使它工作。谢谢
浏览 2
提问于2021-05-26
得票数 3
1
回答
适用于不同ARM
CPU
的多个APK
android
、
android-ndk
、
google-play
不管怎么说,GCC
是
知道的。那么,
有没有
办法
不仅根据
CPU
ABI发布多个APK,还可以针对
CPU
型号
发布多个APK?
浏览 0
提问于2016-09-13
得票数 0
1
回答
如何区分移动POS
设备
和android手机
java
、
android
、
mobile
、
reader
、
pos
我正在构建一个
在
android POS
设备
上
运行的应用程序,也可以
在
真正的android
设备
上
运行。现在,我希望能够
确定
应用程序
是
安装在真正的android
设备
上
还是
安装在移动POS
设备
上
,并且我不想检查构建版本或
型号
。我想用一些更明确和独特的东西..求求你我需要帮助
浏览 0
提问于2020-07-05
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PyTorch&TensorFlow跑分对决:哪个平台运行NLP模型推理更快
Facebook如何应对AI在手机上的混乱局面
闻其声而知雅意,基于Pytorch(mps/cpu/cuda)的人工智能AI本地语音识别库Whisper(Python3.10)
我用GPT-2开发了一个AI写作应用,并总结了这些经验教训
PyTorch VS TensorFlow谁最强?这是标星15000+Transformers库的运行结果
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券