腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9039)
视频
沙龙
1
回答
libtorch
:如
何在
data_ptr
上
创建
一个
gpu
张量
?
、
创建
一个
基于
data_ptr
的图形处理器
张量
?auto ten=torch::randn({3,10},torch::kCuda); auto p=ten.data_ptr<float>();//I believe "p" is a
gpu
浏览 75
提问于2020-12-23
得票数 1
回答已采纳
2
回答
如
何在
LibTorch
中对
张量
中的数字使用大和较小的运算符?
、
、
我在
LibTorch
中有
一个
一维
张量
的数字,在C++中,我想用>条件来计算每个数。 from /home/iii/tor/m_gym/
libtorch
/include
浏览 9
提问于2022-08-22
得票数 1
回答已采纳
1
回答
LibTorch
中的固定内存
、
、
我可能遗漏了一些非常基本的东西,但我在文档或在线上找不到任何解释 我试图将图形处理器at::Tensor复制到CPU
上
的固定
张量
,但一旦我复制它,CPU
张量
就不再被固定。我假设它只是
创建
一个
新的
GPU
张量
副本并分配它,但如果是这样的话,如何复制到预先分配的固定内存?(
gpu
.sizes(), device(at::kCPU).pinned_memory(true)); std::cout << "Is Pinned: &q
浏览 48
提问于2020-08-09
得票数 1
回答已采纳
1
回答
Libtorch
:如何从tensorRT fp16半类型指针
创建
张量
?
、
、
、
、
如
何在
libtorch
中从tensorRT fp16半类型指针
创建
张量
?我正在研究
一个
检测模型。我把它的主干改成了tensorRT来做FP16推断,解码盒和nms等检测代码都是在
libtorch
和torchvisoin中完成的,那么如何从fp16半类型指针
创建
tensorRT
张量
呢?half_float::half* outputs[18];// to
浏览 0
提问于2020-04-24
得票数 1
1
回答
创建
Pytorch“视图堆栈”以保存
GPU
内存
、
我正在尝试扩展数据集,以便在Pytorch中进行分析,以便从
一个
一维(或2D)
张量
中生成两个视图堆栈,生成。在以下图像中,A(绿色)和B(蓝色)是原始
张量
的视图,这些
张量
从左向右滑行,然后组合成单个
张量
进行批处理:使用视图的动机是为了节省
GPU
内存,因为对于大型多维数据集,这个扩展过程可以将数十MB一次只返回
一个
视图是不可取的,因为
张量
的实际处理是在大批量进行的。 我在毕道尔做的事有可能吗?简单地使用torch.stack(视图列表)<em
浏览 7
提问于2022-03-05
得票数 2
回答已采纳
2
回答
我如何知道tensorflow
张量
是在cuda还是cpu中?
、
、
我如何知道tensorflow
张量
是在cuda还是cpu中?tfwith tf.device('/device:
GPU
在这里,我把
张量
'a‘和'b’放在
GPU
上
。在打印“a”时,我得到: [[1. 2. 3..]], shape=(2, 3), dtype=float32) 它不提供任何信息,无论
浏览 2
提问于2020-10-06
得票数 5
回答已采纳
1
回答
Pytorch Tensor::
data_ptr
<long long>()在Linux上不起作用
、
、
/
libtorch
/include -L../
libtorch
/lib -ltorch -ltorch_cpu -lc10 -Wl,-rpath,../
libtorch
/lib有什么办法可以解决这个问题吗?另外,我知道pytorch是为cmake设计的,但是我没有使用cmake的经验,也不想为我的应用程序写
一个
基于cmake的构建系统。然后我在
浏览 71
提问于2021-05-18
得票数 2
回答已采纳
1
回答
LibTorch
(C++)与Cuda一起引发了
一个
异常
、
、
我正在尝试用
LibTorch
1.3和C++
创建
NN,使用Cuda10.1和Windows10。对于构建,我使用VisualStudio2019。 auto ne
浏览 1
提问于2019-11-15
得票数 3
1
回答
如何为CIFAR 10 pytorch教程添加
GPU
计算?
、
、
、
、
有关pytorch的CIFAR10教程可以在这里找到: 本教程将介绍如何使用pytorch为CIFAR 10数据集
创建
简单的卷积神经网络。在接近尾声时,它略微介绍了如
何在
GPU
上
实现上述代码。本质
上
的区别是,我们
创建
了设备=torch.device('
gpu
'),并在使用它们进行计算之前将所有
张量
发送到
gpu
设备。因此,本质
上
,我们希望在每次进行计算之前将网络对象、输入和标签
张量</e
浏览 5
提问于2018-12-11
得票数 1
1
回答
何时需要在模型或
张量
上
使用`.to(设备)`?
、
、
、
我正在阅读关于这个主题的,它表明这个方法将把
张量
或模型移动到指定的设备
上
。但是,我不清楚这是必要的哪些操作,如果我没有在正确的时间使用.to(),我会遇到什么样的错误?例如,如果我只是
创建
一个
张量
,我设想
张量
存储在CPU可访问内存中,直到我将
张量
移动到
GPU
。一旦
张量
在
GPU
上
,
GPU
将对该
张量
执行任何数学运算。但是,我是否需要担心不小心将数据
张量</em
浏览 3
提问于2020-07-23
得票数 16
1
回答
在Keras中利用分布式学习在多个
GPU
上
分配大
张量
、
、
、
model.compile(loss='mean_squared_error', optimizer=rms, metrics=['mean_squared_error'])| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage |
GPU
-Util Compute M. |+-------------------------------------------------
浏览 25
提问于2022-08-05
得票数 1
回答已采纳
1
回答
利比里亚火炬只有cmake配置文件,但需要使用meson构建。
、
、
我正在尝试制作
一个
cpp项目,该项目使用lib手记(C++发行版),使用介子构建。它有
一个
简单的cpp文件,大约50行,对图像进行深入学习。但是,我不知道如何使
浏览 15
提问于2021-12-17
得票数 0
3
回答
哪些功能或模块需要连续输入?
、
据我所知,每当某个函数或模块需要连续
张量
时,都需要显式调用tensor.contiguous()。/src/torch/lib/TH/generic/THTensor.c:231哪些功能或模块需要连续的输入?有文档说明吗? 或者措辞不同,您需要调用contiguous的情况是什么?
浏览 13
提问于2021-11-04
得票数 4
回答已采纳
1
回答
当将
张量
移动到
GPU
时,内存会发生什么变化?
、
、
张量
c被发送到multiprocessing.Pool调用的目标函数步骤内的
GPU
。在这样做的过程中,每个子进程在
GPU
上
使用487 MB,而RAM的使用则为5 GB。注意,大
张量
arr只是在调用池之前
创建
一次,而不是作为参数传递给目标函数。当CPU
上
的所有东西都在运行时,Ram的使用不会爆炸。关于这个例子,我有以下几个问题: 我将torch.Tensor.ones(1)发送到
GPU
,但它消耗了487 MB的
GPU
内存。即使基本<em
浏览 0
提问于2020-09-25
得票数 0
2
回答
Pytorch 0.4.0:有三种方法可以在CUDA设备
上
创建
张量
。它们之间有什么不同吗?
、
t3仍在CPU
上
。不知道为什么。
浏览 1
提问于2018-11-16
得票数 11
回答已采纳
2
回答
为什么
GPU
上
的乘法比CPU
上
的乘法慢?
、
、
time.time()我想知道我是不是做错了什么,我如何改变我的代码,以表明
GPU
比在矩阵乘法
上
更快?
浏览 0
提问于2020-10-27
得票数 2
5
回答
为什么没有用torch.cuda.empty_cache()发布CUDA内存
在我的Windows 10
上
,如果我直接
创建
一个
GPU
张量
,我可以成功地释放它的内存。torchdel a但是如果我
创建
一个
正常
张量
并将它转换成
GPU
张量
,我就不能再释放它的内存了。
浏览 8
提问于2020-09-08
得票数 2
回答已采纳
1
回答
当我们在
一个
.data.numpy
张量
上调用cpu() PyTorch ()时会发生什么?
、
我正在进行
一个
项目,需要将损失
张量
中的数据传递给绘图库。是否存在将
张量
与计算图分离的风险?
浏览 0
提问于2020-06-08
得票数 2
回答已采纳
1
回答
如何将ML项目从
GPU
项目转换为CPU项目?
我正在学习ML,我想重新训练
一个
用于车道检测的AI模型。我找到了这个,想试一试。但我一直面临
一个
问题: 我没有
GPU
,所以我希望我能用我的CPU训练这个模型。但遗憾的是,该代码的某些部分是用CUDA编写的。有没有办法,我可以把这个
GPU
代码转换成CPU代码?我应该只为CPU训练找到另
一个
人工智能模型吗?
浏览 8
提问于2022-09-08
得票数 0
回答已采纳
4
回答
cuda和
张量
内核的区别是什么?
、
、
我对与高性能计算相关的术语完全陌生,但我刚刚看到EC2在亚马逊网络服务
上
发布了由新的Nvidia Tesla V100驱动的新型实例,它有两种“核心”:Cuda核心(5,120)和
张量
核心(640)。
浏览 106
提问于2017-11-17
得票数 54
回答已采纳
点击加载更多
相关
资讯
一文读懂PyTorch张量基础
Tensorflow基础知识-边、节点、其他概念
TensorFlow修炼之道(3)——计算图和会话(Graph&Session
PyTorch:深度学习开发的 Py一级加速!
从头开始了解PyTorch的简单实现
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券