腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Pytorch
张量
存储
在
调用
storage
()
方法
时
具有
相同
的
id
python
、
memory
、
pytorch
、
tensor
torch.tensor([1,2,3])x_t = x.t() 当我将每个
张量
的
存储
设置为相应
的
变量
时
,它们
的
ids是不同
的
: x_
storage
140372837682304 14037283776856094914110126336 但是,当我
在
同一个print语句中对每个原始
张量
调用
stora
浏览 31
提问于2021-04-28
得票数 1
1
回答
net.load_state_dict(torch.load('rnn_x_epoch.net'))不在cpu上工作
neural-network
、
pytorch
、
torch
当我
在
GPU上训练和测试
时
,它工作得很好。但是,当我尝试使用以下
方法
在
CPU上加载模型参数
时
:我得到以下错误: RuntimeError:,但是当我得到这个错误时,我
在
CPU上运行,所以肯定是其他
的
错误,或者我可能遗漏了什么。因为它使用GPU运行得很好,所以我可以
在
GPU上运行它,但是我尝试
在
GPU上训练网络,<
浏览 1
提问于2019-01-30
得票数 2
回答已采纳
1
回答
割炬
张量
的
切片及data_ptr()
的
使用
arrays
、
numpy
、
pytorch
、
torch
tensor([[ 1, 2, 3, 4, 5], [11, 12, 13, 14, 15]])所以我做了c = a[:,[2]],它给了我预期
的
答案,但在自动评分器上还是失败了。print('c correct:', check(a, c, [[3], [8], [13]])) 我试着调试它,结果发现same_
storage
是
浏览 2
提问于2020-06-27
得票数 1
回答已采纳
1
回答
有没有办法
在
码头集装箱之间发送gpu内存中
的
gpu
张量
的
位置,并在不同
的
容器中构建它们?
python-3.x
、
docker
、
sockets
、
pytorch
、
cuda
为了快速总结这个问题,我需要在
PyTorch
码头容器之间传输图像(大小为(1920,1200,3)并处理它们。容器位于同一个系统中。速度是非常重要
的
,传输
的
方式不应超过2-3毫秒。我很好奇,
在
GPU上分配
的
PyTorch
张量
是否有类似的
方法
? 据我所知,CUDA
张量
已经
在
共享记忆中了。我试着通过套接字传输它们和Py火炬
张量
存储
对象,但是它需要50到60 is左右
的
浏览 6
提问于2022-07-18
得票数 1
回答已采纳
1
回答
PyTorch
:对
具有
相同
输出bin索引
的
所有数据点
的
按元素计算
的
最大值。
pytorch
、
histogram
、
bin
我使用
的
是
PyTorch
(1.8)。是否有一种聪明
的
方法
可以在所有
具有
相同
输出索引
的
数据点上获得一个元素级
的
最大值?假设我有一个大小
的
数据
张量
(N,M),以及包含指数[0,K)
的
大小指数
张量
(N,)。现在我想根据索引值将数据
张量
放入一个大小
的
张量
(K,M),但是如果两个或多个数据点被绑定到
相同
的</e
浏览 8
提问于2021-07-28
得票数 2
回答已采纳
4
回答
PyTorch
更喜欢复制
张量
python
、
pytorch
、
copy
、
tensor
似乎有几种
方法
可以
在
PyTorch
中创建
张量
的
副本,包括根据我
在
执行b或d
时
得到
的
UserWarning,a和d显然更倾向于使用a。为什么它是首选
的
?表演?我认为它
的
可读性较低。 使用c
浏览 2
提问于2019-03-20
得票数 142
回答已采纳
1
回答
在
PyTorch
中复制某些指标的
张量
元素
machine-learning
、
pytorch
、
tensor
、
torch
、
indices
所需
的
操作在精神上与torch.Tensor.index_copy相似,但略有不同。[10, 20, 30][0, 1, 0, 1, 2, 1]
在
不使用循环
的
情况下,从A和
PyTorch
中
的
B中生成
浏览 2
提问于2022-05-29
得票数 0
回答已采纳
2
回答
在
训练和测试时间
pytorch
上以不同方式管理内存
python
、
deep-learning
、
conv-neural-network
、
pytorch
目前,我正在用
pytorch
编写一个基于U-net
的
分割模型,我想使用类似于mobilenet v2上引入
的
倒置残差来提高模型
在
cpu上
的
速度。 然后我意识到模型
在
训练阶段和测试阶段使用了更多
的
内存。虽然模型应该在训练阶段使用更多
的
内存,因为所有的中间步骤
张量
(特征图)都被保存了,并且使用可分离
的
卷积,为每个“卷积”操作创建了更多
的
张量
。但在运行时,实际上只有几个最后一步
张
浏览 1
提问于2019-04-13
得票数 0
1
回答
在
Python中使用生成器对矩阵执行运算
python
、
arrays
、
python-3.x
、
loops
、
pytorch
我有一个相似度矩阵(torch
张量
),它是两个矩阵(源和目标)之间
的
余弦相似度矩阵。从矩阵中,我需要获得每个源和目标的最接近
的
邻居之间
的
距离之和。然后使用上面计算
的
值填充两个defaultdicts,如下面的代码片段所示from collections import defaultdict similarities.ap
浏览 0
提问于2020-03-31
得票数 1
2
回答
如何修复“输入和隐藏
张量
不在同一装置上”
的
问题
python
、
python-3.x
、
pytorch
、
gpu
、
lstm
当我想将模型放到GPU上
时
,我会得到以下错误: model = model.cuda()
Pytorch
1.2.0 +库达9.2cuda 9.2
的<
浏览 3
提问于2019-09-25
得票数 8
回答已采纳
2
回答
用requires_grad=False包装变量
张量
在
遗留
PyTorch
中
的
应用
python
、
deep-learning
、
neural-network
、
pytorch
我使用
的
是2017/18年度编写
的
代码库,我发现了以下代码:audio_norm = torch.autograd.Variable(audio_norm, requires_grad=False) 我知道,Variable中
的
包装
张量
以前允许将它们
的
梯度合并到火炬以前版本
的
计算图中(现在不再需要),但我不知道
在
torch.autograd.Variable(my_tensor, re
浏览 7
提问于2022-05-04
得票数 1
回答已采纳
1
回答
如何使用
PyTorch
0.4.0从numpy数组生成带有requires_grad=True
的
FloatTensor?
python
、
numpy
、
pytorch
Pytorch
0.4.0引入了
张量
和变量类
的
合并。在这个版本之前,当我想要从numpy数组创建一个
具有
自动分级功能
的
Variable
时
,我会执行以下操作(其中x是一个numpy数组):
在
PyTorch
版本0.4.0中,展示了如何在启用自动评分
的
情况下创建
张量
,示例显示您可以执行以下操作 x
浏览 0
提问于2018-04-29
得票数 16
回答已采纳
1
回答
作为
PyTorch
数据集,您使用什么来访问S3和其他对象
存储
提供程序上
的
CSV数据?
amazon-s3
、
pytorch
、
google-cloud-storage
、
azure-blob-storage
、
object-storage
我
的
数据集作为CSV文件
的
集合
存储
在
Amazon Web Services (亚马逊网络服务)简单
存储
服务(S3)
存储
桶中。我想基于这些数据训练一个
PyTorch
模型,但内置
的
Dataset类并不提供对对象
存储
服务(如S3或Google Cloud
storage
、Azure Blob
存储
等)
的
本地支持。我
在
https://
pytorc
浏览 28
提问于2020-10-29
得票数 1
1
回答
将
张量
展开若干维
pytorch
、
tensor
在
PyTorch
中,给定size=3
的
张量
,如何将其扩展到size=3,2,5,5,使所添加
的
维
具有
与原始
张量
相对应
的
值。例如,使size=3 vector=[1,2,3],使大小为2,5,5
的
第一个
张量
具有
1值,第二个
张量
具有
所有值2,第三个
张量
为3。此外,如何将大小为3,2,5,5
的
向量扩展为3,2,5,5 一种
方法
浏览 0
提问于2022-02-21
得票数 3
回答已采纳
3
回答
如何为
PyTorch
中
的
特定
张量
释放GPU内存?
pytorch
我目前正在使用
PyTorch
运行一个深度学习程序,并希望为特定
的
张量
释放图形处理器内存。我想过像del和torch.cuda.empty_cache()这样
的
方法
,但是del似乎不能正常工作(我甚至不确定它是否释放了内存),torch.cuda.empty_cache()似乎释放了所有未使用
的
内存,但我只想为一个特定
的
张量
释放内存。
PyTorch
中是否有提供此功能
的
功能? 提前谢谢。
浏览 2
提问于2019-11-19
得票数 2
1
回答
Pytorch
LSTM与交叉熵
python
、
numpy
、
nlp
、
pytorch
、
cross-entropy
我
的
工作是情绪分析,我想把输出分为4类。对于loss,我使用
的
是我
的
批次大小为12,序列大小为32。
浏览 2
提问于2021-05-14
得票数 1
7
回答
.contiguous()
在
PyTorch
中做什么?
python
、
memory
、
pytorch
、
contiguous
x.contiguous()对
张量
x做了什么?
浏览 2
提问于2018-02-21
得票数 182
回答已采纳
5
回答
在
火把中,整形和视图有什么区别?
python
、
pytorch
在
numpy中,我们使用ndarray.reshape()来重塑数组。我注意到,
在
火炬手中,人们使用torch.view(...)
的
目的是
相同
的
,但同时,也存在一个torch.reshape(...)。所以我想知道他们之间有什么区别,我应该在什么时候使用他们中
的
任何一个?
浏览 2
提问于2018-04-04
得票数 192
回答已采纳
1
回答
.data
在
Pytorch
1.3稳定版中仍然有用吗?它
的
意义是什么?
python-3.x
、
pytorch
.data
在
Pytorch
1.3稳定版中还在使用吗?如果是,你能和我分享一下参考资料吗?谢谢。t.data
浏览 6
提问于2019-10-23
得票数 0
回答已采纳
2
回答
PyTorch
张量
是如何实现
的
?
python
、
python-3.x
、
rust
、
pytorch
、
tensor
我正在用Rust构建我自己
的
张量
类,并且我试图使它像
PyTorch
的
实现一样。我目前正在构建一个连续数组,因此,给定3 x 3 x 3
的
维数,我
的
数组中只包含3^3元素,这将表示
张量
。然而,这确实使数组
的</
浏览 1
提问于2018-04-09
得票数 14
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
一文读懂PyTorch张量基础
PyTorch1.6:新增自动混合精度训练、Windows版开发维护权移交微软
从头开始了解PyTorch的简单实现
从基础概念到实现,小白如何快速入门PyTorch
对比PyTorch和TensorFlow的自动差异和动态子类化模型
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券