腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(86)
视频
沙龙
1
回答
冒泡
3-D
张量
PyTorch
的
非
空行
、
、
、
我在尝试将以下函数转换为仅处理
张量
的
函数时遇到了一些问题。jj += 1 return valid_output 其中可以创建输入
张量
sequence_output = torch.randint(0, 250, size=size) valid_mask = torch.randint(0, 2, size=size[:2]) 我
的
主要目标是“
冒泡
”sequence_outpu
浏览 17
提问于2021-03-15
得票数 1
回答已采纳
1
回答
调整RGB
张量
pytorch
的
大小
、
、
、
我想在
pytorch
中调整
3-D
RBG
张量
的
大小。我知道如何调整4-D
张量
的
大小,但不幸
的
是,这种方法不适用于
3-D
。输入为: #input shape: [3, 100, 200] ---> desired output shape: [3, 80, 120] 如果我有一个4-D
的
向量,它工作得很好。
浏览 9
提问于2020-01-19
得票数 3
1
回答
使用
PyTorch
的
RNN -我不理解初始参数
、
我想详细了解
pyTorch
RNN模块。在这里,我创建了一个非常简单和基本
的
例子:i_data = torch.arange(1,10).reshapey, hidden_state = rnn(i_data, hidden_state) 我得到了错误: assert (input.dim() in (2,3)),f"RNN:预期输入为2-D或
3-D
,但收到{input.dim()}-D
张量
“AssertionError:
浏览 0
提问于2023-05-28
得票数 0
2
回答
在
PyTorch
中,是什么使
张量
具有
非
连续
的
记忆?
根据和
的
说法,
PyTorch
的
view函数只在连续内存上工作,而reshape不工作。在第二个环节中,提交人甚至声称: 但是
张量
什么时候有不连续
的
记忆呢?
浏览 1
提问于2019-01-08
得票数 4
回答已采纳
3
回答
Pytorch
:如何找到2D
张量
每行中第一个
非
零元素
的
索引?
、
、
我有一个2D
张量
,每一行都有一些
非
零元素,如下所示: import torch tmp = torch.tensor([[0, 0, 1, 0, 1, 0, 0],[0, 0, 0, 1, 1, 0, 0]], dtype=torch.float) 我想要一个包含每行第一个
非
零元素索引
的
张量
: indices = tensor([2],[3]) 我如何在
Pytorch
中计算它?
浏览 175
提问于2019-05-11
得票数 7
回答已采纳
2
回答
如何将torch.inverse()函数
PyTorch
应用于批处理中
的
每个样本?
、
这似乎是一个基本
的
问题,但我无法解决。 在神经网络
的
前通过中,我有一个形状为8x3x3
的
输出
张量
,其中8是我
的
批次大小。我们可以假定每个3x3
张量
都是一个
非
奇异矩阵。我需要找到这些矩阵
的
逆。
PyTorch
函数仅适用于方阵。既然我现在有8x3x3,如何以可微
的
方式将此函数应用于批处理中
的
每个矩阵?如果我迭代这些示例并将逆附加到python列表中,然后将其转换为
PyTorch
浏览 23
提问于2017-10-05
得票数 10
1
回答
如何将一维火炬
张量
插入到现有的2D火炬
张量
到特定行中?
、
、
我想要插入一个一维火炬
张量
到一个特定
的
行号到一个2D火炬
张量
(使用
Pytorch
)。当我说我想使用
Pytorch
时,我不想把任何东西转换成一个
非
Pytorch
列表,并在CPU和GPU上来回发送计算
浏览 1
提问于2021-08-01
得票数 1
回答已采纳
1
回答
pyTorch
梯度除以标量时变为零。
、
True)/nz = torch.sum(x*y)print(x.grad) # results in None正如所写
的
,然而,如果我通过去掉标量乘法(x = torch.ones(n, requires_grad=True))来改变x
的
定义,那么我确实得到了一个与y等价
的
非
零梯度。我在谷歌上搜索了一群寻找这个问题的人,我认为它反映了一些基本
的
东西,我不明白火炬中
的
计算图是如何产生
的
浏览 4
提问于2020-10-06
得票数 1
2
回答
从压缩表示转换
张量
的
最佳方法
、
、
、
我有一个压缩格式
的
张量
,它表示一个稀疏
的
3-D
矩阵。我需要将它转换为一个正常矩阵(它实际表示
的
那个)。因此,在我
的
例子中,矩阵
的
任何2-D切片
的
每一行都只能包含一个
非
零元素。例如,
张量
inp = torch.tensor([[ 1, 2], [-1, 0], [45, 1]]) 表示4x5矩阵(第一维来自
张量
的
第一维,第二维来自元数据) A这只是我
浏览 30
提问于2020-07-18
得票数 2
回答已采纳
1
回答
创建一个具有1
的
张量
,其中另一个
张量
在
Pytorch
中具有
非
零元素
、
、
、
假设我有一个任意形状
的
张量
A。它有k个
非
零元素。我想建立另一个
张量
B,其中1表示A不为0,0表示A为。例如: A = [[1,2,0], [0,0,5]] 那么B将是: B = [[1,1,0], [0,0,1]] 有没有在
Pytorch
中实现这一点
的
简单方法?
浏览 12
提问于2020-11-26
得票数 0
回答已采纳
1
回答
在
PyTorch
中,forward()和普通方法有什么不同?
实现自定义nn.Module类
的
forward()方法与向该类添加普通方法有何不同?我听说forward()方法应该只接受和返回
张量
,因为
PyTorch
对forward()方法
的
输入和输出实现了特殊处理。但我尝试了在forward()方法上输入/输出
非
张量
对象,并实现了一个没有forward()方法
的
模块(相反,有多个自定义命名
的
方法,它们
的
行为类似于forward()方法)。这两种方式都运行良好。
浏览 1
提问于2019-10-23
得票数 1
1
回答
给定
pytorch
中任意两个对角坐标,得到一批
张量
中靠近原点
的
矩形
的
角点。
、
、
、
假设我有一批
非
对角线元素坐标的
pytorch
张量
,我想得到靠近原点
的
角
的
坐标。坐标的格式为(x1,y1,x2,y2)。
浏览 8
提问于2019-02-04
得票数 1
回答已采纳
2
回答
基于
PyTorch
稀疏
张量
的
GPU快速计算
、
、
是否有可能对
PyTorch
MxN
张量
的
每一行进行操作,但只在某些索引(例如
非
零)上操作以节省时间?Large = Tensor([[0, 1, 3, 0, 0, 0],我想用下面这样
的
较小
的
“
张量
”: irregular_tens
浏览 9
提问于2022-03-18
得票数 1
1
回答
如何在
PyTorch
中高效地计算批量成对距离
、
、
我有形状BxNxD
的
张量
X,形状BxNxD
的
张量
Y。 我想要计算批次中每个元素
的
成对距离,即i一个BxMxN
张量
。 我该怎么做呢?这里有一些关于这个主题
的
讨论:https://github.com/
pytorch
/
pytorch
/issues/9406,但我不理解它,因为有很多实现细节,而没有强调实际
的
解决方案。一种天真的方法是使用此处讨论
的</em
浏览 63
提问于2019-03-13
得票数 8
1
回答
重复某个
张量
的
特定列
、
我有一个大小为X m x n
的
pytorch
张量
和一个长度为n
的
非
负整数num_repeats
的
列表(假设和(Num_repeats)>0)。在前进()方法中,我希望创建一个大小为X_dup
的
张量
m x sum(num_repeats),其中X
的
列i被重复num_repeats[i]时间。
张量
X_dup将在正向()方法
的
下游使用,因此需要正确地反求梯度。我可以想出
的
所有解决方
浏览 2
提问于2019-12-07
得票数 3
回答已采纳
1
回答
协同工具:如何正确使用NeuralNetworkMultiArrayShapeRange?
、
、
、
我有一个
PyTorch
网络,我想将它部署到iOS设备上。简而言之,我不能在CoreML中为输入
张量
形状增加灵活性。网络是一个convnet,它以RGB映像(存储为
张量
)作为输入,并返回相同大小
的
RGB映像。使用
PyTorch
,我可以输入任意大小
的
图像,例如,300x300图像
的
大小
张量
(1,3,300,300)。所以我用了:我猜ONNX模型只接受大小(1,3,300,300)<em
浏览 2
提问于2020-01-09
得票数 0
回答已采纳
1
回答
如何将输入视为复
张量
?RuntimeError:
张量
的
最后一个维度
的
步长必须为1
、
、
、
我在
pytorch
中有一个有64个元素
的
张量
,我想把它转换成一个有32个元素
的
复
张量
。顺序对我来说很重要,所有东西都应该在
PyTorch
中,这样我就可以在我
的
自定义损失函数中使用它:主
张量
(W)中
的
前半部分是我
的
实数,后半部分是我
的
虚数。所以我
的
最后一个
张量
应该是这样: W_final =
张量
(W+jW32,W1+jW33,W2+jW34,W3+
浏览 72
提问于2020-09-12
得票数 2
回答已采纳
1
回答
为什么放火器不能计算循环中
的
梯度?
、
、
、
、
首先,我用torch.tensor()创建了一个
张量
,我
的
目标是计算y=2*x
的
梯度,它最初是通过设置参数requires_grad = True来完成
的
。我认为上面提到
的
步骤是模式。我想看看这个模式是否适用于向量a中
的
每个元素,所以我写了for -循环,但是新
的
步骤返回
的
不是
张量
(2)。import torch x = torch.tensor([1.0,2.0,3.0,7.0],requires_grad=True) #vecto
浏览 3
提问于2022-04-11
得票数 0
1
回答
自定义
PyTorch
优化器无法正常工作,无法访问渐变。
我使用
PyTorch
的
类并引用和,以便从某个地方开始。我
的
代码是: def __init__(self, params, lr,'lr']) 当我运行这段代码时,我会得到以下错误: /home/user/github/test/easgd.py:50: UserWarning:不是叶
张量</em
浏览 0
提问于2020-12-10
得票数 0
回答已采纳
1
回答
优化GPU上
的
值
、
我试图优化一个
PyTorch
张量
,我也使用它作为网络
的
输入。让我们把这个
张量
称为“形状”。)vertices = model(shape)loss当一切都在CPU上时,这是非常好
的
工作方式。然而,当我通过调用to("cuda")将我
的
形状和模型放在GPU上时,我得到
的
是经典
浏览 0
提问于2021-08-18
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
超原版速度110倍,针对PyTorch的CPU到GPU张量迁移工具开源
PyTorch的10个基本张量操作
超原版速度110倍,针对PyTorch的CPU到GPU张量迁移工具开源
腾讯提出自适应图卷积神经网络,接受不同图结构和规模的数据
作业帮基于 WeNet + ONNX 的端到端语音识别方案
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券