腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
对火炬
张量
的
迭代
python
、
pytorch
、
iteration
、
tensor
什么是最好和最快
的
方式来迭代
张量
。令人费解
的
是,为什么我要得到
张量
而不是值。x in t]但却期望这样
的
行为t.numpy() ]如果可能的话,我宁愿不改做胖
的
?
浏览 2
提问于2022-09-15
得票数 2
回答已采纳
1
回答
pytorch
:如
何在
4维
张量
的
所有
单元
上
应用
函数
python
、
numpy
、
tensorflow
、
matrix
、
pytorch
我正在尝试将一个
函数
应用
于一个四维
张量
(我认为它是一个2-D矩阵,每个
单元
中都有一个2-D矩阵),维度为: N x N。
应用
函数
返回1 x N
张量
,所以在
应用
函数
之后,我期望得到以下维度
的
张量
:N x N x 1 x N。[0., 0., 0., 0.], [0., 0., 0., 1.]], dtype=torch.float64
浏览 24
提问于2020-11-28
得票数 0
2
回答
loss.backward()与模型
的
适当参数有何关系?
machine-learning
、
deep-learning
、
pytorch
我是
PyTorch
的
新手,我很难理解loss是如何知道如何通过loss.backward()计算梯度
的
?当然,我知道参数需要有requires_grad=True,并且我知道它将x.grad设置为适当
的
梯度,以便优化器稍后执行梯度更新。当我有两个不同
的
网络,有两个不同
的
损失
函数
和两个不同
浏览 2
提问于2019-11-14
得票数 3
2
回答
如何共享
PyTorch
多处理中
的
张量
列表?
list
、
multiprocessing
、
sharing
、
pytorch
、
tensor
我正在用
PyTorch
多处理编程。我希望
所有
子进程都能读取/写入相同
的
张量
列表(不调整大小)。例如,变量可以是因为每个
张量
都有不同
的
尺寸,所以我不能把它们组织成一个
张量
。python列表没有share_memory_()
函数
,multiprocessing.Manager不能处理
张量
列表。如
何在
多个子进程之间共享变量m?
浏览 1
提问于2018-06-07
得票数 10
回答已采纳
1
回答
THCudaTensor_data (和一般
的
THC )是做什么
的
?
pytorch
、
torch
我正在检查
的
程序使用
pytorch
加载权重,cuda代码用权重进行计算。我对THC库
的
理解是如
何在
pytorch
后端(也许是torch?)实现
张量
。THC是如何实施
的
(如果可能的话,我真的会了解一些细节)? THCudaTensor_data( THC_state,THCudaTensor* )是做什么
的
?(从代码中使用它
的
方式来看,它似乎是用来将py手电筒
的
张量
转换为cuda中
的</e
浏览 0
提问于2018-10-08
得票数 1
回答已采纳
2
回答
在训练和测试时间
pytorch
上
以不同方式管理内存
python
、
deep-learning
、
conv-neural-network
、
pytorch
目前,我正在用
pytorch
编写一个基于U-net
的
分割模型,我想使用类似于mobilenet v2
上
引入
的
倒置残差来提高模型在cpu
上
的
速度。 然后我意识到模型在训练阶段和测试阶段使用了更多
的
内存。虽然模型应该在训练阶段使用更多
的
内存,因为
所有
的中间步骤
张量
(特征图)都被保存了,并且使用可分离
的
卷积,为每个“卷积”操作创建了更多
的
张量
。但在运行时,实际
上
浏览 1
提问于2019-04-13
得票数 0
1
回答
为什么在
PyTorch
中有两个不同
的
标志来禁用梯度计算
python
、
pytorch
、
autograd
我是
PyTorch
的
中级学习者,在最近
的
一些案例中,我看到人们使用torch.inference_mode()而不是著名
的
torch.no_grad()来验证经过训练
的
agent在强化学习(RL)实验中
的
有效性我检查了,它们有一个由两个标志组成
的
表,用于禁用梯度计算。老实说,如果我读到描述的话,对我来说听起来完全一样。有人找到解释了吗?
浏览 53
提问于2022-10-25
得票数 -1
2
回答
如
何在
源代码中查找从torch._C导入
的
函数
pytorch
我正在尝试在源代码中追踪torch.nn.NLLLoss
的
实现。我在文件torch.nn.functional中
的
函数
nll_loss中调用了torch._C.nll_loss。但是我找不到创建_C
的
地方。 有谁有这方面的消息吗?
浏览 3
提问于2018-02-20
得票数 8
1
回答
使用
Pytorch
的
*list、.children()和nn.sequential创建
的
模型会产生不同
的
输出
张量
python
、
machine-learning
、
pytorch
、
pre-trained-model
、
pytorch-lightning
我遵循这个教程:https://
pytorch
.org/hub/
pytorch
_vision_densenet/,它工作得很好,输入为1,3244244,它返回1,1000
张量
,与预期完全相同。这是init
函数
中
的
代码 base_model = torch.hub.load('
pytorch
/vision:v0.10.0', 'densenet121', pretrained=True)
浏览 251
提问于2021-10-24
得票数 0
回答已采纳
1
回答
如
何在
PyTorch
中检查
所有
梯度权重是否为零?
python
、
pytorch
我想知道如何检查
所有
PyTorch
神经网络梯度权重,看看它们是否为零,是否继续训练。 这可能看起来像,但它实际
上
是解决陷入局部极小值问题
的
另一种方法。我不知道我应该添加什么代码,因为这似乎是一个一般性
的
问题,我甚至不知道如
何在
PyTorch
中访问梯度
张量
。
浏览 15
提问于2021-05-26
得票数 0
2
回答
基于
PyTorch
稀疏
张量
的
GPU快速计算
python
、
pytorch
、
tensor
是否有可能对
PyTorch
MxN
张量
的
每一行进行操作,但只在某些索引(例如非零)上操作以节省时间?Large = Tensor([[0, 1, 3, 0, 0, 0],我想用下面这样
的
较小
的
“
张量
”: irregular_tens
浏览 9
提问于2022-03-18
得票数 1
1
回答
使用
PyTorch
在指定维
上
应用
神经网络
的
一个问题
pytorch
我想知道如何做以下事情:假设我们想要维64
的
一些输出特性,那么我想要获得一个新
的
形状(4,5,64)对象
浏览 7
提问于2021-12-15
得票数 0
2
回答
纵火线性法中
的
多维输入?
neural-network
、
deep-learning
、
pytorch
、
perceptron
在构造一个简单
的
感知器神经网络时,我们通常将格式(batch_size,features)输入
的
2D矩阵传递给二维权矩阵,类似于中
的
这种简单
的
神经网络。我总是假设神经网络
的
感知器/密集/线性层只接受2D格式
的
输入,并输出另一个2D输出。但最近,我遇到了这样一个模型:线性层接受三维输入
张量
,并输出另一个三维
张量
(o1 = self.a1(x))。loss = criterion(output,y) loss.backward(
浏览 3
提问于2019-10-28
得票数 3
回答已采纳
1
回答
无法在GPU中训练
PyTorch
模型。继续得到
张量
不在同一设备
上
的
错误。
python
、
deep-learning
、
pytorch
我一直致力于在GPU中训练我
的
PyTorch
模型。不过,该模型在CPU中工作得很好。我一直在使用谷歌Colab
的
GPU资源来使用cuda。这是我
的
笔记本: 此外,将非常感谢关于确保今后不再发生这种情况
的
解释/建议。谢谢!
浏览 23
提问于2022-03-14
得票数 0
2
回答
我应该在PIL图像
上
或者更确切地说是在
PyTorch
张量
上
使用转换吗?
python
、
pytorch
、
transformation
、
torchvision
我
的
输入是PIL图像。transforms.RandomResizedCrop(size=224), transforms.ToTensor()]) 由于
PyTorch
中
的
大多数转换都可以在PIL映像和
张量
上工作,所以我想知道我应该按照什么顺序使用它们。我是首先使用PIL图像
上
可能使用
的
所有
转换,然后转换为
张量
,还是首先将其转换为<em
浏览 6
提问于2022-02-04
得票数 2
3
回答
如何使用
张量
进行np.concatenate列表?
python
、
python-3.x
、
numpy
、
pytorch
、
concatenation
., 0.1467, 0.8238, 0.4422]],我想通过np.concatenate(X)将
所有
的1x特征矩阵叠加为一个矩阵。
浏览 1
提问于2021-10-26
得票数 0
回答已采纳
2
回答
这个自定义
的
PyTorch
损失
函数
可微吗?
machine-learning
、
pytorch
、
gradient
、
loss
对于丢失
的
forward,我有一个自定义
的
PyTorch
实现。训练效果很好。我检查了loss.grad_fn,它不是None。我想弄明白两件事:从gt (地面真相输入)到损失(输出)
的
路径是否需要是可区分
的
?或者只有来自pred (预测输入)
的
路径?
浏览 6
提问于2022-05-18
得票数 0
回答已采纳
1
回答
毕氏
张量
标引
python
、
indexing
、
pytorch
我目前正致力于将一些代码从tensorflow转换为py手电筒,我遇到了 func
的
问题,没有直接
的
函数
来转换它。我想做
的
基本
上
是索引,我有两个
张量
,特征
张量
形状
的
[minibatch, 60, 2]和索引
张量
[minibatch, 8],比如第一个
张量
是
张量
A,第二个
张量
是B。在Tensorflow中,它直接用tf.gather(A, B, batch_dims=1)转换 我如<
浏览 1
提问于2019-07-17
得票数 3
回答已采纳
1
回答
用火炬平均值计算alpha值?
computer-vision
、
pytorch
我正在尝试计算here解释
的
Alpha值。 我有一个形状为(1, 512, 14, 14)
的
张量
作为论点。为了计算Alpha值,我需要计算除通道维度之外
的
所有
维度
的
平均值,因此输出将具有本质
上
为(k,)
的
形状(1, k, 1, 1)。 我如
何在
PyTorch
中做到这一点?谢谢!
浏览 11
提问于2020-12-28
得票数 0
1
回答
关于Tensorflow和
PyTorch
中
的
自定义操作
python
、
c++
、
tensorflow
、
pytorch
、
torch
我必须实现一个能量
函数
,称为刚性能,
如
本文中
的
Eq 7,。迭代源网格中
的
所有
顶点。 对计算出
的
协方差矩阵进行奇异值分解,求出顶点
的
旋转矩阵。利用计算出
的<
浏览 0
提问于2019-02-01
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券