腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
pytorch
中
的
torch.nn.gru
函数
的
输入
是什么
?
、
、
我正在使用gru
函数
来实现RNN。这个RNN (GRU)在一些CNN层之后使用。有人能告诉我这里GRU
函数
的
输入
是什么
吗?特别是,隐藏
的
大小是固定
的
吗?self.gru =
torch.nn.GRU
( hidden_size=128,num_layers=1, bidirect
浏览 96
提问于2019-11-28
得票数 2
回答已采纳
1
回答
如何在
PyTorch
中
向顺序层添加LSTM、GRU或其他递归层?
( torch.nn.Dropout()但是,当我想要添加一个循环层(如
torch.nn.GRU
)时,它将无法工作,因为
PyTorch
中
的
递归层
的
输出是一个元组,您需要选择要进一步处理
的
输出
的
哪一部分。所以有什么办法
torch.nn.GRU
(input_
浏览 1
提问于2018-06-12
得票数 2
1
回答
查找
Pytorch
GRU功能
的
TensorFlow等效项
、
、
、
、
我对如何在TensorFlow
中
重构以下
Pytorch
代码感到困惑。它同时使用
输入
大小x和隐藏大小h来创建GRU层 import torchtf.keras.layers.GRU(64, return_state=True) 然而,我意识到它并没有真正考虑到h或隐藏
的
大小
浏览 10
提问于2020-10-17
得票数 4
2
回答
训练时在图像批次数据上添加白噪声
、
、
、
、
我正在尝试一个去噪模型,目标是打印出每一批
的
clean/ add_noise/ model_output。每个镜像都有shape = (256, 128)def add_noise(data,
浏览 2
提问于2019-02-11
得票数 1
1
回答
使用
Pytorch
的
*list、.children()和nn.sequential创建
的
模型会产生不同
的
输出张量
、
、
、
、
我遵循这个教程:https://
pytorch
.org/hub/
pytorch
_vision_densenet/,它工作得很好,
输入
为1,3244244,它返回1,1000张量,与预期完全相同。然而,目前我正在使用此代码将预训练
的
Densenet加载到我
的
模型
中
,并将其用作“特征提取”模型。这是init
函数
中
的
代码 base_model = torch.hub.load('<
浏览 251
提问于2021-10-24
得票数 0
回答已采纳
2
回答
Pytorch
计数张量
、
我正在尝试创建一个Python
函数
,该
函数
在给定
输入
dim和m
的
情况下,生成形式为[m ** dim, dim]
的
张量 [[1,...,1,1], ...,m,m]] 在
Pytorch
中
做这件事
的
最好方法
是什么
? 谢谢
浏览 38
提问于2020-08-08
得票数 0
回答已采纳
1
回答
自定义丢失
函数
的
后端实现
、
、
、
、
我有一个有向量输出
的
神经网络Network。我不使用典型
的
损失
函数
,而是实现自己
的
损失
函数
,这是类
中
的
一种方法。我关心
的
主要问题是渐变。由于我采用了自己
的
自定义损失
函数
,是否需要对成本
函数
实现自己
的
梯度? 一旦我做了数学,我意识到,如果成本是J,那么J
的
梯度是一个相当简单
的
函数
,就网络
的
最后一层
的</e
浏览 1
提问于2021-05-05
得票数 1
回答已采纳
1
回答
pytorch
如何实现从输出层到
输入
层
的
反向传播
假设我们已经训练了一个网络模型,我想从输出层反向传播到
输入
层(而不是第一层),以获得新
的
输入
数据。我想知道
pytorch
中
是否有
函数
或其他现有
函数
可以实现此
函数
,我在
pytorch
教程
中
找不到相关
函数
。
浏览 22
提问于2021-02-03
得票数 0
2
回答
理解
PyTorch
LSTM
的
输入
形状
、
、
、
这似乎是
PyTorch
中
关于LSTM最常见
的
问题之一,但我仍然无法弄清楚
PyTorch
LSTM
的
输入
形状应该
是什么
。 即使在跟踪了几个帖子(、、)并尝试了解决方案之后,它似乎也不起作用。每个序列
的
MAX_LEN为384,序列
中
的
每个令牌(或word)
的
维数为768。因此,我
的
批处理张量可能具有以下形状之一:[12, 384, 768]或[384, 12, 768]。批处理将是我对
浏览 6
提问于2020-05-06
得票数 16
回答已采纳
2
回答
PyTorch
卷积`in_channels`与`out_channels`意义?
、
、
、
从
PyTorch
中
,我看到torch.nn.Conv1d
函数
要求用户传递参数in_channels和out_channels。我知道它们指的是“
输入
通道”和“输出通道”,但我不知道它们在卷积
中
的
含义。我
的
猜测是,in_channels与
输入
特性等价,out_channels等价于输出特性,但我不确定。有人能解释一下这些论点指的
是什么
吗?
浏览 0
提问于2019-06-18
得票数 6
1
回答
来自
pytorch
的
"torch.relu_(input)未知参数类型“
、
、
、
我试着在谷歌Colab
的
图形处理器上运行这个3D pose estimation repo,但在完成所有步骤并放入我自己
的
左/右摄像头视频后,我在Colab
中
得到了这个错误: infering threadreluRuntimeError: unknown parameter type 我有点困惑,为什么我会看到它,我已经安装了所有必要
的
先决条件;也无法解释它
的
意思。
浏览 188
提问于2021-06-30
得票数 0
1
回答
PyTorch
是否支持动态维数变量?
、
、
当
输入
张量将其维度更改为50x3时,变量
的
维数也必须更改为50x50。我目前正在学习
PyTorch
,不知道
PyTorch
是否支持这个
函数
。如有任何信息,将不胜感激!=========原始问题======== 我有一个
浏览 2
提问于2017-08-14
得票数 0
1
回答
解码器总是预测相同
的
令牌。
、
、
在虚拟
的
、微小
的
数据集上过度拟合是不可能
的
,因此代码
中
似乎有一个很大
的
错误。在下一步
中
,使用这些隐藏状态作为新
的
隐藏状态,使用最高
的
预测令牌作为新
的
输入
。在我
的
训练循环中,我用SOS令牌开始每一批,并将每个顶部预测
的
令牌
输入
到下一步,直到到达target_len为止。我还在教师强制培训之间随机交换。我发现RNN返回
的
隐藏状态包含大量
的</
浏览 1
提问于2020-09-13
得票数 0
回答已采纳
2
回答
RuntimeError: cuDNN版本不匹配:
PyTorch
是针对7102编译
的
,但与7604链接在一起
、
、
、
linked against {}'.format(compile_version, __cudnn_version)) RuntimeError: cuDNN version mismatch:
PyTorch
浏览 619
提问于2020-02-10
得票数 0
回答已采纳
1
回答
手电筒
中
的
torch.squeeze和torch.unsqueeze等效物(arrayfire)
、
、
我正在将
PyTorch
代码移植到手电筒代码。在
Pytorch
中
,squeeze和unsqueeze
的
Arrayfire或Flashlight
函数
等价
是什么
?
浏览 14
提问于2019-07-24
得票数 0
回答已采纳
2
回答
在
PyTorch
中
没有N维转换
、
PyTorch
的
torch.transpose
函数
仅转置2D
输入
。文档是。 另一方面,Tensorflow
的
tf.transpose
函数
允许您转置N任意维度
的
张量。有人能解释一下为什么
PyTorch
没有/不能有N维转置功能吗?这是不是由于
PyTorch
中计算图构造
的
动态性质与Tensorflow
的
定义然后运行范式
的
原因?
浏览 2
提问于2017-06-30
得票数 25
回答已采纳
1
回答
从
pytorch
导出批量标准权重到Keras
的
问题
、
、
、
、
我关注,,但它们并不能解决我
的
问题。下面是我
的
测试代码,
pytorch
和keras之间
的
结果在1e-2到1e-3量级
的
误差很大。
函数
b0,b1类似于torch
的
结果,但仍然不太准确。b2尝试遵循中使用
的
公式。 卷积部分产生相同
的
结果,但我停留在batchnorm层。我还对
pytorch
使用eval(),对
pytorch
使用no_grad(),对keras模型使用mod
浏览 2
提问于2020-07-31
得票数 1
1
回答
PyTorch
CrossEntropyLoss和Log_SoftMAx + NLLLoss给出了不同
的
结果
、
、
、
根据
PyTorch
文档,CrossEntropyLoss()是LogSoftMax()和NLLLoss()
函数
的
组合。但是,调用CrossEntropyLoss()提供了与调用LogSoftMax()和NLLLoss()不同
的
结果,这从给定代码
的
输出
中
可以看出。
是什么
导致了不同
的
结果?来自
PyTorch
的
交叉熵:张量(2.3573)来自Manual_
PyTorch
_NNLoss
的
浏览 0
提问于2023-04-27
得票数 0
回答已采纳
1
回答
将Keras (Tensorflow)卷积神经网络转化为
PyTorch
卷积网络?
、
、
Keras和
PyTorch
使用不同
的
参数填充: Keras需要
输入
一个字符串,而
PyTorch
使用数字。有什么区别,如何将一个代码转换成另一个代码(哪些代码在任何一个框架中都得到了等效
的
结果)?
PyTorch
还接受args in_channels,out_chanels,而keras只使用一个名为filters
的
参数。“过滤器”
是什么
意思?
浏览 0
提问于2019-03-27
得票数 2
回答已采纳
1
回答
LeakyReLU
中
的
“负”斜率在哪里?
、
、
、
LeakyReLU
函数
中
的
负斜率指什么?正
输入
和负
输入
的
LeakyReLU
函数
的
斜率通常是非负
的
。。
Pytorch
和TensorFlow文档提供了设置负斜率
的
示例,它们都使用了一个正值。TensorFlow显式地强制非负值.(见下文) 他们是错了还是我漏掉了什么?
浏览 1
提问于2021-08-20
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Pytorch内置函数代码解释深度学习中的转置是什么
Python中input() 输入函数的用法
在python中如何换行?基本输入输出函数又是什么?
Python中的lambda函数是什么
Python 中的输入函数:概念和示例|Linux 中国
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券