腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1756)
视频
沙龙
1
回答
Pytorch
nn
嵌入
维度
大小
?
neural-network
、
pytorch
Pytorch
中
nn
嵌入
的正确
维度
大小
是多少?我在做批量训练。 我只是有点困惑,当我得到"self.embeddings“时,下面代码中的"shape”的尺寸应该是什么?self.embeddings =
nn
.Embedding(vocab_size, embedding_dim)
浏览 19
提问于2019-03-22
得票数 0
回答已采纳
1
回答
PyTorch
中不同尺寸的级联层
python
、
keras
、
neural-network
、
pytorch
inputs)# -> `concat` now has shape `(*, 25)`, as desired#
PyTorch
— this does not work def __init__(self):0外,张量的
大小
必须匹配。我想要的最后一个concat层是一个
大小</em
浏览 2
提问于2021-12-26
得票数 2
回答已采纳
2
回答
如何在
PyTorch
的
嵌入
层上改变一维卷积的轴线?
python
、
conv-neural-network
、
pytorch
、
embedding
我一直在使用
PyTorch
进行文本分类,我遇到了一个一维卷积的问题。我已经设置了一个
维度
的
嵌入
层(x,y,z),其中:x-表示批量
大小
y-表示句子的长度(固定填充,因此为40个单词)z-预训练单词
嵌入
的
维度
(目前为100) 为了简单起见,让我们假设我放入一个矩阵(1,40,100) 然而,据我所知,一旦我执行了torch.
nn
.conv1d(*args),结果矩阵就变成了(batch size = 1,word size = 40,feature map size =
浏览 98
提问于2019-03-19
得票数 2
回答已采纳
1
回答
我应该如何理解
nn
.Embeddings参数num_embeddings和embedding_dim?
pytorch
我正在尝试适应
PyTorch
nn
模块中的
嵌入
类。我不明白的是我该怎么解释这些。例如,我运行的小练习代码:import torch.
nn
as
nn
embe
浏览 7
提问于2019-11-09
得票数 1
回答已采纳
1
回答
如何在火炬中进行批量学习?
python
、
neural-network
、
pytorch
当您查看
pytorch
代码中是如何构建网络体系结构时,我们需要扩展torch.
nn
.Module和__init__,我们定义了网络模块,
pytorch
将跟踪这些模块的参数梯度。在包括forward函数在内的上述任何定义中,我们都不关心网络输入的批处理的
维度
。要执行批学习,唯一需要设置的是在输入中添加一个额外的
维度
,该
维度
对应于批处理
大小
,但是如果我们使用批处理学习,则网络定义中的任何内容都不会改变。至少,这是我在代码中看到的东西。那么,如果到目前为止我解释的所有内容都是
浏览 1
提问于2019-06-19
得票数 7
1
回答
如何在
PyTorch
序列模型中指定batch_size?
pytorch
、
sequential
、
batchsize
我在
PyTorch
中有一个序列模型: model =
nn
.Sequential(
nn
.LSTM(64, ...),
nn
.Linear(...), ) 我想强制批量
大小
到
嵌入
层:
nn
.Embedding
浏览 46
提问于2020-11-30
得票数 1
1
回答
RuntimeError:给定groups=1,权重为[64,3,3,3],期望输入[4,5000,5000,3]有3个通道,但实际得到5000个通道
python
、
image-processing
、
deep-learning
、
computer-vision
、
pytorch
import torch return
nn
.Sequential(
nn
.ReLU(inplace=True),
nn
.Conv2d(out_channels, out_channels, 3, padding=
浏览 25
提问于2019-06-27
得票数 1
回答已采纳
1
回答
与相同的Keras模型(使用Adam优化器)相比,
PyTorch
的误差提高了400%
tensorflow
、
keras
、
pytorch
、
adam
在训练回归模型时,我注意到
PyTorch
的性能大大低于用Keras构建的相同模型。__init__() self.hidden_layer =
nn
.Linear(input_dim_(layer.weight) _ = torch.
nn
.init.constant在权值的初始化中使用torch
浏览 31
提问于2022-09-04
得票数 40
回答已采纳
1
回答
如何在
PyTorch
中使用
嵌入
层作为线性层?
pytorch
在第5页的"3.4
嵌入
和Softmax“一节中,它指出: 谢谢。。
浏览 2
提问于2020-12-26
得票数 1
回答已采纳
1
回答
通过线性层的
PyTorch
高维张量
pytorch
我在
PyTorch
中有一个
大小
的张量(32,128,50)。这些是50个字
嵌入
,批处理
大小
为32.也就是说,我
大小
中的三个索引对应于批数、最大序列长度(带有“pad”令牌)和每个
嵌入
的
大小
。现在,我想通过一个线性层来获得一个
大小
(32,128,1)的输出。也就是说,对于每一个
嵌入
在每个序列中的单词,我想把它变成一维的。我试着在我的网络中添加一个线性层,从50到1维,输出张量是所需的形状。所以我认为这是可行的,但是我想了解
PyT
浏览 12
提问于2022-02-17
得票数 0
回答已采纳
1
回答
如何将KERAS `MLP`模型转换为`Pythorch`模型
python
、
pytorch
、
mlp
acc = (y_hat.argmax(1) == y).float().mean() /usr/local/lib/python3.6/dist-packages/torch/
nn
acc = (y_hat.argmax(1) == y).float().mean() /usr/local/lib/python3.6/dist-packages/torch/
nn
scale_grad
浏览 11
提问于2021-02-03
得票数 0
2
回答
PyTorch
中多输出回归问题的RMSE损失
python
、
deep-learning
、
pytorch
、
artificial-intelligence
、
loss-function
我正在训练CNN架构,用
PyTorch
来解决回归问题,其中我的输出是20个值的张量。我计划用RMSE作为模型的损失函数,并尝试使用
PyTorch
的
nn
.MSELoss(),并使用torch.sqrt()作为平方根,但在得到结果后感到困惑,我会尽力解释原因。很明显,对于批处理
大小
的bs,输出张量的
维度
将是[bs , 20].I试图实现的,并由我自己实现RMSE函数: def loss_function (predicted_x , target ):如何用
nn
.MSELoss()实现
浏览 5
提问于2020-05-24
得票数 6
回答已采纳
1
回答
在
PyTorch
中为
嵌入
层分配自定义权重
machine-learning
、
deep-learning
、
pytorch
、
tensor
PyTorch
的
nn
.Embedding支持只为特定值手动设置
嵌入
权重吗?我知道我可以像这样设定整个
嵌入
层的权重-emb_layer.weights = torch.
nn
.Parameter(torch.from_numpy(weight_matrix)) 但是,
PyTorch
是否提供了任何简洁有效的方法来为一个特定的值设置
嵌入
权值?,只为
浏览 10
提问于2022-05-13
得票数 0
回答已采纳
1
回答
softmax的批处理推理不等于1
python
、
pytorch
、
inference
、
softmax
我正在使用
PyTorch
的增强算法。我注意到,使用Softmax的简单网络的批处理推理/预测并不等于1(甚至不接近1)。我附加了一个最低限度的工作代码,以便您可以复制它。我在这里错过了什么?numpy as npHIDDEN_SIZE = 9 torch.
nn
.Linear(obs_size, HIDDEN_SIZE),
浏览 1
提问于2021-04-29
得票数 1
回答已采纳
2
回答
tensorflow 2.X中的MaxPool1D API与MaxPool1d的区别是什么?
tensorflow
、
pytorch
GlobalMaxPool1D() import torch.
nn
as
nn
maxpool =
nn
.MaxPool1d(kernel_size=2) print(
浏览 10
提问于2021-09-21
得票数 0
2
回答
nn
.CrossEntropyLoss()的Py手电筒输入
pytorch
、
logistic-regression
我试图在一个简单的0,1标记数据集上在
PyTorch
中执行Logistic回归。标准或损失定义为:criterion =
nn
.CrossEntropyLoss()。RuntimeError: Dimension out of range (expected to be in range of [-1, 0], but got 1)import torch.
nn
as
nn
def __init_
浏览 1
提问于2018-12-26
得票数 11
1
回答
自定义数据加载器,用于
pytorch
中的图像和标签。损失函数中输入的困难
image
、
pytorch
、
dataloader
由于我已经创建了一个模型,该模型采用10个类别的n批数据,因此在损失计算期间,我需要我的标签
大小
为(n,10)。我不知道该怎么办。这是我的网络设计: class Net(
nn
.Module): self.conv1 =
nn
.Conv2d(1,32,5) self.conv2=
nn</em
浏览 13
提问于2020-04-01
得票数 0
1
回答
如何将焦炬adaptive_avg_pool2d法转换成角化法或荧光法
tensorflow
、
keras
、
deep-learning
、
pytorch
、
spatial-pooling
我不知道如何将
PyTorch
方法adaptive_avg_pool2d转换为Keras或TensorFlow。有人能帮忙吗?
PyTorch
方法我尝试使用平均池,在Keras中重新构造张量,但得到了错误: ValueError:新数组的总
大小
必须保持不变
浏览 4
提问于2018-10-03
得票数 4
1
回答
如何连接resnet输出和输入图像的原始
大小
?
deep-learning
、
pytorch
、
conv-neural-network
、
concatenation
我的想法是将经过预处理的resnet18输出和原始图像
大小
结合起来,因为我认为这是一个有价值的分类信息。在
PyTorch
中有什么方法可以这样做吗?
浏览 2
提问于2022-07-06
得票数 0
回答已采纳
1
回答
如何提高
PyTorch
张量?
pytorch
我有一个
PyTorch
张量,
大小
为(1, 4, 128, 128) (批处理、通道、高度、宽度),我想将它“向上”到(1, 3, 256, 256)。我想使用 (
nn
.functional中的一个函数)import torch.
nn
as
nn
x_0 =
nn
.functional.inter
浏览 14
提问于2022-10-24
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
pytorch深度学习如何入门?
从基础概念到实现,小白如何快速入门PyTorch
正式支持Transformer与TensorBoard,PyTorch 1.2新鲜出炉
大模型时代还不理解自注意力?这篇文章教你从头写代码实现
最完整的PyTorch数据科学家指南(1)
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券