腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(3748)
视频
沙龙
1
回答
如何
批量
获取
PyTorch
张量
的
直方图
?
、
、
、
有没有办法
批量
获得火炬
张量
的
直方图
?例如:X是形状(64, 224, 224)
的
张量
# x will have shape of (64, 256) x = batch_histogram(x, bins=256, min=0, max
浏览 32
提问于2021-10-03
得票数 2
1
回答
在
pytorch
中屏蔽和计算通过具有线性输出层
的
RNN发送
的
填充批次
的
损失
、
虽然这是一个典型
的
用例,但在通过RNN发送时,我找不到一个简单而明确
的
指南来说明在
pytorch
中计算填充小
批量
的
损失
的
规范方法是什么。我认为一个规范
的
管道可能是: 1)
pytorch
RNN需要形状
的
填充
批量
张量
:(max_seq_len,batch_size,emb_size) 2)所以我们给出一个嵌入层,例如这个
张量
: tensor
批量
大小为2。嵌入层将使
浏览 18
提问于2019-12-12
得票数 2
回答已采纳
1
回答
更改数组形状/
pytorch
预处理/ python
、
、
、
、
我正在尝试
pytorch
,并试图在GPU上运行它,但出现了这样
的
错误这就是我重塑数组
的
方式。= []: return {'img': img, 'mask': mask
浏览 1
提问于2018-12-03
得票数 0
1
回答
双
张量
的
火炬传播积
、
、
、
、
我想乘两个
张量
,这是我得到
的
: 第一个索引用于
批量
大小。我想要做
的
基本上是从B - (20, 1, 110)取每个
张量
,用它,我想乘以每个A
张量
(20, n, 110)。最后是
张量
AB,它
的
形状是(20, 96 * 16, 110)。所以我想通过用A广播B来乘以每个
张量
。在
PyTorch
中有
浏览 1
提问于2018-06-22
得票数 2
回答已采纳
2
回答
将
PyTorch
张量
与scikit-learn结合使用
、
、
、
、
我可以使用
PyTorch
张量
代替NumPy数组,同时使用scikit学习吗?我尝试了一些像train_test_split和StandardScalar这样
的
学习方法,但是当我使用
PyTorch
张量
而不是NumPy数组时,有什么我应该知道
的
吗?根据上
的
这个问题: 这是否意味着使用
PyTorch
张量</e
浏览 2
提问于2021-11-18
得票数 3
回答已采纳
1
回答
如何
在
PyTorch
中计算注意力得分和编码器输出
的
加权平均值?
、
、
、
、
我目前正在尝试在
PyTorch
中实现一个LSTM,只要涉及到处理
批量
大小和多维
张量
,我就会突然忘记线性代数是
如何
工作
的
。我有一个大小为64,19,1
的
注意力分数
张量
,其中64是
批量
大小,19是源句
的
最大长度。我还有一个编码器输出
的
张量
(隐藏状态);它
的
形状是64、19、256,其中256是隐藏状态
的
维度。计算上下文向量/注意力得分和编码器隐藏状态
浏览 69
提问于2021-10-18
得票数 0
1
回答
基于BERT
的
CNN卷积和Maxpooling
、
、
、
、
我正在尝试通过插入CNN层来微调一个预先训练好
的
BERT模型(huggingface transformers)。在该模型中,使用了所有变压器编码器
的
输出,而不仅仅是最新变压器编码器
的
输出。当batch size = 32时,有13层Transformer编码器,每一层都作为编码
的
标记化文本
的
输入64,768,并输出相同维度
的
编码。(64是标记化中
的
最大长度) 我想对每个变压器
的
输出矩阵(64,768)分别执行卷积,然后对该卷积
的
输出
浏览 202
提问于2020-12-25
得票数 1
1
回答
为什么在nn.Module中返回
pyTorch
强化学习示例中
的
self.head(x.view(x.size(0),-1
、
、
我知道平衡极点
的
例子需要2个输出。以下是self.head
的
输出 x = Linear(in_features=512, out_features=2, bias=True) 当我运行
的
时候我从代码中
的
注释中了解到它正在返回: Returns tensor([left0exp,right0exp...])。但是,
如何
将torch.Size(121,32,2,8)
的
x缩减为大小为2
的
张量<
浏览 0
提问于2020-06-28
得票数 0
1
回答
尝试将简单卷积模型转换为CoreML时出错
、
、
我正在尝试转换一个简单
的
GAN生成器(来自ClusterGAN): self.name = 'generator'self.n_c = n_c: provided number axes 2 not supported时,onnx-coreml失败 我认为这是BatchNorm2d,所以我尝试重塑和应用BatchNorm1d,但我得到了相同
的
错误我很惊讶我在转换如此简单
的
模型时遇到了问题,所以我假设我肯定遗漏了一些明显
的
东西。 我
的</
浏览 30
提问于2020-03-30
得票数 1
1
回答
Pytorch
整形以修改forward()中
的
批处理大小
、
、
我有一个形状
张量
,比如:[4,10],其中4是
批量
大小,10是我
的
输入样本缓冲区
的
长度。现在,我知道它实际上是[4,5+5],即输入样本缓冲区由两个长度为5
的
窗口组成,这两个窗口可以独立处理,最好是并行处理。我所做
的
是,在我
的
模型
的
forward()中,我首先将
张量
重塑为8,5,在其上运行我
的
层,然后将其重塑回4,-1,然后返回。我希望
Pytorch
能够在每个窗口(或者说子批处理)上并行运行我<em
浏览 1
提问于2020-10-15
得票数 0
1
回答
对火炬
张量
的
迭代
、
、
、
什么是最好和最快
的
方式来迭代
张量
。令人费解
的
是,为什么我要得到
张量
而不是值。x in t]但却期望这样
的
行为t.numpy() ]如果可能的话,我宁愿不改做胖
的
?
浏览 2
提问于2022-09-15
得票数 2
回答已采纳
1
回答
如何
用numpy数据和批次大小来训练火炬模型?
、
我正在学习火把
的
基础知识,并考虑创建一个简单
的
4层神经网络与辍学,以训练IRIS数据集进行分类。在参考了许多教程之后,我编写了这段代码。我想设置20
的
批次大小。我该怎么做?
浏览 4
提问于2017-09-12
得票数 5
回答已采纳
1
回答
如何
在
PyTorch
中正确实现Seq2Seq LSTM
的
填充?
、
、
、
、
在这个中,他们没有使用填充,尽管输入和输出
的
长度是可变
的
。它似乎工作得很好,但
如何
工作呢?如果输入
的
长度是可变
的
,我们不应该实现填充吗?怎样做才是正确
的
呢? 谢谢。
浏览 0
提问于2020-02-21
得票数 0
1
回答
PyTorch
BatchNorm1D、2D、3D和TensorFlow/Keras BatchNormalization
、
、
我想在TensorFlow中像在
PyTorch
中一样使用BatchNorm1D。我注意到TF中
的
BatchNormalization()默认使用axis=-1。与在
PyTorch
中一样,哪个轴是BatchNorm1D, BatchNorm2D, BatchNorm3D
的
正确轴?
浏览 7
提问于2020-11-01
得票数 0
2
回答
在
Pytorch
中裁剪一小批图像--每个图像都不同
我有一个名为input
的
张量
,维度为64x21x21。它是一个小
批量
的
64个图像,每个21x21像素。我想把每张图片裁剪到11x11像素。所以我想要
的
输出
张量
的
维度是64x11x11。我想在不同
的
“中心像素”周围裁剪每个图像。中心像素由维度为64x2
的
名为center
的
二维长
张量
给出。对于图像i,center[i][0]给出行索引,center[i][1]给出输出中应该位于中心
的
像
浏览 1
提问于2018-01-13
得票数 4
1
回答
使用模型对
批量
与使用
pytorch
的
个体进行推断时
的
不同结果
、
、
、
我有一个神经网络,它接受维度(batch_size,100,1,1)
的
输入
张量
,并产生维度(batch_size,3,64,64)
的
输出
张量
。当使用模型对两个元素进行
批量
推断时,我会得到不同
的
结果,而对单个元素进行推断时,结果会有所不同。 使用下面的代码,我初始化了一个尺寸为(2,100,1,1)
的
pytorch
张量
。我将此
张量
传递给模型,并
获取
模型输出
的
第一个元素,并将其存储在变
浏览 41
提问于2020-08-14
得票数 4
回答已采纳
2
回答
我不理解在
pytorch
中训练分类器
的
代码
我是
Pytorch
的
新手,对数据结构感到非常困惑。
浏览 0
提问于2019-04-08
得票数 0
3
回答
从作为
张量
给定
的
索引创建一个热向量
我有一个大小为4 x 6
的
张量
,其中4是
批量
大小,6是序列长度。序列向量
的
每个元素都是某种索引(0到n)。我想创建一个4 x 6 x n
张量
,其中第三维
的
向量将是索引
的
一个热编码,这意味着我想在指定
的
索引中放置1,其余
的
值将为零。例如,我有以下
张量
:[1, 4, 6, 7, 3, 3],[11, 12, 15, 2, 5,
浏览 0
提问于2017-06-09
得票数 17
回答已采纳
2
回答
如何
将
Pytorch
张量
拆分成不同
的
维度?
、
、
我是
Pytorch
的
新手。 假设我有一个形状为torch.size([1, 25200, 11])
的
张量
我想把它分成3个较小
的
张量
,每个
张量
都有第一个形状。非常感谢你
的
帮助。谢谢 解释这些数字: 80x80x3 = 19200 40x40x3 = 4800 20x20x3=1200,将这些结果相加,我们得到25200,1是
批量
大小,11是类别+ xywh
浏览 15
提问于2021-06-22
得票数 1
回答已采纳
1
回答
用于可变尺寸输入
的
小型
批量
培训
、
、
、
、
我是
PyTorch
和RNN
的
新手,所以我很困惑
如何
为我拥有的数据实现小型
批量
培训。有更多
的
这些数据,但我想保持简单,所以我只能理解
如何
实现小
批量
培训部分。我是否必须将序列压缩到最大大小,并创建一个包含所有元素
的
更大尺寸
的
新
张量
矩阵?batch_size, shuffle=True) #do stuff using LSTM and/or GRU models
浏览 3
提问于2018-02-14
得票数 7
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Pytorch中张量的高级选择操作
PyTorch的10个基本张量操作
深度学习中numpy矩阵和Pytorch张量中的点积dot
超原版速度110倍,针对PyTorch的CPU到GPU张量迁移工具开源
超原版速度110倍,针对PyTorch的CPU到GPU张量迁移工具开源
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券