腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
用三通道整形
张量
时Numpy阵列尺寸失配
、
、
当我试图
重塑
数据集时,出现了以下问题:但是,当我检查数据集的
形状
时Convert images to numpy arrays for manipulation train_
浏览 5
提问于2020-10-15
得票数 1
回答已采纳
1
回答
如何
在一维减少到1的情况下
重塑
张量
?
、
、
、
、
我正在尝试使用加法和挤压/归一化将
张量
从30,50,32,64
重塑
为
30,50,32,1。当我使用Tensorflow
重塑
时,我得到以下错误。o = tf.reshape(o, shape=[30, 50, 32, 1]) ValueError:无法对
具有
3072000个元素的
张量
进行整形,以形成输入
形状
为
30,50,32,64,4且输入
张量
计算
为
部分
形状
的‘30,50,32,1
浏览 13
提问于2021-04-19
得票数 0
回答已采纳
1
回答
如何
改变图像
张量
的
形状
?这是可行的吗?
、
、
tf.Session(config=tf_config) as sess: detection_scores = sess.graph.get_tensor_by_name('detection_scores:
0</
浏览 5
提问于2019-08-05
得票数 0
1
回答
张量
与批处理数据和矩阵的乘法
、
给定一个
形状
为
[?, n, m]的
张量
A和一个
形状
为
[m, m]的
张量
W,我想将
形状
为
A的每个
张量
a与W相乘,得到一个
形状
为
[?, n, m]的
张量
。我认为我可以通过
重塑
W来塑造[tf.shape(A)[
0
], n, m],但这并不会产生shape [?, n, m]的
张量
。
浏览 0
提问于2017-07-29
得票数 1
回答已采纳
1
回答
张量
具有
形状
[?,
0
] --
如何
重塑
为
[?,]
、
、
、
、
当src
具有
shape [?]时,tf.gather(src, tf.where(src !=
0
))返回
具有
shape [?,
0
]的
张量
。我不确定一个维度的大小
如何
为
0
,我尤其不确定
如何
将
张量
改回原处。我在文档中也没有找到任何解释这一点的东西。 我尝试tf.transpose(tensor)[
0
],但转置
张量
的第一维大小
为
0
,无法访问!
浏览 5
提问于2018-07-30
得票数 1
回答已采纳
2
回答
Pytorch
如何
在不改变单个滤镜
形状
的情况下
重塑
/减少滤镜数量
、
对于
形状
的3D
张量
(滤镜的数量,高度,宽度),
如何
通过
重塑
来减少滤镜的数量,从而将原始滤镜保持在一起作为整个块? 假设新的大小
具有
选择的尺寸,使得整数个原始过滤器可以并排适合于其中一个新过滤器。因此,可以将(4,2,2)的原始大小
重塑
为
(2,2,4)。 对并排
重塑
的视觉解释,您可以看到标准
重塑
将改变各个滤镜
形状
: ? 我认为在执行
重塑
之后重新排列
张量
值会更容易,但无法获得pyto
浏览 43
提问于2020-12-19
得票数 2
回答已采纳
1
回答
Tensorflow -使用tf.losses.hinge_loss导致
形状
不兼容的错误
、
、
我修改了下面的代码,只提取了logits
张量
的1列: tf.reduce_mean(tf.losses .hinge_loss
浏览 6
提问于2017-11-08
得票数 1
回答已采纳
1
回答
如何
重塑
C++中的
张量
,就像咖啡豆一样
、
、
我想在C++中使用动态
形状
的
张量
。例如,我想在tensorflow中添加一个新的op,但我不知道开始时输出的
形状
。如果我使用Caffe,我可以首先将输出blob
重塑
为
我将使用的最大大小,最后
重塑
为
实际大小。
如何
使用tensorflow的
张量
做到这一点?
浏览 1
提问于2016-12-09
得票数 0
1
回答
如何
将torch
张量
更改为与另一个
张量
连接
我正在尝试将数值数据的
张量
与resnet-50模型的输出
张量
连接起来。该模型的输出是
张量
形状
torch.Size([10,1000]),数值数据是
张量
形状
torch.Size([10, 110528,8]),其中10是批量大小,110528是数据帧意义上的观测值的数量,8我需要将数值
张量
重塑
为
torch.Size([10,8]),这样它才能正确连接。 我该
如何
重塑
张量
呢?
浏览 31
提问于2019-12-27
得票数 0
回答已采纳
1
回答
将Numpy中的
张量
从2D
重塑
为
3D
、
、
、
我使用的是EMNIST数据集,并
具有
以下变量X_train import scipy .iodata = emnist ['dataset'] X_train = data ['train'][
0
,
0
]['images'][
0
,
0
] X_train的
形状
为
浏览 18
提问于2020-06-16
得票数 0
回答已采纳
1
回答
为什么在尝试将批处理从Tensorflow Dataset API传递给我的会话操作时,会出现
形状
错误?
、
我正在处理转换到Dataset API中的一个问题,我想我只是还没有足够的API经验来了解
如何
处理下面的情况。我们目前使用排队和批处理来进行图像增强。然而,当我开始调用迭代器next_batch方法,然后将这些值传递给get_summary时,我现在得到了一个
形状
方面的错误。_accuracy,feed_dict=feed_dict) ValueError:无法
为
具有
形状
'(?,1)的
张量
'ph_input_labels:
0
‘提供
形状</em
浏览 0
提问于2018-05-09
得票数 0
回答已采纳
1
回答
在Tensorflow中使用2D卷积处理4D输入
、
、
、
我很难理解2D Conv计算是
如何
在4D输入上完成的。基本上,这就是情况,我有一个图像的高度,宽度,通道= 128,128,103。
浏览 3
提问于2021-09-06
得票数 0
1
回答
Tensorflow中的拉链和整形
、
问题:
如何
将两者拉链,使由此产生的
张量
形状
为
?,20,4096,,但同时也是,使得a的ith元素就在b的ith元素之前。列表示例:b = [2, 4, 6] 现在我想要一个
张量
,它看起来像[1, 2, 3, 4, 5, 6]和,而不是 [1, 3, 5, 2, 4, 6],这就是如果我用tf.stack或者一个更普遍的问题是,你怎么知道tf.re
浏览 1
提问于2018-02-20
得票数 0
回答已采纳
1
回答
给定一批n个图像,
如何
在tensorflow中将每个图像标量乘以不同的标量?
假设我们有两个TensorFlow
张量
:input和weights。我尝试使用
具有
1x1核的tf.nn.conv2D,但我不知道
如何
将秩1权重
张量
重塑
为
所需的秩4核
张量
。 任何帮助都将不胜感激。
浏览 2
提问于2019-10-20
得票数 1
2
回答
用标量
张量
重塑
TensorFlow中的
张量
、
、
我有一个
张量
,
形状
为
(T, n, k),X。tf.reshape(X, (tf.shape[
0
] * tf.shape[1], tf.shape[2])) 有什么想法吗?
浏览 0
提问于2015-11-14
得票数 2
1
回答
运行到PyTorch神经网络的forward()方法时输出的不同
形状
、
class Model(nn.Module): super(Modeloptimizer.zero_grad() optimizer.step()C:\Users\hp\anaco
浏览 0
提问于2021-10-18
得票数 0
1
回答
Keras
重塑
图层添加了额外的维度?
、
、
在下面的示例中,我认为最后一行应该返回
形状
为
[5,1]的
张量
对象。但是,会抛出一个错误,声明
形状
[5]
张量
不能
重塑
为
大小[5,5,1]
张量
。有没有人能解释一下
重塑
图层是
如何
工作的(也就是为什么它会增加额外的暗度),以及
如何
将向量
重塑
为
矩阵的过程? 谢谢
浏览 1
提问于2018-08-10
得票数 5
回答已采纳
2
回答
pytorch视图
张量
与一维约简
、
、
所以我有一个4d
张量
,
形状
是[4,1,128,678],我想把它看成/
重塑
为
[4,678,128]。我必须对多个
张量
这样做,因为最后一个
形状
值678并不总是知道,而且可能是不同的,所以[4,1,128,575]也应该转到[4,575,128]。 知道什么是转换
张量
的最优运算吗?视图/
重塑
?
浏览 4
提问于2020-10-10
得票数 0
回答已采纳
1
回答
,100]
重塑
为
[batch_size,?,100]
、
outputs = tf.reshape(outputs, [batch_size, None, word_dimension]) 或者,还有其他方法可以从
具有
形状
[batch_size, sequence_length
浏览 1
提问于2019-05-24
得票数 1
回答已采纳
1
回答
如何
在TensorFlowSharp中
重塑
张量
、
、
现在,我需要将
形状
为
32,64,1的
张量
重塑
为
形状
为
1,2048的新
张量
,但当我引用正式API文档时,用法似乎如下:问题是,我不知道
如何
用TFOutput的方式表达我所需要的
形状
,任何建议都会被感激:)!
浏览 2
提问于2017-08-18
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
TensorFlow 小抄(一)
计算机如何理解 1 为开和 0 为关?
PyTorch的10个基本张量操作
《Deep Learning with Python》第二章 2.2 神经网络的数据表示(1)
Pytorch中张量的高级选择操作
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券