腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
两个
3D
张量
之间
的
点
积
python
、
numpy
、
tensorflow
、
tensordot
我有
两个
三维
张量
,具有形状[B,N,S]
的
张量
A和同样具有形状[B,N,S]
的
张量
B。我想要得到
的
是第三个
张量
形状,我希望它是[B,B,N] C,这里
的
元素是C[i,j,k] = np.dot(A[i,k,:], B[j,k,:]。我也想实现这是一种矢量化
的
方式。一些进一步
的
信息:
两个
张量
A和B具有形状[Batch_size, Num_vectors, Vecto
浏览 43
提问于2019-06-26
得票数 4
回答已采纳
1
回答
RuntimeError:期望三维
张量
,但得到了二维
张量
作为论证
python
、
nlp
、
allennlp
我有
两个
张量
名称:'wy‘和'x',它们都是8码
的
:8*8是可能
的
。
浏览 3
提问于2022-05-19
得票数 1
回答已采纳
2
回答
Tensorflow:
3d
张量
和矩阵
之间
的
乘法
python
、
tensorflow
我正在尝试计算三维
张量
和二维
张量
之间
的
点
积
。我不确定这是不是正确
的
方法。具体地说,我想将矩阵10,512与向量1,512相乘,但在具有
3d
张量
和矩阵
的
情况下,我希望找到一种有效
的
方法。
浏览 1
提问于2018-04-16
得票数 0
1
回答
三维
张量
上
的
Keras
点
/
点
层行为
python
、
python-3.x
、
keras
、
keras-layer
、
keras-2
指出:轴:整数、轴或轴
的
整数或元组,用来取
点
积
。我
浏览 1
提问于2018-08-02
得票数 6
回答已采纳
2
回答
Pytorch 1D
张量
期望但得到2D
张量
python
、
machine-learning
、
neural-network
、
pytorch
、
tensor
输入
张量
为[400,3]形,target_tensor为[400]形。我在取权导数
的
过程中出现了误差。
浏览 5
提问于2021-03-20
得票数 2
回答已采纳
1
回答
PyTorch:如何使用`torch.einsum()`查找嵌套
张量
的
点
积
和另一个
张量
之间
的
迹
python
、
pytorch
、
trace
、
numpy-einsum
假设我有一个嵌套
的
张量
A:X = np.array([[1, 3, 2], [2, 3, 5], [1, 2, 3]]) X = torch.DoubleTensor如何使用torch.einsum()查找A中每个嵌套
张量
和
张量
B
的
点
积
之间
的
跟踪值。A中第一个嵌套
张量
之间
的
点
积
的
跟踪
浏览 15
提问于2020-08-02
得票数 2
回答已采纳
1
回答
使用tensordot获取意外形状
python-3.x
、
tensorflow
、
deep-learning
、
tensor
、
attention-model
当我使用下面的代码在这
两个
张量
之间
进行tf.tensorbot时,我尝试在
两个
形状
张量
(2000,1,64) (2000,30,64)
之间
进行
点
积
运算 test = tf.tensordot(enc_op,tf.transpose(query_with_time_axis),axes=1) 我得到
的
输出形状是(2000,30,1,2000),但我必须得到(2000,30,1)
的
形状。
浏览 11
提问于2020-06-20
得票数 0
回答已采纳
1
回答
tf.keras.backend.dot是做什么
的
?
c
、
keras
、
operation
tmp += first[j]*second[i]; result[i] = tmp;}是这样
的
吗
浏览 0
提问于2019-06-11
得票数 1
回答已采纳
6
回答
计算二维矢量
的
叉
积
language-agnostic
、
math
、
vector
、
2d
来自维基百科:我已经看到了
两个
实现。一个返回新
的
向量(但只接受单个向量),另一个返回标量(但是
两个
向量
之间
的
计算)。返回一个向量): Vector2D CrossProduct(c
浏览 21
提问于2008-10-28
得票数 104
回答已采纳
2
回答
三维或更多维数组
的
一些有趣/实用
的
用途是什么?
arrays
、
data-structures
在使用数组时,我通常只使用一维或二维数组--很少使用三维或更多
的
数组。我只是有点好奇,三维或更多维数组
的
一些有趣/实用
的
用途是什么?您是否使用过四维或更多维
的
数组?我大学里
的
一位教授在一个程序中使用了一个六维数组,他在class...ever中演示了比这更多
的
东西?
浏览 2
提问于2011-02-09
得票数 5
回答已采纳
2
回答
一种使用numpy更快地计算批量和时间维空间转换
的
方法
python
、
numpy
对于机器学习任务,我必须计算时间序列中每一帧
的
3D
坐标的空间变换(z轴上
的
旋转)。此外,我还有一批这样
的
时间序列。我想尽可能减少for循环
的
使用。假设我有一个形状旋转矩阵(batch_size,3,3)和一个形状
张量
(batch_size,seq_length,n_coordinates,3)。我目前正在做
的
是一个double for循环时间和批量维度,并计算每个
3D
坐标的
点
积
。b, t, :, :] = np.do
浏览 33
提问于2019-05-14
得票数 3
回答已采纳
1
回答
了解keras层中
的
形状
tensorflow
、
keras
、
deep-learning
、
neural-network
、
tensorflow2.0
我正在学习Tensorflow和Keras来实现LSTM many-to-many模型,其中输入序列
的
长度等于输出序列
的
长度。size_batch, rnn_units,我很难理解每一层
的
输入和输出
的
形状类似地,稍后Bidirectional LSTM
的
输出形状是(30, 50, 75)。这将是使用200单位
的
下一个Dense Layer
的
输入。但是Dense Lay
浏览 1
提问于2021-03-29
得票数 1
1
回答
所有成对
点
积
pytorch
pytorch
、
tensor
、
dot-product
在Pytorch中是否有一个内置函数可以有效地计算
两个
张量
的
所有成对
点
积
?例如:
张量
形状( B NxD) 输出
张量
C (shape NxN)使得C_i,j = torch.dot(A_i, B_j)?
浏览 1
提问于2021-01-28
得票数 0
1
回答
沿维度
的
点
积
python
、
pytorch
I有
两个
形状B
的
张量
,3,240,320,其中B代表批量大小3代表通道,240代表高度(H),320代表宽度(W)。我需要沿着通道维度(3个通道)找到点
积
,因此得到
的
张量
将是形状B,1,240,320。我
的
张量
在gpu中有float32元素(从cuda到backprop)。 你们能建议我怎么做吗? 谢谢!因此,从上面来看,第一个
张量
和第二个
张量
都是通用
的
。如果我们保持B,H,W不变,我们得到一个一维
浏览 7
提问于2021-03-17
得票数 0
回答已采纳
2
回答
如何在PyTorch中做批量
点
积
?
pytorch
我有一个大小为[B, N, 3]
的
输入
张量
和一个大小为[N, 3]
的
测试
张量
。我想要应用
两个
张量
的
点
积
,这样基本上就得到了[B, N]。这真的是可能
的
吗?
浏览 40
提问于2021-09-18
得票数 0
回答已采纳
2
回答
TensorFlow中
的
双线性
张量
积
tensorflow
我正在重新实现,关键操作是双线性
张量
积
。我几乎不知道这是什么意思,但这篇论文有一个很好
的
小图形,我理解它。 基本上,给定
3D
张量
W,将其切片为矩阵,对于第j个切片(矩阵),将其每边乘以e_1和e_2,得到一个标量,这是结果向量(此操作
的
输出)中
的
第j个条目。所以我想计算d维向量e_1,d x d x k
张量
,W,和另一个d维向量e_2
的
乘积。这个产品可以像现在一样用TensorFlow简洁地表达吗,或者我必须以某种方式定义我自
浏览 127
提问于2015-12-06
得票数 16
回答已采纳
1
回答
角角模型层
的
输出形状应该是什么?
python
、
tensorflow
、
keras
我对角化层
的
输出形状有点困惑。我创建了一个样本keras模型,并显示了它
的
摘要。============================Trainable params: 445我认为最后一层
的
形状应该是因为酶hidden_layers有64个神经元作为last_layer
的
输入
浏览 1
提问于2021-11-23
得票数 0
回答已采纳
2
回答
为什么Numpy矩阵乘法运算称为“
点
”?
python
、
numpy
我对Numpy函数点:
的
命名有点困惑有人能解决“
点
”这个词
的
这两种用法吗?
浏览 5
提问于2018-01-16
得票数 6
回答已采纳
1
回答
torch.mm,torch.matmul和torch.mul有什么区别?
python-3.x
、
pytorch
在阅读了pytorch文档之后,我仍然需要帮助来理解torch.mm、torch.matmul和torch.mul
之间
的
区别。由于我不完全理解它们,所以我无法简明地解释这一
点
。0.3450], [0.5708, 1.9957]])print(torch.matmul(A,B))产生不同
的
输出torch.mm不再执行矩阵乘法(广播和执行按元素方向
的
乘法),而其他
两个
仍然执行矩阵乘法。我认为torch.
浏览 5
提问于2022-10-02
得票数 2
1
回答
舍入误差:处理对极小分量向量
的
运算。
python
、
arrays
、
numpy
、
torch
、
arbitrary-precision
假设有一些向量(可以是torch
张量
或numpy数组),每个分量都很小(~ 1e-10)。 假设我们想要计算这些向量之一
的
范数(或者它们
之间
的
点
积
)。此外,使用float64数据类型,每个组件
的
精度将是~1e-10,而
两个
分量
的
乘积(在范数/
点
积
计算期间)可以很容易地达到~1e-20,从而造成许多舍入误差,这些误差加在一起会得到一个错误
的
结果。(例如,是否存在为这些操作定
浏览 8
提问于2021-10-31
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习中numpy矩阵和Pytorch张量中的点积dot
神经网络基础
《深度学习》读书笔记系列——线性代数1
线性代数基础及矩阵求导
一文读懂PyTorch张量基础
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券