腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
如
何在
PyTorch
中
做
批量
点
积
?
我想要应用两个张量的
点
积
,这样基本上就得到了[B, N]。这真的是可能的吗?
浏览 40
提问于2021-09-18
得票数 0
回答已采纳
1
回答
神经网络层激活的可视化
、
或我使用
PyTorch
和预先训练的resnet18模型。我只需要输入图像并为特定的层(例如Layer2.0.卷积2)获得激活。在预训练模型中指定了Layer2.0卷
积
2。简单地说,如何将一个代码链接到
PyTorch
?如何获取resnet18
PyTorch
中
的特定层以及如何获得输入图像的激活。我在tensorflow
中
尝试过这个,它成功了,但没有
PyTorch
。
浏览 2
提问于2019-11-24
得票数 3
回答已采纳
1
回答
如
何在
Pytorch
中
实现JSD损失上限?
、
、
我正在尝试用
pytorch
来“复制”,而且我还是个新手。我现在关心的是复制L_G (等式)。
浏览 4
提问于2017-12-13
得票数 3
1
回答
所有成对
点
积
pytorch
、
、
在
Pytorch
中
是否有一个内置函数可以有效地计算两个张量的所有成对
点
积
?
浏览 1
提问于2021-01-28
得票数 0
1
回答
如
何在
两个序列之间进行匹配?
我有两个小
批量
的序列:b = C.sequence.input_variable((10)) 我该怎么
做
呢?
浏览 1
提问于2017-08-14
得票数 0
1
回答
Keras与Py手电的不同矩阵增殖行为
、
、
、
、
我试图了解在DL框架
中
矩阵乘法是如
何在
二维上工作的,我偶然发现了一篇文章。他用Keras来解释同样的事情,这对他来说很管用。但是,当我试图在
Pytorch
中
复制相同的代码时,它会失败,与下面代码的输出
中
的错误一样。
浏览 7
提问于2021-01-10
得票数 1
回答已采纳
2
回答
对于较大的交叉或外部产品,NumPy比
PyTorch
更快
、
、
、
、
这样做比
PyTorch
更快。np.outer(a, b) 7.73 s ± 143 ms per loop (mean ± std. dev. of 7 runs, 1 loop each) 理想情况下,我希望在
PyTorch
中
完成计算。那么,如
何在
PyTorc
浏览 2
提问于2019-01-25
得票数 3
3
回答
将一个矩阵的每一行与另一个矩阵的每一行相乘
、
、
在numpy /
PyTorch
中
,我有两个矩阵,例如X=[[1,2],[3,4],[5,6]],Y=[[1,1],[2,2]]。我想将X的每一行与Y的每一行
点
积
,并得到结果。[[3, 6],[7, 14], [11,22]] 我如何做到这一
点
?,谢谢!
浏览 32
提问于2019-07-05
得票数 2
回答已采纳
2
回答
多GPU Cuda计算
、
、
例如,让我们以
点
积为例。我正在运行一个CPU线程,它创建了两个大的数组AN和BN。由于这些数组的大小,我需要将它们的
点
积
计算分成两个GPU,都是特斯拉M2050(计算能力2.0)。问题是,我需要在由CPU线程控制的do循环中多次计算这些
点
积
。每个
点
积
都需要前一个
点
积
的结果。我读到过创建两个不同的线程来分别控制两个不同的GPU(
如
cuda示例所述),但我不知道如
何在
它们之间同步和交换数据。还有别的选择
浏览 2
提问于2012-03-04
得票数 5
回答已采纳
1
回答
Tensorflow中常向量与具有批大小变量的
点
积
、
、
、
(dim = (2000,1500))命名为X 有什么办法可以用
点
或batch_dot来
做
吗?
浏览 9
提问于2021-02-25
得票数 0
1
回答
pytorch
中
的keras.layers.Masking相当于什么?
、
、
我有时间序列,我需要通过将零填充到矩阵
中
并在keras中使用keras.layers.Masking来保持序列长度固定到一个数字,我可以忽略这些填充的零进行进一步的计算,我想知道如
何在
Pytorch
中
做到这一
点
要么我需要在pytroch和
pytorch
中
做
填充,而
pytorch
不能处理可变长度的序列,这相当于
pytorch
中
keras的掩蔽层,或者如果
pytorch
处理不同长度的序
浏览 73
提问于2019-12-31
得票数 3
回答已采纳
1
回答
如
何在
蛋糕
中
做
矩阵之间的
点
积
?
、
、
、
我们首先计算(result = top_diff * bottom_data)作为caffe_cpu_gemm
中
的矩阵乘法,然后在weight和result之间做一个dot product。CblasRowMajor, TransA, TransB, M, N, K, alpha, A, lda, B,}非常感谢!如有任何建议,将不胜感激!
浏览 1
提问于2017-01-16
得票数 1
回答已采纳
2
回答
在
PyTorch
中计算等大小方阵行
点
积
的一种有效方法
假设我有两个大小相同的方阵A,B A = torch.tensor([[1, 2], [3, 4]]) B = torch.tensor([[1, 1], [1, 1]]) 我想要一个由行式
点
积
组成的张量,比如 tensor([3, 7]) # i.e. (1*1 + 2*1, 3*1 + 4*1) 在
PyTorch
中
实现这一目标的有效方法是什么?
浏览 13
提问于2021-10-25
得票数 1
回答已采纳
1
回答
PyTorch
中
不同形状张量的
点
积
、
、
p=torch.randn(2,3)我想做
点
积
,得到一个形状(2,4,5)的结果。 如何使用
PyTorch
来完成这一任务?
浏览 1
提问于2018-06-11
得票数 0
1
回答
RuntimeError:期望三维张量,但得到了二维张量作为论证
、
、
我有两个张量名称:'wy‘和'x',它们都是8码的: -80.1534]], grad_fn=<AddmmBackward>) 现在,我想做bmm乘以x*,如下所示:我有个错误:
浏览 3
提问于2022-05-19
得票数 1
回答已采纳
1
回答
RNN的损失丝毫没有减少
、
、
、
、
我已经尝试将权重初始化参数、学习率和批处理大小以及激活函数更改为ReLu仍然没有减少损失这是代码:import torchvision.datasets as dsetsfrom torch.autograd import Variable input_size = 28output_size = 10num_epochs =
浏览 6
提问于2018-02-26
得票数 1
2
回答
用Java确定高维共面(或共线)
点
、
、
在Java
中
,确定在6维
中
给出的
点
(其中有很多)是否与6维空间中的其他
点
位于同一平面上的最佳方法是什么?如
何在
2D和3D
中
这样
做
是很清楚的,但据我所知,一些概念,
如
交叉
积
等,并不是泛化到更高的维度(或仅限于特定的几个维度)。 它也将有助于找到一种方法,以回答同样的问题,在6D线上的
点
。更一般地说,我给出了一个更高维
点
云,我想确定这些点中是否有一些位于同一平面上。
浏览 4
提问于2014-12-01
得票数 2
回答已采纳
4
回答
LISP语言中的矢量计算
、
、
、
如
何在
lisp
中
执行矢量计算,例如矢量的大小、矢量的范数、距离(两
点
之间)、
点
积
、叉
积
等。 谢谢。
浏览 0
提问于2010-05-26
得票数 5
1
回答
沿维度的
点
积
、
I有两个形状B的张量,3,240,320,其中B代表
批量
大小3代表通道,240代表高度(H),320代表宽度(W)。我需要沿着通道维度(3个通道)找到点
积
,因此得到的张量将是形状B,1,240,320。我的张量在gpu中有float32元素(从cuda到backprop)。 你们能建议我怎么
做
吗? 谢谢!我需要取这两个向量的
点
积
。因此,得到的张量的维度是B,1,240,320
浏览 7
提问于2021-03-17
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习中numpy矩阵和Pytorch张量中的点积dot
一文读懂PyTorch张量基础
PyTorch VS TensorFlow谁最强?这是标星15000+Transformers库的运行结果
FaceBook开源PyTorch3D:基于PyTorch的新3D计算机视觉库
PyTorch 2.0 推理速度测试:与 TensorRT、ONNX Runtime 进行对比
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券