首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

PyTorch入门笔记-nonzero选择函数

2D 张量;如果 as_tuple 为 True,对于输入张量每一个维度都返回一个 1D 张量1D 张量元素是沿着该维度上非零元素索引; 参数 as_tuple 取值决定了 nonzero...张量为例,简单分析当 as_tuple = False 时 nonzero 函数,此时 2D 输入张量为: 2D 输入张量可以看成大家熟悉矩阵,通过矩阵行和可以索引矩阵任意元素,此时矩阵中有...as_tuple = False 时代码进行了两处修改: as_tuple 参数值 False 改成 True; 删除了打印输出张量形状语句,因为当 as_tuple = True 时,nonzero...此时 nonzero 函数返回元组为 (tensor([0, 1, 1]), tensor([1, 0, 1])),元组两个 1D 张量分别对应矩阵行和: 对应矩阵行 1D 张量 3 个元素值分别对应矩阵...3 个非零元素行索引; 对应矩阵列 1D 张量 3 个元素值分别对应矩阵 3 个非零元素索引; 此时矩阵中有 3 个非零元素: 1: 位于矩阵第一行第二,index_1_row =

5.9K31

PyTorch入门笔记-张量相乘matmul函数02

torch.matmul 函数根据传入参数张量维度有很多重载函数。为了方便后续介绍,传入 input 参数张量命名为 a,而传入 other 参数张量命名为 b。...若 a 为 1D 张量,b 为 2D 张量,torch.matmul 函数: 首先,在 1D 张量 a 前面插入一个长度为 1 新维度变成 2D 张量; 然后,在满足第一个 2D 张量(矩阵)数...(column)和第二个 2D 张量(矩阵)行数(row)相同条件下,两个 2D 张量矩阵乘积,否则会抛出错误; 最后,矩阵乘积结果中长度为 1 维度(前面插入长度为 1 新维度)删除作为最终...张量(矩阵)数(column)和第二个 2D 张量(矩阵)行数(row)相同条件下,两个 2D 张量矩阵乘积,否则会抛出错误; 最后,矩阵乘积结果中长度为 1 维度(后面插入长度为 1...具体细节和 a 为 1D 张量,b 为 2D 张量情况差不多,只不过,一个在 1D 张量前面插入长度为 1 新维度(a 为 1D 张量,b 为 2D 张量),另一个是在 1D 张量后面插入长度为

5.6K10
您找到你想要的搜索结果了吗?
是的
没有找到

PyTorch入门笔记-索引和切片

[j5v6pjj2sj.png] 前言 切片其实也是索引操作,所以切片经常被称为切片索引,为了更方便叙述,本文切片称为切片索引。索引和切片操作可以帮助我们快速提取张量部分数据。 1....>>> import torch >>> # 构造形状为3x3,元素值0到82D张量 >>> a = torch.arange(0, 9).view([3, 3]) >>> print(a) tensor...>>> print(a[0][1]) # 索引张量a第一行和第二 tensor(1) 变量 a 是一个(3 x 3) 2D 张量,即张量 a 包含两个维度: 第一个维度,在 2D 张量称为行维度...; 第二个维度,在 2D 张量称为列维度; a[0]表示在张量 a 行维度上取索引号为 0 元素(第一行);a[0][1]表示在张量 a 行维度上取索引号为 0 元素(第一行)以及在列维度上取索引号为...[k]每一个[]都表示张量一个维度,左边开始维度依次增加,而[]元素值代表对应维度索引号,「此时索引号可以为负数,相当于后向前索引。」

3.3K20

深度学习-数学基础

在训练和测试过程需要监控指标(metric):如果是分类问题一般预测正确占总预测比例 神经网络数学术语 张量 张量:数据维度或者是数据容器 标量:仅包含一个数字张量叫作标量;切记是一个数字...,不是一维数组,也称为0D张量 向量:数字组成数组叫作向量(vector)或一维张量1D 张量) 矩阵:2维张量,也称为2D张量 3D张量:若干个2D张量组成3D张量 4D张量:若干个3D张量组成...,一般为数字,同时也存在字符串情况 张量现实展示 向量数据:2D 张量,形状为 (样本, 特征)。...点积运算 一般用.来表示,它和逐元素运算不同在于点积运算在乘法之后还要进行加法运算,因此两个向量点积最终生成是一个标量,而1个矩阵和1个向量点积,生成一个向量 张量变形 张量变形是指改变张量行和...,以得到想要形状,如(2,3)2D张量,通过张量变形重组为(6,)向量 神经网络计算原理 神经网络是由一个个层组合而成,每个层都会对输入进行添加权重,对于计算开始时间,神经网络会给出一个初始化

1K10

TensorNetwork,一个能够提高张量计算效率开源库

我们在一系列论文中介绍了TensorNetwork,其中第一篇介绍了新库及其API,并概述了非物理学观众张量网络。在我们第二篇论文中,我们关注物理学特定用例,展示了使用GPU速度。...在这一点上,开始使用图解符号很有用,其中一个简单地绘制一个圆圈(或其他形状),其中有多条边,它出来数量与张量顺序相同。在这种表示法,标量只是一个圆,一个矢量有一条边,一个矩阵有两条边等。...张量图表符号 以这种方式表示张量好处是简洁地编码数学运算,例如,矩阵乘以矢量以产生另一个矢量,或者两个矢量相乘以产生标量。这些都是称为张量收缩更一般概念例子。 ? 张量收缩图解表示法。...例如,流行矩阵乘积状态(MPS)网络根据Nm个较小张量来写入T,使得参数总数仅在N是线性,而不是指数。 ?...在我们第二篇论文中,我们描述了一种树张量网络(TTN)算法,用于近似周期性量子自旋链(1D)或薄环面(2D)上晶格模型基态,并使用TensorNetwork实现该算法。

1.4K20

PyTorch入门笔记-gather选择函数

简单介绍完 gather 函数之后,来看一个简单小例子:一次下面 2D 张量中所有红色元素采集出来。...[x215h32ivd.png] 2D 张量可以看成矩阵,2D 张量第一个维度为矩阵行 (dim = 0),2D 张量第二个维度为矩阵 (dim = 1),左向右依次看三个红色元素在矩阵具体位置...假设此时索引规律是已知并且固定,我们只需要给出这些红色元素在行上索引号就可以这些红色元素全部采集出来。 至此,对于这个 2D 张量小例子,已知了输入张量和指定行上索引号。...如果按照从上到下来看三个红色元素,采集元素顺序和从前面左向右看时候不同,此时采集元素顺序为 1, 5, 6,现在看看此时这三个红色元素在矩阵具体位置: 1: 第 0 行第 1 5: 第...1 行第 2 6: 第 2 行第 0 现在行索引号是有规律 0 到 2 逐渐递增。

3.5K30

算法金 | 这次终于能把张量(Tensor)搞清楚了!

PyTorch 张量操作与应用2.1 创建 PyTorch 张量PyTorch 提供了多种创建张量方法,最基础是使用 torch.tensor() 函数,它可以 Python 列表或 NumPy...# 创建两个形状不同张量a = torch.ones((3, 1))b = torch.ones((1, 5))# 使用广播机制进行加法2.5 张量索引与切片索引和切片是访问和修改张量特定元素基本操作...# 创建一个 2D 张量tensor_2d = torch.tensor([[1, 2, 3], [4, 5, 6]])# 索引访问第二行第二元素print(tensor_2d[1, 1])# 切片访问第一行所有元素...# 创建一个 1D 张量tensor_1d = torch.arange(0, 6)# 重塑为 2x3 2D 张量reshaped_tensor = tensor_1d.view(2, 3)# 使用...与向量、矩阵关系:张量是向量和矩阵高维推广,能够表示更复杂数据结构。PyTorch 张量操作与应用创建张量:介绍了使用 torch.tensor() 和 NumPy 数组创建张量方法。

10800

文本序列深度学习

在此设置随机单词向量开始,然后以与神经网络权重相同方式学习单词向量; - 加载到模型词嵌入,这些词是使用不同机器学习任务预先计算出来,而不是正在尝试解决任务。...网络将会学习到10000个单词8维词嵌入空间,每个输入整数序列(2D)转换成嵌入层序列(3D浮点张量),平铺成2D张量,添加一个Dense层做分类。...但是这些解释并没有多大意义,因为这些操作实际上做是由参数化权重决定;并且权重以端到端方式学习,每轮训练开始—不可能将这个或那个操作归功于特定目的。...序列数据上1D卷积 2D卷积在每个小patch上进行卷积操作,和2D卷积类似,1D卷积在局部1D Patch(连续子序列)上进行卷积操作。 这样一维卷积可以识别序列局部特征模式。...序列数据1D池化 2D池化操作具有1D等效形式:输入提取1D patch(子序列)并输出最大值(最大池化)或平均值(平均池化)。

3.6K10

PyTorch入门笔记-创建已知分布张量

「虽然传入两个张量元素总个数不相等,但是通过 PyTorch 广播机制可以符合广播机制张量扩展成相同元素总个数两个张量;」 >>> import torch >>> # 传入mean和std...代码段,「这是因为当传入两个张量形状不匹配,但是元素总个数相等情况下,PyTorch 会使用 reshape 函数传入参数 std 张量形状改变成和传入 mean 参数张量相同形状,这可能会引发一些问题...low(int, optional) - 均匀分布采样最小整数,默认为 0; high(int) - 均匀分布采样最大整数,不包括最大整数; >>> import torch >>> # 创建采样自...0D 张量1D 张量2D 张量,创建 nD 张量与之类似,这里不再赘述。...比如创建一个采样自 [2, 10) 范围均匀分布且形状为 [2, 2] 2D 张量

3.5K30

PyTorch入门视频笔记-创建数值相同张量

如果张量元素值 0 比较多为稀疏张量,则指定 layout = torch.sparse_coo」; device = None(可选参数): 指定张量所在计算设备是 CPU 还是 GPU; requires_grad...通过 torch.zeros(*size) 和 torch.ones(*size) 函数创建了元素值全为 0 和全为 1 0D 张量1D 张量2D 张量,创建 nD 张量与之类似,这里不再赘述...比如: 创建 0D 张量只需要指定 size = []; 创建 1D 张量只需要指定 size = [dim0],其中 dim0 为第 0 个维度元素个数; 创建 2D 张量只需要指定 size =...创建自定义数值张量 除了张量元素值初始化全为 0 或全为 1 张量依然,有时候也需要全部初始化为某个自定义数值张量。...([], 5) # 创建1D且元素值为5张量 vec_a = torch.full([3], 5) # 创建2D且元素值为5张量 mat_a

1.4K10

PyTorch入门笔记-常见矩阵乘法

前言 前文介绍了根据传入参数张量维度决定其实现功能 torch.matmul 函数。...torch.matmul 函数功能强大,虽然可以使用其重载运算符 @,但是使用起来比较麻烦,并且在实际使用场景,常用矩阵乘积运算就那么几种。...二维矩阵乘法 神经网络包含大量 2D 张量矩阵乘法运算,而使用 torch.matmul 函数比较复杂,因此 PyTorch 提供了更为简单方便 torch.mm(input, other, out...torch.matmul 函数支持广播,主要指的是当参与矩阵乘积运算两个张量其中有一个是 1D 张量,torch.matmul 函数会将其广播成 2D 张量参与运算,最后广播添加维度删除作为最终...torch.mm 函数不支持广播,相对应输入两个张量必须为 2D

1.5K20

TensorFlow2.0(2):数学运算

运算结果上可以看出,相当于是三维张量每一行数据与张量a进行运算,为什么可以这样运输呢?...Broadcasting机制解除了只能维度数和形状相同张量才能进行运算限制,当两个数组进行算术运算时,TensorFlowBroadcasting机制首先对维度较低张量形状数组填充1,后向前,...当然,在TensorFlowBroadcasting机制运行过程,上述操作只是理论,并不会真正a形状变成(2,2,3,),更不会将每一行填充[1,2,3],只是虚拟进行操作,真正计算时,依旧是使用原来张量...再举一些例子加深理解: [ ] A:(2d array): 5 x 4 [ ] B:(1d array): 1 [ ] Result:(2d array): 5 x 4 ---- [ ] A:(2d array...---- [ ] A (2d array): 2 x 1 [ ] B (3d array): 8 x 4 x 3 5 范数 范数是泛函分析概念,指的是一种更宽泛长度(距离)概念,只要满足非负、

1.9K20

Keras 学习笔记(五)卷积层 Convolutional tf.keras.layers.conv2D tf.keras.layers.conv1D

参数 filters: 整数,输出空间维度 (即卷积滤波器输出数量)。 kernel_size: 一个整数,或者单个整数表示元组或列表, 指明 1D 卷积窗口长度。...参数 filters: 整数,输出空间维度 (即卷积滤波器输出数量)。 kernel_size: 一个整数,或者 2 个整数表示元组或列表, 指明 2D 卷积窗口宽度和高度。...参数 filters: 整数,输出空间维度 (即卷积滤波器输出数量)。 kernel_size: 一个整数,或者单个整数表示元组或列表, 指明 1D 卷积窗口长度。...沿着数据行和分别重复 size[0] 和 size[1] 次。 参数 size: 整数,或 2 个整数元组。 行和上采样因子。...该图层可以在图像张量顶部、底部、左侧和右侧添加零表示行和。 参数 padding: 整数,或 2 个整数元组,或 2 个整数 2 个元组。

2.8K40

keras doc 6 卷积层Convolutional

看作Convolution2D快捷版,对例子(10,32)信号进行1D卷积相当于对其进行卷积核为(filter_length, 32)2D卷积。...‘th’模式通道维(如彩色图像3通道)位于第1个位置(维度0开始算),而在‘tf’模式,通道维位于第3个位置。...‘th’模式通道维(如彩色图像3通道)位于第1个位置(维度0开始算),而在‘tf’模式,通道维位于第3个位置。...‘th’模式通道维(如彩色图像3通道)位于第1个位置(维度0开始算),而在‘tf’模式,通道维位于第3个位置。...‘th’模式通道维(如彩色图像3通道)位于第1个位置(维度0开始算),而在‘tf’模式,通道维位于第3个位置。

1.5K20

PyTorch入门笔记-交换维度

交换维度操作至少要求张量拥有两个以及两个以上维度才有意义,因此在介绍交换维度方式时不再考虑 0D 和 1D 张量。...transpose torch.transpose(input, dim0, dim1) 函数输入张量 input 第 dim0 个维度和第 dim1 个维度进行交换,并将交换维度后张量返回。...transpose 函数能够交换 nD 张量 () 任意两个不同维度 (交换相同维度没有意义); transpose 函数三个参数都是必选参数。...换句话说,如果修改了交换维度后张量,原始张量也会发生对应改变; 由于 2D 张量仅有两个维度,交换维度操作固定,类似对矩阵进行转置操作,因此 PyTorch 提供了一个更方便方法 torch.t...PyTorch 针对这种多次交换维度方式提供 permute 函数。 permute 前面提到过 PyTorch 接口角度张量操作分成两种方式。

6.3K40
领券