首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

神经网络入手学习

神经网络入手[上] [x] 神经网络核心部分 [x] Keras介绍 [ ] 使用Keras解决简单问题:分类和回归 神经网络剖析 神经网络训练下列对象相关: 网络Layers,网络结合形成神经网络模型...网络堆叠形成网络模型,网络模型由输入数据得到预测值。损失函数比较预测值实际值,得到损失函数值:用来评估预测结果好坏;优化方法用损失值来更新网络模型权重系数。...比如:2D张量,形状(samples,features)存储简单向量信息,通常是全连接(FC 或 Dense)输入格式要求;LSTM网络通常处理3D张量,形状(samples,timesteps...在Keras框架中通过把相互兼容网络堆叠形成数据处理过程,而网络兼容性是指该网络接收特定形状输入张量同时返回特东形状输出张量。...在Keras中,不必担心网络兼容性,因为添加到网络模型网络是动态构建地,匹配接下来连接网络

1.1K20

Transformers 4.37 中文文档(三十三)4-37-中文文档-三十三-

使用配置文件初始化不会加载模型关联权重,只加载配置。查看 from_pretrained()方法以加载模型权重。 Flaubert 模型变压器,顶部带有语言建模头(线性权重输入嵌入绑定)。...loss(形状(1,)torch.FloatTensor,可选,当提供labels时返回)- 分类(或如果config.num_labels==1回归)损失。...loss(形状*(1,)*torch.FloatTensor,可选,当提供labels时返回)— 分类损失。...loss(形状(1,)torch.FloatTensor,可选,当提供labels时返回)— 分类损失。...Flaubert 模型变压器,顶部带有语言建模头(线性,其权重输入嵌入绑定)。 此模型继承自 TFPreTrainedModel。

7610
您找到你想要的搜索结果了吗?
是的
没有找到

卷积神经网络究竟做了什么?

我将通过一个小型手写C ++卷积神经网络形式来演示一个示例,其中只包含“执行”代码,包含训练逻辑。它将使用来自Keras中类似模型预先训练数据,这些数据会在稍后发布。...它们可能以某种方式输入相乘(在这种情况下,它们被称为权重)或者添加到返回值(称为偏差)。 这些选择合适权重和偏差就是训练目的。...Github中obtain-data.sh用来下载数据集,with-keras/train.py用来训练模型并把训练后权重输出到C++文件中。...然后我们C++重新写了这个模型(flower.cpp ),不使用任何神经学习库。weights_ 或biases_开头变量是从Keras中导出训练好值。它们定义在weights.cpp中。...C++浮点数向量是1阶张量,其形状是一个值列表,即向量中元素数量。 矢量{1.0,2.0,3.0}形状3。 单个数字也可以被认为是0阶张量,其形状[]。

2.4K80

Transformers 4.37 中文文档(二十九)

loss(形状(1,)torch.FloatTensor,可选,当提供labels时返回)—分类(如果 config.num_labels==1 则为回归)损失。...该模型也是 tf.keras.Model 子类。将其用作常规 TF 2.0 Keras 模型,并参考 TF 2.0 文档以获取一般用法和行为相关所有事项。...该模型也是tf.keras.Model子类。将其用作常规 TF 2.0 Keras 模型,并参考 TF 2.0 文档以获取一般用法和行为相关所有事项。...此模型也是 tf.keras.Model 子类。将其用作常规 TF 2.0 Keras 模型,并参考 TF 2.0 文档以获取一般用法和行为相关所有信息。...loss(形状(1,)torch.FloatTensor,可选,当提供labels时返回)— 总跨度提取损失是起始位置和结束位置交叉熵之和。

11310

Transformers 4.37 中文文档(六十三)

attention_mask,即对于真实标记为 0,对于填充 1,这保留了原始代码库兼容性。...使用配置文件初始化不会加载模型关联权重,只加载配置。查看 from_pretrained()方法以加载模型权重。 在顶部带有语言建模头 XLNet 模型(线性权重输入嵌入绑定)。...attention_mask负值,即对于真实标记为 0,对于填充 1,这是为了原始代码库保持兼容性。...使用配置文件初始化不会加载模型相关权重,只加载配置。查看 from_pretrained()方法来加载模型权重。 在顶部带有语言建模头 XLNet 模型(线性,其权重输入嵌入相关联)。...原始代码库兼容性保留填充标记 attention_mask 负值,即对于真实标记为 0,对于填充 1

11510

Transformers 4.37 中文文档(六十一)

如果使用 past_key_values,用户可以选择仅输入最后 decoder_input_ids(没有将其过去键值状态提供给此模型那些)形状 (batch_size, 1) 张量,而不是形状...使用配置文件初始化不会加载模型相关联权重,只加载配置。查看 from_pretrained()方法以加载模型权重。 具有顶部语言建模头 XGLM 模型转换器(线性,其权重输入嵌入相关联)。...使用配置文件初始化不会加载模型关联权重,只会加载配置。查看 from_pretrained()方法以加载模型权重。 XGLM 模型变压器,顶部带有语言建模头(线性,其权重输入嵌入绑定)。...使用配置文件初始化不会加载模型关联权重,只加载配置。查看 from_pretrained()方法以加载模型权重。 XLM 模型变压器,顶部带有语言建模头(线性,其权重输入嵌入绑定)。...使用配置文件初始化不会加载模型相关权重,只加载配置。查看 from_pretrained()方法加载模型权重。 XLM 模型变压器,顶部带有语言建模头(线性,其权重输入嵌入相关联)。

12110

Python 深度学习第二版(GPT 重译)(一)

❷ y 是一个形状(32, 10)随机张量。 ❸ 输出 z 形状 x 相同,(64, 3, 32, 10)。...序列数据,存储在形状(samples, timesteps, features)秩-3 张量中,通常由循环处理,例如LSTM,或 1D 卷积(Conv1D)。...在 Keras 中构建深度学习模型是通过将兼容剪辑在一起形成有用数据转换流水线。 Keras基础 Layer 类 一个简单 API 应该围绕一个单一抽象进行中心化。...让我们看看它是如何工作。 自动形状推断:动态构建 就像乐高积木一样,你只能“连接”兼容。这里兼容性概念特指每个只接受特定形状输入张量,并返回特定形状输出张量。...它只能连接到一个期望 32 维向量作为输入下游。 在使用 Keras 时,大多数情况下你不必担心大小兼容性,因为你添加到模型会动态构建以匹配传入形状

24910

Transformers 4.37 中文文档(四十六)

loss(形状(1,)torch.FloatTensor,可选,当提供labels时返回)— 掩码语言建模(MLM)损失。...loss(形状*(1,)*torch.FloatTensor,可选,当提供labels时返回)- 分类损失。...使用配置文件初始化不会加载模型相关权重,只会加载配置。查看 from_pretrained() 方法来加载模型权重。 带有语言建模头部 MPT 模型变压器(线性,其权重输入嵌入绑定)。...使用配置文件初始化不会加载模型关联权重,只会加载配置。查看 from_pretrained()方法以加载模型权重。 MPT 模型变压器,顶部带有序列分类头(线性)。...loss(形状(1,)torch.FloatTensor,可选,在提供labels时返回)— 分类损失。

4710

Transformers 4.37 中文文档(六十五)

loss (torch.FloatTensor,形状(1,),可选,当提供labels时返回) — 总损失,作为类别预测负对数似然(交叉熵)和边界框损失线性组合。...loss(形状(1,)torch.FloatTensor,可选,当提供labels时返回)— 分类(或如果config.num_labels==1回归)损失。...loss (tf.Tensor,形状(1,),可选,当提供labels时返回) — 分类(如果config.num_labels==1回归)损失。...loss(形状 (1,) tf.Tensor,可选,当提供了 labels 时返回)— 分类(如果 config.num_labels==1 则为回归)损失。...loss(形状 (1,) tf.Tensor,可选,当提供了 labels 时返回)— 分类(如果 config.num_labels==1 则为回归)损失。

9310

《机器学习实战:基于Scikit-Learn、Keras和TensorFlow》第12章 使用TensorFlow自定义模型并训练

当预测值数量级不同时,指数有时用在回归模型输出。 你可能猜到了,要创建自定义状态(即,有权重),需要创建keras.layers.Layer类子类。...此时,Keras能知道该输入形状,并传入build()方法,这对创建权重是必要。例如,需要知道前一神经元数量,来创建连接权重矩阵(即,"kernel"):对应是输入最后一维大小。...提示:如果模型提供功能比多,为什么不讲每一个定义模型呢?技术上当然可以这么做,但对内部组件和模型(即,或可重复使用块)加以区别,可以更加清晰。...提示:创建自定义模型时,设置dynamic=True,可以让Keras转化你Python函数。另外,当调用模型compile()方法时,可以设置run_eagerly=True。...实现一个具有归一化自定义(第15章会用到): a. build()方法要定义两个可训练权重α 和 β,形状都是input_shape[-1:],数据类型是tf.float32。

5.2K30

Transformers 4.37 中文文档(二十六)

如果使用了past_key_values,用户可以选择仅输入最后decoder_input_ids(这些没有将其过去键值状态提供给此模型形状(batch_size, 1)张量,而不是所有形状...如果使用past_key_values,用户可以选择仅输入最后decoder_input_ids(那些没有将它们过去键值状态提供给此模型形状(batch_size, 1),而不是形状(batch_size...使用配置文件初始化不会加载模型关联权重,只加载配置。查看 from_pretrained()方法以加载模型权重。...loss(形状*(1,)*torch.FloatTensor,可选,当提供labels时返回)— 分类损失。...如果使用past_key_values,用户可以选择仅输入最后decoder_input_ids(那些没有将它们过去键值状态提供给此模型形状(batch_size, 1),而不是形状(batch_size

7710

『开发技巧』Keras自定义对象(、评价函数损失)

1.自定义 对于简单、无状态自定义操作,你也许可以通过 layers.core.Lambda 来实现。但是对于那些包含了可训练权重自定义,你应该自己实现这种。...这是一个 Keras2.0 中,Keras 骨架(如果你用是旧版本,请更新到新版)。你只需要实现三个方法即可: build(input_shape): 这是你定义权重地方。...compute_output_shape(input_shape): 如果你更改了输入张量形状,你应该在这里定义形状变化逻辑,这让Keras能够自动推断各层形状。...__init__(**kwargs) def build(self, input_shape): # 创建一个可训练权重 self.kernel = self.add_weight...**kwargs) def build(self, input_shape): assert isinstance(input_shape, list) # 创建一个可训练权重

1.1K10

Transformers 4.37 中文文档(六十二)

如果使用了 past_key_values,用户可以选择仅输入最后 decoder_input_ids(即未将其过去键值状态提供给此模型那些)形状 (batch_size, 1) 张量,而不是形状...如果使用past_key_values,用户可以选择仅输入最后一个decoder_input_ids(那些没有将其过去键值状态提供给此模型形状(batch_size, 1),而不是所有形状(...如果使用past_key_values,用户可以选择仅输入最后decoder_input_ids(即未将其过去键值状态提供给此模型那些)形状(batch_size,1)而不是形状(batch_size...如果使用past_key_values,用户可以选择仅输入最后一个decoder_input_ids(那些没有将其过去键值状态提供给此模型形状(batch_size, 1)输入,而不是所有形状...如果使用past_key_values,用户可以选择仅输入最后decoder_input_ids(那些没有将它们过去键值状态提供给此模型形状(batch_size, 1),而不是所有形状(

11110

Transformers 4.37 中文文档(四十)

如果使用past_key_values,用户可以选择仅输入最后input_ids(这些没有将其过去键值状态提供给此模型形状(batch_size, 1)张量,而不是形状(batch_size...如果使用了past_key_values,用户可以选择仅输入最后input_ids(那些没有将它们过去键值状态提供给此模型形状(batch_size, 1),而不是形状(batch_size...如果使用past_key_values,用户可以选择仅输入最后input_ids(即未将其过去键值状态提供给此模型那些)形状(batch_size, 1),而不是形状(batch_size,...如果使用past_key_values,用户可以选择仅输入最后input_ids(这些没有将它们过去键值状态提供给此模型形状(batch_size, 1),而不是形状(batch_size...如果使用了past_key_values,用户可以选择仅输入最后input_ids(那些没有将它们过去键值状态提供给此模型形状(batch_size, 1),而不是形状(batch_size

14010

Keras系列(二) 建模流程

图一 、数据输入、损失函数和优化器之间关系 从上图可以看出,训练神经网络是一个迭代过程,输入X经过变化后,预测值真实目标值在损失函数下计算出损失值,再通过优化器重新学习更新权重,经过N...每一只接受特定形状输入张量,并返回特定形状输,将一个或多个输入张量转换为一个或多个输出张量。有些是无状态,但大多数是有状态,即权重权重是利用随机梯度下降学到一个或多个张量。...输入数据和相应目标 数据数据涉及到数据集划分、归一化、缺失值处理、特征工程等等。我们需要将数据整理预定格式feed给模型,不同张量格式不同数据处理类型需要用到不同。...例如,简单向量数据保存在形状(samples, features) 2D 张量中,通常用密集连接[densely connected layer,也叫全连接(fully connected layer...序列数据保存在形状(samples, timesteps, features) 3D 张量中,通常用循环(recurrent layer,比如Keras LSTM )来处理。

1.4K20

Transformers 4.37 中文文档(二十八)

(线性,其权重输入嵌入绑定)。...使用配置文件初始化不会加载模型相关联权重,只加载配置。查看 from_pretrained()方法以加载模型权重。 在顶部带有语言建模头 CTRL 模型变压器(线性权重输入嵌入相关联)。...使用配置文件初始化不会加载模型相关权重,只加载配置。查看 from_pretrained()方法以加载模型权重。 带有顶部序列分类头(线性 CTRL 模型变压器。...使用配置文件初始化不会加载模型关联权重,只会加载配置。查看 from_pretrained()方法以加载模型权重。 带有语言建模头 CTRL 模型变压器(线性,其权重输入嵌入绑定)。...使用配置文件初始化不会加载模型关联权重,只会加载配置。查看 from_pretrained()方法以加载模型权重。 带有顶部序列分类头(线性 CTRL 模型变换器。

11610

Transformers 4.37 中文文档(五十六)

使用配置文件初始化不会加载模型相关权重,只会加载配置。查看 from_pretrained()方法以加载模型权重。...如果使用past_key_values,用户可以选择仅输入最后decoder_input_ids(那些没有将它们过去键值状态提供给此模型形状(batch_size, 1)标记,而不是形状(...如果使用了past_key_values,用户可以选择仅输入最后一个形状(batch_size, 1)decoder_input_ids(这些没有将其过去键值状态提供给此模型输入)而不是所有形状...loss(形状*(1,)*torch.FloatTensor,可选,当提供labels时返回)— 分类损失。...如果使用了 past_key_values,用户可以选择只输入最后 decoder_input_ids(那些没有将它们过去键值状态提供给此模型形状 (batch_size, 1),而不是形状

6710

Transformers 4.37 中文文档(三十五)

使用配置文件初始化不会加载模型相关权重,只加载配置。查看 from_pretrained()方法以加载模型权重。 原始 OpenAI GPT 模型变压器,顶部带有序列分类头(线性)。...带有语言建模头 OpenAI GPT 模型变换器(线性,其权重输入嵌入相关联)。 此模型继承自 TFPreTrainedModel。...使用配置文件初始化不会加载模型关联权重,只会加载配置。查看 from_pretrained()方法以加载模型权重。 在顶部带有序列分类头 OpenAI GPT 模型变压器(线性)。...Flash Attention 2,以包括滑动窗口注意力特性,并确保您硬件 Flash-Attention 2 兼容。...使用配置文件初始化不会加载模型相关权重,只会加载配置。查看 from_pretrained()方法以加载模型权重。 GPTNeo 模型变压器,顶部带有序列分类头(线性)。

12110

神经网络数学基础

举例来说,张量X形状(32, 10),张量y形状(10, ).两个张量相加。...首先,添加一个新轴到张量y上,形状变成(1, 10);然后,在新轴方向上重复y32次,最终张量Y形状(32,10),X、Y形状相同,可以进行加法运算。...逐元素操作相反,点积整合输入张量所有条目。...基于梯度优化算法 神经网络对输入进行数学转换为: \(output = relu(dot(W, input) + b)\) 张量\(W\)和张量\(b\) 是网络参数,被称为网络权重系数或者可训练参数...; 两个重要概念:损失函数和优化方法(需要在数据送到网络之前定义); 损失函数:在训练过程中最小化函数,可以用来评估模型好坏(越小越好,最小0); 优化方法:计算梯度具体方法,之后更新权重系数

1.3K50
领券