前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >keras doc 5 泛型与常用层

keras doc 5 泛型与常用层

作者头像
用户1908973
发布2018-07-20 16:42:11
1.6K0
发布2018-07-20 16:42:11
举报
文章被收录于专栏:CreateAMindCreateAMind

本文摘自 http://keras-cn.readthedocs.io/en/latest/layers/about_layer/,链接异常请阅读原文查看

常用层对应于core模块,core内部定义了一系列常用的网络层,包括全连接、激活层等

  • 泛型模型接口

为什么叫“泛型模型”,请查看一些基本概念

Keras的泛型模型为Model,即广义的拥有输入和输出的模型,我们使用Model来初始化一个泛型模型

from keras.models import Modelfrom keras.layers import Input, Dense

a = Input(shape=(32,))
b = Dense(32)(a)
model = Model(input=a, output=b)

在这里,我们的模型以a为输入,以b为输出,同样我们可以构造拥有多输入和多输出的模型

model = Model(input=[a1, a2], output=[b1, b3, b3])

常用Model属性

  • model.layers:组成模型图的各个层
  • model.inputs:模型的输入张量列表
  • model.outputs:模型的输出张量列表

Model模型方法

compile

compile(self, optimizer, loss, metrics=[], loss_weights=None, sample_weight_mode=None)

本函数编译模型以供训练,参数有

  • optimizer:优化器,为预定义优化器名或优化器对象,参考优化器
  • loss:目标函数,为预定义损失函数名或一个目标函数,参考目标函数
  • metrics:列表,包含评估模型在训练和测试时的性能的指标,典型用法是metrics=['accuracy']如果要在多输出模型中为不同的输出指定不同的指标,可像该参数传递一个字典,例如metrics={'ouput_a': 'accuracy'}
  • sample_weight_mode:如果你需要按时间步为样本赋权(2D权矩阵),将该值设为“temporal”。默认为“None”,代表按样本赋权(1D权)。如果模型有多个输出,可以向该参数传入指定sample_weight_mode的字典或列表。在下面fit函数的解释中有相关的参考内容。
  • kwargs:使用TensorFlow作为后端请忽略该参数,若使用Theano作为后端,kwargs的值将会传递给 K.function

【Tips】如果你只是载入模型并利用其predict,可以不用进行compile。在Keras中,compile主要完成损失函数和优化器的一些配置,是为训练服务的。predict会在内部进行符号函数的编译工作(通过调用_make_predict_function生成函数)【@白菜,@我是小将】


fit

fit(self, x, y, batch_size=32, nb_epoch=10, verbose=1, callbacks=[], validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, sample_weight=None)

本函数用以训练模型,参数有:

  • x:输入数据。如果模型只有一个输入,那么x的类型是numpy array,如果模型有多个输入,那么x的类型应当为list,list的元素是对应于各个输入的numpy array。如果模型的每个输入都有名字,则可以传入一个字典,将输入名与其输入数据对应起来。
  • y:标签,numpy array。如果模型有多个输出,可以传入一个numpy array的list。如果模型的输出拥有名字,则可以传入一个字典,将输出名与其标签对应起来。
  • batch_size:整数,指定进行梯度下降时每个batch包含的样本数。训练时一个batch的样本会被计算一次梯度下降,使目标函数优化一步。
  • nb_epoch:整数,训练的轮数,训练数据将会被遍历nb_epoch次。Keras中nb开头的变量均为"number of"的意思
  • verbose:日志显示,0为不在标准输出流输出日志信息,1为输出进度条记录,2为每个epoch输出一行记录
  • callbacks:list,其中的元素是keras.callbacks.Callback的对象。这个list中的回调函数将会在训练过程中的适当时机被调用,参考回调函数
  • validation_split:0~1之间的浮点数,用来指定训练集的一定比例数据作为验证集。验证集将不参与训练,并在每个epoch结束后测试的模型的指标,如损失函数、精确度等。
  • validation_data:形式为(X,y)或(X,y,sample_weights)的tuple,是指定的验证集。此参数将覆盖validation_spilt。
  • shuffle:布尔值,表示是否在训练过程中每个epoch前随机打乱输入样本的顺序。
  • class_weight:字典,将不同的类别映射为不同的权值,该参数用来在训练过程中调整损失函数(只能用于训练)。该参数在处理非平衡的训练数据(某些类的训练样本数很少)时,可以使得损失函数对样本数不足的数据更加关注。
  • sample_weight:权值的numpy array,用于在训练时调整损失函数(仅用于训练)。可以传递一个1D的与样本等长的向量用于对样本进行1对1的加权,或者在面对时序数据时,传递一个的形式为(samples,sequence_length)的矩阵来为每个时间步上的样本赋不同的权。这种情况下请确定在编译模型时添加了sample_weight_mode='temporal'

fit函数返回一个History的对象,其History.history属性记录了损失函数和其他指标的数值随epoch变化的情况,如果有验证集的话,也包含了验证集的这些指标变化情况


evaluate

evaluate(self, x, y, batch_size=32, verbose=1, sample_weight=None)

本函数按batch计算在某些输入数据上模型的误差,其参数有:

  • x:输入数据,与fit一样,是numpy array或numpy array的list
  • y:标签,numpy array
  • batch_size:整数,含义同fit的同名参数
  • verbose:含义同fit的同名参数,但只能取0或1
  • sample_weight:numpy array,含义同fit的同名参数

本函数返回一个测试误差的标量值(如果模型没有其他评价指标),或一个标量的list(如果模型还有其他的评价指标)。model.metrics_names将给出list中各个值的含义。

如果没有特殊说明,以下函数的参数均保持与fit的同名参数相同的含义

如果没有特殊说明,以下函数的verbose参数(如果有)均只能取0或1


predict

predict(self, x, batch_size=32, verbose=0)

本函数按batch获得输入数据对应的输出,其参数有:

函数的返回值是预测值的numpy array


train_on_batch

train_on_batch(self, x, y, class_weight=None, sample_weight=None)

本函数在一个batch的数据上进行一次参数更新

函数返回训练误差的标量值或标量值的list,与evaluate的情形相同。


test_on_batch

test_on_batch(self, x, y, sample_weight=None)

本函数在一个batch的样本上对模型进行评估

函数的返回与evaluate的情形相同


predict_on_batch

predict_on_batch(self, x)

本函数在一个batch的样本上对模型进行测试

函数返回模型在一个batch上的预测结果


fit_generator

fit_generator(self, generator, samples_per_epoch, nb_epoch, verbose=1, callbacks=[], validation_data=None, nb_val_samples=None, class_weight={}, max_q_size=10)

利用Python的生成器,逐个生成数据的batch并进行训练。生成器与模型将并行执行以提高效率。例如,该函数允许我们在CPU上进行实时的数据提升,同时在GPU上进行模型训练

函数的参数是:

  • generator:生成器函数,生成器的输出应该为:
    • 一个形如(inputs,targets)的tuple
    • 一个形如(inputs, targets,sample_weight)的tuple。所有的返回值都应该包含相同数目的样本。生成器将无限在数据集上循环。每个epoch以经过模型的样本数达到samples_per_epoch时,记一个epoch结束
  • samples_per_epoch:整数,当模型处理的样本达到此数目时计一个epoch结束,执行下一个epoch
  • verbose:日志显示,0为不在标准输出流输出日志信息,1为输出进度条记录,2为每个epoch输出一行记录
  • validation_data:具有以下三种形式之一
    • 生成验证集的生成器
    • 一个形如(inputs,targets)的tuple
    • 一个形如(inputs,targets,sample_weights)的tuple
  • nb_val_samples:仅当validation_data是生成器时使用,用以限制在每个epoch结束时用来验证模型的验证集样本数,功能类似于samples_per_epoch
  • max_q_size:生成器队列的最大容量

函数返回一个History对象

例子

def generate_arrays_from_file(path):
    while 1:
    f = open(path)    for line in f:        # create numpy arrays of input data
        # and labels, from each line in the file
        x, y = process_line(line)        yield (x, y)
    f.close()

model.fit_generator(generate_arrays_from_file('/my_file.txt'),
        samples_per_epoch=10000, nb_epoch=10)

evaluate_generator

evaluate_generator(self, generator, val_samples, max_q_size=10)

本函数使用一个生成器作为数据源,来评估模型,生成器应返回与test_on_batch的输入数据相同类型的数据。

函数的参数是:

  • generator:生成输入batch数据的生成器
  • val_samples:生成器应该返回的总样本数
  • max_q_size:生成器队列的最大容量
  • nb_worker:使用基于进程的多线程处理时的进程数
  • pickle_safe:若设置为True,则使用基于进程的线程。注意因为它的实现依赖于多进程处理,不可传递不可pickle的参数到生成器中,因为它们不能轻易的传递到子进程中。

predict_generator

predict_generator(self, generator, val_samples, max_q_size=10, nb_worker=1, pickle_safe=False)

从一个生成器上获取数据并进行预测,生成器应返回与predict_on_batch输入类似的数据

函数的参数是:

  • generator:生成输入batch数据的生成器
  • val_samples:生成器应该返回的总样本数
  • max_q_size:生成器队列的最大容量
  • nb_worker:使用基于进程的多线程处理时的进程数
  • pickle_safe:若设置为True,则使用基于进程的线程。注意因为它的实现依赖于多进程处理,不可传递不可pickle的参数到生成器中,因为它们不能轻易的传递到子进程中。

get_layer

get_layer(self, name=None, index=None)

本函数依据模型中层的下标或名字获得层对象,泛型模型中层的下标依据自底向上,水平遍历的顺序。

  • name:字符串,层的名字
  • index: 整数,层的下标

函数的返回值是层对象

  • 网络层 »
  • 关于Keras层

关于Keras的“层”(Layer)

所有的Keras层对象都有如下方法:

  • layer.get_weights():返回层的权重(numpy array)
  • layer.set_weights(weights):从numpy array中将权重加载到该层中,要求numpy array的形状与* layer.get_weights()的形状相同
  • layer.get_config():返回当前层配置信息的字典,层也可以借由配置信息重构
from keras.utils.layer_utils import layer_from_config

config = layer.get_config()
layer = layer_from_config(config)

如果层仅有一个计算节点(即该层不是共享层),则可以通过下列方法获得输入张量、输出张量、输入数据的形状和输出数据的形状:

  • layer.input
  • layer.output
  • layer.input_shape
  • layer.output_shape

如果该层有多个计算节点(参考层计算节点和共享层)。可以使用下面的方法

  • layer.get_input_at(node_index)
  • layer.get_output_at(node_index)
  • layer.get_input_shape_at(node_index)
  • layer.get_output_shape_at(node_index)
  • 网络层 »
  • 常用层Core

常用层

常用层对应于core模块,core内部定义了一系列常用的网络层,包括全连接、激活层等

Dense层

keras.layers.core.Dense(output_dim, init='glorot_uniform', activation='linear', weights=None, W_regularizer=None, b_regularizer=None, activity_regularizer=None, W_constraint=None, b_constraint=None, bias=True, input_dim=None)

Dense就是常用的全连接层,这里是一个使用示例:

# as first layer in a sequential model:model = Sequential()
model.add(Dense(32, input_dim=16))# now the model will take as input arrays of shape (*, 16)# and output arrays of shape (*, 32)# this is equivalent to the above:model = Sequential()
model.add(Dense(32, input_shape=(16,)))# after the first layer, you don't need to specify# the size of the input anymore:model.add(Dense(32))

参数:

  • output_dim:大于0的整数,代表该层的输出维度。模型中非首层的全连接层其输入维度可以自动推断,因此非首层的全连接定义时不需要指定输入维度。
  • init:初始化方法,为预定义初始化方法名的字符串,或用于初始化权重的Theano函数。该参数仅在不传递weights参数时才有意义。
  • activation:激活函数,为预定义的激活函数名(参考激活函数),或逐元素(element-wise)的Theano函数。如果不指定该参数,将不会使用任何激活函数(即使用线性激活函数:a(x)=x)
  • weights:权值,为numpy array的list。该list应含有一个形如(input_dim,output_dim)的权重矩阵和一个形如(output_dim,)的偏置向量。
  • W_regularizer:施加在权重上的正则项,为WeightRegularizer对象
  • b_regularizer:施加在偏置向量上的正则项,为WeightRegularizer对象
  • activity_regularizer:施加在输出上的正则项,为ActivityRegularizer对象
  • W_constraints:施加在权重上的约束项,为Constraints对象
  • b_constraints:施加在偏置上的约束项,为Constraints对象
  • bias:布尔值,是否包含偏置向量(即层对输入做线性变换还是仿射变换)
  • input_dim:整数,输入数据的维度。当Dense层作为网络的第一层时,必须指定该参数或input_shape参数。

输入

形如(nb_samples, input_dim)的2D张量

输出

形如 (nb_samples, output_dim)的2D张量


Activation层

keras.layers.core.Activation(activation)

激活层对一个层的输出施加激活函数

参数

  • activation:将要使用的激活函数,为预定义激活函数名或一个Tensorflow/Theano的函数。参考激活函数

输入shape

任意,当使用激活层作为第一层时,要指定input_shape

输出shape

与输入shape相同


Dropout层

keras.layers.core.Dropout(p)

为输入数据施加Dropout。Dropout将在训练过程中每次更新参数时随机断开一定百分比(p)的输入神经元连接,Dropout层用于防止过拟合。

参数

  • p:0~1的浮点数,控制需要断开的链接的比例

参考文献

  • Dropout: A Simple Way to Prevent Neural Networks from Overfitting

SpatialDropout2D层

keras.layers.core.SpatialDropout2D(p, dim_ordering='default')

SpatialDropout2D与Dropout的作用类似,但它断开的是整个2D特征图,而不是单个神经元。如果一张特征图的相邻像素之间有很强的相关性(通常发生在低层的卷积层中),那么普通的dropout无法正则化其输出,否则就会导致明显的学习率下降。这种情况下,SpatialDropout2D能够帮助提高特征图之间的独立性,应该用其取代普通的Dropout

参数

  • p:0~1的浮点数,控制需要断开的链接的比例
  • dim_ordering:'th'或'tf',默认为~/.keras/keras.json配置的image_dim_ordering

输入shape

‘th’模式下,输入形如(samples,channels,rows,cols)的4D张量

‘tf’模式下,输入形如(samples,rows,cols,channels)的4D张量

注意这里的输入shape指的是函数内部实现的输入shape,而非函数接口应指定的input_shape,请参考下面提供的例子。

输出shape

与输入相同

参考文献

  • Efficient Object Localization Using Convolutional Networks

SpatialDropout3D层

keras.layers.core.SpatialDropout3D(p, dim_ordering='default')

SpatialDropout3D与Dropout的作用类似,但它断开的是整个3D特征图,而不是单个神经元。如果一张特征图的相邻像素之间有很强的相关性(通常发生在低层的卷积层中),那么普通的dropout无法正则化其输出,否则就会导致明显的学习率下降。这种情况下,SpatialDropout2D能够帮助提高特征图之间的独立性,应该用其取代普通的Dropout

参数

  • p:0~1的浮点数,控制需要断开的链接的比例
  • dim_ordering:'th'或'tf',默认为~/.keras/keras.json配置的image_dim_ordering

输入shape

‘th’模式下,输入应为形如(samples,channels,input_dim1,input_dim2, input_dim3)的5D张量

‘tf’模式下,输入应为形如(samples,input_dim1,input_dim2, input_dim3,channels)的5D张量

输出shape

与输入相同

参考文献

  • Efficient Object Localization Using Convolutional Networks

Flatten层

keras.layers.core.Flatten()

Flatten层用来将输入“压平”,即把多维的输入一维化,常用在从卷积层到全连接层的过渡。Flatten不影响batch的大小。

例子

model = Sequential()
model.add(Convolution2D(64, 3, 3, border_mode='same', input_shape=(3, 32, 32)))# now: model.output_shape == (None, 64, 32, 32)model.add(Flatten())# now: model.output_shape == (None, 65536)

Reshape层

keras.layers.core.Reshape(target_shape)

Reshape层用来将输入shape转换为特定的shape

参数

  • target_shape:目标shape,为整数的tuple,不包含样本数目的维度(batch大小)

输入shape

任意,但输入的shape必须固定。当使用该层为模型首层时,需要指定input_shape参数

输出shape

(batch_size,)+target_shape

例子

# as first layer in a Sequential modelmodel = Sequential()
model.add(Reshape((3, 4), input_shape=(12,)))# now: model.output_shape == (None, 3, 4)# note: `None` is the batch dimension# as intermediate layer in a Sequential modelmodel.add(Reshape((6, 2)))# now: model.output_shape == (None, 6, 2)

Permute层

keras.layers.core.Permute(dims)

Permute层将输入的维度按照给定模式进行重排,例如,当需要将RNN和CNN网络连接时,可能会用到该层。

参数

  • dims:整数tuple,指定重排的模式,不包含样本数的维度。重拍模式的下标从1开始。例如(2,1)代表将输入的第二个维度重拍到输出的第一个维度,而将输入的第一个维度重排到第二个维度

例子

model = Sequential()
model.add(Permute((2, 1), input_shape=(10, 64)))# now: model.output_shape == (None, 64, 10)# note: `None` is the batch dimension

输入shape

任意,当使用激活层作为第一层时,要指定input_shape

输出shape

与输入相同,但是其维度按照指定的模式重新排列


RepeatVector层

keras.layers.core.RepeatVector(n)

RepeatVector层将输入重复n次

参数

  • n:整数,重复的次数

输入shape

形如(nb_samples, features)的2D张量

输出shape

形如(nb_samples, n, features)的3D张量

例子

model = Sequential()
model.add(Dense(32, input_dim=32))# now: model.output_shape == (None, 32)# note: `None` is the batch dimensionmodel.add(RepeatVector(3))# now: model.output_shape == (None, 3, 32)

Merge层

keras.engine.topology.Merge(layers=None, mode='sum', concat_axis=-1, dot_axes=-1, output_shape=None, node_indices=None, tensor_indices=None, name=None)

Merge层根据给定的模式,将一个张量列表中的若干张量合并为一个单独的张量

参数

  • layers:该参数为Keras张量的列表,或Keras层对象的列表。该列表的元素数目必须大于1。
  • mode:合并模式,为预定义合并模式名的字符串或lambda函数或普通函数,如果为lambda函数或普通函数,则该函数必须接受一个张量的list作为输入,并返回一个张量。如果为字符串,则必须是下列值之一:
    • “sum”,“mul”,“concat”,“ave”,“cos”,“dot”
  • concat_axis:整数,当mode=concat时指定需要串联的轴
  • dot_axes:整数或整数tuple,当mode=dot时,指定要消去的轴
  • output_shape:整数tuple或lambda函数/普通函数(当mode为函数时)。如果output_shape是函数时,该函数的输入值应为一一对应于输入shape的list,并返回输出张量的shape。
  • node_indices:可选,为整数list,如果有些层具有多个输出节点(node)的话,该参数可以指定需要merge的那些节点的下标。如果没有提供,该参数的默认值为全0向量,即合并输入层0号节点的输出值。
  • tensor_indices:可选,为整数list,如果有些层返回多个输出张量的话,该参数用以指定需要合并的那些张量。

例子

model1 = Sequential()
model1.add(Dense(32))

model2 = Sequential()
model2.add(Dense(32))

merged_model = Sequential()
merged_model.add(Merge([model1, model2], mode='concat', concat_axis=1)
- ____TODO__: would this actually work? it needs to.__# achieve this with get_source_inputs in Sequential.

Lambda层

keras.layers.core.Lambda(function, output_shape=None, arguments={})

本函数用以对上一层的输入实现任何Theano/TensorFlow表达式

参数

  • function:要实现的函数,该函数仅接受一个变量,即上一层的输出
  • output_shape:函数应该返回的值的shape,可以是一个tuple,也可以是一个根据输入shape计算输出shape的函数
  • arguments:可选,字典,用来记录向函数中传递的其他关键字参数

例子

# add a x -> x^2 layermodel.add(Lambda(lambda x: x ** 2))
# add a layer that returns the concatenation# of the positive part of the input and# the opposite of the negative partdef antirectifier(x):
    x -= K.mean(x, axis=1, keepdims=True)
    x = K.l2_normalize(x, axis=1)
    pos = K.relu(x)
    neg = K.relu(-x)    return K.concatenate([pos, neg], axis=1)def antirectifier_output_shape(input_shape):
    shape = list(input_shape)    assert len(shape) == 2  # only valid for 2D tensors
    shape[-1] *= 2
    return tuple(shape)

model.add(Lambda(antirectifier, output_shape=antirectifier_output_shape))

输入shape

任意,当使用该层作为第一层时,要指定input_shape

输出shape

output_shape参数指定的输出shape


ActivityRegularizer层

keras.layers.core.ActivityRegularization(l1=0.0, l2=0.0)

经过本层的数据不会有任何变化,但会基于其激活值更新损失函数值

参数

  • l1:1范数正则因子(正浮点数)
  • l2:2范数正则因子(正浮点数)

输入shape

任意,当使用该层作为第一层时,要指定input_shape

输出shape

与输入shape相同


Masking层

keras.layers.core.Masking(mask_value=0.0)

使用给定的值对输入的序列信号进行“屏蔽”,用以定位需要跳过的时间步

对于输入张量的时间步,即输入张量的第1维度(维度从0开始算,见例子),如果输入张量在该时间步上都等于mask_value,则该时间步将在模型接下来的所有层(只要支持masking)被跳过(屏蔽)。

如果模型接下来的一些层不支持masking,却接受到masking过的数据,则抛出异常。

例子

考虑输入数据x是一个形如(samples,timesteps,features)的张量,现将其送入LSTM层。因为你缺少时间步为3和5的信号,所以你希望将其掩盖。这时候应该:

  • 赋值x[:,3,:] = 0.x[:,5,:] = 0.
  • 在LSTM层之前插入mask_value=0.Masking
model = Sequential()
model.add(Masking(mask_value=0., input_shape=(timesteps, features)))
model.add(LSTM(32))

Highway层

keras.layers.core.Highway(init='glorot_uniform', transform_bias=-2, activation='linear', weights=None, W_regularizer=None, b_regularizer=None, activity_regularizer=None, W_constraint=None, b_constraint=None, bias=True, input_dim=None)

Highway层建立全连接的Highway网络,这是LSTM在前馈神经网络中的推广

参数:

  • output_dim:大于0的整数,代表该层的输出维度。模型中非首层的全连接层其输入维度可以自动推断,因此非首层的全连接定义时不需要指定输入维度。
  • init:初始化方法,为预定义初始化方法名的字符串,或用于初始化权重的Theano函数。该参数仅在不传递weights参数时有意义。
  • activation:激活函数,为预定义的激活函数名(参考激活函数),或逐元素(element-wise)的Theano函数。如果不指定该参数,将不会使用任何激活函数(即使用线性激活函数:a(x)=x)
  • weights:权值,为numpy array的list。该list应含有一个形如(input_dim,output_dim)的权重矩阵和一个形如(output_dim,)的偏置向量。
  • W_regularizer:施加在权重上的正则项,为WeightRegularizer对象
  • b_regularizer:施加在偏置向量上的正则项,为WeightRegularizer对象
  • activity_regularizer:施加在输出上的正则项,为ActivityRegularizer对象
  • W_constraints:施加在权重上的约束项,为Constraints对象
  • b_constraints:施加在偏置上的约束项,为Constraints对象
  • bias:布尔值,是否包含偏置向量(即层对输入做线性变换还是仿射变换)
  • input_dim:整数,输入数据的维度。当该层作为网络的第一层时,必须指定该参数或input_shape参数。
  • transform_bias:用以初始化传递参数,默认为-2(请参考文献理解本参数的含义)

输入shape

形如(nb_samples, input_dim)的2D张量

输出shape

形如(nb_samples, output_dim)的2D张量

参考文献

  • Highway Networks

MaxoutDense层

全连接的Maxout层

MaxoutDense层以nb_featuresDense(input_dim,output_dim)线性层的输出的最大值为输出。MaxoutDense可对输入学习出一个凸的、分段线性的激活函数。

参数

  • nb_features:内部使用的全连接层的数目

输入shape

形如(nb_samples, input_dim)的2D张量

输出shape

形如(nb_samples, output_dim)的2D张量

参考文献

Maxout Networks


TimeDisributedDense层

keras.layers.core.TimeDistributedDense(output_dim, init='glorot_uniform', activation='linear', weights=None, W_regularizer=None, b_regularizer=None, activity_regularizer=None, W_constraint=None, b_constraint=None, bias=True, input_dim=None, input_length=None)

为输入序列的每个时间步信号(即维度1)建立一个全连接层,当RNN网络设置为return_sequence=True时尤其有用

  • 注意:该层已经被弃用,请使用其包装器TImeDistributed完成此功能
model.add(TimeDistributed(Dense(32)))

参数

  • output_dim:大于0的整数,代表该层的输出维度。模型中非首层的全连接层其输入维度可以自动推断,因此非首层的全连接定义时不需要指定输入维度。
  • init:初始化方法,为预定义初始化方法名的字符串,或用于初始化权重的Theano函数。该参数仅在不传递weights参数时有意义。
  • activation:激活函数,为预定义的激活函数名(参考激活函数),或逐元素(element-wise)的Theano函数。如果不指定该参数,将不会使用任何激活函数(即使用线性激活函数:a(x)=x)
  • weights:权值,为numpy array的list。该list应含有一个形如(input_dim,output_dim)的权重矩阵和一个形如(output_dim,)的偏置向量。
  • W_regularizer:施加在权重上的正则项,为WeightRegularizer对象
  • b_regularizer:施加在偏置向量上的正则项,为WeightRegularizer对象
  • activity_regularizer:施加在输出上的正则项,为ActivityRegularizer对象
  • W_constraints:施加在权重上的约束项,为Constraints对象
  • b_constraints:施加在偏置上的约束项,为Constraints对象
  • bias:布尔值,是否包含偏置向量(即层对输入做线性变换还是仿射变换)
  • input_dim:整数,输入数据的维度。当该层作为网络的第一层时,必须指定该参数或input_shape参数。
  • input_length:输入序列的长度,为整数或None,若为None则代表输入序列是变长序列

输入shape

形如 (nb_sample, time_dimension, input_dim)的3D张量

输出shape

形如 (nb_sample, time_dimension, output_dim)的3D张量

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2016-10-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 CreateAMind 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 常用Model属性
  • Model模型方法
    • compile
      • fit
        • evaluate
          • predict
            • train_on_batch
              • test_on_batch
                • predict_on_batch
                  • fit_generator
                    • evaluate_generator
                      • predict_generator
                        • get_layer
                        • 关于Keras的“层”(Layer)
                        • 常用层
                          • Dense层
                            • 参数:
                            • 输入
                            • 输出
                          • Activation层
                            • 参数
                            • 输入shape
                            • 输出shape
                          • Dropout层
                            • 参数
                            • 参考文献
                          • SpatialDropout2D层
                            • 参数
                            • 输入shape
                            • 输出shape
                            • 参考文献
                          • SpatialDropout3D层
                            • 参数
                            • 输入shape
                            • 输出shape
                            • 参考文献
                          • Flatten层
                            • 例子
                          • Reshape层
                            • 参数
                            • 输入shape
                            • 输出shape
                            • 例子
                          • Permute层
                            • 参数
                            • 例子
                            • 输入shape
                            • 输出shape
                          • RepeatVector层
                            • 参数
                            • 输入shape
                            • 输出shape
                            • 例子
                          • Merge层
                            • 参数
                            • 例子
                          • Lambda层
                            • 参数
                            • 例子
                            • 输入shape
                            • 输出shape
                          • ActivityRegularizer层
                            • 参数
                            • 输入shape
                            • 输出shape
                          • Masking层
                            • 例子
                          • Highway层
                            • 参数:
                            • 输入shape
                            • 输出shape
                            • 参考文献
                          • MaxoutDense层
                            • 参数
                            • 输入shape
                            • 输出shape
                            • 参考文献
                          • TimeDisributedDense层
                            • 参数
                            • 输入shape
                            • 输出shape
                        领券
                        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档