腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(6333)
视频
沙龙
1
回答
如
何在
输入
层
和
"
Model
as
layer
“
之间
放置
层
?
、
、
、
、
(1)(x) img = Dropoutin efnet.layers:# ... any number of layers ...x = Dense(1)(x)
model
=
Model
(inputs=img, outputs=x) 两者
浏览 21
提问于2020-04-22
得票数 0
1
回答
使用共享
层
保存keras模型
我有两个具有共享
层
的keras模型,我希望将它们的权重保存在hd5文件中。如果我单独保存两个模型,我认为使用两倍的磁盘空间将共享
层
保存两次。如何将其保存在唯一的文件中? 谢谢!!
浏览 10
提问于2018-12-26
得票数 8
回答已采纳
1
回答
我们如
何在
堆叠的LSTM模型中使用巴达诺注意力?
、
、
我的目标是在堆叠的LSTM模型中使用注意力,但我不知道如
何在
编码
层
和解码
层
之间
添加Keras的AdditiveAttention机制。比方说,我们有一个
输入
层
,一个编码器,一个解码器
和
一个密集的分类
层
,我们的目标是解码器在导出其输出时关注编码器的所有隐藏状态(h = h1,...,hT)。有没有使用Keras的高级编码方法?例如,x = input_
laye
浏览 8
提问于2021-06-17
得票数 1
2
回答
保存并从磁盘重新加载Keras模型的
输入
层
。
、
、
、
我通过Keras加载、扩展
和
训练了一个VGG16网络,然后将它保存到磁盘上:from keras import modelsimport load_
model
model
_fails =
model
_vgg16.get_
layer
("vgg16") <
浏览 2
提问于2019-05-15
得票数 1
回答已采纳
1
回答
有没有办法在Keras中输出网络值?
、
、
、
在预测一些随机
输入
时,有什么方法可以识别神经元值吗?(参见给定
输入
的最终神经元状态)。
浏览 0
提问于2018-01-25
得票数 0
回答已采纳
1
回答
什么是交错
层
的卷积?
在FaceNet纸中,他们这样描述泽勒&费格斯模型:交错是什么意思?这与起始
层
相比如何?特别是,正如泽勒
和
费格斯纸业所说的 我们在整个论文中使用标准的完全监督的convnet模型(LeCun等人,1989年)
和
(Krizhevsky等人,2012年)。...网络的前几层是传统的全连通网络,最后一
层
是softmax分类器。
浏览 0
提问于2016-11-18
得票数 1
回答已采纳
1
回答
添加的
层
必须是类
层
的实例。
、
、
我将两个LSTM模型的两个掩蔽
层
合并如下:merged = Concatenate(axis=1)([s1rnn.output,s2rnn.output])
model
.add(Dense(1))
model
.compile(loss='categorical_crossentropy', optimizer='adam', metrics=[
浏览 3
提问于2022-05-24
得票数 0
回答已采纳
1
回答
是否可以在Keras中看到Conv2D
层
之后的输出?
、
、
、
我正在努力理解每一
层
的Keras,同时实现CNN。可以看到应用于
输入
图像的不同特征映射矩阵,以得到卷积
层
,可以看到在Conv2D步骤完成后生成的矩阵的值。 提前感谢
浏览 5
提问于2020-01-01
得票数 1
回答已采纳
2
回答
在Keras中添加隐藏
层
的格式。
、
、
、
、
我写了一个神经网络代码,我想在其中添加隐藏
层
。trainX.shape[0], 1, trainX.shape[1]))
model
.add(LSTM(4, input_shape=(1, look_back)))
model
.compile(loss='mean_squared_er
浏览 0
提问于2018-12-19
得票数 4
1
回答
我可以使用不同
输入
通道大小的预训练模型吗?
、
预先训练的模型接受这样的
输入
形状;[32, 3, 16, 224,224][batch_Size, Channels, Depth, Height, Width]它给了我这个错误;这就是说,第一
层
预训练模型的权重是16 3 3 1 3 3,它期望有这是预先训练的模型
层
及其输出; conv1.conv_1.conv3d.weight : torch.Size([16, 3, 1, 3, 3
浏览 0
提问于2021-09-01
得票数 0
1
回答
如何将辅助头部添加到预先训练的keras模型的中间层?
、
、
辅助头,我指的是另一组
层
,他们将产生第二个输出(2个最终输出)。aux_head = tf.keras.layers.Conv2D(1, kernel_size=1, padding= 'valid', name = 'aux_head')(aux_head)
model
tf.keras.layers.Dense(4, activation='softmax', name = 'classification')(classification_head)int
浏览 30
提问于2021-06-27
得票数 1
回答已采纳
2
回答
如
何在
多
输入
模型中得到角化
层
的输出?
、
当Keras模型接受多个
输入
时,其
层
的行为就好像只有一个
输入
一样。可能是个窃听器。
model
= vgg19.VGG19(weights='imagenet', include_top=False, pooling='avg')
model
(image2)
model
.get_output_at(0)#no error here outp
浏览 2
提问于2017-06-19
得票数 1
回答已采纳
3
回答
Python/Keras/Theano深度自动编码器的错误尺寸
、
、
、
、
异常:
输入
0与
层
dense_18不兼容: from keras.layers import Dense,Input from keras.models import
Model
autoencoder =
Model
(input=input_img, output=
浏览 0
提问于2016-06-10
得票数 9
回答已采纳
2
回答
如
何在
Keras中实现RBF激活函数?
、
、
、
、
* K.pow(l2,2))
model
.add(Dense(84, activation='tanh')我实际上想做的是,实现LeNet5神经网络的输出
层
。LeNet-5的输出
层
有点特殊,每个神经元输出其
输入
向量
和
其权重向量
之间
的欧几里得距离的平方,而不是计算
输入
向量
和
权重向量的点积。在一般情况下,为了
浏览 43
提问于2018-12-20
得票数 5
回答已采纳
1
回答
如何从Tensorflow Keras中的叠加BiLSTM
层
中提取隐藏状态矩阵?
、
、
、
、
我试图为这个体系结构(问答模型:纸张)编写代码,并寻求如何从堆叠的BiLSTM
层
中获取隐藏状态矩阵Hq
和
Ha的帮助。有谁能告诉我。 # Considered fixed length as 40 for both question and answer asper research paper embedding_
layer
1 = layers.Embedding(vocab_size_query, 300, weights=[em
浏览 5
提问于2020-02-03
得票数 0
回答已采纳
1
回答
如
何在
vgg16内部添加自定义
层
进行转移学习?
、
、
、
、
为此,我遵循以下顺序:(1)加载
层
和
freez
层
,(2)添加我的
层
,(3)加载其余
层
(输出
层
除外)--这是我遇到以下错误的地方,freez
层
,(4)添加输出
层
。我的方法可以吗?以下是错误: vgg16
laye
浏览 0
提问于2019-09-12
得票数 0
1
回答
关于Keras的LSTM网络的几个问题
、
、
考虑到这种基于LSTM的RNN:
model
= Sequential()
model
.add(LSTM(30, activation)
model
.add(LSTM(10, activation="softsign"))
model
.add(Dense(10)) 是从最后隐藏
浏览 4
提问于2020-07-30
得票数 0
2
回答
如
何在
特定时期后冻结特定
层
的训练
、
我想冻结训练的前两
层
以下代码后第三个时代。总时期设置为10。
model
= Sequential() activation='relu',input_shape=input_shape))
model
.add(MaxPooling2D(pool_size=
浏览 0
提问于2019-12-09
得票数 4
1
回答
Keras得到中间层的输出
、
、
、
## what my
model
looks like
model
= Sequential()
model
.add(Dense(10, activation='relu'))
model
.add(Dropout(0.25)) ## p
浏览 5
提问于2017-03-21
得票数 2
回答已采纳
1
回答
Keras中自定义丢失函数中的访问
层
属性
、
、
我想在Keras中编写一个自定义丢失函数,它依赖于网络中(自定义)
层
的属性。 def modified_loss(y_true, y_pred): y_true(input_
layer
, name="my_
layer
") output_
laye
浏览 0
提问于2019-06-27
得票数 2
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
对象存储
活动推荐
运营活动
广告
关闭
领券