腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
Tensorflow
/
Keras
中
查看
隐藏
层
输出
的
最
简单
方法
?
python
、
tensorflow
、
keras
、
conv-neural-network
、
generative-adversarial-network
我正在研究一个GAN,我正在尝试诊断模式崩溃是如何发生
的
。我希望能够看一看“引擎盖下”,看看网络
中
不同
层
的
输出
是什么样子
的
最后一个小批量。我看到你可以做一些类似model.layers[5].output
的
事情,但是这会产生一个形状为None,64,64,512
的
张量,它看起来像一个空张量,而不是上一次运行
的
实际
输出
。我唯一
的
另一个想法是重新编译一个模型,这个模型
在
我感兴趣
浏览 52
提问于2020-08-19
得票数 0
回答已采纳
2
回答
如何将偏差和激活函数直接添加到
TensorFlow
中
的
输入
层
?
python
、
tensorflow
、
keras
、
neural-network
我想要创建一个没有
隐藏
层
的
神经网络,但是每个输入都有一个偏差求和,并且
在
进入softmax
输出
层
之前经过一个relu函数。与每个输入
的
偏差相关
的
权重需要是可训练
的
。您也可以将其看作是一个具有一个
隐藏
层
的
神经网络,但是
隐藏
层
中
的
每个节点只连接到一个输入特性。我想要实现
的
是
最
<e
浏览 0
提问于2020-04-21
得票数 0
回答已采纳
1
回答
利用
Keras
在
去噪自动编码器
中
获取隐
层
输出
keras
、
python-3.6
、
autoencoder
、
tensorflow2.0
我构建了一个包含三个
层
的
Sequential
Keras
模型:一个Gaussian Noise
层
、一个
隐藏
层
和与输入
层
相同维
的
输出
层
。为此,我使用了
Tensorflow
2.0.0-beta1 1附带
的
Keras
包。因此,我希望获得
隐藏
层
的
输出
,这样我就绕过了Gaussian Noise<em
浏览 1
提问于2019-09-28
得票数 1
回答已采纳
2
回答
Keras
:跨培训示例共享一
层
权重(而不是
在
层
间)
python
、
tensorflow
、
keras
、
lstm-stateful
我有一个词汇量25K
的
分类预测任务。在其中一个(输入声10K,
输出
暗淡,即嵌入50)上,我想为输入嵌入(形状为1,50)和权重(形状(50,128))(无偏差)之间
的
矩阵相乘引入一个可训练
的
权重矩阵,所得到
的
向量得分与其他特征一起作为预测任务
的
输入关键是,如果我
简单
地把它加进去,我认为每个输入
的
可训练权重矩阵都是不同
的
。我希望这个权重矩阵在所有输入中都是通用
的
。 我应该澄清--这里
的
输入我指的是训练
浏览 2
提问于2019-06-25
得票数 4
回答已采纳
1
回答
tensorflow
神经网络
中
的
误差加
层
tensorflow
、
neural-network
、
tensorflow2.0
import
tensorflow
as tf from
tensorflow
.
keras
import models from
tensorflow
.
keras
.ut
浏览 2
提问于2020-09-15
得票数 0
回答已采纳
1
回答
tf.Variables
的
定义(使用列表?)
python
、
tensorflow
、
neural-network
我从
Tensorflow
开始,到目前为止,我只处理过具有少量
隐藏
层
的
“浅”前馈网络或神经网络,其对应
的
W是以如下方式单独定义
的
(该示例对应于具有五个
隐藏
层
的
网络
的
初始化): W1 = tf.Variable[60])) b5 = tf.Variable(tf.truncated_normal([10])) 我
的
浏览 35
提问于2019-02-10
得票数 0
1
回答
用
Tensorflow
实现随机神经网络?
machine-learning
、
python
、
neural-network
、
tensorflow
、
optimization
基于以下文献
的
具有随机权值
的
神经网络(NNRW) 本质上,其思想是,
隐藏
层
是随机固定
的
,只对
输出
层
进行优化。(导致一个
简单
的
最小二乘解)。我很熟悉
在
keras
中使用Sequential来创建模型,虽然我不确定我将如何“修复”
隐藏
层
,并且只关注优化
输出
层
。我
的
最后一次尝试是用NumPy手动编写网络代码,但我想问是
浏览 0
提问于2022-04-06
得票数 0
2
回答
tf.
keras
.model和tf.
keras
.sequential有什么区别?
python
、
tensorflow
、
keras
在
一些tf.
keras
教程
中
,我看到它们实例化它们
的
模型类如下:
在
一些地方,他们使用
的
是这样
的
东西:但是
在
中
,它们确实看起来是一样
的
,但我不确定,也没有明确提到。
浏览 11
提问于2021-03-30
得票数 8
回答已采纳
1
回答
"
tensorflow
.math.multiply“和"
tensorflow
.
keras
.layers.multiply”有什么区别?
python
、
tensorflow
、
keras
、
layer
、
loss
tensorflow
.math.multiply和
tensorflow
.
keras
.layers.multiply有什么区别?同样,
tensorflow
.math.add和
tensorflow
.
keras
.layers.add
的
区别是什么?我之所以有这个问题,是因为当我构建自己
的
自定义损失函数和度量标准product = multiply([y_true_f, y_pred_f])时,如果我使用from
tensorflow
.
浏览 9
提问于2020-01-01
得票数 2
1
回答
如何在CNN中将尺寸为1x1xC
的
特征映射转换为NxNxC维特征映射?
python
、
tensorflow
、
keras
、
deep-learning
、
conv-neural-network
to be added on the densenet121 shape=K.int_shape(inputs) dense = layers.Dense(1280, activation="relu")(reduction) out = tf.
keras
.layers.BatchNormaliza
浏览 4
提问于2021-11-16
得票数 1
1
回答
在
tensorflow
代码中使用
keras
层
python
、
tensorflow
、
keras
假设我有一个
简单
的
神经网络,它有一个输入
层
和一个
在
tensorflow
中
编程
的
卷积
层
: input_layer = tf.reshape(features["x"],filters=32, padding="same",我省略了features网络定义<e
浏览 2
提问于2017-11-07
得票数 15
回答已采纳
1
回答
通流
keras
.sequential函数误差
python
、
tensorflow
、
keras
嗨,我试着
在
tensorflow
中
建立
最
简单
的
回归模型,但是这个错误出现了。
tensorflow
ver: 2.7.0X_train = tf.cast(tf.constant([1,2,3]), dtype=tf.float32) model = tf.
keras
.S
浏览 4
提问于2022-04-08
得票数 0
回答已采纳
1
回答
未经训练
的
二进制分类
keras
模型
的
输出
为1
python
、
tensorflow
、
machine-learning
、
keras
我正在尝试建立一个只有一个
隐藏
层
的
小型神经网络。我希望
在
训练之前,模型会
输出
随机
的
值。但是对于所有的输入,我得到1.0作为
输出
。为什么会这样呢?import
tensorflow
as tfimport numpy as np return
keras
.Sequential([
kera
浏览 15
提问于2018-12-30
得票数 0
回答已采纳
1
回答
如何计算
输出
层
中
多个神经元
的
均方误差损失
tensorflow
、
keras
、
neural-network
、
mse
我有一个前馈回归网络(
在
具有
TensorFlow
后端
的
Keras
中
),具有单个
隐藏
层
(30个神经元)和具有2个神经元(对于复信号
的
虚部和实部)
的
输出
层
。...My问题是如何准确计算均方误差损失?因为对于每个时期,我
在
"history object“
中
只得到一个数字。最终,我想在每个时期提取每个
输出
神经元
的
单独损失数,<
浏览 5
提问于2021-07-07
得票数 0
1
回答
如何将输入
层
与
Tensorflow
中
的
额外层连接起来
python
、
tensorflow
、
keras
、
tensorflow2.0
、
keras-layer
我想知道是否有可能创建一个自定义
的
网络结构,其中输入
层
通过使用
tensorflow
与与输入
层
不相邻
的
隐藏
层
有额外
的
连接。举个例子,假设我有一个
简单
的
网络结构,如下所示。import numpy as npimport
tensorflow
as tfn =
浏览 4
提问于2021-12-01
得票数 0
回答已采纳
1
回答
神经网络
在
1000个时期后不学习以解决异或问题
python
、
neural-network
、
tensorflow2.0
、
xor
我正在学习
TensorFlow
,并且正在尝试解决异或问题。我创建了一个3
层
神经网络来做到这一点,但在500或1000个时代之后,它根本不会学习。我做错了什么?我
在
colab.research.google中使用
的
是
TensorFlow
2.3.0。from
tensorflow
.
keras
.layers import Dense
浏览 0
提问于2020-10-20
得票数 2
4
回答
Keras
+
Tensorflow
:“”ConvLSTM2D“”对象没有“”outbound_nodes“”属性“”
python
、
tensorflow
、
machine-learning
、
keras
我正在尝试将ConvLSTM作为我
的
tensorflow
网络
的
一部分,因为我
在
使用
tensorflow
ConvLSTM实现时遇到了一些问题,所以我决定使用ConvLSTM2D
Keras
层
。为了让
Keras
在
我
的
Tensorflow
会话
中
可用,我使用了博客帖子建议(我正在使用
Tensorflow
后端):https://blog.
ker
浏览 175
提问于2018-07-05
得票数 2
回答已采纳
2
回答
Keras
: LSTM dropout和LSTM recurrent
的
区别
keras
、
lstm
、
dropout
从
Keras
文档
中
:recurrent_dropout: 0到1之间
的
浮点数。递归状态
的
线性转换要下降
的
单位分数。谁能指出在下面的图像
中
每个辍学发生
的
地方?
浏览 0
提问于2017-07-05
得票数 86
回答已采纳
1
回答
如何在`
tensorflow
.
keras
`
中
替换`
keras
.layers.merge._Merge`
python
、
tensorflow
、
keras
、
tf.keras
我想使用tf.
keras
接口创建一个自定义
的
合并
层
。但是,新
的
API
隐藏
了我想要继承
的
keras
.layers.merge._Merge类。这样做
的
目的是创建一个可以对两个不同
层
的
输出
执行加权求和/合并
的
层
。以前,
在
keras
python API (不是
tensorflow
.
keras</e
浏览 47
提问于2019-09-27
得票数 4
回答已采纳
1
回答
检查目标时出错:期望activation_21具有形状(708,1268,3),但得到形状为(720,1280,3)
的
数组
python-3.x
、
keras
、
deep-learning
sr.build(1280,720,3)mo.summary()合共: 20,099个可培训
的
对讲机: 20,099个不可训练
的
对讲机:0 h = mo.fit_g
浏览 3
提问于2020-03-21
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
周末AI课堂:神经网络综观 代码篇
深度学习基础-TensorFlow 概览
Keras:一个基于Python的深度学习库
机器学习的基础讲解:神经网络
Python中Keras深度学习库的回归教程
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券