腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
在
TensorFlow
模型
中
的
隐藏
层
之间
打印
值
、
、
我已经
在
Python
中
构建了一个
tensorflow
模型
来进行图像识别,但我想更好地理解我
的
模型
是如何工作
的
。我想在我
的
模型
的
每一
层
之间
打印
值
。我使用
的
是
TensorFlow
1.13.1和Python3.6.8。
浏览 10
提问于2019-04-12
得票数 1
回答已采纳
1
回答
在
tensorflow
中将自己
的
激活函数应用于
层
、
、
我正在使用一个
模型
,其中
tensorflow
relu函数用于激活
隐藏
层
。所以这个
模型
基本上做到了这一点其中zw是来自上一
层
的
输出
的
所有元素乘以权重。根据
tensorflow
的
relu定义,它将返回所以对于张量
的
每个元素,介于0和zw
的
每个元素
的
值
之间
的</e
浏览 17
提问于2017-08-24
得票数 1
回答已采纳
2
回答
TensorFlow
中
的
预训练神经网络
、
、
我
在
训练一个深度神经网络。直接训练整个网络是困难
的
,因此,我更喜欢逐
层
训练。首先,我训练一个只有一个
隐藏
层
的
网络。之后,我使用tf.train.Saver保存
模型
。下一次,我通过调用以下命令来恢复变量:当然,这一次,架构发生了变化,因为我
在
隐藏
层
和输出
层
之间
插
浏览 2
提问于2017-01-09
得票数 3
3
回答
在
神经网络
中
隐藏
层
意味着什么?
、
、
在
标准
的
神经网络
中
,我试图直观地理解
模型
中
隐藏
层
的
值
意味着什么。 手写数字
的
图像将有784像素。由于有784个像素,
浏览 2
提问于2019-08-06
得票数 0
2
回答
在
tensorflow
估计器
中
记录长张量值
、
、
、
我已经使用
tensorflow
估计器API构建了一个分类
模型
。我试图让张量输出从
隐藏
层
打印
在
日志
中
,而预测使用以下代码。every_n_iter=1) predictions = model.predict(train_input_fn, hooks=[logging_hook]) 当我运行代码时,我能够将张量记录到输出
中
,但是由于
值
很长,它被截断了,并且我只能看到开始和结束
中
的
几个数字。INFO:
浏览 43
提问于2018-12-21
得票数 3
回答已采纳
1
回答
用
Tensorflow
实现随机神经网络?
、
、
、
、
基于以下文献
的
具有随机权
值
的
神经网络(NNRW) 本质上,其思想是,
隐藏
层
是随机固定
的
,只对输出
层
进行优化。(导致一个简单
的
最小二乘解)。我很熟悉
在
keras中使用Sequential来创建
模型
,虽然我不确定我将如何“修复”
隐藏
层
,并且只关注优化输出
层
。我
的
最后一次尝试是用NumPy手动编写网络代码,但我想问是否有人在
Tensorflow
浏览 0
提问于2022-04-06
得票数 0
2
回答
Keras:跨培训示例共享一
层
权重(而不是
在
层
间)
、
、
、
我有一个词汇量25K
的
分类预测任务。在其中一个(输入声10K,输出暗淡,即嵌入50)上,我想为输入嵌入(形状为1,50)和权重(形状(50,128))(无偏差)
之间
的
矩阵相乘引入一个可训练
的
权重矩阵,所得到
的
向量得分与其他特征一起作为预测任务
的
输入关键是,如果我简单地把它加进去,我认为每个输入
的
可训练权重矩阵都是不同
的
。我希望这个权重矩阵在所有输入中都是通用
的
。 我应该澄清--这里
的
输入我指的是训练例子。因此,所有的
浏览 2
提问于2019-06-25
得票数 4
回答已采纳
2
回答
如何将ReLU与Sigmoid联系起来
、
、
给定一个网络,输入->
隐藏
层
使用ReLU激活->输出
层
使用Sigmoid激活乙状结肠
的
激活移位了吗?因为我得到
的
输出介于0和1
之间
(正如手册中所说
的
),但是为什么呢?这是
在
控制台中<em
浏览 2
提问于2021-07-23
得票数 0
2
回答
更多
的
隐藏
层
对分类
模型
的
精度有更大
的
影响吗?
、
、
、
我用Keras训练了不同
的
分类
模型
,每个
层
有不同
的
隐层数和相同
的
神经元数。我发现,随着
隐藏
层数
的
增加,
模型
的
准确性降低了,但是,
在
隐藏
层
的
数量更多
的
情况下,
模型
的
精度下降更明显。下图显示了不同
模型
的
准确性,在这些
模型
中
,
隐藏</em
浏览 0
提问于2021-04-10
得票数 2
1
回答
tensorflow
角迁移学习
模型
研究综述
、
、
、
、
我接受输入,使用Lambda
层
进行预处理,然后将预处理后
的
输入输入到MobileNetV2
中
,然后添加密集
层
并对其进行训练。训练、推理等实际上是按预期工作
的
。
tensorflow
.python.keras.engine.functional.Functional类型
的
一个
层
。如果我
打印
这个
层
的
摘要,我得到
模型
的
所有内部
层
。我有一个用于自动Grad
浏览 2
提问于2022-02-10
得票数 0
1
回答
在
tensorflow
中使用tf.data.Dataset api还原
模型
后,
在
开发数据集中运行该
模型
、
、
当我
在
tensorflow
中使用tf.data.Dataset api时,我用
tensorflow
训练了我
的
模型
。:
在
创建
模型
时,我将训练数据集图像作为
模型
的
输入传递。另一方面,当涉及到从给定测试数据集
的
模型
中提取某些特征时,
tensorflow
将要求我初始化训练迭代器,因为它假设我是
在
输入训练数据集(考虑到我是如何创建
模型
的
“
浏览 1
提问于2018-10-31
得票数 0
回答已采纳
1
回答
仅检索pytorch序列
中
lstm
层
的
最后一个
隐藏
状态
、
、
、
torch.nn.Linear(256, 256),) 对于LSTM
层
,我只想从批处理
中
检索最后一个
隐藏
状态,以通过其余
的
层
。我需要以某种方式
在
nn.Sequential()
模型
上执行此操作,这样当我保存它时,它可以正确地转换为
tensorflow
.js
模型
。我不能在
tensorflow
.js
中
创建和训练这个
模型
的
浏览 5
提问于2021-10-05
得票数 0
1
回答
tensorflow
神经网络
中
的
误差加
层
、
、
import
tensorflow
as tf from
tensorflow
.kerasimport models from
tensorflow
.keras.utilsdense hidden layer network.add(l
浏览 2
提问于2020-09-15
得票数 0
回答已采纳
1
回答
如何获得训练过程
中
神经网络可训练参数
的
雅可比输出矩阵?
、
、
、
我正在使用
tensorflow
2.1.0和Keras。利用随机梯度下降(SGD)训练神经网络
模型
。我想得到雅可比矩阵
的
输出与可训练参数
的
NN,(权
值
和偏差),
在
训练过程
中
的
每一个样本。例如,我有2输出,4输入,2
隐藏
层
,1输出
层
。两个隐
层
都有3个神经元,输出
层
有2个神经元。雅可比矩阵是一个2乘- 35矩阵(2个输出和35个可训练参数). 谢谢。
浏览 3
提问于2021-07-21
得票数 1
1
回答
ANN,RNN,DNN和CNN
的
主要区别是什么?
、
、
我是较新
的
深度学习领域。如何利用
TensorFlow
库实现这些神经网络?
浏览 0
提问于2019-09-05
得票数 3
回答已采纳
1
回答
GPT2如何在MegatronLM
中
实现
模型
并行?
、
、
、
、
我试图了解
的
实现细节,它具有
模型
和数据并行。在他们
的
或他们
的
研究
中
,他们提到了他们是如何使用
层
内并行
的
,这类似于网格
TensorFlow
。我对一些细节感到困惑。如下图所示,我
的
理解是,四个红色圆圈内部
的
计算可以通过
层
内分裂并行化,但是MLP必须在自我关注之后发生,因此只能同时并行两个红色圈块。文中说,
模型
平行为8路.我
的
第一个问题是,是否表明它们将每个块分成4个<
浏览 2
提问于2020-09-24
得票数 2
1
回答
关于反向传播算法
的
几个问题
、
、
、
我有几个关于反向传播
的
问题。我正在努力学习神经网络理论
的
基础知识,并希望从小到小开始,构建一个简单
的
异或分类器。我读过很多文章,还浏览过多本教科书--但我似乎不能教这件事--异或模式。首先,我不清楚反向传播
的
学习模式。这里有一些伪代码来表示我是如何训练网络
的
。让我们假设我
的
网络设置正确(即:多个输入连接到一个
隐藏
层
,连接到一个输出
层
,所有连接都正确地连接起来)。我意识到这可能是不够
的
,我将很高兴地阐述我
的</
浏览 4
提问于2012-09-24
得票数 2
2
回答
Keras如何在没有激活
的
层
上优化权重?
、
、
背景:我编写了下面的代码来创建一个word2vec
模型
(跳过图): model = Sequenti
浏览 0
提问于2018-07-31
得票数 1
回答已采纳
1
回答
查找Pytorch GRU功能
的
TensorFlow
等效项
、
、
、
、
我对如何在
TensorFlow
中
重构以下Pytorch代码感到困惑。它同时使用输入大小x和
隐藏
大小h来创建GRU
层
import torchtf.keras.layers.GRU(64, return_state=True) 然而,我意识到它并没有真正考虑到h或
隐藏
的</e
浏览 10
提问于2020-10-17
得票数 4
1
回答
在
tensorflow
中
训练时Keras BatchNormalization种群参数
的
更新
、
、
、
我
在
Ubuntu16.04
中
使用了带有
Tensorflow
1.3.0
的
Keras2.0.8和cuDNN 6。我
在
我
的
模型
中使用两个BatchNormalization
层
( keras
层
),并使用
tensorflow
管道进行培训。我现在面临两个问题- 即使
在
将K.learning_phase设置为True之后,
层
的
总体参数(均值和方差)也是
在
浏览 1
提问于2017-10-06
得票数 2
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券