腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(4602)
视频
沙龙
2
回答
TensorFlow
强化
学习
softmax
层
python
、
tensorflow
、
neural-network
、
reinforcement-learning
、
softmax
我有一个关于
TensorFlow
代码的问题。我的决策是由sigmoid
层
给出的,后来用该
层
给出的概率随机选择。 现在我有了三个离散的可能决策的环境,所以我尝试了
softmax
层
,但它不起作用。当我启动
TensorFlow
会话时。tf.nn.elu, kernel_initializer=initializer) outputs = tf.nn.
softmax
tf.multinom
浏览 27
提问于2020-07-13
得票数 0
回答已采纳
1
回答
当可能发生多个操作时,策略梯度是多少?
neural-network
、
reinforcement-learning
我试图编程一个
强化
学习
算法使用策略梯度,灵感来自。卡帕的例子只有上下两个动作,所以一个输出神经元就足够了(高activation=UP,低activation=DOWN)。我想把它扩展到多个动作,所以我相信我需要输出
层
上的
softmax
激活函数。但是,我不确定输出
层
的梯度应该是多少。如果我在监督
学习
环境中使用具有
softmax
激活的交叉熵损失函数,神经元的梯度就是:其中target[i] = 1用于所需的操作,0用于所有
浏览 6
提问于2017-05-10
得票数 3
回答已采纳
1
回答
Keras CTC损失输入
tensorflow
、
keras
在该示例中,CTC Lambda
层
的输入是
softmax
层
(y_pred)的输出。Lambda
层
调用内部调用
Tensorflow
的ctc_loss的ctc_batch_cost,但是说ctc_loss函数在内部执行
softmax
,所以您不需要首先使用
softmax
。我认为正确的用法是将inner传递给Lambda
层
,所以您只在ctc_loss函数内部应用一次
softmax
。我已经试过这个例子了,效果很好。我应该
学习
这
浏览 2
提问于2017-04-18
得票数 10
回答已采纳
0
回答
具有特定自定义成本函数的
Tensorflow
NN
tensorflow
我正在尝试在
tensorflow
中创建一个不属于回归类别分类的神经网络。它可能更接近
强化
学习
。 我已经制作了一个带有几个ReLU隐藏
层
的网络,它以3个元素的
softmax
输出
层
结束。然而,当处理产生矩阵而不是向量的批处理时,我不知所措(嘿)如何以
TensorFlow
优化器可以使用的方式将其表示为成本函数。简单地使用上面的示例代码将产生一个无意义的批量大小^2大小的矩阵。
浏览 2
提问于2016-07-06
得票数 1
1
回答
对象定位MNIST
Tensorflow
:损失不会减少
tensorflow
、
pytorch
、
localization
、
bounding-box
我正在尝试将
Tensorflow
对象定位代码转换为Pytorch。但是,尽管如此,我的损失并没有减少,但它的崩溃,准瞬间与
Tensorflow
代码。我用torchinfo.summary检查了这个模型,它看起来和
Tensorflow
实现一样有效。我的训练循环和.compile .fit 和.fit
Tensorflow
方法一样有效吗? self.dense_classifier = nn.Linear(in_features=128, out_features=10)
浏览 2
提问于2022-06-03
得票数 0
1
回答
为什么keras-rl示例总是在输出
层
选择线性激活?
keras
、
reinforcement-learning
、
openai-gym
我完全是
强化
学习
的新手。我有一个关于keras-rl代理的输出
层
的激活函数的选择的问题。在keras-rl ()提供的所有示例中,在输出
层
选择线性激活函数。为什么会这样呢?例如,如果我使用离散操作空间为5的OpenAI环境,我是否也应该考虑在代理的输出
层
中使用
softmax
?提前谢谢你。
浏览 17
提问于2017-08-04
得票数 4
回答已采纳
3
回答
强化
学习
工具
reinforcement-learning
Tensorforce、Kerasrl和chainerrl用于
强化
学习
的区别是什么?据我所知,这三种方法都与OpenAI健身房环境有关,并且具有相同的
强化
学习
算法。在表现上有什么不同吗?
浏览 1
提问于2018-09-10
得票数 1
1
回答
softmax
层
的裁剪阈值
neural-network
、
deep-learning
、
tensorflow
最近,我遇到了一篇关于使用(相当简单的) LSTM进行情感分类的论文,它将其网络设置描述为:有人能给我解释一下吗?这样我就知道如何用
Tensorflow
来实现它了?非常感谢!更新,好的,我找到了他们的代码,下面是他们如何
浏览 0
提问于2016-12-22
得票数 3
1
回答
如何用
强化
学习
算法建立实时控制器
tensorflow
、
real-time
我正在尝试使用
强化
学习
来控制一个实际的机器人操纵器。对于
强化
学习
,我使用的是Google
tensorflow
。C++中有没有使用
Tensorflow
强化
<em
浏览 0
提问于2019-04-01
得票数 0
2
回答
Tic-Tac-Toe中的
Tensorflow
tensorflow
**TLDR的底部我已经搜索了几天,而我只是不知道什么谷歌,因为我是非常新的机器
学习
。经过研究,我认为
tensorflow
是一个很好的起点(我愿意接受其他建议)。当我寻找
tensorflow
的例子时,它们都需要一个大型的数据存储库才能输入程序,但我更感兴趣的是创建一个在玩游戏时
学习
的AI,比如Tic Tac Toe。我很难搞清楚该怎么做。TLDR:有什么好的、简单的机器
学习
程序(最好是
tensorflow
)可以帮助我制作一个Tic-Tac-Toe AI。
浏览 1
提问于2019-03-19
得票数 0
回答已采纳
1
回答
基于
softmax
的Keras
强化
训练
keras
、
reinforcement-learning
、
softmax
我正在从事的一个项目有一个使用算法的
强化
学习
阶段。所使用的模型具有最终的
softmax
激活
层
,因此采用负
学习
速率作为负奖励的替代。我对这一过程有些怀疑,也找不到关于使用负
学习
率的大量文献。np.concatenate(st_tensor, axis=0),更新,测试结果 我只测试了阳性的
强化
样本,省略了所有的阴性样本,从而降低了负
学习</
浏览 3
提问于2017-07-12
得票数 1
回答已采纳
1
回答
Keras -
softmax
函数的默认轴被设置为Axis
python
、
tensorflow
、
keras
、
softmax
、
activation-function
我正在
学习
如何创建顺序模型。我有个模特:然后,我继续添加池
层
和卷积
层
(这很好)。但在创建致密
层
时:这条线又回来了:这是带角角的虫
浏览 0
提问于2018-05-13
得票数 1
回答已采纳
1
回答
在ReLu激活中使用Glorot初始化是错误的吗?
neural-network
、
deep-learning
、
keras
、
activation-function
、
weight-initialization
但是,我看到的所有教程都使用relu激活作为隐藏
层
的开始,但我没有看到它们将这些
层
的初始化指定为he。| initialization | activation | | glorot | none, tanh, logistic, <em
浏览 0
提问于2020-01-23
得票数 5
1
回答
关于Google转换器教程的问题
tensorflow
、
google-colaboratory
、
transformer-model
我想在这里
学习
Tensorflow
转换器教程: self.final_layer = tf.keras.layers.Dense(target_vocab_size)我遗漏了什么?提前感谢您的协助。
浏览 7
提问于2021-12-11
得票数 0
1
回答
Tensorflow
CNN不
学习
(图像中的图像输出)
python
、
tensorflow
我被困在一个大学项目的
Tensorflow
卷积神经网络上,我希望有人能帮我。网络似乎没有学到任何有用的东西,我有一种感觉,我忘记了一些基本的东西。当
学习
时,准确率约为5%。我基于
tensorflow
mnist教程编写的代码。下面是我缩短的代码,以使其更易读:from PI
浏览 2
提问于2018-03-09
得票数 0
回答已采纳
8
回答
单词logits在
TensorFlow
中的含义是什么?
tensorflow
、
machine-learning
、
neural-network
、
deep-learning
、
cross-entropy
在下面的
TensorFlow
函数中,我们必须在最后一
层
提供人工神经元的激活。我能理解。但是我不明白为什么它被称为logits?这不是一个数学函数吗?loss_function = tf.nn.
softmax
_cross_entropy_with_logits( labels = target_output
浏览 2
提问于2017-01-04
得票数 343
1
回答
具有SGD的多项logistic
softmax
回归
python
、
machine-learning
、
neural-network
、
logistic-regression
、
gradient-descent
这是我到目前为止所拥有的代码:import numpy as np returnfor i, sample in enumerate(train_x): soft =
softmax
error * rate * sample # print(error
浏览 0
提问于2017-10-24
得票数 0
6
回答
TypeError:
softmax
()得到了一个意想不到的关键字参数'axis‘
python-2.7
、
keras
、
softmax
out_layer = tf.add(tf.matmul(layer_4 , weights['out']) , biases['out'])model.add(Activation('
softmax
')) TypeError:
浏览 5
提问于2018-06-09
得票数 12
回答已采纳
1
回答
TensorFlow
2.0中的spatial_
softmax
层
tensorflow
、
keras
、
deep-learning
、
softmax
Tensorflow
1.X曾经有一个
层
tensorflow
.contrib.layers.spatial_
softmax
。该
层
基本上在每个通道上执行
softmax
,并返回最大点的坐标。
浏览 25
提问于2020-03-08
得票数 0
1
回答
tensorflow
神经网络中的误差加
层
tensorflow
、
neural-network
、
tensorflow2.0
import
tensorflow
as tf from
tensorflow
.kerasactivation = 'relu') # this adds a dense hidden layer 我试
浏览 2
提问于2020-09-15
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券