腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
如何
创建
一个
层
来
反转
softmax
(
TensforFlow
,
python
)?
、
、
、
、
我正在建立
一个
反卷积网络。我想添加
一个
与
softmax
相反的
层
。我尝试编写
一个
基本的
python
函数,该函数返回给定矩阵的
softmax
的逆,并将其放入tensorflow Lambda中,然后将其添加到我的模型中。我没有错误,但当我做预测时,我在出口处只有0。当我没有将这一
层
添加到我的网络中时,我输出的不是零。因此,这证明它们是由于我的inv_
softmax
函数造成的,这是错误的。你能告诉我该怎么做吗?我将我的函数定义为: def
浏览 82
提问于2020-11-03
得票数 1
回答已采纳
1
回答
分层
Softmax
输出
层
的单位数
、
、
、
在word2vec中,有3个
层
:输入
层
、隐藏
层
和输出
层
。下面是我正在阅读的参考资料: 非常感谢。
浏览 8
提问于2017-07-19
得票数 2
1
回答
我们能用深层神经网络解决回归问题吗?
、
、
、
、
我想用ReLUs
来
训练DNN,而不是使用典型的乙状结肠单元。我已经成功地实现了下面的分类问题示例(
softmax
层
),但是我试图实现这一点,因为regression.My数据集是基于负荷预测的。
浏览 1
提问于2017-04-12
得票数 0
回答已采纳
3
回答
Keras张量获得名称
、
、
我有
一个
keras张量列表,对于每
一个
变量,我都提供
一个
带有name参数的名称。BatchNormalization(axis=3, name="a")(input)print(layer.name)
如何
检索我给出的
浏览 0
提问于2019-03-28
得票数 3
回答已采纳
1
回答
为Keras中的Sequential Node提供确切名称
、
、
我正在尝试命名Keras模型中的节点,但Keras将附加信息附加到
层
名称。例如,当您
创建
一个
名为“sm_output”的
层
时:您最终会调用
softmax
输出
如何
命名模型的最终输出?我需要它符合
浏览 1
提问于2019-03-18
得票数 3
1
回答
在反向繁殖过程中,我能(选择性地)反演Theano梯度吗?
、
、
、
这篇论文有一点不寻常的地方在于,它包含了
一个
“梯度
反转
层
”,它在反向传播过程中将梯度
反转
:(图像底部的箭头是反向传播,其梯度倒置)。在本文中,作者声称这种方法“可以使用任何深度学习包
来
实现”,并且确实提供了
一个
。是否有可能在拉扎涅/西亚诺中
创建
这样
一个
梯度
反转
层
?我还没有看到任何例子,说明
如何
将自定义标量转
浏览 4
提问于2015-11-23
得票数 9
回答已采纳
1
回答
CNN:用于像素级分类的
Softmax
层
、
、
我想更详细地了解
如何
在CNN中使用
softmax
层
来
对图像进行语义分割/像素级分类。CNN输出
一个
类标签的图像,其中原始图像的每个像素都得到
一个
标签。在通过网络通过测试图像后,下一
层
输出原始图像分辨率的N个通道。我的问题是,
softmax
层
如何
将这些N个通道转换成标签的最终图像。 假设我们有C类(#可能的标签)。我的建议是,对于每个像素,前一
层
的N个神经元连接到
softmax</e
浏览 6
提问于2017-09-15
得票数 4
回答已采纳
1
回答
在keras中增加(预训练/非训练)神经网络中间层后训练
softmax
层
、
、
、
首先是从头开始(model1),其次是微调
一个
预先训练过的模型(model2)。我使用以下代码
来
做到这一点:from keras.layers import Conv2D, MaxPooling2Dfor i in range (len(kmodel.layers)):我想知道:
如何
在一些中间层之后添加
softmax
<
浏览 0
提问于2018-08-06
得票数 2
回答已采纳
1
回答
Keras -
softmax
函数的默认轴被设置为Axis
、
、
、
、
我正在学习
如何
创建
顺序模型。我有个模特:然后,我继续添加池
层
和卷积
层
(这很好)。但在
创建
致密
层
时:这条线又回来了:它导致了
一个
错误,因为没有定义轴。Keras和TensorFlow文档都表
浏览 0
提问于2018-05-13
得票数 1
回答已采纳
1
回答
C++中CNTKLibrary的使用中的编程语法问题
、
这只是
一个
C++编程语法问题(我认为)。我有192个浮点数,结构如下:我想在这个192x1向量上调用CNTKLibrary中的内置
Softmax
函数--头文件中的文档是: /在指定张量输入操作数CNTK_API FunctionPtr
Softmax
(const Variable& operand,const std::wstring& name =L“”)上
创建
CNTK内置
softmax
运算的实例//抓取<e
浏览 1
提问于2017-05-01
得票数 0
1
回答
lstm在言语情感特征中的应用
、
、
我问这个问题是因为当我编译和拟合模型时,我在最后
一个
密集
层
中有
一个
错误。 谢谢。
浏览 0
提问于2019-07-03
得票数 0
回答已采纳
1
回答
部署网络缺少
一个
Softmax
层
、
、
、
我尝试使用预先训练的模型(VGG 19)
来
显示数字,但我得到了这个错误。 我试图修改最后一
层
,结果出错了。 错误:在火车阶段,
层
'
softmax
‘引用底部的'fc8’,但是在那个阶段不包含这个blob。请考虑使用包含指令
来
限制这一
层
的范围。
浏览 3
提问于2016-10-20
得票数 2
回答已采纳
2
回答
tf.nn.sigmoid_cross_entropy_with_logits会将数据转换为概率吗?
、
、
softmax
激活函数。我遇到
一个
代码,他们在最后一
层
使用了tf.nn.sigmoid_cross_entropy_with_logits。我想知道我们可以在最后一
层
使用sigmoid作为激活函数吗?我们不是应该使用
softmax
吗?如果不应用
softmax
,我
如何
知道概率?因为在模型的末尾,当我们检查模型的准确性时,我们使用以下命令在最后
一个
完全连
浏览 0
提问于2018-10-12
得票数 1
1
回答
如何
将渐变引脚到TensorFlow中的某个GPU?
、
、
我在CPU上
创建
了
一个
嵌入
层
,在gpu:0上
创建
了
一个
LSTM,在gpu:1上
创建
了
一个
softmax
层
。然后,我
创建
了
一个
类似于这样的培训操作:train_op = optim.minimize启用设备放置日志显示,
softmax
的梯度被放置在gpu:0上,而不是g
浏览 0
提问于2016-03-21
得票数 4
回答已采纳
1
回答
按“坏”
来
衡量损失值
、
、
、
我希望根据培训期间“当前预测”到“正确标签”的距离
来
缩放每幅图像的丢失值。例如,如果正确的标签是"cat“,而网络认为它是”狗“,则如果网络认为它是”汽车“,则惩罚(损失)应该小于这种情况。我的做法如下:2-将矩阵作为底部传递给"softmaxWithLoss"
层
, 3-将每条原木(Prob)相乘到此值,根据forward_cpu中的不良程度
来
缩放损失。我知道梯度(bottom_diff)必须改变,但不太确定,
如何
在这里合并比例值。根据数学,我必须按比例缩放梯度
浏览 4
提问于2016-01-20
得票数 8
2
回答
基于双输出mnist的tensorflow神经网络模型
、
、
我想训练
一个
有12个输入和2个输出的神经网络。这里我有
一个
简单的tensorflow神经网络,它有两个输出。当我运行代码时,它总是提供
一个
输出。这是我的输入中的
一个
问题( 'l1‘和’l2‘之间的差异不够大),还是选择只使用两个输出存在问题?这是我的问题。如果是后者,我该怎么做才能解决这个问题?我的模特应该能检测照片中的肤色。tf.Variable(tf.zeros([input_num, mid_num])) y_m
浏览 0
提问于2016-12-06
得票数 0
回答已采纳
2
回答
在tensorflow模型中关闭
softmax
、
、
、
、
我想做的就是下载
一个
tensorflow内置的模型(通过keras),在输出
层
关闭时切换
softmax
(即用线性激活函数代替它),这样我的输出特性就是在应用
softmax
之前在输出
层
上激活。规范为是1.0000000321741935,这与我使用该
层
上的
softmax
激活函数时得到的数值完全相同。我还尝试复制包含“线性”的配置字典,并在输出
层
使用set_config。我是在把我的代码从caffe转换到tensorf
浏览 6
提问于2019-10-24
得票数 2
1
回答
如何
使用训练好的模型
来
测试数据和绘制图形?
、
在我的数据集中,首先我
创建
了
一个
层
,sigmoid
层
,然后我将该
层
连接到输出
层
,并在输出
层
中使用了
softmax
函数。fl = tf.layers.dense(x, 10,activation=tf.sigmoid)我已经
创建
了损失和准确性,初始化了变量,设置了优化器和训练变量,然后我开始运行我的数据:
浏览 0
提问于2018-03-23
得票数 0
2
回答
图断开:不能获得张量KerasTensor()传递学习的值
、
、
、
、
Dense(1024))model.add(BatchNormalization())model.add(Dense(classes))转移学习:classes = len
浏览 0
提问于2021-03-21
得票数 0
回答已采纳
1
回答
Tensorflow -获取自动编码器的隐藏
层
输出
、
、
、
我有
一个
堆叠的自动编码器,它的结构类似于500-250-100-50-100-250-500。我现在想要取出50维的隐藏
层
,并使用
softmax
层
将我的输入数据分类为2类。这意味着我需要我的自动编码器将我的训练数据集中的500维输入向量压缩成50维向量,并使用它
来
训练
softmax
层
。除此之外,我还需要50维的隐藏
层
。
如何
获取隐藏
层
:autoencoder.layers[3] 但是
如何
获得500维输
浏览 104
提问于2021-06-19
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在Python中如何使用列表推导式来创建一个列表
全连接层解决MNIST
70个NumPy分级练习:用Python一举搞定机器学习矩阵运算
70个NumPy练习:在Python下一举搞定机器学习矩阵运算
Spring|一文带你掌握IOC技术
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券