腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Tensorflow
的
数据流图和DNN之间有什么关系?
、
正如我们所知,DNN由许多层组成,这些层由许多
神经元
组成,这些
神经元
将相同
的
函数
应用于输入
的
不同
部分
。同时,如果我们
使用
Tensorflow
来执行DNN任务,我们将会得到
Tensorflow
自动生成
的
数据流图,并且我们可以
使用
Tensorboard将数据流图可视化为blow。但在这
一层
中
没有
神经元
。所以我想知道
Tensorflow</em
浏览 1
提问于2018-05-04
得票数 1
8
回答
单词logits在
TensorFlow
中
的
含义是什么?
、
、
、
、
在下面的
TensorFlow
函数
中
,我们必须在最后
一层
提供人工
神经元
的
激活
。我能理解。但是我不明白为什么它被称为logits?这不是一个数学
函数
吗?
浏览 2
提问于2017-01-04
得票数 343
1
回答
如
何在
Tensorflow
中
对
一层
中
的
部分
神经元
使用
激活
函数
例如,有一个张量 [2,3,4,5,6]] [0, 1, 0, 0, 0]]谢谢!
浏览 6
提问于2017-08-16
得票数 0
回答已采纳
1
回答
用单层Perceptron代替多层Perceptron
、
、
、
、
我在理解MLP和SLP之间
的
区别时遇到了问题。 我不明白为什么在XOR
的
特殊情况下,它不是线性可分<
浏览 5
提问于2015-05-31
得票数 1
回答已采纳
4
回答
神经网络是如何计算权重之和
的
?
、
我一直在阅读关于神经网络
的
一般知识,并试图理解其背后
的
基本理论。我有点困惑,想知道是否有人能帮我。输入层+隐藏层+输出层,其中每个层都有节点或
神经元
。每个
神经元
从前
一层
的
所有
神经元
获得输入,并发送到下
一层
的
每个
神经元
。然后说,
神经元
计算权重之和,然后
使用
激活
函数
来激发或不触发(或发送一个介于0和1之
浏览 0
提问于2018-04-18
得票数 3
回答已采纳
2
回答
割礼
的
边界是什么样子
的
?
、
、
单个非
激活
神经元
只是其输入
的
线性组合。 将这个
神经元
的
输出作为
对
0
的
阈值将产生一个超平面二进制分隔符,它
的
参数可以被学习。这个分隔符(判定边界)
的
形状是什么,如果我们也
对
输出进行重调,然后才是阈值呢?我一直认为它必须是非线性
的
,否则NNs就不起作用了,但是如果以前是正
的
,它会保持正,如果它是负值或零,它就会保持不变,所以relu实际上对决策边界没有任何作用,这对我来说是没有意义<e
浏览 0
提问于2020-06-15
得票数 4
回答已采纳
1
回答
如
何在
TensorFlow
中
使用
线性
激活
函数
?
在CUDA ConvNet
中
,我们可以通过编写neuron=linear[a,b]来指定
神经元
激活
函数
是线性
的
,比如f(x) = ax + b。 如
何在
TensorFlow
中
达到同样
的
效果?
浏览 2
提问于2016-04-10
得票数 8
回答已采纳
1
回答
在
tensorflow
的
推理过程
中
,你如何获得
神经元
的
激活
?
、
、
我想特别知道如何使神经网络
中
的
神经元
被
激活
(每个
神经元
在
激活
函数
之后
的
输出)。 在
Tensorflow
2
的
模型推理
中
,当我给出输入时,如何才能得到序列模型中所有
神经元
的
激活
?
浏览 4
提问于2021-03-10
得票数 3
回答已采纳
1
回答
Tensorflow
:如何找到好
的
神经网络架构/超参数?
、
我一直在断断续续地
使用
tensorflow
来做各种事情,我想这些天来我认为这些事情相当容易。验证码破解,基本
的
OCR,我在大学接受AI教育时记得
的
事情。它们是相当大
的
问题,因此不适合在不同
的
NN体系结构中进行有效
的
实验。 正如您可能知道
的
,Joel Grus在
tensorflow
中
推出了FizzBuzz。TLDR:从数字
的
二进制表示中学习(即。对于这个玩具问题,您可以快速比较不同
的
浏览 2
提问于2016-05-31
得票数 1
3
回答
关于神经网络
的
不同结构
、
、
、
https://www.mathworks.com/help/deeplearning/ref/fitnet.html是我为理解将数据拟合到
函数
所遵循
的
教程。我
对
结构和术语几乎没有疑问,它们如下:所谓隐藏层,是指输入和输出之间
的
一层
。如果层数=1,有10个隐
神经元
(
如
第二个图所示),那么本质上是一个称为MLP
的
神经网络。我
的
理解正确吗?总体而言, 如果隐
浏览 0
提问于2019-10-10
得票数 2
回答已采纳
3
回答
在
Tensorflow
中
,哪些层受辍学层
的
影响?
、
、
、
、
考虑转移学习,以便在keras/
tensorflow
中
使用
预先训练
的
模型。对于每个旧层,trained参数设置为false,以便在训练期间不更新其权重,而最后
一层
已被新层取代,必须
对
这些层进行训练。特别是增加了两个完全连接
的
隐层( 512和1024
神经元
)和
激活
函数
。在这些层之后,Dropout层与rate 0.2一起
使用
。这意味着在训练
的
每一个时期,
神经元
的</
浏览 2
提问于2020-09-04
得票数 2
回答已采纳
2
回答
如何传播/激发递归神经网络(RNN)?
、
、
我正在学习人工神经网络,并且已经实现了一个具有几个隐藏层
的
标准前馈网络。现在,我正在尝试了解递归神经网络(RNN)在实践
中
是如何工作
的
,并且在
激活
/传播如
何在
网络中流动方面遇到了问题。在我
的
前馈
中
,
激活
是简单
的
一层
一层
地
激活
神经元
。在递归网络
中
,
神经元
连接回以前
的
层,有时连接到自己,因此传播网络<em
浏览 0
提问于2012-10-14
得票数 10
回答已采纳
1
回答
CNN:用于像素级分类
的
Softmax层
、
、
我想更详细地了解如
何在
CNN中
使用
softmax层来
对
图像进行语义分割/像素级分类。CNN输出一个类标签
的
图像,其中原始图像
的
每个像素都得到一个标签。在通过网络通过测试图像后,下
一层
输出原始图像分辨率
的
N个通道。我
的
问题是,softmax层如何将这些N个通道转换成标签
的
最终图像。 假设我们有C类(#可能
的
标签)。我
的
建议是,对于每个像素,前
一层
的
N个<e
浏览 6
提问于2017-09-15
得票数 4
回答已采纳
6
回答
为什么神经网络需要
激活
?
我看了关于机器学习
的
Risto 视频。这是很好
的
解释,但问题是,在什么阶段,我们应该
使用
激活
功能,以及为什么我们需要它。我知道,根据定义,
激活
函数
将w*x+b
的
和转换为某个下限和上限之间
的
一个数字。在录像
中
,Risto Siilasmaa解释说,在培训过程中有以下步骤:计算结果(w*x+b之和)-我们知道它应该是什么,因为我们知道我们给系统提供了什么图像。 计算误差。但是
激活
呢?把它放在前一个列表
浏览 0
提问于2020-02-19
得票数 4
1
回答
神经元
网络
中
张量
的
关系
、
、
所以我读了很多关于张量
的
书。我
对
这个概念
的
理解足以达到我
的
目的。但是我找不到关于它们在神经网络
中
的确切用法
的
任何信息。例如,我
使用
Tensorflow
来构建一个NN来
对
图像进行分类。我拥有的唯一信息是:层是用张量构建
的
。现在我
的
问题是:正如我所理解
的
,
神经元
网络是由
神经元
构成
的
。其中
一层
是由许多
神经元<
浏览 2
提问于2021-04-28
得票数 0
回答已采纳
2
回答
自定义神经网络在MatLab
中
的
非线性回归
、
、
我
对
MatLab非常陌生。我在MatLab
中
完成了用神经网络建立非线性回归模型
的
任务. net = network(N, 2);net.lay
浏览 0
提问于2015-04-09
得票数 0
2
回答
一种神经网络
的
高阶特征
、
、
我了解如何建立和训练如下所示
的
神经网络,以及那些低水平
的
特性/过滤器。我想知道这些高级特征是什么:你是如何从经过训练
的
神经网络
中
获得它们
的
?(这些像“特征面”吗?)📷 注:图像是由NVIDIA,我不知道具体
的
分类问题在这里。如果需要的话,假设网络被训练来区分人和猫。
浏览 0
提问于2018-01-19
得票数 1
回答已采纳
1
回答
Tensorflow
是否只
使用
一种热编码来存储标签?
、
、
、
我刚刚开始
使用
Tensorflow
,
使用
Caffe --它以一种高效
的
方式读取数据是非常实用
的
--但是
使用
Tensorflow
,我发现我必须自己编写数据加载过程,创建TFRecords、批处理、多重威胁因此,我从一个示例v3开始,因为它们处理读取数据
的
部分
。我是
Tensorflow
的
新手,也是Python
的
新手,所以我觉得我不明白这
部分
到底是怎么回事(我
的
浏览 2
提问于2017-11-30
得票数 0
回答已采纳
3
回答
反向传播
激活
导数
、
、
、
正如视频中所解释
的
,我已经实现了反向传播。D= (a )* f'(z) 当我将我
的
增量乘以
激活
导数(乙状结肠导数)时,我不再得到与梯度检查相同
的
梯度(至少相差一个数量级)。 是什么让安德鲁·吴(视频)省略了输出增量
激活
的
导数?为什么会起作用呢?然而,当添加导数时,不
浏览 2
提问于2015-10-06
得票数 9
回答已采纳
2
回答
体重初始化和偏见
的
问题?
我
使用
CNN
对
32x32位图像进行分类(6类)。 网络
的
行为非常奇怪,因为它需要900个步骤来做任何与粘贴
的
结果不同
的
事情。之后,它开始移动,以达到合理
的
值,经过几个1000步。在Theano/Keras中
使用
相同数据完成
的
“相同网络”显示
的
结果要快得多。我说“同一个网络”是因为Theano/Keras允许我定义leakyRELU和其他一些变量
的
初始化方法(init =“正交”),让我相信我<em
浏览 2
提问于2016-08-17
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
详解神经网络中的神经元和激活函数
力学:对偶神经网络中激活函数对的改进
TensorFlow学习
使用Keras进行深度学习:(一)Keras 入门
Tensorflow学习笔记-神经元函数之激活函数
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券