腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
0
回答
计算
咖啡因
溶液
中
神经元
的
数量
和
权重
、
、
我有一个咖啡馆项目,我已经获得了一个prototxt模型描述
和
一个caffemodel调优参数文件(大约16Mb大小)。有没有一种简单
的
方法可以从静态分析或运行时找出模型中有多少
神经元
和
权重
?我可以在
中
可视化prototxt文件,但是有24个卷积层
和
7个池层,所以我真的不知道从哪里开始计数。我也看到了,但我不确定如何将其应用于我
的
问题。
浏览 8
提问于2016-07-07
得票数 0
回答已采纳
3
回答
第二部分弹性反向传播神经网络
、
、
、
这是的后续问题.对于给定
的
神经元
,我不清楚如何取其误差
的
偏导数
和
其
权重
的
偏导数。 从这个中可以清楚地看到,传播是如何工作
的
(尽管我正在处理弹性传播)。对于前馈神经网络,我们需要1)在神经网络
中
向前移动,触发
神经元
,2)从输出层
神经元
中
计算
出总误差。然后向后移动,按
神经元
中
的
每个
权重
来传递该误差,然后再次向前,更新每个
神经
浏览 1
提问于2012-08-27
得票数 7
1
回答
对DNN
中
丢包
的
理解
、
、
从我对DNN
的
dropout正则化
的
理解是: 辍学: 首先,我们从DNN
中
随机删除
神经元
,只保留输入
和
输出相同。然后,我们基于一个小批次执行前向传播
和
反向传播;学习这个小批次
的
梯度,然后更新
权重
和
偏差-在这里,我将这些更新
的
权重
和
偏差表示为Updated_Set_1。然后,我们将DNN恢复到默认状态,并随机删除
神经元
。现在我们执行正向
和
反向传播,
浏览 6
提问于2018-12-26
得票数 0
4
回答
神经网络是如何
计算
权重
之和
的
?
、
每个
神经元
从前一层
的
所有
神经元
获得输入,并发送到下一层
的
每个
神经元
。然后说,
神经元
计算
权重
之和,然后使用激活函数来激发或不触发(或发送一个介于0
和
1之间
的
数字)。让我困惑
的
是它是如何
计算
权重
之和
的
?在上面的图中,我创建了一个简单
的
神经网络,并像Andrew在他
的
演讲中所做
的
那样,将
浏览 0
提问于2018-04-18
得票数 3
回答已采纳
1
回答
如何在for循环中更改属于类
的
变量?(Java)
、
、
尝试编写代码来生成神经网络
中
的
层,而我只是想弄清楚如何为属于
神经元
本身
的
变量赋值。在我
的
代码
中
,标准
神经元
的
结构包含在一个名为XORNeuron
的
类
中
,我在一个FOR循环中调用这个类,以便根据创建层时分配
的
神经元
数量
生成一定
数量
的
神经元
。我正在使用一个数组来做这件事,但是我想知道如何分配输入
的
浏览 2
提问于2018-01-10
得票数 0
回答已采纳
2
回答
为什么我在简单
的
2输出2输入网络
中
在Keras
中
得到6个参数?
、
、
、
我正在学习keras
中
的
神经网络。我在虚构
的
数据上指定了一个简单
的
模型。我运行model.summary()
和
model.get_weights()。[8.750836 , 1.6910588]], dtype=float32), array([-5.701193, -7.874653], dtype=float32)] 我不明白为什么会有6个参数
和
6个
权重
。根据我
的
理解,每个输入应该有两个,或者我应该在某个地方专门定义输出层?
浏览 15
提问于2020-07-15
得票数 0
回答已采纳
3
回答
神经网络开发
、
、
、
我试着写一个神经网络类,但我不完全理解它
的
某些方面。我有两个关于折叠设计
的
问题。 我做得对吗?偏置
神经元
需要连接到所有
神经元
(输入层除外)还是仅连接隐藏层
中
的
神经元
?我
的
第二个问题是关于产值
的
计算
。我用下面的方程来
计算
神经元
的
输出值。HiddenLayerFirstNeuron.Value = (input1.Value *
权重
)+
浏览 8
提问于2016-11-24
得票数 0
1
回答
反向传播
的
内存需求-为什么不使用平均激活?
、
、
、
、
我需要帮助理解记忆需求
的
神经网络和他们之间
的
训练
和
评估过程
的
区别。更具体地说,培训过程
的
内存需求(我使用
的
是运行在TensorFlow之上
的
Keras )。对于包含N个
权重
的
CNN,当使用批大小x时,对于
权重
本身
和
输入数据,需要一定
数量
的
内存。在前传中,GPU需要额外
的
x*N内存单元(特定
的
数量
对问题并不重要)
浏览 0
提问于2018-11-13
得票数 3
回答已采纳
1
回答
mnist数据集
的
mlp
神经元
数?
、
、
、
、
我试图找出在MNIST数据集(60,000次训练
和
10,000个测试数据)
中
可以使用
的
神经元
的
最佳
数量
。我用角角建立了一个单一
的
隐层模型,但当我增加隐层
中
的
神经元
时,每100个
神经元
的
准确率会略有提高,即使我使用
的
是2000个
神经元
,而不是784个
神经元
,它也不会有很大
的
变化。我认为,由于overfitting
浏览 0
提问于2018-03-04
得票数 0
1
回答
神经网络
的
问题
、
、
在隐藏层
中
增加更多
的
神经元
应该会增加神经网络
的
能力,使其更适合训练数据/在训练数据上具有更少
的
误差。 这是平均绝对误差随着
神经元
数量
的
增加而变化
的
图表。训练数据
的
准确性正在下降。这可能是什么原因呢?是不是我使用
的
matlab<
浏览 3
提问于2013-09-05
得票数 1
2
回答
神经网络隐
神经元
选择策略
、
我正试图确定MATLAB神经网络
中
隐藏
神经元
的
最佳
数量
。我正在考虑采取以下战略:对于每个
神经元
数目固定
的
神经网络,都要进行一定
数量
的
训练(例如40次,由于时间原因限制时代性:我考虑这样做是因为网络似乎很难训练,一些时期之后
的
存储由不同数目的隐
神经元
组成
的
所有网络获得
的
MSE。 执行前面
浏览 0
提问于2014-12-25
得票数 1
2
回答
如何在Keras
中
实现RBF激活函数?
、
、
、
、
我实际上想做
的
是,实现LeNet5神经网络
的
输出层。LeNet-5
的
输出层有点特殊,每个
神经元
输出其输入向量
和
其
权重
向量之间
的
欧几里得距离
的
平方,而不是
计算
输入向量
和
权重
向量
的
点积。例如,layer1有84个
神经元
,layer2有10个
神经元
。在一般情况下,为了
计算
layer2
的
10个
神经元
<
浏览 43
提问于2018-12-20
得票数 5
回答已采纳
1
回答
在softmax回归中,
权重
是一维还是二维?
、
、
我从Andrew N.G
的
coursera课程中学习了ML
和
DL,每次他谈到线性分类器时,
权重
都只是一个1-D向量。即使在分配期间,当我们将图像滚动到一维向量(像素* 3)
中
时,
权重
仍然是一维向量。现在,我已经开始阅读O‘’Reilly
的
“学习TensorFlow”一书,并遇到了第一个示例。tensorflow
中
的
权重
初始化略有不同。然后,$xw^0 =∑x_i w^0_i$将成为包含数字0
的
图像
的
浏览 13
提问于2018-02-20
得票数 0
1
回答
神经网络:
权重
和
偏差收敛
我一直在阅读一些关于机器学习、神经网络
和
深度学习
的
主题,其中之一就是这本(在我看来)很棒
的
在线书籍:现在提供了一个输入: x1
和
x2。因为网络是2,3,1,所以
权重
是随机生成<
浏览 4
提问于2017-09-20
得票数 0
4
回答
为什么logistic回归
的
权重
参数被初始化为零?
、
、
、
我已经看到神经网络
的
权值被初始化为随机数,所以我很好奇为什么逻辑回归
的
权重
被初始化为零?
浏览 0
提问于2017-09-10
得票数 13
回答已采纳
2
回答
反向传播算法
的
编程
、
、
我正在尝试将反向传播算法实现到我自己
的
网络
中
。我理解agl
的
概念,但是我对数学不太在行。我只是在做备份文件
的
前半部分,
计算
输出层(还没有担心隐藏层
中
的
偏导数)。我在搜索时发现了下面的代码,我正在寻找对其中一部分
的
解释。con.setWeight(newWeight); i++; 那么,ai = con.leftNeuron.getOutput()是否将ai设置为来自上一层
的
输出从过去一层传递给特定<
浏览 1
提问于2015-06-01
得票数 0
回答已采纳
2
回答
平方误差是否取决于隐藏层
的
数量
?
、
我想知道平方误差是否也取决于隐藏层
的
数量
和
每个隐藏层上
的
神经元
的
数量
,因为我已经创建了一个具有一个隐藏层
的
神经元
网络,但我不能达到一个小
的
平方误差,所以函数可能不是凸
的
?我可以通过添加更多
的
隐藏层来优化
权重
吗?
浏览 1
提问于2018-08-27
得票数 0
2
回答
如何利用反向传播算法更新偏差
和
偏差
的
权重
、
、
我正在编写我自己
的
训练算法,但我不知道如何设置偏置权。必须在每一层更新偏置
权重
吗?
浏览 0
提问于2016-05-27
得票数 9
回答已采纳
1
回答
神经网络优化
中
的
反向传播与学习速率
、
、
、
、
我在研究反向传播是如何工作
的
?我读到,反向传播被用来在每次迭代后用部分导数找到每个
神经元
的
最优
权重
,并更新
神经元
的
权重
。另一方面,我们有一个叫做“学习速率”
的
超参数,用来通过
计算
误差
的
方向来更新每一次迭代
中
神经元
的
权重
。这两种情况看起来是独立工作
的
,我
的
意思是,当反向传播算法本身找到最优
权重
时
浏览 0
提问于2020-09-19
得票数 0
回答已采纳
3
回答
关于人工神经网络应该有多大,有没有一个规则/好
的
建议?
我上一次关于ANN
的
讲座是在一段时间之前,但我现在正面临一个项目,我想使用一个项目。因此,基础知识-比如由进化算法(由项目给定)训练
的
类型(多层前馈网络),设置了多少个输入
神经元
(8个)
和
多少个输出
神经元
(7个)。但我目前正在试图弄清楚我应该使用多少隐藏层,以及这些层
中
的
每一层中有多少
神经元
( ea不会修改网络本身,而只是修改
权重
)。 有没有关于如何弄清楚这一点
的
一般规则或指导方针?
浏览 0
提问于2012-12-19
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
详解神经网络中的神经元和激活函数
一个公式搞定深度学习模型中的参数数量计算
如果不试试 PQ,很难想象计算分类中占总类前 30% 的数量,有多容易
用一台普通电脑,试试神经网络算法
多变量多因子的非线性模型
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券