腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(21)
视频
沙龙
2
回答
多层
感知器
异
或
,
绘制
误差
(
损失
)
图
,
收敛
太快
?
、
、
、
原始类输出为:0 预测: 0.8230114358069576原班输出为:1 预测: 0.8229532575410421原班输出为:1 预测: 0.23349671680470516原始类输出为:0 当我
绘制
误差
图
时(对于每个时期),我的
图
显示了一个陡峭的下降,然后是一个轻微的“凹凸”,我的印象是
误差
会逐渐减少: Errors (summed) vs Epoch 这会被归类为
收敛
吗?
浏览 15
提问于2021-04-01
得票数 2
1
回答
回归线不符合数据,梯度下降给出了不准确的权重- python3
、
、
、
# adding gives +ve theta我
绘制
了成本函数的图表。在训练之后,它给了我一些重量。当我在图上
绘制
回归线时,它根本不适合数据。我还在学习这些东西,我不确定我的实现是否正确。而且,我的学习率真的很低。我见过不低于0.001的学习率。
浏览 3
提问于2017-05-25
得票数 0
1
回答
学习函数f(x) = x^2的深层神经网络
、
、
、
history.history['loss']) plt.show()我尝试将激活函数更改为relu和tanh,并调整了超参数以确保
损失
收敛
,但没有效果。还有其他方法可以提高神经网络的性能吗?
浏览 1
提问于2020-04-12
得票数 1
回答已采纳
1
回答
简单MLP时间序列训练产生意想不到的平均线结果
、
、
、
、
这个地块是通过遍历每一个验证数据的滴答(白色),将30\4\60(南希·凯茜·维恩)以前的滴答送到网络上,并
绘制
它在当前滴答位置上的预测结果。
多层
感知器
的设置(南希·凯西·韦恩设置):历数:10×5×10动量:0.5-0.9-0.5
损失
:平方
误差
似乎随着更多的训练应用-预测正在
收敛
到某种平均线,这不是我所期望的。我原以为预测会在一定程度上接近验证数据,但有一定的
误差</e
浏览 0
提问于2016-10-06
得票数 7
回答已采纳
1
回答
TensorFlow:获取输入梯度时的慢性能
我正在用TensorFlow构建一个简单的
多层
感知器
,我还需要在神经网络输入时获得
损失
的梯度(
或
误差
信号)。然而,tf.gradients()极大地降低了性能十倍
或
更多。如何使这更快,或者有没有其他方法来计算
损失
w.r.t的梯度。输入?
浏览 3
提问于2016-03-27
得票数 11
回答已采纳
3
回答
单
感知器
-非线性评价函数
、
、
在单个
感知器
的情况下-文献表明它不能用于分离非线性判别情况,如XOR函数。这是可以理解的,因为一条线(在2-D中)的VC维度是3,因此一条2-D线不能区分像XOR这样的输出。然而,我的问题是,为什么单
感知器
中的评估函数应该是线性阶跃函数?显然,如果我们有一个像sigmoid这样的非线性评估函数,这个
感知器
可以区分XOR的1和0。那么,我是不是漏掉了什么?
浏览 3
提问于2012-03-07
得票数 7
回答已采纳
1
回答
在模板图像上训练卷积网络
、
、
、
我在完整图像的“剪切
图
”上训练它,它要么在图像中间有一个圆圈(正训练样本),要么没有(负训练样本)。,而不是仅仅对两种类型的输入图像(圆形
或
不在中间)进行分类。为了训练它,我使用输出图像和2D高斯滤波器()之间的均方
误差
作为正训练样本,将图像和值为-1的均匀矩阵之间的均方
误差
用于负训练样本。理想情况下,这将导致CNN
收敛
到图像和图像上,对于正训练样本,该图像类似于中间的高斯峰值,对于负训练样本,该图像一致为-1。 然而,网络一直在
收敛
于一个“让一切为零”的通用解决方案。这不会最小化均方<
浏览 7
提问于2016-08-15
得票数 1
2
回答
当准确性提高,但验证数据的
损失
也在增加时,该怎么办?
、
、
、
我目前正在研究一个高度不平衡的多类分类问题。我想把我的模型权值保存到最好的时期,但是我不知道我应该选择哪一种度量? 我在tf.keras中使用tf.keras回调和监视val_loss作为一个度量来保存最佳模型权重。
浏览 4
提问于2020-05-24
得票数 1
1
回答
神经网络-为什么每个人都有不同的XOR方法
、
与此同时,也有人说"XOR不是一项微不足道的任务,我们应该使用具有2-3层
或
更
多层
的网络“。为什么? 来吧,如果XOR产生了这么多问题,也许我们不应该把它当作神经网络的“你好世界”?
浏览 2
提问于2018-03-04
得票数 2
1
回答
随机梯度下降在神经网络实现中的
收敛
性
、
、
、
、
我一直试图用带平方
误差
和的随机梯度下降作为代价函数,使用前馈反向传播算法建立一个神经网络,它能够表示这些训练数据:所以我的问题是,我所观察到的“异常”是因为激活函数的错误选择,还是由于学习速度的选择,还是简单的错误的实现?
浏览 1
提问于2016-10-10
得票数 2
回答已采纳
3
回答
感知器
学习算法的参数整定
、
、
、
我遇到了一个问题,试图找出如何为我的
感知器
算法调优参数,这样它就能在看不见的数据上表现得比较好。至于迭代次数,我不完全确定如何确定一个理想的数。
浏览 5
提问于2010-05-04
得票数 11
3
回答
我的神经网络实现出了什么问题?
、
、
plt.plot(w,myList2,label="test error")plt.show()编辑:我使用的数据集是,其中我去掉了少于1000个实例的类。我手动重新编码了litteral数
浏览 2
提问于2017-08-28
得票数 24
10
回答
机器学习中的学习曲线是什么?
绘制
它的标准方法是什么?我的意思是我的
图
的x轴和y轴应该是什么?
浏览 0
提问于2011-01-07
得票数 57
回答已采纳
4
回答
多层
感知器
(MLP)架构:选择隐藏层的数量和大小的标准?
、
、
、
如果我们有10个特征向量,那么我们可以在输入layer.If中有10个神经节点,我们有5个输出类,那么我们可以在输出layer.But中有5个节点,选择一个
多层
规划中隐含层数的标准是什么,以及在1个隐藏层中有多少个神经节点
浏览 8
提问于2012-05-13
得票数 107
回答已采纳
2
回答
为什么经过多次在线训练后识别率会下降?
、
、
、
我查阅了几篇参考文献,但关于小批量
或
大批量是否能获得更好的性能,似乎存在相互矛盾的结果。在这种情况下,会发生什么情况? 编辑:我还添加了训练数据集和测试数据集的识别率的图表。
浏览 0
提问于2017-08-02
得票数 3
7
回答
支持向量机与神经网络
、
、
、
支持向量机和神经网络有什么区别?线性支持向量机是否真的是相同的神经网络,对于非线性可分离问题,神经网络使用添加隐藏层,支持向量机使用变化的空间维度?
浏览 3
提问于2012-01-23
得票数 35
回答已采纳
2
回答
keras自动编码器与PCA的比较
、
、
、
我正在玩一个玩具例子来理解PCA和keras的自动编码器。import numpy as npfrom mpl_toolkits.mplot3d import Axes3Dfrom sklearn import datasets X = iris.datapca.fit(X) pca.exp
浏览 3
提问于2017-08-16
得票数 4
回答已采纳
8
回答
为什么神经网络工作得这么好?
、
、
我理解用正反两种方法训练梯度下降的神经网络的所有计算步骤,但我试着思考为什么它们比logistic回归更好。( A)神经网络可以学习它自己的参数有人能解释为什么神经网络在一般情况下工作得这么好吗?我是一个相对初学者。
浏览 11
提问于2016-07-26
得票数 11
回答已采纳
13
回答
为什么在反向传播神经网络中必须使用非线性激活函数?
、
、
、
我一直在读一些关于神经网络的东西,我理解单层神经网络的一般原理。我理解附加层的需求,但为什么要使用非线性激活函数?
浏览 5
提问于2012-03-20
得票数 167
回答已采纳
15
回答
【有奖问答】如何快速掌握一门新技术?你有什么独特的学习方法和技巧可以分享吗?(已完结)
、
、
、
、
感谢各位朋友们分享学习经验与方法,也欢迎大家持续补充呀~在这个日新月
异
的互联网时代,新技术层出不穷,已有技术的更新频率也非常地快,甚至有人调侃地说“新技术的出现速度远大于个人的学习速度”。
浏览 1651
提问于2023-08-28
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
一文读取什么是:神经网络?
神经网络如何完成表征?
训练深度学习神经网络的常用5个损失函数
线性神经网络
趣读机器学习
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券