腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
梯度
下降
的
Tensorflow
会
导致
错误
的
系数
tensorflow
、
linear-regression
、
gradient-descent
目前,我正在尝试构建一个线性回归,它
使用
出生率(x)作为预测因子来预测预期寿命(y)。可在以下位置找到y=w*x+b数据集:Dataset 这是我
的
代码
的
在线链接:Code 想法很简单:我运行300个时期,在每个时期内,我将一个接一个
的
成对样本(x值,y值)提供给
梯度
下降
优化器,以最小化损失函数然而,我得到
的
结果是相当
错误
的
。我
的
结果图片:my result 而不是具有负斜率,它总是
导致
正斜率,而样
浏览 8
提问于2019-03-12
得票数 0
回答已采纳
1
回答
一个参数
的
梯度
下降
比另一个参数更快收敛
javascript
、
machine-learning
、
linear-regression
我在JavaScript中实现了具有
梯度
下降
的
第一次(单变量)线性回归。x.length);} 假设中m
的
斜率快速调整,而y轴处
的
交点需要很长
的
时间才能调整。我不得不用不同
的
学习速度来使它起作用。
浏览 0
提问于2017-10-18
得票数 0
回答已采纳
2
回答
梯度
下降
:我们是否在GD中
的
每一步迭代所有的训练集?或者我们是否为每一套培训更改GD?
machine-learning
、
gradient-descent
梯度
下降
的
公式是通过以下物流回归得出
的
: θj = θj−α/m∑(hθ(x)−y)xj其中θj是变量j
的
系数
,α是学习率,hθ(x)是假设,y是实数,xj是变量j
的
值,如果我在每个训练示例之后执行
梯度
下降
,那么我
的
系数
将非常不同,如果我在所有10个训练示例之后执行
梯度
下降
。求和项仅包括1个训练示例 步骤3:现在<em
浏览 8
提问于2013-06-24
得票数 7
回答已采纳
1
回答
在
TensorFlow
中实现
梯度
下降
,而不是
使用
它提供
的
tensorflow
、
gradient-descent
我想在
TensorFlow
中构建分类器时,
使用
带有动量
的
梯度
下降
(跟踪以前
的
梯度
)。所以我不想
使用
tensorflow
.train.GradientDescentOptimizer,但我想
使用
tensorflow
.gradients来计算
梯度
,跟踪以前
的
梯度
,并根据它们更新权重。我如何在
TensorFlow
中做到这一点?
浏览 16
提问于2016-08-26
得票数 5
1
回答
是否有一个Python库可以导入
梯度
下降
函数/方法?
python
、
tensorflow
、
import
、
gradient-descent
、
mini-batch
在Python中进行
梯度
下降
的
一种方法是自己编写代码。然而,考虑到它在机器学习中有多么流行,我想知道是否有一个Python库可以导入,给我一个
梯度
下降
方法(最好是小批处理
梯度
下降
,因为它通常比批处理和随机
梯度
下降
更好,但是如果我错了,请纠正我)。我没有
使用
TensorFlow
的
经验,但是浏览了他们
的
在线API。我找到了tf.train.GradientDescen
浏览 0
提问于2018-05-08
得票数 3
回答已采纳
1
回答
非确定性
梯度
计算
tensorflow
、
non-deterministic
我意识到,每次我训练它们时,我
的
模型最终都是不同
的
,即使我保持
TensorFlow
随机种子不变。 第一批
的
梯度
是不同
的
。具体来说,我正在比较tf.gradients(loss, train_variables)
的
输出。虽然loss和
浏览 3
提问于2017-02-23
得票数 6
1
回答
投影
梯度
下降
tensorflow
、
keras
、
deep-learning
、
mathematical-optimization
、
gradient-descent
我想知道目前
的
深度学习框架是否能够执行项目
梯度
下降
。
浏览 3
提问于2020-03-26
得票数 0
2
回答
神经网络函数最小化器
的
时间复杂度
machine-learning
、
neural-network
、
deep-learning
、
optimization
、
training
我试着训练一个neural network来识别A到J
的
手写信件。我有一套200000码
的
训练。每个训练集都是784像素值
的
列表。我正在
使用
python
的
fmin_cg库
的
scipy最小化函数。我面临
的
问题是,每次迭代都要花费大量
的
时间。第二次迭代耗时20分钟。 第三名还在跑。这可能是因为我
的
电脑过时了,只有2GB
的
内存和一个缓慢
的
处理器,但是我以前用traini
浏览 0
提问于2016-10-31
得票数 1
回答已采纳
4
回答
L1正则化在Keras/
Tensorflow
*真的*L1-正则化吗?
tensorflow
、
machine-learning
、
neural-network
、
deep-learning
、
keras
利用L1正则化方法对Keras中
的
神经网络参数进行keras.regularizers.l1(0.01)正则化,得到稀疏模型。我发现,虽然我
的
许多
系数
接近于零,但它们中
的
一些实际上是零。通过查看,它建议Keras简单地将参数
的
L1范数添加到损失函数中。 这将是不正确
的
,因为参数几乎肯定永远不会像L1正则化时所期望
的
那样(在浮点
错误
范围内)变为零。当参数为零时,L1范数是不可微
的
,因此需要
使用
次
梯度
方
浏览 8
提问于2017-03-31
得票数 13
2
回答
“模块”对象不可调用
的
sgd
python
、
tensorflow
、
keras
这是我
的
密码。gradient_descent_v2 as SGD 当我试图运行它时,我会得到以下
错误
浏览 11
提问于2022-04-30
得票数 0
2
回答
梯度
下降
收敛性如何判定收敛性?
machine-learning
、
gradient-descent
我通过在线资源(即coursera
的
机器学习)学习了
梯度
下降
。然而,提供
的
信息只说重复
梯度
下降
,直到它收敛。 repeat gradient_descent或者,我想知道是否另一种确定收敛性
的
方法是观察
系数</em
浏览 10
提问于2013-06-25
得票数 10
回答已采纳
1
回答
如何在不
使用
feeddict
的
情况下在
tensorflow
中实现小批量
梯度
下降
?
tensorflow
据我所知,根据
的
说法,
使用
feed_dict是一个计算成本很高
的
过程,应该避免
使用
。
Tensorflow
的
输入管道应该更好。 我发现
的
所有小批量
梯度
下降
教程都是用feed_dict实现
的
。有没有办法
使用
输入管道和小批量
梯度
下降
?
浏览 4
提问于2018-06-29
得票数 0
1
回答
尺度如何影响Logistic回归?
machine-learning
、
logistic-regression
、
feature-scaling
我已经在网上搜索了很多这个问题,但我似乎从来没有找到一个一致
的
,但直接
的
答案。简单地说,问题是:比例如何确切地影响逻辑回归?当数据被缩放时,你应该从逻辑回归分类器中得到什么?
浏览 0
提问于2020-05-30
得票数 2
回答已采纳
1
回答
TensorFlow
:它是否只有SGD算法?还是也有其他像LBFGS这样的人?
algorithm
、
machine-learning
、
neural-network
、
tensorflow
、
data-science
关于
TensorFlow
的
问题:谢谢你
的
答复。
浏览 5
提问于2016-07-27
得票数 6
回答已采纳
1
回答
线性回归学习
的
自设计目标
regression
、
linear-regression
多元线性回归是
使用
多个预测变量来预测响应变量
的
结果,如下所示:我理解学习$\beta$参数
的
典型目标是最小二乘,这意味着最小化$\epsilon_{i}$
的
平方和。现在我想要其他类型
的
目标,例如最大化$\epsilon$序列(或其他自指定目标)
的
Shannon熵。我谷歌了一下这个方向,但没有运气。谢谢你
的
帮助。
浏览 0
提问于2015-06-28
得票数 1
1
回答
SGDClassifier
的
正则化参数及迭代
python
、
machine-learning
、
scikit-learn
Python -学习SGDClassifier()支持l1、l2和弹性,寻找正则化参数
的
最优值似乎很重要。我得到了一个
使用
SGDClassifier()和GridSearchCV()来完成这个任务
的
建议,但是在SGDClassifier中只提供正则化参数alpha。如果
使用
诸如支持向量机或LogisticRegression等损失函数,我认为参数优化应该
使用
C而不是alpha。在
使用
Logisitic回归或支持向量机时,有没有办法在SGDClassifier()中设置最优参数? 此外,我
浏览 4
提问于2016-01-01
得票数 3
回答已采纳
1
回答
当特征值是不同
的
范围时,我们为什么
会
遇到
梯度
问题?
machine-learning
、
machine-learning-model
、
gradient-descent
、
normalization
下面提到
的
一个博客。 由于不同
的
特征没有相似的值范围,
梯度
可能需要很长
的
时间,来回振荡,并且需要很长
的
时间才能找到它们
的
全局/局部最小值。有人能解释清楚吗,当特征值是不同
的
范围时,为什么我们
会
遇到
梯度
问题?
浏览 0
提问于2022-07-21
得票数 0
1
回答
Tensorflow
函数中用作Keras自定义丢失
的
异常
tensorflow
、
keras
我试图通过
Tensorflow
编写一个具有自定义丢失功能
的
Keras 2 LSTM: model.compile(loss=in_top_k_loss, optimizer='rmsprop', metrics,因此我
使用
train_on_batch,其中每个批只包含具有相同时间维度
的
实例。当我用不同
的
输入(甚至是棘手
的
输入)分别测试它们时,这些函数似乎可以工作。似乎只有Keras有问题--可能需要不同
的
数据类型/形状/等等。(y
浏览 0
提问于2017-04-20
得票数 2
回答已采纳
1
回答
梯度
下降
全局最小值?
machine-learning
、
gradient-descent
对于平均平方误差最小
的
梯度
下降
算法,该算法为线性预测器寻找
系数
。我所指
的
算法是。当学习速率足够小时,算法发现
的
这些
系数
收敛到全局最小值。我们知道存在全局极小值,因为平均平方误差是权值
的
凸函数。运行
梯度
下降
20000次 方法2 对于每一个,我让学习率为3^i。
浏览 3
提问于2016-04-01
得票数 1
1
回答
我如何用
TensorFlow
实现k-means算法?
k-means
、
tensorflow
intro教程
使用
了内置
的
梯度
下降
优化器,非常有意义。然而,k-means不仅仅是我可以插入到
梯度
下降
中
的
东西。似乎我必须编写自己
的
优化器,但考虑到
TensorFlow
原语,我不太确定如何做到这一点。 我应该采取什么方法?
浏览 99
提问于2015-11-10
得票数 21
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
谷歌机器学习速成课程系列二
《Machine Learning for Humans》第二章:监督学习(一)
小菜与老鸟之机器学习07
机器学习100天-Day2102 Tensorflow实现梯度下降
Tensorflow入门教程——调试TensorFlow模型
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券