腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
单
特征
梯度
下降
中
的
特征
缩放
machine-learning
、
linear-regression
、
gradient-descent
我正在编写线性回归
的
代码,其中我
的
模型将根据面积预测房价。所以,我只有一个
特征
,那就是房子
的
面积,我
的
输出是价格。我
的
输入是面积在1000 - 9000之间,房价在280000 - 800000之间。那么,我应该如何执行功能
缩放
,以及我应该如何通过输出来管理它。我
的
意思是,如果我把房子
的
面积在0-1
的
范围内,房价也在0-1
的
范围内,然后找出theta1和theta2
的
值(因为我正在
浏览 14
提问于2019-03-25
得票数 0
2
回答
正态方程多元回归分析
中
的
特征
标度(归一化)
machine-learning
、
regression
、
normalization
、
linear-regression
、
gradient-descent
我决定用正规方程法求线性模型
的
系数。如果我们使用
梯度
下降
的
线性回归多变量,我们通常采取
特征
缩放
,以加快
梯度
下降
收敛。现在,我将使用正规方程公式:我有两个矛盾
的
信息源。第一章指出法方程不需要
特征
标度.在另一种情况下,我可以看到,必须进行特性规范化。资料来源: 在这两篇文章
的
结尾,给出了关于正规方程
中
特征
尺度
的
信息。问题是,在
浏览 2
提问于2015-12-08
得票数 1
回答已采纳
4
回答
梯度
下降
方程和正规方程给出了多元线性regression.Why
的
不同θ值?
machine-learning
、
octave
、
linear-regression
、
gradient-descent
梯度
下降
的
矢量化实现 J_history(iter) = computeCostMulti(X, y, theta); computeCostMulti()
的
实现 J = 1 / (2 * m) * (X * theta - y)' * (X
浏览 2
提问于2017-06-03
得票数 0
1
回答
在功能
缩放
之后,我是否有相同
的
初始信息?
machine-learning
、
deep-learning
、
information-theory
我正在研究
单
隐层神经网络
的
梯度
下降
算法。假设我有一个初始数据集,然后使用平均规范化来扩展这些特性。 为什么标准化
特征
在数学上具有相同
的
初始
特征
信息?
浏览 0
提问于2018-01-04
得票数 2
回答已采纳
1
回答
我们如何选择应该标准化或
缩放
的
特性(列)?
machine-learning
、
dataset
、
data-cleaning
我是一个机器学习
的
新手,我正在经历
缩放
和规范化。当我试图浏览web上
的
大多数文档时,我发现人们解释说,数据集需要进行
缩放
和标准化。以及如何决定为列选择哪种规范化算法?
浏览 0
提问于2020-11-17
得票数 0
1
回答
特征
缩放
后
的
再标度、线性回归
machine-learning
、
linear-regression
、
gradient-descent
似乎是一个基本
的
问题,但我需要使用
特征
缩放
(取每个
特征
值,减去平均值,然后除以标准差),在我
的
实现
梯度
下降
线性回归。完成后,我希望权重和回归线重新标度到原始数据。我只使用一个功能,加上y-截取项。在使用
缩放
数据获得权重之后,如何更改权重,使其适用于原始
的
非
缩放
数据?
浏览 2
提问于2014-01-16
得票数 5
回答已采纳
3
回答
功能
缩放
在scikit learn
中
的
使用
python
、
machine-learning
、
scikit-learn
、
regression
我在这里学习机器学习,这门课使用
的
是regression
中
的
'scikit learning‘。我可以看到,对于一些训练回归算法,作者使用了
特征
缩放
,而对于某些回归算法,他没有使用
特征
缩放
,因为一些“scikit学习”回归算法会自己处理
特征
缩放
。如何知道我们需要在哪种训练算法中进行
特征
缩放
,以及我们不需要在哪里进行?
浏览 2
提问于2018-08-03
得票数 0
5
回答
训练集和测试集
的
特征
缩放
machine-learning
、
classification
、
deep-learning
、
supervised-learning
假设我想使用
梯度
下降
算法。我有一个训练集和一个测试集,我想用平均归一化来进行特性
缩放
。 对于两个集合
中
的
等价
特征
,我是否应该使用相同
的
均值和方差?为什么?
浏览 0
提问于2018-01-06
得票数 4
1
回答
替代LBFGS,在稀疏自动编码器中使用
梯度
下降
machine-learning
、
mathematical-optimization
、
deep-learning
、
gradient-descent
、
autoencoder
在Andrew Ng
的
课堂讲稿
中
,他们使用了LBFGS并获得了一些隐藏
的
功能。我可以使用
梯度
下降
代替,并产生相同
的
隐藏
特征
吗?其他参数都是一样
的
,只需改变优化算法即可。因为当我使用LBFGS时,我
的
自动编码器可以产生与讲座笔记
中
相同
的
隐藏
特征
,但当我使用
梯度
下降
时,隐藏层
中
的
特征
消失了,看起来
浏览 0
提问于2016-05-16
得票数 0
1
回答
线性回归(
梯度
下降
)
单
特征
python
、
machine-learning
、
linear-regression
、
self
gradientdescent()plt.scatter(X,Y, color='black')#np.size(X) self.m=m-m_gradient 通过以下方式:b=b-b_gradient self.m=m 有人能告诉我两者之间
浏览 2
提问于2022-08-25
得票数 1
回答已采纳
2
回答
为什么我们需要在馈送到网络之前将输入归一化为零均值和单位方差?
machine-learning
、
neural-network
、
deep-learning
在深度学习
中
,我看到许多论文将预处理步骤作为归一化步骤。它将输入归一化为零均值和单位方差,然后馈送到卷积网络(具有BatchNorm)。为什么不使用原始强度?规范化步骤
的
好处是什么?
浏览 1
提问于2019-01-30
得票数 1
1
回答
是否有必要在机器学习
中
对数据进行标准化/标准化?
machine-learning
、
normalization
在进行
特征
选择后,我有18个维度
的
特征
,并将用于训练分类器,RNN,HMM等。 这些
特征
包括加速度计和陀螺仪
的
标准差、均值和导数。这些功能具有不同
的
单位,标准化/标准化将失去功能
的
真正含义。例如,一个
特征
向量
的
单位是旋转速度(度/秒),该
特征
中
的
值在-120和120之间。另一个是x轴加速度
的
stddev,值主要在0到2之间。如果我想做标准化,所
浏览 0
提问于2016-11-22
得票数 2
1
回答
为什么sift
特征
对平面
单
应性变换也是不变
的
opencv
、
graphics
、
computer-vision
、
sift
我读过sift
特征
的
论文,我理解为什么它是旋转不变
的
。但我不明白为什么它也不变于平面
单
应性变换,正如我
的
测试代码所示。在两幅图像之间
的
单
应性变换
中
,变化不仅包括旋转和
缩放
。你可以想象对象
的
形状改变了,但是为什么关键点
的
特征
仍然匹配? 至于算法
的
细节,当关键点周围
的
像素变化而不是旋转相同
的
角度时,关键点
的
128维
浏览 1
提问于2013-10-22
得票数 1
2
回答
神经网络输入归一化有什么好处?
machine-learning
、
neural-network
、
data-science
、
normalization
我注意到它降低了
梯度
,但我不确定它是否真的能带来好
的
效果。
浏览 3
提问于2015-03-27
得票数 0
回答已采纳
2
回答
为什么
特征
缩放
会提高
梯度
下降
的
收敛速度?
linear-regression
、
gradient-descent
、
supervised-learning
在这
的
文章
中
,它说: 我们可以通过
缩放
来加速
梯度
下降
。这是因为θ在小范围内
下降
很快,在大范围范围内缓慢
下降
,因此当变量非常不均匀时,会低效率地振荡到最优。对于线性回归,从方程a_{n+1}=a_n-\alpha\nabla F(a_n)
中
,我不太清楚为什么大范围变量
的
收敛速度较慢,或者如何/为什么会发生振荡。
浏览 0
提问于2019-07-14
得票数 6
2
回答
每个维度
的
不同学习速率
machine-learning
、
neural-network
、
deep-learning
、
optimization
、
gradient-descent
我一直在思考为什么在
梯度
下降
的
基本背景下,每个特性都要进行归一化和
缩放
。 有一件事让我感到奇怪
的
是,我们为我们
的
每个维度都使用了一套预先定义
的
学习速率。现在我相信,如果我们不规范它们,我们就需要保持较小
的
学习速度,因为不同
的
特征
尺度,但这让我思考,我们不能有不同
的
学习率(适合每个
特征
维度),以弥补没有做规范化?
浏览 0
提问于2019-07-01
得票数 3
1
回答
梯度
下降
中线性回归
特征
的
数值表示
machine-learning
、
linear-regression
、
gradient-descent
下面的python代码可以很好地找到
梯度
下降
: xTrans = x.transposexTrans, loss) / m return theta 这里,x= m*n (m = no.样本数据和总
特征
)
的
特征
矩阵。然而,如果我
的
特征
是“2”电影
浏览 2
提问于2015-11-10
得票数 0
回答已采纳
1
回答
线性回归中
的
特征
标度
scikit-learn
、
linear-regression
、
feature-scaling
根据我
的
理解,当我们使用随机
梯度
下降
作为求解算法时,需要线性回归中
的
特征
标度,因为
特征
缩放
有助于在较少
的
迭代次数中找到解决方案,因此对于sklearn.linear_model.SGDRegressor(),我们需要对输入进行
缩放
。但是,我们不需要使用Linearregression()扩展输入,因为它使用封闭形式
的
解决方案(基于最小平方残差之和)。所以我
的
第一个问题是,我
的
理解正
浏览 0
提问于2022-10-04
得票数 0
回答已采纳
1
回答
如何使用标准化和标准化来提高深度学习性能?
python
、
keras
、
normalization
我有8160个数据集,输入
的
形状是(1500,1),输出
的
形状是(2500,1)。输入
的
值介于-80到3之间。输出
的
值介于0到1之间。我不能理解这个。例如,通过使用局部归一化,'0‘对应于输入1
的
-20,'0’对应于输入2
的
-80。我认为,关
浏览 1
提问于2020-11-29
得票数 1
1
回答
标准化与最小最大标度
machine-learning
、
neural-network
、
feature-scaling
在Aurélien Géron著
的
“用Scikit进行机器学习-学习、Keras和TensorFlow第二版”一书中,作者引用了: 与最小最大标度不同,标准化并不将值绑定到特定
的
范围,这对某些算法来说可能是一个问题请解释神经网络如何在标准化
的
情况下工作得很好,但是很好地符合最小-最大尺度。
浏览 0
提问于2021-11-23
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
机器学习(六)——线性回归的多变量、特征缩放、标准方程法
Scikit-Learn中的特征排名与递归特征消除
机器学习中的梯度下降法
手推人工智能中的特征值和特征向量
机器学习中的数学(1)-梯度下降法
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券