腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(299)
视频
沙龙
1
回答
为什么
随机
梯度
下降
不支持
非线性
SVM
、
我读到SGD支持线性
SVM
,但
不支持
非线性
SVM
。
为什么
会这样呢?我正在研究
非线性
支持向量机的成本函数。它的开头确实有一个"sum“符号。
浏览 6
提问于2017-08-04
得票数 1
1
回答
具有
随机
梯度
下降
和无
随机
梯度
下降
的支持向量机性能比较
、
、
比较了具有
随机
梯度
下降
和不存在
随机
梯度
下降
的
SVM
分类器的性能。在学习过程中,我只找到了SGDClassifier (我可以把它放到管道中)。sklearn不提供一个非
随机
(批处理)
梯度
下降
分类器的实现吗?为了进行分析,我是否必须单独实现这两个分类器?
浏览 0
提问于2018-12-17
得票数 1
回答已采纳
1
回答
大型/超大型数据集的支持向量机(
SVM
)
、
、
、
我想知道支持向量机(
SVM
)对于具有
非线性
决策边界(如高斯核)的大型/超大型数据集(5-15M+行)的最先进的高效(近似)实现是什么?我知道两种特殊的方法:一方面,这个使用
随机
梯度
下降
的调查,等等:在这一页上,我们可以找到两篇描述核心和球向量机的论文。换句话说,我相信SVMs对于当前的问题是很有道理的,但是如果我要使用标准的
SVM
实现(可能高达n^3的复杂性),我会受到样本大小的限制。
浏览 2
提问于2013-10-28
得票数 2
回答已采纳
2
回答
是否总是保证损失函数的收敛性?
、
(i)对于凸损失函数(即碗形),保证批
梯度
下降
最终收敛到全局最优,而不保证
随机
梯度
下降
。(4)对于凸损失函数(即碗形),既不保证
随机
浏览 0
提问于2020-08-13
得票数 4
回答已采纳
1
回答
scikit-学习支持向量机与大量样本/小批量可能?
、
有没有一种方法可以在
SVM
中内置或使用类似minibatches的东西?我看到有MiniBatchKMeans存在,但我不认为它是支持向量机? 欢迎任何意见!
浏览 1
提问于2016-11-22
得票数 6
2
回答
如何在滑雪LinearSVC中添加时代?
、
、
、
我有一个模型,我需要使用epochs进行多次训练,我尝试添加这个代码clf_
svm
.fit(train_features, train_labels, epochs=10, batch_size=64)os.path.exists("D:/ai training/aphids/joblib_model.sav"): clf_
svm
clf_
svm
= LinearSVC(random_state=
浏览 0
提问于2021-04-12
得票数 0
1
回答
如何在大数据集中进行抽样建模
我需要在10 8GB的训练数据集上进行预测建模,这无法放入内存(8 8GB)。我正在考虑对大数据集进行多次采样,并在每个子集上进行拆分,以生成训练和验证集来创建模型。有没有更好的方法来解决这个问题?谢谢!
浏览 2
提问于2016-09-12
得票数 1
1
回答
关于tf.keras SGD批量
、
、
、
但是SGD的细节说 我检查了SGD的,似乎没有
随机
的洗牌方法。我对SGD的理解是对
随机
样本应用
梯度
下降
。但它只在动量和nesterov的情况下进行
梯度
下降
。如果是这样的话,它会
随机
地洗牌,但从不使用相同的数据集,不是吗? 我的理解正确
浏览 3
提问于2021-01-24
得票数 0
2
回答
如何从Scikit学习加速k-方法?
、
、
、
、
在我的项目中,我使用k-方法对组间的数据进行分类,但是我对Scikit学习的k-均值的计算有一个问题--它非常慢。我需要提一下。有什么建议要加快吗?
浏览 5
提问于2017-10-01
得票数 11
3
回答
不提供
梯度
的fmincg的有效解?
、
该算法采用基于代价函数和
梯度
的最大似然估计,快速解决了这一问题。然而,我也在试验一个不同的成本函数,并且没有
梯度
。 有什么好办法来加快计算过程吗?例如,我是否可以使用不同的算法或fmincg设置?
浏览 0
提问于2014-06-21
得票数 5
4
回答
随机
梯度
下降
是分类器还是优化器?
、
、
、
我是机器学习的新手,我正在尝试为我的一个项目分析分类算法。我在sklearn库中偶然发现了SGDClassifier。但许多论文都将SGD作为一种优化技术。有人能解释一下SGDClassifier是如何实现的吗?
浏览 1
提问于2017-08-02
得票数 7
6
回答
梯度
下降
和
随机
梯度
下降
有什么区别?
、
、
、
梯度
下降
和
随机
梯度
下降
有什么区别? 我对这些不太熟悉,你能用一个简短的例子来描述这种差异吗?
浏览 0
提问于2018-08-04
得票数 75
2
回答
基于向量运算的
随机
梯度
下降
?
、
、
假设我想使用N个样本的数据集来训练一个
随机
梯度
下降
回归算法。由于数据集的大小是固定的,我将重用数据T次。在每次迭代或“时代”中,在
随机
地重新排序整个训练集之后,我使用每个训练样本一次。想出一个批量
梯度
下降
的矢量化实现是非常简单的。然而,在
随机
梯度
下降
的情况下,我想不出如何避免在每个时期迭代所有样本的外循环。 有没有人知道
随机
梯度
下降
的向量化实现?编辑:如果我的数据集的大小是固定的,
浏览 0
提问于2014-10-10
得票数 10
回答已采纳
1
回答
标准化与最小最大标度
、
、
在Aurélien Géron著的“用Scikit进行机器学习-学习、Keras和TensorFlow第二版”一书中,作者引用了:这是否意味着标准化对神经网络不利?请解释神经网络如何在标准化的情况下工作得很好,但是很好地符合最小-最大尺度。
浏览 0
提问于2021-11-23
得票数 2
2
回答
寻找判别损失函数的定义
谁能解释一下在深度学习的背景下,区分损失函数是什么意思?
浏览 0
提问于2017-05-27
得票数 1
1
回答
在Tensorflow中实现fminunc函数
或者,如果存在类似的伪装,那么在Tensorflow中它被称
为什么
?
浏览 3
提问于2016-06-29
得票数 1
回答已采纳
1
回答
“
梯度
助推机”和GBDT是完全一样的吗?
、
、
、
在
梯度
提升的范畴中,我发现一些术语令人困惑。但是
梯度
增强器(GBM)和GBDT是一回事吗?他们只是名字不一样吗?除了GBM/GBDT和XGBoost之外,还有其他的模型属于
梯度
提升的范畴吗?
浏览 0
提问于2020-09-19
得票数 4
回答已采纳
2
回答
神经网络与线性回归
梯度
下降
的反向传播
、
、
、
、
我试图理解“反向传播”,因为它是使用
梯度
下降
优化的神经网络。读一读文学作品,似乎做了几件事。 对损失函数执行
梯度
下降
,使用这些权重来获得新的权重。所以,我想弄清楚BackPropagation对损失函数是否做了比
梯度
下降
更多的事情。如果没有,
为什么
只在神经网络中引用,
为什么
不引用GLMs (广义线性模型)。
浏览 11
提问于2016-06-28
得票数 4
回答已采纳
1
回答
在CNN中,如何为特定类的过滤器保留权重。
、
、
、
、
我是CNN的新手,到目前为止,我对过滤器的了解是,当我们给我们的模型提供一个训练示例时,我们的模型通过
梯度
下降
来更新权重,以最小化损失函数。那么,我的问题是,如何为特定的类标签保留权重?
浏览 0
提问于2020-03-31
得票数 -1
2
回答
如何对矩阵上的函数进行离散优化?
、
、
、
、
这样做的一种方法是某种
随机
梯度
下降
或模拟退火。在Python中有什么工具可以实现这种通用的离散优化吗?
浏览 1
提问于2015-07-10
得票数 10
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
梯度下降算法之随机梯度下降
随机梯度下降
批量梯度下降与随机梯度下降的区别
梯度算法之批量梯度下降,随机梯度下降和小批量梯度下降
通过代码原理教你搞懂SGD随机梯度下降、BGD、MBGD
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券