腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
视频
沙龙
1
回答
SGD分类器和Logisitc回归有什么区别?
、
、
、
据我理解,SGD分类器和Logistic回归似乎相似。损失=对数的SGD分类器实现Logistic回归,损失=铰链实现线性支持向量机。我还了解到logistic回归采用梯度下降作为优化函数,SGD采用随机梯度下降,收敛速度要快得多。但这两种算法中哪一种会在哪种情况下使用?另外,SGD和Logistic回归有什么相似之处,它们又有何不同?
浏览 0
提问于2018-09-07
得票数 10
1
回答
线性回归优化
、
、
、
我现在正在学习线性回归。在我发现的大多数实现该方法的例子中,都使用了梯度下降。 有比梯度下降更好的线性回归优化方法吗?
浏览 0
提问于2018-07-08
得票数 1
回答已采纳
1
回答
如何将随机森林分类器预测转换为回归预测?
、
、
、
我希望利用一个随机森林回归在Go使用高尔夫存储库()。据我所知,高尔夫只支持随机森林分类器,它用类和概率()进行预测。 是否有一种简单的方法来利用分类器的预测概率,并使用它来形成标量预测(相当于回归者的预测)? 提前感谢!
浏览 3
提问于2020-03-25
得票数 0
3
回答
不提供梯度的fmincg的有效解?
、
我正在研究具有大量特性的多类logistic回归模型(numFeatures > 100)。该算法采用基于代价函数和梯度的最大似然估计,快速解决了这一问题。然而,我也在试验一个不同的成本函数,并且没有梯度。 有什么好办法来加快计算过程吗?例如,我是否可以使用不同的算法或fmincg设置?
浏览 0
提问于2014-06-21
得票数 5
1
回答
假设优化收敛,logistic回归总是找到全局最优吗?
、
、
、
、
我不知道这两种情况是否都是这样: logistic回归是否总能找到全局最优解? 尤其是 当优化收敛时,logistic回归总是找到全局最优解吗?
浏览 1
提问于2016-11-24
得票数 1
1
回答
如何从K近邻回归中获得结果
、
、
我想知道决定回归数值类的5个属性的最佳优化。K近邻回归是最好的回归方法,但是基于这种回归方法,我如何才能获得可靠的结果(如属性的最佳值的数值结果)?
浏览 1
提问于2015-01-15
得票数 0
1
回答
Logistic回归与有日志丢失的SGDClassifier、有铰链损失的支持向量机和SGDClassifer有什么区别?
、
、
我们能不能用日志丢失的SGDClassifier代替Logistic回归,它们会有相似的结果吗?
浏览 0
提问于2021-01-04
得票数 3
2
回答
Weka中的参数优化算法
、
、
在Weka中,我使用了网格算法和随机搜索参数整定算法,但不幸的是,当我们使用ML算法(支持向量回归、线性回归等)而没有任何优化算法时,它们的性能(在更好的预测精度方面)最差。我想知道这怎么可能?我的意思是说,一种算法(网格算法或随机搜索算法)的性能应该比其他算法好或差,但与没有任何参数优化算法的算法相比,它们的性能最差。我甚至尝试了在Weka和MultiSearch选项的混合,但即使是这两者的混合具有最差的性能。如果有人能根据他们在这方面的经验提供意见,请见谅。
浏览 0
提问于2019-10-16
得票数 1
1
回答
如何比较监督学习算法及其技术集成学习算法?
、
、
、
、
我不得不比较支持向量机和随机森林算法,但是我搞不懂如何比较它,比如支持向量机是监督学习算法,随机森林是集合学习算法。帮助我如何比较它在哪一点上像-在分类,在回归。
浏览 0
提问于2020-04-17
得票数 0
回答已采纳
1
回答
非平衡数据集上的Logistic回归与随机林
、
我有一个不平衡的数据集,其中阳性仅占整个样本的10%。我使用logistic回归和随机森林进行分类。通过对这些模型结果的比较,发现0,1和0,0.6之间的logistic回归结果在概率输出上存在一定的差异。我不能分享数据集,但我怀疑这些算法的工作。随机森林如何产生小于0.6的概率?
浏览 0
提问于2020-07-23
得票数 1
回答已采纳
1
回答
如何使用scikit-learn预测具有分类和连续特征的二元结果?
、
、
我需要为分类问题选择模型和机器学习算法的建议。 我在试着预测一个对象的二元结果。我的数据集中有500,000条记录和20个连续的分类特征。每个主题有10-20条记录。数据使用其结果进行标记。 到目前为止,我考虑的是逻辑回归模型和内核近似,基于小抄表。 在用R或Python实现时,我不确定从哪里开始。 谢谢!
浏览 3
提问于2016-07-29
得票数 1
3
回答
功能缩放在scikit learn中的使用
、
、
、
我在这里学习机器学习,这门课使用的是regression 中的'scikit learning‘。 我可以看到,对于一些训练回归算法,作者使用了特征缩放,而对于某些回归算法,他没有使用特征缩放,因为一些“scikit学习”回归算法会自己处理特征缩放。 如何知道我们需要在哪种训练算法中进行特征缩放,以及我们不需要在哪里进行?
浏览 2
提问于2018-08-03
得票数 0
1
回答
梯度提升树的弱学习分类/多类分类
、
、
我是机器学习领域的初学者,我想学习如何使用梯度增强树(GBT)进行多类分类。我读过一些关于GBT的文章,但是关于回归问题,我找不到关于GBT多类分类的正确解释。我也检查GBT在科学知识-学习图书馆机器学习。GBT的实现是利用回归树作为弱学习者进行多类分类的GradientBoostingClassifier。 GB以提前阶段的方式建立了一个加性模型;它允许对任意可微损失函数进行优化。在每个阶段,n_classes_回归树都适用于二项或多项偏差损失函数的负梯度。二进制分类是一种特殊情况,其中只有一个回归树是归纳出来的。 来源: 问题是,为什么我们用回归树来学习GBT而不是分类树呢?如果有
浏览 0
提问于2018-04-25
得票数 0
回答已采纳
1
回答
在有监督学习中变换/缩放目标变量的好处?
、
、
我正在学习在高斯分布中使用变量是多么有帮助。我不太清楚如何将其应用于有监督的学习问题,比如使用神经网络。下面是我的数据集的目标变量,分别是目标变量的sqrt和log。 问题 在回归问题中转换连续的目标变量有什么好处/意义吗?
浏览 3
提问于2019-08-21
得票数 0
3
回答
理解遗传算法
、
什么是遗传算法,它相对于其他算法的实际优势是什么?它是否类似于任何常用的机器学习算法,如线性/logistic回归,神经网络,或基于树的方法,如梯度增强和随机森林?我听说它是基于其他型号的“变异”组合。这能让它更像一个合奏吗?
浏览 0
提问于2016-06-29
得票数 4
回答已采纳
1
回答
在Scikit学习中,除了L-BFGS-B算法之外,还有其他的超参数优化算法吗?
、
、
、
、
在scikit学习中,可以使用类GaussianProcessRegressor的对象来计算高斯过程回归,如: gp= GaussianProcessRegressor(alpha=1e-10, copy_X_train=True, kernel=1**2 + Matern(length_scale=2, nu=1.5) + WhiteKernel(noise_level=1), n_restarts_optimizer=0, normalize_y=False, optimizer='fmin_l_bfgs_b', random_state=None
浏览 0
提问于2018-05-08
得票数 1
回答已采纳
1
回答
神经网络还是其他算法?
、
、
我有一个回归问题,大约有一百万行,大约有10-15个特性.在这种特殊的环境下,什么应该更好地发挥作用?神经网络还是规则回归?
浏览 0
提问于2019-05-21
得票数 0
回答已采纳
1
回答
如何在R中进行约束回归
、
假设我有一个简单的回归方程 lm(y~., newdata=df) 我知道如果我想把截距减少到0,我会写 lm(y+0., newdata=df) 然而,有没有一种方法可以产生逐步回归,同时将每个系数限制在一个特定的范围内?例如: step(lm(y~.>1000, newdata=df) 上面的方法不起作用,但有没有一种方法可以说产生一个回归,基本上产生最佳拟合,并迫使每个系数大于1,000?或者,小于指定的范围。 #as per Gautam minfunc <- function(coefs){ out <- sum(sapply(3:314, fu
浏览 3
提问于2018-06-09
得票数 2
1
回答
对于不平衡的数据集,mllib如何在内部加权类?
、
我有一个包含1%正类 (1's) 和99%负数 (0's)的数据,并且我正在使用Pyspark中的Logistic回归。我在上讨论了处理不平衡数据集的问题,解决方案是添加一个weightCol,就像它在链接中提供的答案中所说的那样,以便告诉模型将更多的注意力集中在1上,因为那里的数据比较少。 我已经尝试过了,它运行得很好,但是我不知道mllib如何在内部平衡数据。有人有线索吗?我不喜欢和“黑匣子”打交道,我无法理解。
浏览 2
提问于2019-05-06
得票数 1
7
回答
C/C++中的最小二乘回归
、
、
如何在C/C++中实现因子分析的最小二乘回归?
浏览 18
提问于2010-02-04
得票数 2
1
回答
粒子群算法能在非零导数点上收敛吗?
、
、
、
我使用这个库- 来求凸函数的整体极小值.这只是为了开始和工作的一个非凸函数。我用线性回归找到了全局极小值,但问题是粒子群似乎在不同的点上收敛,这取决于我设置的omega和phi(s)的值。通过与线性回归给出的代价进行比较,可以确定这些点不是全局极小值。 这在PSO中是否有可能收敛(值在10次迭代后不变),还是我在某个地方犯了错误?
浏览 2
提问于2018-12-06
得票数 2
回答已采纳
1
回答
困境库存中的线性回归模型
、
我正在尝试分析综合影院中的空位问题,并建立一个机器学习模型,该模型可以预测给定的一天会有多少空位。线性回归模型在这里是完美的吗?
浏览 37
提问于2018-10-21
得票数 -1
1
回答
平均绝对误差随相关因素的增加而增大
、
、
我正在使用Microsoft机器学习工作室来预测股票市场的价格。我们有变量-指数价格(目标-被预测),低价格,高价格,日期和日期。我们使用分裂的0.7和运行线性回归。平均绝对误差为109。然后,我们尝试添加更多的变量(正向影响指数价格的宏观经济因素),这些变量与目标变量相关,并且应该改进预测--我们发现平均绝对误差增加到110,我已经附上了这些图供您参考。我们是解释错了,还是做错了什么?PS:我们也尝试过增强树回归--但是上面描述的问题是相同的。错误
浏览 0
提问于2019-03-06
得票数 0
1
回答
遗传算法:支持向量机/朴素贝叶斯的连接
、
、
、
我发现了以下七个分类器的列表: 线性分类器: Logistic回归,朴素贝叶斯分类器 最近邻 支持向量机 决策树 升华树 随机林 神经网络 什么是遗传算法,为什么它们不被认为是七个分类器的一部分?
浏览 0
提问于2019-10-26
得票数 0
回答已采纳
1
回答
相关性作为回归的评价指标
、
、
、
我正在处理一个回归预测挑战,其中评价指标是(pearson)相关性。然而,我的印象是,这个指标有点武断。虽然我可以保持RMSE的稳定,但相关性可以有很大的变化。 有人能解释一下这个指标吗?如何对其进行优化?
浏览 0
提问于2016-01-23
得票数 2
2
回答
如何找到用于回归的隐藏层和每个隐藏层中的神经元数量?
、
我读过一些帖子和文章,讨论如何为分类问题找到正确的隐藏层数量和每个隐藏层中的神经元数量。但是,我找不到任何与回归相关的信息? 有没有人能解释一下隐藏层和隐藏层中神经元数量的计算?
浏览 2
提问于2019-12-23
得票数 0
1
回答
线性回归模型中未知参数估计的最佳方法
、
、
给出一些预测数据集, 例如,我有不同的房价预测数据: 数据集1: 100培训和100个测试样本,50个特征 数据集2:100个培训和100个测试样本,120个特性 数据集3:1000个训练和1000个测试样本,50个特征 数据集4:1000个训练和1000个测试样本,5000功能 如何从这些数据集的下列数据中选择最佳的方法来估计线性回归模型中的未知参数(预测价格)? 普通最小二乘 逐步回归 主成分回归 偏最小二乘回归 我应该一个接一个地对这些数据进行实验,并比较结果,还是根据数据集对何时使用它们有任何规则? 请帮帮忙
浏览 0
提问于2015-06-01
得票数 6
2
回答
我是否可以使用其他不基于决策树的回归类型来像学习梯度增强的弱学习者一样使用它?
、
、
我在想,如果我能像弱学习者一样在梯度提升中使用多项式回归,但我读到决策树是用来做这个的,我找不到其他弱学习者可以使用的可能性的东西。
浏览 0
提问于2020-05-26
得票数 2
1
回答
我应该考虑所有基于梯度下降的算法的特征缩放吗?
在多元线性回归一节的课程机器学习中,Andrew提供了以下关于梯度下降的提示: 使用特性缩放来更快地收敛 将特性转换为大约-1 平均归一化 吴家富还提供了一些其他建议: 绘图成本与迭代 确保每一次迭代都能降低成本(尝试更小的alpha) 若要确定收敛速度是否太慢(请尝试更大的alpha) 以确定要收敛的迭代次数。 这些技巧适用于所有使用不同机器/深度学习算法的梯度下降问题,还是仅适用于多元线性回归?
浏览 0
提问于2018-02-27
得票数 2
回答已采纳
1
回答
回归方法
、
我想了解有哪些回归方法,以及它们的目的。我知道最小二乘法,你可以用它建立一个线性和非线性的模型并进行预测。 ARMA模型用于预测平稳时间序列,ARIMA模型用于非平稳时间序列。当大量的数据和符号被使用时,神经网络。对于时间序列,LSTM很受欢迎。什么方法适用于解决多元回归问题?在什么情况下我应该使用什么方法?
浏览 0
提问于2019-08-10
得票数 1
回答已采纳
3
回答
遗传算法(GAs):是否只考虑作为优化算法?气体在机器学习中有用吗?
、
、
作为一个快速的问题,遗传算法被用来做什么?我在其他地方读到,它们应该被用作优化算法(类似于我们使用梯度下降来优化最优参数的方法,用线性回归,神经网络.)。如果是这样的话,为什么这些气体在机器学习中没有那么多的存在(或者至少我在文献中没有看到太多)?
浏览 0
提问于2019-10-28
得票数 6
回答已采纳
1
回答
目标函数与评价指标的匹配
、
、
、
模型拟合的目标函数和模型验证的评价指标是否需要在整个超参数搜索过程中保持一致? 例如,一个XGBoost模型是否可以以均方误差作为目标函数(将“目标”参数设置为reg: squared :回归和平方损失),而交叉验证过程是基于显著不同的度量来评估的,例如伽马偏差(伽马回归的剩余偏差)?或者评价指标应该尽可能地与目标函数相匹配,因此需要选择均方误差作为评价指标。
浏览 0
提问于2020-09-25
得票数 3
回答已采纳
3
回答
在python中SGD分类器和SGD回归器有什么不同?
、
、
在python sklearn中,SGD分类器和SGD回归器有什么不同?另外,我们可以设置批处理大小以提高性能吗?
浏览 3
提问于2019-02-15
得票数 1
3
回答
对于所有线性分类器,预测算法都是完全相同的吗?
、
、
、
、
对于所有线性分类器和线性回归算法,预测算法都是完全相同的吗? 众所周知,任何线性分类器都可以描述为:y = w1*x1 + w2*x2 + ... + c 📷 确定线性分类器参数的方法有两大类(生成和鉴别):https://en.wikipedia.org/wiki/Linear_分类器。 线性判别分析(或Fisher线性判别),朴素贝叶斯分类器 Logistic回归、感知器、支持向量机 问:线性分类器只在学习算法中有所不同,但它们在预测y = w1*x1 + w2*x2 + ... + c时也是这样吗? 如果我使用一种训练方法(例如带有线性核函数的支持向量机),那么我是否可以使用其他方法进行
浏览 0
提问于2019-01-31
得票数 5
回答已采纳
3
回答
哪些参数是线性回归中的超参数?
、
、
线性回归中使用的特征数是否可以看作是一个超参数?也许是功能的选择?
浏览 0
提问于2018-05-14
得票数 6
回答已采纳
1
回答
什么算法会被困在局部最小值?
、
、
、
像神经网络这样的算法很容易陷入局部极小,因为损失函数的形状(例如动量等参数是用来解决这类问题的)。Logistic回归将始终找到全局最小值,因为日志丢失是一个凸函数(如果我在这里遗漏了什么,请随时纠正我)。 然后,我想知道其他算法,如RandomForest,GradientBoostTree,或支持向量机,哪一个会面临陷入局部最小值的问题,哪一个不会呢?为什么?谢谢!
浏览 0
提问于2018-06-06
得票数 5
1
回答
对于线性可分数据,逻辑回归更好吗?
关于分类..。假设发现一个数据是线性可分的(使用SVM/聚类/单感知器等测试线性可分性)。我们是否可以使用更简单的模型,如逻辑回归(而不是SVM或其他),因为他们说简单模型是更好的模型 如果错了,请纠正我 提前感谢!苏利亚
浏览 2
提问于2017-06-06
得票数 0
1
回答
python包中的状态模型,如何准确地处理重复的特性?
、
、
、
我是一个重R用户,最近正在学习python。我有一个关于statsmodels.api如何处理重复特性的问题。据我理解,这个函数是R包中glm的python版本。因此,我期望函数返回最大似然估计(MLE)。 我的问题是,使用哪种状态模型来获得MLE?特别是该算法如何处理重复特征的情况? 为了澄清我的问题,我用一个协变量x1从Bernoullie分布生成一个50大小的样本。 import statsmodels.api as sm import pandas as pd import numpy as np def ilogit(eta): return 1.0 - 1.0/(np.ex
浏览 1
提问于2016-05-27
得票数 0
回答已采纳
1
回答
如果火车数据和测试数据之间存在巨大的差异呢?
、
我训练了一个在看不见的数据上做得很好的模型,但是在投入生产后,我得到的数据非常不同,比如火车和测试数据的最高值是23,但是我从生产中得到的数据的值是80,只有一个特征,这就是回归问题。有谁能推荐我能做些什么来解决这个问题吗?
浏览 0
提问于2019-09-10
得票数 1
1
回答
Logistic回归中选择合适的容忍度值(Scikit-learn)
、
、
我在Scikit学习中使用Logistic回归模型(特别是)。当我使用默认的tol值( 1e-4)并测试不同random_state值的模型时,特征系数波动不大。至少,我能看出哪些功能是重要的。 但是,当我设置一个较高的tol值(例如,2.3)时,每次运行该模型时,特征系数都会剧烈波动。在一次试验中,特征A的系数为-0.9,下一次运行时可能为0.4。 这使我认为,当结果更加一致时,应该是正确的(或有利的) tol值。 下面是我代码的相关部分: classifier = LogisticRegressionCV(penalty='l1', class_weight='ba
浏览 2
提问于2018-05-30
得票数 2
回答已采纳
1
回答
如何使用尽可能少的样本搜索高维的全局最大值?
、
假设空间中任意一点的值由Y= f(x1,x2 .( xk)为了简单起见,我们可以假设x只接受二进制值。这意味着我们总共有2^k的可能值。我想在这个k维空间中找到点,在这一点上,Y是最高的。 限制在于计算Y的成本,因为计算Y非常“昂贵”,所以我想尽可能少地计算Y。话虽如此,我有能力测量Y在这个k维空间中的任意一点。我正在寻找一种方法,只使用一小部分值n,其中n << 2^k,并使用它建立一个预测模型外推到整个空间 我可以从随机选取的n个点开始,用它们来构造回归树。预测误差是可以接受的。但n的大小仍然很高。 有更明智的方法来选择我的n个样本吗?将n个度量外推到整个特征空间的替代方法是什
浏览 0
提问于2019-03-07
得票数 0
1
回答
Python2.7 sklearn.svm警告消息
、
、
、
我正在Python中运行支持向量回归,使用: model=SVR(C=1.0, epsilon=0.01,kernel='linear',verbose=True) 我收到以下警告: [LibSVM]......................................... Warning: using -h 0 may be faster 什么意思?我怎样才能使用这些信息?
浏览 1
提问于2017-08-30
得票数 0
回答已采纳
1
回答
我不明白如何在Azure机器学习中进行参数扫描?
、
、
、
在azure ml中,如果我们选择一种训练算法(例如“两类Logistic回归”),那么我们就可以有一组参数来进行参数扫描,而training.But如何知道它们在训练中如何改变参数值?
浏览 0
提问于2016-09-29
得票数 1
1
回答
优化输入向量以达到最优结果
、
、
我找不出以下问题:如果可以的话,我想马上给你举个例子 想象一下,你使用营销数据,你想出了一个很好的回归模型,预测某个活动的“触角”。一切都很好很好。数据科学家工作完成。 但是等等。我们可以做得更多。 我的问题是: 假设我们有一个好的模型,我们如何才能优化输入向量(=营销活动)以获得最佳的“达到”(=预测器/优化目标)? 我疯狂地搜索,但找不到任何好的方法(我不是说任何低参数优化)。到目前为止我发现的最好的方法是遗传算法.示例和 或者--一种蛮力方法--用大量可能的输入向量计算一个巨大的网格,然后检查哪一个是最好的(直接向前)--但这将是计算昂贵的。 我很想听听你对此的看法。有什么建议吗?我应该
浏览 0
提问于2018-09-27
得票数 0
回答已采纳
1
回答
八度和巨蟒之间的混淆
、
、
最近,我完成了由安德鲁斯·吴( Andrews Ng )执导的“课程”中的ML课程。这是一个很棒的课程。我一直在用八度音阶完成整个课程。但是,与八度相比,蟒蛇很受欢迎。所以,我现在已经开始学习蟒蛇了。我正在使用python实现线性回归。因为我什么都没做。简单地调用线性回归的预定义函数。但是,在八度音阶中,我经常从头开始编写代码。我必须使用梯度下降算法来寻找参数。但是,在蟒蛇身上没有这样的东西。我参考了以下链接: 我的问题是,我们不会用像梯度下降这样的算法来学习参数Theta吗?所有东西都是在python中预先定义的吗? 谢谢。
浏览 0
提问于2019-04-29
得票数 3
回答已采纳
1
回答
R代码:提取高度相关的变量,并使用选定的变量运行多元回归模型
、
我有一个巨大的数据,其中有大约2000个变量和大约10000个观察值。最初,我想为每个具有1999个自变量的人运行一个回归模型,然后进行逐步模型选择。因此,我将有2,000个模型。 然而,不幸的是,由于内存不足,R出现了错误。因此,或者,我尝试删除一些低相关值的自变量-可能低于0.5- 对于与每个因变量高度相关的变量,我想运行回归模型。 我试着遵循代码,甚至melt函数也因为内存问题而不能工作。天啊..。 test<-data.frame(X1=rnorm(50,mean=50,sd=10), X2=rnorm(50,mean=5,sd=1.5),
浏览 3
提问于2013-09-28
得票数 1
2
回答
在线性SVM / logistic回归目标函数中加入仿射项
、
、
、
、
我目前的工作是一个问题,我必须解决一个L2正则logistic回归或L2-reg线性支持向量机问题,其中我有一个附加的仿射项。 例如,我的问题是: min_ w {C*sum_i max(1-w*x_i*y_i,0) + 0.5*||w||^2_2 + w * v } 其中v是一个常量向量。 当然,这是一个凸问题,可以用通常的方法来解决,但我必须解决许多这类大问题,所以我非常想使用一个标准库,例如liblinear。 我的问题是,是否有一种方法来转换数据x、标签y或权重因子C(对于每个实例可能转换为不同的C_i ),这样这个问题就相当于一个标准的铰链丢失支持向量机或逻辑回归问题?
浏览 0
提问于2012-02-08
得票数 5
1
回答
您应该在哪个阶段绘制验证和学习曲线?
因此,假设我有一个二进制分类问题,我从一个logistic回归模型开始。我快速地评估了模型的准确性(假设我们没有倾斜的数据集)。在此之后,我开始实现其他模型的比较,我开始检查准确性评分,并绘制一条ROC曲线来评估AOC评分。 我们可以说,我继续我的logistic回归模型。我不打算微调它和使用网格搜索算法,然后继续选择最佳的超级参数w.r.t的准确性评分。 我什么时候才能真正画出学习和验证曲线?我假设我应该把它画在旁边,看看一个更大的参数是如何影响分数的,然后看看我的模型是不合适的还是过拟合的。 但是,我不应该更早地绘制学习曲线吗?例如,在我选择从后勤部门开始的第一步。模特? 总结一下:画出一
浏览 0
提问于2020-09-14
得票数 0
1
回答
Tensorflow损失
有谁能解释一下tensorflow的基本分类损失和定位损失意味着什么? 在使用tensorflow API的SSD培训过程中,我得到了这些损失,但根本不理解这两种损失。 我读到,本地化丢失是包围盒回归器的丢失,这就产生了一个新的问题,那就是包围盒回归器是什么? 谁能简单介绍一下吗?
浏览 1
提问于2018-07-09
得票数 0
1
回答
奇异值聚类
、
让我们考虑下面的奇异值图 我想对这些数据进行某种聚类,即从非主成分中分离出主成分,假设信号分量和噪声分量,我想这样做(任何软件matlab等都很好,更好的matlab)让我们这样开始,先用第一点进行线性回归,然后用前两点进行回归分析,点是一个要创建两组,在第一组中回归线的第一组系数应该是相近的,在另一组中回归系数应该是接近的,但是在一个组中回归系数必须与另一个组中的系数高度不同,这意味着我们应该找到这样的点,最好地将这个组分开,换句话说,我应该停止回归分析,在一个点上很好地分开两组,然后再进行一个回归,直到这个停止点之后,直到其他的休息点,请帮助我如何编程地做它。
浏览 3
提问于2014-04-17
得票数 0
回答已采纳
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
回归算法之线性回归(二)
回归算法之线性回归(一)
线性回归算法总结
算法篇之线性回归
回归算法与机器学习
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券