腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
基于
距离
而
不是
邻居
的
KNN
、
我有三列,需要像下面这样查找近旁
的
值 A B Distance point_d point_e 40 我需要找到所有附近
的
点对于ex -如果我想在28英里内找到point_a附近
的
所有点,它将是point_b,点e和点g
浏览 8
提问于2019-10-19
得票数 0
2
回答
最近
的
邻居
和
KNN
之间有什么区别?
、
、
我正在学习制作推荐系统
的
教程,在那里我看到最近
的
邻居
和
KNN
分类器是不同
的
。有人能解释一下,什么是最近
的
邻居
,
KNN
之间有何不同?
浏览 0
提问于2021-04-26
得票数 5
1
回答
变换空间中
的
K近邻
、
、
当谷歌“加权
KNN
",结果似乎集中在加权最近
的
邻居
值后,这些
邻居
已经确定。我正在寻找
的
东西,赋予不同维度
的
重要性水平,可能会改变
邻居
被认为是最近
的
目标,最大限度地提高预测
的
准确性,使用结果
的
模型。例如,如果我有一个新
的
观察定义为[1, 2],那么下面的#1和#2将被认为是在普通
KNN
下假设K=2
的
最近
的
邻居
(据我理解)
浏览 0
提问于2020-04-26
得票数 0
1
回答
scikit学习:安装没有标签
的
KNeighborsClassifier
、
、
、
我正在尝试拟合一个简单
的
KNN
分类器,并希望使用,以便从它们
的
高效实现(多处理、
基于
树
的
算法)中获益。方法似乎正是我所需要
的
,但是,如果不首先将模型与相匹配,我就无法调用它。问题是,fit()需要标签(y)作为参
浏览 3
提问于2022-07-26
得票数 0
回答已采纳
1
回答
如何求高维点(例如19)到其kth(例如第20)近邻
的
距离
、
、
在python中是否有任何函数或库可以帮助我找到一个点(有19个特性)与它
的
第20个近邻之间
的
距离
? 我试过欧几里得
距离
,但是由于我有近60万
的
记录(点数),所以我遇到了MemoryError。有没有一种更有效率和更有节奏感
的
方法来找到相同
的
东西?
浏览 3
提问于2018-05-29
得票数 0
回答已采纳
1
回答
kNN
(分类器)-缺点
、
所以我最近沿着
kNN
k最近
的
邻居
来了。当考虑到它
的
缺点时,大多数文献提到它是昂贵
的
,懒惰
的
,需要充分
的
训练数据加上依赖于k
的
值,并且由于
距离
的
关系
而
存在维数问题。除此之外,我还有以下假设。1-它忽略了维度可以相互关联
的
事实,而是假定它们是独立
的
(因为我们只是在计算
距离
)2如果数据
不是
标准化
的
,那么
距离
浏览 0
提问于2016-05-12
得票数 1
回答已采纳
1
回答
Python中
的
这一行是否表示
KNN
是加权
的
?
、
、
、
Python中
的
这一行是否表示
KNN
是加权
的
?clf = KNeighborsClassifier(n_neighbors=5, metric='euclidean', weights='distance') 重量是
距离
的
反比吗?有人能给出一个例子,说明加权
KNN
在数学上是如何工作
的
吗?
浏览 0
提问于2019-12-10
得票数 1
1
回答
参数“权重”在KNeighborsClassifier中是如何使用
的
?
、
、
、
在sklearn文档中,函数KNeighborsClassifier
的
参数KNeighborsClassifier解释如下: ‘
距离
’:重量点与其
距离
的
反比。在这种情况下,查询点
的
近邻将比更远
的
邻居
有更大
的
影响。虽然对相邻点进行加权,然后将预测值计算为加权点
的
平均值是有意义
的
,例如使用KNeighborsRegressor.然而,我看不出权重在分类算法中是如何使用
的
。根据“统计学习要素”一书,<e
浏览 0
提问于2019-06-28
得票数 1
回答已采纳
2
回答
从
距离
矩阵开始查找K个最近邻域
、
、
、
、
我正在寻找一个优化良好
的
函数,它接受一个n X n
距离
矩阵,并返回一个n X k矩阵,其中第i行
的
第i个数据点
的
k最近
邻居
的
索引。我发现了无数不同
的
R包,它们可以让你做
KNN
,但它们似乎都在同一个函数中包含了
距离
计算和排序算法。特别是,对于大多数例程,主要参数是原始数据矩阵,
而
不是
距离
矩阵。在我
的
例子中,我在混合变量类型上使用了非标准
距离
,因此我
浏览 3
提问于2014-05-04
得票数 13
1
回答
k-NN及关于k值和决策边界
的
几个问题
、
、
、
、
我碰到了一些让我困惑
的
事实。(2) k值较小时,决策边界不光滑。 任何一个例子或想法都会让我非常感激,简单地告诉我这个事实,或者为什么这些都是真的?
浏览 0
提问于2015-03-30
得票数 1
1
回答
加权投票应否普遍提高
KNN
分类器
的
准确性?
、
、
我比较了我
的
1NN基分类器和30个数据集
的
逆
距离
加权投票,加权投票选项似乎使分类器在90%
的
时间内表现相同或更差。下面的代码将通过在数据集上测试实例
的
总体准确性进行30次测试并计算其准确性来对实例进行分类。for(int j = 0; j <
浏览 2
提问于2019-04-19
得票数 0
2
回答
有效地判断数据集中
的
点是否没有近邻。
、
、
我有一个大约10K点
的
数据集,每个数据集都有200个数字描述符。在10K点中,我想定位出离群点,我将其定义为其10个最近
的
邻居
距离
很远(有多远?与第十个
邻居
的
距离
是与第十个
邻居
的
其他
距离
相对应
的
一个离群点,与通常定义
的
异常值相同)。 我试着计算整个
距离
矩阵(10Kx10K),对于每一行都应用部分排序来找到10个最近
的
邻居
。太贵了
浏览 0
提问于2018-06-23
得票数 1
回答已采纳
4
回答
KNN
算法在训练阶段做什么?
、
、
与线性回归等其他算法不同,
KNN
似乎不会在训练阶段执行任何计算。就像在线性回归
的
情况下,它在训练phase.But中找到系数,那么
KNN
呢?
浏览 62
提问于2019-02-04
得票数 9
回答已采纳
1
回答
弯管法选择ε
的
DBSCAN方法
我不确定为什么弯曲法是确定DBSCAN算法
的
epsilon值
的
近似正确方法。例如,在下面的示例中:我考虑了
距离
第五个最近
邻居
的
距离
,并且这些点是从第五个
邻居
距离
最小
的
一个到
距离
第五个
邻居
最远
的
一个。 我考虑了欧几里德
距离
的
情节。例如,我知道点0-20是最接近它们
的
第5个最近
邻居
的
点
浏览 7
提问于2021-11-17
得票数 1
1
回答
如何为KNeighborsClassifier选择权重函数
、
、
我正在学习
kNN
模型
的
超参数,我遇到了“
距离
”和“均匀”权重函数参数。 我
的
理解是,权重函数将在模型经过训练后用于计算预测(通过对
邻居
的
投票进行加权)。因此,我
的
问题如下: 我对权重函数
的
理解是否只用于预测(
而
不是
在训练期间)? 似乎使用'distance‘总是给出接近100%
的
训练准确率,这是否意味着使用'distance’函数会导致过度拟合?什么时候你应该使用'di
浏览 74
提问于2021-02-04
得票数 1
1
回答
加权
KNN
权值
的
适当设置
我目前正在尝试使用
KNN
来预测一个连续变量。我不想平等地对待每个
邻居
,我想用权重来创建一个加权平均值。权重本身并不理想,因为越接近一个
邻居
,我越希望那个
邻居
影响最终
的
结果。这导致我考虑每个
距离
的
反比,但这不能处理实例与
距离
为0
的
完全相同
的
->
的
情况。 关于如何正确设置每个
邻居
相对于
距离
的
权重,有什么建议吗?类似于逆向处理这个问题
的<
浏览 0
提问于2015-02-18
得票数 1
1
回答
knn
交叉网格搜索中
距离
参数(V)
的
定义(seuclidean/mahalanobis
距离
度量)
、
、
、
、
我试图使用
的
KNN
算法进行k次交叉验证网格搜索,搜索中
的
参数是
邻居
数K和
距离
度量。我包括mahalanobis和seuclidean作为
距离
度量,并理解它们有一个需要指定
的
参数,即V或VI (特征或逆
的
协方差矩阵)。','mahalanobis','seuclidean'],'metric_params':[{'V': np.cov(X_train)}]} <
浏览 3
提问于2020-01-20
得票数 3
回答已采纳
1
回答
Weaviate
的
KNN
分类算法背后
的
逻辑是什么?
、
、
我正在使用Weaviate
的
KNN
引擎执行多类分类,但我不明白: 什么是输赢组,它们是如何用来预测新向量
的
类别的?
浏览 12
提问于2021-12-07
得票数 2
回答已采纳
1
回答
基于
兴趣匹配
的
knn
滑雪板
的
交互输出
、
、
、
我试图根据SetA和SetB
的
兴趣评级(1=Low,10=High)来匹配他们。我
的
真实数据集有40个特性(稍后我还想对某些特性设置更高
的
权重,以及不那么常见
的
兴趣--我相信会帮助我吗?): [1.41421356 4.12310563] [
浏览 4
提问于2020-06-11
得票数 0
回答已采纳
1
回答
距离
度量对K维数最近邻诅咒
的
影响?
、
、
、
我知道
Knn
有一个问题,在处理高维数据时知道一个“维数诅咒”,它
的
理由是它包括计算
距离
时
的
所有特征,即欧几里德
距离
,其中不重要
的
特征作为噪声和偏差,但是我不理解一些事情。1)余弦
距离
度量如何受维数问题
的
影响,即定义余弦
距离
为cosDistance = 1- cosSimilarity,其中cosSimilarity有利于高维数据,那么余弦
距离
如何受维数诅咒
的
影响?( 2)我们能给weka中
的
浏览 0
提问于2014-02-06
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用KNN进行分类和回归
KNN算法原理及代码实现
吞噬“邻居”让自己变大,因吞噬其他星系,而不断变大的星系
KNN中不同距离度量对比和介绍
人工智能–K近邻算法
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券