腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
手动
实现
PCA
会
产生
错误
的
图
,
其中
特征向量
不是
正交
的
、
、
、
、
我需要绘制我计算
的
特征向量
,如下所示: def fit(self, X): ''' self.projected_ = X @ self.components_.T return self.projected_ 进入我
的
数据集
的
前两个特征
的
曲线图我
的
sel
浏览 20
提问于2021-05-03
得票数 0
回答已采纳
2
回答
特征选择和主成分分析有什么不同吗?如果有谁能帮我解释一下吗?
、
、
首先,很抱歉问了一个可能是初学者
的
问题,但我不明白
pca
似乎和特征选择是一样
的
,但是当我在网上搜索时,它们似乎是不同
的
。人们通常说
的
是用于降维
的
PCA
和用于特征选择
的
特征选择。那两个人
不是
也这么做
的
吗?减少属性/特征/维度
的
数量?请帮我理解一下。谢谢
浏览 0
提问于2021-02-18
得票数 0
回答已采纳
1
回答
Python
PCA
实现
、
我正在做一项任务,任务是在一个在线课程中用Python
实现
PCA
。不幸
的
是,当我试图在我
的
实现
和SKLearn之间进行比较(由课程提供)时,我
的
结果似乎相差太大。经过几个小时
的
审查,我仍然不确定哪里出了问题。如果有人能看一看,并确定我编码或解释
错误
的
步骤,我将不胜感激。X_reconst = (P @ X.T).T return X_reconst, mean_vec, principal_vals, principal_
浏览 24
提问于2020-12-28
得票数 1
1
回答
Tapkee
PCA
和OpenCV
PCA
给出了不同
的
结果
谁能解释一下这两个部分
的
不同之处?磁带基: .withParameters((method=tapkee::
PCA
,target_dimension=3))OpenCV: cv::
PCA
pca
(image.reshape(1,image.rows*image.cols), Mat(), CV_
PCA
_DATA_AS_COL, 3);
浏览 0
提问于2014-07-18
得票数 0
1
回答
如何使用主成分分析(
PCA
)来加快检测速度?
、
、
、
、
我不确定我是否正确地应用了
PCA
!我有p个特征和n个观察值(实例)。我把它们放在恩智浦矩阵X中。我执行均值归一化并得到归一化矩阵B。我计算pxp协方差矩阵C=(1/(n-1))B*.B
的
特征值和
特征向量
,
其中
*表示共轭转置。 与降序特征值对应
的
特征向量
在pxp矩阵E中。假设我想将属性
的
数量从p减少到k。我使用等式X_new=B.E_reduced,
其中
E_reduced是通过选择E
的
前k列
产生
的</
浏览 3
提问于2016-10-28
得票数 0
1
回答
如何使用python中
的
matplotlib在同一图形上绘制另一组轴?
、
我希望我
的
mathplotlib图形有另一组轴/线。,color='k',marker='o')
其中
eigenVector是一个二维矩阵,我只是试图画出通过
特征向量
和原点
的
直线。但是,很明显,我绘制
的
是两条线段,而
不是
线。我希望画两条通过原点和<
浏览 1
提问于2015-06-24
得票数 1
1
回答
为什么协方差矩阵
的
主成分捕获变量
的
最大方差?
、
、
、
我试着理解
PCA
,我读了几本教程。到目前为止,我了解到,矩阵
的
特征向量
意味着向量按特征值
的
比例乘以该矩阵时旋转和缩放
的
方向。因此,与最大特征值相关联
的
特征向量
定义了最大旋转
的
方向。我不明白
的
是:除了教程之外,我还复习了这里
的
其他答案,包括和。但我还是不明白。
浏览 2
提问于2017-11-30
得票数 2
回答已采纳
2
回答
OpenCV中基于奇异值分解
的
主成分分析
、
、
、
我有一个m*n维数
的
矩阵M。M包含n个数据,每个数据都有m维,且m比n大。现在我
的
问题是,如何计算
PCA
of M,使用OpenCV中
的
SVD来保持总负载或能量
的
99%<code>E 213</code>
的
特征向量
,步骤或步骤是什么?
浏览 2
提问于2013-04-18
得票数 2
回答已采纳
1
回答
主成分分析与异常数据
、
、
、
、
我知道
PCA
能很好地区分异常和正常数据,当它试图将数据转移到另一个维度时,它有助于区分异常和正常数据。我
的
意思是,它可以在某种程度上最大限度地分离规则和不规则
的
数据点。我也在我
的
密码里看到过这个。通过一个简单
的
详细例子(例如,一个简单
的
2*2矩阵)?有人能帮忙吗? 提前谢谢。
浏览 0
提问于2018-04-25
得票数 1
1
回答
基于
PCA
的
ggfortify自
图
再现加载
、
、
、
然而,当我这样做时,这两幅
图
在如何绘制负载方面似乎有所不同。请注意,这里没有缩放数据集。我实际上正在做这个练习
的
数据集对所有列都有相同
的
单位,我认为不缩放可能是结果。) cex = 1,我读过R交替使用加载和<e
浏览 1
提问于2020-09-08
得票数 0
回答已采纳
2
回答
不理解Python中主成分分析(
PCA
)
的
输出
、
、
、
、
我在Python中对音频谱
图
进行了
PCA
处理,并面临以下问题:我有一个矩阵,
其中
每一行都包含扁平
的
歌曲特性。在应用
PCA
之后,我很清楚,尺寸已经减少了。但我在常规数据集中找不到这些维度数据。import matplotlibfrom sklearn import decomposition
pca
浏览 6
提问于2015-10-19
得票数 0
1
回答
从零开始
的
PCA
和Sklearn给出不同
的
输出
、
、
、
我正试图从零开始实施
PCA
。0.37231836][ 0.58125401 -0.02109478]当我使用sklearn
的
PCA
0.26335492, 0.58125401, 0.56561105],在新
的
特征空间上
的
投影给出了以下不同
的
数字
浏览 3
提问于2021-02-04
得票数 0
回答已采纳
2
回答
在运行算法
PCA
(主成分分析)之后到底发生了什么
、
、
、
但我有一个关于
PCA
的
概念性问题。我不理解阅读关于这个主题
的
文献。给定一个M×N矩阵,结果是一个矩阵M‘x N’,
其中
M'< M,N‘<N,M’x N‘与M×N成正比?
浏览 0
提问于2015-01-05
得票数 1
2
回答
scikit不稳定结果
、
、
、
我试图使用KernelPCA将数据集
的
维度降为2D (用于可视化目的和进一步
的
数据分析)。我实验了在Gamma
的
不同值下使用径向基函数内核计算KernelPCA,但是结果是不稳定
的
:(每一帧
的
Gamma值略有不同,
其中
Gamma是从0到1
的
连续变化)def
pca
(X, gamma1): kpca = KernelPCA(kerne
浏览 12
提问于2015-07-01
得票数 7
回答已采纳
1
回答
pyspark SVD
特征向量
与
PCA
特征向量
之间
的
区别是什么?
、
、
我正在使用(pyspark) mllib (Spark 2.2.0)中
的
奇异值分解和主成分分析函数,如以下链接所述:[(2, 2), (3, 1), (2, 2), (1, 3), (1.0, 1.0), (3.0, 3.0)]对于U:[DenseVector([-0.3922, -0.0]), DenseVectorDenseVector([-0.5883, -0.0])][[-0.70710678 -0.70710678] [-0
浏览 1
提问于2019-05-07
得票数 2
1
回答
旋转矩阵随scipy.spatial.transform.Rotation
的
变化
、
、
、
、
在对三维图像进行语义分割后,对其进行主成分分析(
PCA
),确定物体
的
方向并对其对齐。它工作得很好,
产生
的
特征向量
形成了一个有效
的
旋转矩阵,正确地对齐了物体,但是我想要从矩阵中得到旋转
的
角度。简而言之,r = R.from_matrix(rotation_matrix) r.as_matrix()给出了一个不等于初始矩阵
的
矩阵,它
不是
正确旋转
的
某种变体。这是
错误
的
旋转。例如,
浏览 5
提问于2022-10-31
得票数 0
回答已采纳
1
回答
为什么在特征脸人脸识别中使用“Face _img-mean_Face”?
、
、
、
用平均图像减去人脸图像得到
的
“脸部差异”
的
目的是什么?
浏览 0
提问于2016-11-01
得票数 0
1
回答
正交
矢量不
正交
绘图(Python中
的
PCA
)
、
、
我正在尝试用Python
实现
PCA
,但是当我用主轴注释我
的
图形时,我
的
向量似乎
不是
正交
的
。e_vals[i])*e_vecs[:,i], avg, arrowprops = arrowprops) 显然,向量在图像中
不是</
浏览 19
提问于2020-02-04
得票数 1
回答已采纳
2
回答
在进行文本聚类时,为什么在K-Means之前使用LSA
、
、
、
、
为什么这是有用
的
?维度(特征)
的
数量已经可以使用"max_features“参数在TF-IDF向量化器中进行控制。 我知道LSA (和LDA)也是主题建模技术。聚类
的
不同之处在于,文档属于多个主题,但只属于一个聚类。我不明白为什么要在K-Means聚类
的
上下文中使用LSA。
浏览 16
提问于2017-02-22
得票数 5
回答已采纳
1
回答
主成分分析
、
我已经应用了
PCA
,我
的
最佳结果显示是两个组件。我确实理解,我
的
每一个输入现在在每个组件中都起到了部分作用。我不明白
的
是如何将
PCA
的
结果(在我
的
例子中是2个组件)提供给机器学习模型?例如,当我想对我
的
特征运行NN时,我只能导航到它们
的
存储位置并导入它们,但我
的
PCA
分析已经在SPSS中运行,它显示
的
是我
的
特征对每个组件
的
贡献。 我应该导入什么到
浏览 2
提问于2018-05-12
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
主成分分析算法原理与实现
掌握机器学习数学基础之线代(二)
人工智能–PCA算法
机器学习中7种常用的线性降维技术总结
PCA主成分分析(二)
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券