我收到以下代码的错误:
import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import load_digits
from sklearn.neighbors import KernelDensity
from sklearn.decomposition import PCA
from sklearn.grid_search import GridSearchCV
from sklearn import linear_model, mixture, decomposition, datasets
我试图在一个非常具体的上下文中应用PCA,并遇到了我无法解释的行为。作为一项测试,我正在使用您可以在这里检索的文件数据运行以下代码: (numpy数组格式)。
from sklearn.decomposition import PCA
import numpy as np
test = np.load('test.npy')
pca = PCA()
X_proj = pca.fit_transform(test) ### Project in the basis of eigenvectors
proj = pca.inverse_trans
有人能帮我理解为什么我的PCA每次运行都会得到不同的结果吗?我正在使用Databricks在Pyspark中工作
我的代码的当前实现如下
from pyspark.ml.feature import PCA
from pyspark.mllib.linalg import Vectors
pca = PCA(k=35, inputCol="scaled_features", outputCol="pcaFeatures")
model = pca.fit(df.select('scaled_features'))
result = model
我有以下数据可用的在链接中作为一个csv,它传递有关恒星的信息。
更具体地说,列ID表示示例的任意ID。列z表示我的目标变量(响应)。其他列表示每个示例可用的属性(预测器)及其相应的测量误差。
我使用以下代码将11D数据缩减为3个主成分,并绘制了数据在主空间中的散度图(用颜色表示目标变量Z)。
from sklearn.decomposition import PCA
from sklearn.preprocessing import StandardScaler
#first we remove the target z and ID from the dataset and standr
当试图使用explained_variance_ratio_属性sklearn.decomposition.PCA识别dataset的前两列所解释的方差时,我会收到以下错误:
AttributeError: 'PCA' object has no attribute 'explained_variance_ratio_'
我的代码(浓缩):
import pandas as pd
from sklearn.preprocessing import StandardScaler
from sklearn.decomposition import PCA
df =