我试着用scikit学习来训练一个SVM分类器。在训练时,我要减少特征向量维数。我使用PCA来减少维数。pp = PCA(n_components=400).fit(features)主成分分析需要m x n数据集来确定方差。但在推理时,我只有一幅图像和相应的一维特征向量。我想知道如何在推理时减少特征向量以匹配<
我试着用scikit学习来训练一个SVM分类器。在训练时,我要减少特征向量维数。我使用PCA来减少维数。pp = PCA(n_components=400).fit(features)主成分分析需要m x n数据集来确定方差。但在推理时,我只有一幅图像和相应的一维特征向量。我想知道如何在推理时减少特征向量以匹配<
我试图在Python 上复制这个项目。split my data to train and test
我确信最后一行是错误的,因为它只包含20.000特性,而不包含来自Pandas的Sentiment列。如何将稀疏矩阵X_new与Dataframe train“连接”,将其包含在cross_validation中,然后将其用于分类器?
我正在使用fastai Intro to Machine Learning course,在Lesson 1中,他使用了来自Kaggle的Blue Book for Bulldozers dataset上的随机森林。让我感到奇怪的是,讲师没有使用SKlearn的pd.get_dummies()或OneHotEncoder来处理分类数据。取而代之的是,他对所有分类列调用了pd.Series.cat.codes。我注意到当调用fit()方法时,它在使用pd