我对python和在一组数据上构建随机森林模型还很陌生。我的原始数据包含33000行和4列。我已经使用以下公式对其进行了标准化:
normalized_df = (mydata-mydata.mean()) / mydata.std()
现在,在执行随机森林之后,我有了一个数据框架,其中包含我的预测、实际数据和所有测试特性(即9000行和5列)。我试着用下面的公式来标准化它:
denorm_df = (normalized_pred_df * mydata.std() ) + mydata.mean()
这会导致数据帧的大多数列中的NaN值。
发布于 2018-07-05 06:15:13
考虑使用sklearn中的StandardScaler,以及它的invert_transform()函数。
https://stackoverflow.com/questions/51169653
复制相似问题