我试图使用随机森林进行多类分类,使用spark 2.1.1我有一个包含多个字符串类型列的dataframe。我已经用distinct().count()检查了我的所有列,以确保我没有太多的类别,等等。经过一些调试后,我了解到每当我开始对某些列建立索引时,我就会得到以下错误.打电话时: if (labelToIndex.containslabel: $label.&q
我有3个格式和列相同的数据帧,每个数据帧都有一个列标准1。每个数据帧都由不同的人填充,我希望将该列的非NaN值合并到3个数据帧中,然后将其存储在excel文件中,使NaN在excel中为空白值。我如何在Python中做到这一点?另外,我想知道是否有至少两个人来填补的问题?DataFrame 11021 101023 NaN
102