我正在尝试下面的python代码来转换为pyspark。请告诉我pyspark版本的代码出了什么问题: 原始python版本:- for i in range(0,km_data.count()):
km_data['riskrisk'].iloc[i]=km_data['risk'].iloc[i-1]-(km_data['lapsed'].iloc[i-1])-(km_data['censored'].i
PySpark的Logistic回归接受一个elasticNetParam参数。如果我将这个参数设置为0.2,它意味着什么?它是指0.2 of l1和0.8 of l2,还是相反的意思?此外,我一直试图复制PySpark的结果使用sklearn。要做到这一点,我使用的SGDClassifier从滑雪。这是我正在用PySpark Logistic回归模型初始化的参数字典
{'elasticNetParam': 0.4