我有一个名为"userid“的Spark DataFrame,我正在使用sparklyr对其进行操作。每个userid可以有从一行数据到几百行数据的任何地方。我将一个函数应用于每个userid组,该函数根据特定的事件条件压缩它所包含的行数。. %>% # using dplyr::filter and dplyr::mutate
ungroup() 我想把这个函数包装在一个错误处理程序中,比如
我的同事在Databricks中使用pyspark,通常的步骤是使用data = spark.read.format('delta').parquet('parquet_table').select('data.cache()作为一名R用户,我正在寻找sparklyr中的registerTempTable等价物。我通常会这样做
data