我有两个不同的pyspark数据帧,需要合并成一个。有一些逻辑需要为合并编码。其中一个数据帧具有以下模式:(id,类型,计数),另一个具有模式:(id,timestamp,test1,test2,test3) 第一个数据帧是通过sql "group by“查询创建的。从第一模式中检索计数数据。我有一个空的模式,并且我使用字典来更新模式。如果我这样做,我并没有真正使用spark特性。, te
在执行pyspark dataframe自连接时,我收到一条错误消息: Py4JJavaError: An error occurred while calling o1595.join.
: org.apache.spark.sql.AnalysisExceptionPlease check if the right attribute(s) are used.;; 这是一个简单的数据帧自连接,如下所示,运行良好,但在对数据帧执行了几个操作后,如添加列或与其他数据<e