在我的Spark应用程序中,我尝试从RDBMS读取多个表,执行一些数据处理,然后将多个表写入另一个RDBMS,如下所示(在Scala中):myDF3.write.mode("append").jdbc(myurl2, outtable3, new java.util.Properties)
我知道从一个表中读
我偶然发现了Spark中的一个特性,它允许您在一个spark context中调度不同的任务。我想在一个程序中实现这个特性,在这个程序中,我将输入的RDD(from a text source)转换成一个键值RDD [K,V],然后生成一个复合键值RDD [(K1,K2),V]和一个包含一些特定值的过滤进一步的流水线涉及在RDDs和join操作上从MLlib调用一