我试图通过使用"JavaPairDStream“函数将" JavaPairRDD”转换为"foreachRDD“函数,然后在JavaPairRDD上使用"collectAsMap()”函数来实现同样的目的java.lang.ClassCastException: [Ljava.lang.Object; cannot be cast to [Lscala.Tuple2;
at org.apache.spark.rdd.PairRDDFunctions.coll
它过去在我的Cloudera集群中正常工作,但是当我们切换到EMR集群时,它在下面的堆栈跟踪中失败了: - object not serializableorg.apache.spark.SparkContext.runJob(SparkContext.scala:1938)
at org.apache.spark.SparkContext.runJobat org.apache.spark.r
还是我在星火里发现了窃听器?我们对其他地方的数据序列化没有问题,只是在这些lambda中,它使用的是默认值而不是Kryo。:112) at org.apache.spark.rdd.RDD.filter(RDD.scala:387)
at org.apache.spark.api.java.JavaPairRDD</