我有一个类型为:(user id,name,count)的元组列表。
例如,
val x = sc.parallelize(List(
("a", "b", 1),
("a", "b", 1),
("c", "b", 1),
("a", "d", 1))
)
我试图将这个集合简化为一个每个元素名称都会被计算在内的类型。
因此在上面的代码中,val x被转换为:
(a,ArrayBuffer((d,1), (b,2)))
(c,ArrayBuffer((b,1)))
下面是我目前使用的代码:
val byKey = x.map({case (id,uri,count) => (id,uri)->count})
val grouped = byKey.groupByKey
val count = grouped.map{case ((id,uri),count) => ((id),(uri,count.sum))}
val grouped2: org.apache.spark.rdd.RDD[(String, Seq[(String, Int)])] = count.groupByKey
grouped2.foreach(println)
我正在尝试使用reduceByKey,因为它的执行速度比groupByKey快。
如何实现reduceByKey而不是上面的代码来提供相同的映射?
https://stackoverflow.com/questions/24071560
复制相似问题