首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >spark:对RDDs进行加扰并压缩

spark:对RDDs进行加扰并压缩
EN

Stack Overflow用户
提问于 2016-12-03 04:34:19
回答 2查看 129关注 0票数 0

我有两个相同长度的RDD,我想随机地将它们压缩在一起(例如,第一个RDD是(A,B,C,D),第二个是(W,X,Y,Z),我想要一个随机的zip,比如(AX,BZ,CW,DY)。使用pySpark实现这一点的快速方法是什么?

EN

回答 2

Stack Overflow用户

发布于 2016-12-03 05:07:23

这是你需要的吗?

代码语言:javascript
运行
复制
x = sc.parallelize(['A','B','C','D'])
y = sc.parallelize(['W','X','Y','Z'])
x = x.takeSample(False, 4)
y = y.takeSample(False, 4)
combine = zip(x,y)
combine
>> [('D', 'Z'), ('B', 'X'), ('A', 'W'), ('C', 'Y')]
票数 0
EN

Stack Overflow用户

发布于 2016-12-05 03:53:08

您可以:

代码语言:javascript
运行
复制
from pyspark.sql.functions import rand

s = lambda x: (x[1], x[0])

def shuffle(rdd):
    return rdd.map(lambda x: (x, )) \
              .toDF(["data"]).withColumn("rand", rand()) \
              .orderBy("rand") \
              .rdd.map(lambda x: x.data)

shuffle(rdd1).zipWithIndex().map(s).join(rdd2.zipWithIndex().map(s)).values()
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/40940407

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档