为什么Spark RDD上的rdd.sample()函数返回不同数量的元素,即使分数参数是相同的?例如,如果我的代码如下所示:
每次我运行代码的第二行时,它都会返回一个不等于1000的不同数字。实际上,我希望每次都能看到1000个元素,尽管这1000个元素可能会有所不同。谁能告诉我怎样才能得到样本量恰好等于1000的样品?非常感谢。
发布于 2016-11-01 19:19:32
另一种方法是先进行takeSample,然后进行RDD。对于大型数据集,这可能会很慢。
https://stackoverflow.com/questions/32837530
复制相似问题