前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python利用Spark并行处理框架批量判断素数

Python利用Spark并行处理框架批量判断素数

作者头像
Python小屋屋主
发布2018-04-16 15:21:58
7520
发布2018-04-16 15:21:58
举报
文章被收录于专栏:Python小屋Python小屋

方法一:

from pyspark import SparkConf, SparkContext

conf = SparkConf().setAppName("isPrime")

sc = SparkContext(conf=conf)

def isPrime(n):

if n<2:

return False

if n==2:

return True

if not n&1:

return False

for i in range(3, int(n**0.5)+2, 2):

if n%i == 0:

return False

return True

#创建RDD

rdd = sc.parallelize(range(1000))

#过滤

result = rdd.filter(isPrime).collect()

print('='*30)

print(result)

方法二,空间占用大,不推荐:

from pyspark import SparkConf, SparkContext

conf = SparkConf().setAppName("isPrime")

sc = SparkContext(conf=conf)

n = 1000

m = int(n**0.5) + 1

rdd = sc.parallelize(range(2, n))

result = set()

while True:

#获取第一个元素

t = rdd.first()

if t > m:

break

result.add(t)

#对RDD上的所有元素进行过滤、筛选,能被整除的全部过滤掉

rdd = sc.parallelize(rdd.filter(lambda x: x%t != 0).collect())

print(list(result)+rdd.collect())

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2016-12-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Python小屋 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档