前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Spark(2)——小用RDD

Spark(2)——小用RDD

作者头像
gzq大数据
发布2020-11-11 17:04:13
2420
发布2020-11-11 17:04:13
举报
文章被收录于专栏:大数据那些事大数据那些事

sparkcontext相当于我们和spark集群出创建好了连接,可以通过sparkcontext这样的上下文环境来创建RDD,在shell命令行中,spark已经将上下文环境创建好了,当我们输入sc时:

在这里插入图片描述
在这里插入图片描述

可见已经用了local模式,没有使用集群,这样可以验证一些基本的代码appName是我们当前启动的spark作业,名称为PySparkShell,我么也可以通过4040端口来查看:

在这里插入图片描述
在这里插入图片描述

我们可以通过sc的parallelize方法来传入一些可迭代的对象:

在这里插入图片描述
在这里插入图片描述

ps:数字5表示给他设定partition的数量,进行reduce计算累加函数,得到结果为13 可以通过可视化界面查看得到:

在这里插入图片描述
在这里插入图片描述

任务执行成功

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2020-10-15 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档