前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >spark2.2 SparkSession思考与总结1

spark2.2 SparkSession思考与总结1

作者头像
用户1410343
发布2018-03-26 14:52:14
1.5K0
发布2018-03-26 14:52:14
举报
文章被收录于专栏:about云about云

问题导读 1.你认为为何出现SparkSession? 2.SparkSession如何创建RDD? 3.SparkSession通过那个类来实例化? 4.bulider包含哪些函数? 为何出现SparkSession 对于spark1.x的版本,我们最常用的是rdd,如果我们想使用DataFrame,则需要通过rdd转换。随着dataframe和dataset使用的越来越多,所以spark就寻找了新的切入点--SparkSession。如果rdd使用SparkContext,DateFrame和DataSet使用SparkSession,然后还有SQLContext和HiveContext,想必太麻烦了。所以官网用SparkSession封装了SQLContext和HiveContext。然而在2.2版本中,StreamingContext还是单独存在的。所以我们在使用SparkStreaming,还必须使用StreamingContext来作为入口。 SparkSession如何创建RDD 这里如果你思考的话,可能会想,spark2是否还支持rdd。当然还是支持的。 这里以下面为例: 我们进入spark-shell,通过SparkSession获取sparkContext

[Scala] 纯文本查看 复制代码

?

代码语言:javascript
复制
val sc=spark.sparkContext

[Scala] 纯文本查看 复制代码

?

代码语言:javascript
复制
sc.makeRDD(List(1,2,3,4,5))

[Scala] 纯文本查看 复制代码

?

代码语言:javascript
复制
val rddlist=sc.makeRDD(List(1,2,3,4,5))

[Scala] 纯文本查看 复制代码

?

代码语言:javascript
复制
val rl=rddlist.map(x=>x*x)

[Scala] 纯文本查看 复制代码

?

代码语言:javascript
复制
println(rl.collect.mkString(","))
1,4,9,16,25

SparkSession如何实例化 通过静态类Builder来实例化。 Builder又有很多方法,包括: 1.appName函数 1.appName(String name) 用来设置应用程序名字,会显示在Spark web UI中 值类型:SparkSession.Builder 2.config函数 这里有很多重载函数。其实从这里我们可以看出重载函数,是针对不同的情况,使用不同的函数,但是他们的功能都是用来设置配置项的。 1.config(SparkConf conf) 根据给定的SparkConf设置配置选项列表。 2.config(String key, boolean value) 设置配置项,针对值为boolean的 3.config(String key, double value) 设置配置项,针对值为double的 4.config(String key, long value) 设置配置项,针对值为long 的 5.config(String key, String value) 设置配置项,针对值为String 的 值类型:SparkSession.Builder 3.enableHiveSupport函数 表示支持Hive,包括 链接持久化Hive metastore, 支持Hive serdes, 和Hive用户自定义函数 值类型:SparkSession.Builder 4.getOrCreate函数 getOrCreate() 获取已经得到的 SparkSession,或则如果不存在则创建一个新的基于builder选项的SparkSession 值类型:SparkSession 5.master函数 master(String master) 设置Spark master URL 连接,比如"local" 设置本地运行,"local[4]"本地运行4cores,或则"spark://master:7077"运行在spark standalone 集群。 值类型:SparkSession.Builder 6.withExtensions函数 withExtensions(scala.Function1<SparkSessionExtensions,scala.runtime.BoxedUnit> f) 这允许用户添加Analyzer rules, Optimizer rules, Planning Strategies 或则customized parser.这一函数我们是不常见的。 值类型:SparkSession.Builder 了解了上面函数,对于官网提供的SparkSession的实例化,我们则更加容易理解

[Scala] 纯文本查看 复制代码

?

代码语言:javascript
复制
SparkSession.builder
    .master("local")
    .appName("Word Count")
    .config("spark.some.config.option", "some-value")
    .getOrCreate()
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-11-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 about云 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档