首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

Spark Shell笔记

学习感悟 (1)学习一定要敲,感觉很简单,但是也要敲一敲,不要眼高手低 (2)一定要懂函数式编程,一定,一定 (3)shell中的方法scala写的项目中也会有对应的方法 (4)sc和spark是程序的入口....collect scala> rdd1638.map(_*2).collect filter(func):返回一个新的RDD,该RDD由经过func函数计算后返回值为true的输入元素组成 scala...文件输入输出(Shell) 先通过文本文件读入,然后通过fastjson等第三方库解析字符串为自定义的类型 先将自定义的类型通过第三方库转换为字符串,同文本文件的形式保存到RDD中 SequenceFile..., age:Int) rdd.map(x=>Person(x._1,x._2.toInt)).toDS DataSet-》RDD ds.rdd DataFrame》DataSet scala> val...") scala> case class Person(name:String, age:Int) scala> val ds = df.as[Person] scala> ds.collect

15910

大数据技术之_24_电影推荐系统项目_06_项目体系架构设计 + 工具环境搭建 + 创建项目并初始化业务数据 + 离线推荐服务建设 + 实时推荐服务建设 + 基于内容的推荐服务建设

issue String 电影发布时间 无 shoot String 电影拍摄时间 无 language Array[String] 电影的语言 每一项用竖杠分割 genres Array[String...] 电影所属类别 每一项用竖杠分割 actors Array[String] 电影的演员 每一项用竖杠分割 directors Array[String] 电影的导演 每一项用竖杠分割 3.2.2 ratings.csv...[String]): Unit = {   } }   实时推荐主体代码如下:   def main(args: Array[String]): Unit = {     val config = Map...[Int], userRecentlyRatings: Array[(Int, Double)],                          simMovies: scala.collection.Map...[Int, scala.collection.immutable.Map[Int, Double]]): Array[(Int, Double)] = {     // 定义一个 ArrayBuffer

4.8K51

快速入门Flink (5) ——DataSet必知必会的16种Transformation操作(超详细!建议收藏!)

我希望最美的年华,做最好的自己! 在上一篇博客中,我们已经学习了Flink中批处理流程的一般步骤,以及常见的输入DataSource和输出DataSink的几种方式(传送门:?...示例 使用 map 操作,将以下数据 “1,张三”, “2,李四”, “3,王五”, “4,赵六”,转换为一个 scala 的样例类。...分别构建国家、国家省份、国家省份城市三个元组 4) 打印输出 */ object BashFlatMapDemo { def main(args: Array[String]): Unit...示例: 有两个 csv 文件,有一个为 score.csv,一个为 subject.csv,分别保存了成绩数据以及学科数据。 ?...,stuName:String,subId:Int,score:Double) def main(args: Array[String]): Unit = { val env: ExecutionEnvironment

1.1K20

大数据技术之_19_Spark学习_02_Spark Core 应用解析+ RDD 概念 + RDD 编程 + 键值对 RDD + 数据读取与保存主要方式 + RDD 编程进阶 + Spark Cor

[2] at makeRDD at :24 scala> flatMapSource.map(_.split(" ")).collect res1: Array[Array[String...>:27 scala> mapPartSource.mapPartitions(_.map(_ + "a")).collect res9: Array[String] = Array(1a, 2a, ...v._2._2))    方式一:仅使用 map res18: Array[(String, Int)] = Array((c,76), (a,60), (b,76)) scala> res17.map...[2] at map at :26 scala> cache.collect res3: Array[String] = Array(1[1556167795046], 2[1556167795054...4.3 CSV 文件输入输出   读取 CSV/TSV 数据和读取 JSON 数据相似,都需要先把文件当作普通文本文件来读取数据,然后通过将每一行进行解析实现对 CSV 的读取。

2.3K31
领券