首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

豆瓣9.6分,Scala编程圣经第5版重磅来袭!

Scala 社区这几年也有非常大的变化和进步,最值得一提的是,ZIO 这个面向“作用”(effect)的编程类库对业务代码中常见的模式进行了非常有洞见性的抽象,将函数式编程以一种类型健壮且高效的方式引人一线开发者的工具库中...很自然地,ZIO 在顺利发布1.0版本之后,随着Scala 3的发布,也在第一时间全面“拥抱”Scala 3。 《Scala 编程(第5版)》针对Scala3进行了全面的更新。...虽然大部分人都是在 Java 平台上使用 Scala 的,但本书并不假定你了解 Java 。如果你是Java 程序员,阅读本书,你将接触到来自函数式编程领域和高阶面向对象领域的许多概念。...Scala》(第1版)、《快学Scala》(第2版)等Scala语言的名著。...本书从很务实的角度入手,向我们介绍将面向对象和函数式编程结合在一起所带来的强大功能,让读者彻底明白 Scala的真谛。

1.4K30
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    腾讯游戏基于 DeepFlow 的零侵扰可观测性进阶实战

    腾讯不仅致力于开发广受欢迎的自研游戏,还与世界各地的知名游戏开发商合作,负责将这些游戏推向市场,让更多玩家享受游戏的乐趣。...该游戏采用了 Scala、Zio、Istio、CockroachDB 等技术栈,这些技术栈为游戏的上线和运维带来了额外的复杂性和挑战。...除此之外,蓝鲸团队与 DeepFlow 社区联合在新版支持了自定义获取 gRPC Header 字段,我们已经将表示客户端版本号的 metadata 提取至调用日志中,进一步避免未来再发生类似问题。...最终,通过这些技术的应用,我们不仅成功地提升了《某游戏》的性能和稳定性,还为未来的游戏运维设立了新的标杆。...我们期待在未来继续探索和分享更多技术创新和成功实践,为用户带来更优质的游戏体验,并为行业提供有价值的见解和解决方案。

    17810

    spark RDD

    RDD简介 RDD,全称为Resilient Distributed Datasets(弹性分布式数据集),是一个容错的、并行的数据结构,可以让用户显式地将数据存储到磁盘和内存中,并能控制数据的分区。...在这些操作中,诸如map、flatMap、filter等转换操作实现了函数式编程模式,很好地契合了Scala的集合操作。...RDD混合了这四种模型,使得Spark可以应用于各种大数据处理场景。 定义: 只读的,可分区的分布式数据集;数据集可全部或部分缓存在内存中,在一个App多次计算间重用, RDD是Spark的核心。...原生数据空间转RDD 原生的SCALA数据集合可以转换为RDD进行操作 包含一下两种方式 makeRDD parallelize 存储文件转RDD Partition(分区) 一份待处理的原始数据会被按照相应的逻辑切分成...的内核数,比如是双核的就是2  4核就是4 通过自定义分区数 通过设置初始化分区数 sc.makeRDD(1 to 1000,5) 可通过算子来进行修改分区数.repartition(3) 如果使用的是scala

    46810

    Note_Spark_Day08:Spark SQL(Dataset是什么、外部数据源、UDF定义和分布式SQL引擎)

    {DataFrame, Dataset, SparkSession} /** * 采用反射的方式将RDD转换为Dataset */ object _01SparkDatasetTest {...将RDD转换为Dataset,可以通过隐式转, 要求RDD数据类型必须是CaseClass val ratingDS: Dataset[MovieRating] = ratingRDD.toDS()...,封装到DataFrame中,指定CaseClass,转换为Dataset scala> val empDF = spark.read.json("/datas/resources/employees.json...上图中可以看到3点: 1、Frontend:前段 编写SQL和DSL语句地方 2、Catalyst:优化器 将SQL和DSL转换为逻辑计划LogicalPlan 由三个部分组成 Unresolved...Logical Plan 未解析逻辑计划 | Logical Plan 逻辑计划 | Optimized Logical Plan 优化逻辑计划 3、Backend:后端 将逻辑计划转换为物理计划

    4K40

    Spark 如何使用DataSets

    与 DataFrame 一样,DataSets 通过将表达式和数据字段公开给查询计划器(query planner)来充分利用 Spark 的 Catalyst 优化器。...Spark 1.6 首次提出了 Datasets,我们期望在未来的版本中改进它们。 1. 使用Datasets Datasets 是一种强类型,不可变的可以映射到关系性 schema 的对象集合。...Spark 1.6 支持自动生成各种类型的 Encoder,包括原始类型(例如String,Integer,Long),Scala Case 类和Java Beans。...Spark内置支持自动生成原始类型(如String,Integer,Long),Scala Case 类和 Java Beans 的 Encoder。 3....例如,如果我们尝试使用太小的数据类型,例如转换为对象会导致截断(即numStudents大于一个字节,最大值为255),分析器将发出AnalysisException。

    3.1K30
    领券