例如:调用 def Add(y:Int) = x + y 其结果为xy之和,并且调用之后没有引起x值的变换,没有副作用 所以,Add函数没有副作用
我们先来看看Java中的变量与常量。在Java中,常量是指在程序运行期间值不能被改变的量,使用final关键字修饰。如
这是我以前在知乎上看到关于类继承作用的回答,虽不完全正确,却十分明确的表达出了好的代码应避免类继承而尽量使用类组合。Scala 显然也非常赞同这一点,以至于有了 trait,又叫做特质。当我们定义特质时,应该要遵循这样的原则:一个 trait 只干一件事,如果要干多件事,就定义多个 trait,然后使用一个类来 extends 这些 traits
在 Scala 当中,函数是一等公民,像变量一样,既可以作为函数的参数使用,也可以将函数赋值给一个变量. ,函数的创建不用依赖于类或者对象,而在 Java 当中,函数的创建则要依赖于类、抽象类或者接口。
但也不能赋为类型不兼容的数据。不过,如果定义类型double的var,再赋值Int值是可以的。因为Int数可以转为Double数。
Scala算是一门博采众家之长的语言,兼具OO与FP的特性,若使用恰当,可以更好地将OO与FP的各自优势发挥到极致;然而问题也随之而来,倘若过分地夸大OO特性,Scala就变成了一门精简版的Java,写出的是没有Scala Style的拙劣代码;倘若过分追求FP的不变性等特性,因为Scala在类型系统以及Monad实现的繁琐性,又可能导致代码变得复杂,不易阅读,反而得不偿失。 看来,赋予程序员选择的自由,有时候未必是好事! 在OO世界里,设计模式曾经风靡全世界,你不懂设计模式,都不好意思说自己是程序员。现在
概述 Scala是将面向对象思想与函数式编程思想集一身的编程语言,特别是在大数据和流式处理方面的快速发展,基于Scala语言一些重要的开源框架随之发布,比如:Spark,Kafka等。学习Scala的重要性无须多言,博主打算写三个系列的Scala文章: 1.Scala Turtuial-基础系列 2.Intermediate Scala-进阶系列 3.Advanced Scala-高级系列 今天是Scala Turtuial系列的基本语言的介绍,废话少说直接撸代码。 入门 在详细讲解Scala的基本特性之前
前一段时间给大家简单介绍了Scala以及Scala的环境安装,还没看的小伙伴可以先去看一看,把环境配置好。
Kotlin 当中的 Lazy 想必大家都已经非常熟悉了,它其实承载的功能就是变量的延迟求值。今天我们同样来对比一下其他语言对于类似功能的实现。
1.val vs var val: 值 final val 值名称:类型 = xxx var: 变量 可变 var 值名称:类型 = xxx 2.Scala 基本数据类型 Byte/Char Short/Int/Long/Float/Double Boolean 类型转换基本操作 scala> var d = 1.1 d: Double = 1.1 scala> var e:Float = 1.1 <console>:11: error: type mismatch; found : Double(1.
使用var重新定义变量来保存名字"tom",并尝试重新赋值为Jim,观察其运行结果
本篇作为scala入门系列的第三篇博客,为大家带来的是变量的相关内容。
Scala中if/else 语法结构和java,C++一样,不过,在Scala中if/else表达式有值,这个值就是跟在if或者else之后的表达式的值,例如:
同Java一样,Scala也有8种基本数据类型:Byte、Char、Short、Int、Long、Float、Double以及Boolean。
比如上面的传递 val s = sum(1 to 10) 这样子是不对的,此时需要使用 scala 特殊的语法将参数定义为序列,让 scala 解释器能够识别。
当记录方法返回值的变量被声明为lazy时,方法的执行将被推迟,直到我们首次使用该值时,方法才会执行。类似java中的延迟加载。同时lazy不能修饰var类型的变量。
----------目录--------------------------------------------------------- 1.Scala简介和安装 2.Scala语法介绍 3.Scala的函数 4.Scala中的集合类型 ------------------------------------------------------------------------------------------------------------- Scala语法介绍 1、语法规则 1.会将方
与其他支持面向对象的语言一样,Scala 也支持继承,并且子类只能有一个父类,不能继承于多个父类,如果希望实现类似继承多个父类的功能,应该考虑引入 trait。虽然只支持一个父类,但是父类还可以有父类,也就是爷爷类,对于类继承的层数是没有具体要求的,这几点在下面这个例子中都有体现:
scala中数组的概念是和Java类似,可以用数组来存放一组数据。scala中,有两种数组,一种是定长数组,另一种是变长数组
Byte/Char Short/Inr/Long/Double/Float Boolean
lazy val forLater = someTimeConsumingOperation()
Scala类的主构造函数是以下组合: 构造函数参数 在类内部被调用的方法 在类内部执行的语句和表达式 和Java类似,类被实例化的时候它们会被赋值。 构造函数可见性 一个字段被声明为var,Scala会为该字段生成getter和setter方法 一个字段是val,只会生成getter方法。 如果一个字段没有val或者var,Scala不会生成getter和setter方法 var和val字段可以被private关键字修饰,防止生成getter和setter方法 定义辅助构造函数:在类内部以this
很多Java开发者在学习Scala语言的时候,往往觉得Scala的语法和用法有些过于复杂,充满语法糖,太“甜”了。在使用Scala编写代码时,由于语法和编写习惯的不同,很多开发者会犯相同或相似的错误。一位Scala狂热爱好者近日总结了十大这样的错误,以供参考。 【51CTO精选译文】对于支持并发和分布式处理、高可扩展、基于组件的应用程序来说,Scala的功能是很强大的。它利用了面向对象和函数式程序设计的优点。这种基于Java虚拟机的语言在宣布Twitter正使用它时受到了最多的冲击(相关51CTO评论:从S
选自GitHub 机器之心编译 参与:林川、刘晓坤 作者简单用 TensorFlow 中的计算图解释了机器学习的背后原理,然后列举了数个使用 C++实现 TensorFlow 的好处,如线性代数库的使用,运算符重载等等。 在开始之前,首先看一下最终成型的代码: 1. 分支与特征后端(https://github.com/OneRaynyDay/autodiff/tree/eigen) 2. 仅支持标量的分支(https://github.com/OneRaynyDay/autodiff/tree/maste
本篇是flink 的「电商用户行为数据分析」的第 8 篇文章,为大家带来的是市场营销商业指标统计分析之订单支付实时监控的内容!通过本期内容,我们可以实现通过使用CEP和Process Function来实现订单支付实时监控的功能,还能学会通过connect 和 join来实现flink双流join的功能,可谓干货满满!受益的朋友记得三连支持一下 ~
Spark RDD 支持2种类型的操作: transformations 和 actions。transformations: 从已经存在的数据集中创建一个新的数据集,如 map。actions: 数据集上进行计算之后返回一个值,如 reduce。
本篇是flink 的「电商用户行为数据分析」的第 7 篇文章,为大家带来的是市场营销商业指标统计分析之页面广告分析的内容。通过本期内容,我们可以实现页面广告点击量统计和黑名单过滤的功能。
大数据框架(处理海量数据/处理实时流式数据) 一:以hadoop2.X为体系的海量数据处理框架 离线数据分析,往往分析的是N+1的数据 - Mapreduce 并行计算,分而治之 - HDFS(分布式存储数据) - Yarn(分布式资源管理和任务调度) 缺点: 磁盘,依赖性太高(io) shuffle过程,map将数据写入到本次磁盘,reduce通过网络的方式将map task任务产生到HDFS - Hive 数据仓库的工具 底层调用Mapreduce impala - Sqoop 桥梁:RDBMS(关系型数据库)- > HDFS/Hive HDFS/Hive -> RDBMS(关系型数据库) - HBASE 列式Nosql数据库,大数据的分布式数据库 二:以Storm为体系的实时流式处理框架 Jstorm(Java编写) 实时数据分析 -》进行实时分析 应用场景: 电商平台: 双11大屏 实时交通监控 导航系统 三:以Spark为体系的数据处理框架 基于内存 将数据的中间结果放入到内存中(2014年递交给Apache,国内四年时间发展的非常好) 核心编程: Spark Core:RDD(弹性分布式数据集),类似于Mapreduce Spark SQL:Hive Spark Streaming:Storm 高级编程: 机器学习、深度学习、人工智能 SparkGraphx SparkMLlib Spark on R Flink
上篇我们讨论了Akka-Remoting。我们说Akka-Remoting是一种点对点的通讯方式,能使两个不同JVM上Akka-ActorSystem上的两个Actor之间可以相互沟通。Akka
Scala语句中, 单行代码最后的分号可写可不写. 如果是多行代码写在一行, 则中间的分号不能省略, 最后一条代码的分号可省略不写.
实际开发中, 我们需要编写大量的逻辑代码, 这就势必会涉及到重复的需求. 例如: 求10和20的最大值, 求11和22的最大值, 像这样的需求, 用来进行比较的逻辑代码需要编写两次, 而如果把比较的逻辑代码放到方法中, 只需要编写一次就可以了, 这就是方法. scala中的方法和Java方法类似, 但scala与Java定义方法的语法是不一样的。
面向对象编程之Trait trait基础知识 将trait作为接口使用 在trait中定义具体方法 在trait中定义具体字段 在trait中定义抽象字段 trait高级知识 为实例对象混入trait trait调用链 在trait中覆盖抽象方法 混合使用trait的具体方法和抽象方法 trait的构造机制 trati字段的初始化 让trait继承类 将trait作为接口使用 trait作为接口,和java中的接口非常类似 在triat中可以定义抽象方法,就与抽象类中的抽象方法一样,只要不给出方法的具体实现
不需要给出值或者变量的类型,可以从你用来初始化它的表达式推断出来.只声明值或者变量但不做初始化会报错:
这篇文章是关于怎样将play 2.2.3的工程迁移到play 2.3.0 1、安装sbt 0.13.5,去官网下载sbt 0.13.5: http://www.scala-sbt.org/download.html,安装完之后, 修改工程下的project/build.properties文件。 修改sbt版本: sbt.version=0.13.5 2、升级scala到2.11.1(可选),由于play 2.3 同时支持 scala 2.10 和 scala 2.11所以,可以不用升级到2.11,
scala和Java一样,类和特质、方法都可以支持泛型。我们在学习集合的时候,一般都会涉及到泛型。
Spark支持两种RDD操作:transformation和action。transformation操作会针对已有的RDD创建一个新的RDD;而action则主要是对RDD进行最后的操作,比如遍历、reduce、保存到文件等,并可以返回结果给Driver程序。
scala定义函数的标准格式为: def 函数名(参数名1: 参数类型1, 参数名2: 参数类型2) : 返回类型 = {函数体}
本文简单介绍了一下函数式编程的各种基本特性,希望能够对于准备使用函数式编程的人起到一定入门作用。 函数式编程,一个一直以来都酷,很酷,非常酷的名词。虽然诞生很早也炒了很多年但是一直都没有造成很大的水花
在现代编程语言里,类和对象都是绕不过的话题。对象这个概念可以是生活的抽象,为了更好的理解使用书来做比喻,每一本书都是一个对象,也就是一个实例,书本身具有的页码等等固定不变的东西,就是属于书的性质(属性),而我们对书有着一系列的操作,比如打开书,合上书,在编程语言里称为方法。我们把各种各样的书都可以抽象为一种类型,也就是类。先有类,再有实例,类是对象的蓝本。
1,安装Java 2,配置Java环境变量 3,安装Scala 4,配置Scala环境变量 参考文末阅读原文链接。
前面Fayson介绍了《如何使用Java API访问HDFS为目录设置配额》,随着开发语言的多样性,也有基于Scala语言进行开发,本篇文章主要介绍如何使用Scala代码访问Kerberos环境的HDFS。
该文摘要总结:本文介绍了如何利用Akka和Scala实现一个分布式计算系统,用于执行并行计算任务。具体来说,文章介绍了如何利用Akka的Actor模型和Scala的并发编程库来实现一个分布式计算系统,该系统能够执行多个计算任务,并将结果返回给调用者。同时,文章还探讨了如何利用Akka的Identify消息处理Actor的死亡,从而避免Actor的丢失,并提高系统的可用性。
sbt类似与maven, gradle的项目管理工具,主要用在scala,也可以用在java项目,本文介绍一下常用的使用命令和语法 安装 mac brew install sbt redhat¢os # remove old Bintray repo file sudo rm -f /etc/yum.repos.d/bintray-rpm.repo curl -L https://www.scala-sbt.org/sbt-rpm.repo > sbt-rpm.repo sudo mv sbt
前言 在上一期内容中,菌哥已经为大家介绍了实时热门商品统计模块的功能开发的过程(?基于flink的电商用户行为数据分析【3】| 实时流量统计)。本期文章,我们需要学习的是恶意登录监控模
任何类型的实例作为消息在两端独立系统的机器之间进行传递时必须经过序列化/反序列化serialize/deserialize处理过程。假设以下场景:在一个网络里有两台连接的服务器,它们分别部署了独立的akka系统。如果我们需要在这两台服务器的akka系统之间进行消息交换的话,所有消息都必须经过序列化/反序列化处理。akka系统对于用户自定义消息类型的默认序列化处理是以java-object serialization 方式进行的。我们上次提过:由于java-object-serialization会把
Scala是一门主要以Java虚拟机(JVM)为目标运行环境并将面向对象和函数式编程语言的最佳特性综合在一起的编程语言。你可以使用Scala编写出更加精简的程序,同时充分利用并发的威力。由于Scala默认运行于JVM之上,因此 它可以访问任何Java类库并且与Java框架进行互操作,比如Scala可以被编译成JavaScript代码,让我们更便捷、高效地开发Web应用。
Scala解析器的使用 REPL:Read(取值)-> Evaluation(求值)-> Print(打印)->Loop(循环)。scala解析器也被称为REPL,会快速编译scala代码为字节码,然后交给JVM执行 val result = 1 设置变量不可变 var result = 2 可变的变量 val name: String = null 声明变量类型 val name: Any = "leo" val name1,name2:String = null 声明多个变量 val num1,num2
谈论到引用透明(Referential Transparency),我们都会聊函数式编程(FP),会聊Effect和Side Effect,会聊纯函数(Pure Function)等,这些概念相互关联,有时甚至彼此引用定义,能够真正理解它们的含义非常重要。
领取专属 10元无门槛券
手把手带您无忧上云