首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

干货 | 携程机票实时数据处理实践及应用

然而,互联网时代的来临,高吞吐的实时数据处理也成了在线平台的刚需,这也极大促进了实时计算框架的发展。...一、流数据处理框架 流数据处理框架按照其实现的方式,也可以分为逐条处理和微批量(micro-batching)处理两种(如图1所示),Storm和Flink属于前者,Spark Streaming属于后者...Flink和Spark则既可以支持批处理,也可以支持流处理,但两者对数据处理的设计似乎正好相反,Flink会把所有数据处理当成流数据来处理,即使处理静态的有界数据;Spark则将所有数据处理转化为批处理...auto.leader.rebalance.enable=true,让partitionLeader的分布更均衡 10、num.io.threads配置成min(2*disk_num , cpu_core+1),以达到较高的IO处理速率 三、携程机票实时数据处理架构实践及应用...图2 携程机票实时数据处理架构 图2为携程机票当前采用的实时数据处理技术栈。在实时处理框架选择上,我们采用了Storm和Spark Streaming,主要针对不同时延需求的业务场景。

1.2K50

美团点评基于Storm的实时数据处理实践

本文将从目前主流实时数据处理引擎的特点和我们面临的问题出发,简单的介绍一下我们是如何搭建实时数据处理系统。...特别需要注意的一点,在数据处理的过程中需要我们自己来剔除已经处理过的数据,因为 Storm 的语义会可能导致同一条数据摄入两次。灰度发布期间(一周)对数据完整性进行验证,数据完整性为100%。...实时数据平滑处理 数据预测层:实时的数据预测可以帮助我们对到达的数据进行有效的平滑,从而可以减少在某一时刻对集群的压力。...实时数据计算策略 策略层:Key/Value 模式更适应于实时数据模型,不管是在存储还是计算方面。...为了商家更好的决策,用户更好的体验,在业务不断增长的情况下,对实时数据的分析就需要做到更全面。所以实时数据分析还有很多东西可以去做。

1.2K110

Java 8——函数式数据处理(流)

下面两段代码都是用来返回低热量的菜肴名称的,并按照卡路里排序,一个使用java 7写的,另一个是用java 8的流写的,比较一下,不用太关心java 8的语法: ? ?...你可以把几个基础操作链接起来,来表达复杂的数据处理流水线(在filter后面接上sorted、map和collect操作),同时保持代码清晰可读。...在实践中,这意味着你用不着为了让某些数据处理任务并行而去操心线程和锁了,Steam API都替你做好了! ?...简短的定义就是“从支持数据处理操作的源,生成的元素序列”。Oh,听上去就让人头大。让我们一步步来剖析这个定义: ? 让我们来看一段能够体现所有这些概念的代码: ?...接下来,对流应用一系列数据处理操作:filter、map、limit和collect。

90750

分布式计算技术之流计算Stream,打通实时数据处理

它是一个对实时性要求极高的计算模式。如果数据处理不及时,就会很容易导致过时、没用的结果。...从这些分析中可以看出,使用流计算进行数据处理,一般包括 3 个步骤,如下图所示: ? 一,提交流式计算作业。 流式计算作业是一种常驻计算服务,比如实时交通监测服务、实时天气预报服务等。...流计算适用于需要处理持续到达的流数据、对数据处理有较高实时性要求的场景。为了及时处理流数据,流计算框架必须是低延迟、可扩展、高可靠的。...数据处理后可能输出新的流作为下一个 Bolt 的输入。每个 Bolt 往往只具备单一的计算逻辑。...MapReduce 可以说是一种批量计算,与我们今天介绍的用于实时数据处理的流计算,是什么关系呢? 虽然流计算和批量计算属于两种不同的计算模式,但并不是非此即彼的关系,只是适用于不同的计算场景。

1.7K20

Spark实时流计算Java案例

现在,网上基于spark的代码基本上都是Scala,很多书上也都是基于Scala,没办法,谁叫spark是Scala写出来的了,但是我现在还没系统的学习Scala,所以只能用java写spark程序了,...spark支持java,而且Scala也基于JVM,不说了,直接上代码 这是官网上给出的例子,大数据学习中经典案例单词计数 在linux下一个终端 输入 $ nc -lk 9999 然后运行下面的代码...package com.tg.spark.stream; import java.util.Arrays; import org.apache.spark.*; import org.apache.spark.api.java.function...并且hdfs上也可以看到通过计算生成的实时文件 第二个案例是,不是通过socketTextStream套接字,而是直接通过hdfs上的某个文件目录来作为输入数据源 package com.tg.spark.stream...; import java.util.Arrays; import org.apache.spark.*; import org.apache.spark.api.java.function.*;

2.3K60

Java 结构化数据处理开源库 SPL

这种架构通常要求业务逻辑要在Java程序中实现,而不是像传统应用架构中放在数据库中。 应用中的业务逻辑大都会涉及结构化数据处理。数据库(SQL)中对这类任务有较丰富的支持,可以相对简易地实现业务逻辑。...如果我们在Java中也提供有一套完整的结构化数据处理和计算类库,那这个问题就能得到解决:即享受到架构的优势,又不致于降低开发效率。 需要什么样的能力?...Java下理想的结构化数据处理类库应当具备哪些特征呢?我们可以从SQL来总结: 1 集合运算能力 结构化数据经常是批量(以集合形式)出现的,为了方便地计算这类数据,有必要提供足够的集合运算能力。...5 解释型语言 从前面几条的分析,我们已经可以得到结论:Java 本身并不适合用作结构化数据处理的语言。它的 Lambda 机制不支持特征 3,而且作为编译型语言,也不能实现特征 4。...引入 SPL Stream是Java8以官方身份推出的结构化数据处理类库,但并不符合上述的要求。

49840

Java 结构化数据处理开源库 SPL

这种架构通常要求业务逻辑要在Java程序中实现,而不是像传统应用架构中放在数据库中。 应用中的业务逻辑大都会涉及结构化数据处理。数据库(SQL)中对这类任务有较丰富的支持,可以相对简易地实现业务逻辑。...如果我们在Java中也提供有一套完整的结构化数据处理和计算类库,那这个问题就能得到解决:即享受到架构的优势,又不致于降低开发效率。 需要什么样的能力?...Java下理想的结构化数据处理类库应当具备哪些特征呢?我们可以从SQL来总结: 1. 集合运算能力 结构化数据经常是批量(以集合形式)出现的,为了方便地计算这类数据,有必要提供足够的集合运算能力。...解释型语言 从前面几条的分析,我们已经可以得到结论:Java 本身并不适合用作结构化数据处理的语言。它的 Lambda 机制不支持特征 3,而且作为编译型语言,也不能实现特征 4。...引入SPL Stream是Java8以官方身份推出的结构化数据处理类库,但并不符合上述的要求。

32320

Java 结构化数据处理开源库 SPL

这种架构通常要求业务逻辑要在Java程序中实现,而不是像传统应用架构中放在数据库中。 应用中的业务逻辑大都会涉及结构化数据处理。数据库(SQL)中对这类任务有较丰富的支持,可以相对简易地实现业务逻辑。...如果我们在Java中也提供有一套完整的结构化数据处理和计算类库,那这个问题就能得到解决:即享受到架构的优势,又不致于降低开发效率。 需要什么样的能力?...Java下理想的结构化数据处理类库应当具备哪些特征呢?我们可以从SQL来总结: 1 集合运算能力 结构化数据经常是批量(以集合形式)出现的,为了方便地计算这类数据,有必要提供足够的集合运算能力。...5 解释型语言 从前面几条的分析,我们已经可以得到结论:Java 本身并不适合用作结构化数据处理的语言。它的 Lambda 机制不支持特征 3,而且作为编译型语言,也不能实现特征 4。...引入 SPL Stream是Java8以官方身份推出的结构化数据处理类库,但并不符合上述的要求。

48720
领券