Apache Storm 1.1.0 中文文档 | ApacheCN

前言

Apache Storm 是一个免费的,开源的,分布式的实时计算系统. 官方文档: http://storm.apache.org 中文文档: http://storm.apachecn.org

ApacheCN 最近组织了翻译 Storm 1.1.0 中文文档 的活动,整体 翻译进度 为 96%. 感谢大家参与到该活动中来 感谢无私奉献的 贡献者,才有了这份 Storm 1.1.0 中文文档 感谢一路有你的陪伴,我们才可以做的更好,走的更快,走的更远,我们一直在努力 。。。

网页地址: http://storm.apachecn.org/releases/cn/1.1.0/ github: https://github.com/apachecn/storm-doc-zh

如果您有任何意见建议,问题反馈,或者也想参与该翻译,或者想成为该项目的负责人,麻烦联系企鹅: 1042658081 技术交流企鹅群: 214293307

学习方法

1.Storm 怎么学习,怎么入门 ?

我只能悄悄的告诉你,跟着中文文档走,把文档看一遍先,文档中的概念,例子什么的先弄懂,基本上就入门

2.Storm 如何成为大神呢? 先看看大佬们的 blog 学习下,多在群里面跟别人讨论下

文档内容目录

NOTE(注意) 在最新版本中, class packages 已经从 “backtype.storm” 改变成 “org.apache.storm” 了, 所以使用旧版本编译的 topology 代码不会像在 Storm 1.0.0 上那样运行了. 通过以下配置提供向后的兼容性 client.jartransformer.class: "org.apache.storm.hack.StormShadeTransformer" 如果要运行使用较旧版本 Storm 编译的代码, 则需要在 Storm 安装中添加上述配置. 该配置应该添加到您用于提交 topologies(拓扑)的机器中. 更多细节, 请参阅 https://issues.apache.org/jira/browse/STORM-1202.

Storm 基础

Layers on Top of Storm

Storm Trident

Trident 是 Storm 的另一个 interface(接口). 它提供了 exactly-once(仅且一次)处理, “transactional(事务性的)” datastore persistence(数据存储持久化), 以及一些常见的 stream analytics operations(流式分析操作).

  • Trident 教程 – 基础的概念和预排工作
  • Trident API 概述 – 针对 transforming(转换)和 orchestrating 数据的操作
  • Trident State(状态) – exactly-once(仅且一次)处理以及 fast(快速的), persistent aggregation(持久化的聚合)
  • Trident spouts – transactional(事务性的)和 non-transactional(非事务性的)数据引入
  • Trident RAS API – 与 Trident 一起使用 Resource Aware Scheduler .

Storm SQL

该 Storm SQL 的集成可以让用户在 Storm 的 streaming data(流式数据)上来运行 SQL 查询.

NOTE(注意): Storm SQL 是一个 experimental(实验性的) 功能, 所以 Storm SQL 的结构和所支持的功能在以后可能会发生变化. 但是小的变化不会影响用户体验. 在引入 UX 更改时, 我们会及时通知用户.

Flux

Storm 安装和部署

Storm 中级

Storm 调试

Storm 与外部系统, 以及其它库的集成

Container, Resource Management System Integration

Storm 高级

结束感言

翻译过程中,大家有说有笑,有时候大家自己也不太懂,关键字啥的都会搞错,完全看不懂,一脸懵逼,醉了 。。。 但总算是把这份中文文档给弄好了吧,也算是对大家,或者对自己有一个交代,没有半途而废吧!~~~ 希望大家可以一起走的更快,走的更远 。。。

如果您有任何意见建议,问题反馈,或者也想参与该翻译,或者想成为该项目的负责人,麻烦联系企鹅: 1042658081 技术交流企鹅群: 214293307

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏数据科学与人工智能

【Spark研究】用Apache Spark进行大数据处理第一部分:入门介绍

什么是Spark Apache Spark是一个围绕速度、易用性和复杂分析构建的大数据处理框架。最初在2009年由加州大学伯克利分校的AMPLab开发,并于20...

2367
来自专栏xingoo, 一个梦想做发明家的程序员

[看图说话] 基于Spark UI性能优化与调试——初级篇

Spark有几种部署的模式,单机版、集群版等等,平时单机版在数据量不大的时候可以跟传统的java程序一样进行断电调试、但是在集群上调试就比较麻烦了...远程断...

2535
来自专栏java达人

自学Apache Spark博客(节选)

作者:Kumar Chinnakali 译者:java达人 来源:http://dataottam.com/2016/01/10/self-learn-yo...

1979
来自专栏Albert陈凯

Hive迁移Saprk SQL的坑和改进办法

Qcon 全球软件开发者大会2016北京站 演讲主题:Spark在360的大规模实践与经验分享 李远策 360-Spark集群概况 ? 360-Spark集...

4187
来自专栏Hadoop实操

CDH5.15和CM5.15的新功能

2342
来自专栏杨建荣的学习笔记

使用sysbench压力测试MySQL(三)(r12笔记第6天)

昨天使用gdb调试MySQL中事务临界状态的时候,发现其实有些场景可能比我想得还要复杂一些,所以我在昨天的测试中结尾也是快快扫过,但是表明了意思即可。这一点...

4188
来自专栏我是攻城师

Spark 1.3更新概述:176个贡献者,1000+ patches

2974
来自专栏Java架构

Java就业指导

1542
来自专栏恰同学骚年

Hadoop学习笔记—16.Pig框架学习

  Pig是一个基于Hadoop的大规模数据分析平台,它提供的SQL-LIKE语言叫Pig Latin,该语言的编译器会把类SQL的数据分析请求转换为一系列经过...

542
来自专栏云计算D1net

如何为Hadoop选择最佳弹性MapReduce框架

亚马逊Web服务的弹性MapReduce是一项基于Hadoop的实施,它可允许你运行大型的预处理工作,如格式转换和数据聚合等。虽然我们可以选择很多的编程语言来对...

3386

扫码关注云+社区