专栏首页北京马哥教育LinkedIn —— Apache Kafka 的伸缩扩展能力

LinkedIn —— Apache Kafka 的伸缩扩展能力

什么是Kafka? Apache Kafka是一个演进的发布/订阅消息系统。系统结合队列和消息机制,可把它当成在一群服务器间进行的日志提交过程。消息被分成多个主题和分段,每个主题支持多个发布者(生产者)和多个订阅者(消费者)。Kafka群以良好的形式为每一个主题保存着这些消息。

  • 对于特定的时间(LinkedIn在数天内测量)
  • 对于分成段的特定大小的消息
  • 基于键的消息,仅存储最近的消息

Kafka提供可靠性、灵活性和盈余保留,同时高吞吐量地处理数据。 已有多篇关于Kafka的文章和讨论,包括talk given at Apache Con2014 byClar kHaskins和我自己的。如果你还不熟悉Kafka,你可能需要去查看这些链接来学习一些Kafka的基本操作原理。 多大算大? Kafka是不关心消息中的内容的。许多不同类型的数据可以在一样的集群上被简单的共存,每一种的数据会被分类成不同的主题。生产者和消费者仅仅需要关心他们感兴趣的内容。LinkedIn让这更进一步,并且定义了四种类别的消息:队列,度量,日志和追踪数据,每一类都运行在他们自己的集群上。 当联合时,在LinkedIn的Kafka的系统上,每天有超过8000亿条消息被发送,相当于超过175兆兆字节(terabytes)数据,另外,每天还会消耗掉650兆兆字节(terabytes)数据的消息,为什么Kafka有这样的能力去处理这么多产生的数据和消耗掉的数据,对每一种消息分类是一个重要原因。在每天系统最繁忙的时候,我们每秒接收超过1300万条消息,相当于每秒2.75GB数据。去处理这所有的信息,LinkedIn运行超过60个集群,并在上面部署超过1100个Kafka代理。 队列 队列是大多数人所想的那种标准信息类型:一个应用的部分生成消息,另一部分消费消息。其它应用对这些消息不感兴趣,因为他们是用于协调动作或是单个系统的状态的。这种类型的消息用于发送邮件,分发由其他在线应用计算出的数据集,或者与后端组件配合工作。 度量 度量处理所有由应用操作产生的测量结果。这包括面向应用的所有操作系统和硬件的统计数据,只要这些数据能够确保系统正确运作。这是LinkedIn的耳目,用它能够看到所有服务器和应用的状态,从而驱动我们内部的监测预警系统。如果你想要对我们的度量了解更多,可以阅读我们的自动度量系统的原始设计,也可以看Stephen Bisordi最近发表的自动度量的下一步往哪走。 日志包括应用程序、系统和公共访问日志。最初,为了方便,度量和日志共存于同一集群。现在由于日志量太大我们会不断地将日志数据分离出来。日志数据通过应用程序产生到Kafka,然后会被其他系统读取用以日志聚合。 跟踪 跟踪包括了LinkedIn的基础架构前线中发生的所有行为,不管是的用户的还是应用程序的。这些行为不仅需要与其他应用程序交互也会进入到Apache Samza的流处理和Apache Hadoop的批处理中。这正是大数据的立足之处:持续更新搜索索引,跟踪付费服务的使用以及实时测量大规模增长的趋势。这四种类型的消息机制对LinkedIn的正常运行至关重要,而跟踪数据则较为常见,因为执行层比较重视而且通常可以带来效益。 分层和聚合 与所有大型网站一样,LinkedIn需要管理大量的数据中心。一些应用,例如那些服务于特定的用户请求的应用,它们只需要关心在一个数据中心发生了什么。还有许多其它应用,例如那些维持搜索目录的应用,它们需要检查所有的数据中心发生了什么。 对于每个消息目录,LinkedIn具有一个创建在数据中心的名为本地消息容器的集群。它同样也是一个聚合集群,它将所有的本地集群的消息整合到一个给定的目录。我们使用Kafka镜像生成器应用来将本地消息复制聚合,这样可以避免任何的本地集群之间的消息循环。

图1:Kafka分层架构设计 使用Kafka基础架构来移动数据可以减少带宽消耗和网络延迟,因为它可以让我们的消息复制次数最小化(每个数据中心一次)。用户可以在当地使用数据,这样就简化他们的配置并且让他们不需要再关心多种跨数据中心的网络问题。生产者和用户完成了Kafka基础架构中的分层概念。生产者是第一层,本地集群(结合所有的数据中心)是第二层,每个聚合集群都是一个额外的层级。用户本身是最后一层。 这种分层的基础架构解决了许多问题,但是极大地复杂化了Kafka的监控和确保它的正常运行。因为一个单一的Kafka集群正常运行时,是不会丢失消息的,当引入了额外的层之后,伴随着额外的组件加入,例如镜像生成器,当消息消失的时候会生成无数的故障,另外监视Kafka集群和它们的状况,我们需要一个中间层来确保所有生成的消息都出现每一层,并且使它成为这些数据的关键用户。 审计完整性 Kafka Audit是LinkedIn的一个内部工具,这个工具用来确保所有生产的消息无丢失的复制到每一层。消息结构包含一个所有消息共有的包含关键数据的头部,关键数据包括时间戳、生产服务和原始主机。当单个生产者发送消息到Kafka的时候,它会记录当前时间间隔发送消息的数量。然后它周期性的发送这个数量到特定的审计主题(topic)。这就提供了每个生产者向某个主题尝试发送消息量的信息。 我们的Kafka基础设施应用之一,被称做Kafka Console Auditor,消费单个Kafka集群中所有主题的所有消息。它周期性的发送消息到审计主题,统计上一个时间间隔该集群中每个主题消费的消息量。通过比较这些数量和生产者的数量,我们就可以判断是否所有的生产的消息已经进入Kakfa系统。如果数量对不上,我们就能知道某个生产者有问题,然后就可以追踪故障的服务和主机。每个Kafka集群有自己的console auditor,用于验证集群中的消息。通过互相比较每一层的数量,我们可以保证每一层具有相同数量的消息。这就可以保证既没有丢失也没用重复消息,如果有问题就能直接采取行动。

图2:Kafka消息审计概况 某些关键的消息消费者,比如Hadoop grids,也做为单独一层回写审计信息。这使得我们不仅可以监控生产者是否在工作,Kafka是否在传递消息,也可以检验消费者是否收到了所有消息。如果应用将消息从Kafka复制到hadoop出现了问题,那么Kafka审计工具将会显示一个错误,标明Hadoop使用的那一层的名字。这最后一块功能给我们提供了端到端的保证,也就是每条生产的数据最终会被消费。 将所有内容组合在一起 简单的Kafka集群上面的这些层看起来很复杂——这给我们提出一个艰巨的任务,如何使LinkedIn的所有应用以相同的方式工作——但是我们有秘密王牌。LinkedIn有一个Kafka工程师团队,其中包括一些顶级的开源Kafka开发者。他们为LinkedIn开发社区提供内部支持,帮助内部团队以一致的、可维护的方式使用Kafka。对于任何想要知道如何实现生产者、消费者,或者深入了解Kafka的特定设计问题的人,他们是共同的交流沟通的团队。 Kafka开发团队也为LinkedIn提供了其他好处,也就是在开源Kafka库之上的一系列自定义库,这些库可以将额外的功能连接在一起。例如,LinkedIn内部的几乎所有Kafka消息生产者都使用了一个称为Tracker Producer的库。当应用调用该库发送消息的时候,这个库将会插入消息头部字段、注册消息结构,同时跟踪、发送审计消息。同样的,消费者库将会从注册服务拉取消息结构信息,反序列化Avro消息。大部分Kafka基础设施应用,比如console auditor,也由该开发团队维护。

图3:LinkedIn内部的Kafka即服务 展望 就像MammadZadeh,我们的技术总监,最近说的,LinkedIn对于Kafka的承诺如故。工程师团队在Kafka开源社区非常活跃。其中的工作包括强安全控制、配额控制,确保LinkedIn能够扩展到每天1万亿条消息,乃至更多。我们基于Kafka之上构建的流处理框架,Samza,最近已完成孵化,成为顶级项目。 SRE团队正与工程师们一起工作,确保我们资深的运营经验可以与开发者的代码经验保持同步。SRE团队也在持续自动化运行Kafka的流程,为诸如移动分片(partition)等任务构建工具,这将会集成到Kafka的组件中。我们也在持续的评估大规模运行Kafka的最佳调优策略,将我们的发现尽可能的告诉社区。 我们在ApacheKafka的邮件列表也很活跃,LinkedIn很荣幸的主持着ApacheKafka Meetup和Bay Area Samza Meetup,交替着每月一次。亲自参与会议,或者远程参加会议,来发现更多关于LinkedIn和其他公司使用Kafka和Samza的信息吧!

本文分享自微信公众号 - 马哥Linux运维(magedu-Linux)

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2015-04-28

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 大型网站架构系列:消息队列(二)

    本文是大型网站架构系列:消息队列(二),主要分享JMS消息服务,常用消息中间件(Active MQ,Rabbit MQ,Zero MQ,Kafka)。 【第二篇...

    小小科
  • 学会用各种姿势备份MySQL数据库

    前言 我们试着想一想, 在生产环境中什么最重要?如果我们服务器的硬件坏了可以维修或者换新, 软件问题可以修复或重新安装, 但是如果数据没了呢?这可能是最恐怖的事...

    小小科
  • 爬取了陈奕迅新歌《我们》10万条评论数据发现:原来,有些人只适合遇见

    小小科
  • 【深度知识】Kafka原理入门和详解

    Kafka是由Apache软件基金会开发的一个开源流处理平台,由Scala和Java编写。Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者在网...

    辉哥
  • 18道kafka高频面试题哪些你还不会?(含答案和思维导图)

    Kafka是最初由Linkedin公司开发,是一个分布式、支持分区的(partition)、多副本的(replica),基于zookeeper协调的分布式消息系...

    程序员追风
  • 经典面试题-Kafka

    cwl_java
  • Apache Kafka:优化部署的 10 种最佳实践

    Apache Kafka 肯定会像它的同名小说家一样不负众望,因为它能激奋新来者、挑战深度,若能更全面的理解它还会产生丰厚的回报。抛开文学,书归正传。遵循 ka...

    Spark学习技巧
  • Kafka及周边深度了解

    文章有点长,但是写的都挺直白的,慢慢看下来还是比较容易看懂,从Kafka的大体简介到Kafka的周边产品比较,再到Kafka与Zookeeper的关系,进一步理...

    别打名名
  • Kafka详细设计及其生态系统

    Kafka生态-Kafka Core,Kafka Streams,Kafka Connect,Kafka REST Proxy和Schema Registry ...

    用户1263954
  • 重磅发布:Kafka迎来1.0.0版本,正式告别四位数版本号

    Kafka 从首次发布之日起,已经走过了七个年头。从最开始的大规模消息系统,发展成为功能完善的分布式流式处理平台,用于发布和订阅、存储及实时地处理大规模流数据。...

    Spark学习技巧

扫码关注云+社区

领取腾讯云代金券