首页
学习
活动
专区
圈层
工具
发布
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    00 Confluent_Kafka权威指南-前言部分

    而kafka的流式处理能力让你用更少的代码就可以实现对数据的动态流式计算。这些差异让kafka自成体系,简单的只是认为kafka是另外一种消息队列是没有任何意义的。...另外一个关于kafka的观点,也是我们设计和开发kafka的初衷之一,我们可以把kafka看成一个实时版本的hadoop。...— Jay Kreps Preface 前言 Cofounder and CEO at Confluent 对于技术类书籍的作者,你能给予的最大的赞美就是“这是我在开始学习这门课程的时候所希望看到的书”...本书包括如何安装和配置kafka,以及如何使用kafka API,我们还致力于对kafka的设计原则和可靠性担保、探索kafka让人入胜的架构细节:副本协议、控制层、存储层。...你越是理解kafka内部的工作机制,就越是能对kafka的需对权衡做出更好的选择。

    77430

    02 Confluent_Kafka权威指南 第二章:安装kafka

    -daemon /usr/local/kafka/config/server.properties # 启动kafkabroker之后,我们可以通过对集群执行一些简单的操作来验证它是否正常工作。...创建并验证topic # /usr/local/kafka/bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor...的standalone模式足够对kafka分布式的概念进行验证,但是这对于大多数kafka使用者来说这是不够的。...当任何客户端请求该topic的元数据的时候 通常来讲,这是不希望出现的,特别是当无法通过kafka协议验证主题的存在时创建topic。...Kafka Clusters 单个kafka服务器可以很好的用于本地开发工作,或者用于概念验证,但是将多个broker配置为要给集群有显著的好处,如下图所示。最大的好处是能够跨多个服务器扩展系统负载。

    1.5K20

    01 Confluent_Kafka权威指南 第一章:初识kafka

    CHAPTER 1 Meet Kafka 初识kafka 每个企业都离不开数据,我们接收数据、分析数据、加工数据,并将数据输出。...Enter Kafka 进入kafka apache kafka是一个旨在解决此类问题的发布订阅消息系统。它通常被叫做“分布式日志系统”,最近又被称为“分布式流平台”。...用户可以从单个borker开始做为概念验证,扩展到由3个broker组成的小型开发集群,然后使用包括数十个甚至数百个broker的更大型的集群进行生产,该集群随着数据的增长而扩容。...Kafka’s Origin kafka起源 kafka最初是为了解决linkedin数据管道问题而设计的。...2014年秋天,jay kreps,neha narkhede 和 jun rao 离开linkedin成立了confluent公司,这是一家致力于为apache kafka提供开发、企业支持和培训的公司

    1.5K40

    10 Confluent_Kafka权威指南 第十章:监控kafka

    CHAPTER 10 Monitoring Kafka 监控kafka Apache Kafka有许多针对其操作的度量,这些度量指标非常多,会让人混淆哪些是重要的,哪些是可以忽略的。...如果你使用相同的系统来监视kafka本身,你可能永远不会值得kafka什么时候坏掉。因为你的监视系统的数据流也会坏掉。...有许多方法可以解决这个问题,一种方式是为kafka使用独立的监控系统,不依赖于kafka。如果有多个数据中心,另外一种方法是确保kafka集群的指标在数据中心A被产生到数据中心B,反之亦然。...打开kafka.log.LogCleaner。kafka.log.LogCleaner和kafka.log.LogCleanerManager默认的日志级别是DEBUG,将输出线程状态信息。...这种类型的监控对于能够从外部验证kafka集群按照预期运行,因为就像消费者延迟监控一样,kafka 的broker无法报告客户端是否能够正确使用集群。

    2.5K31

    05 Confluent_Kafka权威指南 第五章: kafka内部实现原理

    何时开始compacted Summary 概要 CHAPTER 5 Kafka Internals kafka内部原理 为了在生产环境中运行kafka或者编写使用它的应用程序,并不一定要理解kafka...然而,理解kafka的工作原理,有助于故障排查,理解kafka的工作行为。...具体代码实现细节本书不做深入描述,但是,kafka有关的从业人员,必须关注如下三个内容: kafka的副本机制是如何工作的 kafka如何处理来自生产者和消费者的请求 kafka的数据存储,如文件格式和索引...当包含分区的主副本的broker收到该分区生成请求时,他将首选运行几个验证: 发送数据的用户对topic有写权限吗?...kafka包括由apache贡献者实现的维护java客户端,也有其他语言的客户端,包括C、python、GO等。

    89830

    09 Confluent_Kafka权威指南 第九章:管理kafka集群

    授权管理操作: 虽然Apache Kafka实现了身份验证和授权来控制Topic的操作,但是大多数集群操作还不支持。这意味着这些命令行工具可以在不需要任何身份验证的情况下使用。...:9092/kafka-cluster --list kafka-python-test my-new-consumer # 如果要查看一个消费者组的情况,你可以用–describe替换–list之后加上...当重写分配运行时,再它完成后,kafka-reassignpartitions.sh可以用来验证重写分配的状态。...为了验证topic分区的副本在集群中是否相同,可以使用kafka-replica-verification.sh进行验证,次攻击从给懂的topic分区集的所有副本中获取消息。...以匹配希望验证的topic,如果没有提供,则验证所有的topic。还必须提供要连接的broker的显式列表。

    1.7K30

    0500-使用Python2访问Kerberos环境下的Kafka

    还需要为Python环境安装相关的Kafka包,这里Fayson使用官网推荐使用的confluent-kafka-python依赖包。...该依赖包的GitHub地址为:https://github.com/confluentinc/confluent-kafka-python,关于confluent-kafka-python的详细说明可以参考...3 Python2示例代码 1.如下为Python2访问Kerberos环境下Kafka示例代码 [root@cdh4 python_code]# vim kafka_test.py from confluent_kafka...4 访问验证 本文提供的示例代码为向Kerberos环境Kafka的test Topic中发送消息,在命令行使用Kafka提供的kafka-console-consumer命令消费Python示例生产的消息...4.查看Kafka消费程序接收到两条消息 ? 5 总结 1.confluent-kafka-python依赖包需要Python的环境>= 2.7 or Python 3.x。

    1.1K10

    ssl双向验证— ssl_verify_depth的作用

    前言关键词:根证书、中间证书、验证深度、ssl_verify_depth根证书与中间证书​在进行ssl验证前,服务器一般会向CA申请公钥证书,即将自己的公开密钥交给CA,CA用自己的私钥向服务器的公钥数字签名并返回公钥证书...在ssl验证的过程中,直接尝试中间证书进行客户端认证是无法通过的,需要一层一层回溯验证,直到找到根。​这个验证深度就相当于当前中间证书在整棵树中的深度。...ssl_verify_depth​上面已经提到了,验证需要层层回溯,向上可以回溯多少次由ssl_verify_depth决定,当ssl_verify_depth = 1时,回溯层数为0,即任何中间证书都不会通过验证...简而言之,中间证书的深度要小于ssl_verify_depth的值,才会验证通过。在nginx中ssl_verify_depth的值默认是为1的。...句法: ssl_verify_depth number;默认: ssl_verify_depth 1;语境: http, server

    53410

    03 Confluent_Kafka权威指南 第三章: Kafka 生产者:向kafka写消息

    有多个不同语言实现的客户端,这不仅为java程序使用kafka提供了样例,也为c++,python、go等语言提供了简单的方法。 这些客户端不是Apache kafka项目的一部分。...模式注册表不是apache kafka的一部分,但是有几个开源软件可供选择,在本例中,我们将用confluent的模式注册表。...props.put("key.serializer", "io.confluent.kafka.serializers.KafkaAvroSerializer"); props.put("value.serializer...", "io.confluent.kafka.serializers.KafkaAvroSerializer"); //schema.registry.url 这是一个新参数,指我们存储模式的具体位置..."); props.put("value.serializer", "io.confluent.kafka.serializers.KafkaAvroSerializer"); //提供相同的注册表URL

    3.3K30
    领券