前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >Maxwell 系列(三)—— 使用

Maxwell 系列(三)—— 使用

作者头像
大数据最后一公里
发布于 2021-08-05 02:26:41
发布于 2021-08-05 02:26:41
96500
代码可运行
举报
运行总次数:0
代码可运行

一、控制台输出

全库监控

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
"" 测试 ""
bin/maxwell \
--user='maxwell' \
--password='sweet' \
--host='127.0.0.1' \
--port='3306' \
--producer=stdout

读取指定库

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
bin/maxwell \
--user='maxwell' \
--password='sweet' \
--host='127.0.0.1' \
--port='3306' \
--filter='exclude: *.*, include: lpc.*' \
--producer=stdout
  • 库名不能指向maxwell
  • host可以跨节点指定ip

二、输出到kafka

测试脚本kafka-1

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
bin/maxwell \
--user='maxwell' \
--password='sweet' \
--host='127.0.0.1' \
--port='3306' \
--filter='exclude: *.*, include: lpc.student' \
--producer=kafka \
--kafka_version='1.0.0' \
--kafka.bootstrap.servers=ip1:port,ip2:port,ip3:port \
--kafka_topic=lpc_maxwell   
""
--kafka_topic默认是maxwell
在上面测试脚本中设置值为lpc_maxwell,这个是静态传参,
也可以动态传参namespace_%{database}_%{table},动态传参脚本如下
""

测试脚本kafka-2

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
bin/maxwell \
--user='maxwell' \
--password='sweet' \
--host='127.0.0.1' \
--port='3306' \
--filter='exclude: *.*, include: lpc.*' \
--producer=kafka \
--kafka_version='1.0.0' \
--kafka.bootstrap.servers=ip1:port,ip2:port,ip3:port \
--kafka_topic=testdynamic_%{database}_%{table}

测试脚本kafka-3

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
bin/maxwell \
--user='maxwell' \
--password='sweet' \
--host='27.0.0.1' \
--port='3306' \
--filter='exclude: *.*, include: lpc.*' \
--producer=kafka \
--kafka_version='1.0.0' \
--kafka.bootstrap.servers=ip1:port,ip2:port,ip3:port \
--kafka_topic=%{database}_%{table}

1、在上面的说明中动态传参namespace,意思是命名空间 使用动态传参指定前缀,指定前缀测试说明在第2点之后 使用前缀可以将属于个性化定制,自动创建topic时用于区别其他topic名称,这里是为了建立实时数仓,需要以数仓分层标识

topic自动创建说明:

2、刚开始filter参数是--filter='exclude: *.*, include: lpc.student' 这种情况下,在执行测试脚本kafka-1时,会在自动创建topic。

3、如果filter参数是--filter='exclude: *.*, include: lpc.*' 这种情况下,执行测试脚本kafka-2并不会自动创建,在监控的数据发生变化时,才会自动创建 静态传参和动态传参

4、静态传参是--kafka_topic=参数值,手动指定的,maxwell会将变化数据发送到指定的topic中

5、动态传参

5.1 动态传参没有前缀 测试脚本kafka-3,maxwell会识别%{}, 前缀和连接符可以指定,也可以不指定

5.2 动态传参有前缀 前缀可以手动指定,具体说明见第1点

三、输出到redis

测试

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
bin/maxwell \
--user='maxwell' \
--password='sweet' \
--host='127.0.0.1' \
--port='3306' \
--filter='exclude: *.*, include: lpc.student' \
--producer=redis \
--redis_host=ip \
--redis_port=port \
""

redis生产者参数,redis_type默认是 pubsub订阅模式

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
bin/maxwell \
--user='maxwell' \
--password='sweet' \
--host='127.0.0.1' \
--port='3306' \
--filter='exclude: *.*, include: lpc.student' \
--producer=redis \
--redis_host=ip \
--redis_port=port \
--redis_type=lpush

设置redis_type为lpush模式,根据控制台结果可知,maxwell实时增量同步到redis,指定key的类型是list,list中对应的是多个json字符串

关注公众号:大数据最后一公里

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-07-24,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大数据最后一公里 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
MySQL Binlog 解析工具 Maxwell 详解
Maxwell是一个能实时读取MySQL二进制日志binlog,并生成 JSON 格式的消息,作为生产者发送给 Kafka,Kinesis、RabbitMQ、Redis、Google Cloud Pub/Sub、文件或其它平台的应用程序。它的常见应用场景有ETL、维护缓存、收集表级别的dml指标、增量到搜索引擎、数据分区迁移、切库binlog回滚方案等。官网(http://maxwells-daemon.io)、GitHub(https://github.com/zendesk/maxwell)
小旋锋
2019/03/15
11.5K0
MySQL Binlog 解析工具 Maxwell 详解
Greenplum数据导入系列 -- (二)数据库实时同步
Greenplum作为数据仓库的计算引擎,其数据来源多是业务数据,其中以MySQL为主。那如何将数据从MySQL同步到Greenplum中?如果是离线同步,比如每小时,每天,可以参考前一篇文章 Greenplum数据导入系列 -- (一)DataX,那如果需要实时同步呢,最常见的就是解析MySQL的binlog然后写入到Greenplum中,本文就描述了一种实现方法。
lambgong
2020/01/14
4.4K1
Greenplum数据导入系列 -- (二)数据库实时同步
Maxwell 系列(二)—— 入门(7000字的干货)
创建maxwell用户和maxwell数据库,是maxwell用户会往maxwell数据库写入一些默认配置,具体配置如下
大数据最后一公里
2021/08/05
1.5K0
简单实现MySQL数据实时增量同步到Kafka————Maxwell
2.1、下载安装包 https://github.com/zendesk/maxwell/releases/download/v1.20.0/maxwell-1.20.0.tar.gz 2.2、解压到指定位置
栗筝i
2022/12/01
1.5K0
湖仓一体电商项目(四):项目数据种类与采集
实时数仓项目中的数据分为两类,一类是业务系统产生的业务数据,这部分数据存储在MySQL数据库中,另一类是实时用户日志行为数据,这部分数据是用户登录系统产生的日志数据。
Lansonli
2022/08/07
4280
湖仓一体电商项目(四):项目数据种类与采集
Maxwell单节点部署
Maxwell 是一个开源的实时数据捕获工具,主要用于从 MySQL 数据库中捕获数据变化并将这些变化实时推送到其他系统,比如消息队列、数据仓库等。通俗来说,Maxwell 就像一个“数据监控员”,它时刻关注数据库的变化,并将这些变化及时报告给需要的地方。
码农GT038527
2024/08/08
1780
大数据Maxwell(二):使用Maxwell增量和全量同步MySQL数据
https://github.com/zendesk/maxwell/releases/tag/v1.28.2
Lansonli
2023/03/21
4.6K0
大数据Maxwell(二):使用Maxwell增量和全量同步MySQL数据
ES8集群部署
这次ES8集群部署花的时间真不少,还熬了两夜,原本是比较简单的,同事搞就可以了,结果还是超出了预期,不熟悉的东西部署也是相当耗时间的。开始是准备基于Docker部署的,但是没有成功,网上参考了很多,调各个配置参数,就是没成功,后来看到这个文章:https://www.zsjweblog.com/2022/03/09/elasticsearch8-1-0%e9%9b%86%e7%be%a4%e6%90%ad%e5%bb%ba/,改为直接使用安装包进行部署,在测试机上尝试是可以把几个节点服务连接成一个集群的。
明月AI
2024/02/26
7780
ES8集群部署
解析mysql的binlog日志并推送到Kafka实时消费
Maxwell是一个能实时读取MySQL二进制日志binlog,并生成 JSON 格式的消息,作为生产者发送给 Kafka,Kinesis、RabbitMQ、Redis、Google Cloud Pub/Sub、文件或其它平台的应用程序。它的常见应用场景有ETL、维护缓存、收集表级别的dml指标、增量到搜索引擎、数据分区迁移、切库binlog回滚方案等。官网(http://maxwells-daemon.io)、GitHub(https://github.com/zendesk/maxwell)
用户8483969
2021/04/09
2.9K0
使用Maxwell+Python+ClickHouse实现数据展示
supervisor 守护进程,负责maxwell python_program clickhouse_sinker 的保活
保持热爱奔赴山海
2023/10/11
6690
使用Kafka实现Java异步更新通知解决Redis与MySQL数据不一致
在高并发的应用场景中,秒杀系统等业务可能导致Redis与MySQL中的数据不一致。通过异步更新通知,我们可以及时发现不一致并采取相应措施,确保系统的稳定性和一致性。
GeekLiHua
2025/01/21
730
实时MySQL数据源同步中间件-Maxwell
Maxwell是一个读取MySQL binlog并将行更新作为JSON写入Kafka,Kinesis或其他流平台的应用程序。
ZHANGHAO
2019/03/06
3.4K0
实时MySQL数据源同步中间件-Maxwell
基于binlog的离线分析平台的一些初步实践
http://quarterback.cn/%e9%80%9a%e8%bf%87kafka-nifi%e5%bf%ab%e9%80%9f%e6%9e%84%e5%bb%ba%e5%bc%82%e6%ad%a5%e6%8c%81%e4%b9%85%e5%8c%96mongodb%e6%9e%b6%e6%9e%84/
保持热爱奔赴山海
2019/10/27
7780
一个完整的Mysql到Hbase数据同步项目思想与实战
对于上次文章预告,这次则以项目实战从后往前进行,先给大家一个直观的应用,从应用中学习,实践中学习。
公众号guangcity
2019/09/20
3.6K1
一个完整的Mysql到Hbase数据同步项目思想与实战
kafka常用配置
常用配置 server.properties #每一个broker在集群中的唯一表示,要求是正数。 #当该服务器的IP地址发生改变时,broker.id没有变化,则不会影响consumers的消息情况 broker.id=1 #用kafka-topics.sh --delete删除topic时,配置true将真正删除,否则需要使用zkCli.sh 再删除一下 delete.topic.enable=true #和zk集群连接的网卡ip,一定要写 advertised.host.name=192.168.1.
陈不成i
2021/07/07
4070
kafka_2.11-0.11.0.1集群搭建
本文搭建一个三节点的Kafka集群。该集群有三个Zookeeper、三个Kafka Broker。 一、准备工作 解压kafka安装包,获得如下目录: unzip kafka_2.11-0.11.0.1.zip kafka_2.11-0.11.0.1 Kafka目录结构: 展示如下内容: . ├── LICENSE ├── NOTICE ├── bin ├── config ├── libs ├── logs └── site-docs cd kafka_2.11-0.11.0.1
用户1516716
2018/04/02
6120
用 Kafka、Spark、Airflow 和 Docker 构建数据流管道指南
在本指南中,我们将深入探讨构建强大的数据管道,用 Kafka 进行数据流处理、Spark 进行处理、Airflow 进行编排、Docker 进行容器化、S3 进行存储,Python 作为主要脚本语言。
大数据杂货铺
2023/11/27
1.3K0
用 Kafka、Spark、Airflow 和 Docker 构建数据流管道指南
一文搞定现网项目最新版本Redis7集群800节点实践案例总结
截至目前本人接触到的最大Redis7集群节点规模已达800+,Redis官方宣称最大集群节点规模可达1000。本文以最小规模集群为例,进行完整的项目实践总结记录。欢迎关注微信公众号:大数据从业者
用户9421738
2024/08/01
2010
一文搞定现网项目最新版本Redis7集群800节点实践案例总结
震惊!StructuredStreaming整合Kafka和MySQL原来这么简单?
上一篇博客博主已经为大家从发展史到基本实战为大家详细介绍了StructedStreaming(具体请见:《看了这篇博客,你还敢说不会Structured Streaming?》)。本篇博客,博主将紧随前沿,为大家带来关于StructuredStreaming整合Kafka和MySQL的教程。
大数据梦想家
2021/01/27
8060
震惊!StructuredStreaming整合Kafka和MySQL原来这么简单?
logstash的各个场景应用(配置文件均已实践过)
1) datasource->logstash->elasticsearch->kibana
Jetpropelledsnake21
2019/05/19
3.8K0
推荐阅读
相关推荐
MySQL Binlog 解析工具 Maxwell 详解
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档