00:00
你好,我是杨思政。今天,我们开始搭建卡夫卡2.8.0版本的源码环境。首先我们要安装一下JDK。JDK我们这里安装JDK8就可以了,现在JDK的最新版本已经到了16了。但是国内的生产环境大部分还是停留在八这个版本上。首先我们到JDK这个下载的地址去下载一下。呃,这里下载完成之后,双击这个DMG的文件,一直点下一步就可以安装完成。我可以安,看到安装完了之后,在这个目录下面。接下来我们下载LA的话,我们这里用的是2.13.1这个版本。下载地址呢,我们也放到了博客里边,下载完之后我们进行解压,解压之后的目录位于这里。下压之后就是这个目录结构。
01:03
接下来我们下载grid。卡普卡的代码依赖是通过进行管理的,我们这里下载的是6.8这个压缩包啊,下载的地址我们也放在了博客里边。下载完成之后,我们直接解压即可。下载之后呢。下载之后我们解压到这个目录下面。解压之后就是这个目录格式。安装完JDKSC以及之后,我们打开命令行,然后打开batch profile这个文件。我们。那我们输入密码。要修改这个文件的话,我们必须使用管理员的身份,所以说使用速度命令。这里我们添加几个环境变量,一个是Java home,一个是home,一个是home。
02:01
啊,我们这里已经添加完了,添加完之后,然后需要把这几个变量添加到pass里边,我们可以看到这里添加了Java。然后还有go,还有scar。啊,我们都是把他们的B目录添加到pass里面去。添加完成之后我们执行。考虑QQ命令进行保存。然后执行source。刷新一下这个文件。接下来呢,我们就可以通过。Sarra version来查看我们安装好的JDK的版本,也可以通过sclawa命令。来看一下SC的版本。也可以通过命令。来看一下G的版本。接下来我们安装一下组keepper,在卡普卡2.8.0版本之前,卡普卡是强依赖组keepper来存储原数据信息的。卡普卡不在强依赖组keepper,而是自己实现了rift协议来存储原数据。
03:09
这里我们依旧搭建一个组keepper的环境,首先我们去组keepper官网下载3.6.3这个版本的组keepper,具体的地址是这里。下载完成之后,我们直接解压这个压缩包,解压的目录我们来看一下。解压之后目录结构是这样的。然后我们来到它的。目录下面。我们拷贝一下,祝simple点。CFG这个文件,将它拷贝成驻点CFG,最后我们进入zoo keepper home的并目录下。执行ZK shell这个命令,启动组keeper服务。正常启动之后,我们可以看到这样的输出。
04:02
接下来我们开始下载卡卡的源码。首先我们执行gitin下载。卡夫卡的源码。下载完成之后,我们进入卡夫卡源码目录,执行get checkout命令,剪出2.8.0这个分支。检出之后,我们可以看到这个目录结构。为了将卡夫卡源码导入到IDE编辑器中,我们需要执行IDE这个命令。这个命令会下载卡夫卡的相关依赖,执行时间也会比较长。这里我们执行一下。因为之前我们已经执行过了,所以说这里执行的比较快,执行完成之后,我们可以看到be successful这个输出。
05:05
接下来,我们将卡夫卡源码导入到IDE中。导入之后,我们可以看到这个项目结构。在卡夫卡中,很多request和response类都是在编译过程中生成的。下面我们需要执行这条命令来生成这些类。这一条命令的执行时间也会比较长。因为之前执行过一次,所以说这里的执行速度也比较快,执行完成之后,我们也可以看到build successful这个输出。当这条命令执行完成之后,我们需要在IDE中找到生成的代码,并将它添加到class pass之中。首先是CS这个模块。然后是call这个模块。
06:02
还有ma data这个模块。最后是RA这个模块。下面我们来检验一下卡夫卡源码环境是否搭建成功。首先,我们将。com目录下的log.proper配置文件拷贝到我们。com模块的SKY目录下。首先我们要拷贝这个文件。这文件要拷贝到。这个弄下。
07:00
然后修改com目录下的server.proper配置文件,将其中的log.d配置下指向卡夫卡源码目录的卡夫卡杠X目录。好,主要是修改这一项。修改完成之后,我们开始配置卡普卡这个入口类,然后启动卡普卡broker。这里配置卡卡启动类。这里我们指定serve pro配置文件。然后use class of Mo,选择call这个模块。然后启动卡不卡。启动完成之后,我们在控制台可以看到started这个字样。这表明我们的broker已经启动成功了。
08:00
如果启动过程中遇到了问题,那么下面给出了相应的解决方案。接下来我们使用卡夫卡自带的脚本工具来验证上面搭建的kaka broker是否可用。首先,我们进入到kaka home的并目录下,通过kakas命令来创建一个topic。这里我们创建topic成功之后。会有这样的输出。接下来我们通过kafka cons consumer。启动一个命令行的consumer来消费上面创建的这个topic。当命令行的consumer启动之后,这个命令行就会放在这里。等待这个topic中有消息出现,这样的话,这个consumer才能进行消费。
09:07
然后我们通过卡夫卡councilo producer启动一个命令行的R,向上面这个topic发送消息。启动成功之后,我们的producer也会放在这里,等待我们输入message。这里我们输入了。消息的K和value。消息的K和value之间通过制表符进行分隔。接下来我们再来看consumer这一段。我们可以看到这里成功消费到了消息。本课时我们重点介绍了卡夫卡2.8.0版本的源码环境搭建。
10:03
首先,我们下载并安装了jdk gro等基础软件,并配置了它们的环境变量。然后我们安装了zoo keepper,并启动了zoo keeper服务。接下来,我们通过gate命令下载了最新的卡夫卡源码,并进行了编译。最后,我们通过kaka自带的命令行producer和consumer完成了消息的发送和消费。同时也验证了我们搭建的卡夫卡源码环境。感谢同学们的观看。本课程相关的文章和视频还会放到我的微信订阅号。抖音以及B站上。感谢大家的观看。下一刻是再见。
我来说两句