本文目录
一、环境准备
二、安装DBLE
三、配置DBLE
四、总结
环境准备
DBLE 项目资料
DBLE 是企业级开源分布式中间件,江湖人送外号 “MyCat Plus”;以其简单稳定,持续维护,良好的社区环境和广大的群众基础得到了社区的大力支持;
DBLE官方网站:
https://opensource.actionsky.com
可以详细了解DBLE的背景和应用场景,本文不涉及到的细节都可在官方文档获得更细节都信息;对于刚了解到同学,可以以本文为快速入门基础
DBLE 官方项目:
https://github.com/actiontech/dble
如对源码有兴趣或者需要定制的功能的可以通过源码编译安装
DBLE 下载地址:
https://github.com/actiontech/dble/releases
DBLE 官方社区交流群:669663113
安装 JDK 环境
DBLE 是使用 java 开发的,所以启动 DBLE 需要先在机器上安装 java 版本 1.8 或以上,并且确保 JAVA_HOME 参数被正确的设置;
这里通过 yum 源的方式安装 openjdk ,同学们可以自行 google jdk 的几百种安装方式,这里不再赘述;
bash# yum install java-1.8.0-openjdk
确认 java 环境已配置完成;
bash# java -versionopenjdk version "1.8.0_191"OpenJDK Runtime Environment (build 1.8.0_191-b12)OpenJDK 64-Bit Server VM (build 25.191-b12, mixed mode)
安装 DBLE
DBLE 的安装其实只要解压下载的目录就可以了,非常简单。
mkdir -p $working_dir cd $working_dir tar -xvf actiontech-dble-$version.tar.gz cd $working_dir/dble/conf
安装完成后,目录如下:
配置 DBLE
DBLE 的配置文件都在 conf 目录里面,这里介绍几个常用的文件:
应用场景一:数据拆分
▽ 后端 MySQL 节点
DBLE 的架构其实很好理解,DBLE 是代理中间件,DBLE 后面就是物理数据库。对于使用者来说,访问的都是 DBLE,不会接触到后端的数据库。
我们先演示简单的数据拆分的功能。物理部署结构如下表:
备注:为了演示简单,这里将实例都部署在了一台机器上并用不同端口做区分,同学们也可以用三台机器来做环境搭建。
在MySQL A和MySQL B中创建库表testdb.users来方便后续的验证,表结构如下:
CREATE TABLE `users` (`id` int(11) NOT NULL,`user` varchar(20) DEFAULT NULL,PRIMARY KEY (`id`)) ENGINE=InnoDB DEFAULT CHARSET=latin1
server.xml 里可以配置跟 DBLE 自身相关的许多参数,这里重点只关注下面这段访问用户相关的配置,其他默认即可;
第一段 “< system >” 为 DBLE 的服务端口(默认8066)和管理端口(默认9066)的配置
第二段“< user >”配置管理理用户,默认为 man1,密码为 654321
第三段“< user >”配置业务用户,配置了一个账号 test 密码 password,针对数据库 testdb,读写权限都有,没有针对表做任何特殊的权限,故把表配置做了注释
...
<system>...<!-- property name="serverPort">8066</property> --><!--<property name="managerPort">9066</property> -->...</system><user name="man1"><property name="password">654321</property><property name="manager">true</property><!-- manager user can't set schema--></user>
<user name="test"><property name="password">password</property><property name="schemas">testdb</property>
<!-- table's DML privileges INSERT/UPDATE/SELECT/DELETE --><!-- <privileges check="false"> <schema name="TESTDB" dml="0110" > <table name="tb01" dml="0000"></table> <table name="tb02" dml="1111"></table> </schema> </privileges> --></user>...
schema.xml 是最主要的配置项,我们将 users 用户表按照取模的方式平均拆分到了 MySQL A 和 MySQL B 两个数据数据库实例上, 详细请看配置文件:
<?xml version="1.0"?><!DOCTYPE dble:schema SYSTEM "schema.dtd"><dble:schema xmlns:dble="http://dble.cloud/">
<schema name="testdb"><table name="users" primaryKey="ID" dataNode="dn1,dn2" rule="sharding-by-mod2" /></schema>
<!-- 分片配置 --><dataNode name="dn1" dataHost="Group1" database="testdb"/><dataNode name="dn2" dataHost="Group2" database="testdb"/>
<!-- 物理数据库配置 --><dataHost name="Group1" maxCon="1000" minCon="10" balance="0" switchType="1" slaveThreshold="100"><heartbeat>show slave status</heartbeat><writeHost host="MySQLA" url="172.16.3.1:14014" user="test" password="password"/></dataHost>
<dataHost name="Group2" maxCon="1000" minCon="10" balance="0" switchType="1" slaveThreshold="100"><heartbeat>show slave status</heartbeat><writeHost host="MySQLA" url="172.16.3.1:14015" user="test" password="password"/></dataHost></dble:schema>
· schema 逻辑数据库信息,此数据库为逻辑数据库,name 与 server.xml 中 schema对应; · dataNode 分片信息,此为分片节点的定义;分片名字和schema的dataNode对应;分片与下面的dataHost 物理实例进行关联;
· dataHost 物理实例组信息,dataHost下可以挂载同组的读写物理实例节点,实现高可用或者读写分离;
每个节点的重点属性逐一说明:
属性说明 :
· name 逻辑数据库名,与 server.xml 中的 schema 对应;
· table:
子属性说明 :
- name 表名,物理数据库中表名
- dataNode 表存储到哪些节点,多个节点用逗号分隔
- primaryKey 主键,用于主键缓存和自增识别,不作主键约束
- autoIncrement 是否自增
- rule 分片规则名,具体规则下文 rule 详细介绍
属性说明:
· name 节点名,与 table 中 dataNode 对应
· datahost 物理实例组名,与 datahost 中 name 对应
· database 物理数据库中数据库名;
属性说明:
· name 物理数据库名,与 dataNode 中 dataHost 对应
· balance 均衡负载的方式
· switchtype 写节点的高可用切换方式;等于1时,心跳不健康发生切换
· heartbeat 心跳检测语句,注意语句结尾的分号要加
· writehost 写物理实例
子属性说明 :
- host 物理实例名
- url 物理库IP+Port
- user 物理库用户
- password 物理库密码
主要关注 rule 属性,rule 属性的内容来源于 rule.xml 这个文件,DBLE 支持多种分表分库的规则,基本能满足你所需要的要求。
table 中的 rule 属性对应的就是 rule.xml 文件中 tableRule 的 name, 具体有哪些拆分算法实现,建议还是看下文档。我这里选择的 sharding-by-mod2,是 hash算法的特例,就是将数据平均拆分。因为我后端是两台物理库,所以 rule.xml中hashmod2 对应的 partitionCountt 为 2 ,配置如下:
<tableRule name="sharding-by-mod2"><rule><columns>id</columns><algorithm>hashmod2</algorithm></rule></tableRule><function name="hashmod2" class="Hash"><property name="partitionCount">2</property><property name="partitionLength">1</property></function>
## 进入DBLE安装目录,执行start命令./bin/dble start
## DBLE启动会自动加载配置,需确认进程是否正常启动,如启动失败,建议按照日志报错排查问题,正确启动日志如下:STATUS | wrapper | 2019/01/21 17:31:43 | --> Wrapper Started as DaemonSTATUS | wrapper | 2019/01/21 17:31:43 | Launching a JVM...INFO | jvm 1 | 2019/01/21 17:31:43 | OpenJDK 64-Bit Server VM warning: ignoring option MaxPermSize=64M; support was removed in 8.0INFO | jvm 1 | 2019/01/21 17:31:44 | Wrapper (Version 3.2.3) http://wrapper.tanukisoftware.orgINFO | jvm 1 | 2019/01/21 17:31:44 | Copyright 1999-2006 Tanuki Software, Inc. All Rights Reserved.INFO | jvm 1 | 2019/01/21 17:31:44 |INFO | jvm 1 | 2019/01/21 17:31:45 | Server startup successfully. see logs in logs/dble.log
mysql -P8066 -h 127.0.0.1 -utest -ppassword
mysql> insert into users(id,user) values(1,"zhangsan");Query OK, 1 row affected (0.09 sec)mysql> insert into users(id,user) values(2,"lisi");Query OK, 1 row affected (0.09 sec)
mysql> explain select * from users;+-----------+----------+---------------------+| DATA_NODE | TYPE | SQL/REF |+-----------+----------+---------------------+| dn1 | BASE SQL | select * from users || dn2 | BASE SQL | select * from users |+-----------+----------+---------------------+2 rows in set (0.00 sec)
mysql> select * from users;+----+----------+| id | user |+----+----------+| 2 | lisi || 1 | zhangsan |+----+----------+2 rows in set (0.01 sec)
# mysql -P14014 -h 127.0.0.1 -utest -ppasswordmysql> select * from users;+----+----------+| id | user |+----+----------+| 2 | lisi |+----+----------+1 rows in set (0.01 sec)
# mysql -P14015 -h 127.0.0.1 -utest -ppasswordmysql> select * from users;+----+----------+| id | user |+----+----------+| 1 | zhangsan |+----+----------+1 rows in set (0.01 sec)
从上面的验证流程,往 DBLE 插入的数据,会按照取模的方式下发到真实的物理库,来实现数据库的自动分片;同时通过 DBLE 下发的查询会被 DBLE 自动下发给实际的物理库,合并返回给客户端,可以通过 explain 执行计划观察到下发的实际下发给物理库的 SQL 语句。
应用场景二:读写分离
DBLE 除了做数据的分片功能外,也支持读写分离功能;开启读写分离功能后,可以将主实例上的读压力负载给原本 stand by 的从实例,从而扩展整个集群的吞吐能力;
我们再通过示例,演示 DBLE 的读写分离的功能。物理部署结构如下表:
备注:为了演示简单,这里将实例都部署在了一台机器上并用不同端口做区分,同学们也可以用三台机器来做环境搭建。
此场景中,我们将 MySQL A 和 MySQL B 搭建成主从复制关系,同时我们只变更schema.xml 的配置来完成读写分离的架构;
<?xml version="1.0"?><!DOCTYPE dble:schema SYSTEM "schema.dtd"><dble:schema xmlns:dble="http://dble.cloud/">
<schema name="testdb"></schema>
<!-- 分片配置 --><dataNode name="dn1" dataHost="Group1" database="testdb"/>
<!-- 物理数据库配置 --><dataHost name="Group1" maxCon="1000" minCon="10" balance="3" switchType="1" slaveThreshold="100"><heartbeat>show slave status</heartbeat><writeHost host="MySQLA" url="172.16.3.1:14014" user="test" password="password"><readHost host="MySQLB" url="172.16.3.1:14015" user="test" password="password"/></writeHost> </dataHost></dble:schema>
DBLE 通过 balance 参数来控制读写分离的负载策略,写节点是否参与均衡与 datahost 的 balance 属性有关,本案例中我们将值调整为 balance=”3” ,并定义了 writeHost 和 readHost。
balance 的定义具体见下图:
通过 DBLE 管理入口 9066 登陆数据库,注意这里我们通过管理入口的 show @@datasource 来验证读写分离的状态的正确性;
session 1:
session 2:
session 1:
从 show @@datasource; 这个管理命令上我们能够观测到 READ_LOAD 在 slave节点上计数器增加了 5 次,也就是说读流量顺利的下发到了 slave 节点;当然大家也可以通过打开 MySQL 的 general log 来观测读写分离的情况。