最近在工作中,遇到了这样一个业务场景,我们需要关注一个业务系统数据库中某几张表的数据,当数据发生新增或修改时,将它同步到另一个业务系统数据库中的表中。
一提到数据库的同步,估计大家第一时间想到的就是基于binlog
的主从复制了,但是放在我们的场景中,还有几个问题:
这样的话,我们只能通过代码的方式,首先获取到数据库1表中数据的变动,再通过手动映射的方式,插入到数据库2的表中。但是,获取变动数据的这一过程,还是离不开binlog
,因此我们就需要在代码中对binlog
进行一下监控。
先说结论,我们最终使用了一个开源工具mysql-binlog-connector-java
,用来监控binlog
变化并获取数据,获取数据后再手动插入到另一个库的表中,基于它来实现了数据表的同步。项目的git地址如下:
https://github.com/shyiko/mysql-binlog-connector-java
在正式开始前,还是先简单介绍一下mysql
的binlog
,binlog
是一个二进制文件,它保存在磁盘中,是用来记录数据库表结构变更、表数据修改的二进制日志。其实除了数据复制外,它还可以实现数据恢复、增量备份等功能。
启动项目前,首先需要确保mysql
服务已经启用了binlog
:
show variables like 'log_bin';
如果为值为OFF
,表示没有启用,那么需要首先启用binlog
,修改配置文件:
log_bin=mysql-bin binlog-format=ROW server-id=1
对参数做一个简要说明:
log_bin
配置项后,表示启用了binlog
binlog-format
是binlog
的日志格式,支持三种类型,分别是STATEMENT
、ROW
、MIXED
,我们在这里使用ROW
模式server-id
用于标识一个sql语句是从哪一个server
写入的,这里一定要进行设置,否则我们在后面的代码中会无法正常监听到事件在更改完配置文件后,重启mysql
服务。再次查看是否启用binlog
,返回为ON
,表示已经开启成功。
在Java项目中,首先引入maven
坐标:
<dependency> <groupId>com.github.shyiko</groupId> <artifactId>mysql-binlog-connector-java</artifactId> <version>0.21.0</version> </dependency>
写一段简单的示例,看看它的具体使用方式:
public static void main(String[] args) { BinaryLogClient client = new BinaryLogClient("127.0.0.1", 3306, "hydra", "123456"); client.setServerId(2); client.registerEventListener(event -> { EventData data = event.getData(); if (data instanceof TableMapEventData) { System.out.println("Table:"); TableMapEventData tableMapEventData = (TableMapEventData) data; System.out.println(tableMapEventData.getTableId()+": ["+tableMapEventData.getDatabase() + "-" + tableMapEventData.getTable()+"]"); } if (data instanceof UpdateRowsEventData) { System.out.println("Update:"); System.out.println(data.toString()); } else if (data instanceof WriteRowsEventData) { System.out.println("Insert:"); System.out.println(data.toString()); } else if (data instanceof DeleteRowsEventData) { System.out.println("Delete:"); System.out.println(data.toString()); } }); try { client.connect(); } catch (IOException e) { e.printStackTrace(); } }
首先,创建一个BinaryLogClient
客户端对象,初始化时需要传入mysql
的连接信息,创建完成后,给客户端注册一个监听器,来实现它对binlog
的监听和解析。在监听器中,我们暂时只对4种类型的事件数据进行了处理,除了WriteRowsEventData
、DeleteRowsEventData
、UpdateRowsEventData
对应增删改操作类型的事件数据外,还有一个TableMapEventData
类型的数据,包含了表的对应关系,在后面的例子中再具体说明。
在这里,客户端监听到的是数据库级别的所有事件,并且可以监听到表的DML
语句和DDL
语句,所以我们只需要处理我们关心的事件数据就行,否则会收到大量的冗余数据。
启动程序,控制台输出:
com.github.shyiko.mysql.binlog.BinaryLogClient openChannelToBinaryLogStream 信息: Connected to 127.0.0.1:3306 at mysql-bin.000002/1046 (sid:2, cid:10)
连接mysql的binlog
成功,接下来,我们在数据库中插入一条数据,这里操作的数据库名字是tenant
,表是dept
:
insert into dept VALUES(8,"人力","","1");
这时,控制台就会打印监听到事件的数据:
Table: 108: [tenant-dept] Insert: WriteRowsEventData{tableId=108, includedColumns={0, 1, 2, 3}, rows=[ [8, 人力, , 1] ]}
我们监听到的事件类型数据有两类,第一类是TableMapEventData
,通过它可以获取操作的数据库名称、表名称以及表的id
。之所以我们要监听这个事件,是因为之后监听的实际操作中返回数据中包含了表的id
,而没有表名等信息,所以如果我们想知道具体的操作是在哪一张表的话,就要先维护一个id
与表的对应关系。
第二个打印出来的监听事件数据是WriteRowsEventData
,其中记录了insert
语句作用的表,插入涉及到的列,以及实际插入的数据。另外,如果我们只需要对特定的一张或几张表进行处理的话,也可以提前设置表的名单,在这里根据表id
到表名的映射关系,实现数据的过滤,
接下来,我们再执行一条update
语句:
update dept set tenant_id=3 where id=8 or id=9
控制台输出:
Table: 108: [tenant-dept] Update: UpdateRowsEventData{tableId=108, includedColumnsBeforeUpdate={0, 1, 2, 3}, includedColumns={0, 1, 2, 3}, rows=[ {before=[8, 人力, , 1], after=[8, 人力, , 3]}, {before=[9, 人力, , 1], after=[9, 人力, , 3]} ]}
在执行update
语句时,可能会作用于多条数据,因此在实际修改的数据中,可能包含多行记录,这一点体现在上面的rows
中,包含了id
为8和9的两条数据。
最后,再执行一条delete
语句:
delete from dept where tenant_id=3
控制台打印如下,rows
中同样返回了生效的两条数据:
Table: 108: [tenant-dept] Delete: DeleteRowsEventData{tableId=108, includedColumns={0, 1, 2, 3}, rows=[ [8, 人力, , 3], [9, 人力, , 3] ]}
简单的使用原理介绍完成后,再回到我们原先的需求上,需要将一张表中新增或修改的数据同步到另一张表中,问题还有一个,就是如何将返回的数据对应到所在的列上。这时应该怎么实现呢?以update
操作为例,我们要对提取的数据后进行一下处理,更改上面例子中的方法:
if (data instanceof UpdateRowsEventData) { System.out.println("Update:"); UpdateRowsEventData updateRowsEventData = (UpdateRowsEventData) data; for (Map.Entry<Serializable[], Serializable[]> row : updateRowsEventData.getRows()) { List<Serializable> entries = Arrays.asList(row.getValue()); System.out.println(entries); JSONObject dataObject = getDataObject(entries); System.out.println(dataObject); } }
在将data
类型强制转换为UpdateRowsEventData
后,可以使用getRows
方法获取到更新的行数据,并且能够取到每一列的值。
之后,调用了一个自己实现的getDataObject
方法,用它来实现数据到列的绑定过程:
private static JSONObject getDataObject(List message) { JSONObject resultObject = new JSONObject(); String format = "{\"id\":\"0\",\"dept_name\":\"1\",\"comment\":\"2\",\"tenant_id\":\"3\"}"; JSONObject json = JSON.parseObject(format); for (String key : json.keySet()) { resultObject.put(key, message.get(json.getInteger(key))); } return resultObject; }
在format
字符串中,提前维护了一个数据库表的字段顺序的字符串,标识了每个字段位于顺序中的第几个位置。通过上面这个函数,能够实现数据到列的填装过程,我们再执行一条update
语句来查看一下结果:
update dept set tenant_id=3,comment="1" where id=8
控制台打印结果如下:
Table: 108: [tenant-dept] Update: [8, 人力, 1, 3] {"tenant_id":3,"dept_name":"人力","comment":"1","id":8}
可以看到,将修改后的这一条记录中的属性填装到了它对应的列中,之后我们再根据具体的业务逻辑中,就可以根据字段名取出数据,将数据同步到其他的表了。
如果文章对您有所帮助,欢迎关注公众号 码农参上