MySQL高性能实现Canal数据同步神器
简介
Canal是阿里巴巴基于Java开源的数据同步工具。平时业务场景使用比较多的如下:
同步数据到ES、Redis缓存中。
数据同步。
业务需要监听数据。
图片来源阿里巴巴github仓库:https://github.com/alibaba/canal
配置MySQL
跟配置主从复制类似。
数据执行如下命令:
-- 给canal单独创建用户 用户名:canal 密码:123456 create user 'canal'@'%' identified by '123456'; -- 授权只能查询 *.*表示所有库 grant SELECT, REPLICATION SLAVE, REPLICATION CLIENT on *.* to 'canal'@'%' identified by '123456';
修改数据库配置文件:
vim /etc/mysql/conf.d/my.cnf
my.cnf内容如下:
[mysqld] # 服务器id(一般都配置成服务器IP) server_id=156 # 开启日志文件 log-bin=mysql-bin # 选择ROW(行)模式 binlog-format=ROW
重启MySQL
查询日志文件名和偏移量
SHOW MASTER STATUS;
centos7 安装 canal
下载地址:https://github.com/alibaba/canal/releases/tag/canal-1.1.5
命令行下载
wget https://github.com/alibaba/canal/releases/download/canal-1.1.5/canal.deployer-1.1.5.tar.gz
解压
tar -xvf canal.deployer-1.1.5.tar.gz
编辑 conf/example/instance.properties文件
## mysql serverId , v1.0.26+ will autoGen ## v1.0.26版本后会自动生成slaveId,所以可以不用配置 # canal.instance.mysql.slaveId=0 # 数据库地址 canal.instance.master.address=192.168.126.156:3306 # binlog日志名称 canal.instance.master.journal.name=mysql-bin.000007 # mysql主库链接时起始的binlog偏移量 canal.instance.master.position=154 # mysql主库链接时起始的binlog的时间戳 canal.instance.master.timestamp= canal.instance.master.gtid= # username/password # 在MySQL服务器授权的账号密码 canal.instance.dbUsername=canal canal.instance.dbPassword=123456 # 字符集 canal.instance.connectionCharset = UTF-8 # enable druid Decrypt database password canal.instance.enableDruid=false # table regex .*\\..*表示监听所有表 也可以写具体的表名,用,隔开 canal.instance.filter.regex=.*\\..* # mysql 数据解析表的黑名单,多个表用,隔开 canal.instance.filter.black.regex=
启动
./bin/startup.sh
jps 查看进程
[root@localhost canal]# jps 7472 Jps 5371 CanalLauncher
java客户端
pom.xml 依赖
<dependency> <groupId>com.alibaba.otter</groupId> <artifactId>canal.client</artifactId> <version>1.1.4</version> </dependency>
客户端代码
package com.terry.test; import com.alibaba.otter.canal.client.CanalConnector; import com.alibaba.otter.canal.client.CanalConnectors; import com.alibaba.otter.canal.protocol.CanalEntry; import com.alibaba.otter.canal.protocol.Message; import static com.alibaba.otter.canal.protocol.CanalEntry.*; import static com.alibaba.otter.canal.protocol.CanalEntry.EntryType.TRANSACTIONBEGIN; import java.net.InetSocketAddress; import java.util.List; /** * canal 测试 * @author terry * @version 1.0 * @date 2022/5/14 22:19 */ public class CanalTest { public static void main(String[] args) { // 创建链接 CanalConnector connector = CanalConnectors.newSingleConnector(new InetSocketAddress("192.168.126.156", 11111), "example", "", ""); try { //打开连接 connector.connect(); //订阅数据库表,全部表 connector.subscribe(".*\\..*"); //回滚到未进行ack的地方,下次fetch的时候,可以从最后一个没有ack的地方开始拿 connector.rollback(); while (true) { // 获取指定数量的数据 Message message = connector.getWithoutAck(100); //获取批量ID long batchId = message.getId(); //获取批量的数量 int size = message.getEntries().size(); //如果没有数据 if (batchId == -1 || size == 0) { System.out.println("等待数据中..."); try { //线程休眠2秒 Thread.sleep(2000); } catch (InterruptedException e) { e.printStackTrace(); } } else { //如果有数据,处理数据 printEntry(message.getEntries()); } //进行 batch id 的确认。确认之后,小于等于此 batchId 的 Message 都会被确认。 connector.ack(batchId); } } catch (Exception e) { e.printStackTrace(); } finally { connector.disconnect(); } } /** * 打印canal server解析binlog获得的实体类信息 */ private static void printEntry(List<Entry> entrys) { for (Entry entry : entrys) { if (entry.getEntryType() == TRANSACTIONBEGIN || entry.getEntryType() == EntryType.TRANSACTIONEND) { //开启/关闭事务的实体类型,跳过 continue; } //RowChange对象,包含了一行数据变化的所有特征 //比如isDdl 是否是ddl变更操作 sql 具体的ddl sql beforeColumns afterColumns 变更前后的数据字段等等 RowChange rowChage; try { rowChage = RowChange.parseFrom(entry.getStoreValue()); } catch (Exception e) { throw new RuntimeException("ERROR ## parser of eromanga-event has an error , data:" + entry.toString(), e); } //获取操作类型:insert/update/delete类型 EventType eventType = rowChage.getEventType(); //打印Header信息 System.out.println(String.format("================》; binlog[%s:%s] , name[%s,%s] , eventType : %s", entry.getHeader().getLogfileName(), entry.getHeader().getLogfileOffset(), entry.getHeader().getSchemaName(), entry.getHeader().getTableName(), eventType)); //判断是否是DDL语句 if (rowChage.getIsDdl()) { System.out.println("================》;isDdl: true,sql:" + rowChage.getSql()); } //获取RowChange对象里的每一行数据,打印出来 for (RowData rowData : rowChage.getRowDatasList()) { //如果是删除语句 if (eventType == EventType.DELETE) { printColumn(rowData.getBeforeColumnsList()); //如果是新增语句 } else if (eventType == EventType.INSERT) { printColumn(rowData.getAfterColumnsList()); //如果是更新的语句 } else { //变更前的数据 System.out.println("------->; before"); printColumn(rowData.getBeforeColumnsList()); //变更后的数据 System.out.println("------->; after"); printColumn(rowData.getAfterColumnsList()); } } } } private static void printColumn(List<CanalEntry.Column> columns) { for (CanalEntry.Column column : columns) { System.out.println(column.getName() + " : " + column.getValue() + " update=" + column.getUpdated()); } } }
日志打印输出,当数据库更改后就会接收到消息。
等待数据中...
等待数据中...
================》; binlog[mysql-bin.000007:345] , name[test,t_user_0] , eventType : INSERT
id : 5 update=true
name : 王五 update=true
等待数据中...
等待数据中...
参考文献:
https://blog.csdn.net/yehongzhi1994/article/details/107880162
https://github.com/alibaba/canal
到此这篇关于MySQL高性能实现Canal数据同步神器的文章就介绍到这了,更多相关MySQL Canal数据同步内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!
相关文章
MySQL分表实现上百万上千万记录分布存储的批量查询设计模式详解
本篇文章是对使用MySQL分表实现上百万上千万记录分布存储的批量查询设计模式进行了详细的分析介绍,需要的朋友参考下2013-06-06MySQL NDB Cluster关于Nginx stream的负载均衡配置方式
这篇文章主要介绍了MySQL NDB Cluster关于Nginx stream的负载均衡配置方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教2024-05-05
最新评论