MySQL高性能实现Canal数据同步神器

 更新时间:2022年08月11日 15:00:35   作者:terrybg  
本文主要介绍了MySQL高性能实现Canal数据同步神器,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧

简介

Canal是阿里巴巴基于Java开源的数据同步工具。平时业务场景使用比较多的如下:

同步数据到ES、Redis缓存中。

数据同步。

业务需要监听数据。

图片来源阿里巴巴github仓库:https://github.com/alibaba/canal

配置MySQL

跟配置主从复制类似。

数据执行如下命令:

-- 给canal单独创建用户 用户名:canal 密码:123456
create user 'canal'@'%' identified by '123456';
-- 授权只能查询 *.*表示所有库
grant SELECT, REPLICATION SLAVE, REPLICATION CLIENT on *.* to 'canal'@'%' identified by '123456';

修改数据库配置文件:

vim /etc/mysql/conf.d/my.cnf

my.cnf内容如下:

[mysqld]
# 服务器id(一般都配置成服务器IP)
server_id=156
# 开启日志文件
log-bin=mysql-bin
# 选择ROW(行)模式
binlog-format=ROW

重启MySQL

查询日志文件名和偏移量

SHOW MASTER STATUS;

centos7 安装 canal

下载地址:https://github.com/alibaba/canal/releases/tag/canal-1.1.5

命令行下载

wget https://github.com/alibaba/canal/releases/download/canal-1.1.5/canal.deployer-1.1.5.tar.gz

解压

tar -xvf canal.deployer-1.1.5.tar.gz

编辑 conf/example/instance.properties文件

## mysql serverId , v1.0.26+ will autoGen
## v1.0.26版本后会自动生成slaveId,所以可以不用配置
# canal.instance.mysql.slaveId=0

# 数据库地址
canal.instance.master.address=192.168.126.156:3306
# binlog日志名称
canal.instance.master.journal.name=mysql-bin.000007
# mysql主库链接时起始的binlog偏移量
canal.instance.master.position=154
# mysql主库链接时起始的binlog的时间戳
canal.instance.master.timestamp=
canal.instance.master.gtid=

# username/password
# 在MySQL服务器授权的账号密码
canal.instance.dbUsername=canal
canal.instance.dbPassword=123456
# 字符集
canal.instance.connectionCharset = UTF-8
# enable druid Decrypt database password
canal.instance.enableDruid=false

# table regex .*\\..*表示监听所有表 也可以写具体的表名,用,隔开
canal.instance.filter.regex=.*\\..*
# mysql 数据解析表的黑名单,多个表用,隔开
canal.instance.filter.black.regex=

启动

./bin/startup.sh

jps 查看进程

[root@localhost canal]# jps
7472 Jps
5371 CanalLauncher

java客户端

pom.xml 依赖

<dependency>
    <groupId>com.alibaba.otter</groupId>
    <artifactId>canal.client</artifactId>
    <version>1.1.4</version>
</dependency>

客户端代码

package com.terry.test;

import com.alibaba.otter.canal.client.CanalConnector;
import com.alibaba.otter.canal.client.CanalConnectors;
import com.alibaba.otter.canal.protocol.CanalEntry;
import com.alibaba.otter.canal.protocol.Message;
import static com.alibaba.otter.canal.protocol.CanalEntry.*;
import static com.alibaba.otter.canal.protocol.CanalEntry.EntryType.TRANSACTIONBEGIN;

import java.net.InetSocketAddress;
import java.util.List;

/**
 * canal 测试
 * @author terry
 * @version 1.0
 * @date 2022/5/14 22:19
 */
public class CanalTest {
    public static void main(String[] args) {

        // 创建链接
        CanalConnector connector = CanalConnectors.newSingleConnector(new InetSocketAddress("192.168.126.156", 11111), "example", "", "");
        try {
            //打开连接
            connector.connect();
            //订阅数据库表,全部表
            connector.subscribe(".*\\..*");
            //回滚到未进行ack的地方,下次fetch的时候,可以从最后一个没有ack的地方开始拿
            connector.rollback();
            while (true) {
                // 获取指定数量的数据
                Message message = connector.getWithoutAck(100);
                //获取批量ID
                long batchId = message.getId();
                //获取批量的数量
                int size = message.getEntries().size();
                //如果没有数据
                if (batchId == -1 || size == 0) {
                    System.out.println("等待数据中...");
                    try {
                        //线程休眠2秒
                        Thread.sleep(2000);
                    } catch (InterruptedException e) {
                        e.printStackTrace();
                    }
                } else {
                    //如果有数据,处理数据
                    printEntry(message.getEntries());
                }
                //进行 batch id 的确认。确认之后,小于等于此 batchId 的 Message 都会被确认。
                connector.ack(batchId);
            }
        } catch (Exception e) {
            e.printStackTrace();
        } finally {
            connector.disconnect();
        }
    }
    /**
     * 打印canal server解析binlog获得的实体类信息
     */
    private static void printEntry(List<Entry> entrys) {
        for (Entry entry : entrys) {
            if (entry.getEntryType() == TRANSACTIONBEGIN || entry.getEntryType() == EntryType.TRANSACTIONEND) {
                //开启/关闭事务的实体类型,跳过
                continue;
            }
            //RowChange对象,包含了一行数据变化的所有特征
            //比如isDdl 是否是ddl变更操作 sql 具体的ddl sql beforeColumns afterColumns 变更前后的数据字段等等
            RowChange rowChage;
            try {
                rowChage = RowChange.parseFrom(entry.getStoreValue());
            } catch (Exception e) {
                throw new RuntimeException("ERROR ## parser of eromanga-event has an error , data:" + entry.toString(), e);
            }
            //获取操作类型:insert/update/delete类型
            EventType eventType = rowChage.getEventType();
            //打印Header信息
            System.out.println(String.format("================》; binlog[%s:%s] , name[%s,%s] , eventType : %s",
                    entry.getHeader().getLogfileName(), entry.getHeader().getLogfileOffset(),
                    entry.getHeader().getSchemaName(), entry.getHeader().getTableName(),
                    eventType));
            //判断是否是DDL语句
            if (rowChage.getIsDdl()) {
                System.out.println("================》;isDdl: true,sql:" + rowChage.getSql());
            }
            //获取RowChange对象里的每一行数据,打印出来
            for (RowData rowData : rowChage.getRowDatasList()) {
                //如果是删除语句
                if (eventType == EventType.DELETE) {
                    printColumn(rowData.getBeforeColumnsList());
                    //如果是新增语句
                } else if (eventType == EventType.INSERT) {
                    printColumn(rowData.getAfterColumnsList());
                    //如果是更新的语句
                } else {
                    //变更前的数据
                    System.out.println("------->; before");
                    printColumn(rowData.getBeforeColumnsList());
                    //变更后的数据
                    System.out.println("------->; after");
                    printColumn(rowData.getAfterColumnsList());
                }
            }
        }
    }

    private static void printColumn(List<CanalEntry.Column> columns) {
        for (CanalEntry.Column column : columns) {
            System.out.println(column.getName() + " : " + column.getValue() + "    update=" + column.getUpdated());
        }
    }
}

日志打印输出,当数据库更改后就会接收到消息。

等待数据中...
等待数据中...
================》; binlog[mysql-bin.000007:345] , name[test,t_user_0] , eventType : INSERT
id : 5    update=true
name : 王五    update=true
等待数据中...
等待数据中...

参考文献:

https://blog.csdn.net/yehongzhi1994/article/details/107880162

https://github.com/alibaba/canal

到此这篇关于MySQL高性能实现Canal数据同步神器的文章就介绍到这了,更多相关MySQL Canal数据同步内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • MySQL分表实现上百万上千万记录分布存储的批量查询设计模式详解

    MySQL分表实现上百万上千万记录分布存储的批量查询设计模式详解

    本篇文章是对使用MySQL分表实现上百万上千万记录分布存储的批量查询设计模式进行了详细的分析介绍,需要的朋友参考下
    2013-06-06
  • Windows下安装MySQL5.5.19图文教程

    Windows下安装MySQL5.5.19图文教程

    这篇文章主要介绍了Windows下安装MySQL5.5.19图文教程,非常详细,对每一步都做了说明,需要的朋友可以参考下
    2014-07-07
  • MySQL数据误删除的快速解决方法(MySQL闪回工具)

    MySQL数据误删除的快速解决方法(MySQL闪回工具)

    Binlog2sql是一个Python开发开源的MySQL Binlog解析工具,能够将Binlog解析为原始的SQL,也支持将Binlog解析为回滚的SQL,去除主键的INSERT SQL,是DBA和运维人员数据恢复好帮手,下面小编通过教程给大介绍MySQL数据误删除的快速解决方法,一起看看吧
    2019-10-10
  • 深入理解MySQL事务的4种隔离级别

    深入理解MySQL事务的4种隔离级别

    本文主要介绍了MySQL事务的4种隔离级别,事务的4种隔离级别分别是读未提交,读已提交,可重复读和串行化,具有一定的参考价值,感兴趣的可以了解一下
    2022-04-04
  • 初步介绍MySQL中的集合操作

    初步介绍MySQL中的集合操作

    这篇文章主要介绍了初步的MySQL中的集合操作,即UNION DISTINCT和UNION ALL两个命令,需要的朋友可以参考下
    2015-04-04
  • 浅析mysql索引

    浅析mysql索引

    数据库索引是一种数据结构,目的是提高表的操作速度,下面通过本文给大家分享mysql索引的相关知识,感兴趣的朋友一起看看吧
    2017-10-10
  • MySQL 选择合适的存储引擎

    MySQL 选择合适的存储引擎

    这篇文章主要介绍了MySQL如何选择合适的存储引擎,帮助大家更好的理解和使用MySQL数据库,感兴趣的朋友可以了解下
    2020-09-09
  • 解析如何加快mysql编译的速度

    解析如何加快mysql编译的速度

    本篇文章是对如何加快mysql编译的速度进行了详细的分析介绍,需要的朋友参考下
    2013-06-06
  • MySQL中int(10)和int(11)的区别详解

    MySQL中int(10)和int(11)的区别详解

    本文主要介绍了MySQL中int(10)和int(11)的区别详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2023-03-03
  • MySQL NDB Cluster关于Nginx stream的负载均衡配置方式

    MySQL NDB Cluster关于Nginx stream的负载均衡配置方式

    这篇文章主要介绍了MySQL NDB Cluster关于Nginx stream的负载均衡配置方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教
    2024-05-05

最新评论