Spring Boot + Canal 实现数据库实时监控

目录
  • Canal 工作原理
  • MySQL 打开 binlog 模式
  • 启动 Canal 服务
  • 后端进行相应配置
    • 修改 pom.xml
    • 新建 CanalClient.java
  • 测试

Canal 工作原理

  • Canal 模拟 MySQL slave 的交互协议,伪装自己为 MySQL slave,向 MySQL master 发送 dump 协议
  • MySQL master 收到 dump 请求,开始推送 binary log 给 slave(也就是 Canal)
  • Canal 解析 binary log 对象(原始为 byte 流)

MySQL 打开 binlog 模式

在 MySQL 配置文件 my.cnf 设置如下信息:

[mysqld]
# 打开binlog
log-bin=mysql-bin
# 选择ROW(行)模式
binlog-format=ROW
# 配置MySQL replaction需要定义,不要和canal的slaveId重复
server_id=1

改了配置文件之后,重启 MySQL,使用命令查看是否打开 binlog 模式:

SHOW VARIABLES LIKE 'log_bin';

查看 binlog 日志文件列表:SHOW BINARY LOGS;

查看当前正在写入的 binlog 文件:SHOW MASTER STATUS; 记录文件名 File 和 Position 值

启动 Canal 服务

详细配置可以参考:

conf\example\instance.properties

#################################################
## mysql serverId , v1.0.26+ will autoGen
# canal.instance.mysql.slaveId=0        //每个instance都会伪装成一个mysql slave , 此id对于canal前端的Mysql实例而言,必须是唯一的,但是同一个Canal中相同的instance,此slaveld应该一样

# enable gtid use true/false
canal.instance.gtidon=false 

# position info
canal.instance.master.address=127.0.0.1:3306    //需要连接的数据库地址及端口
canal.instance.master.journal.name=             //需要读取的起始的binlog文件
canal.instance.master.position=                 //需要读取的起始的binlog文件的偏移量
canal.instance.master.timestamp=                //需要读取的起始的binlog的时间戳
canal.instance.master.gtid=

# rds oss binlog
canal.instance.rds.accesskey=
canal.instance.rds.secretkey=
canal.instance.rds.instanceId=

# table meta tsdb info
canal.instance.tsdb.enable=true                  //v1.0.25版本新增,是否开启table meta的时间序列版本记录功能
#canal.instance.tsdb.url=jdbc:mysql://127.0.0.1:3306/canal_tsdb  //v1.0.25版本新增,table meta的时间序列版本的本地存储路径,默认为instance目录
#canal.instance.tsdb.dbUsername=canal
#canal.instance.tsdb.dbPassword=canal

#canal.instance.standby.address =
#canal.instance.standby.journal.name =
#canal.instance.standby.position =
#canal.instance.standby.timestamp =
#canal.instance.standby.gtid=

# username/password
canal.instance.dbUsername=canal                  //数据库账号
canal.instance.dbPassword=canal                  //数据库密码
canal.instance.connectionCharset = UTF-8         //数据库解析编码格式
canal.instance.defaultDatabaseName =test         //数据库连接时默认schema
# enable druid Decrypt database password
canal.instance.enableDruid=false
#canal.instance.pwdPublicKey=MFwwDQYJKoZIhvcNAQEBBQADSwAwSAJBALK4BUxdDltRRE5/zXpVEVPUgunvscYFtEip3pmLlhrWpacX7y7GCMo2/JM6LeHmiiNdH1FWgGCpUfircSwlWKUCAwEAAQ==

# table regex
canal.instance.filter.regex=.*\\..*              //mysql 数据解析关注的表,Perl正则表达式.
# table black regex
canal.instance.filter.black.regex=              //canal将会过滤那些不符合要求的table,这些table的数据将不会被解析和传送
#################################################
conf\canal.properties
#################################################
######### 		common argument		#############
#################################################
canal.id= 1                       	#每个canal server实例的唯一标识
canal.ip=                           #canal server绑定的本地IP信息,如果不配置,默认选择一个本机IP进行,
canal.port=11111                    #canal server提供socket tcp服务的端口
canal.metrics.pull.port=11112
canal.zkServers=                    #canal server链接zookeeper集群的链接信息

# flush data to zk
canal.zookeeper.flush.period = 1000 #canal持久化数据到zookeeper上的更新频率,单位毫秒
canal.withoutNetty = false

# tcp, kafka, RocketMQ
canal.serverMode = tcp

# flush meta cursor/parse position to file

canal.file.data.dir = ${canal.conf.dir}    #canal持久化数据到file上的目录

canal.file.flush.period = 1000             #canal持久化数据到file上的更新频率,单位毫秒

## memory store RingBuffer size, should be Math.pow(2,n)

canal.instance.memory.buffer.size = 16384  #canal内存store中可缓存buffer记录数,需要为2的指数
## memory store RingBuffer used memory unit size , default 1kb
canal.instance.memory.buffer.memunit = 1024  #	内存记录的单位大小,默认1KB,和buffer.size组合决定最终的内存使用大小
## meory store gets mode used MEMSIZE or ITEMSIZE
canal.instance.memory.batch.mode = MEMSIZE  #canal内存store中数据缓存模式
                                            1. ITEMSIZE : 根据buffer.size进行限制,只限制记录的数量
                                            2. MEMSIZE : 根据buffer.size * buffer.memunit的大小,限制缓存记录的大小    

canal.instance.memory.rawEntry = true	

## detecing config
canal.instance.detecting.enable = false    #是否开启心跳检查

#canal.instance.detecting.sql = insert into retl.xdual values(1,now()) on duplicate key update x=now()
canal.instance.detecting.sql = select 1        #心跳检查sql
canal.instance.detecting.interval.time = 3     #心跳检查频率,单位秒
canal.instance.detecting.retry.threshold = 3   #心跳检查失败重试次数
##非常注意:interval.time * retry.threshold值,应该参考既往DBA同学对数据库的故障恢复时间,
##“太短”会导致集群运行态角色“多跳”;“太长”失去了活性检测的意义,导致集群的敏感度降低,Consumer断路可能性增加。  

canal.instance.detecting.heartbeatHaEnable = false #心跳检查失败后,是否开启自动mysql自动切换
                                                   #说明:比如心跳检查失败超过阀值后,如果该配置为true,canal就会自动链到mysql备库获取binlog数据	false

# support maximum transaction size, more than the size of the transaction will be cut into multiple transactions delivery
canal.instance.transaction.size =  1024   #	最大事务完整解析的长度支持超过该长度后,一个事务可能会被拆分成多次提交到canal store中,无法保证事务的完整可见性

# mysql fallback connected to new master should fallback times
canal.instance.fallbackIntervalInSeconds = 60  #canal发生mysql切换时,在新的mysql库上查找            binlog时需要往前查找的时间,单位秒
说明:mysql主备库可能存在解析延迟或者时钟不统一,需要回退一段时间,保证数据不丢

# network config
canal.instance.network.receiveBufferSize = 16384  #网络链接参数,SocketOptions.SO_RCVBUF
canal.instance.network.sendBufferSize = 16384     #网络链接参数,SocketOptions.SO_SNDBUF
canal.instance.network.soTimeout = 30             #网络链接参数,SocketOptions.SO_TIMEOUT

# binlog filter config
canal.instance.filter.druid.ddl = true          

canal.instance.filter.query.dcl = false           #ddl语句是否隔离发送,开启隔离可保证每次只返回发送一条ddl数据,不和其他dml语句混合返回.(otter ddl同步使用)

canal.instance.filter.query.dml = false           #是否忽略DML的query语句,比如insert/update/delete table.(mysql5.6的ROW模式可以包含statement模式的query记录)

canal.instance.filter.query.ddl = false           #是否忽略DDL的query语句,比如create table/alater table/drop table/rename table/create index/drop index. (目前支持的ddl类型主要为table级别的操作,create databases/trigger/procedure暂时划分为dcl类型)

canal.instance.filter.table.error = false
canal.instance.filter.rows = false
canal.instance.filter.transaction.entry = false

# binlog format/image check
canal.instance.binlog.format = ROW,STATEMENT,MIXED
canal.instance.binlog.image = FULL,MINIMAL,NOBLOB

# binlog ddl isolation
canal.instance.get.ddl.isolation = false

# parallel parser config
canal.instance.parser.parallel = true
## concurrent thread number, default 60% available processors, suggest not to exceed Runtime.getRuntime().availableProcessors()
#canal.instance.parser.parallelThreadSize = 16
## disruptor ringbuffer size, must be power of 2
canal.instance.parser.parallelBufferSize = 256

# table meta tsdb info                       //关于时间序列版本
canal.instance.tsdb.enable=true
canal.instance.tsdb.dir=${canal.file.data.dir:../conf}/${canal.instance.destination:}
canal.instance.tsdb.url=jdbc:h2:${canal.instance.tsdb.dir}/h2;CACHE_SIZE=1000;MODE=MYSQL;
canal.instance.tsdb.dbUsername=canal
canal.instance.tsdb.dbPassword=canal
# dump snapshot interval, default 24 hour
canal.instance.tsdb.snapshot.interval=24
# purge snapshot expire , default 360 hour(15 days)
canal.instance.tsdb.snapshot.expire=360

# rds oss binlog account
canal.instance.rds.accesskey =
canal.instance.rds.secretkey =

#################################################
######### 		destinations		#############
#################################################
canal.destinations= example
# conf root dir
canal.conf.dir = ../conf
# auto scan instance dir add/remove and start/stop instance
canal.auto.scan = true                       #开启instance自动扫描
                            如果配置为true,canal.conf.dir目录下的instance配置变化会自动触发:
a. instance目录新增: 触发instance配置载入,lazy为true时则自动启动
b. instance目录删除:卸载对应instance配置,如已启动则进行关闭
c. instance.properties文件变化:reload instance配置,如已启动自动进行重启操作
canal.auto.scan.interval = 5                 #instance自动扫描的间隔时间,单位秒

canal.instance.tsdb.spring.xml=classpath:spring/tsdb/h2-tsdb.xml
#canal.instance.tsdb.spring.xml=classpath:spring/tsdb/mysql-tsdb.xml

canal.instance.global.mode = spring     #instance管理模式,Production级别我们要求使用spring
canal.instance.global.lazy = false             #全局lazy模式
#canal.instance.global.manager.address = 127.0.0.1:1099  #全局的manager配置方式的链接信息

#canal.instance.global.spring.xml = classpath:spring/memory-instance.xml
canal.instance.global.spring.xml = classpath:spring/file-instance.xml #全局的spring配置方式的组件文件

#canal.instance.global.spring.xml = classpath:spring/default-instance.xml

1)canal.deployer-1.1.5\conf\canal.properties 进行全局配置,可以修改 IP、端口号或实例

# 默认有一个 example,需要增加实例的可以配置
canal.destinations = example

2)canal.deployer-1.1.5\conf\example\instance.properties 进行局部实例配置,可以修改数据库账号和密码、数据库表名、binlog 文件名和 position 等

# 没有改变的就没有贴出来,注意 MySQL 的用户名和密码
canal.instance.master.address=192.168.58.131:3306
# username/password
canal.instance.dbUsername=test
canal.instance.dbPassword=liubihao
canal.instance.connectionCharset = UTF-8
# enable druid Decrypt database password
canal.instance.enableDruid=false
# table regex
canal.instance.filter.regex=.*\\..*
# table black regex
canal.instance.filter.black.regex=

ysql 数据解析m关注的表,Perl正则表达式.
多个正则之间以逗号(,)分隔,转义符需要双斜杠(\\)

常见例子:

  • 1.  所有表:.*   or  .*\\..*
  • 2.  canal schema下所有表: canal\\..*
  • 3.  canal下的以canal打头的表:canal\\.canal.*
  • 4.  canal schema下的一张表:canal.test1
  • 5.  多个规则组合使用:canal\\..*,mysql.test1,mysql.test2 (逗号分隔)
  • bin/start.sh 启动服务(Windows 系统为 bin/start.bat

后端进行相应配置

修改 pom.xml

<dependency>
  <groupId>com.alibaba.otter</groupId>
  <artifactId>canal.client</artifactId>
  <version>1.1.4</version>
</dependency>

新建 CanalClient.java

package org.nwpu.atcss.util;

import com.alibaba.otter.canal.client.CanalConnector;
import com.alibaba.otter.canal.client.CanalConnectors;
import com.alibaba.otter.canal.protocol.CanalEntry.*;
import com.alibaba.otter.canal.protocol.Message;
import org.springframework.stereotype.Component;

import java.util.List;
import java.net.InetSocketAddress;

@Component
public class CanalClient {
  private static void printEntries(List<Entry> entries) throws Exception {
    for (Entry entry : entries) {
      if (entry.getEntryType() != EntryType.ROWDATA) {
        continue;
      }

      RowChange rowChange = RowChange.parseFrom(entry.getStoreValue());

      EventType eventType = rowChange.getEventType();
      System.out.println(String.format("================> binlog[%s:%s] , name[%s,%s] , eventType : %s",
                                       entry.getHeader().getLogfileName(), entry.getHeader().getLogfileOffset(),
                                       entry.getHeader().getSchemaName(), entry.getHeader().getTableName(), eventType));

      for (RowData rowData : rowChange.getRowDatasList()) {
        switch (rowChange.getEventType()) {
          case INSERT:
            System.out.println("INSERT ");
            printColumns(rowData.getAfterColumnsList());
            break;
          case UPDATE:
            System.out.println("UPDATE ");
            printColumns(rowData.getAfterColumnsList());
            break;
          case DELETE:
            System.out.println("DELETE ");
            printColumns(rowData.getBeforeColumnsList());
            break;
          default:
            break;
        }
      }
    }
  }

  private static void printColumns(List<Column> columns) {
    for (Column column : columns) {
      System.out.println(column.getName() + " : " + column.getValue() + " update=" + column.getUpdated());
    }
  }

  public static void main(String[] args) throws Exception {
    // hostname, port, destination, username, password
    CanalConnector connector = CanalConnectors.newSingleConnector(new InetSocketAddress("127.0.0.1", 11111), "example", "", "");
    try {
      connector.connect();
      // 监听的表,格式为数据库.表名,数据库.表名
      connector.subscribe(".*\\..*");
      connector.rollback();

      while (true) {
        Message message = connector.getWithoutAck(100); // 获取指定数量的数据
        long batchId = message.getId();
        if (batchId == -1 || message.getEntries().isEmpty()) {
          Thread.sleep(1000);
          continue;
        }
        // System.out.println(message.getEntries());
        printEntries(message.getEntries());
        connector.ack(batchId); // 提交确认,消费成功,通知server删除数据
        // connector.rollback(batchId);// 处理失败, 回滚数据,后续重新获取数据
      }
    } catch (Exception e) {
      System.out.println("Something Error.");
    } finally {
      connector.disconnect();
    }
  }
}

测试

启动 CanalClient.java

修改本地数据库内容之后,控制台成功监听并报告更新信息。

到此这篇关于Spring Boot + Canal 实现数据库实时监控的文章就介绍到这了,更多相关Spring Boot Canal 内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • Springboot2.3.x整合Canal的示例代码

    目录 一.故事背景 二.什么是Canal 三.Canal安装 (1)事前准备 (1)数据库开启binlog (2)数据库新建账号,开启MySQLslav权限 (2)CanalAdmin安装 (3)CanalServer安装 (4)springbootdemo示例 一.故事背景 前言… 最近工作中遇到了一个数据同步的问题 我们这边系统的一个子业务需要依赖另一个系统的数据,当另一个系统数据变更时,我们这边的数据库要对数据进行同步… 那么我自己想到的同步方式呢就两种: 1.MQ订阅,另一个系统数据变更

  • springboot 整合canal实现示例解析

    目录 前言 环境准备 一.快速搭建canal服务 搭建步骤 1.服务器使用docker快速安装一个mysql并开启binlog日志 2.上传canal安装包并解压 3.进入到第二步解压后的文件目录,并修改配置文件 4.启动canal服务 二.与springboot整合 1.Java中使用canal 2.编写一个demo 3.与springboot整合 4.application.yml 配置文件 5.核心工具类 6.提供一个配置类,在程序启动后监听数据变化 7.启动类 前言 在Mysql到Ela

  • Spring Boot整合阿里开源中间件Canal实现数据增量同步

    目录 前言 Canal是什么? Canal数据如何传输? 数据同步还有其他中间件吗? Canal服务端安装 1.打开MySQL的binlog日志 2.设置MySQL的配置 3.设置RabbitMQ的配置 4.RabbitMQ新建exchange和Queue 5.启动服务端 6.测试 Canal客户端搭建 1.创建消息实体类 2.MQ消息监听业务 3.测试 总结 前言 数据同步一直是一个令人头疼的问题.在业务量小,场景不多,数据量不大的情况下我们可能会选择在项目中直接写一些定时任务手动处理数据,例

  • SpringBoot整合canal实现数据同步的示例代码

    目录 一.前言 二.docker-compose部署canal 三.canal-admin可视化管理 四.springboot整合canal实现数据同步 五.canal-spring-boot-starter 一.前言 canal:阿里巴巴 MySQL binlog 增量订阅&消费组件https://github.com/alibaba/canal tips: 环境要求和配置参考 https://github.com/alibaba/canal/wiki/AdminGuide 这里额外提下Red

  • SpringBoot整合Druid实现数据库连接池和监控

    目录 1.Druid的简介 2.创建SpringBoot项目与数据表 2.1 创建项目 2.2 创建数据表 3.Druid实现数据库连接池 3.1 Druid的配置 3.2 创建实体类(Entity层) 3.3 数据库映射层(Mapper层) 3.4 业务逻辑层(Service层) 3.5 控制器方法(Controller层) 3.6 显示页面(View层) 4.Druid实现监控功能 1.Druid的简介 Druid是Java语言中使用的比较多的数据库连接池.Druid还提供了强大的监控和扩展

  • 关于SpringBoot整合Canal数据同步的问题

    目录 1.CentOS7编译安装MySQL5.7.24 2.Mysql设置binLog配置 3.Linux下载安装Canal服务 4.Boot项目中引入依赖 5.修改properties配置文件 6.修改Application启动类 7.创建Canal配置类自动监听 1.CentOS7编译安装MySQL5.7.24 CentOS7编译安装MySQL5.7.24的教程详解 链接地址:https://www.jb51.net/article/152246.htm 2.Mysql设置binLog配置

  • Spring Boot + Canal 实现数据库实时监控

    目录 Canal 工作原理 MySQL 打开 binlog 模式 启动 Canal 服务 后端进行相应配置 修改 pom.xml 新建 CanalClient.java 测试 Canal 工作原理 Canal 模拟 MySQL slave 的交互协议,伪装自己为 MySQL slave,向 MySQL master 发送 dump 协议 MySQL master 收到 dump 请求,开始推送 binary log 给 slave(也就是 Canal) Canal 解析 binary log 对

  • spring boot基于DRUID实现数据源监控过程解析

    这篇文章主要介绍了spring boot基于DRUID实现数据源监控过程解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 随着需求和技术的日益革新,spring boot框架是越来越流行,她也越来越多地出现在我们的项目中,当然最主要的原因还是因为spring boot构建项目实在是太爽了,构建方便,开发简单,而且效率高.今天我们并不是来专门学习spring boot项目的,我们要讲的是数据源的加密和监控,监控到好说,就是不监控也没什么问题,但

  • Spring Boot 配置MySQL数据库重连的操作方法

    使用jdbc连接MySQL,如果连接失效,可能会报类似的错误: com.mysql.jdbc.exceptions.jdbc4.CommunicationsException: The last packet successfully received from the server was 84,371,623 milliseconds ago. The last packet sent successfully to the server was 78,860,631 millisecond

  • Spring Boot实战之数据库操作的示例代码

    上篇文章中已经通过一个简单的HelloWorld程序讲解了Spring boot的基本原理和使用.本文主要讲解如何通过spring boot来访问数据库,本文会演示三种方式来访问数据库,第一种是JdbcTemplate,第二种是JPA,第三种是Mybatis.之前已经提到过,本系列会以一个博客系统作为讲解的基础,所以本文会讲解文章的存储和访问(但不包括文章的详情),因为最终的实现是通过MyBatis来完成的,所以,对于JdbcTemplate和JPA只做简单演示,MyBatis部分会完整实现对文

  • spring boot starter actuator(健康监控)配置和使用教程

    添加POM依赖: <!-- spring-boot-监控--> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-actuator</artifactId> </dependency> <dependency> <groupId>org.springframework.bo

  • spring boot创建和数据库关联模块详解

    创建步骤 1.导入依赖 2.配置文件 3.创建启动类 1.导入依赖 <dependencies> <dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-starter-openfeign</artifactId> <scope>provided</scope> </dependency>

  • 使用Spring Boot实现操作数据库的接口的过程

    一.Spring Boot原理 用户从页面前端,也就是我们所说的 view 层进行查询访问,进入到 controller 层找到对应的接口,接 着 controller 进行对 service 层进行业务功能的调用,service 要进入 dao 层查询数据,dao 层调用 mapper.xml 文件生成 sql 语句到数据库中进行查询 二.实现过程 2.1.准备数据库user表插入四条数据 2.2.model下创建一个User类 与数据库的字段一一对应 @Getter @Setter publ

  • Spring Boot高级教程之Spring Boot连接MySql数据库

    Spring Boot可以大大简化持久化任务,几乎不需要写SQL语句,在之前章节"Spring Boot 构建框架"中我们新建了一个Spring Boot应用程序,本章在原有的工程中与数据库建立连接. Spring Boot有两种方法与数据库建立连接,一种是使用JdbcTemplate,另一种集成Mybatis,下面分别为大家介绍一下如何集成和使用这两种方式. 1. 使用JdbcTemplate <dependency> <groupId>mysql</g

  • Spring Boot 添加MySQL数据库及JPA实例

    最近在学习Spring Boot,继续前面的学习,这一次我们加入MySQL数据库和JPA. 配置: pom.xml文件 <!-- 添加Mysql和JPA--> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-data-jpa</artifactId> </dependency> <dep

  • 详解在Spring Boot中使用数据库事务

    我们在前面已经分别介绍了如何在spring Boot中使用JPA以及如何在Spring Boot中输出REST资源.那么关于数据库访问还有一个核心操作那就是事务的处理了,前面两篇博客小伙伴们已经见识到Spring Boot带给我们的巨大便利了,其实不用猜,我们也知道Spring Boot在数据库事务处理问题上也给我们带来惊喜,OK,废话不多说,就来看看如何在Spring Boot中使用事务吧. OK,那我们开始今天愉快的coding旅程吧! 创建Project并添加数据库依赖 这个没啥好说的,不

随机推荐