Java开发 - Canal进阶之和Redis的数据同步

前言

Canal在数据同步中是非常常见的,一般我们会用它来做MySQL和Redis之间、MySQL和ES之间的数据同步,否则就是手动通过代码进行同步,造成代码耦合度高的问题,这并不是我们愿意看见的,今天这篇博客博主将给大家演示Canal的数据同步做法,敲小黑板了啊,实战中基本也是这么做的,有需要的小伙伴可以仔细研究。

前文回顾

前文中,我们讲解了Canal的基本用法,用来监听数据库的变化,对数据库和Canal的一些基础配置都在这里:
Java开发 - Canal的基本用法

如果你对Canal还不了解,那么你有必要先去看这篇博客,再来学习这里的实战内容。 这很有必要,当然如果你对MySQL主从也不了解的话,那么你也有必要去看上一篇博客,里面有提到MySQL主从的博客地址,也可以前往博主的博客首页去向下翻找。同时,还有Redis主从,Redis集群的博客,你想知道的,博主都有,自行去查找。

基础架构

所以,本文中我们要使用到的技术就是以上几种了,而MySQL前文中已经配置过,此处不再重复,可自行前往查看。Canal虽然也配置过,但要做到和Kafka配合还需要额外的配置,而Kafka的使用必然是脱离不开Zookeeper的,这个自不必多说,最后就是同步了,还有点小期待呢,下面我们就一起动动小手开始进行今天的学习吧。 

Canal配置

Canal的下载使用前文中有部分,希望大家在看此篇博客前先去查看上一篇,在上一篇中,我们仅对conf/example/instance.properties文件进行了配置,在配合MQ的时候,还需要对conf/canal.properties文件进行配置,不仅如此,instance.properties中也要补充一些配置。

下面,我们先来配置canal.properties这个文件:

# tcp,kafka,RocketMQ 这里选择kafka模式
canal.serverMode = kafka
# 解析器的线程数,默认是注释的,不打开可能会出现阻塞或者不进行解析的情况
canal.instance.parser.parallelThreadSize = 16
# MQ的服务地址,这里是kafka对应的地址和端口
canal.mq.servers = 127.0.0.1:9092
# 在conf目录下要有example同名的目录,可以配置多个,这也是上一篇中配置的文件生效的关键
canal.destinations = example

配置instance.properties文件,再原先配置的基础上增加MQ相关的配置:

#MQ队列名称
canal.mq.topic=canal_topic
#单队列模式的分区下标
canal.mq.partition=0

 此时,名为canal_topic的队列我们还没有创建,等下开启Kafka之后,我们就创建。

Zookeeper、Kafka、Redis、Canal启动

Zookeeper&Kafka启动

ZooKeeper是一个分布式的,开放源码分布式应用程序协调服务,是Google的Chubby一个开源的实现,是HadoopHbase的重要组件。它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、分布式同步、组服务等。

要想启动Kafka,就要先启动Zookeeper,电脑终端进入Kafka的bin文件目录下:

# 进入Kafka文件夹
cd Desktop/JAVATOOL/kafka/kafka_2.13-2.4.1/bin
# 启动Zookeeper服务
./zookeeper-server-start.sh ../config/zookeeper.properties 
# 启动Kafka服务
./kafka-server-start.sh ../config/server.properties 

然后你就看到了一堆的输出......

如果需要关闭,命令如下:

使用命令进行监听消费:

需要先关闭Kafka,再关闭zookeeper,否则Kafka会一直报断开连接的错。 

文件路径写你自己的,不要写博主的,两个服务启动用两个窗口来运行命令,运行期间窗口不要关闭。

Windows电脑需要进入到kafka/bin/windows目录下,接着输入以下命令:

启动zookeeper:

zookeeper-server-start.bat ..\..\config\zookeeper.properties

启动kafka: 

kafka-server-start.bat ..\..\config\server.properties

 我们需要先把前面配置Kafka未创建的队列先创建一下,首先进入Kafka的bin目录下,然后执行以下命令:

./kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic canal_topic

Redis启动

找到Redis所在的目录,将redis-server直接拖到终端即可启动:

进入Redis安装目录:

cd /Users/Codeliu/Desktop/JAVATOOL/redis/src

执行以下命令:

redis-server redis.conf

  

通过命令可以查看Redis运行状态:

可以看到Redis已经在6379端口运行。 

Canal启动

和Redis一样,将canal下bin文件夹内的startup.sh文件拖动到终端即可启动:

/Users/Codeliu/Desktop/JAVATOOL/canal/bin/startup.sh

前文中我们也多有演示,要想停止,只需要把stop.sh拖进去回车就可以了。 

简单测试一下

现在,我们依赖的服务都已启动,我们简单通过命令来测试一下,使用命令进行监听消费:

./kafka-console-consumer.sh --bootstrap-server 127.0.0.1:9092 --from-beginning --topic canal_topic

我们向MySQL插入数据:

insert into user value(null,'小花','123456',20,'13812345678');

 看看控制台会有什么输出:

哇,这就是我们刚刚插入的数据,到此,起码表明我们的配置都是成功的。

注意:因为是本地配置,一个服务一个控制台,不要共用,看看博主的控制台:

虽然乱了些,但是生产环境......好吧,博主也不敢保证生产环境能好好的,主要还是看你用多少台服务器,肯定比本地强。 

项目阶段

下面,我们进入项目阶段,在上一篇的项目基础上继续搞。

添加依赖

主要是Kafka和Redis的依赖:

<dependency>
    <groupId>org.springframework.kafka</groupId>
    <artifactId>spring-kafka</artifactId>
</dependency>
<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>

版本号大家要选择对应服务的版本号,博主这里不再给,以免误导大家。 

添加配置

spring:
  redis:
    host: 127.0.0.1
    port: 6379
    database: 0
  kafka:
    # Kafka服务地址
    bootstrap-servers: 127.0.0.1:9092
    consumer:
      # 指定一个默认的组名
      group-id: consumer-group1
      #序列化反序列化
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
    producer:
      key-serializer: org.apache.kafka.common.serialization.StringDeserializer
      value-serializer: org.apache.kafka.common.serialization.StringDeserializer
      # 批量抓取
      batch-size: 65536
      # 缓存容量
      buffer-memory: 524288

canal:
  serverAddress: 127.0.0.1
  serverPort: 11111
  instance: #多个instance
    - example

创建Redis工具类

package com.codingfire.canal.Client;

import org.springframework.data.redis.core.StringRedisTemplate;
import org.springframework.stereotype.Component;

import javax.annotation.Resource;
import java.util.concurrent.TimeUnit;

@Component
public class RedisClient {

    /**
     * 获取redis模版
     */
    @Resource
    private StringRedisTemplate stringRedisTemplate;

    /**
     * 设置redis的key-value
     */
    public void setString(String key,String value) {
        setString(key,value,null);
    }

    /**
     * 设置redis的key-value,带过期时间
     */
    public void setString(String key,String value,Long timeOut) {
        stringRedisTemplate.opsForValue().set(key,value);
        if (timeOut != null) {
            stringRedisTemplate.expire(key,timeOut,TimeUnit.SECONDS);
        }
    }

    /**
     * 获取redis中key对应的值
     */
    public String getString(String key) {
        return stringRedisTemplate.opsForValue().get(key);
    }

    /**
     * 删除redis中key对应的值
     */
    public Boolean deleteKey(String key) {
        return stringRedisTemplate.delete(key);
    }
}

这是一个比较通用的redis的存储工具类,很多佬都用这个类,没啥特色,直接贴就行。 

创建数据模型

创建Canal抓取数据的实体类:

package com.codingfire.canal.entity;

import java.util.List;

public class CanalEntity {
    //数据
    private List<UserType> data;
    //数据库名称
    private String database;
    private long es;
    //递增,从1开始
    private int id;
    //是否是DDL语句
    private boolean isDdl;
    //表结构的字段类型
    private SqlType sqlType;
    //UPDATE语句,旧数据
    private String old;
    //主键名称
    private List<String> pkNames;
    //sql语句
    private String sql;
    private UserType userType;
    //表名
    private String table;
    private long ts;
    //(新增)INSERT、(更新)UPDATE、(删除)DELETE、(删除表)ERASE等等
    private String type;

}

创建用户信息表实体类:

package com.codingfire.canal.entity;

public class UserType {
    private Long id;
    private String username;
    private String password;
    private int age;
    private String phone;
}

创建MQ的消费者

package com.codingfire.canal.consumer;

import com.alibaba.fastjson.JSONObject;
import com.codingfire.canal.Client.RedisClient;
import com.codingfire.canal.entity.CanalEntity;
import com.codingfire.canal.entity.UserType;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;

import javax.annotation.Resource;
import java.util.List;

@Component
public class CanalConsumer {
    //日志记录
    private static Logger log = LoggerFactory.getLogger(CanalConsumer.class);
    //redis操作工具类
    @Resource
    private RedisClient redisClient;
    //监听的队列名称为:canal_topic
    @KafkaListener(topics = "canal_topic")
    public void receive(ConsumerRecord<?,?> consumer) {
        String value = (String) consumer.value();
        log.info("topic名称:{},key:{},分区位置:{},下标:{},value:{}",consumer.topic(),consumer.key(),consumer.partition(),consumer.offset(),value);
        //转换为javaBean
        CanalEntity canalEntity = JSONObject.parseObject(value,CanalEntity.class);
        //获取是否是DDL语句
        boolean isDdl = canalEntity.isDdl();
        //获取类型
        String type = canalEntity.getType();
        //不是DDL语句
        if (!isDdl) {
            List<UserType> userTypeList = canalEntity.getData();
            //过期时间
            long TIME_OUT = 180L;
            if ("INSERT".equals(type)) {
                //新增语句
                for (UserType userType : userTypeList) {
                    //此处id需要注意,由于是演示项目,博主用的是自增id,实际应用中可能会用复杂的id规则
                    String id = userType.getId().toString();
                    //新增到redis中,过期时间3分钟
                    redisClient.setString(id,JSONObject.toJSONString(userType),TIME_OUT);
                }
            } else if ("UPDATE".equals(type)) {
                //更新语句
                for (UserType userType : userTypeList) {
                    //此处id需要注意,由于是演示项目,博主用的是自增id,实际应用中可能会用复杂的id规则
                    String id = userType.getId().toString();
                    //更新到redis中,过期时间是3分钟
                    redisClient.setString(id,TIME_OUT);
                }
            } else {
                //删除语句
                for (UserType userType : userTypeList) {
                    //此处id需要注意,由于是演示项目,博主用的是自增id,实际应用中可能会用复杂的id规则
                    String id = userType.getId().toString();
                    //从redis中删除
                    redisClient.deleteKey(id);
                }
            }
        }
    }
}

测试

现在,运行项目:

图中队列名字可不要写错了, 运行成功后,我们向用户表中插入新的数据:

insert into user value(null,'小黑','13812345678');

控制台监听如下:

项目控制台监听如下:

Redis客户端数据如下:

至此,我们的整个应用就是成功的了,鼓掌

原文地址:https://blog.csdn.net/CodingFire/article/details/131474696

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


文章浏览阅读1.3k次。在 Redis 中,键(Keys)是非常重要的概念,它们代表了存储在数据库中的数据的标识符。对键的有效管理和操作是使用 Redis 数据库的关键一环,它直接影响到数据的存取效率、系统的稳定性和开发的便利性。本文将深入探讨 Redis 中键的管理和操作,包括键的命名规范、常用的键操作命令以及一些最佳实践。我们将详细介绍如何合理命名键、如何使用键的过期和持久化特性、如何批量删除键等技巧,旨在帮助读者更好地理解并灵活运用 Redis 中的键,从而提高数据管理和操作的效率和可靠性。
文章浏览阅读3.3k次,点赞44次,收藏88次。本篇是对单节点的应用,但从中我们也能推断出一些关于集群的应用,不过大多数公司能搞个主从就已经是不错了,所以你能学会这个已经算是很有用了,关于ES,博主前面也讲过一些基础应用,创建一个工具类利用ES的数据模型进行存储就可以达到一个canal同时对Redis和ES的同步,如果担心出问题,可以把Canal搞成集群的形式,这个后续有时间博主再给大家做讲解。今天就到这里了,觉得不错就支持一下吧。_canal redis
文章浏览阅读8.4k次,点赞8次,收藏18次。Spring Boot 整合Redis实现消息队列,RedisMessageListenerContainer的使用,Pub/Sub模式的优缺点_springboot redis 消息队列
文章浏览阅读978次,点赞25次,收藏21次。在Centos上安装Redis5.0保姆级教程!_centos7 安装redis5.0服务器
文章浏览阅读1.2k次,点赞21次,收藏22次。Docker-Compose部署Redis(v7.2)主从模式首先需要有一个redis主从集群,才能接着做redis哨兵模式。_warning: sentinel was not able to save the new configuration on disk!!!: dev
文章浏览阅读2.2k次,点赞59次,收藏38次。合理的JedisPool资源池参数设置能为业务使用Redis保驾护航,本文将对JedisPool的使用、资源池的参数进行详细说明,最后给出“最合理”配置。_jedispool资源池优化
文章浏览阅读1.9k次。批量删除指定前缀的Key有两中方法,一种是借助 redis-cli,另一种是通过 SCAN命令来遍历所有匹配前缀的 key,并使用 DEL命令逐个删除它们。_redis删除前缀的key
文章浏览阅读890次,点赞18次,收藏20次。1. Redis时一个key-cakye的数据库,key一般是String类型,不过value类型有很多。eg.String Hash List Set SortedSet (基本) | GEO BitMap HyperLog (特殊)2.Redis为了方便学习,将操作不同类型的命令做了分组,在官网可以进行查询。
文章浏览阅读1.1k次,点赞19次,收藏26次。若不使用Redisson,而是用synchronized(this),此时会造成对服务器的加锁,若开始大量查询ID为1的商品,每台机器都会先跑一遍加个锁,然后在查询ID为2的数据,此时需要等待ID为1的锁释放,所以需要将this对象调整为全局商品ID。若在执行bgsave命令时,还有其他redis命令被执行(主线程数据修改),此时会对数据做个副本,然后bgsave命令执行这个副本数据写入rdb文件,此时主线程还可以继续修改数据。在当前redis目录下会生成aof文件,对redis修改数据的命令进行备份。
文章浏览阅读1.5k次,点赞39次,收藏24次。本文全面剖析Redis集群在分布式环境下的数据一致性问题,从基础原理到高级特性,涵盖主从复制、哨兵模式、持久化策略等关键点,同时也分享了关于监控、故障模拟与自适应写一致性策略的实践经验。_redis集群一致性
文章浏览阅读1k次。RDB因为是二进制文件,在保存的时候体积也是比较小的,它恢复的比较快,但是它有可能会丢数据,我们通常在项目中也会使用AOF来恢复数据,虽然AOF恢复的速度慢一些,但是它丢数据的风险要小很多,在AOF文件中可以设置刷盘策略,我们当时设置的就是每秒批量写入一次命令。AOF的含义是追加文件,当redis操作写命令的时候,都会存储这个文件中,当redis实例宕机恢复数据的时候,会从这个文件中再次执行一遍命令来恢复数据。:在Redis中提供了两种数据持久化的方式:1、RDB 2、AOF。
文章浏览阅读1k次,点赞24次,收藏21次。NoSQL(No only SQL)数据库,泛指非关系型数据库,实现对于传统数据库而言的。NoSQL 不依赖业务逻辑方式进行存储,而以简单的 key-value 模式存储。因此大大增加了数据库的扩展能力。不遵循SQL标准不支持ACID远超于SQL的性能Redis是当前比较热门的NOSQL系统之一,它是一个开源的使用ANSI c语言编写的key-value存储系统(区别于MySQL的二维表格的形式存储。
文章浏览阅读988次,点赞17次,收藏19次。在上面的步骤中,我们已经开启了 MySQL 的远程访问功能,但是,如果使用 MySQL 管理工具 navicat 连接 MySQL 服务端时,还是可能会出现连接失败的情况。在实际工作中,如果我们需要从其他地方访问和管理 MySQL 数据库,就需要开启 MySQL 的远程访问功能并设置相应的权限。这对于我们的工作效率和数据安全都有很大的帮助。通过查看 MySQL 用户表,我们可以看到’host’为’%’,说明 root 用户登录 MySQL 的时候,可以允许任意的 IP 地址访问 MySQL 服务端。
文章浏览阅读956次。Redis Desktop Manager(RDM)是一款用于管理和操作Redis数据库的图形化界面工具。提供了简单易用的界面,使用户能够方便地执行各种Redis数据库操作,并且支持多个Redis服务器的连接_redisdesktopmanager安装包
文章浏览阅读1.9k次,点赞52次,收藏27次。缓存击穿指的是数据库有数据,缓存本应该也有数据,但是缓存过期了,Redis 这层流量防护屏障被击穿了,请求直奔数据库。缓存穿透指的是数据库本就没有这个数据,请求直奔数据库,缓存系统形同虚设。缓存雪崩指的是大量的热点数据无法在 Redis 缓存中处理(大面积热点数据缓存失效、Redis 宕机),流量全部打到数据库,导致数据库极大压力。
文章浏览阅读1.2k次。一次命令时间(borrow|return resource + Jedis执行命令(含网络) )的平均耗时约为1ms,一个连接的QPS大约是1000,业务期望的QPS是50000,那么理论上需要的资源池大小是50000 / 1000 = 50个,实际maxTotal可以根据理论值合理进行微调。JedisPool默认的maxTotal=8,下面的代码从JedisPool中借了8次Jedis,但是没有归还,当第9次(jedisPool.getResource().ping())3、发生异常可能的情况。_redis.clients.jedis.exceptions.jedisconnectionexception: could not get a res
文章浏览阅读1k次,点赞27次,收藏18次。在这篇文章中,你将了解到如何在 CentOS 系统上安装 Redis 服务,并且掌握通过自定义域名来访问 Redis 服务的技巧。通过使用自定义域名,你可以方便地管理和访问你的 Redis 数据库,提高工作效率。无论你是开发者、系统管理员还是对 Redis 感兴趣的读者,这篇文章都会为你提供清晰的指导和实用的技巧。阅读本文,轻松搭建自己的 Redis 服务,并体验自定义域名带来的便捷!_redis怎么自定义域名
文章浏览阅读1.1k次,点赞15次,收藏18次。我们post请求,拦截器要预先读取HtppServletRequest里面的body的数据,是通过io的方式,都知道io读取完毕之后,之前的数据是变为null的,但是,当我么后面的接口来委派的时候,也是通过io读取body。我们要考虑一个事情,就是我们要验证数据的重复提交: 首先第一次提交的数据肯定是要被存储的,当而第二次往后,每次提交数据都会与之前的数据产生比对从而验证数据重复提交,我们要具体判断数据是否重复提交的子类。发现数据是成功存入的,剩余7s过期,在10s之内,也就是数据没过期之前,在发送一次。_json.parseobject(str, clazz, auto_type_filter);
文章浏览阅读3.9k次,点赞3次,收藏7次。PHP使用Redis实战实录系列:我们首先检查$redis->connect()方法的返回值来确定是否成功连接到Redis服务器。如果连接失败,我们可以输出相应的错误信息。如果连接成功,我们再执行一些操作,如$redis->set()、$redis->get()等,并检查每个操作的返回结果来判断是否发生了异常。_php redis
文章浏览阅读1.5w次,点赞23次,收藏51次。Redis(Remote Dictionary Server ),即远程字典服务,是一个开源的使用ANSI C语言编写、支持网络、可基于内存亦可持久化的日志型、Key-Value数据库,并提供多种语言的API。Redis 是一个高性能的key-value数据库。redis的出现,很大程度补偿了memcached这类key/value存储的不足,在部 分场合可以对关系数据库起到很好的补充作用。_redisdesktopmanager下载