docker compose部署主从复制的实现

目录
  • 配置解析
  • 服务搭建
    • 目录结构
    • Compose File
    • 实例配置
    • 启动服务
    • 测试

受限于 Redis 单点性能,加上我们对数据天生就有的备份的需求,因此 Redis 提供了主从复制的服务。

本文记录了通过 docker compose 搭建一主双从的 Redis 服务。

配置解析

################################# REPLICATION #################################

# 【Slave】连接 Master 的配置
# slaveof 172.25.0.101 6379

# 【Slave】只读模式
# slave-read-only yes

# 【Slave】密码
# masterauth <master-password>

# 【Slave】复制期间是否允许响应查询,可能会返回脏数据
# slave-serve-stale-data yes

# 【Slave】Slave 晋级为 Master 的优先级,仅哨兵模式下生效
# slave-priority 100

# 【Slave】Slave 向 Master 报告的自己的 IP
# slave-announce-ip 5.5.5.5

# 【Slave】Slave 向 Master 报告的自己的端口
# slave-announce-port 1234

# 【Slave】Slave ping Master 的时间间隔
# repl-ping-slave-period 10

# 【Master/Slave】超时时间
# repl-timeout 60

# 【Master】Diskless 就是直接将要复制的 RDB 文件写入到 Socket 中,而不会先存储到磁盘上
repl-diskless-sync no

# 【Master】若开启 Diskless,会等待指定秒之后再进行复制,以便让更多客户端可以在窗口期内连接,并行传送
# repl-diskless-sync-delay 5

# 【Master】是否开启 Nagle 算法,可以减少流量占用,但会同步得慢些
repl-disable-tcp-nodelay no

# 【Master】环形缓冲日志的大小,给 Slave 断开之后重连使用,避免全量复制,默认 1mb
# repl-backlog-size 1mb

# 【Master】当 Master 断连所有 Slave 指定时间后,Master 会清空 backlog
# repl-backlog-ttl 3600

# 【Master】当低于指定个 Slave 连接时,Master 拒绝所有写操作
# min-slaves-to-write 3

# 【Master】当延迟高于指定秒数时,Master 拒绝所有写操作
# min-slaves-max-lag 10

服务搭建

目录结构

replication/
├── docker-compose.yml
├── master
│   ├── data
│   └── redis.conf
├── slave1
│   ├── data
│   └── redis.conf
└── slave2
    ├── data
    └── redis.conf

Compose File

定义了一个子网,方便操作,对外暴露 6371(Master)、6372、6373 端口。

version: "3"

networks:
  redis-replication:
    driver: bridge
    ipam:
      config:
        - subnet: 172.25.0.0/24

services:
  master:
    image: redis
    container_name: redis-master
    ports:
      - "6371:6379"
    volumes:
      - "./master/redis.conf:/etc/redis.conf"
      - "./master/data:/data"
    command: ["redis-server", "/etc/redis.conf"]
    restart: always
    networks:
      redis-replication:
        ipv4_address: 172.25.0.101

  slave1:
    image: redis
    container_name: redis-slave-1
    ports:
      - "6372:6379"
    volumes:
      - "./slave1/redis.conf:/etc/redis.conf"
      - "./slave1/data:/data"
    command: ["redis-server", "/etc/redis.conf"]
    restart: always
    networks:
      redis-replication:
        ipv4_address: 172.25.0.102

  slave2:
    image: redis
    container_name: redis-slave-2
    ports:
      - "6373:6379"
    volumes:
      - "./slave2/redis.conf:/etc/redis.conf"
      - "./slave2/data:/data"
    command: ["redis-server", "/etc/redis.conf"]
    restart: always
    networks:
      redis-replication:
        ipv4_address: 172.25.0.103

实例配置

Master:

基本不用配置,最简单的是指定一个端口就好了。

port 6379
protected-mode no

repl-diskless-sync no
repl-disable-tcp-nodelay no

Slave:

实例的配置保持一致就可以了,因为定义了子网,不存在端口冲突。

port 6379
protected-mode no

slaveof 172.25.0.101 6379
slave-read-only yes
slave-serve-stale-data yes

启动服务

ocker-compose up -d
Creating network "replication_redis-replication" with driver "bridge"
Creating redis-slave-1 ... done
Creating redis-master  ... done
Creating redis-slave-2 ... done

查看 Master 日志,可以看到接受了两个 Slave 的复制请求:

1:M 18 Aug 2021 15:50:31.772 * Replica 172.25.0.102:6379 asks for synchronization
1:M 18 Aug 2021 15:50:31.772 * Full resync requested by replica 172.25.0.102:6379
1:M 18 Aug 2021 15:50:31.772 * Replication backlog created, my new replication IDs are '5d27746f14ee9be9694d794f96de6ba14a669dd1' and '0000000000000000000000000000000000000000'
1:M 18 Aug 2021 15:50:31.772 * Starting BGSAVE for SYNC with target: disk
1:M 18 Aug 2021 15:50:31.773 * Background saving started by pid 19
19:C 18 Aug 2021 15:50:31.777 * DB saved on disk
19:C 18 Aug 2021 15:50:31.777 * RDB: 0 MB of memory used by copy-on-write
1:M 18 Aug 2021 15:50:31.822 * Background saving terminated with success
1:M 18 Aug 2021 15:50:31.823 * Synchronization with replica 172.25.0.102:6379 succeeded
1:M 18 Aug 2021 15:50:32.170 * Replica 172.25.0.103:6379 asks for synchronization
1:M 18 Aug 2021 15:50:32.170 * Full resync requested by replica 172.25.0.103:6379
1:M 18 Aug 2021 15:50:32.170 * Starting BGSAVE for SYNC with target: disk
1:M 18 Aug 2021 15:50:32.171 * Background saving started by pid 20
20:C 18 Aug 2021 15:50:32.175 * DB saved on disk
20:C 18 Aug 2021 15:50:32.175 * RDB: 0 MB of memory used by copy-on-write
1:M 18 Aug 2021 15:50:32.225 * Background saving terminated with success
1:M 18 Aug 2021 15:50:32.226 * Synchronization with replica 172.25.0.103:6379 succeeded

查看 Slave 日志,可以看到连接建立的全过程:

1:S 18 Aug 2021 15:50:31.771 * Connecting to MASTER 172.25.0.101:6379
1:S 18 Aug 2021 15:50:31.771 * MASTER <-> REPLICA sync started
1:S 18 Aug 2021 15:50:31.771 * Non blocking connect for SYNC fired the event.
1:S 18 Aug 2021 15:50:31.771 * Master replied to PING, replication can continue...
1:S 18 Aug 2021 15:50:31.772 * Partial resynchronization not possible (no cached master)
1:S 18 Aug 2021 15:50:31.773 * Full resync from master: 5d27746f14ee9be9694d794f96de6ba14a669dd1:0
1:S 18 Aug 2021 15:50:31.823 * MASTER <-> REPLICA sync: receiving 175 bytes from master to disk
1:S 18 Aug 2021 15:50:31.823 * MASTER <-> REPLICA sync: Flushing old data
1:S 18 Aug 2021 15:50:31.823 * MASTER <-> REPLICA sync: Loading DB in memory
1:S 18 Aug 2021 15:50:31.828 * Loading RDB produced by version 6.2.5
1:S 18 Aug 2021 15:50:31.828 * RDB age 0 seconds
1:S 18 Aug 2021 15:50:31.828 * RDB memory usage when created 1.83 Mb
1:S 18 Aug 2021 15:50:31.829 * MASTER <-> REPLICA sync: Finished with success

测试

登录 Master,尝试写入新 Key。

127.0.0.1:6371> set hello world
OK

登录 Slave,查看能否读取到:

127.0.0.1:6372> get hello
"world"

Slave 尝试写操作:

127.0.0.1:6372> set hello redis
(error) READONLY You can't write against a read only replica.

到此这篇关于docker compose部署主从复制的实现的文章就介绍到这了,更多相关docker compose 主从复制内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • 详解Docker Compose 中可用的环境变量问题

    Compose 的多个部分在某种情况下处理环境变量.本教程可以帮助你找到所需的信息. 1. 替换Compose文件中的环境变量 可以使用 shell 中的环境变量填充 Compose 文件中的值: web: image: "webapp:${TAG}" 更多信息请参考 Compose 文件手册中的 Variable substitution章节. 2. 设置容器中的环境变量 可以通过 environment 关键字设置服务容器中的环境变量,就跟使用 docker run -e VARI

  • Docker-compose的安装和设定详细步骤

    Docker-compose的安装和设定详细步骤 docker的1.12版本中,swarm已经合体,docker-engine/swarm/docker-compose的三件套装已经变成两件.后续会不会将docker-compose进一步合体呢,想做的话应该是顺手的事情吧,不想做的话再简单也不会做.考虑到docker-compose可能以独立的方式消失在docker的舞台之后,先写一个安装的文档作纪念吧. 最简单的方式 下载下来二进制的docker-compose,放到你想放的地方,设定可执行的

  • docker-compose部署php项目实例详解

    1.制定特定扩展的PHP镜像 sudo mkdir -p /www/docker sudo cd /www/docker sudo vi Dockerfile FROM php:7.2-fpm-alpine MAINTAINER diaocheweide RUN sed -i 's/dl-cdn.alpinelinux.org/mirrors.aliyun.com/g' /etc/apk/repositories RUN apk update && apk add --no-cache -

  • 浅析docker-compose部署mysql无法访问的问题

    什么是Docker-Compose Compose项目来源于之前的fig项目,使用python语言编写,与docker/swarm配合度很高.Compose 是 Docker 容器进行编排的工具,定义和运行多容器的应用,可以一条命令启动多个容器,使用Docker Compose不再需要使用shell脚本来启动容器. Compose 通过一个配置文件来管理多个Docker容器,在配置文件中,所有的容器通过services来定义,然后使用docker-compose脚本来启动,停止和重启应用,和应用

  • 详解Docker-compose networks 的例子

    今天实验了下 docker 下的网络设置,记录一下过程,以免后面忘记. (系统:Centos 7.4 ,docker 版本:18.03.1-ce, docker-compose version 1.18.0) cat docker-compose.yml version: '3' services: test1: image: busybox:latest # 镜像为 busybox entrypoint: # 容器启动后执行 top 命令,使容器没法立即退出 - top networks: b

  • docker-compose部署配置jenkins的详细教程

    docker-compose部署配置jenkins  一.docker-compose文件 version: '3.1' services: jenkins: image: jenkins/jenkins:lts volumes: - /data/jenkins/:/var/jenkins_home - /var/run/docker.sock:/var/run/docker.sock - /usr/bin/docker:/usr/bin/docker - /usr/lib/x86_64-lin

  • 浅谈docker-compose网络设置之networks

    networks使用方式之官网教程 官网的docker-compose.yml参考文档:Compose file version 3 reference 较为准确的中文翻译版:Compose file version 3 reference networks通常应用于集群服务,从而使得不同的应用程序得以在相同的网络中运行,从而解决网络隔离问题.这种应用在swarm部署中,非常常见.不过,本文并不做讨论. 一般对于集群服务,常常通过docker-compose.yml文档快速编排.部署应用服务.官

  • Docker-Compose的使用示例详解

    Docker Compose是一个用来定义和运行复杂应用的Docker工具.使用Compose,你可以在一个文件中定义一个多容器应用,然后使用一条命令来启动你的应用,完成一切准备工作. - github.com/docker/compose docker-compose是用来在Docker中定义和运行复杂应用的工具,比如在一个yum文件里定义多个容器,只用一行命令就可以让一切就绪并运行. 使用docker compose我们可以在Run的层面解决很多实际问题,如:通过创建compose(基于YU

  • Docker Compose 网络设置详解

    基本概念 默认情况下,Compose会为我们的应用创建一个网络,服务的每个容器都会加入该网络中.这样,容器就可被该网络中的其他容器访问,不仅如此,该容器还能以服务名称作为hostname被其他容器访问. 默认情况下,应用程序的网络名称基于Compose的工程名称,而项目名称基于docker-compose.yml所在目录的名称.如需修改工程名称,可使用--project-name标识或COMPOSE_PORJECT_NAME环境变量. 举个例子,假如一个应用程序在名为myapp的目录中,并且do

  • docker compose部署主从复制的实现

    目录 配置解析 服务搭建 目录结构 Compose File 实例配置 启动服务 测试 受限于 Redis 单点性能,加上我们对数据天生就有的备份的需求,因此 Redis 提供了主从复制的服务. 本文记录了通过 docker compose 搭建一主双从的 Redis 服务. 配置解析 ################################# REPLICATION ################################# # [Slave]连接 Master 的配置 # s

  • Docker compose部署SpringBoot项目连接MySQL及遇到的坑

    前面使用docker简单部署了下SpringBoot项目并介绍了什么是Dockerfile,如果是镜像比较多的情况下如何一键交付呢?Docker-compose!,理解了Docker-compose后面学习K8s就会好理解一些 一.安装docker-compose 环境Centos7 //下载docker-compose curl -L "https://get.daocloud.io/docker/compose/releases/download/1.27.3/docker-compose-

  • Docker Compose部署Nginx的方法步骤

    使用Docker Compose部署Nginx,创建docker-compose.yaml: [root@192 ~]# vim docker-compose.yaml 输入以下内容: version: '3' services: nginx: container_name: nginx image: nginx restart: always ports: - 8080:80 privileged: true networks: - mynginx networks: mynginx: dri

  • Docker compose部署minio服务

    目录 介绍 单机版部署 纠删码模式部署 分布式部署 介绍 最近才知道minio这个对象存储服务中间件,简直相见恨晚,只怪我见识太短浅(哭泣脸). 说得通俗易懂点,minio的作用就是用来存储文件的,比如图片.视频.音频等各种类型的文件. 那么问题来了,java本身就可以直接把文件写到磁盘里面,为什么还要用minio呢? minio有完善的文件管理功能,包括针对文件的上传,下载,删除等 minio有强大的纠删功能,即便磁盘损坏,在一定程度上时可以避免丢失文件的 minio有完善的权限管理功能,它可

  • docker Compose部署springboot+vue前端端分离

    目录 (一) 准备工作 一.安装 二.修改生产环境下的配置以及打包操作: (二) 开始部署 一.blog_api 制作镜像 二.dockerCompose编排 三.mysql.redis.nginx的配置: 四.导入数据[数据库表的数据.前端静态web资源] 五.测试并排除错误: 温馨提示:如果有自己的服务器最好不过了,这样部署网项目就可以上线了.没有的话,只能使用localhost 本机访问啦,记得替换 ngixn 中的ip地址.域名为localhost. (一) 准备工作 一.安装 1.安装

  • Docker Compose部署微服务项目上线功能

    目录 一.需求说明 二.效果图 三.项目结构 四.核心源码 ️Java依赖与接口 ️Docker相关源码 五.部署项目 小结 一.需求说明 编写一个SpringBoot + Redis 的微服务项目,并提供 hello接口,每访问一次接口,计数器+1 二.效果图 三.项目结构 目录说明 docker-compose.yml :项目的启动文件,配置编排等 Dockerfile:项目上线所需要的依赖,以及启动方式 四.核心源码 ️Java依赖与接口 依赖文件 pom.xml <?xml versio

  • Docker Compose部署及基础使用详解

    一 Docker Compose概述 Compose是一个用于定义和运行多容器Docker应用程序的工具.使用Compose,您可以使用YAML文件来配置应用程序的服务.然后,使用单个命令,您可以从配置中创建并启动所有服务. Compose适用于所有环境:生产,登台,开发,测试以及CI工作流程. 使用Compose基本上是一个三步过程: 在Dockerfile中定义您的应用程序环境,以便可以在任何地方进行再生产. 定义构成应用程序的服务,docker-compose.yml 以便它们可以在隔离环

  • 详解使用 docker compose 部署 golang 的 Athens 私有代理问题

    目录 go中私有代理搭建 前言 为什么选择 athens 使用 docker-compose 部署 配置私有仓库的认证信息 配置下载模式 部署 使用秘钥的方式认证私有仓库 1.配置秘钥 2.配置 HTTP 与 SSH 重写规则 3.配置 SSH 来绕过主机 SSH 键验证 参考 go中私有代理搭建 前言 最近公司的代理出现问题了,刚好借这个机会来学习下,athens 如何构建私有代理 为什么选择 athens 私有化代理的选取标准无非就是下面的几点 1.托管私有模块: 2.排除对公有模块的访问:

  • docker compose 一键部署分布式配置中心Apollo的过程详解

    简介 说起分布式肯定要想到分布式配置中心.分布式日志.分布式链路追踪等 在分布式部署中业务往往有很多配置比如: 应用程序在启动和运行时需要读取一些配置信息,配置基本上伴随着应用程序的整个生命周期,比如:数据库连接参数.启动参数等,都需要去维护和配置,但不可能一台台服务器登录上去配置 今天我要跟大家分享一下分布式配置中心Apollo: Apollo(阿波罗)是携程框架部门研发的分布式配置中心,能够集中化管理应用不同环境.不同集群的配置,配置修改后能够实时推送到应用端,并且具备规范的权限.流程治理等

  • 使用Docker Compose部快速署ELK(亲测有效)

    目录 1.概述 1.1定义 1.2功能说明 2.部署ELK 2.1创建目录和文件 2.2配置docker-compose并启动 2.3打开kibana 3.收集日志 3.1环境准备 3.2使用logback记录日志 3.3使用log4j2记录日志 1.概述 1.1定义 对于大规模的日志,需要集中化的管理.而ELK提供了一整套解决方案,并且都是开源软件,之间互相配合使用,完美衔接,高效的满足了很多场合的应用.ELK是三种技术产品的简称,包括Elasticsearch.Logstash.Kibana

随机推荐