Docker Consul概述以及集群环境搭建步骤(图文详解)

目录
  • 一、Docker consul概述
  • 二、基于 nginx 与 consul 构建自动发现即高可用的 Docker 服务架构

一、Docker consul概述

容器服务更新与发现:先发现再更新,发现的是后端节点上容器的变化(registrator),更新的是nginx配置文件(agent)

registrator:是consul安插在docker容器里的眼线,用于监听监控节点上容器的变化(增加或减少,或者宕机),一旦有变化会把这些信息告诉并注册在consul server端(使用回调和协程的方式,所以它的延迟和资源消耗会很少),consul server发生一旦发生注册列表的变化后,会把注册的信息告诉agent

agent(代理):用来控制consul template模板,用template组件去和nginx.conf来进行对接,模板里全是变量,用变量的方式去加载后端由注册到consul server端之后,server端会把信息告诉agent,agent和template进行对接,写入template,template就有了镜像,更新完之后会作为nginx.conf子配置文件被前端的nginx识别,consul agent会控制reload之后会识别nginx.conf配置文件中的变化,相当于识别后端的节点,就可以在地址池中动态调整自己后端资源。

Consul的特性

  • 支持健康检查、允许存储键值对
  • 基于Golong语言,可移植性强
  • 支持ACL访问控制

二、基于 nginx 与 consul 构建自动发现即高可用的 Docker 服务架构

1.项目需求

  • 使用 Docker 将 Consul、Consul template、Registrator 与 Nginx 组成一个值得新人且可扩展的服务架构
  • 在这个架构中添加或移除服务时,不需要重写任何配置,也不需要重启任何服务,一切都能够正常运行,以实现自动化运维

2.环境准备

主机 IP 地址 需要安装的软件
主节点 192.168.126.11 docker-ce、consul、consul-template、nginx
nginx 192.168.126.12 doker-ce

3.部署步骤

#两台节点上都安装 Docker-ce,记得关闭防火墙
systemctl stop firewalld && systemctl disable firewalld
setenforce 0 && sed -i "s/SELINUX=*/SELINUX=disabled/g" /etc/selinux/config

①在主节点上部署consul

[root@xjj ~]# mkdir /consul
[root@xjj ~]# cd /consul/
[root@xjj consul]# rz
[root@xjj consul]# ls
consul_0.9.2_linux_amd64.zip
[root@xjj consul]# unzip consul_0.9.2_linux_amd64.zip -d /usr/bin/
Archive:  consul_0.9.2_linux_amd64.zip
  inflating: /usr/bin/consul
[root@xjj consul]# consul agent \
> -server \
> -bootstrap \
> -ui \
> -data-dir=/var/lib/consul-data \
> -bind=192.168.126.11 \
> -client=0.0.0.0 \
> -node=consul-server01 &> /var/log/consul.log &
[1] 100683
[root@xjj consul]# jobs -l
[1]+ 100683 运行中               consul agent -server -bootstrap -ui -data-dir=/var/lib/consul-data -bind=192.168.126.11 -client=0.0.0.0 -node=consul-server01 &>/var/log/consul.log &
[root@xjj consul]# consul members
Node             Address              Status  Type    Build  Protocol  DC
consul-server01  192.168.126.11:8301  alive   server  0.9.2  2         dc1
[root@xjj consul]# consul info|grep leader
        leader = true
        leader_addr = 192.168.126.11:8300
[root@xjj consul]# netstat -natp|grep 8500
tcp        0      0 127.0.0.1:34120         127.0.0.1:8500          TIME_WAIT   -
tcp        0      0 127.0.0.1:34118         127.0.0.1:8500          TIME_WAIT   -
tcp6       0      0 :::8500                 :::*                    LISTEN      100683/consul

参数详解

[root@xjj consul]# consul agent \				      #设置代理
> -server \										    #服务功能
> -bootstrap \									    #参与选举领袖
> -ui \											   #提供web访问界面
> -data-dir=/var/lib/consul-data \					 #提供一个代理存储数据目录
> -bind=192.168.126.16 \							#绑定本机地址
> -client=0.0.0.0 \									#面对的客户端地址(所有)
> -node=consul-server01 &> /var/log/consul.log &	   #定义节点名称,日志混合输出到log,并且放到后台运行
jobs -l												#查看当前终端放入后台的工作,并列出进程的PID号
consul members										 #查看群集信息
consul info|grep leader							      #查看管理信息,leader就是领袖

#可通过HTTP API获取群集信息:

curl 127.0.0.1:8500/v1/status/peers			'//查看集群server成员'
curl 127.0.0.1:8500/v1/status/leader     	'//集群Raf leader'
curl 127.0.0.1:8500/v1/catalog/services  	'//注册的所有服务'
curl 127.0.0.1:8500/v1/catalog/nginx     	'//查看(nginx)服务信息'
curl 127.0.0.1:8500/v1/catalog/nodes     	'//集群节点详细信息'

②nginx 服务器连接 consul 并创建 nginx 容器服务

[root@localhost ~]# docker run -d \
> --name=registrator \
> --net=host \
> -v /var/run/docker.sock:/tmp/docker.sock \
> --restart=always \
> gliderlabs/registrator:latest \
> -ip=192.168.126.12 \
> consul://192.168.126.11:8500
-----
Digest: sha256:6e708681dd52e28f4f39d048ac75376c9a762c44b3d75b2824173f8364e52c10
Status: Downloaded newer image for gliderlabs/registrator:latest
db4cb9d6a56ce8b9a2155b1113e48e6c974889cd4cca363b410c116b75be5d59
[root@localhost ~]# docker ps -a
CONTAINER ID   IMAGE                           COMMAND                  CREATED         STATUS                  PORTS     NAMES
db4cb9d6a56c   gliderlabs/registrator:latest   "/bin/registrator -i…"   5 seconds ago   Up 5 seconds                      registrator

#创建容器,用来测试服务发现功能是否正常:

[root@localhost ~]# docker run -itd -p 81:80 --name xjj01 -h xcf01 nginx    #-h选项表示指定host主机名称
[root@localhost ~]# docker run -itd -p 82:80 --name xjj02 -h xcf02 nginx
[root@localhost ~]# docker run -itd -p 83:80 --name xjj03 -h xcf03 httpd
[root@localhost ~]# docker run -itd -p 84:80 --name xjj0 -h xcf04 httpd
[root@localhost ~]# docker ps -a
CONTAINER ID   IMAGE                           COMMAND                  CREATED          STATUS          PORTS                               NAMES
8940a9b03dbb   httpd                           "httpd-foreground"       4 seconds ago    Up 3 seconds    0.0.0.0:84->80/tcp, :::84->80/tcp   xjj0
9ac4d089eb14   httpd                           "httpd-foreground"       39 seconds ago   Up 38 seconds   0.0.0.0:83->80/tcp, :::83->80/tcp   xjj03
3d626fd61639   nginx                           "/docker-entrypoint.…"   25 minutes ago   Created                                             xjj02
263aa9deb346   nginx                           "/docker-entrypoint.…"   26 minutes ago   Up 26 minutes   0.0.0.0:81->80/tcp, :::81->80/tcp   xjj01
db4cb9d6a56c   gliderlabs/registrator:latest   "/bin/registrator -i…"   29 minutes ago   Up 29 minutes                                       registrator

浏览器访问测试:`192.168.126.11:8500`

[root@xjj consul]# curl 127.0.0.1:8500/v1/catalog/services
{"consul":[],"httpd":[],"nginx":[]}[root@xjj consul]#

③consul 群集添加 consul-template 以实现容器自动加入

Consul-Template是一个守护进程,用于实时查询Consul集群信息,并更新文件系统上任意数量的指定模板,生成配置文件,更新完成以后,可以查询Consul中的服务目录,Key、Key-values等

cd consul/
vim nginx.ctmpl

upstream http_backend {
 {{range service "nginx"}}
  server {{.Address}}:{{.Port}};
  {{end}}
}

server {
 listen 100;
 server_name localhost 192.168.126.11;
 access_log /var/log/nginx/lic.com-access.log;
 index index.html index.php;
 location / {
        proxy_set_header HOST $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header Client-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_pass http://http_backend;
  }
}
yum -y install gcc pcre-devel zlib-devel
rz nginx-1.12.2.tar.gz
tar zxvf nginx-1.12.2.tar.gz -C /opt
cd /opt/nginx-1.12.10

./configure --prefix=/usr/local/nginx

make && make install

--
vim /usr/local/nginx/conf/nginx.conf
第19     include vhost/*.conf; 			#19行添加,虚拟主机目录

[root@xjj nginx-1.12.2]# mkdir /usr/local/nginx/conf/vhost
'//创建虚拟主机目录'
[root@xjj nginx-1.12.2]# mkdir /var/log/nginx
'//创建日志文件目录'
[root@xjj nginx-1.12.2]# /usr/local/nginx/sbin/nginx
'//启动nginx'
[root@xjj nginx-1.12.2]# netstat -natp|grep nginx
tcp        0      0 0.0.0.0:80              0.0.0.0:*               LISTEN      104348/nginx: maste

--

#启动template,指定template模板文件及生成路径:
[root@xjj consul]# consul-template -consul-addr 192.168.126.16:8500 -template "/consul/nginx.ctmpl:/usr/local/nginx/conf/vhost/xjj.conf:/usr/local/nginx/sbin/nginx -s reload" --log-level=info
#指定模板路径/consul/nginx.ctmpl,生成到/usr/locla/nginx/conf/vhost/xjj.conf,然后重载nginx -s reload,之后定义日志级别,进入监控状态

--
#主节点打开新终端查看配置文件:
[root@xjj ~]# cat /usr/local/nginx/conf/vhost/xjj.conf
#访问这个池子里面的Web页面,得访问192.168.126.11:8080,且是轮询机制,这里若访问不了,可以重载nginx再试试
upstream http_backend {

   server 192.168.126.12:81;

   server 192.168.126.12:82;

}

server {
  listen 8080;
  server_name localhost 192.168.126.11;
  access_log /var/log/nginx/xjj.cn-access.log;
  index index.html index.php;
  location / {
    proxy_set_header HOST $host;
    proxy_set_header X-Real-IP $remote_addr;
    proxy_set_header Client-IP $remote_addr;
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
    proxy_pass http://http_backend;
	}
}

④新增一个 nginx 容器节点以测试自动更新

[root@localhost ~]# docker run -itd -p 85:80 --name xjj05 -h xcf05 nginx     #增加一个nginx容器节点,测试服务发现及配置更新功能

[root@xjj ~]# cat /usr/local/nginx/conf/vhost/xcf.conf
upstream http_backend { 

        server 192.168.126.12:81;

        server 192.168.126.12:82;

        server 192.168.126.12:85;

}

server {
  listen 8080;
  server_name localhost 192.168.126.11;
  access_log /var/log/nginx/xcf.cn-access.log;
  index index.html index.php;
  location / {
    proxy_set_header HOST $host;
    proxy_set_header X-Real-IP $remote_addr;
    proxy_set_header Client-IP $remote_addr;
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;          }
}

⑤测试访问代理服务器 是否可以完成代理访问轮询

http://192.168.126.11:80/

docker logs -f xjj01
docker logs -f xjj02
docker logs -f xjj05

⑥consul 多节点配置

#添加一台已有docker环境的服务器加入已有的群集中:

consul agent \
-server \
-bootstrap \
-ui \
-data-dir=/var/ib/consul-data \
-bind=192.168.126.11 \
-client=0.0.0.0 \
-node=consul-server02 \
-enable-script-checks=true \
-datacenter=dc1 \
-join 192.168.126.15 &> /var/log/consul.log &

--解释--
-enable-script-checks=true: 设置检查服务为可用
-datacenter: 数据中心名称
-join: 加入到已有的集群中

到此这篇关于Docker-Consul概述以及集群环境搭建步骤(图文详解)的文章就介绍到这了,更多相关Docker-Consul 集群环境搭建内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • 使用docker compose搭建consul集群环境的例子

    consul基本概念 server模式和client模式 server模式和client模式是consul节点的类型:client不是指的用户客户端. server模式提供数据持久化功能. client模式不提供持久化功能,并且实际上他也不工作,只是把用户客户端的请求转发到server模式的节点.所以可以把client模式的节点想象成LB(load balance),只负责请求转发. 通常server模式的节点需要配置成多个例如3个,5个.而client模式节点个数没有限制. server模式启

  • Docker Consul概述以及集群环境搭建步骤(图文详解)

    目录 一.Docker consul概述 二.基于 nginx 与 consul 构建自动发现即高可用的 Docker 服务架构 一.Docker consul概述 容器服务更新与发现:先发现再更新,发现的是后端节点上容器的变化(registrator),更新的是nginx配置文件(agent) registrator:是consul安插在docker容器里的眼线,用于监听监控节点上容器的变化(增加或减少,或者宕机),一旦有变化会把这些信息告诉并注册在consul server端(使用回调和协程

  • Python3+Pycharm+PyQt5环境搭建步骤图文详解

    搭建环境: 操作系统:Win10 64bit Python版本:3.7 Pycharm:社区免费版 一.Python3.7安装 下载链接:官网https://www.python.org/downloads/windows/或腾讯软件中心下载https://pc.qq.com/detail/5/detail_24685.html或其他站点下载.我下载的是python-3.7.0-amd64. 下载到安装包后打开,如果想安装到默认路径(C盘)的话一直点下一步就可以了,或者自定义安装到其他分区,我的

  • Hadoop-3.1.2完全分布式环境搭建过程图文详解(Windows 10)

    一.前言 Hadoop原理架构本人就不在此赘述了,可以自行百度,本文仅介绍Hadoop-3.1.2完全分布式环境搭建(本人使用三个虚拟机搭建). 首先,步骤: ① 准备安装包和工具: hadoop-3.1.2.tar.gz ◦ jdk-8u221-linux-x64.tar.gz(Linux环境下的JDK) ◦ CertOS-7-x86_64-DVD-1810.iso(CentOS镜像) ◦工具:WinSCP(用于上传文件到虚拟机),SecureCRTP ortable(用于操作虚拟机,可复制粘

  • IDEA插件开发之环境搭建过程图文详解

    基于IntelliJ Platform Plugin搭建 环境步骤 File->New->Project 选择IntelliJ Platform Plugin 如果你这里没有SDK环境,则添加一个SDK环境,选择自己的idea的安装的根目录即可. 展示效果 基于Gradle搭建环境步骤 File->New->Project 选择Gradle next 进来以后大概是这样的一个界面,然后gradle会自动build项目,下载相关的依赖.(可能会失败) 遇到的问题一,依赖ideaIC-

  • Android开发环境搭建过程图文详解

    一.工具 IDE:Android Studio4.1+genymotion (Android studio 自带AVD着实有些不好用,这里选择使用genymotion模拟器) JDK:1.8 SDK:7.1 版本管理:Git 二.环境搭建 1.安装jdk 这里使用的是jdk1.8 ,安装并配置环境变量,通用步骤,不一 一介绍了 2.安装Android Studio 安装:android-studio-ide-201.6858069-windows.exe ,默认安装即可配置sdk (可以选择设置

  • GO语言开发环境搭建过程图文详解

    一.GO语言开发包 1.什么是GO语言开发包 go 语言开发包其实是对go语言的一种实现,包括相应版本的语法, 编译, 运行, 垃圾回收等, 里面包含着开发 go 语言所需的标准库, 运行时以及其他的一些必要资源 2.GO语言开发包下载地址 Go官方下载地址 : https://golang.org/dl/ Go官方镜像站(上面打不开可使用这个) : https://golang.google.cn/dl/ Go语言中文网下载地址 : https://studygolang.com/dl gop

  • Hadoop+HBase+ZooKeeper分布式集群环境搭建步骤

    目录 一.环境说明 2.1 安装JDK 2.2 添加Hosts映射关系 2.3 集群之间SSH无密码登陆 三.Hadoop集群安装配置 3.1 修改hadoop配置 3.2 启动hadoop集群 四.ZooKeeper集群安装配置 4.1 修改配置文件zoo.cfg 4.2 新建并编辑myid文件 4.3 启动ZooKeeper集群 五.HBase集群安装配置 5.1 hbase-env.sh 5.2 hbase-site.xml 5.3 更改 regionservers 5.4 分发并同步安装

  • Spark学习笔记 (二)Spark2.3 HA集群的分布式安装图文详解

    本文实例讲述了Spark2.3 HA集群的分布式安装.分享给大家供大家参考,具体如下: 一.下载Spark安装包 1.从官网下载 http://spark.apache.org/downloads.html 2.从微软的镜像站下载 http://mirrors.hust.edu.cn/apache/ 3.从清华的镜像站下载 https://mirrors.tuna.tsinghua.edu.cn/apache/ 二.安装基础 1.Java8安装成功 2.zookeeper安装成功 3.hadoo

  • Python3 虚拟开发环境搭建过程(图文详解)

    虚拟环境的搭建 为什么要使用虚拟环境# 1.使不同应用开发环境相互独立 2.环境升级不影响其他应用,也不会影响全局的python环境 3.防止出现包管理混乱及包版本冲突 windows平台# 安装 # 建议使用pip3安装到python3环境下 pip3 install virtualenv pip3 install virtualenvwrapper-win 配置虚拟环境管理器工作目录 # 配置环境变量: # 控制面板 => 系统和安全 => 系统 => 高级系统设置 => 环境

  • Docker+K8S 集群环境搭建及分布式应用部署

    1.安装docker yum install docker #启动服务 systemctl start docker.service systemctl enable docker.service #测试 docker version 2.安装etcd yum install etcd -y #启动etcd systemctl start etcd systemctl enable etcd #输入如下命令查看 etcd 健康状况 etcdctl -C http://localhost:2379

随机推荐