docker-compose部署zk+kafka+storm集群的实现

集群部署总览

172.22.12.20 172.22.12.21 172.22.12.22 172.22.12.23 172.22.12.24
zoo1:2181 zoo2:2182 zoo3:2183 zkui:9090 (admin/manager)
kafka1:9092 kafka2:9092 kafka3:9092 kafdrop:9000
influxdb:8086 grafana:3000 (admin/chanhu)
storm-nimbus1 storm-nimbus2 storm-nimbus3 portainer:9002(admin/chanhu@123)
storm-supervisor1 storm-supervisor2 storm-supervisor3
storm-ui:8080

docker安装

yum update -y
yum install -y yum-utils device-mapper-persistent-data lvm2
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum install docker-ce docker-ce-cli containerd.io
systemctl start docker  

docker-compose安装

yum install epel-release
yum install -y python-pip
pip install --upgrade pip
pip install docker-compose  

修改每一台宿主机的hosts文件

vim /etc/hosts
172.22.12.20 datacloud0
172.22.12.21 datacloud1
172.22.12.22 datacloud2
172.22.12.23 datacloud3
172.22.12.24 datacloud4  

zookeeper集群

在20,21,22三台机器部署zk集群,分别编写docker-compose文件

集群中如果只剩一台是正常运行的,则集群失效

以其中一台为例:

zoo:
    image: zookeeper:3.4.14
    restart: always
    hostname: zoo1
    container_name: zoo1
    ports:
     - 2181:2181
     - 2888:2888
     - 3888:3888
    volumes:
     - "./zoo/data:/data"
     - "./zoo/datalog:/datalog"
    environment:
     ZOO_MY_ID: 1
     ZOO_SERVERS: server.1=0.0.0.0:2888:3888 server.2=172.22.12.21:2888:3888 server.3=172.22.12.22:2888:3888  

"./zoo/data:/data"为数据目录挂载,必须配置

环境变量配置, ZOO_MY_ID 三台分别是1、2、3, ZOO_SERVERS 配置的是集群地址,其中当前机器为0.0.0.0

kakfa集群

在20,21,22三台机器部署kafka集群,分别编写docker-compose文件(可以和zk的docker-compose文件写在一起)

以其中一台为例:

kafka:
    image: wurstmeister/kafka:2.12-2.2.2
    restart: always
    hostname: kafka1
    container_name: kafka1
    ports:
     - "9092:9092"
    environment:
     KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://172.22.12.20:9092
     KAFKA_ADVERTISED_HOST_NAME: 172.22.12.20
     KAFKA_ADVERTISED_PORT: 9092
     KAFKA_ZOOKEEPER_CONNECT: 172.22.12.20:2181,172.22.12.21:2181,172.22.12.22:2181
    volumes:
     - ./kafka/logs:/kafka 

没有太多需要注意的地方, KAFKA_ZOOKEEPER_CONNECT 正确配置好zk集群地址,还有ADVERTISED相关配置为当前容器。

influxdb

influxdb:
    image: influxdb:1.7
    restart: always
    container_name: influxdb
    ports:
     - "2003:2003"
     - "8086:8086"
     - "8089:8089"
     - "8091:8091"
    volumes:
     - "./influxdb:/var/lib/influxdb"
    environment:
     - INFLUXDB_GRAPHITE_ENABLED=true

"./influxdb:/var/lib/influxdb"为数据目录挂载, 必须配置 。INFLUXDB_GRAPHITE_ENABLED启动graphite功能。

influxdb简单操作:

  • docker exec -it influxdb influx
  • show databases
  • create database XX
  • use XX
  • INSERT cpu,host=serverA,region=us_west value=0.64
  • SELECT "host", "region", "value" FROM "cpu"

docker-compose相关操作

docker-compose [-f <文件名>] up -d
docker-compose [-f <文件名>] down 

zkui/kafdrop/grafana

在23机器上,部署这三个web界面:

zkui:
    image: maauso/zkui
    restart: always
    container_name: zkui
    ports:
     - 9090:9090
    environment:
     ZKLIST: 172.22.12.20:2181,172.22.12.21:2181,172.22.12.22:2181
   kafdrop:
    image: obsidiandynamics/kafdrop:latest
    restart: always
    container_name: kafdrop
    ports:
     - "9000:9000"
    environment:
     KAFKA_BROKERCONNECT: 172.22.12.20:9092,172.22.12.20:9092,172.22.12.20:9092
   grafana:
    image: grafana/grafana:master
    restart: always
    container_name: grafana
    ports:
     - "3000:3000"
    volumes:
     - "./grafana:/var/lib/grafana"

因为是web页面,配置好相关服务地址,启动就行了

其中grafana需要配置目录挂载,主要是记录自定义的数据源和面板配置等(这里需要chmod -R 777 grafana/)

storm集群

storm集群由 nimbus、supervisor、ui 三部分组成

nimbus为主节点,supervisor为从节点,前者将任务发到zookeeper上,后者到zookeeper上获取任务。ui为web页面。

20、21、22三台机器分别部署nimbus和supervisor节点各三个,且建议单独建立docker-compose脚本文件,在zookeeper启动后执行。

docker-compose脚本大致如下:

nimbus:
  image: storm:2.2.0
  container_name: nimbus1
  command: storm nimbus
  restart: always
  hostname: nimbus1
  ports:
   - 6627:6627
  volumes:
   - "./storm.yaml:/conf/storm.yaml"
   - "./nimbus/data:/data"
   - "./nimbus/logs:/logs"

 supervisor:
  image: storm:2.2.0
  container_name: supervisor1
  command: storm supervisor
  hostname: supervisor1
  depends_on:
   - nimbus
  links:
   - nimbus:nimbus
  restart: always
  volumes:
   - "./storm.yaml:/conf/storm.yaml"
   - "./supervisor/data:/data"
   - "./supervisor/logs:/logs"

nimbus、supervisor、ui都是使用同一个storm镜像,只是启动参数时command不同。

这里指定nimbus和supervisor的hostname,原因是默认情况下它们注册到zookeeper时的host为docker容器随机生成的uuid,

如果nimbus和supervisor重启了,其容器uuid也会重置,这时就和zookeeper中已经保存的uuid冲突,发生错误。

网上的方案是:1.停掉storm集群后删除zookeeper上的storm节点并重启zookeeper+storm集群;2.单独建一个无状态的zookeeper来给storm集群使用

这里采取的方案是指定nimbus和supervisor注册时的host,其重启时不会产生变化

启动时需要指定一些环境变量,这里采用本地配置文件映射的方式,storm.yaml配置如下:

storm.zookeeper.servers:
 - "172.22.12.20"
 - "172.22.12.21"
 - "172.22.12.22"
nimbus.seeds:
 - "nimbus1"
 - "nimbus2"
 - "nimbus3"
storm.log.dir: "/logs"
storm.local.dir: "/data"
storm.cluster.mode: distributed

storm.zookeeper.servers为zookeeper地址,默认取端口2181。nimbus.seeds为nimbus集群地址,这里取docker-compose中自定义的hostname。

storm-ui启动单例即可,docker-compose配置如下:

storm-ui:
  image: storm:2.2.0
  container_name: storm-ui
  command: storm ui
  depends_on:
   - nimbus
  links:
   - nimbus:nimbus
  restart: always
  ports:
   - 8080:8080
  volumes:
   - "./storm.yaml:/conf/storm.yaml"
   - "./ui/data:/data"
   - "./ui/logs:/logs"
  extra_hosts:
   - "nimbus1:172.22.12.20"
   - "nimbus2:172.22.12.21"
   - "nimbus3:172.22.12.22"
   - "supervisor1:172.22.12.20"
   - "supervisor2:172.22.12.21"
   - "supervisor3:172.22.12.22"

其中 extra_hosts 为容器启动后自定义的host映射,这样ui页面启动后才能通过注册上来的别名host对应到真正的ip地址。

部署docker容器时经常会遇到需要映射宿主机的配置文件到容器里,这样容器重启后配置就不会重置。

比如storm配置:- "./storm.yaml:/conf/storm.yaml" 但是映射后如果本地没有正确格式的storm.yaml就会启动失败,除了去官网下载安装包拿到其配置文件以外,可以先启动一个临时容器并拷贝其配置文件到宿主机。

docker run -d --name nimbus-tmp storm:2.2.0 storm nimbus

docker cp nimbus-tmp:/conf/storm.yaml 本地文件夹路径/

canal部署

canal部署前需要对其要连接的mysql做相应配置:

[mysqld]
log-bin=mysql-bin # 开启 binlog
binlog-format=ROW # 选择 ROW 模式
server_id=1 # 配置 MySQL replaction 需要定义,不要和 canal 的 slaveId 重复 

canal的docker-compose配置如下:

canal-server:
  image: canal/canal-server:v1.1.3
  container_name: canal-server
  ports:
   - 11111:11111
  environment:
   - canal.instance.mysql.slaveId=12
   - canal.auto.scan=false
   - canal.destinations=datacloud
   - canal.instance.master.address=10.23.16.32:3307
   - canal.instance.dbUsername=root
   - canal.instance.dbPassword=chinaunicom@dengfy
   - canal.instance.filter.regex=river\\..*
  volumes:
   - ./canal-server/logs/:/admin/canal-server/logs/

其中 slaveId 需要和mysql中配置不同, destinations 为自定义的实例名, canal.instance.filter.regex 为需要监控的数据库表过滤。

portainer部署

portainer时docker容器的可视化管理工具,可以管理上述的几台机器的docker容器,查看日志,修改启动脚本,停止容器等。

首先要对每一台机器开启docker api接口:

1.vim /usr/lib/systemd/system/docker.service   
在ExecStart启动项添加-H tcp://0.0.0.0:2375 -H unix:///var/run/docker.sock
2.重启docker服务 systemctl daemon-reload   systemctl restart docker

在其中一台机器上部署portainer容器:

portainer:
  image: portainer/portainer:1.24.1
  restart: always
  container_name: portainer_datacloud
  ports:
   - "8000:8000"
   - "9002:9000"
  volumes:
   - "./portainer/data:/data"
   - "/var/run/docker.sock:/var/run/docker.sock"

"/var/run/docker.sock:/var/run/docker.sock" 此条映射关系是单机模式下使用,我们采用的是远程api调用,因此可以不加。

打开ip:9002后,注册用户登录,settings>endpoints>Add endpoint>选择docker方式。

其中Endpoint URL填写目标ip:2375,Public IP添加目标ip,提交后即可看到其所有容器信息。

到此这篇关于docker-compose部署zk+kafka+storm集群的实现的文章就介绍到这了,更多相关docker compose部署集群内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • 使用Docker-compose离线部署Django应用的方法

    我们所在的内网环境需要部署一个类似CMS的应用,就是一些表格的CRUD,数据导出,人员权限管理等功能.想到Django做这方面的工作挺擅长的,而且开发量不大,于是选择Django作为开发基础.开发功能比较简单,差不多就是使用xadmin等插件实现以上功能.但有一个问题我们是不好绕过去的,那就是部署到一个内网环境,在内网pip等工具是不能使用的,但好在内网有一个yum服务器可以使用,所以我们决定在内网服务器上安装Docker,然后把开发环境的容器复制到生产环境实现部署.以下是主要的步骤: 安装开发

  • Docker-compose部署ELK的示例代码

    环境 主机IP 192.168.0.9 Docker version 19.03.2 docker-compose version 1.24.0-rc1 elasticsearch version 6.6.1 kibana version 6.6.1 logstash version 6.6.1 一.ELK-dockerfile文件编写及配置文件 ● elasticsearch 1.elasticsearch-dockerfile FROM centos:latest ADD elasticse

  • linux使用docker-compose部署软件配置详解

    前言 本篇将分享一些 docker-compose 的配置,可参考其总结自己的一套基于docker的开发/生产环境配置.下面话不多说了,来一起看看详细的介绍吧 安装docker及docker-compose install docker curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun install docker-compose sudo curl -L https://github.com/docker/co

  • Docker-compose一键部署gitlab中文版的方法步骤

    一.gitlab介绍 gitlab官方地址:https://about.gitlab.com/ GitLab是利用 Ruby on Rails 一个开源的版本管理系统,实现一个自托管的Git项目仓库,可通过Web界面进行访问公开的或者私人项目.它拥有与Github类似的功能,能够浏览源代码,管理缺陷和注释.可以管理团队对仓库的访问,它非常易于浏览提交过的版本并提供一个文件历史库.团队成员可以利用内置的简单聊天程序(Wall)进行交流.它还提供一个代码片段收集功能可以轻松实现代码复用,便于日后有需

  • docker-compose部署php项目实例详解

    1.制定特定扩展的PHP镜像 sudo mkdir -p /www/docker sudo cd /www/docker sudo vi Dockerfile FROM php:7.2-fpm-alpine MAINTAINER diaocheweide RUN sed -i 's/dl-cdn.alpinelinux.org/mirrors.aliyun.com/g' /etc/apk/repositories RUN apk update && apk add --no-cache -

  • Docker Compose部署及基础使用详解

    一 Docker Compose概述 Compose是一个用于定义和运行多容器Docker应用程序的工具.使用Compose,您可以使用YAML文件来配置应用程序的服务.然后,使用单个命令,您可以从配置中创建并启动所有服务. Compose适用于所有环境:生产,登台,开发,测试以及CI工作流程. 使用Compose基本上是一个三步过程: 在Dockerfile中定义您的应用程序环境,以便可以在任何地方进行再生产. 定义构成应用程序的服务,docker-compose.yml 以便它们可以在隔离环

  • 浅析docker-compose部署mysql无法访问的问题

    什么是Docker-Compose Compose项目来源于之前的fig项目,使用python语言编写,与docker/swarm配合度很高.Compose 是 Docker 容器进行编排的工具,定义和运行多容器的应用,可以一条命令启动多个容器,使用Docker Compose不再需要使用shell脚本来启动容器. Compose 通过一个配置文件来管理多个Docker容器,在配置文件中,所有的容器通过services来定义,然后使用docker-compose脚本来启动,停止和重启应用,和应用

  • docker-compose部署zk+kafka+storm集群的实现

    集群部署总览 172.22.12.20 172.22.12.21 172.22.12.22 172.22.12.23 172.22.12.24 zoo1:2181 zoo2:2182 zoo3:2183 zkui:9090 (admin/manager) kafka1:9092 kafka2:9092 kafka3:9092 kafdrop:9000 influxdb:8086 grafana:3000 (admin/chanhu) storm-nimbus1 storm-nimbus2 sto

  • kafka与storm集群环境的安装步骤详解

    前言 在开始之前,需要说明下,storm和kafka集群安装是没有必然联系的,我将这两个写在一起,是因为他们都是由zookeeper进行管理的,也都依赖于JDK的环境,为了不重复再写一遍配置,所以我将这两个写在一起.若只需一个,只需挑选自己选择的阅读即可.下面话不多说了,来一起看看详细的介绍吧. 这两者的依赖如下: Storm集群:JDK1.8 , Zookeeper3.4,Storm1.1.1: Kafa集群 : JDK1.8 ,Zookeeper3.4 ,Kafka2.12: 说明: Sto

  • Docker 部署单机版 Pulsar 和集群架构 Redis(开发神器)的方法

    一.前言: 现在互联网的技术架构中,不断出现各种各样的中间件,例如 MQ.Redis.Zookeeper,这些中间件在部署的时候一般都是以主从架构或者集群的架构来部署,公司一般都会在开发环境.测试环境和生产环境各部署一套. 当我们开发的时候,一般就会连着开发环境.但是呢,一般公司的开发环境都只能在内网使用,当我们回家了,除非公司提供有 VPN,不然就没办法使用了.有时候我们是有VPN了,但是开发起来还是很不方便.例如我们现在的 MQ 中间件使用的是 Pulsar,但是 Pulsar 的 tena

  • 通过Docker部署Redis 6.x集群的方法

    系统环境: Redis 版本:6.0.8 Docker 版本:19.03.12 系统版本:CoreOS 7.8 内核版本:5.8.5-1.el7.elrepo.x86_64 一.什么是 Redis 集群模式 在 Redis 3.0 版本后正式推出 Redis 集群模式,该模式是 Redis 的分布式的解决方案,是一个提供在多个 Redis 节点间共享数据的程序集,且 Redis 集群是去中心化的,它的每个 Master 节点都可以进行读写数据,每个节点都拥有平等的关系,每个节点都保持各自的数据和

  • Linux下Kafka分布式集群安装教程

    Kafka(http://kafka.apache.org/) 是由 LinkedIn 使用 Scala 编写的一个分布式消息系统,用作 LinkedIn 的活动流(Activity Stream)和运营数据处理管道(Pipeline)的基础,具有高水平扩展和高吞吐量.Spack.Elasticsearch 都支持与 Kafka 集成.下面看一下几种分布式开源消息队列系统的对比: Kafka 集群架构: 一般不建议直接使用 Kafka 自带的 Zookeeper 建立 zk 集群,这里我们使用独

  • Docker下安装zookeeper(单机和集群)

    启动Docker后,先看一下我们有哪些选择. 有官方的当然选择官方啦~ 下载: [root@localhost admin]# docker pull zookeeper Using default tag: latest Trying to pull repository docker.io/library/zookeeper ... latest: Pulling from docker.io/library/zookeeper 1ab2bdfe9778: Already exists 7a

  • Docker compose部署minio服务

    目录 介绍 单机版部署 纠删码模式部署 分布式部署 介绍 最近才知道minio这个对象存储服务中间件,简直相见恨晚,只怪我见识太短浅(哭泣脸). 说得通俗易懂点,minio的作用就是用来存储文件的,比如图片.视频.音频等各种类型的文件. 那么问题来了,java本身就可以直接把文件写到磁盘里面,为什么还要用minio呢? minio有完善的文件管理功能,包括针对文件的上传,下载,删除等 minio有强大的纠删功能,即便磁盘损坏,在一定程度上时可以避免丢失文件的 minio有完善的权限管理功能,它可

  • 关于Rancher部署并导入K8S集群的问题

    Rancher 的部署可以有三种架构: 高可用 Kubernetes 安装: 建议使用 Kubernetes 程序包管理器 Helm 在专用的 Kubernetes 集群上安装 Rancher.在 RKE 集群中,需要使用三个节点以实现高可用性.在 K3s 集群(轻量级kubernetes)中,仅需要两个节点即可. 单节点 Kubernetes 安装: 另一个选择是在 Kubernetes 集群上使用 Helm 安装 Rancher,仅在集群中使用单个节点.虽然在这种情况下的 Rancher S

  • 在CentOS中部署多节点Citus集群的详细步骤

    前言 本文主要介绍了关于CentOS中部署多节点Citus集群的相关内容,分享出来供大家参考学习,下面话不多说了,来一起看看详细的介绍吧. 1.在所有节点执行以下步骤 Step 01 添加Citus Repostory # Add Citus repository for package manager curl https://install.citusdata.com/community/rpm.sh | sudo bash Step 02 安装Citus并且初始化DB # install

  • docker安装ElasticSearch:7.8.0集群的详细教程

    ElasticSearch集群支持动态请求的方式搭建集群和静态配置文件搭建集群 关于集群的动态连接方式官方的文档:https://www.elastic.co/guide/en/elasticsearch/reference/current/cluster-update-settings.html 前置准备工作 关于参数的官网说明: https://www.elastic.co/guide/en/elasticsearch/reference/current/modules-discovery-

随机推荐