Docker容器跨主机通信overlay网络的解决方案

目录
  • 一、Docker主机间容器通信的解决方案
  • 二、Docker Overlay Network
  • 三、使用键值存储搭建Docker主机集群
    • 4.1 系统环境
    • 4.2 安装Consul
    • 4.3 节点配置Dockre守护进程连接Consul
    • 4.4 查看consul 中的节点信息
    • 4.5 创建overlay网络  
    • 4.6 使用overlay网络启动容器

一、Docker主机间容器通信的解决方案

Docker网络驱动

  • Overlay: 基于VXLAN封装实现Docker原生Overlay网络
  • Macvlan: Docker主机网卡接口逻辑上分为多个子接口,每个子接口标识一个VLAN。容器接口直接连接Docker主机
  • 网卡接口: 通过路由策略转发到另一台Docker主机

第三方网络项目

隧道方案

-- Flannel: 支持UDP和VLAN封装传输方式

-- Weave: 支持UDP(sleeve模式)和 VXLAN(优先fastdb模式)

-- OpenvSwitch: 支持VXLAN和GRE协议

路由方案

Calico: 支持BGP协议和IPIP隧道。每台宿主机作为虚拟路由,通过BGP协议实现不同主机容器间通信 

二、Docker Overlay Network

Overlay网络是指在不改变现有网络基础设施的前提下,通过某种约定通信协议,把二层报文封装在IP报文之上的新的数据格式。这样不但能够充分利用成熟的IP路由协议进程数据分发;而且在Overlay技术中采用扩展的隔离标识位数,能够突破VLAN的4000数量限制支持高达16M的用户,并在必要时可将广播流量转化为组播流量,避免广播数据泛滥。

因此,Overlay网络实际上是目前最主流的容器跨节点数据传输和路由方案。

要想使用Docker原生Overlay网络,需要满足下列任意条件

  • Docker 运行在Swarm
  • 使用键值存储的Docker主机集群

三、使用键值存储搭建Docker主机集群

需满足下列条件:

  • 集群中主机连接到键值存储,Docker支持 Consul、Etcd和Zookeeper
  • 集群中主机运行一个Docker守护进程
  • 集群中主机必须具有唯一的主机名,因为键值存储使用主机名来标识集群成员
  • 集群中linux主机内核版本在3.12+,支持VXLAN数据包处理,否则可能无法通行四、部署

4.1 系统环境

# docker -v
Docker version 17.12.0-ce, build c97c6d6

4.2 安装Consul

# wget https://releases.hashicorp.com/consul/0.9.2/consul_0.9.2_linux_386.zip

# unzip consul_1.0.6_linux_amd64.zip
# mv consul /usr/bin/ && chmod a+x /usr/bin/consul
# 启动
nohup consul agent -server -bootstrap -ui -data-dir /data/docker/consul \
> -client=172.16.200.208 -bind=172.16.200.208 &> /var/log/consul.log &
#-ui : consul 的管理界面
#-data-dir : 数据存储

4.3 节点配置Dockre守护进程连接Consul

在两台机器上都要修改

docker2

# vim /lib/systemd/system/docker.service

ExecStart=/usr/bin/dockerd  -H tcp://0.0.0.0:2375 -H unix:///var/run/docker.sock --cluster-store consul://172.16.200.208:8500 --cluster-advertise 172.16.200.208:2375
# systemctl daemon-reload
# systemctl restart docker

docker3

# vim /lib/systemd/system/docker.service

ExecStart=/usr/bin/dockerd  -H tcp://0.0.0.0:2375 -H unix:///var/run/docker.sock --cluster-store consul://172.16.200.208:8500 --cluster-advertise 172.16.200.223:2375
# systemctl daemon-reload
# systemctl restart docker

4.4 查看consul 中的节点信息

http://172.16.200.208:8500

4.5 创建overlay网络  

# docker network create -d overlay multi_host
53b042104f366cde2cc887e7cc27cde52222a846c1141690c93e1e17d96120c5

# docker network ls
NETWORK ID          NAME                  DRIVER              SCOPE
3f5ff55c93e6        bridge                bridge              local
1e3aff32ba48        composelnmp_default   bridge              local
0d60b988fe59        composetest_default   bridge              local
b4cf6d623265        host                  host                local
53b042104f36        multi_host

  -d : 指定创建网络的类型

  另一台机器会自动同步新建的网络

  详细信息

# docker network inspect multi_host
[
    {
        "Name": "multi_host",
        "Id": "53b042104f366cde2cc887e7cc27cde52222a846c1141690c93e1e17d96120c5",
        "Created": "2018-03-07T16:23:38.682906025+08:00",
        "Scope": "global",
        "Driver": "overlay",
        "EnableIPv6": false,
        "IPAM": {
            "Driver": "default",
            "Options": {},
            "Config": [
                {
                    "Subnet": "10.0.0.0/24",
                    "Gateway": "10.0.0.1"
                }
            ]
        },
        "Internal": false,
        "Attachable": false,
        "Ingress": false,
        "ConfigFrom": {
            "Network": ""
        },
        "ConfigOnly": false,
        "Containers": {},
        "Options": {},
        "Labels": {}
    }
]

4.6 使用overlay网络启动容器

  分别在两台机器上使用overlay网络启动一个容器

# docker run -it --net=multi_host busybox

这两个节点上的容器的ip分别为: 

[root@docker2 ~]# docker run -it --net=multi_host busybox
/ # ifconfig
eth0      Link encap:Ethernet  HWaddr 02:42:0A:00:00:02
          inet addr:10.0.0.2  Bcast:10.0.0.255  Mask:255.255.255.0
          UP BROADCAST RUNNING MULTICAST  MTU:1450  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:0 (0.0 B)  TX bytes:0 (0.0 B)
/ # ifconfig
eth0      Link encap:Ethernet  HWaddr 02:42:0A:00:00:03
          inet addr:10.0.0.3  Bcast:10.0.0.255  Mask:255.255.255.0
          UP BROADCAST RUNNING MULTICAST  MTU:1450  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:0 (0.0 B)  TX bytes:0 (0.0 B)

它们之间是可以相互ping 通的

# ping 10.0.0.2
PING 10.0.0.2 (10.0.0.2): 56 data bytes
64 bytes from 10.0.0.2: seq=0 ttl=64 time=11.137 ms
64 bytes from 10.0.0.2: seq=1 ttl=64 time=0.251 ms
64 bytes from 10.0.0.2: seq=2 ttl=64 time=0.280 ms

到此这篇关于Docker容器跨主机通信--overlay网络的文章就介绍到这了,更多相关Docker容器跨主机通信内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • 详解Docker容器跨主机通信的方法

    默认情况下Docker容器需要跨主机通信两个主机节点都需要在同一个网段下,这时只要两个Docker容器的宿主机能相互通信并且该容器使用net网络模式,改实现方式为网桥模式通信: 除此之外我们还可以通过使用第三方工具为不同主机间创建一个覆盖网络,使之能够 跨节点通信 ,这里将使用Flanneld实现: 安装etcd 创建 cat /etc/etcd/etcd.conf文件 # [member] ETCD_NAME=infra1 ETCD_DATA_DIR="/var/lib/etcd"

  • 对docker中的overlay式网络详解

    翻译自docker官方文档,原文:https://docs.docker.com/network/overlay/ overlay(覆盖)式网络会在多个docker守护进程所在的主机之间创建一个分布式的网络.这个网络会覆盖宿主机特有的网络,并允许容器连接它(包括集群服务中的容器)来安全通信.显然,docker会处理docker守护进程源容器和目标容器之间的数据报的路由. 当你初始化一个集群(swarm)或把一个docker宿主机加入一个已经存在的集群时,宿主机上会新建两个网络: 一个叫ingre

  • Docker跨主机网络(overlay)的实现

    一.Docker 跨主机通信 Docker跨主机网络方案包括: docker 原生的 overlay 和 macvlan. 第三方方案:常用的包括 flannel.weave 和 calico. docker 通过 libnetwork 以及 CNM 将上述各种方案与docker集成在一起. libnetwork 是 docker 容器网络库,最核心的内容是其定义的 Container Network Model (CNM),这个模型对容器网络进行了抽象,由以下三类组件组成: 1.1 Sandb

  • Docker容器跨主机通信中直接路由方式详解

    概述 就目前Docker自身默认的网络来说,单台主机上的不同Docker容器可以借助docker0网桥直接通信,这没毛病,而不同主机上的Docker容器之间只能通过在主机上用映射端口的方法来进行通信,有时这种方式会很不方便,甚至达不到我们的要求,因此位于不同物理机上的Docker容器之间直接使用本身的IP地址进行通信很有必要.再者说,如果将Docker容器起在不同的物理主机上,我们不可避免的会遭遇到Docker容器的跨主机通信问题.本文就来尝试一下. 方案原理分析 由于使用容器的IP进行路由,就

  • Docker容器跨主机通信overlay网络的解决方案

    目录 一.Docker主机间容器通信的解决方案 二.Docker Overlay Network 三.使用键值存储搭建Docker主机集群 4.1 系统环境 4.2 安装Consul 4.3 节点配置Dockre守护进程连接Consul 4.4 查看consul 中的节点信息 4.5 创建overlay网络 4.6 使用overlay网络启动容器 一.Docker主机间容器通信的解决方案 Docker网络驱动 Overlay: 基于VXLAN封装实现Docker原生Overlay网络 Macvl

  • 详解Docker 容器跨主机多网段通信解决方案

    一.MacVlan 实现Docker的跨主机网络通信的方案有很多,如之前博文中写到的通过部署 Consul服务实现Docker容器跨主机通信 Macvlan工作原理: Macvlan是Linux内核支持的网络接口.要求的Linux内部版本是v3.9–3.19和4.0+: 通过为物理网卡创建Macvlan子接口,允许一块物理网卡拥有多个独立的MAC地址和IP地址.虚拟出来的子接口将直接暴露在相邻物理网络中.从外部看来,就像是把网线隔开多股,分别接受了不同的主机上一样: 物理网卡收到包后,会根据收到

  • Docker容器与主机间的文件传输方法(复制/上传/下载)

    1.首先启动容器(以first-mysql容器为例) docker start first-mysql 2.查看容器ID root@kobe:/opt/software/temp/test# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 688e83c55129 mysql "docker-entrypoint.s-" 6 days ago Up 3 seconds 0.0.0.0:3306->33

  • Docker跨服务器通信Overlay解决方案(上)之 Consul单实例

    目录 场景 任务 想法 分析 概念与选型 小试身手 环境说明 注意事项 动手做 测试 引文 场景 公司微服务快上线了,微服务都是用Docker容器进行部署的,在同一台主机下,把服务都部署上,注册到Nacos的IP与PORT都是内网的IP与Dockerfile中定义的端口号,看起来好像也没什么问题,通过网关去调用也是可以调通的,请注意这有一个大前提: 必须把所有服务容器部署在同一台主机上时才可以! 当服务实例没有部署在同一主机上,比如网关服务在A服务器,服务a在B服务器上,同样注册到Nacos (

  • Docker容器连接相互通信的实现

    端口映射并不是唯一把 docker 连接到另一个容器的方法. docker 有一个连接系统允许将多个容器连接在一起,共享连接信息. docker 连接会创建一个父子关系,其中父容器可以看到子容器的信息. 容器命名 当我们创建一个容器的时候,docker 会自动对它进行命名.另外,我们也可以使用 --name 标识来命名容器,例如: runoob@runoob:~$ docker run -d -P --name runoob training/webapp python app.py 43780

  • Docker容器之间的通信的方法实现

    情景:本地已经搭建laradock开发环境(php7.3+mysql5.7),现在想用laradock环境来运行同一个已有项目,但是该项目数据在mysql5.6的docker容器里,现在需要连接两个容器,实现数据交互. 在网上涉猎了很多与<docker 容器之间通信_docker中容器如何实现通信>的相关资料,最终觉得使用docker新创建一个网络(-d bridge网络驱动器为bridge),把两个容器都连接到该网络下,实现数据交互. 方法如下: 自己创建一个网络 [root@docker

  • Docker容器内不能联网的6种解决方案

    Docker容器内不能联网的6种解决方案 注:下面的方法是在容器内能ping通公网IP的解决方案,如果连公网IP都ping不通,那主机可能也上不了网(尝试ping 8.8.8.8) 1.使用–net:host选项 sudo docker run --net:host --name ubuntu_bash -i -t ubuntu:latest /bin/bash 2.使用–dns选项 sudo docker run --dns 8.8.8.8 --dns 8.8.4.4 --name ubunt

  • Docker容器不识别宋体等字体的解决方案

    问题背景: 在使用docker部署项目的时候,由于项目中调用打印控件默认使用的是系统字体,在windows上部署没有问题,但是在docker容器中运行的时候,由于docker中没有宋体等相关字体,导致系统报错无法找到相应的字体. 解决思路: 其实就像解决linux本身没有宋体的问题一样,也可以用来解决容器问题.发现其实很多docker容器的问题最后都可以仿照linux的解决思路来处理.大体就是下载宋体ttf.ttc文件,然后将其考入容器字体目录下,重启容器即可. 解决办法: 1.查看容器支持的字

随机推荐