golang grpc 负载均衡的方法

微服务架构里面,每个服务都会有很多节点,如果流量分配不均匀,会造成资源的浪费,甚至将一些机器压垮,这个时候就需要负载均衡,最简单的一种策略就是轮询,顺序依次选择不同的节点访问。

grpc 在客户端提供了负载均衡的实现,并提供了服务地址解析和更新的接口(默认提供了 DNS 域名解析的支持),方便不同服务的集成

使用示例

conn, err := grpc.Dial(
  "",
  grpc.WithInsecure(),
  // 负载均衡,使用 consul 作服务发现
  grpc.WithBalancer(grpc.RoundRobin(grpclb.NewConsulResolver(
    "127.0.0.1:8500", "grpc.health.v1.add",
  ))),
)

创建连接的时候可以使用 WithBalancer 选项来指定负载均衡策略,这里使用 RoundRobin 算法,其实就是轮询策略

与 consul 的集成

有了负载均衡策略,还需要一个地址解析和更新策略,可以使用 DNS 服务来实现,但如果我们使用 consul 来做服务的注册和发现,可以通过实现 ‘naming.Resolver' 和 ‘naming.Watcher' 接口来支持

  • naming.Resolver: 实现地址解析
  • naming.Watcher: 实现节点的变更,添加或者删除
func NewConsulResolver(address string, service string) naming.Resolver {
  return &consulResolver{
    address: address,
    service: service,
  }
}
type consulResolver struct {
  address string
  service string
}
func (r *consulResolver) Resolve(target string) (naming.Watcher, error) {
  config := api.DefaultConfig()
  config.Address = r.address
  client, err := api.NewClient(config)
  if err != nil {
    return nil, err
  }
  return &consulWatcher{
    client: client,
    service: r.service,
    addrs:  map[string]struct{}{},
  }, nil
}
type consulWatcher struct {
  client  *api.Client
  service  string
  addrs   map[string]struct{}
  lastIndex uint64
}
func (w *consulWatcher) Next() ([]*naming.Update, error) {
  for {
    services, metainfo, err := w.client.Health().Service(w.service, "", true, &api.QueryOptions{
      WaitIndex: w.lastIndex, // 同步点,这个调用将一直阻塞,直到有新的更新
    })
    if err != nil {
      logrus.Warn("error retrieving instances from Consul: %v", err)
    }
    w.lastIndex = metainfo.LastIndex
    addrs := map[string]struct{}{}
    for _, service := range services {
      addrs[net.JoinHostPort(service.Service.Address, strconv.Itoa(service.Service.Port))] = struct{}{}
    }
    var updates []*naming.Update
    for addr := range w.addrs {
      if _, ok := addrs[addr]; !ok {
        updates = append(updates, &naming.Update{Op: naming.Delete, Addr: addr})
      }
    }
    for addr := range addrs {
      if _, ok := w.addrs[addr]; !ok {
        updates = append(updates, &naming.Update{Op: naming.Add, Addr: addr})
      }
    }
    if len(updates) != 0 {
      w.addrs = addrs
      return updates, nil
    }
  }
}
func (w *consulWatcher) Close() {
  // nothing to do
}

参考链接

gRPC Name Resolution: https://github.com/grpc/grpc/blob/master/doc/naming.md

Load Balancing in gRPC: https://github.com/grpc/grpc/blob/master/doc/load-balancing.md

dns_resolver: https://github.com/grpc/grpc-go/blob/30fb59a4304034ce78ff68e21bd25776b1d79488/naming/dns_resolver.go

代码地址: https://github.com/hatlonely/hellogolang/blob/master/sample/addservice/cmd/client/main.go

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我们。

(0)

相关推荐

  • go grpc安装使用教程

    gRPC是由Google主导开发的RPC框架,使用HTTP/2协议并用ProtoBuf作为序列化工具.其客户端提供Objective-C.Java接口,服务器侧则有Java.Golang.C++等接口,从而为移动端(iOS/Androi)到服务器端通讯提供了一种解决方案. 当然在当下的环境下,这种解决方案更热门的方式是RESTFull API接口.该方式需要自己去选择编码方式.服务器架构.自己搭建框架(JSON-RPC). 1. 前提 确保go的版本在1.6及以上 确保glibc版本在2.14及

  • 详解golang consul-grpc 服务注册与发现

    在微服务架构里面,每个小服务都是由很多节点组成,节点的添加删除故障希望能对下游透明,因此有必要引入一种服务的自动注册和发现机制,而 consul 提供了完整的解决方案,并且内置了对 GRPC 以及 HTTP 服务的支持 总体架构 服务调用: client 直连 server 调用服务 服务注册: 服务端将服务的信息注册到 consul 里 服务发现: 客户端从 consul 里发现服务信息,主要是服务的地址 健康检查: consul 检查服务器的健康状态 服务注册 服务端将服务信息注册到 con

  • golang grpc 负载均衡的方法

    微服务架构里面,每个服务都会有很多节点,如果流量分配不均匀,会造成资源的浪费,甚至将一些机器压垮,这个时候就需要负载均衡,最简单的一种策略就是轮询,顺序依次选择不同的节点访问. grpc 在客户端提供了负载均衡的实现,并提供了服务地址解析和更新的接口(默认提供了 DNS 域名解析的支持),方便不同服务的集成 使用示例 conn, err := grpc.Dial( "", grpc.WithInsecure(), // 负载均衡,使用 consul 作服务发现 grpc.WithBal

  • grpc-java k8s下的负载均衡处理方法

    目录 前言 现状 负载均衡的方案 一.客户端dns模式 二.客户端注册中心模式 三.代理端走ingress 四.代理端servicemesh 结语 前言 grpc 因为是长连接的,所以负载均衡处理起来没有 rest 接口那么容易.常见的 grpc 负载均衡方法分为两类,一类是客户端侧实现负载逻辑,一类是代理侧实现负载逻辑,对客户端侧是透明的.在容器化的网络环境里, grpc-java 客户端侧的负载均衡有两种常见的实现路径. 1.基于 dns 实现, 2.基于外部的服务注册中心实现(ZooKee

  • Spring Cloud Ribbon实现客户端负载均衡的方法

    简介 我们继续以之前博客的代码为基础,增加Ribbon组件来提供客户端负载均衡.负载均衡是实现高并发.高性能.可伸缩服务的重要组成部分,它可以把请求分散到一个集群中不同的服务器中,以减轻每个服务器的负担.客户端负载均衡是运行在客户端程序中的,如我们的web项目,然后通过获取集群的IP地址列表,随机选择一个server发送请求.相对于服务端负载均衡来说,它不需要消耗服务器的资源. 基础环境 JDK 1.8 Maven 3.3.9 IntelliJ 2018.1 Git:项目源码 更新配置 我们这次

  • CentOS基于nginx反向代理实现负载均衡的方法

    本文实例讲述了CentOS基于nginx反向代理实现负载均衡的方法.分享给大家供大家参考,具体如下: nginx做负载均衡的优点: 1.工作在网络的7层之上,可以针对http应用做一些分流的策略,比如针对域名.目录结构,它的正则规则比HAProxy更为强大和灵活,这也是它目前广泛流行的主要原因之一,nginx单凭这点可利用的场合就远多于LVS了 2.nginx对网络稳定性的依赖非常小,理论上能ping通就就能进行负载功能,这个也是它的优势之一:相反LVS对网络稳定性依赖比较大,这点本人深有体会

  • Windows下Apache+Tomcat7负载均衡配置方法详解

    准备工作 Windows Server 2008 R2 Enterprise(2.40GH,8GB,64Bit,192.168.10.212) 2台Ubuntu 10.04.4(192.168.10.98,192.168.10.137) JDK1.7.80 Tomcat7.0.68 Apache2.4.4 1.安装Apache2.4.4 安装过程中没什么注意事项,一直Next就行了.安装完成后默认开启Apache服务,可以在浏览器上输入localhost或者127.0.0.1,这时候会出现It

  • 在Nginx服务器中配置针对TCP的负载均衡的方法

    默认nginx不支持tcp的负载均衡,需要打补丁,(连接方式:从客户端收到一个连接,将从本地新建一个连接发起到后端服务器),具体配置如下: 一.安装Nginx 1.下载nginx # wget http://nginx.org/download/nginx-1.2.4.tar.gz 2.下载tcp模块补丁 # wget https://github.com/yaoweibin/nginx_tcp_proxy_module/tarball/master 源码主页: https://github.c

  • windows下nginx+tomcat配置负载均衡的方法

    目标:Nginx做为HttpServer,连接多个tomcat应用实例,进行负载均衡. 注:本例程以一台机器为例子,即同一台机器上装一个nginx和2个Tomcat且安装了JDK1.7. 1.安装Nginx 安装Nginx教程 2.配置两个Tomcat 在本机上配置两个Tomcat,分别为tomcat7-8081.tomcat7-8082. tomcat7-8081访问地址:http://localhost:8081,浏览显示内容:this is 8081 port tomcat7-8082访问

  • 在 Linux 上用 DNS 实现简单的负载均衡的方法

    DNS 轮询将多个服务器映射到同一个主机名,并没有为这里展示的魔法做更多的工作. 如果你的后端服务器是由多台服务器构成的,比如集群化或者镜像的 Web 或者文件服务器,通过负载均衡器提供了单一的入口点.业务繁忙的大型电商在高端负载均衡器上花费了大量的资金,用它来执行各种各样的任务:代理.缓存.状况检查.SSL 处理.可配置的优先级.流量整形等很多任务. 但是你并不需要做那么多工作的负载均衡器.你需要的是一个跨服务器分发负载的简单方法,它能够提供故障切换,并且不太在意它是否高效和完美.DNS 轮询

  • LVS+Keepalived构建高可用负载均衡配置方法(配置篇)

    一. LVS简介    LVS是Linux Virtual Server的简称,也就是Linux虚拟服务器, 是一个由章文嵩博士发起的自由软件项目,它的官方站点是www.linuxvirtualserver.org.现在LVS已经是 Linux标准内核的一部分,在Linux2.4内核以前,使用LVS时必须要重新编译内核以支持LVS功能模块,但是从Linux2.4内核以后,已经完全内置了LVS的各个功能模块,无需给内核打任何补丁,可以直接使用LVS提供的各种功能.使用LVS技术要达到的目标是:通过

  • Nginx+Windows负载均衡配置方法

    一.下载Nginx http://nginx.org/download/nginx-1.2.5.zip 解压到C:\nginx目录下 二.在两台服务器上分别建一个网站: S1:192.168.16.35:8054 S2:192.168.16.16:8089 二.找到目录 C:\nginx\conf\nginx.conf 打开nginx.conf 配置如下: 复制代码 代码如下: #使用的用户和组,window下不指定 #user nobody; #指定工作衍生进程数(一般等于CPU总和数或总和数

随机推荐