Nginx如何配置负载均衡

Nginx配置负载均衡

使用nginx来配置负载均衡也是比较简单的

首先在http块中配置虚拟域名所对应的地址

# 负载均衡
upstream myserver {
 server 127.0.0.1:8080;
 server 127.0.0.1:8082;
}

然后在server块中配置监听

server {
 listen  9000;
 server_name localhost;

 location / {
  root html;
  index index.html index.htm;
  # 对应上述upstream所配置的名称
  proxy_pass http://myserver;

  ### 下面都是次要关注项
  proxy_set_header Host $host;
  proxy_method POST;

   # 指定不转发的头部字段
  proxy_hide_header Cache-Control;

   # 指定转发的头部字段
  proxy_pass_header Server-IP;

   # 是否转发包体
  proxy_pass_request_body on | off;

   # 是否转发头部
  proxy_pass_request_headers on | off;

   # 显形/隐形 URI,上游发生重定向时,Nginx 是否同步更改 uri
  proxy_redirect on | off;
 }
}

这样在使用9000端口访问服务器的时候就会进行8080和8082的负载调用

Nginx 负载均衡策略

轮询(默认)

按照时间顺序逐一的分配到不同的服务器,如果后端服务器挂掉,会自动删除

权重(weight)

weight代表权重,默认为1,权重越大分配的请求越多

# 负载均衡
upstream myserver {
 server 127.0.0.1:8080 weight=1;
 server 127.0.0.1:8082 weight=2;
}

ip_hash

每个请求按照访问的ip进行hash分配,使得每个访问者固定访问某一个服务器,可以解决session问题

# 负载均衡
upstream myserver {
  ip_hash;
 server 127.0.0.1:8080;
 server 127.0.0.1:8082;
}

fair(第三方)

根据请求的响应时间来分配,哪个服务器响应的快分配给谁

以上就是Nginx如何配置负载均衡的详细内容,更多关于Nginx配置负载均衡的资料请关注我们其它相关文章!

(0)

相关推荐

  • .Net Core + Nginx实现项目负载均衡的全步骤

    nginx大家如果没用过那或多或少都应该听过,vue的部署.反向代理.负载均衡nginx都能帮你做到. 今天主要说一下nginx负载均衡我们的项目,如下图所示,请求到达nginx,nginx再帮我们转发. 首先使用Docker安装nginx. docker pull nginx:latest 运行容器,将本地的8080端口映射到容器内部的 80 端口. docker run --name nginx -p 8080:80 -d nginx 查看nginx容器,如果有错请看日志. 浏览器中访问一下

  • Nginx+Tomcat实现负载均衡、动静分离的原理解析

    一.Nginx 负载均衡实现原理 1.Nginx 实现负载均衡是通过反向代理实现 反向代理(Reverse Proxy) 是指以 代理服务器(例:Nginx) 来接受 internet 上的连接请求,然后将请求转发给内部网络上的服务器(例:Tomcat),并将从服务器上得到的结果返回给 internet 上请求连接的客户端,此时代理服务器(例:Nginx)对外就表现为一个反向代理服务器. 我们从客户端的视野来看,实际上客户端并不知道真实的服务提供者是哪台服务器,它只知道它请求了反向代理服务器.因

  • Nginx+tomcat负载均衡集群的实现方法

    实验环境如下 这里需要准备4台服务器(1台nginx.2台tomcat做负载.一台MySQL做数据存储) 准备软件包如下: 软件包地址连接: 链接: https://pan.baidu.com/s/1Zitt5gO5bDocV_8TgilvRw 提取码: ny1r nginx配置(172.16.1.54) 1.安装依赖包 yum -y install pcre-devel zlib-devel gcc gcc-c++ 2.创建nginx运行用户 useradd -M -s /sbin/nolog

  • Docker Nginx容器和Tomcat容器实现负载均衡与动静分离操作

    下载Tomcat8镜像 [root@localhost ~]# docker search tomcat8 NAME DESCRIPTION STARS OFFICIAL AUTOMATED ashince/tomcat8 Tomcat GUI Manager pre-configured docker ima- 5 podbox/tomcat8 2 [OK] 这个tomcat包含了jdk而且启动了可以直接访问,自己启动了8080端口 [root@localhost ~]# docker pul

  • Nginx配置参数中文说明详解(负载均衡与反向代理)

    PS:最近在看<<高性能Linux服务器构建实战>>的Nginx章节,对其nginx介绍的非常详细,现把经常用到的Nginx配置参数中文说明摘录和nginx做负载均衡的本人真实演示实例抄录下来以便以后查看! Nginx配置参数中文详细说明 #定义Nginx运行的用户和用户组 user www www; # #nginx进程数,建议设置为等于CPU总核心数. worker_processes 8; # #全局错误日志定义类型,[ debug | info | notice | war

  • Nginx + consul + upsync 完成动态负载均衡的方法详解

    前置知识 DNS域名解析过程 在浏览器输入域名,访问后 在浏览器缓存中查找是否有对应的ip和端口,如果有直接访问对应ip和端口 浏览器缓存中没有则在本地host文件中查找是否有对应的~~ 本地host文件中没有则去DSN服务器上查找 外网映射 顾名思义,就是将本地的ip地址,映射出一个公网ip,可以供所有主机(连接到互联网的计算机)访问 疑问:为什么需要使用外网映射 例如做微信支付时的第三方接口回调,微信回调你的接口必须是一个公网ip地址,不然他根本无法给你回调,导致你本地无法测试.这个时候你就

  • Nginx 负载均衡是什么以及该如何配置

    什么是负载均衡 负载均衡主要通过专门的硬件设备或者通过软件算法实现.通过硬件设备实现的负载均衡效果好.效率高.性能稳定,但是成本比较高.通过软件实现的负载均衡主要依赖于均衡算法的选择和程序的健壮性.均衡算法也是多种多样的,常见的有两大类:即静态负载均衡算法和动态负载均衡算法.静态算法实现比较简单,在一般网络环境下也能达到比较好的效果,主要有一般轮询算法.基于比率的加权轮询算法以及基于优先级的加权轮询算法等.动态负载均衡算法在较为复杂的网络环境中适应性更强,效果更好,主要有基于任务量的最少连接优先

  • nginx负载均衡配置,宕机自动切换方式

    严格来说,nginx自带是没有针对负载均衡后端节点的健康检查的,但是可以通过默认自带的ngx_http_proxy_module模块和ngx_http_upstream_module模块中的相关指令来完成当后端节点出现故障时,自动切换到健康节点来提供访问. 下面列出这两个模块中相关的指令: 语法: proxy_connect_timeout time; 默认值: proxy_connect_timeout 60s; 设置与后端服务器建立连接的超时时间.应该注意这个超时一般不可能大于75秒. 语法

  • Nginx反向代理及负载均衡如何实现(基于linux)

    这里来试验下nginx的反向代理. 反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个反向代理服务器. 在我们的java项目中的体现就是,通过80端口访问,Nginx接收到,然后进行转发给tomcat服务器,再将服务器的结果给返回. 这里需要修改nginx.conf文件. upstream backend { #代理的IP

  • Nginx+SpringBoot实现负载均衡的示例

    负载均衡介绍 在介绍Nginx的负载均衡实现之前,先简单的说下负载均衡的分类,主要分为硬件负载均衡和软件负载均衡,硬件负载均衡是使用专门的软件和硬件相结合的设备,设备商会提供完整成熟的解决方案,比如F5,在数据的稳定性以及安全性来说非常可靠,但是相比软件而言造价会更加昂贵:软件的负载均衡以Nginx这类软件为主,实现的一种消息队列分发机制. 简单来说所谓的负载均衡就是把很多请求进行分流,将他们分配到不同的服务器去处理.比如我有3个服务器,分别为A.B.C,然后使用Nginx进行负载均衡,使用轮询

随机推荐