详解Ngigx+Tomcat配置动静分离,负载均衡

由于公司使用过Ngnix,对于刚接触Nginx来说,感觉有些好奇,于是研究了下。

本人在windows下使用的版本是nginx-1.8.1:

1. 启动Ngnix

双击nginx-1.8.1文件夹中nginx.exe,当任务管理器中存在两个nginx进程时,则说明启动成功!

2. Ngnix常用命令

  • nginx -s stop 强制关闭
  • nginx -s quit 安全关闭
  • nginx -s reload 改变配置文件的时候,重启nginx工作进程,来时配置文件生效
  • nginx -s reopen 打开日志文件

3. Nginx配置

下面配置综合了网上的资料,记下,防止自己忘记。

#Nginx所用用户和组
#user nobody;
#工作的子进程数量(通常等于CPU数量或者2倍于CPU)
worker_processes 1;

#错误日志存放路径
#error_log logs/error.log;
#error_log logs/error.log notice;
#error_log logs/error.log info;

#指定pid存放文件
#pid    logs/nginx.pid;

events {
  #使用网络IO模型linux建议epoll,FreeBSD建议采用kqueue
  #use epoll;

  #使用epoll模型提高性能 win下不需要
  #use epoll;
  #允许最大连接数
  worker_connections 1024;
}

http {
  #扩展名与文件类型映射表
  include    mime.types;
  #默认类型
  default_type application/octet-stream;

  #定义日志格式
  #log_format main '$remote_addr - $remote_user [$time_local] "$request" '
  #         '$status $body_bytes_sent "$http_referer" '
  #         '"$http_user_agent" "$http_x_forwarded_for"';

  #access_log logs/access.log main;

  # 启用内核复制模式,应该保持开启达到最快IO效率
  sendfile    on;
  #tcp_nopush   on;

  #keepalive_timeout 0;
  # HTTP1.1支持持久连接alive
  # 降低每个连接的alive时间可在一定程度上提高可响应连接数量,所以一般可适当降低此值
  keepalive_timeout 65;

  # 启动gzip压缩功能设置,有效降低网络流量
  gzip on;
  gzip_min_length 1k;  #最小1K
  gzip_buffers  4 16k;
  gzip_http_version 1.0;
  gzip_comp_level 2;
  gzip_types text/plain application/x-javascripttext/css application/xml;
  gzip_vary on;

  # 静态文件缓存
  # 最大缓存数量,文件未使用存活期
  open_file_cache max=655350 inactive=20s;
  # 验证缓存有效期时间间隔
  open_file_cache_valid 30s;
  # 有效期内文件最少使用次数
  open_file_cache_min_uses 2;

  #xbq add
  #upstream作负载均衡,在此配置需要轮询的服务器地址和端口号,max_fails为允许请求失败的次数,默认为1.
  #weight为轮询权重,根据不同的权重分配可以用来平衡服务器的访问率。
  upstream hostname {
    server 127.0.0.1:9000 max_fails=0 weight=2;
    server 127.0.0.1:9001 max_fails=0 weight=2;
  }

  server {
    listen    8181;
    server_name localhost;

    #charset koi8-r;
    #access_log logs/host.access.log main;

    root /img; #在nginx-1.8.1文件夹中新建img文件夹,用于存放静态资源

    location / {
      #root  html;
      #index index.html index.htm;
      #xbq add
      proxy_pass http://hostname;
      #下面三条指令允许重新定义和添加一些将被转移到被代理服务器的请求头部信息
      # 请求头中Host信息
      proxy_set_header Host $host;
      # 真实的客户端IP
      proxy_set_header X-Real-IP $remote_addr;
      # 代理路由信息,此处取IP有安全隐患
      proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
      # 真实的用户访问协议
      proxy_set_header X-Forwarded-Proto $scheme;

      # 默认值default,
      # 后端response 302时 tomcat header中location的host是http://192.168.1.62:8080
      # 因为tomcat收到的请求是nginx发过去的, nginx发起的请求url host是http://192.168.1.62:8080
      # 设置为default后,nginx自动把响应头中location host部分替换成当前用户请求的host部分
      # 网上很多教程将此值设置成 off,禁用了替换,
      # 这样用户浏览器收到302后跳到http://192.168.1.62:8080,直接将后端服务器暴露给浏览器
      # 所以除非特殊需要,不要设置这种画蛇添足的配置
      proxy_redirect default;
      client_max_body_size 10m;  #允许客户端请求的最大单文件字节数
      client_body_buffer_size 128k; #缓冲区代理缓冲用户端请求的最大字节数
      proxy_connect_timeout 90;  #nginx跟后端服务器连接超时时间
      proxy_read_timeout 90;   #连接成功后,后端服务器响应时间
      proxy_buffer_size 4k;    #设置代理服务器(nginx)保存用户头信息的缓冲区大小
      proxy_buffers 6 32k;    #proxy_buffers缓冲区,网页平均在32k以下的话,这样设置
      proxy_busy_buffers_size 64k;#高负荷下缓冲大小(proxy_buffers*2)
      proxy_temp_file_write_size 64k; #设定缓存文件夹大小,大于这个值,将从upstream服务器传

    }

    #xbq add
    #配置Nginx动静分离,定义的静态页面直接从/usr/nginxStaticFile(Nginx发布目录)读取。
    location ~\.(gif|jpg|jpeg|png|css|js|php)$ {

      #expires定义用户浏览器缓存的时间为7天,如果静态页面不常更新,可以设置更长,这样可以节省带宽和缓解服务器的压力  E:/staticResource;
      expires 7d;
    }

    #xbq add
    #启用nginx status 监听页面
    location /nginxstatus {
      stub_status on;
      access_log on;
    }

    #error_page 404       /404.html;

    # redirect server error pages to the static page /50x.html
    #
    error_page  500 502 503 504 /50x.html;
    location = /50x.html {
      root  html;
    }

    # proxy the PHP scripts to Apache listening on 127.0.0.1:80
    #
    #location ~ \.php$ {
    #  proxy_pass  http://127.0.0.1;
    #}

    # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
    #
    #location ~ \.php$ {
    #  root      html;
    #  fastcgi_pass  127.0.0.1:9000;
    #  fastcgi_index index.php;
    #  fastcgi_param SCRIPT_FILENAME /scripts$fastcgi_script_name;
    #  include    fastcgi_params;
    #}

    # deny access to .htaccess files, if Apache's document root
    # concurs with nginx's one
    #
    #location ~ /\.ht {
    #  deny all;
    #}
  }

  # another virtual host using mix of IP-, name-, and port-based configuration
  #
  #server {
  #  listen    8000;
  #  listen    somename:8080;
  #  server_name somename alias another.alias;

  #  location / {
  #    root  html;
  #    index index.html index.htm;
  #  }
  #}

  # HTTPS server
  #
  #server {
  #  listen    443 ssl;
  #  server_name localhost;

  #  ssl_certificate   cert.pem;
  #  ssl_certificate_key cert.key;

  #  ssl_session_cache  shared:SSL:1m;
  #  ssl_session_timeout 5m;

  #  ssl_ciphers HIGH:!aNULL:!MD5;
  #  ssl_prefer_server_ciphers on;

  #  location / {
  #    root  html;
  #    index index.html index.htm;
  #  }
  #}

}

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我们。

(0)

相关推荐

  • Nginx实现集群的负载均衡配置过程解析

    Nginx 的负载均衡功能,其实实际上和 nginx 的代理是同一个功能,只是把代理一台机器改为多台机器而已. Nginx 的负载均衡和 lvs 相比,nginx属于更高级的应用层,不牵扯到 ip 和内核的修改,它只是单纯地把用户的请求转发到后面的机器上.这就意味着,后端的 RS 不需要配置公网. 一.实验环境 Nginx 调度器 (public 172.16.254.200 privite 192.168.0.48) RS1只有内网IP (192.168.0.18) RS2只有外网IP (19

  • Win2008 R2下配制负载均衡方法(图文简洁版)

    两台web 服务器,操作系统是Windows Server 2008 R2,申请三个IP地址及要做负载平衡的域名(www.test.cn),其中一个IP地址为虚拟IP地址,另外两个分别配置在两台服务器上,例: 虚拟IP: 11.1.6.13 两台的地址分别为11.1.6.11, 11.1.6.12两台服务须安装的内容如下: 服务器(11.1.6.11): 1. 安装负载均衡服务 2. 在此服务器上配制负载均衡操作(以下以此台服务器为例) 服务器(11.1.6.12):1. 安装负载均衡服务 负载

  • 详解Linux系统配置nginx的负载均衡

    详解Linux系统配置nginx的负载均衡 负载均衡的几种方式: 1.轮询:默认按照时间顺序对所有服务器一个一个的访问,如果有服务器宕机,会自动剔除: 2.weight:服务器的方位几率和weight成正比,这个可以在服务器配置不均的时候进行配置: 3.ip_hash:对每个请求的ip进行hash计算,并按照一定的规则分配对应的服务器(可解决session共享): 4.fair:按照每台服务器的响应时间(rt)来分配请求,rt知道优先分配: 5.url_hash:按照访问url的hash值来分配

  • 详解Java实现负载均衡的几种算法代码

    本篇文章主要介绍Java实现负载均衡的几种算法,具体如下: 轮询: package class2.zookeeper.loadbalance; import java.util.ArrayList; import java.util.HashMap; import java.util.Map; import java.util.Set; /** * 負載均衡算法,輪詢法 * @author guoy * */ public class TestRoundRobin { static Map<St

  • Nginx+Tomcat+Https 服务器负载均衡配置实践方案详解

    由于需要,得搭建个nginx+tomcat+https的服务器,搜了搜网上的发现总是有错,现在整理了些有用的,备忘. 环境:Centos6.5.JDK1.8.Tomcat8.Nginx1.10.1 准备材料: 1.JDK1.8安装包jdk-8u102-linux-x64.tar.gz 2.Tomcat8安装包apache-tomcat-8.0.37.tar.gz 3.Nginx1.10安装包nginx-1.10.1.tar.gz 1.JDK安装配置 解压并安装到/usr/local/jdk [r

  • 详解Nginx HTTP负载均衡和反向代理配置

    当前大并发的网站基本都采用了Nginx来做代理服务器,并且做缓存,来扛住大并发.先前也用nginx配置过简单的代理,今天有时间把整合过程拿出来和大家分享,不过其中大部分也是网上找来的资源. nginx完整的反向代理代码如下所示  : [root@data conf]# vim nginx.conf user www www; worker_processes 10; error_log /var/log/nginx/nginx_error.log; pid logs/nginx.pid; wor

  • 详解负载均衡实现一个域名对应多个IP地址

    详解负载均衡实现一个域名对应多个IP地址 使用负载均衡实现,传统和常规做法,其他方式需要特殊处理.(dns轮询,或者自己做解析) 1.一个域名设定多个dns服务或者服务器进行解析,同一个域名的每个解析都指向不同的ip地址,这样应答快的dns优先进行解析,这样就能保证最快定向到指定的网站空间去.如果空间也存在不同地点的相同内容镜像,那么这种方式最适合,例如sohu全国都有服务器,就是这么干的,除非你指定要访问某个地方的服务器,否则默认转向最快的空间,因为内容是镜像自动同步的,内容上不存在差别,用户

  • Nginx 代理与负载均衡详解

    Nginx 代理与负载均衡详解 nginx除了可以做网站的虚拟主机之外,还可以做代理器,并且, nginx在代理器的基础上可以做到负载均衡.  一.代理器: 所谓代理器,即接受请求,将请求进行转发,得到结果然后返回. 比如,我访问localhost:10010的时候nginx代理到百度的页面.   nginx实现代理: server { listen 10010; server_name localhost; location / { proxy_pass http://www.baidu.co

  • 使用Nginx实现负载均衡的策略

    一.nginx简介 nginx是一个高性能的HTTP服务器和反向代理服务器.它起初是俄罗斯人Igor Sysoev开发的,至今支撑者俄罗斯的很多大型的网站. 二.nginx支持的三种负载均衡策略 轮询:将请求依次轮询发给每个服务器. 最少链接:将请求发送给持有最少活动链接的服务器. ip哈希:通过哈希函数决定请求发送给哪个服务器. 权重:服务器的权重越高,处理请求的概率越大. 三.轮询负载均衡 在nginx.conf配置文件中添加如下配置,此配置有三台服务器提供支付服务. http { upst

  • linux负载均衡总结性说明 四层负载和七层负载有什么区别

    在常规运维工作中,经常会运用到负载均衡服务.负载均衡分为四层负载和七层负载,那么这两者之间有什么不同? 废话不多说,详解如下: 一.什么是负载均衡 1)负载均衡(Load Balance)建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽.增加吞吐量.加强网络数据处理能力.提高网络的灵活性和可用性.负载均衡有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间:其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点

随机推荐