Nginx教程

nginx根据真实IP分发请求

本文主要是介绍nginx根据真实IP分发请求,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

nginx根据真实IP分发请求

使用场景

2022年6月份,社保局接收到上级的文件,要求建立统一的门户系统(所有的用户都通过门户系统登录到子系统,原子系统的用户、角色、机构、权限等,都交给门户网站来控制)。于是各个子系统就需要做一个适配性的改造,子系统有机关养老、企业养老、城乡居民养老、工伤保险、失业保险等。在子系统改造的过程中,除了代码层面的改造以外我们遇上了几个关于负载方面的问题。

传统运行方式

会话保持(低成本方式)解决session问题

在原来的子系统中,为了一定程度上解决服务器压力的问题,我们其实已经用nginx做了一个代理,两个负载地址作为双活部署。目前的系统有个做的不是很好的地方,就是在session里面塞了不少的东西,如果客户端的请求第一次发到了server1上,第二次发到了server2上,很有可能就因为这两个会话的不同,导致里面的参数获取不到,所以我们要考虑session共享或者会话保持的问题。其实这个问题已经解决了,项目组选择的方式是会话保持。具体的方法就是在配置nginx的时候,请求的分发策略选择ip-hash,这样一来,一个ip在两台服务器都运行正常的情况下,永远只会发到某一台上。一旦某一台服务器宕机,其实上述的问题还是会出现,但是我们就不考虑这个情况了,毕竟出现的概率比较小,这边的成本想控制到最低。

# nginx配置如下
upstream jgyl{
	zone upstreams 64K;
	ip-hash
	server 10.40.29.153:8080;
	server 10.40.29.126:8080;
}

问题复现

nginx代理失效

在参与门户系统的集成中,请求的方式发生了如下变化:

原:客户端请求 → nginx → 负载服务器

现:客户端请求 → 门户网关 → 【用户认证中心 → 门户网关】 → nginx → 负载服务器

其中访问用户认证中心主要是为了获取用户认证的标识,即token,有token的时候就不需要括号中的部分了。

在现有的请求方式下,nginx认为所有的请求都来自门户网关而不是,客户端,所以所有分发的请求都会发到一台服务器上面,于是nginx的代理在实际层面上就失效了。

解决办法

在解决这个问题的时候,我们讨论了几种解决方式。在传统方式的基础下,session利用redis来共享显然是不太好的,因为代价比较大,而且redis必须安装在一个共享的目录里面。利用数据库共享看似不错,但是网上的解决方案完全不够成熟。所以我们还是想看看有没有办法让它还原到原来的运行模式上,总之百转千回,终于找到了解决方案。那就是让nginx根据真实的IP的分发请求。

X-Forwarded-ForXFF)是用来识别通过HTTP代理或负载均衡方式连接到Web服务器的客户端最原始的IP地址的HTTP请求头字段,我们的核心思路就是在这个字段里面获取最早的一个请求,原理如下:

1、客户端请求(ip0) → 服务器(ip1)。request.getHeader("X-Forwarded-For"); // 空

2、客户端请求(ip0) → nginx(ip1)→ 服务器(ip2)。request.getHeader("X-Forwarded-For"); // ip0

3、客户端请求(ip0) → 请求转发器1(ip1) → 请求转发器2(ip2) → nginx(ip3)→ 服务器(ip4)。

request.getHeader("X-Forwarded-For"); // ip0,ip1,ip2

其中ip0是最初始的IP请求,ip-hash默认以ip2作为请求IP来分发请求。

所以我们通过这个字段来加工出ip0,之后用它来分发请求就可以了,核心的配置如下。

# nginx配置如下
map $http_x_forwarded_for  $clientRealIp {
	"" $remote_addr;
	~^(?P<firstAddr>[0-9\.]+),?.*$ $firstAddr;
}
	
upstream jgyl{
	zone upstreams 64K;
	hash  $clientRealIp;
	server 10.40.29.153:8080;
	server 10.40.29.126:8080;
}

完整的配置

这里要注意X-Forwarded-For虽然是一个可用的标准,但是并非所有途中的转发器都会增加值,需要每个转发器都设置上(以nginx举例):

proxy_set_header Host $host:$server_port; # 传 header 参数至后端服务
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; # 设置request header 即客户端IP地址

#user  nobody;
worker_processes  auto;

#error_log  logs/error.log;
#error_log  logs/error.log  notice;
error_log  logs/error.log  info;

pid        logs/nginx.pid;

worker_rlimit_nofile 65535;
events {
	use	epoll;
    worker_connections	65535;
}


http {

    map $http_x_forwarded_for  $clientRealIp {
       ""      $remote_addr;
       ~^(?P<firstAddr>[0-9\.]+),?.*$  $firstAddr;
    }
	
	upstream jgyl{
		zone upstreams 64K;
		hash  $clientRealIp;
		server 10.40.29.153:8080;
		server 10.40.29.126:8080;
	}
	
    include       mime.types;
    default_type  application/octet-stream;

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    #access_log  logs/access.log  main;
	
    # 客户端请求头缓冲大小
    # nginx 默认会用 client_header_buffer_size 这个 buffer 来读取 header 值
    # 如果 header 过大,它会使用 large_client_header_buffers 来读取
    # 如果设置过小的 HTTP 头,或 Cookie 过大, 会报400 错误 nginx 400 bad request
    # 如果超过 buffer,就会报 HTTP 414 错误 (URI Too Long)
    # nginx 接受最长的 HTTP 头部大小必须比其中一个 buffer 大
    # 否则就会报 400 的 HTTP 错误 (Bad Request)
    client_header_buffer_size  32k;
    large_client_header_buffers  4  32k;

    sendfile        on;
    #tcp_nopush     on;

    #keepalive_timeout  0;
    keepalive_timeout  90;

    # gzip模块设置,使用 gzip 压缩可以降低网站带宽消耗,同时提升访问速度。
    # 开启gzip
    gzip  on;
    # 最小压缩大小
    gzip_min_length  1k;
    # 压缩缓冲区
    gzip_buffers  4 16k;
    # 压缩版本
    gzip_http_version  1.0;
    # 压缩等级
    gzip_comp_level  2;
    # 压缩类型
    gzip_types   text/plain text/css text/xml text/javascript application/json application/x-javascript application/xml application/xml+rss;

    server {
        listen       8001;
        server_name  17.167.18.18;
		
		fastcgi_connect_timeout 75;  #链接
        fastcgi_read_timeout 90;   #读取
        fastcgi_send_timeout 100;   #发请求
		
        #charset koi8-r;
        #access_log  logs/host.access.log  main;
		proxy_set_header Host $host:$server_port; # 传 header 参数至后端服务
		proxy_set_header X-Real-IP $remote_addr;
		proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; # 设置request header 即客户端IP地址
		proxy_connect_timeout 60s;
		proxy_send_timeout 1800;
		proxy_read_timeout 1800;
		client_max_body_size 100m;
		# 缓冲区代理缓冲用户端请求的最大字节数
		client_body_buffer_size  128k;
		# 设置代理服务器(nginx)保存用户头信息的缓冲区大小
		proxy_buffer_size  4k;
		# proxy_buffers缓冲区,网页平均在32k以下的话,这样设置
		proxy_buffers  4  32k;
		# 高负荷下缓冲大小(proxy_buffers*2)
		proxy_busy_buffers_size  64k; 
		# 设定缓存文件夹大小,大于这个值,将从upstream服务器传
		proxy_temp_file_write_size  64k;
			
		location /jgyl {
			root   html;
			index  index.html index.htm;
			proxy_pass   http://jgyl/jgyl;
        }

        #error_page  404              /404.html;

        # redirect server error pages to the static page /50x.html
        #
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

        # proxy the PHP scripts to Apache listening on 127.0.0.1:80
        #
        #location ~ \.php$ {
        #    proxy_pass   http://127.0.0.1;
        #}

        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
        #
        #location ~ \.php$ {
        #    root           html;
        #    fastcgi_pass   127.0.0.1:9000;
        #    fastcgi_index  index.php;
        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;
        #    include        fastcgi_params;
        #}

        # deny access to .htaccess files, if Apache's document root
        # concurs with nginx's one
        #
        #location ~ /\.ht {
        #    deny  all;
        #}
    }


    # another virtual host using mix of IP-, name-, and port-based configuration
    #
    #server {
    #    listen       8000;
    #    listen       somename:8080;
    #    server_name  somename  alias  another.alias;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}


    # HTTPS server
    #
    #server {
    #    listen       443 ssl;
    #    server_name  localhost;

    #    ssl_certificate      cert.pem;
    #    ssl_certificate_key  cert.key;

    #    ssl_session_cache    shared:SSL:1m;
    #    ssl_session_timeout  5m;

    #    ssl_ciphers  HIGH:!aNULL:!MD5;
    #    ssl_prefer_server_ciphers  on;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}

}

这篇关于nginx根据真实IP分发请求的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!