负载均衡在服务端开发中算是一个比较重要的特性。因为Nginx除了作为常规的Web服务器外,还会被大规模的用于反向代理后端,Nginx的异步框架可以处理很大的并发请求,把这些并发请求hold住之后就可以分发给后台服务端(backend servers, 后面简称backend)来做复杂的计算、处理和响应,并且在业务量增加的时候可以方便地扩容后台服务器。

    说白了就是,随着业务和用户规模的增长,仅仅一台服务器无法肩负起高并发的响应,所以需要两台以上的服务器共同分担压力,而分担压力的媒介就是万能的Nginx。

    首先,利用wsgi在不同的端口上起两个Django服务,比如8002和8003

    然后修改nginx网站配置 vim /etc/nginx/conf.d/default.conf,将原uwsgi_pass注释,改成变量绑定

  1. server {
  2. listen 80;
  3. server_name localhost;
  4. access_log /root/myweb_access.log;
  5. error_log /root/myweb_error.log;
  6. client_max_body_size 75M;
  7. location / {
  8. include uwsgi_params;
  9. #uwsgi_pass 127.0.0.1:8000;
  10. uwsgi_pass mytest;
  11. uwsgi_param UWSGI_SCRIPT mypro.wsgi;
  12. uwsgi_param UWSGI_CHDIR /root/mypro;
  13. }
  14. location /static {
  15. alias /root/mypro/static;
  16. }
  17. }

然后修改主配置文件 vim /etc/nginx/nginx.conf,在http配置内添加负载均衡配置

  1. http {
  2. include /etc/nginx/mime.types;
  3. default_type application/octet-stream;
  4. log_format main \'$remote_addr - $remote_user [$time_local] "$request" \'
  5. \'$status $body_bytes_sent "$http_referer" \'
  6. \'"$http_user_agent" "$http_x_forwarded_for"\';
  7. access_log /var/log/nginx/access.log main;
  8. sendfile on;
  9. #tcp_nopush on;
  10. keepalive_timeout 65;
  11. #gzip on;
  12. include /etc/nginx/conf.d/*.conf;
  13. upstream mytest {
  14. server 127.0.0.1:8002; #负载均衡服务器群
  15. server 127.0.0.1:8003;
  16. }
  17. }

然后重启服务即可:

  1. systemctl restart nginx.service
  2. 值得注意的是常用的负载均衡策略有以下几种:
  3. 1、轮询(默认)
  4. 每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
  5. upstream backserver {
  6. server 192.168.0.14;
  7. server 192.168.0.15;
  8. }
  9. 2、权重 weight
  10. 指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。
  11. upstream backserver {
  12. server 192.168.0.14 weight=3;
  13. server 192.168.0.15 weight=7;
  14. }
  15. 3ip_hash IP绑定)
  16. 上述方式存在一个问题就是说,在负载均衡系统中,假如用户在某台服务器上登录了,那么该用户第二次请求的时候,因为我们是负载均衡系统,每次请求都会重新定位到服务器集群中的某一个,那么已经登录某一个服务器的用户再重新定位到另一个服务器,其登录信息将会丢失,这样显然是不妥的。
  17. 我们可以采用ip_hash指令解决这个问题,如果客户已经访问了某个服务器,当用户再次访问时,会将该请求通过哈希算法,自动定位到该服务器。
  18. 每个请求按访问iphash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。
  19. upstream backserver {
  20. ip_hash;
  21. server 192.168.0.14:88;
  22. server 192.168.0.15:80;
  23. }
  24. 4fair(第三方插件)
  25. 按后端服务器的响应时间来分配请求,响应时间短的优先分配。
  26. upstream backserver {
  27. server server1;
  28. server server2;
  29. fair;
  30. }
  31. 5url_hash(第三方插件)
  32. 按访问urlhash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。
  33. upstream backserver {
  34. server squid1:3128;
  35. server squid2:3128;
  36. hash $request_uri;
  37. hash_method crc32;
  38. }

 

转载自:https://v3u.cn/a_id_77

版权声明:本文为weifeng-888原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/weifeng-888/p/10892791.html