Супер практичное минималистское руководство по Nginx, охватывающее распространенные сценарии

Java


Что такое Nginx?

Nginx (engine x) — это легкий веб-сервер, обратный прокси-сервер и прокси-сервер электронной почты (IMAP/POP3).

Что такое обратный прокси?

Обратный прокси-сервер означает, что прокси-сервер принимает запросы на подключение в Интернете, затем перенаправляет запрос на сервер во внутренней сети и возвращает результат, полученный от сервера, клиенту, запрашивающему подключение в Интернете. сервер действует как обратный прокси-сервер для внешнего мира.

Начало работы с Nginx

Подробные сведения о методах установки см. в разделе Эксплуатация и обслуживание Nginx https://github.com/dunwu/nginx-tutorial/blob/master/docs/nginx-ops.md.

использовать

Использование nginx относительно простое, всего несколько команд.

Обычно используются следующие команды:

nginx -s stop       快速关闭Nginx,可能不保存相关信息,并迅速终止web服务。
nginx -s quit       平稳关闭Nginx,保存相关信息,有安排的结束web服务。
nginx -s reload     因改变了Nginx相关配置,需要重新加载配置而重载。
nginx -s reopen     重新打开日志文件。
nginx -c filename   为 Nginx 指定一个配置文件,来代替缺省的。
nginx -t            不运行,而仅仅测试配置文件。nginx 将检查配置文件的语法的正确性,并尝试打开配置文件中所引用到的文件。
nginx -v            显示 nginx 的版本。
nginx -V            显示 nginx 的版本,编译器版本和配置参数。

Если вы не хотите вводить команду каждый раз, вы можете добавить пакетный файл запуска startup.bat в каталог установки nginx и запустить его двойным щелчком. Содержание следующее:

@echo off
rem 如果启动前已经启动nginx并记录下pid文件,会kill指定进程
nginx.exe -s stop

rem 测试配置文件语法正确性
nginx.exe -t -c conf/nginx.conf

rem 显示版本信息
nginx.exe -v

rem 按照指定配置去启动nginx
nginx.exe -c conf/nginx.conf

Если он работает под Linux, написание сценария оболочки аналогично.


Nginx в действии

Давайте сначала достигнем небольшой цели: не считайте сложную настройку, просто завершите обратный http-прокси.

Конфигурационный файл nginx.conf выглядит следующим образом:

Примечание. conf/nginx.conf — это файл конфигурации по умолчанию для nginx. Вы также можете указать свой файл конфигурации с помощью nginx -c

#运行用户
#user somebody;

#启动进程,通常设置成和cpu的数量相等
worker_processes  1;

#全局错误日志
error_log  D:/Tools/nginx-1.10.1/logs/error.log;
error_log  D:/Tools/nginx-1.10.1/logs/notice.log  notice;
error_log  D:/Tools/nginx-1.10.1/logs/info.log  info;

#PID文件,记录当前启动的nginx的进程ID
pid        D:/Tools/nginx-1.10.1/logs/nginx.pid;

#工作模式及连接数上限
events {
    worker_connections 1024;    #单个后台worker process进程的最大并发链接数
}

#设定http服务器,利用它的反向代理功能提供负载均衡支持
http {
    #设定mime类型(邮件支持类型),类型由mime.types文件定义
    include       D:/Tools/nginx-1.10.1/conf/mime.types;
    default_type  application/octet-stream;

    #设定日志
    log_format  main  '[$remote_addr] - [$remote_user] [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for"';

    access_log    D:/Tools/nginx-1.10.1/logs/access.log main;
    rewrite_log     on;

    #sendfile 指令指定 nginx 是否调用 sendfile 函数(zero copy 方式)来输出文件,对于普通应用,
    #必须设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为 off,以平衡磁盘与网络I/O处理速度,降低系统的uptime.
    sendfile        on;
    #tcp_nopush     on;

    #连接超时时间
    keepalive_timeout  120;
    tcp_nodelay        on;

    #gzip压缩开关
    #gzip  on;

    #设定实际的服务器列表
    upstream zp_server1{
        server 127.0.0.1:8089;
    }

    #HTTP服务器
    server {
        #监听80端口,80端口是知名端口号,用于HTTP协议
        listen       80;

        #定义使用www.xx.com访问
        server_name  www.helloworld.com;

        #首页
        index index.html

        #指向webapp的目录
        root D:\01_Workspace\Project\github\zp\SpringNotes\spring-security\spring-shiro\src\main\webapp;

        #编码格式
        charset utf-8;

        #代理配置参数
        proxy_connect_timeout 180;
        proxy_send_timeout 180;
        proxy_read_timeout 180;
        proxy_set_header Host $host;
        proxy_set_header X-Forwarder-For $remote_addr;

        #反向代理的路径(和upstream绑定),location 后面设置映射的路径
        location / {
            proxy_pass http://zp_server1;
        }

        #静态文件,nginx自己处理
        location ~ ^/(images|javascript|js|css|flash|media|static)/ {
            root D:\01_Workspace\Project\github\zp\SpringNotes\spring-security\spring-shiro\src\main\webapp\views;
            #过期30天,静态文件不怎么更新,过期可以设大一点,如果频繁更新,则可以设置得小一点。
            expires 30d;
        }

        #设定查看Nginx状态的地址
        location /NginxStatus {
            stub_status           on;
            access_log            on;
            auth_basic            "NginxStatus";
            auth_basic_user_file  conf/htpasswd;
        }

        #禁止访问 .htxxx 文件
        location ~ /\.ht {
            deny all;
        }

        #错误处理页面(可选择性配置)
        #error_page   404              /404.html;
        #error_page   500 502 503 504  /50x.html;
        #location = /50x.html {
        #    root   html;
        #}
    }
}

Что ж, попробуем: 1. Запускаем веб-приложение, обращаем внимание на порт, который должен быть активирован, и порт, заданный апстримом в nginx.

2. Измените хост: добавьте запись DNS в файл хоста в каталоге C:\Windows\System32\drivers\etc.

127.0.0.1 www.helloworld.com

3. Запускаем команду startup.bat в предыдущей статье

4. Посетите www.helloworld.com в браузере, неудивительно, он уже доступен.


Обратный HTTPS-прокси

Некоторые сайты с высокими требованиями к безопасности могут использовать HTTPS (безопасный протокол HTTP, использующий стандарт связи ssl).

Протокол HTTP и стандарты SSL здесь не рассматриваются. Однако есть несколько вещей, которые нужно знать о настройке https с помощью nginx:

Фиксированный номер порта HTTPS — 443, что отличается от стандарта HTTP на 80 портов SSL, который требует введения сертификата безопасности, поэтому вам необходимо указать сертификат и соответствующий ключ в nginx.conf. Другие в основном такие же, как и http обратный прокси, за исключением того, чтоServerНекоторые конфигурации немного отличаются.


#HTTP服务器
  server {
      #监听443端口。443为知名端口号,主要用于HTTPS协议
      listen       443 ssl;

      #定义使用www.xx.com访问
      server_name  www.helloworld.com;

      #ssl证书文件位置(常见证书文件格式为:crt/pem)
      ssl_certificate      cert.pem;
      #ssl证书key位置
      ssl_certificate_key  cert.key;

      #ssl配置参数(选择性配置)
      ssl_session_cache    shared:SSL:1m;
      ssl_session_timeout  5m;
      #数字签名,此处使用MD5
      ssl_ciphers  HIGH:!aNULL:!MD5;
      ssl_prefer_server_ciphers  on;

      location / {
          root   /root;
          index  index.html index.htm;
      }
  }

балансировки нагрузки

В предыдущем примере прокси указывает только на один сервер.

Однако в реальном процессе работы веб-сайта большинство веб-сайтов работают в кластерном режиме, и для распределения трафика необходимо использовать балансировку нагрузки.

nginx также может реализовывать простые функции балансировки нагрузки.

Предположим такой сценарий приложения: разверните приложение на серверах 192.168.1.11:80, 192.168.1.12:80 и 192.168.1.13:80 в трех средах Linux. Доменное имя веб-сайта — www.helloworld.com, а общедоступный IP-адрес — 192.168.1.11. Разверните nginx на сервере, где находится общедоступный IP-адрес, и выполните обработку балансировки нагрузки для всех запросов (в следующем примере используется взвешенная циклическая стратегия).

nginx.conf настроен следующим образом:

http {
     #设定mime类型,类型由mime.type文件定义
    include       /etc/nginx/mime.types;
    default_type  application/octet-stream;
    #设定日志格式
    access_log    /var/log/nginx/access.log;

    #设定负载均衡的服务器列表
    upstream load_balance_server {
        #weigth参数表示权值,权值越高被分配到的几率越大
        server 192.168.1.11:80   weight=5;
        server 192.168.1.12:80   weight=1;
        server 192.168.1.13:80   weight=6;
    }

   #HTTP服务器
   server {
        #侦听80端口
        listen       80;

        #定义使用www.xx.com访问
        server_name  www.helloworld.com;

        #对所有请求进行负载均衡请求
        location / {
            root        /root;                 #定义服务器的默认网站根目录位置
            index       index.html index.htm;  #定义首页索引文件的名称
            proxy_pass  http://load_balance_server ;#请求转向load_balance_server 定义的服务器列表

            #以下是一些反向代理的配置(可选择性配置)
            #proxy_redirect off;
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            #后端的Web服务器可以通过X-Forwarded-For获取用户真实IP
            proxy_set_header X-Forwarded-For $remote_addr;
            proxy_connect_timeout 90;          #nginx跟后端服务器连接超时时间(代理连接超时)
            proxy_send_timeout 90;             #后端服务器数据回传时间(代理发送超时)
            proxy_read_timeout 90;             #连接成功后,后端服务器响应时间(代理接收超时)
            proxy_buffer_size 4k;              #设置代理服务器(nginx)保存用户头信息的缓冲区大小
            proxy_buffers 4 32k;               #proxy_buffers缓冲区,网页平均在32k以下的话,这样设置
            proxy_busy_buffers_size 64k;       #高负荷下缓冲大小(proxy_buffers*2)
            proxy_temp_file_write_size 64k;    #设定缓存文件夹大小,大于这个值,将从upstream服务器传

            client_max_body_size 10m;          #允许客户端请求的最大单文件字节数
            client_body_buffer_size 128k;      #缓冲区代理缓冲用户端请求的最大字节数
        }
    }
}

стратегия балансировки нагрузки

Nginx предоставляет множество стратегий балансировки нагрузки, давайте рассмотрим их одну за другой:

Принцип стратегии балансировки нагрузки в основном одинаков в различных распределенных системах.Если вам интересен этот принцип, обратитесь к разделу Балансировка нагрузки.

голосование

upstream bck_testing_01 {
  # 默认所有服务器权重为 1
  server 192.168.250.220:8080
  server 192.168.250.221:8080
  server 192.168.250.222:8080
}

взвешенная круговая система

upstream bck_testing_01 {
  server 192.168.250.220:8080   weight=3
  server 192.168.250.221:8080              # default weight=1
  server 192.168.250.222:8080              # default weight=1
}

наименее подключенный

upstream bck_testing_01 {
  least_conn;

  # with default weight for all (weight=1)
  server 192.168.250.220:8080
  server 192.168.250.221:8080
  server 192.168.250.222:8080
}

взвешенное наименьшее количество соединений

upstream bck_testing_01 {
  least_conn;

  server 192.168.250.220:8080   weight=3
  server 192.168.250.221:8080              # default weight=1
  server 192.168.250.222:8080              # default weight=1
}

IP Hash

upstream bck_testing_01 {

  ip_hash;

  # with default weight for all (weight=1)
  server 192.168.250.220:8080
  server 192.168.250.221:8080
  server 192.168.250.222:8080

}

Обычный хэш

upstream bck_testing_01 {

  hash $request_uri;

  # with default weight for all (weight=1)
  server 192.168.250.220:8080
  server 192.168.250.221:8080
  server 192.168.250.222:8080

}

Конфигурация для веб-сайта с несколькими веб-приложениями

Когда на веб-сайте появляется все больше и больше функций, часто бывает необходимо удалить некоторые модули с относительно независимыми функциями и поддерживать их независимо. В этом случае, как правило, будет несколько веб-приложений.

Например: Если на сайте www.helloworld.com есть несколько веб-приложений, финансы (finance), product (продукт), admin (пользовательский центр). Доступ к этим приложениям различается по контексту:

www.helloworld.com/finance/

www.helloworld.com/product/

www.helloworld.com/admin/

Мы знаем, что номер порта http по умолчанию — 80. Если вы запустите эти три веб-приложения на одном сервере одновременно, все они будут использовать порт 80, что определенно невозможно. Следовательно, этим трем приложениям необходимо соответственно привязать разные номера портов.

Затем возникает проблема: когда пользователи действительно посещают сайт www.helloworld.com, они посещают разные веб-приложения и не будут использовать соответствующий номер порта. Итак, вам снова нужно использовать обратный прокси-сервер для обработки.

Настройка не сложная, давайте посмотрим, как это сделать:

http {
 #此处省略一些基本配置

 upstream product_server{
  server www.helloworld.com:8081;
 }

 upstream admin_server{
  server www.helloworld.com:8082;
 }

 upstream finance_server{
  server www.helloworld.com:8083;
 }

 server {
  #此处省略一些基本配置
  #默认指向product的server
  location / {
   proxy_pass http://product_server;
  }

  location /product/{
   proxy_pass http://product_server;
  }

  location /admin/ {
   proxy_pass http://admin_server;
  }

  location /finance/ {
   proxy_pass http://finance_server;
  }
 }
}

статический сайт

Иногда нам нужно настроить статический сайт (т.е. html-файлы и кучу статических ресурсов).

Например: если все статические ресурсы размещены в каталоге /app/dist, нам нужно указать только домашнюю страницу и хост этого сайта в nginx.conf.

Конфигурация выглядит следующим образом:

worker_processes  1;

events {
 worker_connections  1024;
}

http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;

    gzip on;
    gzip_types text/plain application/x-javascript text/css application/xml text/javascript application/javascript image/jpeg image/gif image/png;
    gzip_vary on;

    server {
  listen       80;
  server_name  static.zp.cn;

  location / {
   root /app/dist;
   index index.html;
   #转发任何请求到 index.html
  }
 }
}

Затем добавьте ХОСТ:

127.0.0.1 static.zp.cn

На этом этапе, посетив static.zp.cn в локальном браузере, вы можете получить доступ к статическому сайту.

Создайте файловый сервер

Иногда команде необходимо заархивировать какие-то данные или материалы, тогда необходим файловый сервер. Используя Nginx, можно очень быстро и удобно создать простую файловую службу.

Точки настройки в Nginx:

Включите автоиндекс для отображения каталогов, но по умолчанию он не включен.

Включите autoindex_exact_size, чтобы отобразить размер файла.

Включите autoindex_localtime для отображения времени модификации файлов.

root используется для установки корневого пути, открытого для файловых служб.

В качестве кодировки установлена ​​кодировка utf-8,gbk;, что позволяет избежать проблемы искажения китайских символов (после установки под сервер Windows символы все равно искажаются, и я пока не нашел решения). Минимальная конфигурация выглядит следующим образом:

autoindex on;# 显示目录
autoindex_exact_size on;# 显示文件大小
autoindex_localtime on;# 显示文件时间

server {
    charset      utf-8,gbk; # windows 服务器下设置后,依然乱码,暂时无解
    listen       9050 default_server;
    listen       [::]:9050 default_server;
    server_name  _;
    root         /share/fs;
}

разрешать междоменные

При разработке веб-сферы часто используется режим разделения фронтенда и бэкенда. В этом режиме интерфейс и сервер — это отдельные веб-приложения, например, сервер — это программа на Java, а интерфейс — приложение React или Vue.

Когда независимые веб-приложения обращаются друг к другу, неизбежно возникает междоменная проблема. Обычно существует два способа решения междоменных проблем:

1.CORS

Установите заголовок ответа HTTP на внутреннем сервере и добавьте доменное имя, необходимое для разрешения доступа к Access-Control-Allow-Origin.

2.jsonp

Бэкенд строит данные json в соответствии с запросом и возвращает их, а фронтенд использует jsonp для междоменного взаимодействия.

Эти две идеи не обсуждаются в данной статье.

Следует отметить, что nginx также предоставляет междоменное решение в соответствии с первой идеей.

Пример. Веб-сайт www.helloworld.com состоит из внешнего и внутреннего приложений. Номер внешнего порта — 9000, а номер внутреннего порта — 8080.

Если внешний и внутренний интерфейсы используют http для взаимодействия, запрос будет отклонен из-за проблем с разными источниками. Посмотрим, как это решает nginx:

Сначала установите cors в файле enable-cors.conf:

# allow origin list
set $ACAO '*';

# set single origin
if ($http_origin ~* (www.helloworld.com)$) {
  set $ACAO $http_origin;
}

if ($cors = "trueget") {
 add_header 'Access-Control-Allow-Origin' "$http_origin";
 add_header 'Access-Control-Allow-Credentials' 'true';
 add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS';
 add_header 'Access-Control-Allow-Headers' 'DNT,X-Mx-ReqToken,Keep-Alive,User-Agent,X-Requested-With,If-Modified-Since,Cache-Control,Content-Type';
}

if ($request_method = 'OPTIONS') {
  set $cors "${cors}options";
}

if ($request_method = 'GET') {
  set $cors "${cors}get";
}

if ($request_method = 'POST') {
  set $cors "${cors}post";
}

Затем включите enable-cors.conf на свой сервер, чтобы включить междоменную конфигурацию:

# ----------------------------------------------------
# 此文件为项目 nginx 配置片段
# 可以直接在 nginx config 中 include(推荐)
# 或者 copy 到现有 nginx 中,自行配置
# www.helloworld.com 域名需配合 dns hosts 进行配置
# 其中,api 开启了 cors,需配合本目录下另一份配置文件
# ----------------------------------------------------

upstream front_server{
  server www.helloworld.com:9000;
}
upstream api_server{
  server www.helloworld.com:8080;
}

server {
  listen       80;
  server_name  www.helloworld.com;

  location ~ ^/api/ {
    include enable-cors.conf;
    proxy_pass http://api_server;
    rewrite "^/api/(.*)$" /$1 break;
  }

  location ~ ^/ {
    proxy_pass http://front_server;
  }
}

На данный момент это сделано.

ресурс

Китайская вики для Nginx

https://tool.oschina.net/apidocs/apidoc?api=nginx-zh

Разработка Nginx от входа до мастерства

http://tengine.taobao.org/book/index.html

nginx-admins-handbook

https://github.com/trimstray/nginx-admins-handbook nginxconfig.io

Генератор конфигурации Nginx

https://www.digitalocean.com/community/tools/nginx#?


Обратите внимание на публичный аккаунт WeChat: Songhua сказал, становитесь более захватывающим!

Адрес блога:www.liangsonghua.com

Введение в общедоступную учетную запись: поделитесь техническими знаниями о работе на JD.com, а также технологиями JAVA и лучшими отраслевыми практиками, большинство из которых являются прагматичными, понятными и воспроизводимыми.