Что такое Nginx?
Nginx (engine x) — это легкий веб-сервер, обратный прокси-сервер и прокси-сервер электронной почты (IMAP/POP3).
Что такое обратный прокси?
Обратный прокси-сервер означает, что прокси-сервер принимает запросы на подключение в Интернете, затем перенаправляет запрос на сервер во внутренней сети и возвращает результат, полученный от сервера, клиенту, запрашивающему подключение в Интернете. сервер действует как обратный прокси-сервер для внешнего мира.
Начало работы с Nginx
Подробные сведения о методах установки см. в разделе Эксплуатация и обслуживание Nginx https://github.com/dunwu/nginx-tutorial/blob/master/docs/nginx-ops.md.
использовать
Использование nginx относительно простое, всего несколько команд.
Обычно используются следующие команды:
nginx -s stop 快速关闭Nginx,可能不保存相关信息,并迅速终止web服务。
nginx -s quit 平稳关闭Nginx,保存相关信息,有安排的结束web服务。
nginx -s reload 因改变了Nginx相关配置,需要重新加载配置而重载。
nginx -s reopen 重新打开日志文件。
nginx -c filename 为 Nginx 指定一个配置文件,来代替缺省的。
nginx -t 不运行,而仅仅测试配置文件。nginx 将检查配置文件的语法的正确性,并尝试打开配置文件中所引用到的文件。
nginx -v 显示 nginx 的版本。
nginx -V 显示 nginx 的版本,编译器版本和配置参数。
Если вы не хотите вводить команду каждый раз, вы можете добавить пакетный файл запуска startup.bat в каталог установки nginx и запустить его двойным щелчком. Содержание следующее:
@echo off
rem 如果启动前已经启动nginx并记录下pid文件,会kill指定进程
nginx.exe -s stop
rem 测试配置文件语法正确性
nginx.exe -t -c conf/nginx.conf
rem 显示版本信息
nginx.exe -v
rem 按照指定配置去启动nginx
nginx.exe -c conf/nginx.conf
Если он работает под Linux, написание сценария оболочки аналогично.
Nginx в действии
Давайте сначала достигнем небольшой цели: не считайте сложную настройку, просто завершите обратный http-прокси.
Конфигурационный файл nginx.conf выглядит следующим образом:
Примечание. conf/nginx.conf — это файл конфигурации по умолчанию для nginx. Вы также можете указать свой файл конфигурации с помощью nginx -c
#运行用户
#user somebody;
#启动进程,通常设置成和cpu的数量相等
worker_processes 1;
#全局错误日志
error_log D:/Tools/nginx-1.10.1/logs/error.log;
error_log D:/Tools/nginx-1.10.1/logs/notice.log notice;
error_log D:/Tools/nginx-1.10.1/logs/info.log info;
#PID文件,记录当前启动的nginx的进程ID
pid D:/Tools/nginx-1.10.1/logs/nginx.pid;
#工作模式及连接数上限
events {
worker_connections 1024; #单个后台worker process进程的最大并发链接数
}
#设定http服务器,利用它的反向代理功能提供负载均衡支持
http {
#设定mime类型(邮件支持类型),类型由mime.types文件定义
include D:/Tools/nginx-1.10.1/conf/mime.types;
default_type application/octet-stream;
#设定日志
log_format main '[$remote_addr] - [$remote_user] [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
access_log D:/Tools/nginx-1.10.1/logs/access.log main;
rewrite_log on;
#sendfile 指令指定 nginx 是否调用 sendfile 函数(zero copy 方式)来输出文件,对于普通应用,
#必须设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为 off,以平衡磁盘与网络I/O处理速度,降低系统的uptime.
sendfile on;
#tcp_nopush on;
#连接超时时间
keepalive_timeout 120;
tcp_nodelay on;
#gzip压缩开关
#gzip on;
#设定实际的服务器列表
upstream zp_server1{
server 127.0.0.1:8089;
}
#HTTP服务器
server {
#监听80端口,80端口是知名端口号,用于HTTP协议
listen 80;
#定义使用www.xx.com访问
server_name www.helloworld.com;
#首页
index index.html
#指向webapp的目录
root D:\01_Workspace\Project\github\zp\SpringNotes\spring-security\spring-shiro\src\main\webapp;
#编码格式
charset utf-8;
#代理配置参数
proxy_connect_timeout 180;
proxy_send_timeout 180;
proxy_read_timeout 180;
proxy_set_header Host $host;
proxy_set_header X-Forwarder-For $remote_addr;
#反向代理的路径(和upstream绑定),location 后面设置映射的路径
location / {
proxy_pass http://zp_server1;
}
#静态文件,nginx自己处理
location ~ ^/(images|javascript|js|css|flash|media|static)/ {
root D:\01_Workspace\Project\github\zp\SpringNotes\spring-security\spring-shiro\src\main\webapp\views;
#过期30天,静态文件不怎么更新,过期可以设大一点,如果频繁更新,则可以设置得小一点。
expires 30d;
}
#设定查看Nginx状态的地址
location /NginxStatus {
stub_status on;
access_log on;
auth_basic "NginxStatus";
auth_basic_user_file conf/htpasswd;
}
#禁止访问 .htxxx 文件
location ~ /\.ht {
deny all;
}
#错误处理页面(可选择性配置)
#error_page 404 /404.html;
#error_page 500 502 503 504 /50x.html;
#location = /50x.html {
# root html;
#}
}
}
Что ж, попробуем: 1. Запускаем веб-приложение, обращаем внимание на порт, который должен быть активирован, и порт, заданный апстримом в nginx.
2. Измените хост: добавьте запись DNS в файл хоста в каталоге C:\Windows\System32\drivers\etc.
127.0.0.1 www.helloworld.com
3. Запускаем команду startup.bat в предыдущей статье
4. Посетите www.helloworld.com в браузере, неудивительно, он уже доступен.
Обратный HTTPS-прокси
Некоторые сайты с высокими требованиями к безопасности могут использовать HTTPS (безопасный протокол HTTP, использующий стандарт связи ssl).
Протокол HTTP и стандарты SSL здесь не рассматриваются. Однако есть несколько вещей, которые нужно знать о настройке https с помощью nginx:
Фиксированный номер порта HTTPS — 443, что отличается от стандарта HTTP на 80 портов SSL, который требует введения сертификата безопасности, поэтому вам необходимо указать сертификат и соответствующий ключ в nginx.conf. Другие в основном такие же, как и http обратный прокси, за исключением того, чтоServer
Некоторые конфигурации немного отличаются.
#HTTP服务器
server {
#监听443端口。443为知名端口号,主要用于HTTPS协议
listen 443 ssl;
#定义使用www.xx.com访问
server_name www.helloworld.com;
#ssl证书文件位置(常见证书文件格式为:crt/pem)
ssl_certificate cert.pem;
#ssl证书key位置
ssl_certificate_key cert.key;
#ssl配置参数(选择性配置)
ssl_session_cache shared:SSL:1m;
ssl_session_timeout 5m;
#数字签名,此处使用MD5
ssl_ciphers HIGH:!aNULL:!MD5;
ssl_prefer_server_ciphers on;
location / {
root /root;
index index.html index.htm;
}
}
балансировки нагрузки
В предыдущем примере прокси указывает только на один сервер.
Однако в реальном процессе работы веб-сайта большинство веб-сайтов работают в кластерном режиме, и для распределения трафика необходимо использовать балансировку нагрузки.
nginx также может реализовывать простые функции балансировки нагрузки.
Предположим такой сценарий приложения: разверните приложение на серверах 192.168.1.11:80, 192.168.1.12:80 и 192.168.1.13:80 в трех средах Linux. Доменное имя веб-сайта — www.helloworld.com, а общедоступный IP-адрес — 192.168.1.11. Разверните nginx на сервере, где находится общедоступный IP-адрес, и выполните обработку балансировки нагрузки для всех запросов (в следующем примере используется взвешенная циклическая стратегия).
nginx.conf настроен следующим образом:
http {
#设定mime类型,类型由mime.type文件定义
include /etc/nginx/mime.types;
default_type application/octet-stream;
#设定日志格式
access_log /var/log/nginx/access.log;
#设定负载均衡的服务器列表
upstream load_balance_server {
#weigth参数表示权值,权值越高被分配到的几率越大
server 192.168.1.11:80 weight=5;
server 192.168.1.12:80 weight=1;
server 192.168.1.13:80 weight=6;
}
#HTTP服务器
server {
#侦听80端口
listen 80;
#定义使用www.xx.com访问
server_name www.helloworld.com;
#对所有请求进行负载均衡请求
location / {
root /root; #定义服务器的默认网站根目录位置
index index.html index.htm; #定义首页索引文件的名称
proxy_pass http://load_balance_server ;#请求转向load_balance_server 定义的服务器列表
#以下是一些反向代理的配置(可选择性配置)
#proxy_redirect off;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
#后端的Web服务器可以通过X-Forwarded-For获取用户真实IP
proxy_set_header X-Forwarded-For $remote_addr;
proxy_connect_timeout 90; #nginx跟后端服务器连接超时时间(代理连接超时)
proxy_send_timeout 90; #后端服务器数据回传时间(代理发送超时)
proxy_read_timeout 90; #连接成功后,后端服务器响应时间(代理接收超时)
proxy_buffer_size 4k; #设置代理服务器(nginx)保存用户头信息的缓冲区大小
proxy_buffers 4 32k; #proxy_buffers缓冲区,网页平均在32k以下的话,这样设置
proxy_busy_buffers_size 64k; #高负荷下缓冲大小(proxy_buffers*2)
proxy_temp_file_write_size 64k; #设定缓存文件夹大小,大于这个值,将从upstream服务器传
client_max_body_size 10m; #允许客户端请求的最大单文件字节数
client_body_buffer_size 128k; #缓冲区代理缓冲用户端请求的最大字节数
}
}
}
стратегия балансировки нагрузки
Nginx предоставляет множество стратегий балансировки нагрузки, давайте рассмотрим их одну за другой:
Принцип стратегии балансировки нагрузки в основном одинаков в различных распределенных системах.Если вам интересен этот принцип, обратитесь к разделу Балансировка нагрузки.
голосование
upstream bck_testing_01 {
# 默认所有服务器权重为 1
server 192.168.250.220:8080
server 192.168.250.221:8080
server 192.168.250.222:8080
}
взвешенная круговая система
upstream bck_testing_01 {
server 192.168.250.220:8080 weight=3
server 192.168.250.221:8080 # default weight=1
server 192.168.250.222:8080 # default weight=1
}
наименее подключенный
upstream bck_testing_01 {
least_conn;
# with default weight for all (weight=1)
server 192.168.250.220:8080
server 192.168.250.221:8080
server 192.168.250.222:8080
}
взвешенное наименьшее количество соединений
upstream bck_testing_01 {
least_conn;
server 192.168.250.220:8080 weight=3
server 192.168.250.221:8080 # default weight=1
server 192.168.250.222:8080 # default weight=1
}
IP Hash
upstream bck_testing_01 {
ip_hash;
# with default weight for all (weight=1)
server 192.168.250.220:8080
server 192.168.250.221:8080
server 192.168.250.222:8080
}
Обычный хэш
upstream bck_testing_01 {
hash $request_uri;
# with default weight for all (weight=1)
server 192.168.250.220:8080
server 192.168.250.221:8080
server 192.168.250.222:8080
}
Конфигурация для веб-сайта с несколькими веб-приложениями
Когда на веб-сайте появляется все больше и больше функций, часто бывает необходимо удалить некоторые модули с относительно независимыми функциями и поддерживать их независимо. В этом случае, как правило, будет несколько веб-приложений.
Например: Если на сайте www.helloworld.com есть несколько веб-приложений, финансы (finance), product (продукт), admin (пользовательский центр). Доступ к этим приложениям различается по контексту:
www.helloworld.com/finance/
www.helloworld.com/product/
www.helloworld.com/admin/
Мы знаем, что номер порта http по умолчанию — 80. Если вы запустите эти три веб-приложения на одном сервере одновременно, все они будут использовать порт 80, что определенно невозможно. Следовательно, этим трем приложениям необходимо соответственно привязать разные номера портов.
Затем возникает проблема: когда пользователи действительно посещают сайт www.helloworld.com, они посещают разные веб-приложения и не будут использовать соответствующий номер порта. Итак, вам снова нужно использовать обратный прокси-сервер для обработки.
Настройка не сложная, давайте посмотрим, как это сделать:
http {
#此处省略一些基本配置
upstream product_server{
server www.helloworld.com:8081;
}
upstream admin_server{
server www.helloworld.com:8082;
}
upstream finance_server{
server www.helloworld.com:8083;
}
server {
#此处省略一些基本配置
#默认指向product的server
location / {
proxy_pass http://product_server;
}
location /product/{
proxy_pass http://product_server;
}
location /admin/ {
proxy_pass http://admin_server;
}
location /finance/ {
proxy_pass http://finance_server;
}
}
}
статический сайт
Иногда нам нужно настроить статический сайт (т.е. html-файлы и кучу статических ресурсов).
Например: если все статические ресурсы размещены в каталоге /app/dist, нам нужно указать только домашнюю страницу и хост этого сайта в nginx.conf.
Конфигурация выглядит следующим образом:
worker_processes 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65;
gzip on;
gzip_types text/plain application/x-javascript text/css application/xml text/javascript application/javascript image/jpeg image/gif image/png;
gzip_vary on;
server {
listen 80;
server_name static.zp.cn;
location / {
root /app/dist;
index index.html;
#转发任何请求到 index.html
}
}
}
Затем добавьте ХОСТ:
127.0.0.1 static.zp.cn
На этом этапе, посетив static.zp.cn в локальном браузере, вы можете получить доступ к статическому сайту.
Создайте файловый сервер
Иногда команде необходимо заархивировать какие-то данные или материалы, тогда необходим файловый сервер. Используя Nginx, можно очень быстро и удобно создать простую файловую службу.
Точки настройки в Nginx:
Включите автоиндекс для отображения каталогов, но по умолчанию он не включен.
Включите autoindex_exact_size, чтобы отобразить размер файла.
Включите autoindex_localtime для отображения времени модификации файлов.
root используется для установки корневого пути, открытого для файловых служб.
В качестве кодировки установлена кодировка utf-8,gbk;, что позволяет избежать проблемы искажения китайских символов (после установки под сервер Windows символы все равно искажаются, и я пока не нашел решения). Минимальная конфигурация выглядит следующим образом:
autoindex on;# 显示目录
autoindex_exact_size on;# 显示文件大小
autoindex_localtime on;# 显示文件时间
server {
charset utf-8,gbk; # windows 服务器下设置后,依然乱码,暂时无解
listen 9050 default_server;
listen [::]:9050 default_server;
server_name _;
root /share/fs;
}
разрешать междоменные
При разработке веб-сферы часто используется режим разделения фронтенда и бэкенда. В этом режиме интерфейс и сервер — это отдельные веб-приложения, например, сервер — это программа на Java, а интерфейс — приложение React или Vue.
Когда независимые веб-приложения обращаются друг к другу, неизбежно возникает междоменная проблема. Обычно существует два способа решения междоменных проблем:
1.CORS
Установите заголовок ответа HTTP на внутреннем сервере и добавьте доменное имя, необходимое для разрешения доступа к Access-Control-Allow-Origin.
2.jsonp
Бэкенд строит данные json в соответствии с запросом и возвращает их, а фронтенд использует jsonp для междоменного взаимодействия.
Эти две идеи не обсуждаются в данной статье.
Следует отметить, что nginx также предоставляет междоменное решение в соответствии с первой идеей.
Пример. Веб-сайт www.helloworld.com состоит из внешнего и внутреннего приложений. Номер внешнего порта — 9000, а номер внутреннего порта — 8080.
Если внешний и внутренний интерфейсы используют http для взаимодействия, запрос будет отклонен из-за проблем с разными источниками. Посмотрим, как это решает nginx:
Сначала установите cors в файле enable-cors.conf:
# allow origin list
set $ACAO '*';
# set single origin
if ($http_origin ~* (www.helloworld.com)$) {
set $ACAO $http_origin;
}
if ($cors = "trueget") {
add_header 'Access-Control-Allow-Origin' "$http_origin";
add_header 'Access-Control-Allow-Credentials' 'true';
add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS';
add_header 'Access-Control-Allow-Headers' 'DNT,X-Mx-ReqToken,Keep-Alive,User-Agent,X-Requested-With,If-Modified-Since,Cache-Control,Content-Type';
}
if ($request_method = 'OPTIONS') {
set $cors "${cors}options";
}
if ($request_method = 'GET') {
set $cors "${cors}get";
}
if ($request_method = 'POST') {
set $cors "${cors}post";
}
Затем включите enable-cors.conf на свой сервер, чтобы включить междоменную конфигурацию:
# ----------------------------------------------------
# 此文件为项目 nginx 配置片段
# 可以直接在 nginx config 中 include(推荐)
# 或者 copy 到现有 nginx 中,自行配置
# www.helloworld.com 域名需配合 dns hosts 进行配置
# 其中,api 开启了 cors,需配合本目录下另一份配置文件
# ----------------------------------------------------
upstream front_server{
server www.helloworld.com:9000;
}
upstream api_server{
server www.helloworld.com:8080;
}
server {
listen 80;
server_name www.helloworld.com;
location ~ ^/api/ {
include enable-cors.conf;
proxy_pass http://api_server;
rewrite "^/api/(.*)$" /$1 break;
}
location ~ ^/ {
proxy_pass http://front_server;
}
}
На данный момент это сделано.
ресурс
Китайская вики для Nginx
https://tool.oschina.net/apidocs/apidoc?api=nginx-zh
Разработка Nginx от входа до мастерства
http://tengine.taobao.org/book/index.html
nginx-admins-handbook
https://github.com/trimstray/nginx-admins-handbook nginxconfig.io
Генератор конфигурации Nginx
https://www.digitalocean.com/community/tools/nginx#?