title: Keepalived+Nginx+Tomcat для достижения высокой доступности веб-кластера
Во-первых, процесс установки Nginx
1. Загрузите установочный пакет Nginx и установите пакет зависимой среды.
(1) Установите среду компиляции C++
yum -y install gcc #C++
(2) Установите компьютер
yum -y install pcre-devel
(3) Установите zlib
yum -y install zlib-devel
(4) Установите Nginx
Найдите расположение файла распаковки nginx и выполните команду компиляции и установки.
[root@localhost nginx-1.12.2]# pwd
/usr/local/nginx/nginx-1.12.2
[root@localhost nginx-1.12.2]# ./configure && make && make install
(5) Запустите Nginx
После завершения установки найдите расположение каталога, в котором установка завершена.
[root@localhost nginx-1.12.2]# whereis nginx
nginx: /usr/local/nginx
[root@localhost nginx-1.12.2]#
Войдите в подкаталог sbin Nginx, чтобы запустить Nginx.
[root@localhost sbin]# ls
nginx
[root@localhost sbin]# ./nginx &
[1] 5768
[root@localhost sbin]#
Проверьте, запущен ли Nginx
Или проверьте статус запуска Nginx через процесс[root@localhost sbin]# ps -aux|grep nginx
root 5769 0.0 0.0 20484 608 ? Ss 14:03 0:00 nginx: master process ./nginx
nobody 5770 0.0 0.0 23012 1620 ? S 14:03 0:00 nginx: worker process
root 5796 0.0 0.0 112668 972 pts/0 R+ 14:07 0:00 grep --color=auto nginx
[1]+ 完成 ./nginx
[root@localhost sbin]#
На данный момент Nginx установлен и успешно запущен.
(6) Запуск ярлыка Nginx и конфигурация запуска
Отредактируйте сценарий запуска ярлыка Nginx [Обратите внимание на путь установки Nginx,Вам необходимо внести изменения в соответствии с вашим собственным путем NGINX】
[root@localhost init.d]# vim /etc/rc.d/init.d/nginx
#!/bin/sh
#
# nginx - this script starts and stops the nginx daemon
#
# chkconfig: - 85 15
# description: Nginx is an HTTP(S) server, HTTP(S) reverse \
# proxy and IMAP/POP3 proxy server
# processname: nginx
# config: /etc/nginx/nginx.conf
# config: /usr/local/nginx/conf/nginx.conf
# pidfile: /usr/local/nginx/logs/nginx.pid
# Source function library.
. /etc/rc.d/init.d/functions
# Source networking configuration.
. /etc/sysconfig/network
# Check that networking is up.
[ "$NETWORKING" = "no" ] && exit 0
nginx="/usr/local/nginx/sbin/nginx"
prog=$(basename $nginx)
NGINX_CONF_FILE="/usr/local/nginx/conf/nginx.conf"
[ -f /etc/sysconfig/nginx ] && . /etc/sysconfig/nginx
lockfile=/var/lock/subsys/nginx
make_dirs() {
# make required directories
user=`$nginx -V 2>&1 | grep "configure arguments:" | sed 's/[^*]*--user=\([^ ]*\).*/\1/g' -`
if [ -z "`grep $user /etc/passwd`" ]; then
useradd -M -s /bin/nologin $user
fi
options=`$nginx -V 2>&1 | grep 'configure arguments:'`
for opt in $options; do
if [ `echo $opt | grep '.*-temp-path'` ]; then
value=`echo $opt | cut -d "=" -f 2`
if [ ! -d "$value" ]; then
# echo "creating" $value
mkdir -p $value && chown -R $user $value
fi
fi
done
}
start() {
[ -x $nginx ] || exit 5
[ -f $NGINX_CONF_FILE ] || exit 6
make_dirs
echo -n $"Starting $prog: "
daemon $nginx -c $NGINX_CONF_FILE
retval=$?
echo
[ $retval -eq 0 ] && touch $lockfile
return $retval
}
stop() {
echo -n $"Stopping $prog: "
killproc $prog -QUIT
retval=$?
echo
[ $retval -eq 0 ] && rm -f $lockfile
return $retval
}
restart() {
#configtest || return $?
stop
sleep 1
start
}
reload() {
#configtest || return $?
echo -n $"Reloading $prog: "
killproc $nginx -HUP
RETVAL=$?
echo
}
force_reload() {
restart
}
configtest() {
$nginx -t -c $NGINX_CONF_FILE
}
rh_status() {
status $prog
}
rh_status_q() {
rh_status >/dev/null 2>&1
}
case "$1" in
start)
rh_status_q && exit 0
$1
;;
stop)
rh_status_q || exit 0
$1
;;
restart|configtest)
$1
;;
reload)
rh_status_q || exit 7
$1
;;
force-reload)
force_reload
;;
status)
rh_status
;;
condrestart|try-restart)
rh_status_q || exit 0
;;
*)
echo $"Usage: $0 {start|stop|status|restart|condrestart|try-restart|reload|force-reload|configtest}"
exit 2
esac
Авторизуйте сценарий запуска и добавьте его в загрузку
[root@localhost init.d]# chmod -R 777 /etc/rc.d/init.d/nginx
[root@localhost init.d]# chkconfig nginx
Запустить Nginx
[root@localhost init.d]# ./nginx start
Добавьте Nginx в переменные системной среды
[root@localhost init.d]# echo 'export PATH=$PATH:/usr/local/nginx/sbin'>>/etc/profile && source /etc/profile
Команда Nginx [ служба nginx (запуск | остановка | перезапуск)]
[root@localhost init.d]# service nginx start
Starting nginx (via systemctl): [ 确定 ]
Tips:команда быстрого доступа
service nginx (start|stop|restart)
Во-вторых, установка и настройка KeepAlived.
1. Установите среду зависимостей Keepalived
yum install -y popt-devel
yum install -y ipvsadm
yum install -y libnl*
yum install -y libnf*
yum install -y openssl-devel
2. Скомпилируйте и установите Keepalived
[root@localhost keepalived-1.3.9]# ./configure
[root@localhost keepalived-1.3.9]# make && make install
3. Установите Keepalive как системную службу
[root@localhost etc]# mkdir /etc/keepalived
[root@localhost etc]# cp /usr/local/keepalived/etc/keepalived/keepalived.conf /etc/keepalived/
Вручную скопируйте файл конфигурации по умолчанию в путь по умолчанию
[root@localhost etc]# mkdir /etc/keepalived
[root@localhost etc]# cp /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/
[root@localhost etc]# cp /usr/local/keepalived/etc/keepalived/keepalived.conf /etc/keepalived/
Создание программных ссылок для поддержки активности
[root@localhost sysconfig]# ln -s /usr/local/keepalived/sbin/keepalived /usr/sbin/
Установите Keepalived для автоматического запуска при загрузке
[root@localhost sysconfig]# chkconfig keepalived on
注意:正在将请求转发到“systemctl enable keepalived.service”。
Created symlink from /etc/systemd/system/multi-user.target.wants/keepalived.service to /usr/lib/systemd/system/keepalived.service
Запустите службу поддержки активности
[root@localhost keepalived]# keepalived -D -f /etc/keepalived/keepalived.conf
Отключить службу Keepalived
[root@localhost keepalived]# killall keepalived
3. Планирование и строительство кластера
Подготовка среды:
CentOS 7.2
Keepalived Version 1.4.0 - December 29, 2017
Nginx Version: nginx/1.12.2
Tomcat Version:8
Контрольный список кластерного планирования
виртуальная машина | IP | иллюстрировать |
---|---|---|
Keepalived+Nginx1[Master] | 192.168.43.101 | Nginx Server 01 |
Keeepalived+Nginx[Backup] | 192.168.43.102 | Nginx Server 02 |
Tomcat01 | 192.168.43.103 | Tomcat Web Server01 |
Tomcat02 | 192.168.43.104 | Tomcat Web Server02 |
VIP | 192.168.43.150 | Виртуальный дрейф IP |
1. Измените страницу приветствия Tomcat по умолчанию, чтобы идентифицировать веб-сервер коммутатора.
Измените информацию ROOT/index.jsp узла TomcatServer01, добавьте IP-адрес Tomcat и добавьте значение Nginx, то есть измените информацию узла 192.168.43.103 следующим образом:
<div id="asf-box">
<h1>${pageContext.servletContext.serverInfo}(192.168.224.103)<%=request.getHeader("X-NGINX")%></h1>
</div>
Измените информацию root / index.jsp узла Tomcatserver02, добавьте IP-адрес TOMCAT и добавьте значение Nginx, то есть изменение узла 192.168.43.104 Информацию следующим образом:
<div id="asf-box">
<h1>${pageContext.servletContext.serverInfo}(192.168.224.104)<%=request.getHeader("X-NGINX")%></h1>
</div>
2. Запустите службу Tomcat и проверьте информацию об IP службы Tomcat.В это время Nginx не запущен, поэтому в заголовке запроса нет информации Nginx.
3. Настройте информацию о прокси-сервере Nginx
1. Настройте информацию прокси главного узла [192.168.43.101].
upstream tomcat {
server 192.168.43.103:8080 weight=1;
server 192.168.43.104:8080 weight=1;
}
server{
location / {
proxy_pass http://tomcat;
proxy_set_header X-NGINX "NGINX-1";
}
#......其他省略
}
2. Настройте информацию прокси резервного узла [192.168.43.102].
upstream tomcat {
server 192.168.43.103:8080 weight=1;
server 192.168.43.104:8080 weight=1;
}
server{
location / {
proxy_pass http://tomcat;
proxy_set_header X-NGINX "NGINX-2";
}
#......其他省略
}
3. Запустите службу Master node Nginx.
[root@localhost init.d]# service nginx start
Starting nginx (via systemctl): [ 确定 ]
На этом этапе, если вы посетите 192.168.43.101, вы увидите, что 103 и 104 узлы Tcomat отображаются попеременно, что указывает на то, что служба Nginx загрузила запрос на 2 кота.
4. Аналогичным образом настройте информацию Backup[192.168.43.102] Nginx.После запуска Nginx вы можете увидеть, что узел Backup воспроизвел эффект загрузки после доступа к 192.168.43.102.
4. Настройте информацию сценария Keepalived
1.На главном узле и ведомом узлеДобавьте файл check_nginx.sh в каталог /etc/keepalived, чтобы определить статус работы Nginx, и добавьте файл keepalived.conf.
Информация о файле check_nginx.sh выглядит следующим образом:
#!/bin/bash
#时间变量,用于记录日志
d=`date --date today +%Y%m%d_%H:%M:%S`
#计算nginx进程数量
n=`ps -C nginx --no-heading|wc -l`
#如果进程为0,则启动nginx,并且再次检测nginx进程数量,
#如果还为0,说明nginx无法启动,此时需要关闭keepalived
if [ $n -eq "0" ]; then
/etc/rc.d/init.d/nginx start
n2=`ps -C nginx --no-heading|wc -l`
if [ $n2 -eq "0" ]; then
echo "$d nginx down,keepalived will stop" >> /var/log/check_ng.log
systemctl stop keepalived
fi
fi
После завершения добавления авторизуйте файл check_nginx.sh, чтобы скрипт мог получить разрешение на выполнение.
[root@localhost keepalived]# chmod -R 777 /etc/keepalived/check_nginx.sh
2. В каталоге главного узла /etc/keepalived добавьте файл keepalived.conf со следующей конкретной информацией:
vrrp_script chk_nginx {
script "/etc/keepalived/check_nginx.sh" //检测nginx进程的脚本
interval 2
weight -20
}
global_defs {
notification_email {
//可以添加邮件提醒
}
}
vrrp_instance VI_1 {
state MASTER #标示状态为MASTER 备份机为BACKUP
interface ens33 #设置实例绑定的网卡(ip addr查看,需要根据个人网卡绑定)
virtual_router_id 51 #同一实例下virtual_router_id必须相同
mcast_src_ip 192.168.43.101
priority 250 #MASTER权重要高于BACKUP 比如BACKUP为240
advert_int 1 #MASTER与BACKUP负载均衡器之间同步检查的时间间隔,单位是秒
nopreempt #非抢占模式
authentication { #设置认证
auth_type PASS #主从服务器验证方式
auth_pass 123456
}
track_script {
check_nginx
}
virtual_ipaddress { #设置vip
192.168.43.150 #可以多个虚拟IP,换行即可
}
}
3. Добавьте файл конфигурации keepalived.conf в каталог etc/keepalived узла Backup.
Сообщение следующего содержания:
vrrp_script chk_nginx {
script "/etc/keepalived/check_nginx.sh" //检测nginx进程的脚本
interval 2
weight -20
}
global_defs {
notification_email {
//可以添加邮件提醒
}
}
vrrp_instance VI_1 {
state BACKUP #标示状态为MASTER 备份机为BACKUP
interface ens33 #设置实例绑定的网卡(ip addr查看)
virtual_router_id 51 #同一实例下virtual_router_id必须相同
mcast_src_ip 192.168.43.102
priority 240 #MASTER权重要高于BACKUP 比如BACKUP为240
advert_int 1 #MASTER与BACKUP负载均衡器之间同步检查的时间间隔,单位是秒
nopreempt #非抢占模式
authentication { #设置认证
auth_type PASS #主从服务器验证方式
auth_pass 123456
}
track_script {
check_nginx
}
virtual_ipaddress { #设置vip
192.168.43.150 #可以多个虚拟IP,换行即可
}
}
Tips:Несколько замечаний по информации о конфигурации
- состояние — главный сервер должен быть настроен как ГЛАВНЫЙ, а подчиненный сервер должен быть настроен как РЕЗЕРВНЫЙ.
- интерфейс - это имя сетевой карты, я использую версию VM12.0, поэтому имя сетевой карты здесь ens33
- mcast_src_ip — настроить соответствующий фактический IP-адрес
- приоритет - приоритет главного сервера должен быть выше, чем у подчиненного сервера, здесь главный сервер настроен как 250, а подчиненный сервер настроен как 240.
- virtual_ipaddress — настроить виртуальный IP (192.168.43.150)
- аутентификация - главный и подчиненный серверы auth_pass должны быть согласованы, keepalived полагается на это для связи
- virtual_router_id — главный и подчиненный серверы должны быть согласованы
5. Проверка высокой доступности (HA) кластера
- Шаг 1. Запустите службы Keepalived и Nginx на главной машине.
[root@localhost keepalived]# keepalived -D -f /etc/keepalived/keepalived.conf
[root@localhost keepalived]# service nginx start
Посмотреть процесс запуска службы
[root@localhost keepalived]# ps -aux|grep nginx
root 6390 0.0 0.0 20484 612 ? Ss 19:13 0:00 nginx: master process /usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf
nobody 6392 0.0 0.0 23008 1628 ? S 19:13 0:00 nginx: worker process
root 6978 0.0 0.0 112672 968 pts/0 S+ 20:08 0:00 grep --color=auto nginx
Просмотрите процесс запуска Keepalived
[root@localhost keepalived]# ps -aux|grep keepalived
root 6402 0.0 0.0 45920 1016 ? Ss 19:13 0:00 keepalived -D -f /etc/keepalived/keepalived.conf
root 6403 0.0 0.0 48044 1468 ? S 19:13 0:00 keepalived -D -f /etc/keepalived/keepalived.conf
root 6404 0.0 0.0 50128 1780 ? S 19:13 0:00 keepalived -D -f /etc/keepalived/keepalived.conf
root 7004 0.0 0.0 112672 976 pts/0 S+ 20:10 0:00 grep --color=auto keepalived
Используйте ip add для просмотра ситуации с привязкой виртуального IP.Если появится информация об узле 192.168.43.150, выполните привязку к главному узлу.
[root@localhost keepalived]# ip add
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:91:bf:59 brd ff:ff:ff:ff:ff:ff
inet 192.168.43.101/24 brd 192.168.43.255 scope global ens33
valid_lft forever preferred_lft forever
inet 192.168.43.150/32 scope global ens33
valid_lft forever preferred_lft forever
inet6 fe80::9abb:4544:f6db:8255/64 scope link
valid_lft forever preferred_lft forever
inet6 fe80::b0b3:d0ca:7382:2779/64 scope link tentative dadfailed
valid_lft forever preferred_lft forever
inet6 fe80::314f:5fe7:4e4b:64ed/64 scope link tentative dadfailed
valid_lft forever preferred_lft forever
3: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN qlen 1000
link/ether 52:54:00:2b:74:aa brd ff:ff:ff:ff:ff:ff
inet 192.168.122.1/24 brd 192.168.122.255 scope global virbr0
valid_lft forever preferred_lft forever
4: virbr0-nic: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast master virbr0 state DOWN qlen 1000
link/ether 52:54:00:2b:74:aa brd ff:ff:ff:ff:ff:ff
- Шаг 2 Запустите службу Nginx и службу Keepalived на узле резервного копирования и проверьте статус запуска службы.Если на узле резервного копирования появляется виртуальный IP, проблема с файлом конфигурации Keepalvied.Эта ситуация называется разделенным мозгом.
[root@localhost keepalived]# clear
[root@localhost keepalived]# ip add
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:14:df:79 brd ff:ff:ff:ff:ff:ff
inet 192.168.43.102/24 brd 192.168.43.255 scope global ens33
valid_lft forever preferred_lft forever
inet6 fe80::314f:5fe7:4e4b:64ed/64 scope link
valid_lft forever preferred_lft forever
3: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN qlen 1000
link/ether 52:54:00:2b:74:aa brd ff:ff:ff:ff:ff:ff
inet 192.168.122.1/24 brd 192.168.122.255 scope global virbr0
valid_lft forever preferred_lft forever
4: virbr0-nic: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast master virbr0 state DOWN qlen 1000
link/ether 52:54:00:2b:74:aa brd ff:ff:ff:ff:ff:ff
- Шаг 3 Подтвердите услугу
Просмотрите и принудительно обновите адрес несколько раз:http://192.168.43.150, вы можете видеть, что 103 и 104 попеременно отображаются несколько раз, а также отображается Nginx-1, что указывает на то, что мастер-узел пересылает веб-сервисы. - Шаг 4. Отключите основную службу поддержки активности и службу Nginx и получите доступ к веб-службе, чтобы наблюдать за передачей службы.
[root@localhost keepalived]# killall keepalived
[root@localhost keepalived]# service nginx stop
В этот момент принудительно обновляется страница 192.168.43.150 и обнаруживается, что попеременно отображаются 103 и 104 и отображается Nginx-2. автоматически переключается на резервный узел.
- Шаг 5. Запустите службу Master Keepalived и службу Nginx.
В этот момент снова проверяется, что VIP был повторно занят Мастером, и на странице попеременно отображаются 103 и 104, а в это время отображается Nginx-1.
4. Упреждающий режим Keepalived и неупреждающий режим
HA поддержки активности делится на вытесняющий режим и невытесняющий режим.В вытесняющем режиме, после того как ГЛАВНЫЙ восстановится после сбоя, он вытеснит VIP с резервного узла. Невытесняющий режим означает, что VIP после обновления BACKUP до MASTER не будет вытеснен после восстановления MASTER.
Конфигурация невытесняющего режима:
- 1> Каждый из двух узлов в блоке vrrp_instance добавляет инструкцию nopreempt, указывающую, что они не конкурируют за vip.
- 2> Состояние узла — резервное. После запуска двух узлов Keepalived по умолчанию используется резервное состояние.После отправки многоадресной информации обе стороны выбирают один MASTER в соответствии с приоритетом. Поскольку оба настроены, Master не будет захватывать VIP из-за неисправности. Это позволит избежать задержки обслуживания, которую может вызвать переключение VIP.