Владислав Авдеев
25.06.2019
5828

Настройка базового High-Availability кластера под Asterisk на Centos 7

Данная статья является первой из небольшого цикла статей по настройке кластеризации для IP-АТС Asterisk, разворачиваемой на операционной системе Centos 7. На тестовом стенде собраны две ноды со следующими параметрами сети: Node 1: 192.168.170.187 — сеть офиса с выходом в интернет 10.10.56.101 — адрес для синхронизации кластера — прямой линк между нодами Node 2: сеть настроена […]

Данная статья является первой из небольшого цикла статей по настройке кластеризации для IP-АТС Asterisk, разворачиваемой на операционной системе Centos 7.

На тестовом стенде собраны две ноды со следующими параметрами сети:

Node 1:
192.168.170.187 — сеть офиса с выходом в интернет

10.10.56.101 — адрес для синхронизации кластера — прямой линк между нодами


Node 2:
сеть настроена по аналогии и имеет следующие ip:
192.168.170.205

10.10.56.102

192.168.170.20 — виртуальный «разделяемый» ip-адрес

Все нижеприведенные шаги необходимо выполнять на обоих хостах

Перед началом настройки рекомендуется обновить ОС, выполнив команду

yum update

Сначала необходимо сменить имена хостов на обе ноды, выполнив команды:

hostnamectl set-hostname main.test
hostnamectl set-hostname rezerv.test

Далее необходимо в файле /etc/hosts прописать имена хостов и их соответсвие ip
192.168.170.187 master.test

192.168.170.205 rezerv.test

10.10.56.101 node1

10.10.56.102 node2

Данная операция выполняется на обоих хостах кластера

После этого можно командой ping проверить доступность нод между собой, например введя на первой ноде команду ping node2, в результате ответы должны будут приходить с адреса прямого линка второй ноды.

Аналогично можно пропинговать по имени и первую ноду

Перед установкой необходимых утилит нужно подключить репозиторий epel, коммандой

yum install epel-release

Следующим шагом будет установка пакетов инструментария настройки Pacemaker. выполняется командой:

yum install pcs pacemaker fence-agents-all psmisc policycoreutils-python

В процессе установки автоматически будут установлены все необходимые зависимости.

На этапе настройки рекомендуется отключить файервол и временно убрать его из автозагрузки, командами:

systemctl stop firewalld && systemctl disable firewalld

Далее необходимо запустить Pacemaker и добавить его в автозагрузку командой:

systemctl start pcsd && systemctl enable pcsd

Перед созданием кластера необходимо установить пароль для пользователя hacluster с помощью команды: echo <strongpasswd> | passwd –stdin hacluster, где <strongpasswd> необходимо заменить на любой пароль, пароли должны совпадать на обоих хостах.

Для проверки корректности необходимо аутентифицироваться под пользователем hacluster с любой ноды с помощью команды:

pcs cluster auth node1 node2 -u hacluster -p <strongpasswd> --force

В выводе должно показать что на оба хоста прошла авторизация

Далее необходимо создать кластер с указанием входящих в него узлов, для этого необходимо запустить команду: pcs cluster setup –force –name ForAsterisk node1 node2, имя кластера можно указать любое, в данном примере используется имя ForAsterisk

Далее кластер запускается командой:

pcs cluster start --all

При использовании ключа –all кластер запустится на всех сконфигурированных узлах.

Для проверки состояния кластера необходимо использовать команду pcs status, ее вывод должен показать что онлайн два узла: node1 и node2

Так как на данном этапе настраивается только базовая конфигурация кластера — при проверке его статуса указано отсутствие ресурсов.

Также в выоде статуса видно оповещение:
WARNINGS:

No stonith devices and stonith-enabled is not false

Данное сообщение не указывает на ошибку, для дальнейшей настройки временно рекомендуется отключить STONITH, командой:

pcs property set stonith-enabled=false

Состояние можно проверить командой:

 pcs property show stonith-enabled

Так как в данной схеме кластеризации используется всего два узла, то необходимо отключить quorum, так как данный параметр необходим только в том случае если в кластере в какой-то момент становится доступно более половины узлов. Отключение выполняется командой:

pcs property set no-quorum-policy=ignore

Статус данного параметра проверяется командой:

pcs property show no-quorum-policy 

Если вывод на обоих узлах показывает статус ignore — соответственно отключение прошло корреткно.

Следующим шагом необходимо добавить в кластер ресурсы с помощью команды:

pcs resource create PBX_VirtIP ocf:heartbeat:IPaddr2  ip=192.168.170.20 cidr_netmask=24 op monitor interval=30s

PBX_VirtIP — произвольное имя сервиса

ocf:heartbeat:IPaddr2 — Данная конструкция указывает heratbeat на то какой скрипт использовать

ip=192.168.170.20 — указывает какой ip установить в качестве виртуального

op monitor interval — в данном параметре задается интервал проверки здоровья сервисов:

Виртуальный адрес установится на тот узел на котором будет запущена команда добавления ресурса.

Далее можно произвести проверку — выключить первый узел и проверить статус на резервном узле командой pcs status — вывод должен показать что виртуальный адрес присвоен резервному узлу — а также что первый узел в режиме оффлайн.

Также с помощью команды ip addr необходимо убедиться что виртуальный адрес присвоен интерфейсу, смотрящему в локальную сеть.

Если после перезагрузки узла кластер не запускается, то первым делом необходимо проверить добавлены ли необходимые службы в автозапуск. Если не добавлены, то необходимо добавить с помощью команды:

 systemctl enable pcsd && systemctl enable corosync && systemctl enable pacemaker

Также необходимо разрешить автозапуск созданного кластера командой:

pcs cluster enable --all

Для переключения активной ноды необходимо выполнить команду:

pcs resource move <имя_ресурса> <имя_ноды>
 
avatar
  Подписаться  
Уведомление о

Остались вопросы?

Я - Першин Артём, менеджер компании Voxlink. Хотите уточнить детали или готовы оставить заявку? Укажите номер телефона, я перезвоню в течение 3-х секунд.

VoIP оборудование

ближайшие курсы

ближайшие Вебинары

ONLINE

Why Choose HUGE?

Unlimited pre-designed elements

Each and every design element is designed for retina ready display on all kind of devices

User friendly interface and design

Each and every design element is designed for retina ready display on all kind of devices

100% editable layered PSD files

Each and every design element is designed for retina ready display on all kind of devices

Created using shape layers

Each and every design element is designed for retina ready display on all kind of devices