Метрокластер — технология создания отказоустойчивой ИТ-инфраструктуры на базе синхронной репликации данных средствами СХД. В состав метрокластера входят две идентичные СХД, разнесенные по разным локациям, между которыми настраивается зеркалирование данных в синхронном режиме. Таким образом, при выходе из строя одной СХД или целой площадки данные остаются доступны на второй СХД, а функционирование прикладных систем продолжается. Работа такого кластера автоматизирована, то есть переключение узлов в случае сбоя не требует вмешательства администратора и происходит за минимальное время.
В рамках конференции IT Elements тестировалась конфигурация, собранная полностью на отечественных решениях, произведённых на заводе «Аквариуса»: две СХД «Аэродиск» AQ440, соединенные между собой оптическими каналами связи через коммутаторы 25GBE AQ-N5001. Ферма виртуализации функционировала на серверах T50 и отечественном ПО. Все испытания проводились в условиях эмуляции прикладной тестовой нагрузки на СХД со стороны СУБД PostgreSQL, запущенной в виртуальной машине. Помимо этого, вносились сетевые задержки для эмуляции использования «межЦОДового» канала связи с помощью специализированного ПО.
Сначала была смоделирована ситуация отказа СХД на одной площадке в результате аварийного отключения электропитания. В этом случае виртуальный интерфейс (VIP) метрокластера мигрировал на другую СХД в течение 30 секунд. При этом работа виртуальной машины не прерывалась.
Второй сценарий — эмуляция отказа всей площадки путем отключения электропитания оборудования (сервер, коммутатор, СХД). В этом испытании помимо переключения VIP СХД метрокластера на другую СХД произошло переключение виртуальной машины из-за отказа хоста виртуализации. После этого тестовая нагрузка была перезапущена на второй площадке. Весь процесс с восстановлением нагрузки после крушения занял не более трех минут.
В третьем тесте оценивалась работа метрокластера при сбое каналов связи, который приводит к изоляции узлов кластера на двух площадках. В ходе него эксперты проверили работу механизма арбитража между двумя СХД, который выполняется отдельным компонентом решения — сервером-арбитром. СХД, сохраняющая связь с арбитром, становится основной и принимает на себя нагрузку, при этом вторая СХД исключается из кластера, чтобы избежать ситуации Split-brain и повреждения данных.
«Все крупные компании привыкли к конфигурации метрокластера, когда использовали западные решения, однако с уходом зарубежных вендоров этой технологии не стало. На IT Elements мы продемонстрировали первую подобную российскую разработку, у которой нет прямых аналогов. Мы уже провели ряд пилотных тестирований в ИТ-ландшафте заказчиков и рекомендуем компаниям, для которых важна отказоустойчивая ферма виртуализации, провести тесты и пилоты в собственном ИТ-окружении и в условиях реальных нагрузок», — отметил Юрий Семенюков, директор центра инфраструктурных решений «Инфосистемы Джет».
«Такие тестирования не только помогают выявить слабые места в инфраструктуре, но и дают возможность командам разработать более эффективные стратегии реагирования на чрезвычайные ситуации. Мы были рады помочь нашим партнерам, предоставив оборудование для испытаний. Команда “Инфосистемы Джет” продемонстрировала работу решений в максимально реалистичных условиях и тут же комментировала процесс, отвечая на вопросы из зала. Лучшего формата развития российских ИТ-продуктов для создания новых цифровых ландшафтов придумать сегодня сложно», — отметил Роман Козлов, руководитель отдела системной архитектуры компании «Аэродиск».