Построение отказоустойчивого (FailOver) кластера на базе Windows 2008 Server и Hyper-V

Как и многие из вас я проводил тесты и могу поделиться с вами некоторой информацей относительно шагов создания кластера на базе Windows 2008 и Hyper-V. Те, кто создавал кластер в Virtual Server оценят рациональность и удобство многих процессов в Windows 2008 и Hyper-V. Одно из значительных улучшений — это интеграция Hyper-V в качестве кластерного приложения и лучшая поддержка для создания отказоустойчивых виртуальных машин.

И так вот 10 шагов, которые вам нужно будет проделать для построениен защещенного кластера с использованием iSCSI хранилища (iSCSI target).

  1. Установить два сервера Windows 2008 Enterprice или DataCenter с ролью Hyper-V
  2. Настройте виртуальные сети в Hyper-V (Virtual Network Manager)
  3. Настройте на iSCSI хранилище (iSCSI target) диски Кворум (Quorum) и Ситемными дисками (Data)
  4. Используйте iSCSI коннектор (iSCSI initiator) для подключения Кворум и Системных дисков
  5. Установите компоненту Failover Cluster на каждый сервер
  6. Запустите утилиту проверки настроек серверов в кластере (Validate the cluster)
  7. Создайте кластер
  8. Создайте новую виртуальную машину (VM)
  9. Сделайте новую VM отказоустойчивой
  10. Проверьте отказоустойчивость VM

p6f1

Настройки нашей модели

AMDNode1

LAN IP address = 192.168.0.170
Heartbeat IP address = 10.10.10.1

AMDNode2

LAN IP address = 192.168.0.171
Heartbeat IP address = 10.10.10.2

Cluster IP Address = 192.168.0.181

Шаг  1:

Установите на сервера Windows 2008 Enterprise или Data Center edition — это достаточно просто. После установки добавтьте роль Hyper-V на оба сервера и перезапустите их.

Шаг 2:

После того как сервера перезагрузятся и Hyper-V роль окончательно установится, запустите консоль управления Hyper-V на обоих серверах.

(Ввнимание — это надо проделать на обоих серверах). С правой стороны окна консоли управления Hyper-V нажмите Virtual Network Manager для создания новых виртуальных сетей. В открывшемся окне выберите New Virtual Network и тип сети Private. Назовите новую сеть — Private. Имя сети должно быть одинаково на обоих серверах.

Шаг 3:

На  iSCSI хранилище (iSCSI target) (хардверном или софтверном, что у вас?) создайте два диска для общего пользования. Один диск размером 500 мб или больше для информации о настройках кластера (Quorum), второй скажем 10 гиг для витруальной машины (Data). Проверьте что включена опция общего доступа или доступа кластера к дискам.

Шаг 4:

На сервере AMDNode1 запустите утилиту iSCSI коннектор (iSCSI initiator). Добавьте  iSCSI хранилище (iSCSI target) набрав имя или IP адрес сервера и подключите диски Data и Quorum.

p6f2

p6f3

Как только диски будут подключены к серверу AMDNode1, запустите консоль управления дисками (Disk Management) , для инициализации дисков и форматирования в NTFS. Назначьте буквы Q: на диск Quorum и например S: на диск Data.

Теперь переходите к настройкам iSCSI коннектор (iSCSI initiator) на сервере AMDNode2. Так же добавляете iSCSI хранилище (iSCSI target) и подключаете диски. Еще раз инициализировать и форматировать диски на этом сервере не нужно.

Шаг 5:

На каждом сервере используя консоль Server Manager, установите компоненту Failover Clustering и после установки запускайте на сервере AMDNode1 консоль управления кластером (Failover Clustering Management console).

p6f4

Шаг 6:

Проверьте что диски корректно подключены к серверу AMDNode1 (в консоле управления дисками (Disk Management) диски Q: и S: присутсвуют, онлайн и отформатированы). Если все так запускайте сервере AMDNode1 утилиту проверки настроек кластера (Validate a Configuration).  Добавьте имена серверов которые будут в кластере и запустите все тесты.  Итогом работы утилиты проверки настроек кластера (Validate a Configuration) является отчет о результатах тестов и в случае возникновения ошибок будет написана причина и как устранить ее.

Нажмите Validate a Configuration

p6f5

Добавьте имена серверов которые будут в кластере

p6f6

Запустите процесс проверки

p6f7

Проверьте отчет по итогам всех тестов, если все хорошо то везде будут стоять зеленые галки.

p6f8

Шаг 7:

Если вы успешно прошли процесс проверки конфигурации, переходите непосредственно к осзданию кластера. Нужно будет проделать сделующие шаги:

  1. Запустить утилиту построения кластера (Create Cluster) из консоли управления кластером (Failover Cluster Management console).
  2. Ввести имена серверов кластера
  3. Задать имя и IP адрес нового кластера
  4. Запустить процедуру создания

p6f9

p6f10

p6f11

Шаг 8:

В консоли управления Hyper-V на сервере AMDNode1, создайте новую виртуальную машину (VM). Назовите ее TestVM, укажите расположение виртуального диска и доступ к виртуальным интерфейсам. Используйте образ диска Windows 2008 в качестве установочного диска операционной системы. Эту VM мы и будем делать отказоустойчивой.

Не стартуйте эту VM, это необходимо для добавления виртуальной машины в кластер.

Шаг 9:

Добавим TestVM в кластер, это позволит нам запланированно или в случае сбоя мигрировать виртуальную машину с одного сервера на другой.

В консоле управления кластером нажмите Настройка Служб и Приложений (Configure a Service or Application)

p6f12

В открывшемся окне выберите из списка Virtual Machine

p6f13

В окне выбора виртуальной машины выберите нашу VM —  TestVM

p6f14

Запустите процесс

p6f15

Готово.

Теперь пора запустить виртуальную машину. Нажмите на нее правой кнопкой мыши и выберите Bring this service or application online.

p6f16

Шаг 10:

Как только виртуальная машина запустилась мы можем провести тест, мигрировать ее с одного сервера на другой.

Нажмите правой кномпой мыши на виртуальную машину и выберите Move this service or application to another node, и выберите AMDNode2

p6f17

Процесс выглядит следующим образом:

  1. VM сохраняется на AMDNode1
  2. Мигрирует на AMDNode2
  3. И запускается на AMDNode2

p6f18

p6f19

В итоге наша VM благополучно мигрирована с одного сервера на другой.

В этой статье я рассказал о том как создать отказоустойчивый кластер из двух серверов на базе Windows 2008 и Hyper-V. Надеюсь это стало полезным для вас.

18 комментариев to “Построение отказоустойчивого (FailOver) кластера на базе Windows 2008 Server и Hyper-V”

  1. Александр:

    При проверке конфигурации для создания кластера выдается следующая ошибка:

    Ошибка при выполнении теста.
    Ошибка при проверке наличия неподписанных драйверов.
    Сбой OpenService «Lanmanserver».
    Отказано в доступе

    вроде всё по русски написано, но из-за чего это и как исправить — непонятно.
    Какие есть соображения?

    • Распишите поподробнее конфигурацию кластера , который хотите собрать? У вас все необходимые критерии для его создания выполнены?

      • Александр:

        два одинаковых сервера НР. ОС: Windows server 2008 R2.

        Запускаем Проверить конфигурацию на сервере1

        Отчет о проверке отказоустойчивого кластера:
        Конфигурация сисемы
        Проверка варианта установки операционной системы — успех
        Проверка конфигурации Active Directory — успех
        Проверка наличия подписи у всех драйверов — успех
        !!! Проверка необходимых служб — не выполнено (Сервер2: Сбой OpenService «Lanmanserver».
        Отказано в доступе)
        Проверка одинаковости архитектуры процессора — успех
        Проверка параметров дампа памяти — успех
        Проверка уровней обновления программного обеспечения — успех
        Проверка уровней пакетов обновления — успех

        Сеть — успех
        Учет — успех
        Хранилище — успех

        соответственно Запускаем Проверить конфигурацию на сервере2 — получаем ошибку Сервер1: Сбой OpenService «Lanmanserver

  2. Art.B:

    Вопрос:
    1.есть ли пример NLB кластера, чтоб распределить нагрузки.
    2.исходит из первого, потому как имеются два физических сервера, они идентичны, кроме как отличия
    в объеме ОЗУ.

    • В блоге пример NLB кластера не описан.
      Реализовать такой кластер не сложно, но есть свои моменты, основной — это таблицы mac адресов на активном оборудовании. Что бы NLB кластер нормально работал, надо реализовать и его правильное физическое подключение. Плюс ко всему сервис (например Exchange или Web или ISA или SQL) на NLB кластере должен поддерживать кластеризацию.
      Разница в конфигурациях оборудования не критична, нагрузка распределяется по производительности.

  3. sam:

    Вопрос по сабжу. Делаю все как вы сказали. Цель поднять терминальную машину на 50 юзеров с конектом по RDP Microsoft.
    1. есть ли распределение нагрузки между двумя железками? или же нагрузка на первой а вторая просто ждет слета первой?
    2. При падении первого сервера, клиенты по RDP заметят ли это? Насколько я в курсе изпользуя систему которую предлагает Citrix, юзеры как сидели так и сидят, даже не замечаю каких-либо проблем с железом.

    • Спрашивали — отвечаю:
      1. В данной статье описывали построение именно отказоустойчивого (FailOver) кластера, так что ни о каком распределении нагрузки тут речи не идет. Только горячий подмен. Для распределения нагрузки вам нужен NLB кластер.
      2. Тут все зависит от оборудования на котором все реализовано, но технология разработана для моментального переключения. Так что пользователи не должны заметить каких либо проблем при падении одной ноды.

  4. Agat:

    У меня iSCSI. А как распределять QUORUM диски между кластерами? они видны на каждом сервере, мне под каждый отдельный кластер нужен отдельный такой QUORUM диск, или один на всех? Если разные, то как правильно раздать их?

    • Кворум диск нужен для каждого кластера (не для каждой ноды, а именно кластера) и должен быть виден так же для каждого кластера. Рекомендуемый Microsft размер диска 500мб, можно и больше, но в основном этого достаточно. Файловая система должна быть NTFS. Подцепляете кворум диски стандартно, как и обычные.

  5. Agat:

    Здравствуйте, Артём

    Можно ли к одному СХД подключать несколько кластеров, к примеру 3 разных кластера?

    • Да, конечно, обычно так и делают, покупают дисковую полку и на ней кластеризуют разные сервисы, например 2-а сервера в кластере Exchange и 2-а в кластере SQL. Есть только некоторые особенности в настроке оборудования iSCSI и FiberOptic.

  6. Agat:

    А какие IP использовались на контроллерах? какой gateway?

    • Не очень понял вопроса, надо чтобы обе ноды видели друг друга, следовательно публичные интерфейсы должны быть из одной сети и приватные интерфейсы (для кластера) должны быть тоже из одной сети. Шлюз — тот что используется у вас в сети или вообще без него, все зависит от вашей конфигурации сети.

  7. Какая конфигурация нодов у тебя была? какие материнские платы? и процы?

    • Давно это было, по моделям точно не подскажу. Надо подбирать совместимое оборудование. В помощь вам утилиты для AMD , для Intel и универсальный тест для всех систем SecurAble

Leave a Reply

*

Dansette

Рейтинг@Mail.ru Яндекс.Метрика