Тестирование vSphere Fault Tolerance

После короткого перерыва снова принялся за изучение гипервизора нового поколения от VMware. Одна из ключевых функций, которая интересует многих, изначально называвшаяся HA continuous, – Fault Tolerance.
Итак, снова в моём распоряжении два лезвия Dell M600, хранилище EMC AX4-5 FC, ESXi embedded 4.0.0 RC и виртуалка Windows 2003 Server с vCenter 4.0 RC.
Так как мне было лениво создавать ещё одну виртуальную машину, то решил экспериментировать на этой, от этого видать и половина возникших проблем. 😉
Сначала, попытка включить FT не удалась по причине невыделения сетевых интерфейсов для логирования FT. Включил в настройках сетевых интерфейсов все галки подряд – vMotion, FT logging… Гигабитные интерфейсы работают два в паре, разделения функционального не делал, чего вам не рекомендую.
ft_network_enabled
На втором этапе система ругнулась на несоответствие типа жёсткого диска, быстренько сделал Storage vMotion на другой раздел с указанием “толстого” типа.

storage_migrate_thick Ура! FT, покряхтев минуты 2-3, заработал!
Проверку Testing Failover прошёл на отлично, удивило только мигание хостов.
ft_context_menu
После этого решил напрямую ребутить хосты из интерфейса vCenter, отказываясь от спасения виртуалок.  Первый хост ребутнулся успешно, подождав пару минут и проверив, что FT работает, перезагрузил второй хост… И вот тут я залип, виртуальная машина зависла насмерть, картинка на основной машине стала отличаться от вторичной, а так как там был vCenter, то всей моей инфраструктуре пришёл конец. Попытка насильно ребутнуть из vClient виртуалку не помогла, но подозреваю, что отработал HA во время моих инсинуаций, и из ребута загрузилась VM.
После такого развлечения принял решение – отрубить FT. Но, не тут-то было, в меню оказалось два замечательных выбора Off FT и Disable FT. Я сделал Off, и… В общем, произошло не пойми чего, меню FT стало серым, а вторичная виртуалка в статусе disabled. Шаманства не помогли, пришлось всё перезагрузить и ручками удалить вторичную VM.

Как итог, FT стал работать, как часы: отлично включается, выключается, “приостанавливается”, чистить за собой при удалении вторичные виртуалки.

ft_status

Hyper-V R2 быстрее чем ESXi3 Update4?

Этот провокационный пост обязан своим рождением Mr. Nobody. Суть разговора сводилась к следующему: Hyper-V быстрее чем ESX сохраняет состояние виртуальной машины. Родилось подозрение, что Hyper-V “кэширует” операцию сохранения (говорит, что все готово, а сам продолжает сохранять состояние машины). Для проверки сразу после окончания операции обесточивалась физическая машина с Hyper-V, затем включалась и выполнялась проверка запуска сохраненного состояния виртуальной машины. Выяснилось, что виртуальная машина нормально восстанавливает свое состояние. Попутно родилось это несерьезное сравнение 🙂
Стенд:
1) Dell Inspiron 1520, Core2Duo (2Ghz), 4Gb RAM, HDD SATA, Win2k8 R2 with Hyper-V;
2) HP Proliant DL380 G5, 2Xeon x5450, 8Gb RAM, 8 HDD SAS in Raid 5, ESXi3 Update 4.
Берется виртуальная машина с одним процессором и тремя гигабайтами оперативной памяти. ОС – Win2k3 без сервисов. Фактическое использование памяти ~ 300Мб.
Hyper-V при сохранении состояния виртуальной машины записывает на диск фактически используемую память, т.е. 300 мегабайт (это видно из монитора ресурсов). Тратит на это ~ 5 секунд.
ESXi записывает на диск всю оперативную память виртуальной машины. Тратит на это ~ 20 секунд.

Очередное сравнение гипервизоров. Русская версия

Чуть меньше месяца назад в блоге была опубликована таблица сравнений современных гипервизоров, подготовленная маркетинговым отделом VMware к выходу Vsphere. Сегодня в руки попалась официальная руссифицированная версия, которую и представляю вашему вниманию.
hypervisors_compare1
hypervisors_compare2
hypervisors_compare3

Использование памяти в vCenter 4.0

Если вы планируете апгрейд от VI3,5 до vSphere, то вам необходимо обратить внимание на использование памяти в vCenter. Требования и к ViCenter 2,5 и к vCenter 4 примерно одинаковые (2 гигагерца и два гигабайта). ViCenter 2,5 нормально работал на меньшем объеме памяти. Однако в vCenter4 используется новая версия веб-сервера, использующая большее количество памяти.

На скриншотах использование памяти веб-сервером. Tomcat5.exe – “старый” веб-сервер. Tomcat6 – новый.

vc-mem1

vc-mem2
Так что готовьтесь выделить вашему виртуальному серверу 2 гигабайта памяти 😉

Еще о Hyper-V R2

Недавно я писал про фичи, которые появятся в System Center Virtual Machine Manager 2008 R2 RC. Теперь же посмотрим на некоторые особенности Hyper-V R2.

Во-первых, Hyper-V R2 теперь поддерживает до 64 логических процессоров и до 512 виртуальных. Допустимо запускать на сервере до 384 виртуальных машин (и зачем, спрашивается, если в продакшн среде максимально полученное количество не превышает 20. Впрочем, это справедливо ко всем гипервизорам).

Появилась опция для виртуальной машины, позволяющая ей мигрировать на другое поколение процессоров этого же производителя. То есть, AMD<->AMD; Intel<->Intel.

image_2

Это достигается отключением следующих технологий

image_3

Микрософт уверяет, что пока ей не встречались приложения, которые отказываются запускаться при отсутствии данных технологий на процессоре.

Источник

Тестирование Citrix XenServer. Другое

Как и Андрей, я решил потестировать Xen. Потестировать-то потестировал, но решил отписать только сейчас – был в отпуске.

В моём случае установка производилась на железо – 2 лезвия Dell M600 и SAN EMC AX4-5 FC.  Citrix разместился на локальных SAS-дисках, тестовую виртуальную машину положил в виде LVM-диска.
Первый момент, который изрядно удивил – это прогон HD-Tune по диску. Картинка представляла собой набор ежесекундных перепадов скорости  от 0,5  до 70 МБ/сек. После нескольких прогонов скорость стабилизировалась.  Оригинальной картинки нет, но местами данные провалы остались. Не знаю, проблема это хранилища, но таких приколов раньше не видел, или LVM. На картинке выделил эллипсом, как выглядели перепады.
xen disk speed
Второй момент, который заинтересовал это поведение XenMotion. Запустив команду ping -t и сделав “движение”, увидел довольно занимательную картину – рост времени ответов до 30-50 мсек, проблема по истечению пары недель не повторилась (возможно помогло обновление прошивки хранилища). Как и у ESX теряется только один “пинг” в момент переключения на второй хост.

Что понравилось, так это библиотека образов ISO, которые хост цепляет напрямую с общих дисков, просто удобно. Ещё оценил разные кнопки у консоли – докинг, масштабирование, подключение по RDP.

При установке столкнулся с проблемами, видать от непривычки. Во-первых, FC-лун смог подключить только через GUI, через CLI-меню не нашёлся. Во-вторых, последовательность добавления хостов в пул слегка напрягла, если у хостов есть одинаковый лун, то нельзя добавить хосты, нужно вначале добавлять хосты, а потом уже к пулу лун. В-третьих, при нахождении GUI-клиента в одной подсетке не получалось добавить второй хост в пул, ругался, что не виден первый хост.

Общее впечатление: бесплатная версия имеет один плюс над Hyper-V – XenMotion, но есть и один жирный минус, чего-то я затруднился представить схему резервного копирования с LVM.

Включение SSH в ESXi

Ни для кого не секрет, что в ESXi есть обрезанная линуксовая консоль и к ней можно настроить доступ по SSH. После того, как в Update4 сделали Remote CLI только для чтения, пользы от SSH стало значительно больше. 🙂
Например, создать жесткий диск формата eagerzeroedthick вы можете только через SSH или подключившись консольно.
В интернете есть множество статей на тему включения SSH, но без перезагрузки сервера SSH не работал. И вот вчера Александр Самойленко открыл мне глаза. 🙂

Нужно сделать следующее:
ps | grep inetd
В результате будет выведено что-то типа 1299 1299 busybox inetd. ID процесса inetd – 1299.
Теперь введите kill -HUP process_id, где process_id в нашем случае 1299.

Тестирование Citrix XenServer

Всем привет. Дошли руки до тестирования этого гипервизора. Данная заметка исключительно субъективна, прошу не пинать ногами. 🙂

Как всем известно, для работы XenServer требует аппаратной поддержки технологий виртуализации, как и Hyper-V. Несмотря на это, его, как и Hyper-V, все же можно установить в виртуальную машину. Для этого необходимо использовать гипервизор с поддержкой 64битных ос (в нашем случае с линуксом) и процессор с поддержкой 64бит.

При выполнении этих двух условий вы можете смело начинать устанавливать XenServer 5 на виртуальную машину, в моем случае это VMware ESXi3 Update 4.

Установщик честно заявит, что аппаратной поддержкой виртуализации у вас и не пахло. Соглашайтесь с ним и продолжайте установку.

Кроме дистрибутива XenServer вам потребуется утилита для подключения – XenCenter. Ставим ее на машину администратора, конфигурируем сетевые настройки XenServer и вуаля – мы на нем.

Что понравилось – управление сетями стало более гибким, чем в Hyper-V. Правда, до VMware ESX 3,5 далеко.

Просматривать данные о производительности больше чем на сутки назад –  идите в платную версию Essentials. Хотите подключить в качестве стораджа место на локальных дисках – облом. Только NFS/FC/iSCSI.

В общем, Live Migration и многие другие вкусности с этой страницы – это круто. Но вот реальность резко обламывает крылья – пойду дальше разбираться с бесплатным решением…