Тестирование Citrix XenServer. Другое

Как и Андрей, я решил потестировать Xen. Потестировать-то потестировал, но решил отписать только сейчас – был в отпуске.

В моём случае установка производилась на железо – 2 лезвия Dell M600 и SAN EMC AX4-5 FC.  Citrix разместился на локальных SAS-дисках, тестовую виртуальную машину положил в виде LVM-диска.
Первый момент, который изрядно удивил – это прогон HD-Tune по диску. Картинка представляла собой набор ежесекундных перепадов скорости  от 0,5  до 70 МБ/сек. После нескольких прогонов скорость стабилизировалась.  Оригинальной картинки нет, но местами данные провалы остались. Не знаю, проблема это хранилища, но таких приколов раньше не видел, или LVM. На картинке выделил эллипсом, как выглядели перепады.
xen disk speed
Второй момент, который заинтересовал это поведение XenMotion. Запустив команду ping -t и сделав “движение”, увидел довольно занимательную картину – рост времени ответов до 30-50 мсек, проблема по истечению пары недель не повторилась (возможно помогло обновление прошивки хранилища). Как и у ESX теряется только один “пинг” в момент переключения на второй хост.

Что понравилось, так это библиотека образов ISO, которые хост цепляет напрямую с общих дисков, просто удобно. Ещё оценил разные кнопки у консоли – докинг, масштабирование, подключение по RDP.

При установке столкнулся с проблемами, видать от непривычки. Во-первых, FC-лун смог подключить только через GUI, через CLI-меню не нашёлся. Во-вторых, последовательность добавления хостов в пул слегка напрягла, если у хостов есть одинаковый лун, то нельзя добавить хосты, нужно вначале добавлять хосты, а потом уже к пулу лун. В-третьих, при нахождении GUI-клиента в одной подсетке не получалось добавить второй хост в пул, ругался, что не виден первый хост.

Общее впечатление: бесплатная версия имеет один плюс над Hyper-V – XenMotion, но есть и один жирный минус, чего-то я затруднился представить схему резервного копирования с LVM.

2 thoughts on “Тестирование Citrix XenServer. Другое”

  1. Почему прыгает скорость диска становится понятно из статьи Антона Жбанкова про ESX, но логика в данном случае идентична и для Citrix
    http://blog.vadmin.ru/2009/05/ft-snapshots.html
    “Thick при создании полностью выделяет место в объеме самого диска, и при первом обращении к каждому блоку сначала его очищает. На практике это моментальное создание, а затем некоторое время низкая дисковая производительность (пока не будет обращений к большинству блоков)”

Leave a Reply

Your email address will not be published. Required fields are marked *