VMware Webservice

После борьбы с FT, у меня обнаружились две проблемы, которых изначально не было: не работал Storage Maps и новый Performance Overview, а также не стартовал VMware VirtualCenter Management Webservices – писал ошибку. Связать проблемы воедино меня не осеняло, пока одна из попыток просмотра странички с графиками производительности не вывела, что, дескать, страничка не доступа.
Никакие попытки запустить Webservice не помогали, в логе писалось, типа, не хватает памяти в куче для содания Java VM. Почесав репу, вспомнил, что Андрей писал о минимуме 2 Гб ОЗУ для работы четвертого центра. Добавил памяти – ошибка осталась. Погуглил-1, не помогло. Переустановил весь vCenter, не помогло. Погуглил-2, перечитал прочитанное в “Погуглил-1”, нашёл параметр, отвечающий за выделение памяти при запуске JVM, уменьшил Maximum memory pool с 1024 до 512 MB. VMware Webservice запустился.

jvm_memory_poolИ всё встало на свои места – Storage Maps, Performance Overview заработали. Похоже, через WebService работают соответствующие плагины.
В очередной раз пришла мысль, что без документации, как без рук.

Тестирование vSphere Fault Tolerance

После короткого перерыва снова принялся за изучение гипервизора нового поколения от VMware. Одна из ключевых функций, которая интересует многих, изначально называвшаяся HA continuous, – Fault Tolerance.
Итак, снова в моём распоряжении два лезвия Dell M600, хранилище EMC AX4-5 FC, ESXi embedded 4.0.0 RC и виртуалка Windows 2003 Server с vCenter 4.0 RC.
Так как мне было лениво создавать ещё одну виртуальную машину, то решил экспериментировать на этой, от этого видать и половина возникших проблем. 😉
Сначала, попытка включить FT не удалась по причине невыделения сетевых интерфейсов для логирования FT. Включил в настройках сетевых интерфейсов все галки подряд – vMotion, FT logging… Гигабитные интерфейсы работают два в паре, разделения функционального не делал, чего вам не рекомендую.
ft_network_enabled
На втором этапе система ругнулась на несоответствие типа жёсткого диска, быстренько сделал Storage vMotion на другой раздел с указанием “толстого” типа.

storage_migrate_thick Ура! FT, покряхтев минуты 2-3, заработал!
Проверку Testing Failover прошёл на отлично, удивило только мигание хостов.
ft_context_menu
После этого решил напрямую ребутить хосты из интерфейса vCenter, отказываясь от спасения виртуалок.  Первый хост ребутнулся успешно, подождав пару минут и проверив, что FT работает, перезагрузил второй хост… И вот тут я залип, виртуальная машина зависла насмерть, картинка на основной машине стала отличаться от вторичной, а так как там был vCenter, то всей моей инфраструктуре пришёл конец. Попытка насильно ребутнуть из vClient виртуалку не помогла, но подозреваю, что отработал HA во время моих инсинуаций, и из ребута загрузилась VM.
После такого развлечения принял решение – отрубить FT. Но, не тут-то было, в меню оказалось два замечательных выбора Off FT и Disable FT. Я сделал Off, и… В общем, произошло не пойми чего, меню FT стало серым, а вторичная виртуалка в статусе disabled. Шаманства не помогли, пришлось всё перезагрузить и ручками удалить вторичную VM.

Как итог, FT стал работать, как часы: отлично включается, выключается, “приостанавливается”, чистить за собой при удалении вторичные виртуалки.

ft_status

Очередное сравнение гипервизоров. Русская версия

Чуть меньше месяца назад в блоге была опубликована таблица сравнений современных гипервизоров, подготовленная маркетинговым отделом VMware к выходу Vsphere. Сегодня в руки попалась официальная руссифицированная версия, которую и представляю вашему вниманию.
hypervisors_compare1
hypervisors_compare2
hypervisors_compare3

Тестирование Citrix XenServer. Другое

Как и Андрей, я решил потестировать Xen. Потестировать-то потестировал, но решил отписать только сейчас – был в отпуске.

В моём случае установка производилась на железо – 2 лезвия Dell M600 и SAN EMC AX4-5 FC.  Citrix разместился на локальных SAS-дисках, тестовую виртуальную машину положил в виде LVM-диска.
Первый момент, который изрядно удивил – это прогон HD-Tune по диску. Картинка представляла собой набор ежесекундных перепадов скорости  от 0,5  до 70 МБ/сек. После нескольких прогонов скорость стабилизировалась.  Оригинальной картинки нет, но местами данные провалы остались. Не знаю, проблема это хранилища, но таких приколов раньше не видел, или LVM. На картинке выделил эллипсом, как выглядели перепады.
xen disk speed
Второй момент, который заинтересовал это поведение XenMotion. Запустив команду ping -t и сделав “движение”, увидел довольно занимательную картину – рост времени ответов до 30-50 мсек, проблема по истечению пары недель не повторилась (возможно помогло обновление прошивки хранилища). Как и у ESX теряется только один “пинг” в момент переключения на второй хост.

Что понравилось, так это библиотека образов ISO, которые хост цепляет напрямую с общих дисков, просто удобно. Ещё оценил разные кнопки у консоли – докинг, масштабирование, подключение по RDP.

При установке столкнулся с проблемами, видать от непривычки. Во-первых, FC-лун смог подключить только через GUI, через CLI-меню не нашёлся. Во-вторых, последовательность добавления хостов в пул слегка напрягла, если у хостов есть одинаковый лун, то нельзя добавить хосты, нужно вначале добавлять хосты, а потом уже к пулу лун. В-третьих, при нахождении GUI-клиента в одной подсетке не получалось добавить второй хост в пул, ругался, что не виден первый хост.

Общее впечатление: бесплатная версия имеет один плюс над Hyper-V – XenMotion, но есть и один жирный минус, чего-то я затруднился представить схему резервного копирования с LVM.

Citrix, ESX, USB-диски и разделы

Выход новых версий продуктов каждый раз заставляет планировать куда устанавливать и какой дистрибутив выбрать. Неделю назад задача для меня усложнилась вдвое: я решил потестировать Citrix XenServer 5, и в тот же день мне попал в руки дистрибутив ESX 4.0. Под тестирование я выделил два лезвия в блейд-центре, но основным желанием было посмотреть на XenMotion, так что Citrix я поставил на жёсткие диски обоих серверов. Что оставалось делать с ESX? По велению судьбы, в виде Google, у меня был RecoveryCD дистрибутив embedded версии, что спасло меня от дальнейших раздумий, воткнув свой USB-диск и отобрав у жены гламурную флешку, вставил их в те же самые лезвия, на которых уже стоял XenServer, и установил ESXi 4.

История продолжилась довольно ожидаемо, флешки понадобились по прямому назначению – для переноса файлов.  Кроме этого, меня заинтересовал занимаемый размер и структура гипервизора на них.

Достав из сервера и подключив к компьютеру, запустил управление дисками Windows. Картинка была следующая.

win drive manager
Пощелкав мышкой по разделам, я понял, что попадаю – разделы удалить нельзя, на свободном месте создать раздел также нельзя. Размер флешек 2 и 16 ГБ, а занимаемое место всего 704 МБ, поэтому  очень хотелось “вытащить” 16-гиговую, не пропадать же добру в размере 14+ ГБ.

Придя на работу, решил поискать современное ПО управления разделами. Скачал две пробные версии: Acronis Disk Director и Paragon Partition Manager.

Acronis показал лучшие знания структуры, определив даже swap-партицию VMware,  но пробная версия не дала мне возможности что-то менять.

acronis disk director
Paragon оказался более щедрым и все нужные мне функции были доступны. Так я получил универсальную флешку и файлики носить, и ESX запускать где угодно.

paragon partition manager
Теперь переход с Citrix на VMware занимает у меня 3 минуты времени, столько требуется перезагрузить сервера с выбором откуда грузиться, да и флешки при делах ;).

Калькулятор стоимости для vSphere

VMware запустили калькулятор затрат виртуализации в разрезе цена/приложение.  Основные моменты: расчет для различных редакций vSphere и сравнение с Microsoft Hyper-V+System Center, как по стоимости решений, так и по функционалу.

vsphere calc

Русский раздел о vSphere

На этой неделе на сайте VMware появился раздел о vSphere на русском языке. Сейчас можно быстро ознакомиться с новым продуктом, дать почитать ответственным людям, чтобы запланировать переход на новый продукт.
Переходим сюда.

Горячее добавление процессоров и памяти

Использование 7-ой версии аппаратной части виртуальной машины позволило реализовать механизм горячего добавления процессоров и памяти.

vsphere hot-add

Данный механизм требует поддержки со стороны операционной системы и наличия лицензии.

Сервисная консоль в vSphere 4.X

В vSphere абсолютно новая модель сервисной консоли, которая смогла решить многие проблемы существующие в ESX 3.5, и, конечно, добавить своих.

Новая консоль 64-битная, основана на Linux-ядре ветки 2.6 и совместима с  RHEL 5.2 и CentOS 5.2:

  • Поддерживает как  32-битные, так и 64-битные приложения
  • Корневая файловая система консоли представляет собой VMDK-файл
  • Драйвера устройств запускаются от VMkernel
  • Сетевые интерфейсы полностью поддерживают IPv6
  • Предоставляет расширенные средства безопасности через Address Space Layout Randomization (ASLR)

Поддержка PCI-устройств в VSphere

В VSphere используется новая аппаратная платформа виртуальной машины версии 7. Она позволят на горячую добавлять и удалять следующие PCI-устройства:
  • Сетевые карты
  • SCSI-адаптеры
  • Звуковые карты
  • SCSI-диски и CDROMы
  • USB EHCI контроллеры
  • VMCI
  • прокидывать PCI-устройства в режиме passthrough

vsphere pci devices

Особый интерес представляют USB-устройства, но на данный момент мне неизвестно возможно ли использовать USB-устройства, присоединенные к хосту. По крайней мере, сейчас можно будет использовать эмуляторы USB-устройств.