Проброс USB в ВМ. Не работает в ESX(i) 4

Одной из ожидаемых функций vSphere была поддержка проброса USB-устройств внутрь виртуальной машины. Понятно, что функция привязывает ВМ к конкретному хосту, но это было приемлемо.

Соответственно, как только мне в руки попался релиз кандидат, я сразу попытался протестировать данную функцию, не поленившись сбегать в серверную. Но, ничего не вышло. Подумал, что это проблема тестовой сборки.

Тоже самое повторилось и в финальной версии, стал уже грешить на кривые ручки… до сегодняшнего утра. Проблема оказалась не только у меня, но и у ребят из xtravirt, чьи прямые руки не вызывают сомнения.

По слухам, поправят только в update 1.

Veeam Monitor как бесплатная альтернатива vCenter для малого бизнеса

Сегодня моя мечта осуществилась, может, конечно, раньше, но сегодня попробовал и осознал.

Я скачал замечательный продукт Veeam Monitor 4 Free, но решил рассмотреть его “не по назначению” – как средство мониторинга и аналитики, а как альтернативу продуктам vSphere Essentials и ESXi Management Kit, предназначенных для управления 3 хостами ESX(i)4 и ESXi 3.5 free соответственно.

Почему бесплатный Veeam Monitor 4 можно поставить на одну ступеньку повыше ESXi Management Kit, и на ступеньку пониже vSphere Essentials? Конечно, из-за наличия функций централизованного управления хостами.

Во-первых, “сквозная консолидация”  мониторинга по хостам(Lowest Load) и виртуальным машинам (Top Load), а также событий и тревог. Позволяет видеть до 10 хостов или ВМ, с мгновенным переходом к нужной.veeam_monitor_top_load

Во-вторых, интегрированная консоль подключения к виртуальным машинам, не запуская vClient, получаете доступ к консоли. veeam_monitor_vm_console

В-третьих, о чём и была мечта, это управление несколькими хостами из одного места. Так вот, в Veeam Monitor 4 интегрирован vClient, установить предварительно его не забудьте.veeam_monitor_vm_vclient Сведём  мои оценки в таблицу.
veeam_monitor_vs_vmware_esxi_mk Если у вас нету денег, но очень хочется использовать виртуализацию на основе VMware ESXi, советую обратить внимание на замечательный продукт Veeam Monitor. Безвозмездно, то есть даром, вы получаете продукт превосходящий по возможностям VMware ESXi Management Kit стоимостью 995 долларов и лишь немного теряете по сравнению с новым продуктом для малого бизнеса vSphere Essentials.

Использование IPMI в DPM

В vSphere появился новый механизм управления питанием серверов у функции Distributed Power Management. Если в третьей версии можно было использовать только Wake on LAN, то теперь добавлены “родные” протоколы удалённого управления серверами IPMI и iLO.
Так как у меня сервера Dell, то модуль  BMC(в новых серверах это часть iDRAC) работает через IPMI.
Настройки находятся в закладке конфигурации хоста.
vsphere_power_management_settings Для работы необходимо указать IP, MAC, имя, пароль BMC.
vsphere_ipmi_ilo_settings
Теперь можно из StanbyMode включить хост, как и в случае WOL, только с BMC у меня сервер включается на минуту быстрее.
vsphere_dpm_power_on
После проверки можно включить DPM в автоматический режим. 😉

P.S. Способа удалить настройки не нашёл.

Независимый тест виртуальных платформ

Известный ИТ-портал AnandTech совместно с лабораторией Sizing Server Lab создали утилиту для тестирования основных виртуальных платформ VMware ESX, Citrix XenServer и Microsoft Hyper-V. Поводом послужило отсутствие независимых от производителей утилит, плюс их предвзятость к платформам.
Тест создает 4 “тяжёлые” виртуальные машины с 4 процессорами и 4 ГБ ОЗУ. Используются следующие приложения:
1 x OLAP БД на основе SQL Server 2008 x64, запущенного в Windows 2008 64-bit с использованием данных Nieuws.be (более 100GB в сотнях таблиц)
2 x MCS eFMS порталы на PHP, IIS в Windows 2003 R2.
1 x OLTP БД, на основе Oracle 10G Calling Circle benchmark от Dominic Giles
Все виртуалки запускались одновременно,  получилась такая таблица результатов по сравнению с эталонной системой, в которой тесты запускались раздельно.

Производительность ESX 3.5 U4 относительно эталонной системы
Процессоры OLAP ВМ1 Портал ВМ2 Портал ВМ3 OLTP ВМ4
Dual Xeon X5570 2.93 94% 50% 51% 59%
Dual Xeon X5570 2.93 HT off 92% 43% 43% 43%
Dual Xeon E5450 3.0 82% 36% 36% 45%
Dual Xeon X5365 3.0 79% 35% 35% 32%
Dual Xeon L5350 1.86 54% 24% 24% 20%
Dual Xeon 5080 3.73 47% 12% 12% 7%
Dual Opteron 8389 2.9 85% 39% 39% 51%
Dual Opteron 2222 3.0 50% 17% 17% 12%

Результаты эталонной системы:

Opteron Shanghai 8389 2.9GHz
Тест Результат
OLAP – Nieuws.be 175.3 запросов/сек
Портал – MCS 45.8 URL/сек
OLTP – Calling Circle 155.3 транзакций/сек

При этом в эталонной машине использовалось 4 ядра на одном процессоре, как и в ВМ, а виртуалки уже запускались на двух 4-ядерных процессорах, так что физических ядер им досталось по 2. Сам тест не зависит от операций вводы-вывода(очередь сведена к нулю, благодаря SSD-накопителям), памяти достаточно, скорости сети с избытком. Тест генерирует нагрузку на процессоры близкую к 100%.

Полученные проценты умножались на 4, затем расчитывали среднее геометрическое, что и было результатом.

vapus_mark Советую, всем ознакомиться с методикой тестирования и тестированием, к сожалению, продукт публично не доступен и вряд ли будет.
Полный обзор на AnandTech.

Есть ли разница между ESXi 4.0 installable и embedded?

Количество различных дистрибутивов ESX просто угнетает, хорошо хоть, в будущем обещают оставить только ESXi.

На сегодня существует 3 дистрибутива ESX 4: ESX 4.0, ESXi 4.0 installable, ESXi 4.0 embedded. Разнице “полного” от i посвящена целая статья в базе знаний, а вот чем отличаются два последних сказать затруднительно.

Что нам говорит документация? Практически ничего:

  • An ESXi Embedded host is a physical server that contains an ESX image preinstalled as firmware in the factory or burned onto an external USB key. (Moving ESXi Embedded USB keys from one server to another is not supported.)
  • You do not need to install ESXi Embedded because it is embedded as firmware on hardware that you purchase from a vendor.
  • ESXi Embedded must not be on the host. ESXi Installable and ESXi Embedded cannot exist on the same host.
  • You can install ESXi Installable on any hard drive on your server. (You use the ESXi 4.0 CD to install the ESXi 4.0 software onto a SAS, SATA, or SCSI hard drive. Installing on a Fibre Channel SAN is supported experimentally. Do not attempt to install ESXi with a SAN attached, unless you want to try this experimental feature. Installing on IP storage, such as NAS or iSCSI SAN, is not supported.)

Из этого следует вывод – ESXi Embedded ставится производителем самостоятельно, в заводских условиях, на USB-носители, а ESXi Installable условно на жёсткие диски.
Как бы не так. По факту, ESXi Installable при установке предлагает выбрать, в том числе, USB- носители и спокойно на них ставится и работает. А ESXi Embedded с чистой душой качается с сайта VMware под основные бренды, при этом есть обе версии с CIM агентами от вендоров.
Итак, разницы никакой – ESXi Embedded имеет слегка урезанную версию установщика, который ставит только на USB-хранилища. Можете ставить ESXi Installable на свои USB-flash, если он больше нравится или доступней.
Для встроенных в сервера flash-карты советую использовать ESXi Embedded от вендора, так как вопрос гарантии это отдельная сказка.

Dell’ьный ESXi

Так сложилось, что на сервера было решено ставить ESXi, так как сам он бесплатный, можно спокойно множить для тестов, а для промышленной эксплуатации полноценно управляется vCenter. Но возникла проблема мониторинга и управления на железном уровне, vCenter хорошо, но RAID на подключенной полке не переразобьёшь.

Для управления серверами Dell используется продукт OpenManage Server Administrator. До ESXi 3.5u4 вариант был один – ставить полный ESX, в котором, правда, неофициально работают бесплатные ключи от ESXi, а поверх ставить Linux версию OpenManage.

С версией  ESXi 3.5u4 проблема была решена с помощью механизма CIM. Вышла специальная версия гипервизора со втроенным посредством CIM  OpenManage агентом, а также новая отдельная версия OpenManage Server Administrator 6.0.3.

OpenManage Server Administrator можно установить на любой компьютер в сети и посредством web-интерфейса  подключиться к хосту под управлением ESXi, а затем получить полный доступ аналогичный родной установке OMSA .esxi_dell_open_manage Парочка ссылок:

документация по OMSA,

Dell ESXi 3.5u4 emb,

Dell ESXi 3.5u4 inst.

Что за лицензия Enterprise Plus?

Попытка установить сегодня финальный релиз VMware vSphere заставила меня задуматься об этой новой странной лицензии Enterprise Plus. А уж эта статья посадила меня за компьютер, читал её с телефона, а пальцы забегали по клавиатуре.

Начну со статьи. Автор “просочивших мыслей” рассуждает об отличии Enterprise лицензии от Enterprise Plus, рассматривая новые технологии: Host Profiles, без которой невозможна ещё одна – VMware vNetwork Distributed Switch, без которой, в свою очередь, невозможен Cisco Nexus 1000V. Кроме этого, в “плюс” попал и multipath plug-in support, который даёт возможность использовать расширения третьих сторон для балансировки путей до хранилищ. На основе рассуждений автор делает вывод:

Enterprise + Enabling Technologies for Third Party Integration = Enterprise Plus

И, подведя итог,  “плюс” нужен только, как возможность использовать третьесторонние разработки, так почему же мы должны платить за “плюс”, если плагины за деньги, и почему лицензия будет существовать только до конца года!?

А теперь, о чём я думал во время установки? С какого перепугу для vSphere RC не подходит ключ от Enterprise Plus, да-да , именно так – к финалу подходит, а  к релиз кандидату нет. Значит, на момент релиз кандидата не существовало такой лицензии, все возможности от “плюса” были в простом Enterprise. Чтобы это могло значит, скорей всего желание срубить побольше капусты. Ведь понятно, что все, кто на подписке, автоматом получат лицензию, как из них выжать ещё немного? Давайте ещё один уровень лицензий придумаем! А вдруг, кому эти функции не нужны, не захотят платить нам и нашим ближайшим партнерам, пока это EMC и Cisco. Давайте закроем старую лицензию! Сказано – сделано.

Все вышенаписанные буковки  моё личное мнение и вольный пересказ статьи Edward L. Haletky.  С моим мнением вы можете, как согласится, так и оставить своё при себе. 😉

Энергопотребление vSphere

Зелёные тенденции, в особенности снижение энергопотребления, в ИТ во время кризиса становятся популярными и в России, даже за пределами МКАД. Как известно, виртуализация неплохо позволяет экономить драгоценные ватты за счёт консолидации и энергосберегающих технологий таких, как DRS(DPM). В vSphere данное направление получило дальнейшее развитие и одной из ключевых функций стала поддержка динамического управления частотой процессора Intel SpeedStep, Enhanced AMD PowerNow!.

Имеется ли поддержка данной технологии можно посмотреть на закладке процессоров в конфигурации хоста.
vsphere_intel_speed_step

Для управления политикой электропитания появились дополнительные расширенные настройки, где можно определить уровень загрузки процессора, ниже которой будет изменяться частота, шаг таймера изменения частоты в герцах, политику управления – статическую или динамическую.

vsphere_advanced_power

Так как эффективность данных технологий видна только при низкой загрузке, то для испытаний было взято два хоста без виртуалок. На первом хосте установлен ESXi 3.5u4, на втором ESX 4emb RC. Но неожиданно вспомнил, что последний вместо жесткого диска установлен на USB-флеш, так что тесты могут просто показывать простой винчестеров ;). Энергопотребление смотрел с помощью мониторинга питания в iDrac лезвия.

Результаты: сервер с ESXi3.5u4 потребляет 120-124 ватта, ESX 4emb RC 104-108 ватт, разница 10%.

VMware Webservice

После борьбы с FT, у меня обнаружились две проблемы, которых изначально не было: не работал Storage Maps и новый Performance Overview, а также не стартовал VMware VirtualCenter Management Webservices – писал ошибку. Связать проблемы воедино меня не осеняло, пока одна из попыток просмотра странички с графиками производительности не вывела, что, дескать, страничка не доступа.
Никакие попытки запустить Webservice не помогали, в логе писалось, типа, не хватает памяти в куче для содания Java VM. Почесав репу, вспомнил, что Андрей писал о минимуме 2 Гб ОЗУ для работы четвертого центра. Добавил памяти – ошибка осталась. Погуглил-1, не помогло. Переустановил весь vCenter, не помогло. Погуглил-2, перечитал прочитанное в “Погуглил-1”, нашёл параметр, отвечающий за выделение памяти при запуске JVM, уменьшил Maximum memory pool с 1024 до 512 MB. VMware Webservice запустился.

jvm_memory_poolИ всё встало на свои места – Storage Maps, Performance Overview заработали. Похоже, через WebService работают соответствующие плагины.
В очередной раз пришла мысль, что без документации, как без рук.