Список недоступных функций в VMware vSphere Client 6.0.x

VMware vSphere Client 6.0 предназначен для прямого подключения к хоста, но также поддерживает подключение к vCenter.

К моему сожалению, часть функционала не поддерживается:

Сеть:

  • IPv6 support for ESX architecture, NFS 4.1 storage operations, iSCSI, guest OS customizations, virtual datacenters
  • Multi-Instance TCP/IP stack and upgrade
  • SR-IOV, LACP, Multicast support enhancements
  • Opaque Networks
  • Network I/O Control (NIOC v3)
  • Open vSwitch (OVS) support
  • Proxy switch autoscale capability
  • Network DRS
  • DRS anti-affinity rules
  • vSphere vMotion across large geographical distances
  • vSphere vMotion across vCenter Server systems

Подсистема хранения:

  • AHCI SATA device support
  • vFlash-DRS interoperability
  • vFlash cache UI support
  • Virtual SAN disk group management, Profile compatibility errors and warnings, storage policy based management, Default Profiles, Disk serviceability, Fault Domain isolation
  • Storage DRS compatibility with vSphere Replication, Interoperability with Site Recovery Manager
  • I/O Filters: Storage policy support
  • NFS Client 4.1 with Kerberos
  • Virtual Volumes in vCenter Server
  • vCenter Server Storage Profiles
  • Storage Management Views

Аппаратные функции:

  • Intel vGPU
  • AMD vGPU
  • 2TB+ HDD VMDK
  • 128 vCPUs for virtual machines with hardware versions earlier than version 10
  • 32 Serial Ports for virtual machines with hardware versions earlier than version 10
  • SVGA for virtual machines with hardware versions 10 and 11
  • 255 PVSCI Devices
  • VMCI Firewall
  • Smart Card authentication
  • SATA controller and hardware settings
  • SR-IOV settings
  • GPU 3D render and memory settings
  • Tuning latency settings
  • vSphere Flash Read Cache settings
  • Nested hypervisor
  • Fast checkpointing
  • vCPU reference counters
  • Ease and scheduled hardware upgrade
  • Default compatibility level

Прочие функции:

  • VMware Tools reporting and upgrade enhancements
  • vCenter Server Linked Mode
  • vCenter Server Service Status (Health-UI Extension)
  • vCenter Server Hardware Status (CIM-Monitoring Extension)
  • vCenter Server Performance Charts – Overview
  • Simplify tuning for low latency workloads
  • SMS for certificate management
  • CIS runtime configuration
  • CMS support firstbooting
  • Performance charts integration with RAS
  • Tagging enhancements

Хостовые функции:

  • Deleted file reclamation
  • Guest authorization
  • Host profiles reference host independence
  • Lockdown mode

Для использования вышеперечисленных функций необходимо самоотверженно пользоваться vSphere Web Client.

Информация взята из KB2109808.

Установка VMware ESXi 5.5 на хост с менее 4 ГБ ОЗУ

Начиная с версии 5.5 VMware ESXi требует 4 ГБ ОЗУ для установки, что бывает существенно для старых серверов и домашних лабораторий.

Я же захотел обновить ESXi 5.1 до версии 5.5 у нашего героя из предыдущей истории VMware ESXi и Realtek 8168/8169/8111 – HP DL360 G5.

Во время ошибки “MEMORY_SIZE ERROR” жмем ALT+F1, заходим под root без пароля. Выполняем следующие действия:

Ищем строку с текстом MEM_MIN_SIZE  и расчетом 4*1024. У меня это была 1105 строка. Заменяем 4 на 2 либо 1 и сохраняем.

( это будет python PID )

После этого инсталлятор перезапустится.

Другие инструкции на английском с пояснениями:

how to: Installing ESXi 5.5 on less than 2GB RAM

ESXi 5.5 – Installing with less than 4Gib RAM. (ESX MEMORY_SIZE ERROR during install)

VMware ESXi и Realtek 8168/8169/8111

Есть у меня хост IBM x236 с гипервизором 4.1U3. А так как я парень-то на VMware (про-)двинутый, то планирую перейти на vSphere 6.0. А vCenter 6.0 поддерживает только ESXi 5.0+ и перспективы упереться в данный хост не радуют. Серверов у меня рэковых практически нет, а в этом замечательном сервере аж 4 сетевухи, смотрящие в интернеты, DMZ, локалку.

Поиск в амбарах дал результат в виде сервера HP DL360 G5, вот только в старом сервере пару сетевых портов обеспечивала карта формата PCI-X, слотов под который в новом нет.

Опросив своих коллег и пару дружественных организаций, смог найти аж 2 сетевых карты на одинаковом чипсете Realtek 8168E – TP-LINK TG-3468 и D-Link DGE-560T.

Поиск в интернете подсказал, что данный чипсет поддерживается с горем пополам только на ESXi 5.1.

К сожалению,  D-Link DGE-560T запустить мне не удалось, а вот  TP-LINK TG-3468 запустился сразу.

В версии ESXi 5.5 поддержка снова отсутствует, поэтому, в случае крайней необходимости,  советую поставить драйвер самостоятельно:

  • Качаем последнюю версию драйвера, поддерживаемого коммунити –  net-r8168-8.036. Также различные драйверы для неподдерживаемых устройств есть тут.
  • Распаковываем из него net-r8168-8.036.00-1.x86_64.vib .
  • Заливаем на хост через SCP в папку /tmp .
  • Заходим по SSH.
  • Проверяем список установленных VIB:
  • Разрешаем установку пользовательских драйверов:
  • Устанавливаем драйвер:
  • Перезагружаем хост.

Обновление Digi AnywhereUSB/14

Самое популярное решение для проброса USB-ключей в виртуальные машины Digi AnywhereUSB/14 получило новую прошивку версии 1.70 (лог изменений).

В данной версии появилась ключевая функция Dynamic Group Assignment(DGA). Она позволяет менять привязку USB-ключей к группам на лету без необходимости перезагружать USB-коммутатор, что приводило к отключению всех других ключей.
Digi_DGA
Всем владельцам данного устройства рекомендую обновиться.

Скачать с Digi.

Smart-X ControlUP

Сегодня расскажу об утилите для мониторинга терминальных серверов и VDI. Это продукт Smart-X ControlUp, знаком я с ним лет 5 в качестве мониторинга терминальных сессий. А попал он в бложик потому, что вышла новая четвертая версия программы с поддержкой VDI. У меня VDI-решений не используется, но зато утилита умеет мониторить хосты гипервизоров – VMware ESXi и Citrix XenServer. Так что опубликую несколько своих скриншотов. Программу можно использовать бесплатно для мониторинга 50 подключений(учет подключений довольно сложный, но на виртуальные хост вроде не распространятся). Так что качаем программу, распаковываем, запускаем (для запуска без авторизации в облаке производителя жмём следующие ссылки: стандалон регформ -> буду позже). Добавляем учетку для подключения и адрес vCenter(указывается https://vcenter/sdk): controlup_add_hv Смотрим на загрузку кластера и хостов в реальном времени, встаем на проблемные показатели и по маленькой стрелке вправо получаем пояснения по проблеме: controlup_vsphere_cluster Счетчиков примерно пара десятков: controlup_vsphere_cluster2
Для мониторинга виртуальных машин жмём кнопку – Computers:
controlup_vsphere_vms
При выборе виртуальной машины, можем поставить на неё агента и смотреть сессии внутри: controlup_server_sessions Подробнее мониторинг VDI описан в бложике компании.

Подробнее мониторинг vSphere and XenServer описан в бложике компании.

PowerVM Virtualization Performance Advisor

На прошлой неделе мы рассмотрели несколько анализаторов для компонентов инфраструктуры IBM PowerVM.

Сегодня на повестке дня наиболее комплексный и современный – PowerVM Virtualization Performance Advisor.

Данная утилита ставится на один из LPAR, подключается к HMC и анализирует настройки и производительность LPAR либо хоста в целом.

Для работы программы должны быть выполненые следующие требования:

  • должен быть установлен SSH;
  • на каждом LPAR стоит галка “Allow performance information collection”;
  • на каждом LPAR запущена служба xmtopas:
    проверяем запуском

    если среди запущенных нет, то проверяем /etc/inetd.conf – не закомментирована ли служба, убираем комментарий и делаем:

    либо запускаем службу командой

Для установки и предварительной настройки также надо выполнить ряд действий

Распаковать дистрибутив утилиты локально и в LPAR

И произвести обмен SSH-ключами между LPAR и HMC в целях отказа от ввода пароля при подсоединии

В моей инфраструктуре данный настройщик не работает, но можно эту настройку выполнить вручную по этой инструкции. Мне же пришлось многократно повторять пароль к HMC во время работы утилиты.

Утилита работает в двух режимах: анализ системы – хоста, анализ LPAR.

Для запуска в режиме анализа системы понадобится список систем из HMC:

Запуск осуществляется командой из распакованного каталога vpa:

В результате через 60 минут получим virt_pa_output.xml, который копируем в локальную папку vpa и там открываем браузером:vpa_sysДля запуска в режиме анализа системы понадобится LPAR SYSTEMID:

Запуск осуществляется командой из распакованного каталога vpa:

В результате через 30 минут получим virt_pa_output.xml, который копируем в локальную папку vpa и там открываем браузером:vpa_lpar

IBM PowerVM Inactive Live Partition Mobility

Как и VMware vSphere IBM PowerVM умеет делать миграцию LPAR(logical partition – виртуальная машина в терминологии PowerVM).

Миграция существует 2 видов: Inactive – перерегистрация неактивного(выключенного или в режиме Suspend) LPAR на другом хосте, Active – перемещение включенного LPAR с хоста на хост.

В этой заметке расскажу только об Inactive. Это простой режим с маленьким списком требований. Миграцию осуществляется в данном примере с помощью IBM HMC. Хосты имеют возможность “Inactive Partition Mobility Capable”.

Необходимы VIOS на хосте-источнике и хосте-цели с установленной галкой Mover Service Partition:vios_mspДля тестирования создан LPAR без сетевых и дисковых устройств (виртуальных либо физических), без AIX.

Для миграции советую вместо команды Migrate использовать команду Validate – сэкономите пару десятков и кликов, да и с полминуты времени:menu_mobility_validate
Заполняем поля формы (если бы выбрали Migrate эти же поля заполняли бы в 5-7 формах мастера миграции):lpm_validateЖмём Validate. Если всё ок, то даст нажать Migrate, сам создат профиль на целевом хосте(если не указали) и предоставит возможность выбрать общий процессорный пул.

Жмём Migrate. Смотрим несколько секунд на окно прогресса и, вуаля, LPAR на новом хосте.

Если у вас подключены адаптеры, то следует осторожно относится к данной миграции, особенно, в случае установки галок перекрытия ошибок виртуальных хранилищ и сетей, а также наличия физический адаптеров(либо сругается либо отрубит их от машины). Также внимательно смотрите на привязку ID адаптеров между новым и старым VIOS.

Настоятельно советую ознакомиться с красными книгами “IBM PowerVM Live Partition Mobility“, “IBM PowerVM Enhancements What is New in 2013“.

Анализ работы Java на AIX

Для анализа настроек Java для работы WebSphere Application Servers под AIX есть утилита Java Performance Advisor (JPA).

У меня WebSphere не используется, поэтому я ей проверяю настройки Java для работы Apache Tomcat.

Для запуска утилиты необходимо:

  1. Распаковать JPA.tar.gz локально и на AIX.
  2. Разрешить запуск файлов:
  3. Закомментировать строку, запрещающую запускать старую версию:
  4. Определить приложение для анализа:
  5. Запустить программу со следующим параметрами(pid взять из ответа команды ps):
  6. Скопировать mayapp.xml в локальную папку и запустить в браузере(детали настроек отображаются по клику мыши).jpa

Анализ журнала nmon для AIX

В очередной заметке про IBM AIX рассмотрим анализаторы журнала записи(захвата) утилиты topas_nmon.

Утилита nmon предназначена для мониторинга счётчиков и датчиков производительности различных подсистем в *nix операционных системах.

В AIX она представлена в виде двуликой утилиты topas_nmon с переключением интерфейсов по клавише ~.

Сбор статистики

Для анализа нам понадобиться журнал записи этой утилиты, например,  за сутки.

Типовой запуск утилиты выглядит так:

  • -f сохранение статистики в файл в текущем каталоге с именем <hostname>_YYYYMMDD_HHMM.nmon;
  • -T включать в логи состояние наиболее ресурсоемких процессов
    -s 30 сбор данных с интервалом в 30 секунд;
  •  -с 2880 кол-во интервалов, т.е. 30 сек * 28800 = 24 часа, т.е. сбор логов будет продолжаться в течении суток.

Для разрешения сбора дополнительной статистики по дисковой подсистеме в AIX необходимо подать команду:

Для инвентаризации и полного сбора статистики предлагаю запускать со следующими ключами:

Расшифровку ключей смотрим в документации в разделе Flags in Recording Mode.

Анализ собранной статистики

Для анализа выходных файлов есть несколько утилит.

Первая – nmon AnalyserПредставляет собой макрос в Excel, в результате анализа получаем книгу Excel с кучей листов. Каждый лист содержит статистические данные из журнала nmon и диаграммы для их визуализации.nmon_analyser

Вторая – pGraph. Небольшое приложение Java, которое также позволяется графически отображать статистику nmon в различных разрезах. Данная утилита поддерживает выходные файлы нескольких утилит под различные *nix системы.pgraph
Третья – gmon. У данной утилиты 2 режима – передача через агента данных nmon в реальном времени и проигрывание записанных журналов nmon. Требует в Windows разделителя десятичной точки в виде символа “.”(точка).gmon

Анализ производительности VIOS

Продолжаем работать с утилитами для обслуживания компонентов гипервизора IBM PowerVM.

Одной из основных частей гипервизора является сервер виртуализации ввода-вывода Virtual I/O Server(VIOS), который предназначен для разделения ресурсов, обычно, сетевых и дисковых.

Так как VIOS пропускает через себя сетевой и “дисковый” трафик, то для обеспечения высоких скоростей ему требуются процессорные мощности и память.

Для анализа достаточности ресурсов IBM предлает использовать утилиту Virtual I/O Server Performance Advisor.

Порядок запуска:

  1. Заходим по SSH на VIOS под учетной записью padmin.
  2. Проверяем версию ОС(минимальный уровнь 2.2.2.1):
  3. Запускаем утилиту минут на 10 с высоким уровнем детализации:
  4. Подключаемся по ftp к VIOS под учетной записью padmin и забираем себе архив.
  5. Распаковываем и открываем vios_advisor_report.xml в браузере.
  6. Смотрим на анализ и на рекомендации(по клику мыши всплывет детальный совет):vios_advisor