Отключение VAAI ATS сердцебиений для хранилища

Иногда при обновлении прошивки на массиве производитель (HP 3PAR) рекомендует временно отключить сердцебиение VAAI для VMFS-хранилищ (точнее, вернуться к до-VAAI методу). Есть целая статья, которая описывает, как это сделать через командную строку esxcli или PowerCLI – для одного хоста.

Поделюсь тем, как это делать на нескольких хостах через PowerCLI:

Name                 Value                Type                 Description
—-                 —–                —-                 ———–
VMFS3.UseATSForHB… 1                    VMHost
VMFS3.UseATSForHB… 1                    VMHost
VMFS3.UseATSForHB… 1                    VMHost
VMFS3.UseATSForHB… 1                    VMHost
VMFS3.UseATSForHB… 1                    VMHost

Name                 Value                Type                 Description
—-                 —–                —-                 ———–
VMFS3.UseATSForHB… 0                    VMHost
VMFS3.UseATSForHB… 0                    VMHost
VMFS3.UseATSForHB… 0                    VMHost
VMFS3.UseATSForHB… 0                    VMHost
VMFS3.UseATSForHB… 0                    VMHost

Name                 Value                Type                 Description
—-                 —–                —-                 ———–
VMFS3.UseATSForHB… 0                    VMHost
VMFS3.UseATSForHB… 0                    VMHost
VMFS3.UseATSForHB… 0                    VMHost
VMFS3.UseATSForHB… 0                    VMHost
VMFS3.UseATSForHB… 0                    VMHost

После окончания работ обратно включаете этот механизм, передавая значение 1.

UPD: Обратите внимание, что в примере меняется параметр для VMFS5. Если есть VMFS3 – хранилища, то надо выполнять изменение двух параметров в теле скрипта.

Релиз RVTools 3.9.2

Rob de Veij выпустил обновление своей отличной утилиты инвентаризации VMware vSphere – RVTools версии 3.9.2.

В этой версии появилась поддержка vSphere 6.5 и новые функции:

  • Используется  .NET Framework 4.
  • Используется NPOI 2.1.3.1.
  • Вход происходит быстрее.
  • RVTools больше не пишет в лог событий Windows.
  • Все закладки, относящиеся к ВМ, содержат колонку OS в соответствии VMware Tools.
  • Все закладки содержат колонку VI SDK Server.
  • Колонка vCenter UUID переименована в VI SDK UUID.
  • Закладка vInfo содержит новую колонку VI SDK API version.
  • Экпорт в Excel использует формат xlsx, все колонки имеют авторазмер.
  • Названия листов Excel соответствуют названиям закладок.
  • Аннотации можно исключить через настройки.
  • Закладка vPartition содержит новую колонку Consumed MB.
  • Папки vHealth _replica исключены из проверок на зомби-объекты.
  • Файлы *_sesparse.vmdk исключены из проверок на зомби-объекты .
  • Новая закладка с информацией о лицензиях.
  • Возможность шифровать пароль с помощью приложения PasswordEncryption.
  • Командная строка RVTools принимает зашифрованные пароли.

Отвязка vNuma от количества ядер в vSphere 6.5

Данная статья является переводом англоязычной статьи Френка Деннемана, которая показалась мне достаточно интересной.

В vSphere 6.5 были сделаны изменения, касающиеся определения размеров виртуальной топологии NUMA для виртуальной машины.

Понимание принципов построения vNUMA имеет важное значение для построения правильно работающей инфраструктуры. Данная статья предназначена для тех, кто использует виртуальные машины (ВМ) с нестандартным количеством ядер на сокет (отличным от 1), и планирует мигрировать на vSphere 6.5. Возможно, вы захотите изменить Advanced Setting на ваших хостах 6.5 – информация об этом находится в конце статьи.

Давайте начнем с понимания того, как влияет количество виртуальных ядер в сокете на vNUMA.

Continue reading “Отвязка vNuma от количества ядер в vSphere 6.5”

VMware vCenter Appliance 6 on OVH hoster

На днях мне подвернулась интересная задачка: потребовалось развернуть VMware vSphere vCenter Appliance 6 на хосте ESXi6, расположенном в ЦОДе хостера OVH.

Задачка нетривиальна тем, что у OVH свои отношения с маршрутизацией. Можете составить свое представление тут.

Лично у меня случился разрыв шаблона после настроек сети вида:

ip:10.1.1.1

mask:255.255.255.255

gateway:20.1.1.254

Continue reading “VMware vCenter Appliance 6 on OVH hoster”

Проброс видеокарты NVIDIA в VMware ESXi 6.0

diz решил поделиться своим опытом проброса видеокарты NVDIA GTX в ESXi 6.0.

Добрый день, дорогие друзья!

Говорят, что с 2015-ого года работодатели стали сразу выгонять с собеседования ИТ-шников, если вдруг выясняется, что у них нет личного сервера с развернутым частным облаком.

Чтобы не выбиваться из тренда, я собрал дома небольшой двухпроцессорный сервер на базе материнской платы SUPERMICRO X9DRI-F и пары Xeon E5-2670. Т.к. несколько лет своей жизни я посвятил, в т.ч. администрированию инфраструктуры VMWare, то в качестве гипервизора виртуализации был выбран именно ESXi.

Частное облако-домашняя лаба – это, конечно, замечательно и здорово, однако, для комфортной повседневной работы и StarCraft2 желательно иметь доступ к дискретной видеокарте.

Тому, как задружить “бытовую” nVidia GTX и ESXi 6 и посвящается данная статья – краткий проводник-путеводитель по граблям.

Первое, что вам захочется сделать после установки дискретной видеокарты в сервер – переключить приоритет инициализации видеокарты в BIOS в пользу внешней, чтобы видеть POST прямо на экране подключенного к ней монитора. Этого делать не стоит, т.к. в таком случае вы потеряете возможность использовать iKVM материнской платы.

Итак, приступаем к пробросу видеокарты в виртуальную машину с MS Windows 10. Увидев web-интерфейс ESXi 6 я искренне обрадовался тому, что завязал с системным администрированием четыре года назад. Откладываем этот замечательный интерфейс в сторону, т.к. проброс видеокарты через него вы настроить не сможете, при старте виртуальная машина будет ругаться на несоответствие идентификатора устройства PCIe (PCIe passthrough device id invalid) и переключаемся на старый добрый и толстый клиент: Continue reading “Проброс видеокарты NVIDIA в VMware ESXi 6.0”

ESXi 6.0 Express Patch 6 ломает CBT

Уже становится не смешно.

Последний патч  ESXi 6.0 сборка 3825889 ломает CBT. Veeam об этом заявили практически сразу после выхода патча.

А VMware признали только сейчас After upgrading to ESXi 6.0 Build 3825889, incremental virtual machine backups effectively run as full backups when application consistent quiescing is enabled.

Патч сломал нам VBR SureBackup/Instant VM Recovery.

Сижу, откатываю хосты на 6.0U2, думаю всякие гадости про VMware, пишу заметку…

Обновление. VMware выпустила патч.

IBM HS23, vSphere и 10 GbE. Борьба продолжается…

В 2013 году столкнулись с парой проблем с сетевыми картами Emulex 10 GbE – одна проблема описана в статье IBM HS23, vSphere и 10 GbE, вторая была – неожиданная сетевая изоляция хостов.

Спустя 3 года ситуация повторяется – хост внезапно уходит в сетевую изоляцию. Подозрения сразу пали на сетевую карту Emulex.

Подтверждение проблемы обнаружено в логе vmkernel.log:

Некие намёки в БЗ VMware:

Заметка в бложике:

ESXi 5.5 and Emulex OneConnect 10Gb NIC

В качестве решения – замена прошивки, обновление драйвера.

RDM vs SAS-хранилище

Неожиданно встал на известную заморочку с подключением дисков через механизм Raw Device Mapping. Как и в 7-летней статье Подключение локального диска через RDM нашелся один нюанс – RDM доступен не во всех конфигурациях. Ситуация у меня сложилась следующая – 2 хоста с ESXi 6 и хранилище IBM Storwize V3700, подключенное по SAS. Потребовалось подключить диск для репозитория Veeam B&R, который решили сделать в виде RDM.

Лун в хостах определился, но при попытке подключить диск к виртуальной машине пункт RDM показывался серым цветом.

Поиск в БЗ сразу выдал нужную статью Raw Device Mapping option in the vSphere Client is grayed out, для нашего случая подходящее решение – снять галку  RdmFilter.HbaShared в Advanced Settings и сделать ресканирование устройств хранения.

ESXi 6.0 Update 2 PSOD

У VMware есть традиция – добавить изюминку в виде epic fail к очередному обновлению ESXi.

Вот и в ESXi 6.0 Update 2 нашлась такая – пурпурный экран смерти из-за использования аппаратного LRO и сетевых адаптеров VMXNET3. ESXi 6.0 Update 2 host fails with a purple diagnostic screen containing the error: Vmxnet3VMKDevRxWithLock and Vmxnet3VMKDevRx.

Самое весёлое, что ситуация развивается по худшему сценарию. Проблема с LRO и  VMXNET3 известна уже порядочное время, но раньше была потеря производительности, а теперь уже хосты падают в обморок.

Предыдущие заметки в БЗ:

vSphere HTML5 Web Client версия 1.1

Только я успел скачать OVA vSphere HTML5 Web Client первой версии, как вышло обновление 1.1.

Новые функции:

  • Добавление привода CD/DVD в новую или существующую ВМ.
  •  Добавление сетевого адаптера в новую или существующую ВМ.
  • Добавление жесткого диска  в новую или существующую ВМ.
  • Создание ВМ из кластера.
  • Миграция вычислительных ресурсов ВМ в кластер и установка приоритета vMotion.
  • Изменение настроек Agent VM для Host.
  •  Просмотр Lockdown Mode в настройка Security Profile хоста.
  •  Просмотр информации о сертификате  View Certificate  для хоста.
  • Добавлен новый простенький рабочий процесс для кластера.
  •  Удаление кластера.