Прекращение поддержки процессоров в VMware vSphere 6.7

Компания VMware решила прекратить поддержку целого ряда процессоров со следующей версии платформы виртуализации VMware vSphere 6.7, релиз которой ожидается во втором квартале 2018 года.

Список семейств процессоров, использование которых приведёт к PSOD: Continue reading “Прекращение поддержки процессоров в VMware vSphere 6.7”

Поломка таблицы в БД vPostgres в vCenter

У нас вдруг, то есть неожиданно, приболел VMware vCenter. Cимптомы были самые разнообразные:

  • бесконечные вылеты vCenter(300+);
  • вылеты update manager;
  • невозможность удалить ВМ – они становились orphaned;
  • невозможность удалить снапшоты/сделать консолидацию/клонировать ВМ.

Попытки обновить vCenter до последнего билда, откатиться на недельный бэкап не принесли успеха.

Зацепились за вылет VMware vCenter с ошибкой: Continue reading “Поломка таблицы в БД vPostgres в vCenter”

Тестирование производительности VMXNet3. Часть 2: RouterOS Cloud Hosted Router

Всем привет, это снова я – krokokot. В первой статье я тестировал производительность «сферического коня в вакууме», т.е. насколько быстро две виртуальные машины с ОС Windows 2012R2 могут обмениваться данными посредством паравиртуальных сетевых адаптеров VMXNET3 через виртуальный коммутатор гипервизора VMWare ESXi 6.5 u1. Поставленный с помощью «молотка и такой-то матери» рекорд составил 29 гигабит в секунду при MTU=9000.

Сегодня мы протестируем аналогичного «коня», но на примере Linux-based операционной системы. Поскольку сборок Linux великое множество, чтобы никого не обидеть (а еще – потому что я не очень хорошо разбираюсь в этом вашем Линуксе 🙂 я выбрал в качестве подопытной RouterOS Cloud Hosted Router от Microtik. Это специальная версия RouterOS для виртуальных сред. Поддерживается ESXi, Hyper-V и еще что-то там, список тут – https://wiki.mikrotik.com/wiki/Manual:CHR. Для нашего теста главное – в CHR есть встроенный драйвер VMXNET3.

Я применяю RouterOS CHR в качестве виртуального маршрутизатора на standalone хостах с ESXi, когда нужно просто выставить ВМ из них в интернет. Также можно быстро поднять IP-IP или Ethernet-Over-IP туннели до отдельных ВМ или их групп, поднять VPN сервер, опубликовать порты и многое другое, что умеет RouterOS. В общем, мне очень нравится этот роутер, и сегодня попробуем с его помощью побить мой предыдущий рекорд – 29 гиг/сек.

Для корректности сравнения используем тот же самый хост. Напомню его характеристики: материнская плата ASUS X99-E, процессор Intel Xeon E5-2620 v4 2.1 ГГц, заведомо достаточное количество RAM DDR4 2133. Версия гипервизора ESXi 6.5.0 Update 1 (Build 5969303).

Создаем две ВМ с характеристиками: 2 vCPU, 1024 Mb RAM (All locked), по 2 паравиртуальных сетевых адаптера VMXNET3. Диск приделываем к контроллеру IDE – это требование к загрузочному диску RouterOS CHR. Остальные диски могут быть на паравиртуальном SCSI. Первый адаптер с каждой ВМ включаем в дефолтный виртуальный коммутатор с подключенной к нему сетевой картой Intel I218-V с MTU 1500. Вторые адаптеры – в вновь созданный и никуда не подключенный виртуальный коммутатор с MTU 9000: Continue reading “Тестирование производительности VMXNet3. Часть 2: RouterOS Cloud Hosted Router”

Тестирование производительности VMXNet3. Часть 1: Windows

Всем привет, я krokokot, и это моя первая статья на vmind.ru. Поэтому, как говорится, не бейте, а если все же будете бить – то не сильно и не ногами.

Поводом для статьи стал виртуальный спор в кругу нескольких весьма продвинутых админов сред виртуализации, а также приближенных к ним лиц, т.е. – меня. Предметом спора была пропускная способность сетей в гипервизоре VMware ESXi, а точнее – производительность паравиртуального сетевого адаптера VMXNET3 в условиях высокой нагрузки. Гугл выдавал на эту тему ссылки типа

http://rickardnobel.se/vmxnet3-vs-e1000e-and-e1000-part-2/

http://www.computertechblog.com/iperf-network-performance-comparison-between-virtual-machines-on-esxi6/

содержащие весьма противоречивые данные, к тому же многие тесты датировались 2012-2014 годами выпуска. Посему ваш покорный слуга принял решение провести небольшое тестирование самостоятельно.

Continue reading “Тестирование производительности VMXNet3. Часть 1: Windows”

Просмотр логов на ESXi

Мы уже писали о расположении журналов событий в гипервизоре VMware ESXi –Расположение журналов в разных версиях VMware vSphere.

Вот только смотреть их было раньше неудобно: подключение к хосту по SSH или заблокированные журналы – всё это тратило время системных администраторов.

Сейчас смотреть ESXi логи очень просто – достаточно зайти в интерфейс ESXi Embedded Host Client по адресу https://hostname/ui.

Например, просмотр журнала hostd.log:

host_logsПросмотр заблокированного журнала виртуальной машины vmware.log:
vm_log

P.S. У меня поиск не работает – только подсвечивает, может так задумано или у кого-то другое поведение?

UPD: Еще есть ссылка https://hostname/host, содержащая виртуальный каталог со всеми журналами хоста. Правда, журнала ВМ (vmware.log) там нет.

VCP задешево – налетай

В этом блоге существует целый набор статей, посвященных сертификации.

Постоянные читатели могут вспомнить, что я уже хвастался сертификатами VCP (VMware Certified Professional) по версиям vSphere4 и vSphere5 (по администрированию). Подход компании VMware отличается от других производителей: сначала вы проходите курс в авторизованном учебном центре (обязательное условие) – потом сдаете экзамен.

Для счастливых обладателей статуса VCP есть способ “обновить” сертификацию на новую версию. Например, VCP4->VCP5->VCP5.5->VCP6.

Проблема в том, что свою возможность “апгрейда” я прохлопал и теперь мне придется проходить этот путь заново (курс->экзамен). Да и сам статус VCP благополучно истек :(.

Continue reading “VCP задешево – налетай”

Вышел критичный патч к ESXi 6.0

Оказывается, неделю назад VMware выпустила достаточно критичный патч к ESXi, лечащий 100500 различных багов. Вот лишь краткий список:

  • есть не менее 5 условий, при которых хост сваливается в PSOD или перестает отвечать;
  • когда вы делаете снапшот виртуальной машины, она может перестать отвечать;
  • если объем активной памяти виртуальной машины падает ниже 1%, то хост может начать “отнимать” память, даже если у него хватает свободной ОЗУ;
  • при консолидации снапшота виртуальная машина может перестать отвечать;
  • виртуальные машины с SESparse-снапшотами могут перестать отвечать при некоторых паттернах дисковой нагрузки;
  • при использовании определенных драйверов (видео) виртуальная машина может “зацепиться” за ОЗУ хоста и перестать мигрировать;
  • использование SESparse и автоматической очистки для создания снапшотов и клонов может привести к повреждению гостевой ОС;
  • при добавлении диска с VVoL нагорячую машина может зависнуть, пока добавление не будет окончено.

Я начинаю думать, что ESXi6.0 – это такая “Vista” от VMware. Я не припомню ни одного другого такого релиза от VMware, обладающего сходным набором багов.

До кучи, вы можете поставить еще и это обновление для закрытия ряда уязвимостей в OpenSSL.

Новое в производительности vSphere 6.5

Появился документ, описывающий нововведения в производительности, касающиеся vSphere 6.5 (performance what’s new).

Данные улучшения затрагивают управляемость, масштабируемость ESXi, а также доступ к СХД и сети.

Continue reading “Новое в производительности vSphere 6.5”

Отключение VAAI ATS сердцебиений для хранилища

Иногда при обновлении прошивки на массиве производитель (HP 3PAR) рекомендует временно отключить сердцебиение VAAI для VMFS-хранилищ (точнее, вернуться к до-VAAI методу). Есть целая статья, которая описывает, как это сделать через командную строку esxcli или PowerCLI – для одного хоста.

Поделюсь тем, как это делать на нескольких хостах через PowerCLI:

Name                 Value                Type                 Description
—-                 —–                —-                 ———–
VMFS3.UseATSForHB… 1                    VMHost
VMFS3.UseATSForHB… 1                    VMHost
VMFS3.UseATSForHB… 1                    VMHost
VMFS3.UseATSForHB… 1                    VMHost
VMFS3.UseATSForHB… 1                    VMHost

Name                 Value                Type                 Description
—-                 —–                —-                 ———–
VMFS3.UseATSForHB… 0                    VMHost
VMFS3.UseATSForHB… 0                    VMHost
VMFS3.UseATSForHB… 0                    VMHost
VMFS3.UseATSForHB… 0                    VMHost
VMFS3.UseATSForHB… 0                    VMHost

Name                 Value                Type                 Description
—-                 —–                —-                 ———–
VMFS3.UseATSForHB… 0                    VMHost
VMFS3.UseATSForHB… 0                    VMHost
VMFS3.UseATSForHB… 0                    VMHost
VMFS3.UseATSForHB… 0                    VMHost
VMFS3.UseATSForHB… 0                    VMHost

После окончания работ обратно включаете этот механизм, передавая значение 1.

UPD: Обратите внимание, что в примере меняется параметр для VMFS5. Если есть VMFS3 – хранилища, то надо выполнять изменение двух параметров в теле скрипта.

Вышел Cisco Nexus 1000V для VMware vSphere 6.5a

Для тех, кто планирует переходить на VMware vSphere 6.5a и использует распределенный коммутатор Cisco Nexus 1000V вышла новая версия с поддержкой данной платформы:
Cisco Nexus 1000V Release 5.2(1)SV3(3.1).

Для тех, кто планирует прекратить использовать распределенный коммутатор Cisco Nexus 1000V VMWare выпустила утилиту миграции “Migration tool for Nexus 1000v to Vmware’s VDS”:

Download Migration tool – Nexus 1000v to VDS.

Важно! Версия vSphere 6.5 Update 1 – последняя с поддержкой сторонних коммутаторов. Подробнее в БЗ Discontinuation of 3rd party vSwitch program.