Вышел Cisco Nexus 1000V для VMware vSphere 6.0

Для тех, кто планирует переходить на VMware vSphere 6.0 могут отметить для себя выход распределенного коммутатора Cisco Nexus 1000V. Из нового заявлена только поддержка данной платформы.

Заметки о релизе.

Скачать.

Из нужных мне компонентов жду Veeam Backup & Replication 8.0 Patch 2, после этого можно начинать миграцию.

Установка VMware ESXi 5.5 на хост с менее 4 ГБ ОЗУ

Начиная с версии 5.5 VMware ESXi требует 4 ГБ ОЗУ для установки, что бывает существенно для старых серверов и домашних лабораторий.

Я же захотел обновить ESXi 5.1 до версии 5.5 у нашего героя из предыдущей истории VMware ESXi и Realtek 8168/8169/8111 – HP DL360 G5.

Во время ошибки “MEMORY_SIZE ERROR” жмем ALT+F1, заходим под root без пароля. Выполняем следующие действия:

Ищем строку с текстом MEM_MIN_SIZE  и расчетом 4*1024. У меня это была 1105 строка. Заменяем 4 на 2 либо 1 и сохраняем.

( это будет python PID )

После этого инсталлятор перезапустится.

Другие инструкции на английском с пояснениями:

how to: Installing ESXi 5.5 on less than 2GB RAM

ESXi 5.5 – Installing with less than 4Gib RAM. (ESX MEMORY_SIZE ERROR during install)

VMware ESXi и Realtek 8168/8169/8111

Есть у меня хост IBM x236 с гипервизором 4.1U3. А так как я парень-то на VMware (про-)двинутый, то планирую перейти на vSphere 6.0. А vCenter 6.0 поддерживает только ESXi 5.0+ и перспективы упереться в данный хост не радуют. Серверов у меня рэковых практически нет, а в этом замечательном сервере аж 4 сетевухи, смотрящие в интернеты, DMZ, локалку.

Поиск в амбарах дал результат в виде сервера HP DL360 G5, вот только в старом сервере пару сетевых портов обеспечивала карта формата PCI-X, слотов под который в новом нет.

Опросив своих коллег и пару дружественных организаций, смог найти аж 2 сетевых карты на одинаковом чипсете Realtek 8168E – TP-LINK TG-3468 и D-Link DGE-560T.

Поиск в интернете подсказал, что данный чипсет поддерживается с горем пополам только на ESXi 5.1.

К сожалению,  D-Link DGE-560T запустить мне не удалось, а вот  TP-LINK TG-3468 запустился сразу.

В версии ESXi 5.5 поддержка снова отсутствует, поэтому, в случае крайней необходимости,  советую поставить драйвер самостоятельно:

  • Качаем последнюю версию драйвера, поддерживаемого коммунити –  net-r8168-8.036. Также различные драйверы для неподдерживаемых устройств есть тут.
  • Распаковываем из него net-r8168-8.036.00-1.x86_64.vib .
  • Заливаем на хост через SCP в папку /tmp .
  • Заходим по SSH.
  • Проверяем список установленных VIB:
  • Разрешаем установку пользовательских драйверов:
  • Устанавливаем драйвер:
  • Перезагружаем хост.

Cisco Nexus 1000v для VMware vSphere 6.0 быть!

Многие читатели нашего бложика читают и другие бложики, которые распространяют нехорошие слухи. Erik Scholten с очень известного сайта www.vmguru.com в статье What’s new in vSphere 6 Networking пишет:

Another major change in vSphere 6 on the networking side is the support for third party switches or rather the disappearance on it.

Huh? What did he just say? Did I hear that right? You’re surprised?

I’ll say it again. In short, vSphere 6 no longer supports third party (distributed) switches like the Cisco Nexus 1000V.

As of vSphere 6 VMware does not allow third parties (Cisco) access to their kernel. There’s no official statement yet but I would not be surprised if this is due to the battle with Cisco in the SDN space. Not allowing access prevents Cisco from using the Nexus 1000V which in turn prevents them from SDN control using ACI.

Что меня как пользователя данного продукта от Cisco изрядно напрягло. Спешу опровергнуть данный слух официальным прессрелизом от Cisco:

Announcing Cisco Nexus 1000V for VMware vSphere 6 Release

Разница только в том, что сейчас распространяться и поддерживаться Cisco Nexus 1000v будет по каналу Cisco, а не VMware:

One of the common questions coming from our customers is whether VMware is still re-selling and supporting the Nexus 1000V via VMware support?

VMware has decided to no longer offer Nexus 1000V through VMware sales or sell support for the Nexus 1000V through the VMware support organization as of Feb 2nd 2015. We want to reiterate that this has NO IMPACT on the availability and associated support from Cisco for the Nexus 1000V running in a vSphere environment. Cisco will continue to sell Nexus 1000V and offer support contracts. Cisco encourages customers who are currently using VMware support for the Nexus 1000V to migrate their support contracts to Cisco by contacting their local Cisco Sales team to aide in this transition.

Обновление. Эрик, прочитав нашу заметку, изменил свою статью и отчитался в комментариях.

IBM Storwize/SVC vs EMC VNX 2TB LUN

У компании IBM есть отличная линейка систем хранения Storwize/SVC. Одной из функций которой является виртуализатор разделов чужих систем хранения. К сожалению, владельцы EMC VNX страдали одним досадным нюансом – с данных систем нельзя было подключить раздел размером свыше 2 TB.

Одним коллегам даже пришлось уйти на EMC VPLEX из-за этой несуразности.

Недавно это недоразумение было устранено. С версии 7.3.0.5 виртуализаторы Storwize/SVC стали поддерживать разделы свыше 2 TB для следующих систем хранения:

  • EMC VNX 5100, 5300, 5500, 5700, 7500, 5200, 5400, 5600, 5800, 7600, 8000.
  • EMC VMAX 10k, 20k, 40k.
  • NetApp E5460, E5424, E5412, EF540, E2660, E2624, E2612 (все с версии Storwize/SVC 7.1.0.5), E5560, E5524, E5512, EF550, E2760, E2724, E2712.
  • Xiotech X-IO ISE 200 Series (210, 220, 230, 240).
  • Xiotech X-IO Hyper ISE 7 Series (710, 720, 730, 740).

Вышел Brocade Network Advisor версии 12.3

Вышел Brocade(также известен, как HP, IBM) Network Advisor версии 12.3. Данная утилита предназначена для мониторинга SAN(FC, IP). Позволяет отслеживать нагрузку по портам, определять бутылочные горлышки сети, настраивать зоны, собирать и показывать ошибки.

Чем интересна данная версия?

Во-первых она поддерживает интеграцию в различные платформы виртуализации:

  • VMware vCenter, vCenter Operations Management Suite, and Log Insight;
  • Microsoft System Center Operations Manager and Virtual Machine Manager;
  • OpenStack;
  • EMC ViPR;
  • HP OneView;
  • IBM PowerVC.

Во-вторых, у неё появился веб-интерфейс.bna_web_dashboardВ-третьих, программа стала бесплатной для использования с 2 фабриками до 300 портов на Brocade Fabric OS в редакции SAN Professional, что является типовым для небольших сетей.

ЧаВо.

Качать через сайты “производителей” коммутаторов.

Задание по настройке балансировки Round Robin в VMware vSphere

Мы ранее уже писали о политиках балансировки и о том, как их настроить через скрипт. Но к сожалению, с течением времени часть хостов меняются, хранилища также меняются на другие и актуальность этих настроек может быть потеряна.

К примеру, я точно помню, что настраивал Round Robin для своего кластера и своей СХД HP EVA пару лет назад.

Однако, текущий вывод скрипта по балансировке показывает, что это далеко не так:

Get-Cluster cluster| Get-VMHost | Get-ScsiLun -LunType disk | group multipathpolicy

Continue reading “Задание по настройке балансировки Round Robin в VMware vSphere”

Обновление Digi AnywhereUSB/14

Самое популярное решение для проброса USB-ключей в виртуальные машины Digi AnywhereUSB/14 получило новую прошивку версии 1.70 (лог изменений).

В данной версии появилась ключевая функция Dynamic Group Assignment(DGA). Она позволяет менять привязку USB-ключей к группам на лету без необходимости перезагружать USB-коммутатор, что приводило к отключению всех других ключей.
Digi_DGA
Всем владельцам данного устройства рекомендую обновиться.

Скачать с Digi.

PowerVM Virtualization Performance Advisor

На прошлой неделе мы рассмотрели несколько анализаторов для компонентов инфраструктуры IBM PowerVM.

Сегодня на повестке дня наиболее комплексный и современный – PowerVM Virtualization Performance Advisor.

Данная утилита ставится на один из LPAR, подключается к HMC и анализирует настройки и производительность LPAR либо хоста в целом.

Для работы программы должны быть выполненые следующие требования:

  • должен быть установлен SSH;
  • на каждом LPAR стоит галка “Allow performance information collection”;
  • на каждом LPAR запущена служба xmtopas:
    проверяем запуском

    если среди запущенных нет, то проверяем /etc/inetd.conf – не закомментирована ли служба, убираем комментарий и делаем:

    либо запускаем службу командой

Для установки и предварительной настройки также надо выполнить ряд действий

Распаковать дистрибутив утилиты локально и в LPAR

И произвести обмен SSH-ключами между LPAR и HMC в целях отказа от ввода пароля при подсоединии

В моей инфраструктуре данный настройщик не работает, но можно эту настройку выполнить вручную по этой инструкции. Мне же пришлось многократно повторять пароль к HMC во время работы утилиты.

Утилита работает в двух режимах: анализ системы – хоста, анализ LPAR.

Для запуска в режиме анализа системы понадобится список систем из HMC:

Запуск осуществляется командой из распакованного каталога vpa:

В результате через 60 минут получим virt_pa_output.xml, который копируем в локальную папку vpa и там открываем браузером:vpa_sysДля запуска в режиме анализа системы понадобится LPAR SYSTEMID:

Запуск осуществляется командой из распакованного каталога vpa:

В результате через 30 минут получим virt_pa_output.xml, который копируем в локальную папку vpa и там открываем браузером:vpa_lpar

IBM PowerVM Inactive Live Partition Mobility

Как и VMware vSphere IBM PowerVM умеет делать миграцию LPAR(logical partition – виртуальная машина в терминологии PowerVM).

Миграция существует 2 видов: Inactive – перерегистрация неактивного(выключенного или в режиме Suspend) LPAR на другом хосте, Active – перемещение включенного LPAR с хоста на хост.

В этой заметке расскажу только об Inactive. Это простой режим с маленьким списком требований. Миграцию осуществляется в данном примере с помощью IBM HMC. Хосты имеют возможность “Inactive Partition Mobility Capable”.

Необходимы VIOS на хосте-источнике и хосте-цели с установленной галкой Mover Service Partition:vios_mspДля тестирования создан LPAR без сетевых и дисковых устройств (виртуальных либо физических), без AIX.

Для миграции советую вместо команды Migrate использовать команду Validate – сэкономите пару десятков и кликов, да и с полминуты времени:menu_mobility_validate
Заполняем поля формы (если бы выбрали Migrate эти же поля заполняли бы в 5-7 формах мастера миграции):lpm_validateЖмём Validate. Если всё ок, то даст нажать Migrate, сам создат профиль на целевом хосте(если не указали) и предоставит возможность выбрать общий процессорный пул.

Жмём Migrate. Смотрим несколько секунд на окно прогресса и, вуаля, LPAR на новом хосте.

Если у вас подключены адаптеры, то следует осторожно относится к данной миграции, особенно, в случае установки галок перекрытия ошибок виртуальных хранилищ и сетей, а также наличия физический адаптеров(либо сругается либо отрубит их от машины). Также внимательно смотрите на привязку ID адаптеров между новым и старым VIOS.

Настоятельно советую ознакомиться с красными книгами “IBM PowerVM Live Partition Mobility“, “IBM PowerVM Enhancements What is New in 2013“.