Вышел Cisco Nexus 1000V для VMware vSphere 6.5a

Для тех, кто планирует переходить на VMware vSphere 6.5a и использует распределенный коммутатор Cisco Nexus 1000V вышла новая версия с поддержкой данной платформы:
Cisco Nexus 1000V Release 5.2(1)SV3(3.1).

Для тех, кто планирует прекратить использовать распределенный коммутатор Cisco Nexus 1000V VMWare выпустила утилиту миграции “Migration tool for Nexus 1000v to Vmware’s VDS”:

Download Migration tool – Nexus 1000v to VDS.

Важно! Версия vSphere 6.5 Update 1 – последняя с поддержкой сторонних коммутаторов. Подробнее в БЗ Discontinuation of 3rd party vSwitch program.

Metadata.pyc – update manager

Одновременно в двух ЦОДах стала наблюдаться странная фигня: обновление ESXi-хостов на базе блейдов HP стало сваливаться с ошибкой. Причем проблема была как при операции Remediate, так и при Stage.

В логах Update Manager ничего не было, в журнале esxupdage.log – странный набор предупреждений вида:

2016-12-05T11:46:20Z esxupdate: downloader: DEBUG: Downloading http://VUM:9084/vum/repository/hostupdate/HPQ/metadata-hp-esxi5.5uX-bundle-2.4-16.zip to /tmp/tmp3WpTDj…
2016-12-05T11:46:20Z esxupdate: Metadata.pyc: INFO: Unrecognized file vendor-index.xml in Metadata file

Попытки гуглить ни к чему не привели, поэтому я стал решать проблему творчески.

Была обнаружена следующая закономерность: если убрать из обновления все HP’шные апдейты, то операция Remediate успешно проходила.

В ходе решения проблемы я победил обновление vCenter&VUM с 5.5U3b до 5.5U3e. Попутно узнал, что если у вас на vCenter ОЗУ меньше 16ГБ, то будут проблемы с апгрейдом служб SSO и Inventory.

Увы – не помогло.

Заколотил в обратную зону DNS адреса всех хостов – не помогло.

И тут я вспомнил, что компания HP решила развалиться на две, вследствие чего весь серверный сегмент сидит теперь на hpe.com. А я накануне проверял, что у меня HP’шный депот в Update Manager не подключается.

hpe

Исправил в URL на HPE.COM, скачал апдейты, просканировал на совместимость и снова запустил Remediate.

Работает, ура 🙂

Multi-streaming in HP DP

Так уж вышло, что я работаю в компании, являющейся счастливым обладателем HP Data Protector 8.0. Я уже ранее сравнивал его с Veeam при резервном копировании виртуальных машин VMware. Сейчас же я хочу рассказать про свой опыт резервного копирования файл-серверов.

Continue reading “Multi-streaming in HP DP”

Проброс видеокарты NVIDIA в VMware ESXi 6.0

diz решил поделиться своим опытом проброса видеокарты NVDIA GTX в ESXi 6.0.

Добрый день, дорогие друзья!

Говорят, что с 2015-ого года работодатели стали сразу выгонять с собеседования ИТ-шников, если вдруг выясняется, что у них нет личного сервера с развернутым частным облаком.

Чтобы не выбиваться из тренда, я собрал дома небольшой двухпроцессорный сервер на базе материнской платы SUPERMICRO X9DRI-F и пары Xeon E5-2670. Т.к. несколько лет своей жизни я посвятил, в т.ч. администрированию инфраструктуры VMWare, то в качестве гипервизора виртуализации был выбран именно ESXi.

Частное облако-домашняя лаба – это, конечно, замечательно и здорово, однако, для комфортной повседневной работы и StarCraft2 желательно иметь доступ к дискретной видеокарте.

Тому, как задружить “бытовую” nVidia GTX и ESXi 6 и посвящается данная статья – краткий проводник-путеводитель по граблям.

Первое, что вам захочется сделать после установки дискретной видеокарты в сервер – переключить приоритет инициализации видеокарты в BIOS в пользу внешней, чтобы видеть POST прямо на экране подключенного к ней монитора. Этого делать не стоит, т.к. в таком случае вы потеряете возможность использовать iKVM материнской платы.

Итак, приступаем к пробросу видеокарты в виртуальную машину с MS Windows 10. Увидев web-интерфейс ESXi 6 я искренне обрадовался тому, что завязал с системным администрированием четыре года назад. Откладываем этот замечательный интерфейс в сторону, т.к. проброс видеокарты через него вы настроить не сможете, при старте виртуальная машина будет ругаться на несоответствие идентификатора устройства PCIe (PCIe passthrough device id invalid) и переключаемся на старый добрый и толстый клиент: Continue reading “Проброс видеокарты NVIDIA в VMware ESXi 6.0”

IBM HS23, vSphere и 10 GbE. Борьба продолжается…

В 2013 году столкнулись с парой проблем с сетевыми картами Emulex 10 GbE – одна проблема описана в статье IBM HS23, vSphere и 10 GbE, вторая была – неожиданная сетевая изоляция хостов.

Спустя 3 года ситуация повторяется – хост внезапно уходит в сетевую изоляцию. Подозрения сразу пали на сетевую карту Emulex.

Подтверждение проблемы обнаружено в логе vmkernel.log:

Некие намёки в БЗ VMware:

Заметка в бложике:

ESXi 5.5 and Emulex OneConnect 10Gb NIC

В качестве решения – замена прошивки, обновление драйвера.

Вдогонку за кроликом или fiber-channel, linux и много-много google

Эта статья описывает муки настройки fiber channel target поверх Centos.

Коллегам, хорошо разбирающимся в линукс, можно читать в качестве анекдота 🙂

Continue reading “Вдогонку за кроликом или fiber-channel, linux и много-много google”

Подсчет стоимости виртуальной машины

Mr. Nobody нашел симпатичную статью про то, сколько же стоит виртуальная машина.

Переведу 🙂

Сколько стоит виртуальная машина? Хотя вопрос и простой, ответ на него может оказаться гораздо сложнее, так как требует понимания стоимости вычислений, количества ресурсов и ожидаемых потребностей в вычислительных мощностях.

Хотя разговор о стоимости лучше оставить экономистам, именно у ИТ есть все данные, необходимые для точных вычислений, являющихся основой для процедур оценки. Давайте разберем пример.

Continue reading “Подсчет стоимости виртуальной машины”

Пара мыслей про HP StoreOnce Catalyst

Не реклама :)))))

В комментариях готов обсудить, чем данное средство лучше/хуже самосбора на базе кучи дисков с дедупликацией…

В качестве хранилища резервных копий пару лет назад мы выбрали HP StoreOnce 4700. Выбор был обусловлен тем, что наше средство резервного копирования хорошо заточено на ленты, и мы достаточно продуктивно ранее работали с HP VLS 6500. StoreOnce отличается достаточно высокой ценой, при этом обладает рядом преимуществ:

  • встроенная дедупликация и неплохие показатели скорости резервного копирования (до 8 Тб/час на 8 дисковых полок или примерно 16Гбит/с – для 4700);
  • дополнительно приобретаемая лицензия репликации, которая интегрируется с дедупликацией;
  • дополнительная лицензия Catalyst, позволяющая осуществлять дедупликацию перед передачей данных на StoreOnce. Заявлена скорость резервного копирования до 22Тб/ч; :))
  • централизованная и, вроде бы, удаленная поддержка от вендора

Помимо достаточно негуманного ценника за аппаратное решение, есть программные версии до 50Тб, в том числе и бесплатная – на 1 Тб, разворачиваемые в виде виртуальных машин vSphere, Hyper-V и KVM.

В программных решениях все дополнительные лицензии включены (репликация), но производительность значительно ниже (до 120Мб/с).

В нашей поставке StoreOnce выглядит как HP’шный сервер и две дисковые полки (2*2Тб*12). Используемой емкости внутри порядка 37Тб.

cata00

Continue reading “Пара мыслей про HP StoreOnce Catalyst”

Обновление прошивки MSA P2000 G3 и закрытие бэкдора

Дошли руки обновить прошивку MSA P2000 G3 до TS252R007.

Обновилось все замечательно, вот только после обновления отмер веб-интерфейс.

Поддержка сказала, что это не баг, а фича, и дала ссылку про то, что покрошился сертификат.

Команда show certificate показала, что действительно оба контроллера сидят с непойми чем.

Вот только выполнение рекомендаций на контроллере A мне не помогло – сертификат не пересоздался. Выполнение рекомендаций на контроллере B – частично помогло – пересоздался сертификат только на контроллере B.

# show certificate
Certificate Status
——————
Controller: A
Certificate Status: Unknown status
Time Created:
Certificate Text: none

Certificate Status
——————
Controller: B
Certificate Status: System-generated
Time Created: 2015-09-02 22:15:58
Certificate Text: Certificate:

Техподдержка радостно предлагает засунуть сертификат на контроллер через FTP (ВАУ) 🙂

Временно включил по их совету доступ через HTTP, чтобы проверить работоспособность веб-служб.

Сертификат через FTP не засовывается.

Помогло отключение NTP и сброс таймзоны

#set controller-date ntp disabled timezone 0

Пересоздаем сертификат

#create certificate unique both 

Перезагружаем Management Controllers

# restart mc both

2) Закрыл бакдор, описанный тут.

У MSA’шки есть пользователь admin с паролем !admin.

Может зайти телнетом, web и так далее.

Для смены пароля необходимо зайти в шелл.

# set password admin
Enter new password: ****************************
Re-enter new password: ****************************
Success: Command completed successfully. (admin) — The password was changed.

3) Попутно решил обновить прошивку дисков, но невнимательно читал гайд: прошивка дисков осуществляется БЕЗ нагрузки на СХД. Один из гипервизоров потерял лун с VMFS, размещенный на этих дисках – помог только ребут гипервизора.

Увеличение размера диска HP Smart Array P400i

Жил-был сервер HP DL360 G5 с рейд-контроллером HP Smart Array P400i и двумя дисками HP 68GB, объединенными в Raid1.

И так достала нас нехватка места на дисках, что решили мы заменить диски на HP 146GB.

Воткнули один диск 146Гб вместо старого, дождались синхронизации. Воткнули второй – дождались ребилда рейд-массива.

Получили два диска 146Гб в Raid1, на которых занята примерно половина места.

Тыкаемся в HP Array Control Utility, а увеличения размера логического рейд-диска нет.

Обновил прошивку рейд-контроллера и утилиту – не помогло.

Начал гуглить – народ утверждает, что увеличение размера логического рейд-диска доступно при наличии батарейки. Посмотрел через HP System Management Homepage – батарейки нет.

hp

Поставили батарейку, она зарядилась, и мы смогли расширить диск.

hp02Ура! 🙂