Временная активация IBM IMM2 до редакции Advanced

Современные серверы IBM System x поколения M4 имеют модуль управления Integrated Management Module II (IMM2), позволяющий в редакции Advanced использовать функционал KVM (keyboard, video, mouse).

Например, для хостов ESXi данная возможность востребована только на этапе установки гипервизора на серверы, которые размещены в 3/9 царстве.

Поэтому, если данный функционал не приобретен, можно воспользоваться 90-дневным триалом.

Для получения нужно выполнить несколько простых шагов:

  • Зайти под своей учётной записью на сайт IBM  Features on Demand.
  • Выбрать раздел Trial key : Request a 90-day trial key for a trial-enabled feature.
  • Выбрать функцию A1ML – IBM Integrated Management Module Advanced Upgrade.
  • Заполнить требуемые поля и получить ключ.

UPD:

Для Dell iDRAC (http://en.community.dell.com/techcenter/systems-management/w/wiki/3204.dell-remote-access-controller-drac-idrac.aspx) тоже есть 30-дневный триал, который надо получать по адресу: http://www.dell.com/support/retail/lkm К сожалению, у меня нет Dell’овской учётки, чтобы целиком проверить процесс.

Для HP iLO

http://h18004.www1.hp.com/products/servers/management/tryinsightcontrol/index.html
Evaluate HP Insight Management for FREE
•HP Insight Management Trial (all products)
•HP Insight Control
•HP iLO Advanced
•HP iLO Advanced for BladeSystem
•HP iLO Essentials
•HP iLO Scale-Out
•HP Virtual Connect Enterprise Manager

VMware vSphere 5.5 vs IBM HS22V SSD

Наш с Андреем “тёзка” 😉 – Андрей Коновалов в октябре 2013 года написал статью “Включение Virtual Flash Read Cache в VMware vSphere 5.5”, в которой подробно описал как включать и что делать если SSD не определился. В качестве своего опыта расскажу также о борьбе с неопределением типа SSD-накопителя.

Лезвие IBM HS22V имеет SAS-контроллер на чипсете LSI 1064E, который собирает простые RAID в виде зеркала либо чересполосицы.

Изначально ESXi 5.1 стоял на зеркале из 2 SSD(вот она бессмысленная трата столь ценного ресурса), что и приводило к проблемам с проверкой на тип носителя.

ESXi 5.5 решили установить на USB-flash, а RAID разобрать. Контроллеры LSI при разборке RAID 1 на дисках ничего не меняют – в результате получилось 2 идентичных диска с ESXi 5.1 и установка ESXi 5.5 прекратилась с розово-фиолетовым экраном и выпадением консоль vmdebug, ранее ни разу не виденную мной. Ошибка на экране гласила что-то в духе: “Two filesystems with the same UUID have been detected. Make sure you do not have two ESXi installations“. Для вариантов решения советую почитать “ESXi host displays an error and fails to boot when two ESXi installations are on the same system“.

В связи с этим RAID пришлось собрать снова, что привело к переинициализации дисков и очистке файловых систем на них, затем снова разобрать RAID для представления дисков серверу “напрямую”.

После перезагрузки ESXi 5.5 встал на ура, диски определились как SSD.

P.S. Хотел сначал написать про Virtual Flash Read Cache, а писать-то нечего – как настраивать написано везде, описание занимает 2 скриншота, и, вроде, эта штука работает… Даже новые счётчики отображает в C# клиенте…

IBM DS3500/DCS3700 ALUA и VMware vSphere

Полтора года назад я писал о том, что IBM DS3500/DCS3700 приобретают поддержку VAAI и ALUA. Сейчас хранилище данного типа у меня используется и время от времени ругается на предоставление LUN по непредпочитаемому пути. Как оказалось, ALUA не работает – Storage Array Type=VMW_SATP_LSI:
ds3500_no_ALUAРешение довольно простое – в DS Storage Manager необходимо сменить операционную систему подключаемого к хранилищу сервера с VMWARE на VMWareTPGSALUA:ds3500_vmware_aluaПосле перезагрузки хоста политика Storage Array Type=VMW_SATP_ALUA:ds3500_with_ALUA

OEM-коммутаторы Brocade для различных производителей

В моей инфраструктуре используются лезвийные серверы и шасси производства IBM, а у Андрея производства HP. Но, у него и у меня стоят FC-коммутаторы Brocade.

При анализе совместимости Brocade Fabric OS невозможно понять подходит она конкретному коммутатору или нет. Причина в том, что Brocade использует в своей документации свои кодировки моделей коммутаторов.

Чтобы быстро определиться какая модель IBM, HP, DELL, NETAPP, ORACLE, HITACHI, EMC, UNISYS, FUJITSU соответствует внутренней маркировке Brocade необходимо перейти на страницу OEM Partners, выбрать производителя и щелкнуть по закладке Products.

Для IBM также советую воспользоваться блогом Anthony Vandewerdt, у него есть таблица с указанием старых коммутаторов со скоростями 1,2,4 гигабит/с, которых нет на официальном сайте – Brocade SAN Switch Models.

Бесплатный вебинар: «VMware vSphere: переход к версии 5.5»

Внезапно, УЦ “Микроинформ” проводит бесплатный актуальный вебинар о переходе на VMware vSphere 5.5.

Дата проведения: 30 января 2014 г.
Начало вебинара: 16:00 МСК.
Продолжительность вебинара: 1,5 часа.

Подробности и регистрация.

Брандмауэр Windows и буфер обмена

Mr. Aloof пишет:

Совершенно случайно обнаружил, что правила брандмауэра Windows вполне себе копируются в буфер обмена.

Понадобилось повторить штук 10 правил с одного компьютера на другом. Так как было довольно лениво, с мыслью: «а вдруг?», выделил нужные правила в списке, нажал Ctrl+C и переключившись в RDP на другой компьютер в списке правил нажал Crtl+V. Случилось чудо и правила вставились!

Искренний «Like» программистам из Microsoft, которые не поленились описать формат данных для сериализации и добавить несколько строк реализации метода.

Отчёт о VMware Tour Russia 2013

30 октяря 2013 года в Москве, в Центре международной торговли прошло мероприятие VMware Tour Russia 2013, на которое я умудрился съездить.

Приехал с утреца, около 8 часиков, знакомых лиц, к сожалению, сразу не обнаружил, поэтому ходил и смотрел, что происходить перед действом.

Особый восторг вызвала программа мероприятия на фоне храмов России, подчеркивая православность форума.

SAMSUNG Continue reading “Отчёт о VMware Tour Russia 2013”

Худшие практики: virtual machine memory limit

Сегодня о “худшей практике” одной настройки виртуальной машины.

Некоторое время назад обнаружились серверы с большим уровнем IOPS – в районе 1000-1500 операций. Экспресс-диагностика не дала результата, а так как размер дисков машин был очень небольшим, то они были перемещены на локальные SSD, что сняло остроту проблемы.

Сейчас же обнаружились проблемы с терминальными серверами – довольно сильные лаги при большом количестве подключений. Анализ системы показал довольно классическую проблему – наличие baloon. Наличие “пузыря” в памяти насторожило, так как на хосте свободной памяти было с избытком. Ларчик открылся просто при 3 ГБ ОЗУ виртуальной машины стояла волшебная труодминская настройка memory limit 2 ГБ. К пущей радости, история умалчивает кто был этим тру одмином.

После такого открытия я запустил RVTools и проинспектировал все виртуальные машины на наличие лимитов памяти, ну, и на “пузыри” заодно.

Тут-то и всплыли виртуалки с большими IOPS, так как настройки на них были примерно следующие ОЗУ – 1,5 ГБ, лимит – 256 МБ. На одной из машины при ОЗУ 3 ГБ, лимит был 512 МБ, а размер  “пузыря” 2 ГБ.

Для чего понадобилось выставлять лимиты остаётся загадкой. Поснимал все лимиты на память, так как для моей конфигурации данный функционал не имеет смысла.

EMC VNX2

Наш блог уделяет внимание не только виртуализации, но и её фундаменту –  аппаратной инфраструктуре.

Сегодня мне в руки попала презентация линейки второго поколения систем хранения среднего уровня EMC VNX: VNX5400, VNX5600, VNX5800, VNX7600, VNX8000.

Что нового в EMC VNX второго поколения:

  • Процессор Intel Sandy Bridge.
  • Шина передаче данных PCIe Gen 3 позволяет обеспечивать ввод-вывод через интерфейсы 40GbE и 16Gb FC.
  • Многоядреная оптимизация (MCx) используется в реализации функций RAID, Cache и FAST Cache.
  • Больше ядер, памяти, дисков и ёмкость FAST Cache.
  • 1 миллион IOPS при операция чтениях размером 8k.
  • Поддержка недорогих eMLC Flash дисков на 100, 200, 400 ГБ.
  • Блочная дедупликация LUNs в базовой поставке.
  • Адаптивное управление кэшем(Cache) с общим пулом на запись и чтение.
  • Увеличена производительность  FAST Cache и уменьшено время “разогрева”.
  • Active/Active доступ к LUN.
  • FAST VP использует сегмент размером 256МБ, что в 4 раза меньше первого поколения.
  • Автоматическое назначение дисков горячей замены(даже если вы их не назначали) и возможность переноса дисков.
  • ŸVNX Monitoring and Reporting включен в базовую поставку.
  • Автоматическая онлайн миграция файловых систем с Celerra и VNX.
  • Диски и полки расширения  от VNX можно использовать, а вот данные при этом сохранить нет.

Скачать презентацию, ссылка доступна на момент публикации ;).

Обзорная статья от Jason Nash “Introducing the Next Generation VNX Arrays from EMC“, ссылка доступна на момент публикации 😉 .

Поубавить восторгов. Русская версия статьи в блоге Романа Хмелевского.

P.S. Анонс новой системы в сентябре  2013. Часть программного функционала будет доступна в течении нескольких фаз (этапов), аппаратные возможности также будут некоторое время дополняться. Анонс систем хранения начального уровня EMC VNXe второго поколения будет в первом квартале 2014 года.

Перенос Custom Attributes между VMware vCenter

У меня возникла задача переехать в новый vCenter. При планировании работ обратил внимание на потребность переноса полей виртуальных машин Custom Attributes, созданных мной.

В моей инфраструктуре используется два дополнительных поля  – Administrator, где указываются основной и дублирующий администратор, поле – Nagios, где указывается имя, под которым сервер занесен в систему мониторинга. Данное поле позволяет осуществлять контроль все ли продуктивные виртуальные машины занесены в Nagios.

В отличии от Notes, созданный вручную Custom Attribute хранится в vCenter и при переходе на чистую базу данных не сохраняется.

Поиск быстро выдал пример скрипта на PowerShell для экспорта-импорта данных полей.

Приведу кусочек кода, немного исправленный и используемый мной.

Экспорт (обратите внимание на указание кодировки для атрибутов на кириллице):

Импорт: