OEM-коммутаторы Brocade для различных производителей

В моей инфраструктуре используются лезвийные серверы и шасси производства IBM, а у Андрея производства HP. Но, у него и у меня стоят FC-коммутаторы Brocade.

При анализе совместимости Brocade Fabric OS невозможно понять подходит она конкретному коммутатору или нет. Причина в том, что Brocade использует в своей документации свои кодировки моделей коммутаторов.

Чтобы быстро определиться какая модель IBM, HP, DELL, NETAPP, ORACLE, HITACHI, EMC, UNISYS, FUJITSU соответствует внутренней маркировке Brocade необходимо перейти на страницу OEM Partners, выбрать производителя и щелкнуть по закладке Products.

Для IBM также советую воспользоваться блогом Anthony Vandewerdt, у него есть таблица с указанием старых коммутаторов со скоростями 1,2,4 гигабит/с, которых нет на официальном сайте – Brocade SAN Switch Models.

Брандмауэр Windows и буфер обмена

Mr. Aloof пишет:

Совершенно случайно обнаружил, что правила брандмауэра Windows вполне себе копируются в буфер обмена.

Понадобилось повторить штук 10 правил с одного компьютера на другом. Так как было довольно лениво, с мыслью: «а вдруг?», выделил нужные правила в списке, нажал Ctrl+C и переключившись в RDP на другой компьютер в списке правил нажал Crtl+V. Случилось чудо и правила вставились!

Искренний «Like» программистам из Microsoft, которые не поленились описать формат данных для сериализации и добавить несколько строк реализации метода.

Худшие практики: virtual machine memory limit

Сегодня о “худшей практике” одной настройки виртуальной машины.

Некоторое время назад обнаружились серверы с большим уровнем IOPS – в районе 1000-1500 операций. Экспресс-диагностика не дала результата, а так как размер дисков машин был очень небольшим, то они были перемещены на локальные SSD, что сняло остроту проблемы.

Сейчас же обнаружились проблемы с терминальными серверами – довольно сильные лаги при большом количестве подключений. Анализ системы показал довольно классическую проблему – наличие baloon. Наличие “пузыря” в памяти насторожило, так как на хосте свободной памяти было с избытком. Ларчик открылся просто при 3 ГБ ОЗУ виртуальной машины стояла волшебная труодминская настройка memory limit 2 ГБ. К пущей радости, история умалчивает кто был этим тру одмином.

После такого открытия я запустил RVTools и проинспектировал все виртуальные машины на наличие лимитов памяти, ну, и на “пузыри” заодно.

Тут-то и всплыли виртуалки с большими IOPS, так как настройки на них были примерно следующие ОЗУ – 1,5 ГБ, лимит – 256 МБ. На одной из машины при ОЗУ 3 ГБ, лимит был 512 МБ, а размер  “пузыря” 2 ГБ.

Для чего понадобилось выставлять лимиты остаётся загадкой. Поснимал все лимиты на память, так как для моей конфигурации данный функционал не имеет смысла.

Active Directory vs vSphere 5.1

В процессе использования vSphere 5.1 столкнулся с несколькими нюансами работы платформы с Active Directory.

vSphere 5.1 SSO и домены с доверительными отношениями.

Эпически глючная вещь в vSphere 5.1 – это сильно распиаренный Single Sign-On. На нашем предприятии развернут лес с двумя поддоменами, где “живут” учётные записи пользователей, которым требуется доступ к виртуальной инфраструктуре.  Очень интересно ведёт себя SSO при недоступности доменных контроллеров доверенных доменов – он просто не даёт авторизовать в других. У меня проблемы две – временная недоступность из-за сетевой недоступности и некорректная настройка DNS.

При восстановлении сетевой доступности SSO не слишком торопится достучаться до контроллеров домена, обычно, приходится авторизоваться под учётной записью admin@system-domain и делать шаманские пляски с перепроверкой identity source.

Вторая проблема возникает при попытке заменить адреса доменных контроллеров на имя домена, то есть вместо dc-01.perm.contoso.com писать perm.contoso.com, так как фактически DNS на запрос perm.contoso.com возвращает NS-серверы, а не доменные контроллеры.  В моём случае, запрос по имени доверенного домена возвращает по одному из 4 адресов не контроллер домена. Ну, это местечковые грабли. Для решения проблемы прописал “наиболее доступные” контроллеры домена.

vCenter и объекты безопасности Active Directory.

Второе “волшебное” поведение платформы – это группы и пользователи AD с назначенными разрешениями к объектам vCenter. Вы назначаете группе или учётной записи доступ к виртуальной машине, а спустя некоторое время решает привести названия групп к новому стандарту наименования. Результат впечатляет – все переименованные группы и учётные записи бесследно исчезают из разрешений. Но, как говорится, это by design.

Примечание. При создании локальной доменной группы (domain local) безопасности, добавлении  в неё учётной записи из доверенного домена и назначении прав в vCenter получил негативный результат – доступ не был предоставлен. Возможно, где-то я скосячил, а может и не я.

IBM HS23, vSphere и 10 GbE

В рамках подготовки разворачивания Cisco Nexuus 1000V стал разрабатывать эскиз решения, о котором планирую также написать, с использование 10 гигабитных сетей.

В лезвийных серверах IBM HS23 используется встроенных 10 GbE адаптер, обычно называемый Integrated Virtual Fabric 10 Gigabit Ethernet либо  Emulex BE3 Dual 10 Gb/1 Gb, либо просто LOM (10Gb LOM Interposer Card).

Фактически, это Emulex 10GbE Virtual Fabric Adapter II с немного обрезанными возможностями на том же чипсете с той же прошивкой и драйвером.

При установке VMware ESXi 5.1u1 неожиданно вылезла проблема – во время запуска драйвера be2net отрубался цифровой интерфейс подключения KVM к лезвию. Первый же поисковый запрос дал решение, описанное Виталием Агаповым “Как подружить VMware ESXi, IBM HS23 и сетевую карту Emulex“.

Для прошивки и установки драйвера я пошёл более простым путём, чем Виталий. Так как у меня несколько таких лезвий, то я создал новый дистрибутив с помощью ESXi-Customizer. Прошить методом Виталия не получилось – флешка не виделась утилитой, не удалось и с помощью диска, созданного IBM Bootable Media Creator (BoMC). В связи с этим я использовал родной Emulex Offline OneConnect Flash ISO.

После этого проблема с KVM разрешилась, а интерфейс в утилите настройки карты стал более дружелюбным.

Закладка Hardware Status в vCenter Server не работает

У меня на хосте закладка Hardware Status в vCenter Server стабильно выдавала ошибку “Hardware monitoring service on this host is not responding or not available”, даже после перезагрузки хоста.

Совет в KB не помогал. Вместо этого я подключился напрямую к хосту и в Configuration – Health status нажал Reset Sensors. Минут через 5-10 статусы с Unknown поменялись на Normal, хотя счетчиков примерно в 2 раза меньше, чем в vCenter.

После этого зашел в  Hardware Status, и через несколько минут после обновления все счетчики стали отображаться.

Проблема IBM Storwize V7000 6.4.1.2 Loading…

В конце года приобрели новую систему хранения IBM Storwize V7000.  В рамках подготовки к вводу в эксплуатацию обновили прошивку с версии 6.3 до версии 6.4.1.2. В результате не получили web-интерфейс для администрирования – вместо этого было написано «бесконечное» слово “Loading…”. Командная строка и интерфейс поддержки работали штатно. 29 декабря параллельно корпоративным мероприятиям обратились в поддержку IBM, которая за пару часов выдала нам ответ: «Необходимо установить в браузере предпочитаемый язык для страниц – английский». Чудесным образом проблема устранилась.

Советую пользователям IBM SVC и Storwize запомнить этот нюанс, так как гугление не помогает – у буржуинов-то всё работает гладко.

Обновление: в версии 6.4.1.3 ошибка исправлена.

 

Veeam, mount nfs и все в таком духе

Решил я давеча воспользоваться технологией Veeam Instant Recovery для запуска виртуальной машины из бэкапа.

А Veeam Backup такой мне и говорит: “Unable to mount vPower NFS volume. An error occured during host configuration”.

Continue reading “Veeam, mount nfs и все в таком духе”

Настраиваем шаблоны виртуальных машин для VMware vSphere

В рамках создания шаблонов для ОС Windows 2008 R2 Std/Ent я натолкнулся на несколько граблей, о которых хочу написать…

Я не буду здесь описывать пошаговый процесс создания шаблона, так как он достаточно простой.

Версии используемого ПО: vCenter 4.1(491557), VMware vSphere 4.1(502767), Windows 2008 R2 SP1 редакции Standard и Enterprise.

Используемое виртуальное железо стандартно, за исключением дискового контроллера (PVSCSI) и сетевого адаптера (VMXNET3).
Также имеет смысл применять на шаблонах настройки, которые было бы неплохо включать:
– включить CPU/Memory Hot Add (по умолчанию выключен);
– параметры VMX, например, для большей безопасности виртуальной машины (запрет отключения сети и т.п.);
– замена драйверов видеокарты на VMware SVGA 3D (для быстрой работы мыши в консоли);
– и т.д.

Continue reading “Настраиваем шаблоны виртуальных машин для VMware vSphere”

Немного про WWN

До недавнего времени я был уверен, что WWN в Windows можно узнать только через спец.утилиты вендоров (Qlogic, Emulex, …).

Но вчерашнее гугление подсказало более универсальный путь – утилиту FCInfo.

Утилита совместима с версиями MS Windows 2000 SP4 и позднее (проверена на Windows 2008 R2 SP1).

Поддерживаются следующие железки:

A Fibre Channel Storport miniport or SCSIport miniport that supports the HBAAPI (from QLogic, Emulex, LSI)
—> EMULEX SUPPORTED ADAPTERS (using either EMULEX Storport Miniport v1.03 (or later) or SCSIport Miniport v5.10a10 (or later): LP8000; LP8000DC; LP850; LP9002L; LP9002DC; LP9402DC; LP952L; LP9802; LP9802DC; LP982; LP10000; LP10000DC; LP1050; LP1050DC; LP10000Ex; LP101;
—> LSI Logic Corp supported adapters (using STORPORT miniport driver 1.20.01.09 or above): LSI40919H, LSI40919LH, LSI40919O, LSI40919LO, LSI44929H, LSI44929LH, LSI44929O, LSI44929LO, LSI7102XP-LC, LSI7202XP-LC and LSI7402XP-LC
—> QLOGIC SUPPORTED ADAPTERS (Using driver version 8.2.3.x or 9.x.x.x or above): QLA2300; QLA2340; QLA2342; QLA2344; QLE2360; QLE2362; HP QLA2340; IBM HS20; HP QLA2342; HP QLA2312; Intel SBFCM-2312; QMC2342; QUANTA-QLA2312; HP QLA2312; HP QLA2312; HP QLA2312; HP A6826