Лицензирование Oracle под VMware vSphere

Доля тяжёлых RISC-системы падает (из RISC-овых архитектур растёт только ARM), а вот x86 занимает всё больше ниш, в том числе с такими ресурсоёмкими приложениями, как Oracle DB.

На данный момент  у меня Oracle DB работает на серверах с архитектурой IBM Power7. Данная платформа имеет отличную фишку по экономии средств на лицензирование СУБД за счет использования hard partitioning в соответствии с Oracle Partitioning Policy. При создании виртуальной машины (LPAR) в IBM PowerVM достаточно указать, что процессоры “выделенные” (Dedicated), не разрешать живую миграцию (Live Partition Mobility) и спокойно можно использовать 10 лицензий на 16 ядерном сервере.

А вот на плаформе x86 с политикой лицензирования Oracle полная каша. Возникает вопрос в определении  – что используется в текущий момент soft или hard partitioning? Ответ не так прост, так как всё зависит от настроек.

Честный hard partioning на платформе x86

Вариантов мне известно два:

  • Использование серверов Fujitsu или Hitachi с функцией logical partitioning.
  • Отключить процессор в BIOS/UEFI.

Hard partioning на платформе x86 для своих

Использование CPU Affinity в Oracle VM. Также рекомендую статью Hard and Soft Partitioning with Oracle VM.

Для Microsoft Azure разрешена license mobility.

Альтернативное лицензирование

Специальная политика лицензирования для облачных провайдеров.

Как превратить soft partitioning в hard при использовании VMware vSphere?

VMware выпускает специальный документ Understanding Oracle Certification, Support and Licensing for VMware Environments, который даёт ответ, что использованиие CPU Affinity по аналогии с Oracle VM позволяет лицензировать под Oracle DB только используемые ядра.
Юридическая сторона вопрос разобрана специалистами компании House of Brick Technologies, занимающейся аудитом использования лицензий, в статье Oracle Licensing: Soft Partitioning on VMware is Your Contractual Right.

Вывод

Для легального использования лицензий Oracle DB по количеству используемых ядер в виртуальной среде VMware vSphere необходимо:

  • отключить применение технологий vMotion, DPM, DRS для виртуальных машин с Oracle DB;
  • назначить посредством CPU Affinity необходимое количество ядер виртуальной машине, при включенном HT – можно добавлять допольнительно нечётные ядра;
  • в случае аудита лицензий, должна быть возможность трекинга перемещений виртуальной машины, что можно выполнить в vSphere без особых проблем.

На первый взгляд, кажется, что после прочтения всей этой кучи документов вопросов не осталось. Как бы не так….

Осталась ещё одна функия – HA, с точки зрения использования Oracle VM нет прямого запрета в документах Oracle использовать данный функционал и он разрешен, а вот VMware считает это перемещением виртуальной машины и советует отключать.

Если же под ногами денег куры не клюют и очень хочется использовать механизмы автоматического размещения и миграции виртуальных машин, то необходимо лицензировать все ядра на всех хостах, где может оказаться  Oracle DB.

Вышел Cisco Nexus 1000V для VMware vSphere 6.0

Для тех, кто планирует переходить на VMware vSphere 6.0 могут отметить для себя выход распределенного коммутатора Cisco Nexus 1000V. Из нового заявлена только поддержка данной платформы.

Заметки о релизе.

Скачать.

Из нужных мне компонентов жду Veeam Backup & Replication 8.0 Patch 2, после этого можно начинать миграцию.

Установка VMware ESXi 5.5 на хост с менее 4 ГБ ОЗУ

Начиная с версии 5.5 VMware ESXi требует 4 ГБ ОЗУ для установки, что бывает существенно для старых серверов и домашних лабораторий.

Я же захотел обновить ESXi 5.1 до версии 5.5 у нашего героя из предыдущей истории VMware ESXi и Realtek 8168/8169/8111 – HP DL360 G5.

Во время ошибки “MEMORY_SIZE ERROR” жмем ALT+F1, заходим под root без пароля. Выполняем следующие действия:

Ищем строку с текстом MEM_MIN_SIZE  и расчетом 4*1024. У меня это была 1105 строка. Заменяем 4 на 2 либо 1 и сохраняем.

( это будет python PID )

После этого инсталлятор перезапустится.

Другие инструкции на английском с пояснениями:

how to: Installing ESXi 5.5 on less than 2GB RAM

ESXi 5.5 – Installing with less than 4Gib RAM. (ESX MEMORY_SIZE ERROR during install)

VMware ESXi и Realtek 8168/8169/8111

Есть у меня хост IBM x236 с гипервизором 4.1U3. А так как я парень-то на VMware (про-)двинутый, то планирую перейти на vSphere 6.0. А vCenter 6.0 поддерживает только ESXi 5.0+ и перспективы упереться в данный хост не радуют. Серверов у меня рэковых практически нет, а в этом замечательном сервере аж 4 сетевухи, смотрящие в интернеты, DMZ, локалку.

Поиск в амбарах дал результат в виде сервера HP DL360 G5, вот только в старом сервере пару сетевых портов обеспечивала карта формата PCI-X, слотов под который в новом нет.

Опросив своих коллег и пару дружественных организаций, смог найти аж 2 сетевых карты на одинаковом чипсете Realtek 8168E – TP-LINK TG-3468 и D-Link DGE-560T.

Поиск в интернете подсказал, что данный чипсет поддерживается с горем пополам только на ESXi 5.1.

К сожалению,  D-Link DGE-560T запустить мне не удалось, а вот  TP-LINK TG-3468 запустился сразу.

В версии ESXi 5.5 поддержка снова отсутствует, поэтому, в случае крайней необходимости,  советую поставить драйвер самостоятельно:

  • Качаем последнюю версию драйвера, поддерживаемого коммунити –  net-r8168-8.036. Также различные драйверы для неподдерживаемых устройств есть тут.
  • Распаковываем из него net-r8168-8.036.00-1.x86_64.vib .
  • Заливаем на хост через SCP в папку /tmp .
  • Заходим по SSH.
  • Проверяем список установленных VIB:
  • Разрешаем установку пользовательских драйверов:
  • Устанавливаем драйвер:
  • Перезагружаем хост.

Cisco Nexus 1000v для VMware vSphere 6.0 быть!

Многие читатели нашего бложика читают и другие бложики, которые распространяют нехорошие слухи. Erik Scholten с очень известного сайта www.vmguru.com в статье What’s new in vSphere 6 Networking пишет:

Another major change in vSphere 6 on the networking side is the support for third party switches or rather the disappearance on it.

Huh? What did he just say? Did I hear that right? You’re surprised?

I’ll say it again. In short, vSphere 6 no longer supports third party (distributed) switches like the Cisco Nexus 1000V.

As of vSphere 6 VMware does not allow third parties (Cisco) access to their kernel. There’s no official statement yet but I would not be surprised if this is due to the battle with Cisco in the SDN space. Not allowing access prevents Cisco from using the Nexus 1000V which in turn prevents them from SDN control using ACI.

Что меня как пользователя данного продукта от Cisco изрядно напрягло. Спешу опровергнуть данный слух официальным прессрелизом от Cisco:

Announcing Cisco Nexus 1000V for VMware vSphere 6 Release

Разница только в том, что сейчас распространяться и поддерживаться Cisco Nexus 1000v будет по каналу Cisco, а не VMware:

One of the common questions coming from our customers is whether VMware is still re-selling and supporting the Nexus 1000V via VMware support?

VMware has decided to no longer offer Nexus 1000V through VMware sales or sell support for the Nexus 1000V through the VMware support organization as of Feb 2nd 2015. We want to reiterate that this has NO IMPACT on the availability and associated support from Cisco for the Nexus 1000V running in a vSphere environment. Cisco will continue to sell Nexus 1000V and offer support contracts. Cisco encourages customers who are currently using VMware support for the Nexus 1000V to migrate their support contracts to Cisco by contacting their local Cisco Sales team to aide in this transition.

Обновление. Эрик, прочитав нашу заметку, изменил свою статью и отчитался в комментариях.

IBM Storwize/SVC vs EMC VNX 2TB LUN

У компании IBM есть отличная линейка систем хранения Storwize/SVC. Одной из функций которой является виртуализатор разделов чужих систем хранения. К сожалению, владельцы EMC VNX страдали одним досадным нюансом – с данных систем нельзя было подключить раздел размером свыше 2 TB.

Одним коллегам даже пришлось уйти на EMC VPLEX из-за этой несуразности.

Недавно это недоразумение было устранено. С версии 7.3.0.5 виртуализаторы Storwize/SVC стали поддерживать разделы свыше 2 TB для следующих систем хранения:

  • EMC VNX 5100, 5300, 5500, 5700, 7500, 5200, 5400, 5600, 5800, 7600, 8000.
  • EMC VMAX 10k, 20k, 40k.
  • NetApp E5460, E5424, E5412, EF540, E2660, E2624, E2612 (все с версии Storwize/SVC 7.1.0.5), E5560, E5524, E5512, EF550, E2760, E2724, E2712.
  • Xiotech X-IO ISE 200 Series (210, 220, 230, 240).
  • Xiotech X-IO Hyper ISE 7 Series (710, 720, 730, 740).

Вышел Brocade Network Advisor версии 12.3

Вышел Brocade(также известен, как HP, IBM) Network Advisor версии 12.3. Данная утилита предназначена для мониторинга SAN(FC, IP). Позволяет отслеживать нагрузку по портам, определять бутылочные горлышки сети, настраивать зоны, собирать и показывать ошибки.

Чем интересна данная версия?

Во-первых она поддерживает интеграцию в различные платформы виртуализации:

  • VMware vCenter, vCenter Operations Management Suite, and Log Insight;
  • Microsoft System Center Operations Manager and Virtual Machine Manager;
  • OpenStack;
  • EMC ViPR;
  • HP OneView;
  • IBM PowerVC.

Во-вторых, у неё появился веб-интерфейс.bna_web_dashboardВ-третьих, программа стала бесплатной для использования с 2 фабриками до 300 портов на Brocade Fabric OS в редакции SAN Professional, что является типовым для небольших сетей.

ЧаВо.

Качать через сайты “производителей” коммутаторов.

Задание по настройке балансировки Round Robin в VMware vSphere

Мы ранее уже писали о политиках балансировки и о том, как их настроить через скрипт. Но к сожалению, с течением времени часть хостов меняются, хранилища также меняются на другие и актуальность этих настроек может быть потеряна.

К примеру, я точно помню, что настраивал Round Robin для своего кластера и своей СХД HP EVA пару лет назад.

Однако, текущий вывод скрипта по балансировке показывает, что это далеко не так:

Get-Cluster cluster| Get-VMHost | Get-ScsiLun -LunType disk | group multipathpolicy

Continue reading “Задание по настройке балансировки Round Robin в VMware vSphere”

Обновление Digi AnywhereUSB/14

Самое популярное решение для проброса USB-ключей в виртуальные машины Digi AnywhereUSB/14 получило новую прошивку версии 1.70 (лог изменений).

В данной версии появилась ключевая функция Dynamic Group Assignment(DGA). Она позволяет менять привязку USB-ключей к группам на лету без необходимости перезагружать USB-коммутатор, что приводило к отключению всех других ключей.
Digi_DGA
Всем владельцам данного устройства рекомендую обновиться.

Скачать с Digi.

PowerVM Virtualization Performance Advisor

На прошлой неделе мы рассмотрели несколько анализаторов для компонентов инфраструктуры IBM PowerVM.

Сегодня на повестке дня наиболее комплексный и современный – PowerVM Virtualization Performance Advisor.

Данная утилита ставится на один из LPAR, подключается к HMC и анализирует настройки и производительность LPAR либо хоста в целом.

Для работы программы должны быть выполненые следующие требования:

  • должен быть установлен SSH;
  • на каждом LPAR стоит галка “Allow performance information collection”;
  • на каждом LPAR запущена служба xmtopas:
    проверяем запуском

    если среди запущенных нет, то проверяем /etc/inetd.conf – не закомментирована ли служба, убираем комментарий и делаем:

    либо запускаем службу командой

Для установки и предварительной настройки также надо выполнить ряд действий

Распаковать дистрибутив утилиты локально и в LPAR

И произвести обмен SSH-ключами между LPAR и HMC в целях отказа от ввода пароля при подсоединии

В моей инфраструктуре данный настройщик не работает, но можно эту настройку выполнить вручную по этой инструкции. Мне же пришлось многократно повторять пароль к HMC во время работы утилиты.

Утилита работает в двух режимах: анализ системы – хоста, анализ LPAR.

Для запуска в режиме анализа системы понадобится список систем из HMC:

Запуск осуществляется командой из распакованного каталога vpa:

В результате через 60 минут получим virt_pa_output.xml, который копируем в локальную папку vpa и там открываем браузером:vpa_sysДля запуска в режиме анализа системы понадобится LPAR SYSTEMID:

Запуск осуществляется командой из распакованного каталога vpa:

В результате через 30 минут получим virt_pa_output.xml, который копируем в локальную папку vpa и там открываем браузером:vpa_lpar