Veeam B&R v8, v9 и HP StoreOnce

Сегодня я хочу рассказать две вещи про Вим.

1) В этом году компания Veeam обещает выпустить девятую версию своего флагманского продукта – Backup and Replication. Больше всего из заявленного функционала мне нравится запись на ленты в несколько приводов и консоль администрирования сервера. Я тестировал запись на свои ленты в v7 и v8 – скорость записи на один привод удручает. 🙁

А если бы Вим научился работать с лентами напрямую, минуя жесткий диск, то и мечтать о большем было бы не нужно. Я, конечно, понимаю, что у всех разные ситуации, но у меня ситуация такая, что есть много терабайт в VTL или MSL и немного терабайт на СХД. И мне как раз актуальнее система резервного копирования, которая умеет работать с лентами напрямую. Прямо сейчас это освободило бы мне десяток терабайт…

2) А еще я протестировал работу механизма Backup Copy в Veeam Backup and Replication v8, призванного реализовать схему GFS (дед, отец, сын) для резервного копирования.

Смысл этого механизма в том, чтобы на регулярной основе “откладывать” в сторону недельные, месячные, квартальные и годовые резервные копии на другое хранилище.

В отличие от обычного бэкапа на ленту (Backup to Tape) – это обыкновенный бэкап, который вы спокойно можете использовать для восстановления данных.

Мне интересно было проверить работу этой схемы, после постановки задачи по наличию месячных резервных копий за последние полгода. Чтобы не заниматься долгим процессом восстановления (бэкапа с ленты -> почтовых баз Exchange из бэкапа -> Clean Shutdown -> восстановления информации из базы в пользовательский ящик) я решил посмотреть – получится ли у меня отложить месячную резервную копию и использовать ее в Veeam Explorer for Exchange.

В качестве репозитория была подключена сетевая папка с системы HP StoreOnce 4500 с функционалом дедупликации.

Для повышения эффективности “аппаратной” дедупликации Veeam складывает на папку бэкап в несжатом состоянии. Такой функционал есть при архивации на HP StoreOnce и EMC Data Domain. Это можно заметить, сравнив размер полной резервной копии на StoreOnce и на обычном хранилище. Я же хочу поделиться цифрами по двум месячным резервным копиям для почты и виртуальных машин.

– два бэкапа Exchange. На StoreOnce лежат два файла: 5,7Тб и 4,5Тб. Полная резервная копия и инкремент до следующей месячной копии. Согласно данным в консоли StoreOnce: User Data – 11,3Тб; Data on Disk = 5,2Tb. Одна полная копия Exchange на обычном хранилище (то есть с сжатием и дедупликацией от Veeam) – 5Тб.

– два бэкапа виртуальной инфраструктуры. На StoreOnce лежат два файла: 3,9Тб и 1,5Тб. Аналогично – Full+Incr. Согласно данным в консоли StoreOnce: User Data – 5,9Тб; Data on Disk = 1,7Tb. Одна полная копия инфраструктуры на обычном хранилище – 2,2Тб.

Я считаю, цифры просто фантастичны. HP StoreOnce круче дедуплицирует, чем Veeam 🙂

Лицензирование Oracle под VMware vSphere

Доля тяжёлых RISC-системы падает (из RISC-овых архитектур растёт только ARM), а вот x86 занимает всё больше ниш, в том числе с такими ресурсоёмкими приложениями, как Oracle DB.

На данный момент  у меня Oracle DB работает на серверах с архитектурой IBM Power7. Данная платформа имеет отличную фишку по экономии средств на лицензирование СУБД за счет использования hard partitioning в соответствии с Oracle Partitioning Policy. При создании виртуальной машины (LPAR) в IBM PowerVM достаточно указать, что процессоры “выделенные” (Dedicated), не разрешать живую миграцию (Live Partition Mobility) и спокойно можно использовать 10 лицензий на 16 ядерном сервере.

А вот на плаформе x86 с политикой лицензирования Oracle полная каша. Возникает вопрос в определении  – что используется в текущий момент soft или hard partitioning? Ответ не так прост, так как всё зависит от настроек.

Честный hard partioning на платформе x86

Вариантов мне известно два:

  • Использование серверов Fujitsu или Hitachi с функцией logical partitioning.
  • Отключить процессор в BIOS/UEFI.

Hard partioning на платформе x86 для своих

Использование CPU Affinity в Oracle VM. Также рекомендую статью Hard and Soft Partitioning with Oracle VM.

Для Microsoft Azure разрешена license mobility.

Альтернативное лицензирование

Специальная политика лицензирования для облачных провайдеров.

Как превратить soft partitioning в hard при использовании VMware vSphere?

VMware выпускает специальный документ Understanding Oracle Certification, Support and Licensing for VMware Environments, который даёт ответ, что использованиие CPU Affinity по аналогии с Oracle VM позволяет лицензировать под Oracle DB только используемые ядра.
Юридическая сторона вопрос разобрана специалистами компании House of Brick Technologies, занимающейся аудитом использования лицензий, в статье Oracle Licensing: Soft Partitioning on VMware is Your Contractual Right.

Вывод

Для легального использования лицензий Oracle DB по количеству используемых ядер в виртуальной среде VMware vSphere необходимо:

  • отключить применение технологий vMotion, DPM, DRS для виртуальных машин с Oracle DB;
  • назначить посредством CPU Affinity необходимое количество ядер виртуальной машине, при включенном HT – можно добавлять допольнительно нечётные ядра;
  • в случае аудита лицензий, должна быть возможность трекинга перемещений виртуальной машины, что можно выполнить в vSphere без особых проблем.

На первый взгляд, кажется, что после прочтения всей этой кучи документов вопросов не осталось. Как бы не так….

Осталась ещё одна функия – HA, с точки зрения использования Oracle VM нет прямого запрета в документах Oracle использовать данный функционал и он разрешен, а вот VMware считает это перемещением виртуальной машины и советует отключать.

Если же под ногами денег куры не клюют и очень хочется использовать механизмы автоматического размещения и миграции виртуальных машин, то необходимо лицензировать все ядра на всех хостах, где может оказаться  Oracle DB.

Вышел Cisco Nexus 1000V для VMware vSphere 6.0

Для тех, кто планирует переходить на VMware vSphere 6.0 могут отметить для себя выход распределенного коммутатора Cisco Nexus 1000V. Из нового заявлена только поддержка данной платформы.

Заметки о релизе.

Скачать.

Из нужных мне компонентов жду Veeam Backup & Replication 8.0 Patch 2, после этого можно начинать миграцию.

Установка VMware ESXi 5.5 на хост с менее 4 ГБ ОЗУ

Начиная с версии 5.5 VMware ESXi требует 4 ГБ ОЗУ для установки, что бывает существенно для старых серверов и домашних лабораторий.

Я же захотел обновить ESXi 5.1 до версии 5.5 у нашего героя из предыдущей истории VMware ESXi и Realtek 8168/8169/8111 – HP DL360 G5.

Во время ошибки “MEMORY_SIZE ERROR” жмем ALT+F1, заходим под root без пароля. Выполняем следующие действия:

Ищем строку с текстом MEM_MIN_SIZE  и расчетом 4*1024. У меня это была 1105 строка. Заменяем 4 на 2 либо 1 и сохраняем.

( это будет python PID )

После этого инсталлятор перезапустится.

Другие инструкции на английском с пояснениями:

how to: Installing ESXi 5.5 on less than 2GB RAM

ESXi 5.5 – Installing with less than 4Gib RAM. (ESX MEMORY_SIZE ERROR during install)

VMware ESXi и Realtek 8168/8169/8111

Есть у меня хост IBM x236 с гипервизором 4.1U3. А так как я парень-то на VMware (про-)двинутый, то планирую перейти на vSphere 6.0. А vCenter 6.0 поддерживает только ESXi 5.0+ и перспективы упереться в данный хост не радуют. Серверов у меня рэковых практически нет, а в этом замечательном сервере аж 4 сетевухи, смотрящие в интернеты, DMZ, локалку.

Поиск в амбарах дал результат в виде сервера HP DL360 G5, вот только в старом сервере пару сетевых портов обеспечивала карта формата PCI-X, слотов под который в новом нет.

Опросив своих коллег и пару дружественных организаций, смог найти аж 2 сетевых карты на одинаковом чипсете Realtek 8168E – TP-LINK TG-3468 и D-Link DGE-560T.

Поиск в интернете подсказал, что данный чипсет поддерживается с горем пополам только на ESXi 5.1.

К сожалению,  D-Link DGE-560T запустить мне не удалось, а вот  TP-LINK TG-3468 запустился сразу.

В версии ESXi 5.5 поддержка снова отсутствует, поэтому, в случае крайней необходимости,  советую поставить драйвер самостоятельно:

  • Качаем последнюю версию драйвера, поддерживаемого коммунити –  net-r8168-8.036. Также различные драйверы для неподдерживаемых устройств есть тут.
  • Распаковываем из него net-r8168-8.036.00-1.x86_64.vib .
  • Заливаем на хост через SCP в папку /tmp .
  • Заходим по SSH.
  • Проверяем список установленных VIB:
  • Разрешаем установку пользовательских драйверов:
  • Устанавливаем драйвер:
  • Перезагружаем хост.

Cisco Nexus 1000v для VMware vSphere 6.0 быть!

Многие читатели нашего бложика читают и другие бложики, которые распространяют нехорошие слухи. Erik Scholten с очень известного сайта www.vmguru.com в статье What’s new in vSphere 6 Networking пишет:

Another major change in vSphere 6 on the networking side is the support for third party switches or rather the disappearance on it.

Huh? What did he just say? Did I hear that right? You’re surprised?

I’ll say it again. In short, vSphere 6 no longer supports third party (distributed) switches like the Cisco Nexus 1000V.

As of vSphere 6 VMware does not allow third parties (Cisco) access to their kernel. There’s no official statement yet but I would not be surprised if this is due to the battle with Cisco in the SDN space. Not allowing access prevents Cisco from using the Nexus 1000V which in turn prevents them from SDN control using ACI.

Что меня как пользователя данного продукта от Cisco изрядно напрягло. Спешу опровергнуть данный слух официальным прессрелизом от Cisco:

Announcing Cisco Nexus 1000V for VMware vSphere 6 Release

Разница только в том, что сейчас распространяться и поддерживаться Cisco Nexus 1000v будет по каналу Cisco, а не VMware:

One of the common questions coming from our customers is whether VMware is still re-selling and supporting the Nexus 1000V via VMware support?

VMware has decided to no longer offer Nexus 1000V through VMware sales or sell support for the Nexus 1000V through the VMware support organization as of Feb 2nd 2015. We want to reiterate that this has NO IMPACT on the availability and associated support from Cisco for the Nexus 1000V running in a vSphere environment. Cisco will continue to sell Nexus 1000V and offer support contracts. Cisco encourages customers who are currently using VMware support for the Nexus 1000V to migrate their support contracts to Cisco by contacting their local Cisco Sales team to aide in this transition.

Обновление. Эрик, прочитав нашу заметку, изменил свою статью и отчитался в комментариях.

IBM Storwize/SVC vs EMC VNX 2TB LUN

У компании IBM есть отличная линейка систем хранения Storwize/SVC. Одной из функций которой является виртуализатор разделов чужих систем хранения. К сожалению, владельцы EMC VNX страдали одним досадным нюансом – с данных систем нельзя было подключить раздел размером свыше 2 TB.

Одним коллегам даже пришлось уйти на EMC VPLEX из-за этой несуразности.

Недавно это недоразумение было устранено. С версии 7.3.0.5 виртуализаторы Storwize/SVC стали поддерживать разделы свыше 2 TB для следующих систем хранения:

  • EMC VNX 5100, 5300, 5500, 5700, 7500, 5200, 5400, 5600, 5800, 7600, 8000.
  • EMC VMAX 10k, 20k, 40k.
  • NetApp E5460, E5424, E5412, EF540, E2660, E2624, E2612 (все с версии Storwize/SVC 7.1.0.5), E5560, E5524, E5512, EF550, E2760, E2724, E2712.
  • Xiotech X-IO ISE 200 Series (210, 220, 230, 240).
  • Xiotech X-IO Hyper ISE 7 Series (710, 720, 730, 740).

Вышел Brocade Network Advisor версии 12.3

Вышел Brocade(также известен, как HP, IBM) Network Advisor версии 12.3. Данная утилита предназначена для мониторинга SAN(FC, IP). Позволяет отслеживать нагрузку по портам, определять бутылочные горлышки сети, настраивать зоны, собирать и показывать ошибки.

Чем интересна данная версия?

Во-первых она поддерживает интеграцию в различные платформы виртуализации:

  • VMware vCenter, vCenter Operations Management Suite, and Log Insight;
  • Microsoft System Center Operations Manager and Virtual Machine Manager;
  • OpenStack;
  • EMC ViPR;
  • HP OneView;
  • IBM PowerVC.

Во-вторых, у неё появился веб-интерфейс.bna_web_dashboardВ-третьих, программа стала бесплатной для использования с 2 фабриками до 300 портов на Brocade Fabric OS в редакции SAN Professional, что является типовым для небольших сетей.

ЧаВо.

Качать через сайты “производителей” коммутаторов.

Задание по настройке балансировки Round Robin в VMware vSphere

Мы ранее уже писали о политиках балансировки и о том, как их настроить через скрипт. Но к сожалению, с течением времени часть хостов меняются, хранилища также меняются на другие и актуальность этих настроек может быть потеряна.

К примеру, я точно помню, что настраивал Round Robin для своего кластера и своей СХД HP EVA пару лет назад.

Однако, текущий вывод скрипта по балансировке показывает, что это далеко не так:

Get-Cluster cluster| Get-VMHost | Get-ScsiLun -LunType disk | group multipathpolicy

Continue reading “Задание по настройке балансировки Round Robin в VMware vSphere”

Обновление Digi AnywhereUSB/14

Самое популярное решение для проброса USB-ключей в виртуальные машины Digi AnywhereUSB/14 получило новую прошивку версии 1.70 (лог изменений).

В данной версии появилась ключевая функция Dynamic Group Assignment(DGA). Она позволяет менять привязку USB-ключей к группам на лету без необходимости перезагружать USB-коммутатор, что приводило к отключению всех других ключей.
Digi_DGA
Всем владельцам данного устройства рекомендую обновиться.

Скачать с Digi.