Такая разная доступность

Беседуя с различными людьми, часто встречаешь непонимание разницы в  механизмах высокой доступности, предоставляемой службами кластера MS и средами виртуализации. Точно такие люди встречаются и с известными ИТ-гуру, в частности, Scott Lowe, который написал небольшую статейку о различиях HA.

Приведу краткий пересказ:

С выходом VMware vSphere 4  в этом году, компания VMware представила технологию  VMware Fault Tolerance (VMware FT) – новый механизм, предоставляющий экстремально высокий уровень доступности виртуальных машин. Разговоры с заказчиками, показали мне растущее количество клиентов, которые не понимают разницы в типах высокой доступности, которые даёт VMware(HA и FT) и кластеризация на уровне операционной системы (например, Microsoft Windows Failover Clustering). Хотя, оба типа технологий предназначены для увеличения доступности и уменьшения простоев, они отличны и предоставляют различный уровень функциональности.
Рассмотрим различия:

  • VMware HA защищает  ESX/ESXi хосты от сбоев, но, по умолчанию, не защищает от сбоев на уровне операционной системы. С другой стороны, кластеры уровня ОС защищают от сбоев ОС. +1 в пользу ОС-кластеров.
  • При использовании VMware HA можно выбрать механизм VM Failure Monitoring и получить некий уровень защиты от сбоев на уровнн ОС, но по-прежнему приложения будут не защищены в отличии от кластеров уровня ОС. +1 в пользу ОС-кластеров.
  • Такие же аргументы применимы и у к VMware FT. VMware FT не защищает от сбоев ОС — крах ОС произойдет одновременно на основной и вторичной виртуальной машине, тоже самое и со сбоями в приложениях. +1 в пользу ОС-кластеров.
  • Вы не сможете переключиться на другую ноду для обновления ОС или применения патчей при использование VMware HA или VMware FT. +1 в пользу ОС-кластеров.
  • Аналогично, вы не сможете переключиться на другую ноду для обновления приложений при использование VMware HA или VMware FT. +1 в пользу ОС-кластеров.
  • Конечно, и технологии VMware имеют преимущества. VMware HA и VMware FT намного проще включить и сконфигурировать, чем кластер уровня ОС. +1 в пользу VMware.
  • VMware HA и VMware FT не требуют поддержки приложений для их защиты. +1 в пользу VMware.
  • Ни VMware HA, ни VMware FT не требуют лицензировать специальные редакции ОС или приложений для использования своих преимуществ. +1 в пользу VMware.
  • VMware HA может выдать большую нагрузку, чем ОС-кластер. +1 в пользу VMware.
  • VMware FT даёт самый высокий уровень доступности по сравнению с существующими кластерными решениями уровня ОС. +1 в пользу VMware.

Заметка не направлена против какой-либо технологии —VMware HA, VMware FT или кластеров уровня ОС, она описывает их достоинства, недостатки, аналогии, различия. Надеюсь, это поможет сделать правильное решение в выборе технологий при разворачивании ЦОД. (Подсказка: Возможно, Вам понадобятся все.)

Интеграция vSphere в системах хранения EMC CLARiiON CX4

С каждым годом поддержка серверной виртуализации в системах хранения данных поднимается на уровень выше: это поддержка общих LUN с актив-актив доступом, thin provisioning, вендорная сертификация.

Компания EMC, в структуру которой входит VMware, решила интегрировать поддержку хранилищ виртуальных машин в интерфейс самого хранилища. Это выразилось в создании новой версии операционной системы Flare 29 для EMC CLARiiON CX4.

В интерфейсе хранилища Navisphere теперь вы можете увидеть:

Свойства подключенного хоста

attached_esx

“Подмапленные” LUN

mapping_lun

Виртуальные машины(!)

host_vm

Хранилища виртуальных машин (RDM или VMFS, размещение файлов, тонкие или толстые, ёмкость)

vm_lun

Если с выходом “четверки” мы получили управление хранилищами на стороне хоста, то теперь получаем управление хранением на уровне виртуальных машин на стороне хранилища.

Подробнее тут.

Сравнение гипервизоров от Microsoft

На сайте Microsoft выложили “отличное” сравнение VMware vSphere 4 и Hyper-V R2. Посмотреть советую всем, не забыв про скепсис, тем более, что всё на русском языке.
Первое сравнение – “Преимущества решений Microsoft перед VMware“, учитываем, что сравниваются функции, которые есть в наборе продуктов Microsoft System Center, а функции, которые есть в Vmware, но нет у MS, вежливо опущены. Плюс Quick Storage Migration работает с прерыванием доступности виртуальной машины.

Второе сравнение – “Решения Microsoft дешевле, чем VMware”  рассматривает продукты с точки зрения цены. Про функционал смотрите замечания выше, по цене предлагаю посчитать сами, так как часть затрат не учитывается и подсчет не очень прозрачен.

Подключение локального диска через RDM

Филипп Зыков делится с нашими читателями, как физический диск на железе сервера превратить в RDM на vSphere:

Время от времени, особо упрямые и несогласные с предложенным функционалом Vsphere  VCenter  хотят вытворить что-то такое. А, потом, пишут про это статьи…

Итак, предыстория:

Я решил сделать супермегабюджетное решение в филиале. Там обитает админ, которого подпускать к серверам нельзя. Да, именно. Он не портит и не ломает, но придумывает такие кривые решения, что потом «нормальные» админы готовы ехать туда, чтобы обрушить на его голову свой праведный гнев. Так вот, для реализации «решения» есть DELL NF500 с 2 процами, 4Гб ОЗУ и RAID 5 2,7 Тб. Это вообще-то iSCSI-хранилище на Windows Server  2003. Нам для реализации кое-каких решений нужно завести 3 сервера Windows 2008R2. Железо покупать нельзя по целому ряду объективных и субъективных причин. Поэтому встал вопрос – как это организовать?  Поставили ESX 4.0 и встал вопрос разметки встроенного RAID. Подумав, отдали 700Гб под VM, а вот остальное решили сделать RDM*. Но через графический интерфейс Vsphere  VCenter  этого сделать нельзя, только на SAN можно делать RDM.

Прим.*:Да, пользовательские данные я храню на RDM. Vmdk я уже стирал, они у нас бились, мы долго ругались и решили что RDM это наш выбор. Бэкапить нам 2 Тб нам некуда, железа-то нет, и не будет.

Поиск решения дал ссылку на решение, которое работает в ESX 3.5.

Опытным путем было установлено, что для ESX 4.0 данные рекомендации будут выглядеть так:

  1. Создаем для VM новый диск, после этого данный диск Remove без удаления, чтобы получить vmdk-файл/заготовку для конвертации! Диск можно создавать с параметрами по умолчанию. Какие они – не важно.
  2. Открываем Putty, чтобы в  консоли написать немного команд.
  3. Смотрим  разделы  fdisk –l , находим нужный нам раздел из которого надо сделать RDM (можно опознать по размеру).
  4. Вычисляем его имя (naa.xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx) через  esxcfg-scsidevs -c
  5. После этого в консоли вводим команду vmkfstools -i  -d , которая делает конвертацию vmdk-файла.

Синтаксис ее такой : vmkfstools i [Путь к vmdk –файл ] –d rdm:/vmfs/devices/disks/naa.xxxxxxxxxxxxxxxxxxxxx  [vmdk-файл]

Пример: [root@dell-nf500 Arizona]# vmkfstools -i /vmfs/volumes/Local_Servers_VM/Arizona/Arizona_1.vmdk -d rdm:/vmfs/devices/disks/naa.60022190bd135e001238f9a43a44a6d8 Local_RDM.vmdk

Таким образом мы конвертируем любой vmdk-файл в RDM.

  1. После этого подключаем полученный vmdk через VC-клиент к VM и делаем с ним то, что считаем нужным.

rdm

Итак, на самом деле, это не совсем «кошер» и тянет на “грязный хак”, по меркам Vmware, но работает так как архитектура позволяет и допускает!

UPD. В комментариях Валерий Цуканов подсказывает другой работающий способ.

1. Создал из GUI обычный диск
2. Отцепил его от виртуальной машины
3. Выгнал “fdisk -l” и “ls -lh /vmfs/devices/disks/”
4. Открыл VMDK на редактирование, привел к следующему виду
————————————————————————-
# Disk DescriptorFile
version=1
encoding=”UTF-8″
CID=2fcb88a8
parentCID=ffffffff
createType=”vmfsRaw” <- новое значение

# Extent description
RW 3891167910 VMFSRAW “/vmfs/devices/disks/mpx.vmhba0:C0:T1:L0″ <- цифру брал из fdisk (Sec*Cyl*Head), путь из ls -lh

# The Disk Data Base
#DDB

ddb.longContentID = “31425c71cef152041d4c84452fcb88a8″
ddb.adapterType = “lsilogic” <- на buslogic не оживало
ddb.geometry.sectors = “63″ <- из fdisk
ddb.geometry.heads = “255″ <- из fdisk
ddb.geometry.cylinders = “242214″ <- из fdisk
ddb.virtualHWVersion = “7″
————————————————————————-
5. Подключил к vm, отформатировал, ошибок нет.

Виртуализируем средний бизнес в кризис

Во время работы по проекту и по его окончанию к нам в гости приезжали наши хорошие друзья, заинтересованные в виртуализации своей серверной фермы. К сожалению, к началу кризиса успели закупить только хранилище IBM DS 3400, 2 оптических коммутатора и HBA-карты на 3-4 сервера. Изначально сторадж планировался под размещение тяжёлых приложений – SQL, почта. Так как вопрос нужно было решать срочно, то данные приложения были спешно перенесены, а о применении виртуализации окончательное решение принято не было. Но, небольшой запас места был зарезервирован под тестирование гипервизоров. Continue reading “Виртуализируем средний бизнес в кризис”

Впечатления от Vizioncore Optimizer WasteFinder

Филипп Зыков делится своими впечатлениями от продукта Vizioncore Optimizer WasteFinder с нашими читателями:

Отчетность, отчетность, отчетность
Нормальная есть у меня
По дискам, по дискам, по дискам,
Которые пользую я!!!

Пообщавшись с Vizioncore Optimizer WasteFinder 2 часа, озвучу свои замечания:

1. В free версии всего можно сделать 2 оптимизации, а потом нужно покупать платную версию.  Данные оптимизации, в принципе, для vSphere не очень-то и нужны, в ней при миграции можно решить проблему «свободного места» или использовать vmkfstools (читайте “Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4“).

Странно, а им [маркетологам Vizioncore] не приходило в голову, что функцию вечного триала функции оптимизации можно реализовать через снапшоты? Ну, в крайнем случае, пострадает карма пользователя и то не сильно, пользование ненужной функции не нанесёт ей сильного ущерба. 😉

2. Функция VMFS Alignment 64k может и нужная, но не актуальная, если вы работаете через vSphere VCenter, детали на эту тему можно прочитать тут – VMFS Alignment.

alignment_info

3. Интерфейс жуткий – кривой и неудобный, местами нелогичный.

main_interface

Видно, что писалось зачем-то с нуля без использования стандартных WinAPI. Подозреваю, что  java-developers старались. Смотрим скриншоты и пугаемся. На ночь не смотреть 😉

test_optimization_project

4. Я пугливый и оптимайзинг с отключением VM в рабочее время меня кошмарит своими последствиями.

test_job

5. Не предупреждает про нехватку места, просто молча выдает отчет см. скриншот и останавливает VM, а подключиться не может и VM обратно не включает.

report_optimization

6. Если бы эту программу, да сделать плугином вицентра, то желать лучшего и не надо. Родная уж больна не информативна на тему – «куда, блин, стока места делось»?

Но, отчетность, господа, отчетность – совершенство в лаконичном содержании.

space_info

Ставить только из-за нее. Однозначный must have.

report

P.S. Быстро нашел при помощи нее задачек админам, а перед этим с фактами и цифрами прочитаю лекцию про планирование хранилища и стоимость новых полок, бюджет, жадность&глупость, thin-диски, умственные способности и т.д.

Пятьдесят семь RDM

Филипп Зыков aka philzy делится с нашими читателями опытом:

По целому ряду причин, а точнее из-за особенностей организации хранения данных пользователей потребовалось поэкпериментировать с массовым подключением RDM в MSCS кластере . Чтобы прекратить все вопросы почему так – отвечаю. У нас есть такое понятие как диск подразделения («исторически так сложилось»), оно реализуется через подключение сетевых дисков на рабочих станциях, которые смотрят в DFS. Для поддержания порядка в расходе дискового пространства первое время пользовались квотированием, но пользователи скандалили, так как свободное место показывалось некорректно. Поэтому соорудили систему с диким количеством LUN .
Всего было 46 LUN на EMC CX3-40F выбрано для эксперимента по их подключению.
При подключении 31 LUN начиналась череда дивных «глюков» связанных с вылетами по таймауту при запуске такой VM, проблемы с невозможностью сохранить конфигурацию VM.
Чтение документации от Vmware ничего не проясняло, кроме одного маленького упоминания о том, что кворумный диск лучше подключать на SCSI-адрес 1:1. О причинах и ограничениях там мило умолчали, предоставив пользователям строить догадки на эту тему. Методом научного тыка поиска было обнаружено, что адреса контроллеров 1:0, 2:0, 3:0 не пригодны для работы с RDM при количестве более 30 шт. При переходе границы этого числа ничего не работало, совсем и никак.

57rdmТаким образом, методом нехитрого сложения показаний выясняется, что ограничение на 60 дисков на одну VM это не так, в случае RDM, это всего лишь 57.
Еще одной дивной особенностью оказалось их подключение через VI-клиент. На подобную операцию уходит примерно 1,5-2 часа из-за абсолютно неудачного интерфейса. Почему нельзя было сделать множественный выбор? Непонятно. Скриптами не пользовались принципиально, так как на написание нужно было потрать кучу времени, а это была разовая операция. Ну, так казалось в начале эксперимента.
Таким образом, подобная VM с 46 RDM «взлетает» за 3 минуты, а останавливается за 5 мин. Работа такой VM в кластере особых вопросов не вызывает.
По-поводу RDM и чем они лучше VMDK узнал на собственной шкуре. Случайно удаленный vmdk-файл в Vsphere восстановить нельзя. Про бэкапы я более чем в курсе, но не будешь же экспериментальные VM бэкапить постоянно.

Рекламный ролик

Придумал сценарий для рекламного ролика в стиле mockumentary.

Показывают запись с видеокамеры в серверной с счетчиком времени, залетает чел – одет в  свитер, джинсы, кроссовки.
С воплями “Я вас ненавижу!” начинает рвать провода у серверов. Экран делится пополам на второй половине показывают экран системы мониторинга, которая кажет потерю коннекта к части сервисов.
В серверную врываются охранники и крутят чела.
Параллельно в системе мониторинга начинают появляться коннекты к сервисам.
Все индикаторы становятся зелёными.
По счетчику времени проходит полторы-две минуты.
Появляется надпись “А у вас завиртуализированы сервера?”

Вышли новые продукты от VMware

Сегодня вышло целых три новых продукта от компании VMware:

  • VMware vCenter Lab Manager 4.0 – ПО для автоматизации виртуальных лабораторий, заметки о релизе
  • VMware vCenter Chargeback 1.0 – ПО для подсчет возрата инвестиций ;), заметки о релизе
  • VMware vCenter AppSpeed 1.0 – ПО по управлению производительностью приложений внутри виртуальных машин, заметки о релизе