Пятьдесят семь RDM

Филипп Зыков aka philzy делится с нашими читателями опытом:

По целому ряду причин, а точнее из-за особенностей организации хранения данных пользователей потребовалось поэкпериментировать с массовым подключением RDM в MSCS кластере . Чтобы прекратить все вопросы почему так – отвечаю. У нас есть такое понятие как диск подразделения («исторически так сложилось»), оно реализуется через подключение сетевых дисков на рабочих станциях, которые смотрят в DFS. Для поддержания порядка в расходе дискового пространства первое время пользовались квотированием, но пользователи скандалили, так как свободное место показывалось некорректно. Поэтому соорудили систему с диким количеством LUN .
Всего было 46 LUN на EMC CX3-40F выбрано для эксперимента по их подключению.
При подключении 31 LUN начиналась череда дивных «глюков» связанных с вылетами по таймауту при запуске такой VM, проблемы с невозможностью сохранить конфигурацию VM.
Чтение документации от Vmware ничего не проясняло, кроме одного маленького упоминания о том, что кворумный диск лучше подключать на SCSI-адрес 1:1. О причинах и ограничениях там мило умолчали, предоставив пользователям строить догадки на эту тему. Методом научного тыка поиска было обнаружено, что адреса контроллеров 1:0, 2:0, 3:0 не пригодны для работы с RDM при количестве более 30 шт. При переходе границы этого числа ничего не работало, совсем и никак.

57rdmТаким образом, методом нехитрого сложения показаний выясняется, что ограничение на 60 дисков на одну VM это не так, в случае RDM, это всего лишь 57.
Еще одной дивной особенностью оказалось их подключение через VI-клиент. На подобную операцию уходит примерно 1,5-2 часа из-за абсолютно неудачного интерфейса. Почему нельзя было сделать множественный выбор? Непонятно. Скриптами не пользовались принципиально, так как на написание нужно было потрать кучу времени, а это была разовая операция. Ну, так казалось в начале эксперимента.
Таким образом, подобная VM с 46 RDM «взлетает» за 3 минуты, а останавливается за 5 мин. Работа такой VM в кластере особых вопросов не вызывает.
По-поводу RDM и чем они лучше VMDK узнал на собственной шкуре. Случайно удаленный vmdk-файл в Vsphere восстановить нельзя. Про бэкапы я более чем в курсе, но не будешь же экспериментальные VM бэкапить постоянно.

Рекламный ролик

Придумал сценарий для рекламного ролика в стиле mockumentary.

Показывают запись с видеокамеры в серверной с счетчиком времени, залетает чел – одет в  свитер, джинсы, кроссовки.
С воплями “Я вас ненавижу!” начинает рвать провода у серверов. Экран делится пополам на второй половине показывают экран системы мониторинга, которая кажет потерю коннекта к части сервисов.
В серверную врываются охранники и крутят чела.
Параллельно в системе мониторинга начинают появляться коннекты к сервисам.
Все индикаторы становятся зелёными.
По счетчику времени проходит полторы-две минуты.
Появляется надпись “А у вас завиртуализированы сервера?”

Вышли новые продукты от VMware

Сегодня вышло целых три новых продукта от компании VMware:

  • VMware vCenter Lab Manager 4.0 – ПО для автоматизации виртуальных лабораторий, заметки о релизе
  • VMware vCenter Chargeback 1.0 – ПО для подсчет возрата инвестиций ;), заметки о релизе
  • VMware vCenter AppSpeed 1.0 – ПО по управлению производительностью приложений внутри виртуальных машин, заметки о релизе

Установка EMC Storage Viewer для vSphere

Большой друг нашего блога philzy, описал свой опыт установки EMC Storage Viewer 2.0 для vSphere Client. В продактиве используется блейд-шасси Dell M1000e и хранилище EMC CX3-40, на котором нарезано свыше 90 LUN, коими ему очень хочется управлять. Его инструкция: Continue reading “Установка EMC Storage Viewer для vSphere”

Dell’ный ESXi 4

Вышел полный комплект ESXi 4 для серверов Dell.

Качаем:

Вышел Citrix Essentials для Hyper-V

Вышла Express редакция Citrix Essentials для Hyper-V позволяющая управлять двумя хостами, подробности. Основной бесплатной функцией является технология управления хранилищами StorageLink с ограничением на одно хранилище.