Развенчиваем мифы о VMware, или о RDM, CBT, ResPools and PVSCSI

vKernel прислал ссылку на документ, развенчивающий четыре мифа о vSphere:

– о том, что RDM быстрее, чем VMFS;

– о том, что Change Block Tracking тормозит виртуальные машины;

– о том, что Resource Pool спасет ваши виртуальные машины от нехватки ресурсов;

– и о том, что LSI Logic SCSI лучше, чем PVSCSI.

RDM vs VMFS

Корни предположения о том, что RDM быстрее, основаны на простом факте: VMFS предоставляет собой еще один слой инкапсуляции данных. Но так как VMFS при этом “практически” не осуществляет дополнительных операций, VMware удалось достичь практически такой же производительности, как у physical RDM. Конечно, тут есть свои подводные камни вроде SCSI Reservations/Conflicts и их решение в виде VAAI&ATS. Но в целом, толстый_обнуленный (eagerzeroed) VMDK выдает столько же операций ввода вывода, что и RDM.

Основные причины предпочесть RDM (physical) – это:

– использование функционала СХД при работе с данными (снапшоты, репликация);

– желание использовать более двух терабайт на дисковое устройство (в vSphere 5);

– ограничения виртуализуемого приложения, например, MS Cluster Services;

– нет небольшого перерасхода (overhead) на файловую систему VMFS.

Основные причины выбрать VMDK:

– Storage I/O Control;

– Storage DRS/Storage vMotion;

– поддержка Change Block Tracking;

– возможность использования снапшотов (снимков) виртуальных машин.

Медленный CBT

CBT – это специальный драйвер, который отслеживает изменения блоков диска виртуальной машины. Данная технология очень удобна для резервного копирования (в первую очередь инкрементального), так как позволяет более быстро находить изменившуюся информацию с момента последней резервной копии. Некоторые средства резервного копирования обещают использование CBT также и для восстановления виртуальной машины из резервной копии.

CBT требует выполнения следующих условий:

– версия хоста не ниже vSphere 4;

– версия виртуального оборудования ВМ не ниже v7 (седьмой версии);

– CBT должен быть “вручную” включен на виртуальной машине;

– CBT работает только поверх механизма VMKernel. Соответственно, он работает для VMFS, NFS и virtual RDM.

Автору статьи удалось выяснить, чем CBT нагружает виртуальную инфраструктуру:

– процессор переключает бит после выполнения операции ввода/вывода;

– в памяти занято 1,25КБ на каждые 10Гб места. Максимум, используется 256КБ для 2ТБ VMDK;

– на хранилище используется 512КБ для 10ГБ VMDK.

В общем, CBT не создает большой нагрузки.

Использование Resource Pool

С момента появления пулов ресурсов вы могли их использовать для категоризации вычислительных ресурсов. Дескать, вот 4ГГц для продуктивных ВМ и 2ГГц для тестовых.

Подводный камень тут следующий:

ВМ из третьего пула ресурсов при конкуренции смогут использовать не более 0,5ГГц.

Правда, решение есть: вы можете использовать резервирование ресурсов на пуле: например, зарезервировав по 10ГГц на продуктивные пулы ресурсов. В этом случае при необходимости продуктивные виртуальные машины смогут получить уже не 6ГГц, а 10.

С резервированием памяти на пул ресурсов все так же обстоит гораздо приятнее, чем с резервированием памяти на отдельную виртуальную машину:

– при резервировании памяти виртуальной машины, если память была затребована (а потом не использовалась), например, при старте MS Windows Server, то эта память недоступна другим виртуальным машинам;

– при резервировании памяти пулу ресурсов этот резерв может использоваться разными виртуальными машинами из пула.

LSI Logic SCSCI всегда лучше, чем PVSCSI

На чем основан данный миф я вообще не понимаю. VMware изначально добавляло PVSCSI для того, чтобы получить с его помощью лучшие результаты для тяжелых нагрузок. Причем эти результаты были лучше и с точки зрения количества IOPS, и с точки зрения “паразитной” нагрузки на процессор хоста.

В vSphere 4.0, когда адаптер появился, его не рекомендовали использовать для загрузочных томов и для томов со слабой нагрузкой. Вроде как генерировалась “паразитная” нагрузка то ли на процессор, то ли на СХД.

С тех пор много воды утекло и лет прошло. Данная проблема решена, PVSCSI можно использовать везде.

Запись опубликована в рубрике 4.1, 5.0, vSphere с метками , . Добавьте в закладки постоянную ссылку.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *