В основу легли статья Duncan Epping’а и What’s New in Performance…
Как вы уже видели, vSphere 5.0 обещает нам гору изменений из разряда “быстрее, дальше, выше”. Данная статья про живую миграцию или про vMotion.
Ключевых нововведений тут три: поддержка vMotion через несколько адаптеров, поддержка Metro-vMotion и Stun During Page Send.
vMotion Multi-NIC
В vSphere 5.0 vMotion может использовать более одного адаптера для ускорения процедуры vMotion. Заявленные ограничения – 16-1Гбит адаптеров или 4-10Гбит.
Изменения коснулись VMKernel, теперь он отвечает за балансировку нагрузки vMotion. Даже если вы осуществляете один vMotion, он будет сбалансирован.
На следующем рисунке демонстрируется уменьшение времени миграции. Мигрируется одна или две виртуальная машина с 4 vCPU, 16GB RAM, внутри которой MS SQL. В момент миграции виртуальные машины выполняют OLTP-запросы. На хостах используются сетевые адаптеры 10Гбит.
Metro vMotion
Повышена эффективность vMotion на сетях с большими задержками. Поддерживаемый лимит в vSphere 5.0 – 10мс, в 4.1 – 5мс. Есть непроверенная информация, что Metro vMotion доступен только в Enterprise Plus.
Stun During Page Send
В vSphere 4.1 для оптимизации vMotion был предложен механизм Quick Resume, описанный, например, тут. Новый механизм, SDPS, сравнивает скорость изменения страниц памяти и скорость vMotion. Если страницы в памяти меняются чаще, чем vMotion успевает их копировать, vCPU приостанавливается на несколько милисекунд. Эта остановка никак не сказывается на сетевом доступе к ВМ, она лишь позволяет гарантировать, что ВМ с любой загрузкой сможет смигрировать.
Благодаря этому же механизму стал возможен Metro vMotion.