Появился документ, описывающий нововведения в производительности, касающиеся vSphere 6.5 (performance what’s new).
Данные улучшения затрагивают управляемость, масштабируемость ESXi, а также доступ к СХД и сети.
1. Управляемость
VMware vCenter Server стал гораздо производительнее: увеличено количество операций в минуту, снижены задержки, оптимизировано использование процессора (в 2,5 раза) и снижен объем занимаемой памяти (на 15 ГБ) при максимальном размере vCenter.
Как видите, “пропускная” способность в количестве операций в минуту у vCenter 6.5 почти в 10 раз выше.
vSphere Web Client стал работать быстрее:
Действие | Оптимизация времени выполнения |
Раскрыть иерархический список объектов (дерево объектов) | 93% |
Зайти в свойства ВМ | 56% |
Просмотр общих графиков производительности | 40% |
Обновление статуса операции включения ВМ | 50% |
VM Migration Wizard: Проверка совместимости | 67% |
VM Migration Wizard: Выбор сети | 33% |
vSphere Client (HTML5) стал более отзывчивым:
Судя по графикам, HTML5 Client в vSphere 6.5 работает быстрее, чем Flex (Flash) клиент в 6.0.
Кстати, если вы хотите побольше почитать про нововведения vCenter 6.0->vCenter 6.5, то почитайте вот эту статью.
Spoiler: Значительный эффект в оптимизации дало удаление службы Inventory, оптимизация алгоритмов DRS и смена ОС в VCSA на PhotosOS.
Esxtop
Появилась метрика %A/MPERF, позволяющая отслеживать, на какой частоте сейчас работает процессор. Это может быть полезно, так как в новых процессорах Intel появился Turbo-режим.
Кто-то еще помнит волшебную кнопку Turbo?
2. Улучшения ESXi и платформы
Сервер ESXi поддерживает до 12 ТБ ОЗУ, виртуальная машина – до 6 ТБ.
Улучшения в DRS:
- Повышенна эффективность (в 5 раз “легче” и в 3 раза “быстрее”). Только у меня возникает вопрос – КАК это раньше работало?
- Улучшения в алгоритме размещения машин при одновременном включении нескольких ВМ.
- Проактивный DRS – теперь DRS умеет использовать vRealize Operations и его планирование.
- Оценка сетевой нагрузки – при балансировке принимается во внимание загрузка хоста по сети (ранее – только ЦП и ОЗУ).
- Балансировка “толстый-тонкий” – дополнительно к текущим алгоритмам DRS оценивает разницу между самым загруженным и самым свободным хостами.
- Улучшенное управление кластером. Появился ряд дополнительных политик, например, – использование в качестве метрики не Active Memory, а Consumed Memory. Или попытка раскидать по хостам одинаковое количество ВМ. Более подробно про улучшения DRS можно почитать тут.
vNUMA
В vSphere 6.5 изменение количества ядер на сокет для ВМ больше не влияет на vNUMA, а влияет только на презентацию процессоров для ВМ. На эту тему у нас на блоге есть отдельная статья.
Улучшения в vMotion
В v6.5 появляется шифрование vMotion, которое позволяет передавать такой вид трафика на нешифрованных сетях. Для этого используется AES-GCS шифрование с сертифицированным по стандартам FIPS модулем vmkcrypto.
Длительность vMotion от включения шифрования не зависит. Зато повышается нагрузка на ЦП.
Накладные расходы на шифрование примерно следующие: на каждые 10Гбит/с требуется дополнительное ядро на источнике и половина ядра на получателе.
3. Системы Хранения Данных
Увеличились лимиты: vSphere 6.5 может использовать до 512 устройств, к которым ведет до 2048 путей.
Улучшения в Storage I/O Control
Добавлены две дополнительные фичи: политики, основывающиеся на IOPS и поддержка SSD. Благодаря новым политикам, в vSphere 6.5 можно назначать на ВМ не только лимит, но и резерв по IOPS.
Как вы можете видеть на этих чумовых графиках, при появлении высокоприоритетных ВМ они получают более высокий приоритет на доступ к СХД.
Про нововведения в SIOC можно почитать тут.
VMFS6
В vSphere 6.5 появляется новая файловая система – VMFS6. Она немного быстрее позволяет создавать файлы и обнаруживать хранилища.
Кроме того, VMFS6 выровнена по блоку 4k для поддержки AF-жестких дисков. Для совместимости с блоком 512b добавлен режим эмуляции.
Шифрование ВМ
В vSphere 6.5 появилась возможность шифрования отдельных ВМ на основе политик. Замеры скорости шифрования VMware показали, что на SSD разница в скорости практически неощутима.
В отрыв уходит только накопитель на NVMe-интерфейсе.
Максимальные накладные расходы на включение виртуальной машины или ее клонирование составляют 20%, однако могут быть и практически нулевыми.
4. Сеть.
Поддерживаются адаптеры QLogic FastLinQ QL45604 25/50/100 – 100Гбит/с!
В режиме DirectPath I/O vSphere 6.5 достигает такого же уровня задержек, как железный сервер.
Поддержка паравиртуализованного RDMA-интерфейса
Если у вас есть приложения, которые оптимизированы под RDMA, то с использованием такого адаптера вы можете получить гораздо более низкие задержки, чем в случае с TCP.
Вот такие нововведения. Как вам?
Из практических улучшений для standalone системы я вижу только быстродействие vSphere Web Client.
Всё остальное – это больше для enterprise систем или больших кластеров. Так получается?
С одной стороны да – для небольших инсталляций это единственное, что бросается в глаза и касается производительности (если вам не нужно шифрование).
С другой – именно тормоза этого интерфейса являются краеугольным камнем, мешающим переходу на него.
К примеру, я прекрасно знаю как практически любую операцию сделать в веб-клиенте. Но я не хочу тратить свое время на обновление экрана и ожидание тормозной прорисовки Flash. И как раз оптимизация этого клиента может сподвигнуть меня перейти на его использование.