Тестирование систем хранения данных Huawei Dorado V6 в кластере HyperMetro

Disclamer:  все дальнейшие рассуждения, настройки и выбранные методы тестирования могут быть ошибочны. Никакого отношения к компаниям Lenovo, Huawei, Broadcom мы не имеем.

Цели тестирования:

  • определить производительность системы хранения данных (СХД) в кластере HyperMetro и её изменение при различных вариантах отказа оборудования;
  • оценить влияние на производительность и доступность программно-аппаратного комплекса (ПАК) фирменного MPIO-драйвера (драйвер балансировки подключения по нескольким путям ввод-вывода) Huawei Ultrapath;
  • протестировать функциональность SmartVirtualization СХД Huawei Dorado 5000V6 – способность выдавать через себя дисковые разделы других СХД.

Дополнительно была проведена проверка работоспособности одного из серверов системы управления базами данных (СУБД) Oracle DB при отказе узла кластера HyperMetro. Для этого сервер был временно перенесён в кластер HyperMetro без прерывания его работы, а по окончании тестирования возвращён обратно.

Оборудование было предоставлено системным интегратором,  который также составил и выполнил программу и методику испытаний. Тестирование осуществлялось при помощи программы VDBench, имитировалась нагрузка, аналогичная создаваемой основным сервером СУБД Oracle DB в ежедневной эксплуатации. Профиль  нагрузки  приведён  в Приложении 1.

Для проведения тестирования был собран стенд, имитирующий размещение оборудования в двух пространственно-разнесённых центрах обработки данных, установлено и настроено программное обеспечение (ПО) и развёрнуты тестовые виртуальные машины. Схема стенда и описание используемого ПО приводятся в Приложении 2.

Первичное конфигурирование системы проводилось с использованием штатных MPIO-драйверов среды виртуализации VMware ESXi. Драйвер оказывает решающее влияние на производительность системы и её отказоустойчивость, поэтому было проведено две серии тестов – со штатными драйверами VMware, и с фирменными драйверами Huawei Ultrapath от изготовителя СХД. Перед началом тестирования выживаемости кластера при различных вариантах отказов оборудования и влияние отказов на производительность был выполнен эталонный замер производительности системы в штатном режиме работы. Методика замера и результаты приведены в Приложении 3.

После определения исходного уровня производительности системы, была выполнена оценка изменения производительности при отказе удалённой системы хранения (Приложение 4), локальной системы хранения (Приложение 5) и дирижёра кластера (Quorum Server). С целью проверки выживаемости, в тестовую среду был мигрирован сервер СУБД Oracle DB (DEV03). Оценивалось влияние на работоспособность и доступность сервера  отказ одной из реплик хранилища. Результаты приведены в Приложении 6.

Следующим этапом стала оценка влияния на производительность и доступность системы использование MPIO-драйвера Huawei Ultrapath. В процессе подготовки стенда выяснилось, что драйвер существует только для версии VMware ESXi 6.7U3, а на стенде развёрнута VMware ESXi 7. Для проведения работ был подготовлен и подключен новый сервер с требуемой версией ESXi, описание стенда приведено в Приложении 7.

Поскольку среда поменялась, были проведены замеры производительности системы в штатном режиме (Приложение 8). Затем выполнены замеры производительности при отказе удалённого хранилища (Приложение 9) и локального (Приложение 10).

После проведения серии опытов по определению производительности работы и отказоустойчивости кластера, была выполнена оценка функционала виртуализации СХД (SmartVirualization) и сделаны замеры производительности работы системы при прямом подключении к серверу раздела СХД  EMC VNX5700 и подключении его через функцию виртуализации СХД Huawei Dorado 5000 V6. Схема стенда и результаты тестирования приведены в Приложении 11.

Дополнительно была выполнена оценка влияния процесса создания и удаления моментальных снимков (снапшотов, snapshots) виртуальных машин (ВМ) на производительность работы ВМ при использовании традиционных томов VMFS (Приложение 12), при использовании виртуальных томов VVOL (Приложение 13), а также влияние на производительность процедуры установки обновлений управляющего ПО СХД (Приложение 14).

Краткое резюме по этапам тестирования производительности приведено в таблице:

Краткое описание демо-стенда Имитируемый отказ Оценка влияния на работоспособность Оценка влияния на производительность Оценка загруженности линка между площадками
1. Кластер Huawei HyperMetro из двух СХД Dorado5000v6, режим работы Local Preffered, режим восстановления Auto, скорость репликации Highest
В качестве серверного оборудования используется два сервера с ESXi 7.0 в кластере VMware HA с 14-ю ВМ VDbench, имитирующими нагрузку.
В качестве MPIO используется штатный MPIO-драйвер VMware.
Оборудование установлено комплектами (1 СХД + 1 сервер + 1 FC коммутатор) на двух площадках, соединенных по сети SAN одним оптическим линком SM 16Gb/s
Отказ Quorum Отсутствует Отсутствует
2. Отказ СХД №1 Кратковременная приостановка ввода-вывода на 13 секунд, без перехода хранилищ VMFS VMware в состояние недоступности При обрыве синхронизации томов Huawei HyperMetro рост производительности (IOPS) на 8%, без существенных изменений во времени отклика.
При старте синхронизации томов Huawei HyperMetro уменьшение производительности (IOPS) на 8%, без существенных изменений во времени отклика. Время синхронизации 1час 18 минут.
До 1Gb/s при имитации нагрузки.
До 4Gb/s при синхронизации реплик томов Huawei HyperMetro
3. Отказ СХД №2 При отказе кратковременная приостановка ввода-вывода на 13 секунд, без перехода хранилищ VMFS VMware в состояние недоступности При обрыве синхронизации томов Huawei HyperMetro деградация производительности (IOPS) на 50% на 17 секунд, после чего рост производительности (IOPS) на 8%, без существенных изменений во времени отклика.
При старте синхронизации томов Huawei HyperMetro уменьшение производительности (IOPS) на 8%, без существенных изменений во времени отклика. Время синхронизации 1 час 12 минут.
До 1Gb/s при имитации нагрузки.
До 4Gb/s при синхронизации реплик томов Huawei HyperMetro
4. Влияние отказа СХД №1 на ВМ dev03 c работающей БД Oracle Кратковременная приостановка ввода-вывода на 13 секунд, без последующего прерывания в работе БД и тестовых отчетов До 1Gb/s при имитации нагрузки.
До 4Gb/s при синхронизации реплик томов Huawei HyperMetro
5. Кластер Huawei Hyper-Metro из двух СХД Dorado5000v6, режим работы Local Preffered, режим восстановления Auto, скорость репликации Highest.
В качестве серверного оборудования используется один сервер с ESXi 6.7U3 и семью ВМ VDbench, имитирующими нагрузку.
В качестве MPIO используется MPIO-драйвер Huawei UltraPath.
Оборудование установлено комплектами (1 СХД + 1 сервер + 1 FC коммутатор) на двух площадках, соединенных по сети SAN одним оптическим линком SM 16Gb/s
Отказ Quorum Отсутствует Отсутствует
6. Отказ СХД №1 При отказе кратковременная приостановка ввода-вывода на 13 секунд, без перехода хранилищ VMFS VMware в состояние недоступности Во время недоступности  реплики тома Huawei HyperMetro отмечен рост производительности операций ввода-вывода (IOPS) на 2%, без существенных изменений во времени отклика.
При старте синхронизации томов Huawei HyperMetro уменьшение производительности IOPS на 16%, без существенных изменений во времени отклика. Время синхронизации 51 минута.
До 1Gb/s при имитации нагрузки.
До 4Gb/s при синхронизации реплик томов кластера Huawei HyperMetro
7. Отказ СХД №2 При отказе кратковременная приостановка ввода-вывода на 13 секунд, без перехода хранилищ VMFS VMware в состояние недоступности При обрыве синхронизации томов Huawei HyperMetro рост производительности (IOPS) на 16%, без существенных изменений во времени отклика.
При старте синхронизации томов Huawei HyperMetro уменьшение производительности (IOPS) на 16%, без существенных изменений во времени отклика. Время синхронизации 51 минута.
До 1Gb/s при имитации нагрузки.
До 4Gb/s при синхронизации реплик томов кластера Huawei HyperMetro

Результаты тестирования функции виртуализации внешних систем хранения (Smart Virtualization) CХД Huawei Dorado V6 приведены в таблице:

Краткое описание демо-стенда Оценка влияния на работоспособность Оценка влияния на производительность
СХД с исходными данными – существующая VNX5700 с одним тестовым LUN на 8TB.
СХД, осуществляющая виртуализацию —  Dorado5000v6.
В качестве серверного оборудования используется один сервер с ESXi 7.0 и семью ВМ VDbench, имитирующими нагрузку.
В качестве MPIO используется штатный MPIO-драйвер VMware.
Отсутствует a.    Зафиксировано незначительное увеличение времени отклика на 2% с 5,72 до 5,86, также зафиксированы всплески во времени отклика;
b.    Зафиксировано незначительное ухудшение производительности (IOPS) на 2% с 4881 до 4764.

Результаты тестирования процесса создания и удаления моментальных снимков ВМ (снапшотов) на CХД Huawei Dorado V6 с томами VMFS:

Краткое описание демо-стенда Оценка влияния на работоспособность Оценка влияния на производительность и времени создания/удаления снапшота
Кластер Huawei Hyper-Metro из двух СХД Dorado5000v6, режим работы Local Preffered, режим восстановления Auto, скорость репликации Highest.
В качестве серверного оборудования используется один сервер с ESXi 7.0 в кластере VMware HA одной ВМ VDbench имитирующими нагрузку. Используются VMFS6 VMware Datastore.
В качестве MPIO используется штатный MPIO-драйвер VMware.
Оборудование установлено комплектами (1 СХД + 1 сервер + 1 FC коммутатор) на двух площадках, соединенных по сети SAN одним оптическим линком SM 16Gb
В процессе удаления снапшота -многочисленные кратковременные приостановки ввода-вывода на 1 секунду, без потери доступности диска ВМ
В конце процесса удаления происходят кратковременные приостановки ввода-вывода на 6 секунд без потери доступности диска ВМ
a. Время создания снапшота под нагрузкой на тестовой ВМ с диском на 5TB занимает 6 минут, после полного завершения процесса создания зафиксирована деградация производительности(MB/s) на 38%.
b. Время удаления снапшота под нагрузкой на тестовой ВМ с диском на 5TB и изменением не менее 200GB данных на нем занимает 56 минут, при этом:
i. С начала запуска процесса удаления зафиксирована деградация производительности(MB/s) на 10%.
ii. После завершения процесса удаления зафиксирован рост производительности(MB/s) на 48%.

Результаты тестирования процесса создания и удаления моментальных снимков ВМ на CХД Huawei Dorado V6 с томом VVOL:

Краткое описание демо-стенда Оценка влияния на работоспособность Оценка влияния на производительность и времени создания/удаления снапшота
СХД Dorado5000v6, обновленная до версии 6.0.1 SPH5. Huawei VASA провайдер версии 2.1.19, зарегистрированный на VMware vCenter версии 6.7U3j.
В качестве серверного оборудования используется один сервер с ESXi 6.7U3 с одной ВМ VDbench, имитирующей нагрузку. Используются VMware VVOL Datastore, c политикой хранения ВМ на дисках SSD.
В качестве MPIO используется MPIO Huawei UltraPath.
Оборудование (1 СХД + 1 сервер) установлено на одной площадке и подключено к одному FC – коммутатору
Текущая версии 2.1.19 VASA провайдера работает нестабильно, с периодическим переходом состояния регистрации данного провайдера в статус Disconnected. При этом:
a. ВМ остается доступна, но любые операции с ней невозможны;
b. VVOL Datastore переходит в состояние Inaccessible.
В начале процесса создания снапшота и по  завершении процесса удаления снапшота зафиксирована приостановка ввода-вывода на ВМ Slave07 на 7 секунд.
Время создания и удаления снапшотов с ОЗУ:
a. Создание занимает 1 час 12 минут и 27 секунд;
b. Удаление занимает 9 секунд.
Время создания и удаления снапшотов без ОЗУ:
a. Создание занимает 14 секунд;
b. Удаление занимает 18 миллисекунд.

Выводы по итогам тестирования

  1. Технология HyperMetro-кластера (двух удалённых на большое расстояние систем хранения данных, на одной из которых размещается основная копия данных, на второй – её реплика) может быть использована в продуктивной среде для обеспечения непрерывности работы прикладных задач в случае аварийного выключения основного ЦОДа или основной системы хранения.
  2. Потери производительности при отказе одной из систем незначительны, а в случае отказа удалённой системы производительность возрастает. Потери производительности на синхронизацию данных после восстановления доступности систем не превышают 20%. Пауза длительностью 13-14 секунд в момент пропадания одной из реплик не привела к отказу в обслуживании СУБД Oracle DB, что является подтверждением возможности использования технологии для обеспечения непрерывности работы информационной системы.
  3. Со штатными MPIO-драйверами VMware показывает лучшую производительность в операциях чтения-записи на том. Использование MPIO-драйвера Huawei UltraPath возможно только в случае если все системы хранения данных предприятия будут производства Huawei. С оборудованием других производителей драйвер не работает.
  4. Функция виртуализации других систем хранения не даёт никаких преимуществ в производительности перед прямым подключением этих систем и, в основном, может быть использована для миграции данных из сторонних СХД на Dorado 5000 V6.
  5. Процесс создания, а особенно наличия моментального снимка ВМ (снапшота) оказывает существенное влияние на производительность работы системы, которая падает почти в два раза. Поэтому снапшоты рекомендуется создавать в периоды наименьшей загрузки системы и не оставлять дольше, чем это необходимо.
  6. По сравнению с классической технологией VMFS, технология VVOLs (Virtual Volumes) для VMware показала лучшие результаты в операциях чтения-записи на том, уменьшение времени создания и удаления снапшотов ВМ без оперативной памяти. Однако создание снапшотов ВМ с оперативной памятью занимает весьма продолжительное время, также зафиксирована нестабильная работа управляющей службы тома (VASA-провайдера). Текущая реализация VVOLs в продукте Huawei для VMware не может быть рекомендована к использованию для продуктивных систем.
  7. Интерфейс управления СХД Dorado 5000 V6 дружелюбен и интуитивно понятен.
  8. Конструктивно СХД Dorado 5000 V6 имеет большую длину, из-за чего может быть установлена только в определённых слотах стандартной серверной стойки. Также она имеет высокую теплопроизводительность и нуждается в хорошем охлаждении. Это следует учитывать при выборе и оснащении места размещения СХД.
  9. В целом, технология метрокластера и система хранения Huawei Dorado 5000 V6 заслуживает положительной оценки и может рекомендована к внедрению в продуктивную среду.

Приложения

Приложение 1. Профиль нагрузки Oracle СУБД DB

 Исходя из полученных перед началом тестирования отчетов AWR с существующих СУБД Oracle DB заказчика установлен следующий профиль нагрузки для VDbench:

  • 93% операций ввода-вывода на диск совершается с размером блока 8KB при соотношении чтения/записи 73% к 27%;
  • 7% операций ввода-вывода на диск совершается с размером блока 512b при соотношении чтения/записи 16% к 84%.

Приложение 2. Описание тестового стенда c штатным MPIO-драйвером ESXi

 Тестовый стенд имитирует собой два независимых центра обработки данных, объединенных темной оптикой. В каждом центре обработки данных установлен следующий комплект оборудования:

  • одна СХД Huawei Dorado5000 v6;
  • один сервер Lenovo SR650 (2xCPU, 768GB RAM, 4x10GbE, 2x32Gb FC) с ОС VMware ESXi, 7.0.0, 16324942;
  • один коммутатор SAN с двенадцатью 16 или 32Gb MM SFP+, c одним одномодовым SFP+;
  • семь ВМ VDbench (8vCPU, 24GB RAM, 16GB disk, 4x600GB тестовые диски с контроллерами VMware Paravirtual SCSI).

Дополнительно на существующем оборудовании заказчика разворачивается две ВМ:

  • одна для управления VDbench;
  • одна для сервера Quorum кластера Huawei HyperMetro.

Серверное оборудование обновляется последними версиями прошивок и на ESXi устанавливаются версии драйверов в соответствии с таблицами совместимости Huawei.

На коммутаторах SAN настраивается зонирование, обеспечивающее связь.

Описание настроек кластера Huawei HyperMetro для VMware:

  • Все NVMe-диски собираются в один StoragePool RAID5 с политикой резервирования дисков High;
  • Создается HyperMetro-домен из двух СХД Huawei с Quorum сервером доступным через порты управления обоих контроллеров. Для данного домена создается отдельный пользователь на СХД. Обе СХД осуществляют репликацию через 4 выделенных порта для репликации;
  • Создаются две пары LUN на СХД:
    • На первой СХД – LUN1_pri и LUN2_sec по 21TB;
    • На второй СХД – LUN1_sec и LUN2_pri по 21TB;
    • Из которых собирается две пары HyperMetro, в которых LUN1 назначается роль Preffered на первой СХД, а LUN2 роль Preffered на второй СХД. Скорость репликации Highest. Политика восстановления Automatic.
  • Созданные LUN презентуются хостам с одинаковым LUN ID (10 для LUN1, 11 для LUN2), которые настраиваются таким образом, чтобы пути к СХД, расположенной на одной площадке с сервером были выбраны как активные, а пути к уделенной СХД как резервные. Для презентации LUN хостам используются 4 выделенных порта для данных:
    • На первой СХД:
      • Сервер SR650-2
        • HyperMetro Working Mode: Local preferred mode
        • OS Setting: VMware ESXi
        • Host Access Mode: Asymmetric
        • Preferred Path for HyperMetro: Yes
      • Сервер SR650-1
        • HyperMetro Working Mode: Local preferred mode
        • OS Setting: VMware ESXi
        • Host Access Mode: Asymmetric
        • Preferred Path for HyperMetro: No
      • На второй СХД:
        • Сервер SR650-2
          • HyperMetro Working Mode: Local preferred mode
          • OS Setting: VMware ESXi
          • Host Access Mode: Asymmetric
          • Preferred Path for HyperMetro: No
        • Сервер SR650-1
          • HyperMetro Working Mode: Local preferred mode
          • OS Setting: VMware ESXi
          • Host Access Mode: Asymmetric
          • Preferred Path for HyperMetro: Yes
        • На ESXi выполняются следующие настройки политик работы с путями к Huawei:
          • esxcli storage nmp psp roundrobin deviceconfig set —device=naa.6ac8d34100ec7478024b9dc900000000 —iops=1 —type iops
          • esxcli storage nmp psp roundrobin deviceconfig set —device=naa.6ac8d34100ec7478024bb11000000001 —iops=1 —type iops
          • esxcli storage nmp satp rule add -V HUAWEI -M XSG1 -s VMW_SATP_ALUA -P VMW_PSP_RR -c tpgs_on
  • Гипервизоры ESXi собираются в кластер со следующими параметрами:
    • HA: Enabled
    • Proactive HA: Disabled
    • Host Failure: Restart VMs. Using VM restart priority ordering.
    • Host Isolation: VMs on isolated hosts will remain powered on.
    • Datastore with Permanent Device Loss: Power off and restart VMs. Datastore protection enabled. Always attempt to restart VMs.
    • Datastore with All Paths Down: Power off and restart VMs (Agressive restart policy). Datastore protection enabled. Always attempt to restart VMs.
    • Guest not heartbeating: Disabled VM and application monitoring disabled.
    • Тестовые диски ВМ размещаются на Preffered LUN локальной СХД. Нумерация ВМ с 1 по 7 на SR650-1 и с 8 по 14 на SR650-2.

Схема демо-стенда:

Приложение 3. Первоначальное тестирование

В ходе первоначального тестирования проводилось наполнение дисков тестовых ВМ vdbench случайными данными и определялся служебный параметр – число потоков vdbench (в конфигурации профиля нагрузки заказчика), при котором достигается нагрузка с максимально оптимальным сочетанием IOPS/Latency. В ходе первоначального тестирования данный параметр устанавливается равным 2.

Таблица тестирования с различным числом потоков.

BlockSize Thread AverageIOPS AverageLatency AverageMBsec
7654 1 78150,6 0,701 570,48
7654 2 99126,7 1,123 723,6
7654 4 98605,5 2,262 719,79
7654 8 98385,3 4,543 718,2
7654 16 98543,1 9,07 719,35
7654 32 98018,9 18,246 715,51
7654 64 98403 36,309 718,34
7654 128 98415,7 72,211 718,44

Графики IOPS, Bandwidth, latency для числа потоков = 2:

Приложение 4.  Производительность при использовании Native MPIO. Имитация отказа СХД №1 (удалённой)

Для текущего теста стенд описан в Приложении 2. Выбор служебных параметров VDbench описан в Приложении 3.

Протокол теста:

  1. В 12:55 запущен VDbench со следующими параметрами производительности 96k IOPS 700MB/s в конфигурации профиля нагрузки заказчика (Oracle DB) на 14-ти ВМ.
  2. В 12:56 сервер Quorum отключен, в интерфейсе СХД зафиксировано появление ошибки о недоступности Quorum:
    1. Деградации производительности не обнаружено.
  3. В 12:57 сервер Quorum включен, в интерфейсе СХД зафиксировано отсутствие ошибки о недоступности Quorum:
    1. Деградации производительности не обнаружено.
  4. В 12:59 путем полного отключения электропитания сымитирован отказ СХД №1, зафиксировано:
    • Пути на гипервизорах ESXi до СХД №1 перешли в состояние Dead, пути до СХД№2 ранее находившиеся в статусе Active перешли в статус Active (I/O);
    • Полная приостановка ввода-вывода к дискам ВМ на 13 секунд;
    • После возобновления ввода-вывода, зафиксирован рост производительности (IOPS) на 8% с 96000 до 104000, при этом значительных колебаний времени отклика от диска не обнаружено.
Aug 14, 2020 interval i/o MB/sec bytes read resp read write read write resp queue cpu% cpu%
rate 1024**2 i/o pct time resp resp max max stddev depth sys+u sys
12:59:26.014 238 96402.0 703.56 7652 69.05 1.155 1.173 1.114 12.39 15.92 0.437 111.3 6.5 4.7
12:59:27.015 239 96186.0 700.89 7640 68.75 1.159 1.177 1.118 19.19 13.03 0.460 111.5 6.6 4.7
12:59:28.020 240 86945.0 633.90 7644 68.72 1.173 1.195 1.125 16.35 17.77 0.490 111.4 6.0 4.4
12:59:29.025 241 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.0 0.2 0.1
12:59:30.023 242 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.1 0.1 0.1
12:59:31.015 243 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 111.9 0.2 0.1
12:59:32.014 244 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.0 0.2 0.1
12:59:33.014 245 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 111.9 0.2 0.1
12:59:34.014 246 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.1 0.2 0.1
12:59:35.031 247 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.3 0.2 0.1
12:59:36.014 248 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 111.7 0.2 0.1
12:59:37.014 249 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.0 0.1 0.1
12:59:38.014 250 2.0 0.02 8192 100.00 10042.836 10042.836 0.000  10045.04 0.00     3.118   112.0    0.2    0.1
12:59:39.014 251 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.1 0.2 0.1
12:59:40.019 252 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.1 0.3 0.1
12:59:41.015 253 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.0 0.2 0.1
12:59:42.015 254 11047.0 80.94 7682 68.43 140.968 101.568 226.351 14076.31 1 4048.29 1390.169 111.9 1.1 0.7
12:59:43.016 255 100545.0 733.95 7654 68.99 1.108 1.255 0.780 19.75 3.90 0.588 111.4 8.3 6.0
12:59:44.016 256 91473.0 667.75 7654 69.05 1.217 1.391 0.830 20.95 9.48 0.685 111.4 6.4 4.3
12:59:45.015 257 91835.0 670.14 7651 69.01 1.214 1.391 0.818 19.02 10.46 0.687 111.5 6.5 4.6
12:59:46.014 258 90526.0 661.20 7658 68.85 1.229 1.411 0.829 16.14 8.76 0.668 111.3 6.2 4.6
12:59:47.015 259 90086.0 657.10 7648 68.74 1.237 1.424 0.825 18.70 10.24 0.657 111.4 6.1 4.5
12:59:48.015 260 88138.0 643.92 7660 68.80 1.264 1.455 0.842 14.07 10.72 0.775 111.4 6.3 4.6
12:59:49.014 261 91090.0 664.66 7651 69.03 1.221 1.401 0.821 15.42 12.40 0.653 111.2 6.3 4.6
12:59:52.016 264 105677.0 770.99 7650 68.83 1.053 1.196 0.739 12.72 11.37 0.539 111.3 6.6 4.9
12:59:53.016 265 104723.0 764.27 7652 69.07 1.062 1.206 0.739 13.57 9.37 0.551 111.2 6.6 4.9
12:59:54.015 266 105205.0 768.82 7662 69.30 1.056 1.195 0.741 14.78 11.34 0.534 111.0 6.7 4.8
12:59:55.015 267 104017.0 759.17 7653 69.18 1.068 1.210 0.749 15.91 10.77 0.589 111.1 7.0 5.0
12:59:56.014 268 103686.0 757.00 7655 69.04 1.072 1.215 0.755 13.57 11.52 0.552 111.2 6.9 5.0
12:59:57.016 269 107111.0 782.09 7656 68.99 1.036 1.172 0.734 17.46 11.47 0.515 111.0 7.1 5.1
12:59:58.014 270 103990.0 758.44 7647 69.12 1.069 1.211 0.749 16.36 9.87 0.590 111.1 6.9 5.0
  1. В 13:05 было подано электропитание на СХД№1, через 10 минут система автоматически запустилась. В 13:17:37 автоматически запустилась синхронизация LUN’ов кластера HyperMetro (Режим работы Automatic, скорость репликации Highest), в результате чего было зафиксировано:
    • Снижение производительности (IOPS) на 8% с 104000 до 96000, при этом значительных колебаний времени отклика от диска не обнаружено;
    • Незначительные колебания загруженности процессора на контроллерах СХД с 25-30% до 40-45%;
    • Загруженность линка SAN между площадками составляет не более 4Gb/s.
Aug 14, 2020 interval i/o MB/sec bytes read resp read write read write resp queue cpu% cpu%
rate 1024**2 i/o pct time resp resp max max stddev depth sys+u sys
13:17:30.014 1322 101611.0 741.62 7653 69.12 1.095 1.242 0.768 14.87 10.93 0.641 111.3 6.6 4.9
13:17:31.014 1323 104194.0 760.59 7654 68.98 1.069 1.212 0.751 16.57 10.13 0.586 111.4 6.7 5.0
13:17:32.017 1324 104374.0 762.50 7660 69.09 1.066 1.207 0.752 13.44 11.18 0.579 111.3 6.7 5.0
13:17:33.014 1325 104904.0 766.10 7657 69.18 1.060 1.200 0.748 11.59 10.88 0.548 111.2 6.6 4.9
13:17:34.018 1326 107587.0 785.03 7651 69.28 1.034 1.165 0.739 18.69 9.75 0.482 111.3 6.8 5.1
13:17:35.014 1327 104917.0 765.87 7654 69.25 1.062 1.199 0.751 13.45 6.15 0.517 111.4 6.8 5.0
13:17:36.014 1328 103844.0 758.33 7657 69.12 1.072 1.212 0.758 13.74 11.79 0.582 111.3 6.6 4.9
13:17:37.016 1329 96590.0 705.16 7655 69.18 1.154 1.251 0.936 13.51 106.12 0.820 111.4 6.4 4.8
13:17:38.018 1330 94504.0 689.36 7648 69.06 1.177 1.271 0.967 18.19 12.54 0.562 111.3 6.3 4.8
13:17:39.015 1331 96133.0 700.53 7641 69.16 1.159 1.247 0.961 12.28 11.37 0.545 111.4 6.4 4.7
13:17:40.015 1332 97036.0 708.51 7656 69.18 1.148 1.233 0.957 17.74 15.50 0.544 111.4 6.3 4.7
13:17:41.015 1333 95551.0 698.03 7660 69.16 1.166 1.256 0.966 13.43 16.47 0.534 111.4 6.2 4.6
13:17:42.014 1334 97038.0 709.13 7662 69.30 1.147 1.234 0.953 11.96 11.48 0.492 111.3 6.4 4.8
13:17:43.014 1335 97437.0 711.88 7660 69.05 1.142 1.227 0.953 12.31 12.38 0.513 111.3 6.5 4.9
13:17:44.017 1336 96876.0 706.24 7644 68.84 1.150 1.237 0.957 14.21 11.61 0.572 111.4 6.4 4.7
  1. В 14:35 был завершен процесс синхронизации LUN’ов кластера HyperMetro, в результате чего было зафиксировано возвращение путей на ESXi в исходное состояние:
    • Пути на гипервизорах ESXi до СХД №2 перешли в состояние Active на сервере площадки 1 и Active (I/O) на сервере площадки 2, пути до СХД №1 перешли в состояние Active на сервере площадки 2 и Active (I/O) на сервере площадки 1;
    • Загруженность линка SAN между площадками сократилась до 1Gb/s.

Суммарные графики IOPS, Bandwidth, latency во время отключения/включения СХД:
Графики IOPS, Bandwidth, latency во время отключения/включения СХД для ВМ:

Типовой график загрузки контроллеров СХД (*Далее аналогичен при аналогичных тестах):

Типовой график загрузки SAN-линка между ЦОДами (*Далее аналогичен при аналогичных тестах):

Приложение 5. Производительность при использовании Native MPIO-драйвера. Имитация отказа СХД №2 (локальной)

Для текущего теста стенд описан в Приложении 2. Выбор служебных параметров VDbench описан в Приложении 3.

Протокол теста:

  1. В 15:13 запущен VDbench со следующими параметрами производительности 96k IOPS 700MB/s в конфигурации профиля нагрузки заказчика (Oracle DB) на 14-ти ВМ.
  2. В 15:16 путем полного отключения электропитания сымитирован отказ СХД №2, зафиксировано:
    • Пути на гипервизорах ESXi до СХД №2 перешли в состояние Dead, пути до СХД№1 ранее находившиеся в статусе Active перешли в статус Active (I/O);
    • Полная приостановка ввода-вывода к дискам ВМ на 13 секунд c последующей деградацией производительности (IOPS) на 50% на 17 секунд, после чего зафиксирован рост производительности (IOPS) на 8%, с 96000 до 106000. При этом значительных колебаний времени отклика от диска не обнаружено.
Aug 14, 2020 interval i/o MB/sec bytes read resp read write read write resp queue cpu% cpu%
rate 1024**2 i/o pct time resp resp max max stddev depth sys+u sys
Отказ 1 СХД в 15_16: Пути к данной СХД в данного момента в Dead:!!!!! Зафиксировано полное прекращение в передаче данных на 13 сек + деградация производительности min 50% на 15 сек+ из-за остановки репликации выросли IOPS с 96к до 105к (5-6%)
15:16:53.017 185 94874.0 693.06 7659 69.16 1.176 1.199 1.125 14.79 14.51 0.495 111.6 6.1 4.5
15:16:54.017 186 96669.0 705.09 7648 68.98 1.153 1.170 1.114 14.93 14.67 0.421 111.4 6.2 4.6
15:16:55.022 187 60090.0 438.43 7650 69.25 1.137 1.155 1.095 12.40 11.47 0.408 111.6 4.3 3.1
15:16:56.019 188 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 111.9 0.6 0.2
15:16:57.018 189 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.0 0.2 0.1
15:16:58.020 190 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.2 0.2 0.0
15:16:59.017 191 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 111.8 0.3 0.1
15:17:00.014 192 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.0 0.3 0.1
15:17:01.015 193 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.1 0.2 0.1
15:17:02.014 194 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.0 0.1 0.1
15:17:03.015 195 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.1 0.2 0.1
15:17:04.015 196 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.1 3.2 0.2
15:17:05.016 197 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.0 0.2 0.1
15:17:06.016 198 2.0 0.02 8192 100.00 11054.691 11054.691 0.000 11055.16 0.00 0.669 112.0 0.2 0.1
15:17:07.017 199 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 111.9 0.4 0.1
15:17:08.014 200 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.0 0.2 0.1
15:17:09.015 201 13305.0 96.91 7637 68.68 117.420 86.574 185.063 14254.26 14244.93 1278.477 112.0 1.2 0.9
15:17:10.014 202 61166.0 445.22 7632 68.79 0.908 1.021 0.659 8.91 2.90 0.362 111.5 4.2 2.9
15:17:11.014 203 58715.0 429.17 7664 69.08 0.947 1.064 0.687 19.29 10.61 0.451 111.6 3.8 2.7
15:17:12.015 204 48181.0 352.08 7662 69.22 1.157 1.326 0.777 11.10 6.41 0.595 111.9 3.5 2.5
15:17:13.015 205 49064.0 357.81 7646 68.89 1.135 1.298 0.774 14.19 10.56 0.582 111.6 3.4 2.5
15:17:14.016 206 47923.0 349.58 7648 68.88 1.163 1.325 0.804 8.49 4.40 0.566 111.7 3.4 2.5
15:17:15.014 207 46836.0 341.46 7644 68.99 1.189 1.354 0.820 11.37 11.38 0.587 111.6 3.5 2.5
15:17:16.013 208 46971.0 342.83 7653 68.70 1.185 1.354 0.816 13.04 5.33 0.622 111.7 3.3 2.4
15:17:17.016 209 47583.0 347.41 7655 68.82 1.624 1.344 2.242 17.88 21548.43 98.781 111.7 3.3 2.4
15:17:18.017 210 47237.0 344.66 7650 69.20 1.180 1.354 0.788 13.15 10.46 0.614 111.7 3.2 2.3
15:17:19.019 211 49585.0 361.47 7644 68.56 1.123 1.289 0.760 10.32 3.04 0.560 111.7 3.5 2.6
15:17:20.014 212 49637.0 362.10 7649 69.24 1.122 1.282 0.761 12.91 11.44 0.606 111.7 3.4 2.5
15:17:21.014 213 50359.0 367.72 7656 69.36 1.106 1.260 0.757 7.62 4.06 0.528 111.7 3.3 2.4
15:17:22.014 214 58828.0 429.43 7654 68.87 0.947 1.067 0.681 10.69 10.81 0.448 111.7 3.8 2.9
15:17:23.014 215 58530.0 427.21 7653 69.08 0.950 1.071 0.681 14.20 10.13 0.448 111.6 3.9 2.8
15:17:24.013 216 58600.0 427.09 7642 68.84 0.949 1.071 0.680 11.47 7.85 0.443 111.6 3.8 2.8
15:17:25.014 217 58475.0 427.66 7668 69.35 0.952 1.071 0.684 12.22 11.27 0.423 111.7 3.7 2.8
15:17:26.014 218 103778.0 757.13 7650 69.07 9.756 9.695 9.893 16382.82 16375.18 377.169 111.3 7.5 5.4
15:17:27.014 219 107946.0 787.68 7651 68.96 1.032 1.163 0.741 20.63 12.38 0.543 111.4 6.9 5.0
15:17:28.014 220 109805.0 802.00 7658 69.19 1.013 1.139 0.730 15.82 11.08 0.474 111.2 7.1 5.3
  1. В 15:25 было подано электропитание на СХД №2, через 10 минут система автоматически запустилась. В 15:38:13 автоматически запустилась синхронизация LUN’ов кластера HyperMetro (Режим работы Automatic, скорость репликации Highest). В результате было зафиксировано:
    • Снижение производительности (IOPS) на 8% с 108000 до 96000, при этом значительных колебаний времени отклика от диска не обнаружено;
    • Незначительные колебания загруженности процессора на контроллерах СХД с 25-30% до 40-45%;
    • Загруженность SAN-линка между площадками составляет не более 4Gb/s.
Aug 14, 2020 interval i/o MB/sec bytes read resp read write read write resp queue cpu% cpu%
rate 1024**2 i/o pct time resp resp max max stddev depth sys+u sys
15:38:12.014 1464 109911.0 802.30 7654 69.25 1.012 1.136 0.733 17.64 10.69 0.489 111.2 6.9 5.1
15:38:13.014 1465 108887.0 795.15 7657 68.85 1.019 1.142 0.748 22.16 10.58 0.487 111.2 6.9 5.2
15:38:14.014 1466 98237.0 717.75 7661 68.91 1.135 1.215 0.957 18.98 104.32 0.786 111.3 6.5 4.8
15:38:15.015 1467 101881.0 744.26 7660 68.88 1.094 1.168 0.930 11.77 17.60 0.453 111.4 6.7 5.0
15:38:16.018 1468 99834.0 729.18 7658 68.81 1.113 1.192 0.939 16.94 10.62 0.507 111.1 6.4 4.8
15:38:17.016 1469 100105.0 730.63 7653 69.23 1.111 1.188 0.938 12.70 11.56 0.464 111.2 6.7 5.0
15:38:18.015 1470 102534.0 748.59 7655 69.11 1.085 1.157 0.922 13.86 15.01 0.429 111.2 6.7 5.0
15:38:19.021 1471 98524.0 719.60 7658 69.15 1.130 1.212 0.946 25.30 14.14 0.684 111.4 6.5 4.8
15:38:20.014 1472 101369.0 740.74 7662 68.84 1.099 1.172 0.936 16.39 10.96 0.495 111.3 6.6 4.9
15:38:21.017 1473 101855.0 744.00 7659 68.90 1.093 1.168 0.927 14.93 12.20 0.455 111.3 6.8 5.0
15:38:22.014 1474 102042.0 745.22 7657 69.15 1.092 1.164 0.931 11.53 108.98 0.583 111.4 6.6 5.0
15:38:23.014 1475 103521.0 755.01 7647 68.81 1.076 1.147 0.921 13.21 34.92 0.414 111.5 6.8 5.0
15:38:24.014 1476 100112.0 730.22 7648 68.81 1.112 1.190 0.940 15.23 11.89 0.509 111.3 6.7 5.0
15:38:25.013 1477 97903.0 714.41 7651 68.80 1.137 1.221 0.951 12.59 10.92 0.539 111.3 6.5 4.9
15:38:26.014 1478 101654.0 742.79 7661 68.92 1.096 1.169 0.932 13.16 12.98 0.464 111.4 6.8 5.1
15:38:27.017 1479 101877.0 744.94 7667 68.85 1.091 1.164 0.929 17.60 11.23 0.479 111.2 6.7 5.0
15:38:28.014 1480 101590.0 741.21 7650 68.83 1.097 1.173 0.930 18.98 15.49 0.460 111.4 6.7 5.1
15:38:29.014 1481 101667.0 742.08 7653 69.34 1.095 1.169 0.928 17.03 10.30 0.431 111.4 6.5 4.9
15:38:30.014 1482 99765.0 728.72 7659 69.24 1.116 1.193 0.941 18.51 18.07 0.494 111.3 6.6 4.9
15:38:31.014 1483 100979.0 737.48 7658 69.07 1.103 1.179 0.934 15.31 11.18 0.510 111.4 6.7 5.0
15:38:32.014 1484 100805.0 735.41 7649 69.09 1.103 1.177 0.937 13.43 10.71 0.455 111.2 6.8 5.0
15:38:33.013 1485 93638.0 682.77 7645 69.10 1.190 1.208 1.148 15.30 104.14 0.566 111.4 6.4 4.7
15:38:34.014 1486 93641.0 684.09 7660 69.22 1.190 1.210 1.146 14.91 12.23 0.428 111.4 6.1 4.5
15:38:35.016 1487 94415.0 689.97 7662 69.14 1.181 1.200 1.139 14.04 11.42 0.388 111.5 6.5 4.9
15:38:36.014 1488 91479.0 667.40 7650 68.87 1.216 1.242 1.159 18.53 12.08 0.476 111.3 6.5 4.8
15:38:37.015 1489 92628.0 676.44 7657 68.93 1.203 1.224 1.156 14.73 12.86 0.515 111.4 6.4 4.8
15:38:38.018 1490 93541.0 682.33 7648 68.93 1.190 1.214 1.137 11.57 13.76 0.413 111.4 6.3 4.8
15:38:39.015 1491 92434.0 674.36 7649 68.88 1.206 1.231 1.150 11.33 11.21 0.432 111.4 6.5 4.9
  1. В 16:50 был завершен процесс синхронизации LUN’ов кластера HyperMetro, в результате чего было зафиксировано возвращение путей на ESXi в исходное состояние:
    • Пути на гипервизорах ESXi до СХД №2 перешли в состояние Active на сервере площадки 1 и Active (I/O) на сервере площадки 2, пути до СХД №1 перешли в состояние Active на сервере площадки 2 и Active (I/O) на сервере площадки 1;
    • Загруженность SAN — линка между площадками сократилась до 1Gb/s.

Суммарные графики IOPS, Bandwidth, latency во время отключения/включения СХД:

Графики IOPS, Bandwidth, latency во время отключения/включения СХД для ВМ:

Приложение 6. Протокол теста «Native MPIO. Влияние отказа СХД на существующую ВМ c СУБД Oracle DB (dev03)»

Для текущего теста стенд описан в Приложении 2. Выбор служебных параметров VDbench описан в Приложении 3.

Протокол теста:

  1. В тестовый стенд на сервер SR650-01 и LUN LUN2_HyperMetro_D5kv6_2_pri мигрирована ВМ dev03 с СУБД Oracle DB. Preffered СХД для данного кластерного LUN является СХД №2.
  2. В 14:21 запущена тестовая нагрузка на ВМ dev03, дополнительно запущен VDbench для фиксации времени приостановки дискового ввода-вывода в конфигурации профиля нагрузки заказчика (Oracle DB) на 14-ти ВМ.
  3. В 14:34 путем полного отключения электропитания сымитирован отказ СХД №2, зафиксировано:
    • Пути на гипервизорах ESXi до СХД №2 перешли в состояние Dead, пути до СХД №1 ранее находившиеся в статусе Active перешли в статус Active (I/O);
    • Полная приостановка ввода-вывода к дискам ВМ на 14 секунд;
    • После приостановки ввода-вывода на ВМ dev03 СУБД Oracle DBосталась доступна и работоспособна, повреждения данных не обнаружено; тестовая нагрузка продолжила свою работу, ошибок с экстренным завершением процесса не обнаружено.
Aug 14, 2020 interval i/o MB/sec bytes read resp read write read write resp queue cpu% cpu%
Зафиксировано полное прекращение в передаче данных на 14 сек + из-за остановки репликации выросли IOPS с 76к до 80к (5-6%) rate 1024**2 i/o pct time resp resp max max stddev depth sys+u sys
14:34:33.014 766 77452.0 565.76 7659 68.89 1.433 1.525 1.229 16.73 16.62 0.636 111.0 6.2 4.3
14:34:34.015 767 78134.0 570.54 7656 69.12 1.425 1.513 1.226 17.43 17.44 0.593 111.3 6.1 4.3
14:34:35.014 768 76334.0 557.61 7659 68.74 1.422 1.513 1.221 16.75 15.26 0.630 111.2 6.0 4.2
14:34:36.018 769 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.1 0.2 0.0
14:34:37.016 770 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.0 0.2 0.1
14:34:38.015 771 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 111.9 0.1 0.1
14:34:39.015 772 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.1 0.1 0.1
14:34:40.015 773 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.0 0.1 0.1
14:34:41.015 774 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.0 0.1 0.0
14:34:42.014 775 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.0 0.2 0.1
14:34:43.015 776 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.1 0.2 0.1
14:34:44.018 777 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.0 0.2 0.1
14:34:45.014 778 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.0 0.2 0.1
14:34:46.017 779 2.0 0.02 8192 100.00 10329.86 10329.86 0.000 10599.42 0.00 381.206 112.0 0.1 0.1
14:34:47.015 780 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.1 0.4 0.1
14:34:48.018 781 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 112.0 0.4 0.1
14:34:49.015 782 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 111.9 0.1 0.1
14:34:50.015 783 62506.0 456.91 7665 68.83 26.578 18.360 44.73 14318.94 14310.57 596.654 111.3 5.9 4.2
14:34:51.015 784 76590.0 559.14 7655 68.93 1.454 1.695 0.919 28.34 19.53 0.916 111.3 6.3 4.1
14:34:52.015 785 72472.0 529.05 7654 69.12 1.534 1.793 0.955 24.86 9.46 0.965 111.2 5.7 3.9
14:34:53.015 786 75317.0 548.99 7643 68.93 1.477 1.725 0.927 17.12 10.96 0.906 111.2 5.8 4.1
14:34:54.015 787 75051.0 547.70 7652 68.85 1.481 1.727 0.936 19.03 9.31 0.854 111.2 5.7 4.1
14:34:55.015 788 76383.0 558.08 7661 68.87 1.456 1.698 0.918 19.41 9.59 0.858 111.2 5.8 4.1
14:34:56.020 789 76235.0 556.80 7658 68.98 1.456 1.696 0.922 14.63 11.01 0.844 111.0 5.8 4.0
14:34:57.015 790 79820.0 582.22 7648 68.89 1.391 1.619 0.887 30.95 11.03 0.847 111.0 6.0 4.2
14:34:58.014 791 76184.0 556.41 7658 69.14 1.456 1.695 0.922 20.97 11.47 0.931 111.0 5.9 4.1
14:34:59.014 792 79511.0 579.27 7639 68.84 1.399 1.626 0.897 16.27 10.90 0.813 111.2 5.9 4.3
14:35:00.015 793 78815.0 574.70 7645 68.89 1.412 1.642 0.904 32.47 10.91 0.954 111.3 6.0 4.2
14:35:01.014 794 74434.0 542.82 7646 69.07 1.496 1.743 0.945 44.25 13.47 1.105 111.4 5.3 3.8
14:35:02.014 795 80366.0 586.02 7646 68.95 1.386 1.611 0.886 20.47 8.37 0.792 111.3 6.0 4.3
14:35:03.014 796 79506.0 580.18 7651 69.18 1.399 1.623 0.897 31.43 13.34 0.880 111.3 5.7 4.1
14:35:04.014 797 81454.0 594.74 7656 69.01 1.368 1.587 0.880 17.65 10.80 0.776 111.4 5.9 4.1
14:35:05.014 798 81264.0 592.75 7648 69.25 1.368 1.584 0.882 19.98 11.16 0.786 111.2 6.1 4.3
14:35:06.014 799 84296.0 615.75 7659 69.15 1.320 1.526 0.858 24.94 11.49 0.747 111.2 6.2 4.4
14:35:07.014 800 85549.0 624.10 7649 69.11 1.298 1.501 0.843 16.47 11.47 0.746 111.1 6.3 4.3
14:35:08.018 801 82676.0 603.84 7658 69.24 1.345 1.557 0.869 23.27 12.93 0.836 111.1 6.2 4.4
14:35:09.016 802 84485.0 616.35 7649 68.89 1.317 1.524 0.858 39.73 11.36 0.863 111.2 6.2 4.4
  1. В 14:43 было подано электропитание на СХД №2, через 10 мин. система автоматически запустилась. В 15:53:41 автоматически запустилась синхронизация LUN’ов кластера HyperMetro (Режим работы Automatic, скорость репликации Highest). В ходе синхронизации влияния на работу БД и тестовой нагрузки на ВМ dev03 не обнаружено.
Aug 14, 2020 interval i/o MB/sec bytes read resp read write read write resp queue cpu% cpu%
в 14_53 зафиксировано падение IOPS на 5-7 % в связи со автоматическим стартом репликации rate 1024**2 i/o pct time resp resp max max stddev depth sys+u sys
14:53:28.014 1901 85905.0 627.53 7659 68.94 1.291 1.421 1.003 17.18 11.06 0.573 110.9 6.7 4.8
14:53:29.018 1902 86278.0 629.41 7649 68.90 1.287 1.416 1.002 14.23 12.00 0.676 111.1 6.6 4.7
14:53:30.015 1903 80197.0 586.02 7662 69.27 1.378 1.525 1.047 36.36 11.01 0.846 110.5 6.3 4.4
14:53:31.017 1904 80349.0 585.77 7644 69.23 1.382 1.528 1.054 29.98 16.35 0.773 111.1 6.2 4.4
14:53:32.014 1905 85962.0 627.20 7650 68.96 1.291 1.420 1.002 19.68 10.99 0.559 110.9 6.6 4.7
14:53:33.014 1906 85299.0 622.45 7651 69.24 1.300 1.430 1.007 16.98 12.72 0.588 110.9 6.6 4.8
14:53:34.014 1907 84296.0 615.09 7651 69.02 1.318 1.453 1.019 18.83 12.32 0.673 111.1 6.5 4.6
14:53:35.017 1908 85573.0 624.84 7656 69.05 1.298 1.430 1.002 24.95 9.27 0.686 111.1 6.7 4.8
14:53:36.015 1909 85720.0 625.84 7655 68.92 1.291 1.424 0.996 17.06 9.95 0.598 110.6 6.5 4.6
14:53:37.014 1910 86422.0 631.12 7657 68.98 1.282 1.411 0.997 15.46 11.66 0.546 110.8 6.8 4.7
14:53:38.014 1911 86236.0 628.65 7643 68.91 1.287 1.418 0.998 16.42 15.14 0.612 111.0 6.5 4.7
14:53:39.015 1912 83296.0 608.22 7656 68.84 1.334 1.473 1.027 17.33 10.41 0.596 111.1 6.4 4.6
14:53:40.014 1913 85417.0 623.29 7651 68.99 1.301 1.431 1.012 13.00 11.98 0.565 111.1 6.4 4.5
14:53:41.018 1914 80172.0 584.75 7647 68.90 1.386 1.504 1.125 15.32 101.36 0.720 111.1 5.9 4.2
14:53:42.015 1915 73494.0 536.91 7660 69.20 1.511 1.617 1.274 45.47 12.39 0.857 111.1 5.6 4.0
14:53:43.014 1916 77079.0 562.07 7646 68.86 1.439 1.534 1.230 21.57 11.14 0.613 110.9 6.0 4.2
14:53:44.014 1917 77324.0 564.64 7656 68.90 1.433 1.523 1.232 15.40 15.38 0.593 110.8 5.8 4.2
14:53:45.014 1918 78073.0 570.74 7665 69.37 1.422 1.510 1.222 13.08 12.14 0.595 111.0 5.9 4.2
14:53:46.014 1919 77735.0 567.53 7655 69.01 1.431 1.519 1.235 13.86 10.32 0.598 111.3 6.0 4.3
14:53:47.021 1920 78392.0 571.75 7647 69.19 1.417 1.502 1.224 13.76 17.08 0.570 111.0 5.9 4.3
14:53:48.017 1921 78783.0 575.25 7656 69.24 1.409 1.496 1.213 16.02 11.19 0.574 111.0 5.9 4.2
14:53:49.014 1922 77437.0 566.00 7664 69.26 1.433 1.523 1.229 15.17 11.29 0.612 110.9 5.9 4.3
14:53:50.014 1923 75609.0 552.28 7659 68.97 1.470 1.567 1.253 38.23 10.97 0.816 111.1 5.8 4.1
14:53:51.014 1924 75656.0 552.43 7656 68.64 1.466 1.564 1.250 25.93 11.87 0.770 111.1 5.6 4.0
14:53:52.016 1925 78307.0 571.76 7656 68.94 1.421 1.515 1.214 34.71 12.02 0.767 111.1 5.9 4.2
14:53:53.015 1926 78138.0 570.70 7658 68.75 1.427 1.520 1.222 12.92 11.53 0.642 111.5 5.8 4.1
14:53:54.014 1927 79053.0 577.49 7659 68.92 1.406 1.496 1.206 14.39 12.78 0.574 111.1 5.9 4.2
14:53:55.014 1928 78583.0 574.25 7662 68.85 1.410 1.503 1.205 18.64 15.31 0.612 110.8 6.0 4.3
  1. В 16:15 был завершен процесс синхронизации LUN’ов кластера HyperMetro, в результате чего было зафиксировано возвращение путей на ESXi в исходное состояние:
    • Пути на гипервизорах ESXi до СХД №2 перешли в состояние Active на сервере площадки 1 и Active (I/O) на сервере площадки 2, пути до СХД №1 перешли в состояние Active на сервере площадки 2 и Active (I/O) на сервере площадки 1.

Приложение 7. Описание тестового стенда c MPIO-драйвером Huawei UltraPath

Тестовый стенд имитирует два независимых центра обработки данных, объединенных темной оптикой. В каждом центре обработки данных установлен следующий комплект оборудования:

  • одна СХД Huawei Dorado5000 v6;
  • один коммутатор SAN с двенадцатью 16 или 32Gb MM SFP+, c одним одномодовым SFP+;
  • сервер установлен только в ДЦ №2 в следующей конфигурации:
  • один сервер Huawei 2288H V5 (2288H V5 10GE SFP+) (1xCPU, 768GB RAM, 1x10GbE, 2x32Gb FC) с ОС VMware ESXi, 6.7.0, 15160138).
  • на ESXi установлен драйвер OceanStor_UltraPath_21.6.3 для VMware_ESXi;
  • семь ВМ VDbench (8vCPU, 24GB RAM, 16GB disk, 4x600GB тестовые диски с контроллером VMware Paravirtual SCSI).

Дополнительно на существующем оборудовании заказчика развернуты две ВМ:

  • Одна для управления VDbench;
  • Одна для сервера Quorum кластера Huawei HyperMetro.

Серверное оборудование обновлено последними версиями прошивок. На ESXi устанавлены версии драйверов в соответствии с таблицами совместимости Huawei.

На коммутаторах SAN настроено зонирование, обеспечивающее связь.

Описание настроек кластера Huawei HyperMetro для VMware:

  • Все NVMe-диски собираны в один StoragePool в RAID5 с политикой резервирования дисков High;
  • Создан HyperMetro домен из двух СХД Huawei с Quorum сервером, доступным через порты управления обоих контроллеров. Для данного домена создан отдельный пользователь на СХД. Обе СХД осуществляют репликацию через 4 выделенных порта для репликации;
  • Созданы две пары LUN на СХД:
    • На первой СХД – LUN1_pri и LUN2_sec по 21TB;
    • На второй СХД – LUN1_sec и LUN2_pri по 21TB;
    • Из этих LUN собраны две пары HyperMetro, в которых LUN1 назначена роль Preffered на первой СХД, а LUN2 — роль Preffered на второй СХД. Скорость репликации — Highest. Политика восстановления — Automatic.
  • Созданные LUN презентованы хостам с одинаковым LUN ID (10 для LUN1, 11 для LUN2), которые настроены таким образом, чтобы пути к СХД, расположенной на одной площадке с сервером были выбраны как активные, а пути к уделенной СХД как резервные. Для презентации LUN хостам используются 4 выделенных порта для данных:
    • На первой СХД:
      • Сервер Hua2288h-01
        • HyperMetro Working Mode: Local preferred mode
        • OS Setting: VMware ESXi
        • Host Access Mode: Asymmetric
        • Preferred Path for HyperMetro: Yes
      • На второй СХД:
        • Сервер Hua2288h-01
          • HyperMetro Working Mode: Local preferred mode
          • OS Setting: VMware ESXi
          • Host Access Mode: Asymmetric
          • Preferred Path for HyperMetro: No
        • На ESXi выставлен автоматический режим работы MPIO Huawei UltraPath:

Тестовые диски ВМ размещаются на Preffered LUN локальной СХД. Нумерация ВМ с 8 по 14 на Hua2288h-01.

Схема демо-стенда представлена на рисунке ниже.

Приложение 8. Первоначальное тестирование

В ходе первоначального тестирования проводится наполнение дисков тестовых ВМ vdbench случайными данными и определяется служебный параметр – число потоков vdbench (в конфигурации профиля нагрузки заказчика) при котором достигается нагрузка с максимально оптимальным сочетанием IOPS/Latency. Данный параметр устанавливается равным 2.

Таблица тестирования с различным числом потоков.

BlockSize Thread AverageIOPS AverageLatency AverageMBsec
7653 1 51220,8 0,544 373,87
7654 2 62022,8 0,9 452,73
7654 4 62189,9 1,796 453,97
7654 8 62258,3 3,59 454,47
7654 16 62486,7 7,154 456,14
7654 32 62403,1 14,317 455,52
7654 64 62490,6 28,43 456,18
7654 128 62389,5 56,795 455,46

Графики IOPS, Bandwidth, latency для числа потоков = 2:

Приложение 9. Протокол теста «Huawei MPIO. Имитация отказа СХД №1»

Для текущего теста стенд описан в Приложении 6. Выбор служебных параметров VDbench описан в Приложении 6.1.

Протокол теста:

  1. В 10:56 запущен VDbench со следующими параметрами производительности 57k IOPS 420MB/s в конфигурации профиля нагрузки заказчика (Oracle DB) на 7-ми ВМ.
  2. В 10:57 сервер Quorum отключен, в интерфейсе СХД зафиксировано появление ошибки о недоступности Quorum:
    • Деградации производительности не обнаружено.
  3. В 10:58 сервер Quorum включен, в интерфейсе СХД зафиксировано отсутствие ошибки о недоступности Quorum:
    • Деградации производительности не обнаружено.
  4. В 11:03 путем полного отключения электропитания сымитирован отказ СХД №1, зафиксировано:
    • Пути на гипервизорах ESXi до СХД №1 перешли в состояние Dead;
    • Полная приостановка ввода-вывода к дискам ВМ на 13 секунд;
    • После возобновления ввода-вывода, зафиксирован рост производительности (IOPS) на 2% с 57000 до 59000, при этом значительных колебаний времени отклика от диска не обнаружено.
Aug 14, 2020 interval i/o MB/sec bytes read resp read write read write resp queue cpu% cpu%
rate 1024**2 i/o pct time resp resp max max stddev depth sys+u sys
11:02:52.007 439 57242.0 418.11 7659 68.71 0.975 0.994 0.932 16.50 11.86 0.440 55.8 2.5 1.8
11:02:53.007 440 57266.0 417.65 7647 68.81 0.975 0.992 0.937 11.47 14.23 0.394 55.8 2.4 1.8
11:02:54.008 441 58179.0 424.30 7647 69.14 0.961 0.977 0.925 18.26 12.50 0.374 55.9 2.6 1.8
11:02:55.007 442 57771.0 421.64 7652 68.88 0.966 0.985 0.926 10.95 14.45 0.349 55.8 2.4 1.7
11:02:56.007 443 57951.0 423.50 7662 69.16 0.964 0.982 0.926 11.34 11.62 0.342 55.9 2.4 1.8
11:02:57.008 444 58261.0 425.25 7653 69.04 0.960 0.976 0.924 12.23 11.53 0.364 55.9 2.6 1.9
11:02:58.007 445 41604.0 303.48 7648 68.88 0.973 0.992 0.930 9.80 16.20 0.358 55.9 2.0 1.5
11:02:59.009 446 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.0 0.1 0.0
11:03:00.009 447 82.0 0.63 8004 100.00 1003.11 1003.11 0.000  2 165.08 0.00 1 080.38 56.0 0.1 0.1
11:03:01.008 448 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.0 0.0 0.0
11:03:02.007 449 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.0 0.1 0.0
11:03:03.007 450 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.0 0.1 0.1
11:03:05.007 452 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.0 0.1 0.0
11:03:06.008 453 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.0 0.1 0.1
11:03:07.007 454 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.0 0.1 0.0
11:03:08.007 455 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.0 0.1 0.0
11:03:09.007 456 1.0 0.01 8192 100.00 8807.22 8807.22 0.000  8 807.22 0.00 0.000 56.0 0.0 0.0
11:03:10.007 457 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.0 0.0 0.0
11:03:11.009 458 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.0 0.1 0.0
11:03:12.007 459 5308.0 38.47 7598 67.92 133.44 56.10 297.156 11 857.82 1 4245.07 1 279.79 56.0 0.5 0.4
11:03:13.010 460 55399.0 404.64 7658 69.34 1.010 1.164 0.659 13.65 6.33 0.587 55.9 3.5 2.3
11:03:14.008 461 55272.0 404.55 7674 69.47 1.011 1.163 0.665 19.57 4.85 0.588 55.9 2.5 1.7
11:03:15.008 462 57447.0 419.62 7659 68.65 0.973 1.123 0.645 14.68 9.70 0.508 55.9 2.6 1.9
11:03:16.008 463 56160.0 410.22 7659 69.00 0.996 1.147 0.658 14.68 8.24 0.553 55.9 2.4 1.7
11:03:17.008 464 55914.0 408.08 7652 69.38 1.000 1.150 0.660 10.36 5.05 0.534 55.9 2.6 1.9
11:03:18.008 465 55523.0 405.55 7658 68.93 1.006 1.157 0.671 14.10 9.14 0.541 55.9 2.4 1.8
11:03:19.008 466 56820.0 414.06 7641 69.25 0.981 1.127 0.653 5.85 3.27 0.497 55.9 2.3 1.7
11:03:20.008 467 55732.0 406.37 7645 68.74 1.004 1.156 0.671 21.42 9.76 0.635 55.8 2.5 1.9
11:03:21.008 468 58948.0 429.56 7641 68.81 0.948 1.090 0.635 11.39 2.09 0.479 55.9 2.7 1.9
11:03:22.008 469 56811.0 415.52 7669 68.90 0.984 1.133 0.653 16.04 6.16 0.571 55.9 2.4 1.8
11:03:23.008 470 58032.0 423.70 7655 69.31 0.963 1.107 0.638 12.60 2.92 0.512 55.9 2.6 1.9
  1. В 11:10 было подано электропитание на СХД №1, через 10 минут система автоматически запустилась. В 11:22:14 автоматически запустилась синхронизация LUN’ов кластера HyperMetro (Режим работы Automatic, скорость репликации Highest), в результате чего было зафиксировано:
    • Снижение производительности (IOPS) на 16% с 59000 до 49000, при этом значительных колебаний времени отклика от диска не обнаружено;
    • Незначительные колебания загруженности процессора на контроллерах СХД с 25-30% до 40-45%;
    • Загруженность линка SAN между площадками составляет не более 4Gb/s.
Aug 14, 2020 interval i/o MB/sec bytes read resp read write read write resp queue cpu% cpu%
rate 1024**2 i/o pct time resp resp max max stddev depth sys+u sys
11:22:08.010 1595 58904.0 429.03 7637 68.63 0.948 1.088 0.641 36.22 11.07 0.700 55.8 2.5 1.9
11:22:09.008 1596 59473.0 434.04 7652 69.22 0.936 1.070 0.636 17.11 9.84 0.465 55.7 2.4 1.8
11:22:10.008 1597 58811.0 429.14 7651 68.81 0.948 1.087 0.642 9.66 2.54 0.465 55.8 2.6 1.9
11:22:11.008 1598 58640.0 428.61 7664 68.93 0.95 1.094 0.64 16.42 4.29 0.531 55.9 2.4 1.8
11:22:12.008 1599 59221.0 432.47 7657 68.79 0.944 1.083 0.637 19.60 4.37 0.502 55.9 2.6 1.9
11:22:13.008 1600 59493.0 434.47 7657 69.04 0.940 1.076 0.635 12.08 7.99 0.486 55.9 2.5 1.8
11:22:14.007 1601 52570.0 383.85 7656 69.32 1.063 1.137 0.895 16.14 101.68 0.647 55.9 2.3 1.7
11:22:15.007 1602 50158.0 365.77 7646 68.84 1.115 1.153 1.030 7.65 3.94 0.41 55.9 2.2 1.7
11:22:16.008 1603 49160.0 358.11 7638 69.19 1.138 1.178 1.048 12.42 10.98 0.442 55.9 2.3 1.7
11:22:17.008 1604 49811.0 363.13 7644 68.66 1.123 1.166 1.029 11.61 8.04 0.428 55.9 2.4 1.8
11:22:18.008 1605 49202.0 359.53 7662 69.51 1.136 1.177 1.044 18.33 12.63 0.461 55.9 2.4 1.8
11:22:19.007 1606 50652.0 369.72 7653 68.91 1.104 1.139 1.025 14.79 16.75 0.407 55.9 2.4 1.8
11:22:20.007 1607 49604.0 362.48 7662 69.26 1.126 1.165 1.039 12.75 7.09 0.452 55.9 2.2 1.6
11:22:21.008 1608 50163.0 365.41 7638 68.74 1.115 1.152 1.033 16.49 11.75 0.461 55.9 2.3 1.7
11:22:22.007 1609 49263.0 360.35 7670 69.04 1.135 1.174 1.047 12.70 12.15 0.486 55.9 2.2 1.6
11:22:23.008 1610 49301.0 358.62 7627 69.19 1.134 1.173 1.046 11.16 16.58 0.480 55.9 2.4 1.7
11:22:24.008 1611 49644.0 362.56 7657 68.65 1.125 1.162 1.043 16.74 11.76 0.460 55.8 2.3 1.6
11:22:25.008 1612 49059.0 358.34 7659 68.77 1.140 1.184 1.044 11.31 10.70 0.458 55.9 2.2 1.6
11:22:26.008 1613 49102.0 358.14 7648 69.04 1.137 1.177 1.047 15.21 11.30 0.489 55.8 2.2 1.6
  1. В 12:16 был завершен процесс синхронизации LUN’ов кластера HyperMetro, в результате чего было зафиксировано возвращение путей на ESXi в исходное состояние:
    • Пути на гипервизорах ESXi до СХД №1 перешли в состояние Active;
    • Загруженность линка SAN между площадками сократилась до 1Gb/s.

Суммарные графики IOPS, Bandwidth, latency во время отключения/включения СХД:

Графики IOPS, Bandwidth, latency во время отключения/включения СХД для ВМ:

Приложение 10. Протокол теста «Huawei MPIO. Имитация отказа СХД №2»

Для текущего теста стенд описан в Приложении 7. Выбор служебных параметров VDbench описан в Приложении 9.

Протокол теста:

  1. В 13:11 запущен VDbench со следующими параметрами производительности 57k IOPS 420MB/s в конфигурации профиля нагрузки заказчика (Oracle DB) на7-ти ВМ.
  2. В 13:14 путем полного отключения электропитания сымитирован отказ СХД №2, зафиксировано:
    • Пути на гипервизорах ESXi до СХД №2 перешли в состояние Dead;
    • Полная приостановка ввода-вывода к дискам ВМ на 13 секунд, после чего, зафиксирован рост производительности (IOPS) на 16% с 55000 до 66000, при этом значительных колебаний времени отклика от диска не обнаружено.
Aug 14, 2020 interval i/o MB/sec bytes read resp read write read write resp queue cpu% cpu%
rate 1024**2 i/o pct time resp resp max max stddev depth sys+u sys
13:14:03.009 148 56568.0 413.12 7657 69.14 0.988 1.007 0.94 16.65 10.49 0.38 55.9 2.7 1.9
13:14:04.009 149 55441.0 404.65 7653 69.44 1.01 1.04 0.9 10.98 12.51 0.46 55.9 2.6 1.8
13:14:05.009 150 15041.0 110.16 7679 69.44 0.99 1.004 0.94 7.17 4.87 0.35 55.9 0.9 0.6
13:14:06.014 151 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.0 0.0 0.0
13:14:07.009 152 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.0 0.1 0.0
13:14:08.009 153 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.0 0.0 0.0
13:14:09.010 154 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.1 0.1 0.1
13:14:10.009 155 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 55.9 0.0 0.0
13:14:11.010 156 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.1 0.1 0.1
13:14:12.009 157 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 55.9 0.1 0.1
13:14:13.008 158 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.0 0.0 0.0
13:14:14.009 159 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.0 0.1 0.0
13:14:15.027 160 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.6 0.0 0.0
13:14:16.010 161 1.0 0.01 8192 100.00 11707.89 11707.89 0.000 11707.89 0.00 0.000 55.4 0.0 0.0
13:14:17.008 162 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.0 0.1 0.0
13:14:18.008 163 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 56.0 0.1 0.0
13:14:19.008 164 35429.0 258.13 7639 68.86 22.96 11.56 48.15 14134.03 14222.77 552.44 55.9 1.9 1.3
13:14:20.008 165 55527.0 404.71 7642 68.96 1.006 1.127 0.736 11.02 4.01 0.474 55.9 3.0 1.8
13:14:21.008 166 53062.0 387.34 7654 69.19 1.054 1.189 0.751 12.67 5.28 0.563 55.9 2.8 1.9
13:14:22.008 167 53469.0 390.76 7663 69.19 1.045 1.177 0.749 22.82 5.36 0.594 55.9 2.6 1.9
13:14:23.008 168 53242.0 388.85 7658 69.46 1.051 1.185 0.746 13.48 6.54 0.560 55.9 2.7 1.9
13:14:24.008 169 52069.0 380.77 7668 69.47 1.073 1.200 0.785 9.94 9.99 0.498 55.9 2.4 1.7
13:14:25.008 170 50329.0 368.21 7671 68.99 1.111 1.224 0.858 11.98 7.78 0.513 55.9 2.3 1.6
13:14:26.007 171 50040.0 365.83 7665 69.34 1.117 1.242 0.835 11.30 2.57 0.522 55.9 2.1 1.5
13:14:27.010 172 52695.0 385.09 7662 68.96 1.062 1.198 0.759 12.11 4.36 0.561 55.9 2.2 1.6
13:14:28.009 173 55019.0 402.22 7665 69.43 1.016 1.142 0.730 21.22 4.90 0.535 55.9 2.5 1.8
13:14:29.008 174 55311.0 403.68 7652 69.31 1.010 1.132 0.735 12.54 10.55 0.529 55.9 2.5 1.7
13:14:30.008 175 56289.0 411.48 7665 69.29 0.993 1.114 0.718 12.66 3.09 0.457 55.9 2.6 1.9
13:14:31.008 176 56541.0 412.59 7651 68.59 0.989 1.112 0.718 17.35 2.48 0.495 55.9 2.7 1.9
13:14:32.008 177 57060.0 416.28 7649 68.68 0.979 1.101 0.713 10.45 2.89 0.452 55.9 2.6 1.9
13:14:33.007 178 57545.0 419.77 7648 69.02 0.971 1.090 0.707 13.28 14.46 0.449 55.9 2.5 1.8
13:14:34.007 179 58552.0 427.36 7653 69.03 0.955 1.067 0.703 12.15 7.75 0.424 55.9 2.6 1.8
13:14:35.008 180 58938.0 430.11 7652 68.98 0.948 1.061 0.697 9.64 6.33 0.436 55.9 2.7 2.0
13:14:36.010 181 58682.0 428.15 7650 68.85 0.952 1.065 0.703 12.24 3.22 0.454 55.9 2.8 1.9
13:14:37.008 182 60001.0 438.40 7661 69.23 0.932 1.037 0.697 10.81 9.52 0.409 55.9 3.8 1.9
13:14:38.008 183 59407.0 434.02 7660 69.18 0.941 1.050 0.696 11.76 9.93 0.453 55.9 2.3 1.7
13:14:39.008 184 59776.0 436.56 7658 69.09 0.935 1.043 0.693 11.99 2.95 0.431 55.9 4.1 1.9
13:14:40.009 185 59742.0 436.30 7657 68.84 0.935 1.044 0.695 17.22 9.91 0.456 55.9 2.8 2.0
13:14:41.008 186 60138.0 438.41 7644 68.77 0.929 1.037 0.692 13.27 10.68 0.446 55.9 2.8 2.0
13:14:42.008 187 59885.0 437.78 7665 69.32 0.933 1.039 0.693 16.37 9.79 0.450 55.9 2.5 1.8
13:14:43.008 188 59821.0 436.55 7652 68.86 0.934 1.043 0.694 12.39 3.10 0.449 55.9 2.6 1.8
13:14:44.008 189 62053.0 452.88 7652 69.00 0.900 1.010 0.657 10.98 10.00 0.438 55.9 2.5 1.8
13:14:45.008 190 67798.0 494.75 7651 69.14 0.824 0.932 0.584 16.89 10.96 0.408 55.9 2.7 1.9
13:14:46.008 191 68041.0 496.81 7656 68.98 0.821 0.929 0.581 15.08 11.39 0.418 55.9 2.9 2.1
13:14:47.010 192 66568.0 485.58 7648 68.99 0.839 0.952 0.588 47.36 7.08 0.755 55.9 3.2 2.3
  1. В 13:22 было подано электропитание на СХД №2, через 10 минут система автоматически запустилась. В 13:35:24 автоматически запустилась синхронизация LUN’ов кластера HyperMetro (Режим работы Automatic, скорость репликации Highest), в результате чего было зафиксировано:
    • Снижение производительности (IOPS) на 16% с 66000 до 55000, при этом значительных колебаний времени отклика от диска не обнаружено;
    • Незначительные колебания загруженности процессора на контроллерах СХД с 25-30% до 40-45%;
    • Загруженность SAN — линка между площадками составляет не более 4Gb/s.
Aug 14, 2020 interval i/o MB/sec bytes read resp read write read write resp queue cpu% cpu%
rate 1024**2 i/o pct time resp resp max max stddev depth sys+u sys
13:35:17.008 1422 66577.0 486.37 7660 69.05 0.838 0.949 0.591 13.01 10.69 0.416 55.8 2.9 2.2
13:35:18.007 1423 66501.0 485.93 7662 69.16 0.839 0.952 0.588 15.44 5.02 0.430 55.8 2.9 2.1
13:35:19.007 1424 67157.0 489.94 7649 68.71 0.832 0.943 0.589 10.89 9.31 0.407 55.9 2.8 2.1
13:35:20.008 1425 66308.0 483.90 7652 69.18 0.843 0.955 0.591 15.36 3.95 0.427 55.9 2.7 2.0
13:35:21.007 1426 66555.0 485.98 7656 68.88 0.839 0.952 0.589 11.02 2.25 0.400 55.9 2.7 2.1
13:35:22.008 1427 67180.0 489.97 7647 68.81 0.831 0.943 0.586 10.87 9.86 0.404 55.8 2.8 2.1
13:35:23.007 1428 65991.0 481.30 7647 68.99 0.845 0.960 0.589 9.96 9.39 0.434 55.8 2.6 2.0
13:35:24.007 1429 57036.0 416.56 7658 69.21 0.979 1.015 0.900 10.75 104.95 0.725 55.9 2.5 1.9
13:35:25.007 1430 55709.0 406.16 7644 68.97 1.003 1.018 0.971 11.80 11.35 0.375 55.9 2.6 1.9
13:35:26.007 1431 54863.0 399.85 7642 68.54 1.018 1.035 0.982 11.37 11.34 0.402 55.8 2.5 1.9
13:35:27.007 1432 55112.0 402.72 7662 69.04 1.013 1.029 0.977 13.07 8.76 0.420 55.8 2.3 1.7
13:35:28.007 1433 55488.0 404.75 7648 68.65 1.005 1.020 0.972 12.09 11.10 0.382 55.8 2.5 1.8
13:35:29.007 1434 54963.0 401.55 7660 69.08 1.017 1.034 0.978 11.52 9.94 0.409 55.9 2.6 2.0
13:35:30.007 1435 55591.0 405.77 7653 68.84 1.006 1.019 0.976 11.07 15.70 0.366 55.9 2.4 1.8
13:35:31.007 1436 55593.0 405.92 7656 68.61 1.004 1.019 0.971 14.32 10.01 0.376 55.8 2.4 1.8
13:35:32.007 1437 55107.0 402.44 7657 68.96 1.014 1.030 0.977 10.58 10.87 0.372 55.9 2.4 1.8
13:35:33.007 1438 55189.0 402.94 7655 68.84 1.012 1.028 0.976 17.11 10.74 0.401 55.9 2.3 1.7
13:35:34.007 1439 54306.0 396.32 7652 68.88 1.029 1.047 0.989 10.65 10.62 0.409 55.8 2.5 1.9
  1. В 14:26 был завершен процесс синхронизации LUN’ов кластера HyperMetro, в результате чего было зафиксировано возвращение путей на ESXi в исходное состояние:
    • Пути на гипервизорах ESXi до СХД №2 перешли в состояние Active;
    • Загруженность SAN — линка между площадками сократилась до 1Gb/s.

Суммарные графики IOPS, Bandwidth, latency во время отключения/включения СХД:
Графики IOPS, Bandwidth, latency во время отключения/включения СХД для ВМ:
Приложение 11. Протокол теста «Native MPIO-драйвер. Влияние функции виртуализации СХД Huawei на производительность»

За основу взят стенд, описанный в Приложении 2 со следующими корректировками:

  • В сети SAN добавлены зоны от сервера SR650-1 до существующей СХД VNX5700 и от СХД Huawei Dorado 5000v6 №2 до существующей СХД VNX5700;
  • С СХД VNX5700 вышеуказанному оборудованию был презентован LUN на 8TB.

Протокол теста:

  1. Том с СХД VNX5700 на ESXi сервере SR650-1 форматируется в VMFS. Каждой из семи тестовых ВМ VDbench, расположенных на сервере SR650-1, выделяется один диск на 1TB на данном VMFS Datastore;
  2. Запускается тестирование, в ходе которого проводится наполнение дисков тестовых ВМ vdbench случайными данными и определяется служебный параметр — число потоков vdbench (в конфигурации профиля нагрузки заказчика), при котором достигается нагрузка с максимально оптимальным сочетанием IOPS/Latency. В ходе первоначального тестирования данный параметр устанавливается равным 4.

Таблица тестирования с различным числом потоков:

TestName IOPS MBsec AverageRespTime RespTime<1ms RespTime>1ms<2ms RespTime>2ms<4ms RespTime>4ms
Initial_1_Native1_Virt 1820,8 13,29 3,83 31,5702 1,2344 20,3022 46,8932
Initial_1_Native2_Virt 1809,5 13,21 3,854 31,6028 1,2138 20,203 46,9804
Initial_1_Native3_Virt 1815,5 13,25 3,842 31,6535 1,1844 20,2211 46,941
Initial_2_Native1_Virt 3115,8 22,74 4,48 31,5352 0,8479 16,6688 50,9481
Initial_2_Native2_Virt 3074 22,44 4,541 31,5038 0,837 16,3411 51,3181
Initial_2_Native3_Virt 3070 22,41 4,547 31,515 0,8259 16,3966 51,2625
Initial_4_Native1_Virt 4891,1 35,71 5,714 30,4533 1,0372 12,8924 55,6171
Initial_4_Native2_Virt 4879,5 35,62 5,727 30,4191 1,0421 12,7068 55,832
Initial_4_Native3_Virt 4873,8 35,58 5,734 30,4468 1,0327 12,6609 55,8596
Initial_8_Native1_Virt 5088,9 37,15 10,991 0,3765 1,0297 5,6413 92,9525
Initial_8_Native2_Virt 5067 36,98 11,039 0,3871 1,0242 5,6161 92,9726
Initial_8_Native3_Virt 5079,8 37,08 11,011 0,3707 1,038 5,6303 92,961
Initial_16_Native1_Virt 5072,7 37,03 22,064 0 0 0 100
Initial_16_Native2_Virt 5084,6 37,12 22,013 0 0 0 100
Initial_16_Native3_Virt 5083,6 37,11 22,017 0 0 0 100
Initial_32_Native1_Virt 5068,1 36,99 44,183 0 0 0 100
Initial_32_Native2_Virt 5079,6 37,08 44,083 0 0 0 100
Initial_32_Native3_Virt 5065,8 36,98 44,203 0 0 0 100

Графики IOPS, Bandwidth, latency для числа потоков = 4 для трех первоначальных тестов:

  1. Том СХД VNX5700 на ESXi сервере SR650-1 отсоединяется, виртуализуется через СХД Huawei Dorado 5000v6 №2 и вновь презентуется серверу c LUN ID аналогичным СХД VNX5700. Виртуализованный том монтируется на ESXi с опцией «Keep existing signature» с прежним именем Datastore;
  2. Проводится повторное тестирование с установленным ранее числом потоков. В результате сравнения результатов:
    1. Зафиксировано незначительное увеличение времени отклика на 2%, с 5,72 до 5,86, также зафиксированы всплески во времени отклика;
    2. Зафиксировано незначительное ухудшение производительности (IOPS) на 2%, с 4881 до 4764.

 Результаты тестирования:

TestName IOPS MBsec Average
RespTime
RespTime<1ms RespTime>1ms<2ms RespTime>2ms<4ms RespTime>4ms
Work_4_Native1_Virt 4787,9 34,95 5,837 27,7205 4,007 11,0207 57,2518
Work_4_Native2_Virt 4760,8 34,75 5,87 27,761 3,9537 11,0475 57,2378
Work_4_Native3_Virt 4746,9 34,65 5,887 27,6923 4,0415 10,9868 57,2794

 Графики IOPS, Bandwidth, latency:

Графики IOPS, Bandwidth, latency со сравнением до и после виртуализации:

Приложение 12. Протокол теста «Native MPIO. Влияние процесса создание и удаления моментальных снимков (снапшотов) на производительность ВМ»

Для текущего теста стенд описан в Приложении 2. Выбор служебных параметров VDbench описан в Приложении 3.

Протокол теста:

  1. В тестовом стенде на сервере SR650-01 на ВМ slave07 (8xCPU, 96GB Memory, 16GB System Disk) был создан тестовый диск размером 5TB, который был наполнен случайными данными;
  2. В 10:54:59 запущен процесс создания полного снапшота на ВМ slave07;
  3. В 10:55 запущена тестовая нагрузка(600MB/s) на ВМ slave07 c размером блока 1MB, соотношением чтения/записи 50/50, числом потоков VDbench=4;
  4. В 11:00:51 завершился процесс создания снапшота ВМ slave07, занявший 6 минут и 2 секунды;

  1. В 11:13 после изменения тестовой нагрузкой не менее 200GB данных на диске ВМ slave07, запущен процесс удаления снапшота завершившийся в 12:09:13 и занявший 55 минут и 50 секунд.

Время завершения процесса:

  1. В 12:11:17 запущен процесс создания полного снапшота на ВМ slave07, занявший 6 минут и 11 секунд;
  2. В 12:29 после изменения тестовой нагрузкой не менее 200GB данных на диске ВМ slave07, запущен процесс удаления снапшота завершившийся в 13:25:43 и занявший 54 минуты и 25 секунд.

Время завершения процесса:

  1. В результате процесса создания и удаления снапшотов зафиксировано:
    • Время создания снапшота под нагрузкой на тестовой ВМ с диском размером 5TB занимает 6 минут, после полного завершения процесса создания зафиксирована деградация производительности(MB/s) на 38% с 980 до 600.
    • Время удаления снапшота под нагрузкой на тестовой ВМ с диском 5TB и изменением не менее 200GB данных на нем занимает 56 минут, при этом:
      • С начала запуска процесса удаления зафиксирована деградация производительности(MB/s) на 10% с 600 до 500.
      • Во время процесса удаления снапшота зафиксированы многочисленные кратковременные приостановки ввода-вывода на ВМ slave07 на 1 секунду;
  • Во время завершения процесса удаления снапшота зафиксирована приостановка ввода-вывода на ВМ slave07 на 6 секунд, после полного завершения процесса удаления зафиксирован рост производительности(MB/s) на 48% с 500 до 980.
Aug,2020 interval i/o MB/sec bytes read resp read write read write resp queue cpu% cpu%
rate 1024**2 i/o pct time resp resp max max stddev depth sys+u sys
Кратковременные приостановки:
11:13:25.003 1086 300.0 300.00 1048576 53.00 8.671 8.003 9.423 176.71 182.47 19.846 3.9 1.3 0.6
11:13:26.004 1087 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 4.0 0.0 0.0
11:13:28.004 1089 350.0 350.00 1048576 51.71 37.979 7.706 70.402 15.96 2614.52 275.137 3.9 1.8 0.9
11:26:34.003 1875 472.0 472.00 1048576 48.94 7.865 7.134 8.565 28.63 25.54 3.288 3.9 2.5 1.3
11:26:35.003 1876 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 4.0 0.2 0.2
11:26:36.003 1877 389.0 389.00 1048576 48.33 20.874 20.457 21.263 1268.29 1265.71 126.956 3.9 2.4 1.1
11:49:43.005 3264 463.0 463.00 1048576 45.79 7.616 7.087 8.062 13.43 20.39 2.345 3.9 2.4 1.0
11:49:44.003 3265 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 4.0 0.0 0.0
11:49:45.003 3266 130.0 130.00 1048576 50.77 64.274 62.694 65.903 1811.79 1816.47 312.937 4.0 0.9 0.5
Приостановка при завершении процесса удаления снапшота:
12:09:03.003 735 503.0 503.00 1048576 51.49 7.771 7.534 8.024 15.10 23.81 2.177 3.9 2.5 1.3
12:09:04.003 736 451.0 451.00 1048576 46.34 8.677 7.935 9.317 21.18 27.76 3.029 3.9 2.5 1.5
12:09:05.002 737 473.0 473.00 1048576 50.32 8.218 7.645 8.799 33.22 49.82 3.856 3.9 2.5 1.4
12:09:13.125 738 231.0 231.00 1048576 48.05 140.290 145.519 135.454 7604.61 7574.74 989.989 32.4 0.2 0.1
12:09:13.127 739 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 0.1 0.0 0.0
12:09:13.134 740 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 0.0 100.0 0.0
12:09:13.138 741 2.0 2.00 1048576 100.00 5.873 5.873 0.000 5.98 0.00 0.155 0.0 NaN NaN
12:09:13.139 742 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 0.0 100.0 0.0
12:09:13.141 743 1.0 1.00 1048576 0.00 32.261 0.000 32.261 0.00 32.26 0.000 0.0 0.0 0.0
12:09:13.142 744 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 0.0 NaN NaN
12:09:13.144 745 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 0.0 50.0 0.0
12:09:14.004 746 683.0 683.00 1048576 46.41 4.917 5.428 4.475 11.47 34.15 1.736 3.3 4.6 2.0
12:09:15.003 747 838.0 838.00 1048576 51.19 4.564 5.052 4.053 11.13 6.82 1.182 3.8 4.8 2.5
12:09:16.004 748 834.0 834.00 1048576 49.88 4.571 5.083 4.061 15.23 10.35 1.396 3.8 4.0 1.6
12:09:17.003 749 889.0 889.00 1048576 51.07 4.286 4.760 3.792 10.53 6.64 1.121 3.8 4.3 1.8
12:09:18.004 750 873.0 873.00 1048576 51.09 4.368 4.846 3.869 13.78 8.46 1.345 3.8 3.9 1.3

График Bandwidth во время процесса создания и удаления снапшотов СХД:

Приложение 13. Протокол теста «Huawei MPIO. Влияние процесса создания и удаления моментальных снимков (снапшотов) на томах VVOL на производительность ВМ»

Для текущего теста стенд описан в Приложении 7.

Протокол теста:

  1. В тестовый стенд внесены следующие изменения:
    • Развернут тестовый управляющий сервер vCenter версии 6.7U3j;
    • Развернут Huawei VASA-провайдер версии 2.1.19, который был зарегистрирован на VMware vCenter версии 6.7U3j;
    • СХД №2 Dorado5000v6 обновлена до версии 6.0.1 SPH5 и зарегистрирована на VASA-провайдере с созданием Storage Container и Storage Profile для ВМ на SSD дисках;
    • В VMware vCenter создан VVOL Datastore с политиками хранения ВМ на дисках SSD, на данный Datastore была смигрирована ВМ slave
  2. В тестовом стенде на сервере Hua2288h-01на ВМ slave07 (8xCPU, 96GB Memory, 16GB System Disk) был создан тестовый диск размером 5TB, который был наполнен случайными данными;
  3. В 17:12 запущена тестовая нагрузка(900MB/s) на ВМ slave07 c размером блока 1MB, соотношением чтения/записи 50/50, числом потоков VDbench=2;
  4. В 17:14:49 запущен процесс создания полного снапшота на ВМ slave07;
  5. В 18:27:16 завершился процесс создания снапшота ВМ slave07, занявший 1 час 12 минут и 27 секунд;
  6. В 18:37:31 после изменения тестовой нагрузкой не менее 200GB данных на диске ВМ slave07, запущен процесс удаления снапшота завершившийся в 18:37:40 и занявший 9 секунд.
  7. В 19:03:18 запущен процесс создания снапшота без ОЗУ на ВМ slave07, занявший 14 секунд;
  8. В 19:13:18 после изменения тестовой нагрузкой не менее 200GB данных на диске ВМ slave07, запущен процесс удаления снапшота завершившийся в 19:13:18 и занявший 18 миллисекунд.
  9. В результате процесса создания и удаления снапшотов отмечено:
    • Текущая версия VASA-провайдера работает нестабильно с периодическим переходом состояния регистрации данного провайдера на vCenter в состояние Disconnected. При этом:
      • ВМ остается доступна, но любые операции с ней  невозможны;
      • VVOL Datastore переходит в состояние Inaccessible.
    • Время создания и удаления снапшотов с ОЗУ:
      • Создание занимает 1 час 12 минут и 27 секунд;
      • Удаление занимает 9 секунд.
    • Время создания и удаления снапшотов без ОЗУ:
      • Создание занимает 14 секунд;
      • Удаление занимает 18 миллисекунд.
    • При создании и удалении снапшотов отмечено:
      • При создании или удалении снапшота не зафиксирована существенная деградация производительности;
      • Во время начала процесса создания снапшота или завершении процесса удаления снапшота зафиксирована приостановка ввода-вывода на ВМ slave07 на 7 секунд.
Aug, 2020 interval i/o MB/sec bytes read resp read write read write resp queue cpu% cpu%
rate 1024**2 i/o pct time resp resp max max stddev depth sys+u sys
Приостановка при создании снапшота:
17:14:41.004 96 954.0 954.00 1048576 48.22 1.975 2.754 1.249 5.27 3.24 0.844 1.9 2.2 0.9
17:14:42.004 97 953.0 953.00 1048576 45.75 1.973 2.806 1.271 7.04 4.50 0.893 1.9 2.1 0.8
17:14:49.757 98 2869.0 2869.00 1048576 50.30 5.068 8.663 1.430 4178.08 82.71 109.816 14.6 5.0 2.4
17:14:49.759 99 16.0 16.00 1048576 43.75 6.980 6.872 7.064 10.81 16.06 4.093 0.1 55.2 24.1
17:14:49.791 100 4.0 4.00 1048576 50.00 3.848 4.540 3.155 4.91 3.38 0.873 0.0 NaN NaN
17:14:49.799 101 1.0 1.00 1048576 100.00 17.622 17.622 0.000 17.62 0.00 0.000 0.0 57.1 14.3
17:14:49.810 102 3.0 3.00 1048576 0.00 9.761 0.000 9.761 0.00 17.08 7.129 0.0 100.0 0.0
17:14:49.816 103 4.0 4.00 1048576 50.00 6.180 8.829 3.532 13.11 4.04 4.661 0.0 75.0 50.0
17:14:49.818 104 4.0 4.00 1048576 75.00 11.089 11.277 10.525 12.30 10.53 0.833 0.0 50.0 25.0
17:14:50.009 105 59.0 59.00 1048576 52.54 7.225 8.085 6.273 20.38 28.12 6.439 0.4 48.3 19.1
17:14:51.009 106 946.0 946.00 1048576 50.32 1.995 2.741 1.241 7.48 2.63 0.867 1.9 2.3 0.8
17:14:52.014 107 948.0 948.00 1048576 47.26 1.984 2.770 1.279 5.65 3.58 0.838 1.9 2.3 0.8
Приостановка при завершении процесса удаления снапшота:
18:37:26.002 5061 930.0 930.00 1048576 51.72 1.867 2.528 1.160 9.27 2.11 0.818 1.7 1.8 0.4
18:37:27.001 5062 960.0 960.00 1048576 50.73 1.804 2.450 1.139 4.41 2.20 0.750 1.7 2.0 0.7
18:37:31.603 5063 621.0 621.00 1048576 52.50 7.493 13.237 1.145 3485.39 2.31 139.791 5.1 13.3 13.0
18:37:31.604 5064 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 0.9 NaN NaN
18:37:31.605 5065 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 0.9 NaN NaN
18:37:31.606 5066 0.0 0.00 0 0.00 0.000 0.000 0.000 0.00 0.00 0.000 0.9 NaN NaN
18:37:33.438 5067 366.0 366.00 1048576 46.72 18.146 15.675 20.313 1128.27 3720.82 211.138 3.5 0.4 0.2
18:37:33.439 5068 1.0 1.00 1048576 100.00 2.334 2.334 0.000 2.33 0.00 0.000 0.0 NaN NaN
18:37:34.003 5069 751.0 751.00 1048576 48.74 1.799 2.487 1.146 5.87 2.57 0.773 1.4 2.5 0.8
18:37:35.003 5070 930.0 930.00 1048576 52.04 1.861 2.503 1.165 10.93 2.40 0.858 1.7 2.6 1.1
18:37:36.002 5071 889.0 889.00 1048576 53.66 1.962 2.512 1.325 6.74 71.68 2.468 1.7 1.9 0.5
18:37:37.003 5072 930.0 930.00 1048576 51.72 1.869 2.533 1.159 9.17 7.11 0.853 1.7 2.3 0.7
    • График Bandwidth во время процесса создания и удаления снапшотов СХД:

 

Приложение 14. Протокол теста «Huawei MPIO-драйвер. Установка патчей на СХД»

Для текущего теста стенд описан в Приложении 2. Выбор служебных параметров VDbench описан в Приложении 3.

Протокол теста:

  1. В 14:18 запущен VDbench со следующими параметрами производительности 46k IOPS 340MB/s в конфигурации профиля нагрузки заказчика (Oracle DB) на семи ВМ;
  2. В 14:23 был запущен процесс установки «горячего» патча (HotPatch) на СХД №2, данный процесс завершился в 14:30;
  3. В 14:30 был запущен процесс установки «горячего» патча на СХД №1, данный процесс завершился в 14:36;
  4. В процессе установки «горячих» патчей и после его завершения существенного влияния на производительность не зафиксировано.

Суммарные графики IOPS, Bandwidth, latency во время установки патчей на СХД:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *