Релиз Stor2RRD 2.80

Вышла  версия 2.80 бесплатного мониторинга систем хранения Stor2RRD.

Поддержка новых систем хранения, ПО и функций:

Анонс Stor2RRD версии 2.70

1920 февраля 2020 года ожидается выход новой версии бесплатного мониторинга систем хранения Stor2RRD.

Поддержка новых систем хранения и ПО:

  • Dell EMC² Elastic Cloud Storage (ECS)
  • HPE Primera
  • iXsystems FreeNAS, TrueNAS
  • Hitachi Virtual Storage Platform 5000 Series

Stor2RRD от поддержки корпоративных систем переходит к поддержке популярных SOHO решений, если в версии 2.70 поддержан FreeNAS, то во втором-третьем кварталах 2020 года планируется поддержать и другие очень популярные решения начального уровня:

  • NetApp SolidFire
  • Oracle Database
  • Hitachi Content platform (HCP)
  • QNAP
  • Synology
  • Brocade SANnav
  • RAIDIX
  • Ceph

Самое главное — обещают поддержать отечественную систему хранения RAIDIX!

UPDATE:

Также анонсирована дорожная карта для мониторинга виртуальных сред LPAR2RRD:

Q2 2020

  • Oracle VM
  • Oracle Database

Q3 2020

  • Nutanix
  • AWS

UPDATE 2.0:

В платной версии STOR2RRD v2.80 будет доступная полная топологическая схема SAN через инструмент Mapping.

IBM Storwize/SVC vs EMC VNX 2TB LUN

У компании IBM есть отличная линейка систем хранения Storwize/SVC. Одной из функций которой является виртуализатор разделов чужих систем хранения. К сожалению, владельцы EMC VNX страдали одним досадным нюансом — с данных систем нельзя было подключить раздел размером свыше 2 TB.

Одним коллегам даже пришлось уйти на EMC VPLEX из-за этой несуразности.

Недавно это недоразумение было устранено. С версии 7.3.0.5 виртуализаторы Storwize/SVC стали поддерживать разделы свыше 2 TB для следующих систем хранения:

  • EMC VNX 5100, 5300, 5500, 5700, 7500, 5200, 5400, 5600, 5800, 7600, 8000.
  • EMC VMAX 10k, 20k, 40k.
  • NetApp E5460, E5424, E5412, EF540, E2660, E2624, E2612 (все с версии Storwize/SVC 7.1.0.5), E5560, E5524, E5512, EF550, E2760, E2724, E2712.
  • Xiotech X-IO ISE 200 Series (210, 220, 230, 240).
  • Xiotech X-IO Hyper ISE 7 Series (710, 720, 730, 740).

OEM-коммутаторы Brocade для различных производителей

В моей инфраструктуре используются лезвийные серверы и шасси производства IBM, а у Андрея производства HP. Но, у него и у меня стоят FC-коммутаторы Brocade.

При анализе совместимости Brocade Fabric OS невозможно понять подходит она конкретному коммутатору или нет. Причина в том, что Brocade использует в своей документации свои кодировки моделей коммутаторов.

Чтобы быстро определиться какая модель IBM, HP, DELL, NETAPP, ORACLE, HITACHI, EMC, UNISYS, FUJITSU соответствует внутренней маркировке Brocade необходимо перейти на страницу OEM Partners, выбрать производителя и щелкнуть по закладке Products.

Для IBM также советую воспользоваться блогом Anthony Vandewerdt, у него есть таблица с указанием старых коммутаторов со скоростями 1,2,4 гигабит/с, которых нет на официальном сайте — Brocade SAN Switch Models.

EMC VNX2

Наш блог уделяет внимание не только виртуализации, но и её фундаменту —  аппаратной инфраструктуре.

Сегодня мне в руки попала презентация линейки второго поколения систем хранения среднего уровня EMC VNX: VNX5400, VNX5600, VNX5800, VNX7600, VNX8000.

Что нового в EMC VNX второго поколения:

  • Процессор Intel Sandy Bridge.
  • Шина передаче данных PCIe Gen 3 позволяет обеспечивать ввод-вывод через интерфейсы 40GbE и 16Gb FC.
  • Многоядреная оптимизация (MCx) используется в реализации функций RAID, Cache и FAST Cache.
  • Больше ядер, памяти, дисков и ёмкость FAST Cache.
  • 1 миллион IOPS при операция чтениях размером 8k.
  • Поддержка недорогих eMLC Flash дисков на 100, 200, 400 ГБ.
  • Блочная дедупликация LUNs в базовой поставке.
  • Адаптивное управление кэшем(Cache) с общим пулом на запись и чтение.
  • Увеличена производительность  FAST Cache и уменьшено время «разогрева».
  • Active/Active доступ к LUN.
  • FAST VP использует сегмент размером 256МБ, что в 4 раза меньше первого поколения.
  • Автоматическое назначение дисков горячей замены(даже если вы их не назначали) и возможность переноса дисков.
  • ŸVNX Monitoring and Reporting включен в базовую поставку.
  • Автоматическая онлайн миграция файловых систем с Celerra и VNX.
  • Диски и полки расширения  от VNX можно использовать, а вот данные при этом сохранить нет.

Скачать презентацию, ссылка доступна на момент публикации ;).

Обзорная статья от Jason Nash «Introducing the Next Generation VNX Arrays from EMC«, ссылка доступна на момент публикации 😉 .

Поубавить восторгов. Русская версия статьи в блоге Романа Хмелевского.

P.S. Анонс новой системы в сентябре  2013. Часть программного функционала будет доступна в течении нескольких фаз (этапов), аппаратные возможности также будут некоторое время дополняться. Анонс систем хранения начального уровня EMC VNXe второго поколения будет в первом квартале 2014 года.

vSphere 5.1 vs Round Robin vs I/O operation limit

Очередной этап тонкой настройки политик выбора пути в vSphere 5.1.

Виталий Волнянский  около полутора лет назал писал обзор «Настройка значения IOOperationLimit для RoundRobin на нескольких виртуальных хранилищ одновременно«, но есть небольшие изменения в vSphere 5.1, да и скрипты на PowerShell попривлекательней.

Одним из самых эффективных методов увеличения скорости доступ к системам хранения, поддерживающих для Native Multipathing (NMP) Path Selection Plug-ins (PSP)  режим работы Round Robin, и снижения задержек является уменьшение значения по умолчанию параметра I/O operation limit с 1000 операций ввода-вывода до 1-10. Данный параметр регулирует «такт» перехода к следующему активному пути(для ALUA по умолчанию с учетом оптимального пути, регулируется параметром useano), то есть через сколько операций переключиться на следующий путь.

Что даёт и для каких систем рекомендуется/протестировано:

 Как включить?

Это самое простое, но грабля есть.

Подаем команду на нужных дисках и готово:

esxcli storage nmp psp roundrobin deviceconfig set -t iops -I 1 -d naa.xxxxxxxxx

 Грабля в vSphere 5.1.

В vSphere 5.1 у команды добавился параметр cfgfile, что повлияло на реализацию функции в PowerShell, сейчас синтаксис такой(2 часа выяснял причину сбоя в работе старых скриптов):

boolean set(long bytes, boolean cfgfile, string device, long iops, string type, boolean useano),

как получить описание функций:

$esxcli=Get-EsxCli 
$esxcli.storage.nmp.psp.roundrobin.deviceconfig|Get-Member|fl

пример на PowerShell:

$esxcli.storage.nmp.psp.roundrobin.deviceconfig.set($null,$null,'naa.xxx',1,'iops',$false)

P.S. Если для вашей системы нет рекомендаций от производителя по уменьшению значения параметра, то вся ответственность за последствия изменений лежит на вас.

P.P.S. Продолжаем изучать PowerShell

Скрипт опроса LUN, подключенных с IBM SVC. Для установки параметра код поправите сами. 😉

#### Variables
$VC = "vcenter"
$psp = "VMW_PSP_RR"
$satp = "VMW_SATP_SVC"

#### Connect to Your vCenter
Connect-viserver -Server $VC

#### Get IBM SVC Round Robin's LUNs status
$vchosts = Get-VMHost
foreach ($vmhost in $vchosts)
 {

 $myesxcli=get-esxcli -VMHost $vmhost
 write-host $vmhost.name
 Get-VMHost $vmhost | Get-ScsiLun -CanonicalName "naa.6005*" | Where {$_.MultipathPolicy -eq "RoundRobin"} | %{$myesxcli.storage.nmp.psp.roundrobin.deviceconfig.get($_.CanonicalName)}
}

#### Disconnect from Your vCenter
Disconnect-VIServer $VC -Confirm:$false

VMware vSphere 5.1 vs EMC VNX vs Multipathing vs MSCS(WSFC)

Изрядно нахлебавшись, решил раскрыть тему, ранее отданную читателям блога на самостоятельное изучение, — какие нюансы могут всплыть при настройке виртуальной среды VMware vSphere при использовании кластеризации в Windows Server 2008(R2). Также советую прочитать обзор Андрея «Поддержка кластеризации в виртуальных средах«.

Тема очень обширна, поэтому рассмотрю проблемы и их решения в моей инфраструктуре.

Что имеем:

  • сеть хранения FC-SAN;
  • несколько IBM BladeCenter HS22V;
  • кластер MSCS(WSFC) with Shared Disk;
  • систему хранения EMC VNX 5700 с прошивкой 05.31.000.5.726;
  • vSphere 5.1b.

Проблема первая. Суровая.

Симптомы: после настройки MSCS время загрузки хостов увеличилось примерно на 25 минут; стали проявляться проблемы с запуском/рестартом агентов управления на хостах; возникли длительные задержки при вызове свойств дисковых устройств, подключенных в MCSC-кластер на пассивных нодах.

Причины: выяснение причин оказалось делом несложным, в базе знаний VMware есть статья описывающая данное поведение «ESXi/ESX hosts with visibility to RDM LUNs being used by MSCS nodes with RDMs may take a long time to boot or during LUN rescan«. При включении серверов, несущих пасивные ноды, происходит опрос дисков, в это время диски, подключенные к активным нодам, зарезервированы нодами по SCSI.

Решение: достаточно уведомить все хосты о том, что часть дисков находится в SCSI-reservation, для этого необходимо выставить у данных дисков параметр perennially-reserved равный true.

Так как «лень — матушка, да PowerShell — батюшка», то накидал примитивный скрипт:

Connect-VIServer -Server vcenter
Get-VMHost | foreach 
{
$myesxcli=get-esxcli -VMHost $_
$myesxcli.storage.core.device.setconfig($false,"naa.идентификатор устройства", $true)
}
Disconnect-VIServer -Server * -Force

Проверить статус можно следующей командой:

$myesxcli.storage.core.device.list("naa.идентификатор устройства")

Идентификатор устройства получаем кликом правой кнопки мыши по нужному MSCS-диску в хост-Сonfiguration-Storage-Devices и выбором пункта «Copy identifier to clipboard».

Проблема вторая. Весёлая.

Откуда ноги растут: при выходе vSphere 5.1 EMC и VMware стали поддерживать режима выбора пути RoundRobin для систем VNX. Как это круто читаем статью «FIXED/Round Robin in 5.1 and A Simple PowerCLI Block Pathing Module«. На грабли я встать не успел, но суть в следующем: при обновлении до версии 5.1 политика выбора пути по умолчанию для VNX поменяется с VMW_PSP_FIXED на VMW_PSP_RR. В итоге для MSCS-дисков вы получите неподдерживаемую конфигурацию, так как смена пути приводит к ошибке в работе механизма SCSI reservation. Соль ситуации — всё это получается автоматом.

Решение: установить на MSCS-дисках режим выбора пути в Fixed. Засада возникает при желании сделать это вручную — симптомы описаны в первой проблеме.

Предлагаю очередной примитивный скриптик:

Connect-VIServer -Server vcenter
Get-VMHost | foreach 
{
 $myesxcli=get-esxcli -VMHost $_
 $myesxcli.storage.nmp.device.set($null,"naa.идентификатор устройства","VMW_PSP_FIXED")
 } 
 Disconnect-VIServer -Server * -Force

Проверить статус можно следующей командой:

 $myesxcli.storage.nmp.device.list("naa.идентификатор устройства")

Напоминалка.

При любых внедрениях  Windows Server 2008(R2) MSCS(WSFC) обязательно перечитайте документацию по последней версии vSphere, так как выход каждой новой версии вносит новые требования к дополнительной тонкой настройке:

Настройка значения IOOperationLimit для RoundRobin на нескольких виртуальных хранилищ одновременно

У меня есть Celerra NX4, в рекомендациях к ней указано, что IOOperationLimit (число команд, которое будет отправлено по одному пути, до переключения на следующий) для виртуальных хранилищ при включенном алгоритме multipath RoundRobin стоит выставлять в значение равное 1 (единице).

Все бы ничего, кроме того что у меня этих виртуальных хранилищ больше десятка и 8 хостов. Итого более 80 раз вбивать однотипные команды? Ну уж нет – это не unix way.

Подготовка

Для начала проверим какое значение у этого параметра уже выставлено: Читать далее «Настройка значения IOOperationLimit для RoundRobin на нескольких виртуальных хранилищ одновременно»

Изменение IP адресов Celerra Control Station и Storage Processors

Вчера возникла задача по изменению IP адресов на Celerra и интегрированном CLARiiON.

В связи с тем, что Celerra поставлялась без интегрированного свитча, то техники воткнули её в свитч общей сети не особо разбираясь. И вот настал момент, когда нужно было перенести все линки в отдельную сеть управления, изолированную от основной физически.

Поиск в интернете внятных инструкций не дал, а поиск на powerlink.emc.com — это как искать книги Дарьи Донцовой в библиотеке конгресса… В общем на это ушло почти два часа и еще немного времени, чтобы исправить возникшие в процессе ошибки.

Смена IP вкратце

Краткий план по смене IP адресов, чтобы случайно не упустить его из виду. Это common sense, но все же лучше перестраховаться, чем потом искать serial кабель для подключения к массиву.

  1. Изменить IP адреса Storage Processors
  2. Переключить Storage Processors в новую сеть
  3. Изменить IP адрес Celerra Control Station
  4. Переключить Control Station в новую сеть
  5. Сделать Rescan All в Unisphere, если Celerra не увидела Storage Processor

ВНИМАНИЕ: данную операцию следует производить во время минимальной активности, так как Storage Processors будут перезагружены после смены IP. Хоть это и не остановит доступ клиентов к хранилищу, но все же стоит подстраховаться.

Подробнее под катом.

Читать далее «Изменение IP адресов Celerra Control Station и Storage Processors»

EMC Solutions Enabler и Virtual Storage Integrator для vCenter: их соединение и решение проблем с соединением

У компании EMC есть замечательная штука под названием Solutions Enabler (SE), которая необходима для плагина Virtual Storage Integrator для vCenter и для управления CLARiiON и Symmetrix. Solutions Enabler имеет довольно широкий функционал, который требуется дополнительно лицензировать, но так как я хочу использовать его только для EMC VSI plug-in, то никаких лицензий дополнительно не требуется, потому что базовая лицензия на него идет в комплекте с любым СХД от EMC. Отмечу то, что если Вы являетесь владельцем любой СХД EMC, то у Вас есть все основания использовать их плагины для vCenter, они бесплатны и дают достаточно преимуществ, чтобы их не игнорировать.

Моей целью было подружить SE с vCenter, а так как мне было невероятно лень устанавливать сервер Solutions Enabler, то я использовал vApp с ним, что заметно удобнее. Скачать его можно с powerlink –> support –> software downloads licensing –> Downloads S –> Solutions Enabler.

Читать далее «EMC Solutions Enabler и Virtual Storage Integrator для vCenter: их соединение и решение проблем с соединением»