Вопросы по HP EVA

Всем привет. С 23 по 27 учусь в Москве на курсе по EVA.
Если у вас есть вопрос по данному продукту, который бы вы хотели задать тренеру, пишите его в комментариях.
Постараюсь ответить.

Запись опубликована в рубрике Hardware, HP, Новости. Добавьте в закладки постоянную ссылку.

134 комментария на «Вопросы по HP EVA»

  1. Руслан говорит:

    Приветствую вас я сопровождаю две евы 8000. В каждой стойке диски по 146 Gb. Так как диски по слухам по 146 Gb сняты с производства мы собираемся закупать диски по 300 Gb.
    Вопрос: как правильно установить диски чтобы не чего не потерять из данных. Есть какая нибудь инструкция по этому верному делу. заранее спасибо

  2. A.Vakhitov говорит:

    Вроде не видел инструкций. 🙂
    Все зависит от нескольких факторов:
    — есть ли место под новые диски;
    — поддерживаются ли диски прошивкой, если надо прошиваться — требуется ли для прошивки остановка СХД;
    — есть ли возможность прекращения доступа к данным для их миграции;
    — какие уровни рейдов используются?

  3. Арсений говорит:

    Здравствуйте.
    Как правильно разбить EVA4400 на две группы с дисками разного типа?
    Три полки одного типа и пять полок другого.
    Все диски FC. Создать группу, а потом заменить в ней диски на нужного типа?

  4. Андрей Вахитов говорит:

    Не готов сказать, так как давненько не добавлял диски.
    Из группы точно можно выкинуть указанные диски. Также можно добавить диск в группу, если выбрать его.
    Соответственно, создаете две группы и начинаете «играться» с дисками.

  5. Игорь говорит:

    Здравствуйте. Ответь пожайлиста на вопрос.
    Один LUN — один раздел, или один LUN — несколько разделов (для одного сервера).
    Суть вопроса в следующем: как «правильнее разбить» дисковое пространство, для одного сервера? Разбивать один виртуальный диск на разделы средствами ОС или
    создавать сразу несколько LUN-ов средствами EVA? Дисковая группа одна.
    На что это влияет: производительность, доступность?
    Заранее спасибо.

  6. A.Vakhitov говорит:

    Более корректно будет: один LUN — несколько разделов.
    Смотрите, один LUN — это одно дисковое устройство сервера (проще говоря, локальный диск). На локальном диске вы можете создать любое количество разделов.
    Если дисковая группа одна, разница в уровнях доступности будет только для разных уровней рейдов (в порядке роста надежности это VRAID5; VRAID6; VRAID1). У VRAID0 уровень доступности нулевой, т.е. он разваливается при смерти одного диска из диск-группы.
    Делать несколько LUN с одинаковым уровнем VRAID из одной дисковой группы Евы для сервера смысла нет. Производительность и доступность будет почти на том же уровне, что и с одним общим LUN’ом (разве что случайно удалить несколько LUN’ов сложнее).
    Делать несколько LUN с разными уровнями VRAID можно, но надо понимать, зачем вам это нужно. Как правило, тут уже отталкиваются от требований приложений (например, журналы SQL — RAID1/RAID10; базы Exchange — Raid5/Raid10 и так далее). Это связано с тем, что различные уровни рейда отличаются не только надежностью, но и производительностью. Либо ваш объем данных превышает максимальный размер LUN (для EVA *000/*100 — 2ТБ, более новых с актуальной прошивкой — 32ТБ.

  7. Игорь говорит:

    В продолжение предыдущего вопроса.
    В одном из источников нашел такое утверждение:
    «Конфигурация с несколькими LUN-ами может увеличить производительность
    ввода-вывода за счет возможности параллельных операций к дисковой группе,
    которые преодолевают лимит на LUN, определенный в стеке драйвера хоста
    (операционной системы, HBA, и/или драйвера multipath).»
    Можете это прокомментировать или опровергнуть?
    Заранее спасибо.

  8. Андрей Вахитов говорит:

    Если не ошибаюсь, это говорится про размер очереди к LUN. Что при доступе к нескольким дискам (LUN) можно больше запросов в очередь поставить, так как размер очереди у СХД как правило больше, чем у драйвера\HBA.
    На мой взгляд, больший плюс получается от второго сервера, читающего эти же данные.
    Хотя при тестах SPC используют как параллельный доступ, так и несколько LUN на одной дисковой группе.
    Мне кажется, если СХД по производительности взята с запасом, то можно проигнорировать это утверждение (про несколько LUN на одной дисковой группе). Я по-прежнему считаю, что такой конфигурации два оправдания: 🙂
    — различные уровни рейда;
    — большая защищенность от логической ошибки (например, оператора).

  9. Игорь говорит:

    СХД EVA презентует серверу виртуальный диск, «похожий» на физический,
    но не имеющий шпинделей и головок, т.е. рабоющий не с физическими дисками,
    а с порциями дискового (виртуального) пространства внутри дисковой группы.
    Распределением же, данных по дискам и их оптимизацией занимается ПО внутри EVA,
    т.е. внутри находится свой планировщик «ввода-вывода».
    Какой планировщик, в ОС Linux, необходимо задействовать для оптимальной работы
    дисковой системы внешнего «интеллектуального» СХД?
    Может имеет смысл использовать noop, как для SSD-дисков и Flash-дисков,
    не имеющих шпинделей и головок?

  10. A.Vakhitov говорит:

    Добрый день. Не знаю 🙂 но могу поделиться своими мыслями…
    Мне кажется, noop не очень подходит.
    Смотрите сами: SSD и Flash имеют очень малое время отклика. Подозреваю, планировщик в курсе этой архитектурной особенности.
    А виртуальные диски с Евы (да и любой другой СХД), это некий объем дискового (hdd) пространства, презентованный серверу. Соответственно, время отклика тут будет выше в разы, разве что вы будете обладать большой дисковой группой из нескольких десятков дисков.

  11. A.Vakhitov говорит:

    http://www.rhd.ru/docs/articles/schedulers/
    Насколько я понял, предлагают тестировать.
    Причем не замерять линейную скорость, а нагружать паттерном, эмулирующим вашу задачу.

  12. Алексей говорит:

    Здравствуйте. подскажите если можете, имеется Eva 8100 все правильно настроена раньше работала, то сбоя с электричеством, сейчас сервера не видят хосты(диски) на самой еве вроде бы как судя инструкции настроено верно, проверил San swich на другом хранилище, первый запустился нормально, то есть через него подключил другое хранилище и все работает, а вот второе нет, может ли быть что хосты не видны из-за 1 свитча, и можно ли все повесить на 1 san свитч HP 4/32? и еще вопрос касающейся коммутации Евы жесткая привязка ли привязка оптики или нет?

  13. Андрей Вахитов говорит:

    Добрый день, Алексей.
    Временно использовать только один san switch для доступа к Еве можно.
    Не совсем понял вопрос про жесткую привязку оптики…

  14. Алексей говорит:

    Андрей. Спасибо большое, под жесткой привязке имел ввиду что порт 1 на san swich должен быть только к 1 порту на EVE или это без разницы в какой порт на свитче подключать, если я вас правильно понял то собственно хосты тоже должны быть видны на сервере через 1 свитч, доступ к еве имеется но вот почему диски сервер не видит не могу понять, можете еще подсказать куда копать в настройки или коммутацию

  15. Андрей Вахитов говорит:

    Если не настроено hard zoning (надеюсь, я с терминологией не напутал), то разницы в какой порт коммутатора подключать Еву нет.
    Для начала такой вопрос — в самой Еве хосты видны? Презентации VDISK’ов не слетели?

  16. Алексей говорит:

    В самой EVE все видно, там не чего не изменилось, вроде все нормально, а диски сервер не видит, попробую создать новый хост, но думаю не чего не изменит, подозреваю что все же дело в свитче, попробовал перекоммутировать по такой схеме http://www.etegro.ru/img/articles/mpio/big/02.png но тоже не помогло, теперь не знаю в какую сторону копать, либо Контроллер A, B полностью подключить к 1 свитчу(но даже если и заработает, то это не самый лучший вариант) или попробовать напрямую подключить(такой вариант еще не где не находил)

  17. Андрей Вахитов говорит:

    Даже и не знаю.
    Схема на рисунке правильная, если подключили так, то либо дело в зонировании (зонах на FC-коммутаторах), либо что-то с железом.
    Между FC-коммутаторами линков нет?

  18. Алексей говорит:

    подключил по этой схеме, правда немного другой контроллер HSV210B, и на контроллерах идет по 4 выхода, сделал так, завел первую пару в 1 свитч вторую пару во второй, с каждого свитча отправил в сервер, на сервере всего 2 разъема, по моему вроде верно, и по сути если не работает 1 свитч то работа идет со второго, если я не ошибаюсь. честно признаюсь с зонированием не имею даже малейшего представления, почитаю думаю что разберусь. если я не ошибаюсь то все же дело в этих свитчах

  19. Андрей Вахитов говорит:

    Не совсем так: контроллеры должны быть подключены в коммутаторы перекрестным образом.
    Смотрите, у вас 4 порта на контроллере (на схд — 8), два порта на сервере и два коммутатора.
    Смысл рисунка в том, что у вас два коммутатора — две фабрики (fabric). Эти фабрики не пересекаются.
    В каждой фабрике есть оба контроллера СХД (например, по первому порту с каждого контроллера) и сервер (один порт в одной фабрике, второй — в другой).
    В результате, после установки MPIO-софта (multipathing) на сервер, он видит один LUN, а не четыре (а именно столько их получается после подобной схемы подключения).

  20. Алексей говорит:

    Спасибо понял. значит ошибся. но даже если и так, то сервер должен бы был увидеть 4 вместо двух, но он совсем не видит и тут я не могу понять почему. перекоммутировать не сложно, но а если вылетает 1 свитч, то получается что 1 цепь останавливается(к примеру: контроллер B-свитч2-и разъем сервера 2) целиком ведь отпадает, и тогда из-за этого может перестать видеть сервер Хосты(диски)?

  21. A.Vakhitov говорит:

    Тут дело в чем — каждый vDisk (LUN) принадлежит одному контроллеру. Пока этот контроллер работает, LUN на второй не уйдет.
    Если у вас есть подключение только к одному контроллеру, то вы можете получить доступ к «чужому» vDisk, а можете и не получить. Зависит от реализации этого механизма на СХД.
    В вашем случае я бы еще на зоны взглянул

  22. Алексей говорит:

    простите за глупый вопрос, но как и где можно проверить зоны? с такими я еще не когда не сталкивался честно, были меньше проще, читал про зоны но так и не понял как они настраиваются. если можно подскажите.

  23. Андрей Вахитов говорит:

    Если у вас Brocade, то заходите на веб-интерфейс коммутатора (понадобится JRE на машине) и запускаете zone admin.
    http://www.brocade.com/downloads/documents/html_product_manuals/WT_AG_700/wwhelp/wwhimpl/common/html/wwhelp.htm#href=Zoning.11.4.html&single=true

  24. Алексей говорит:

    Снова Здравствуйте. наконец смог добраться снова до ЕВЫ, вместо Brocade zone admin нашел у HP оф. программу к свитчу HP B-series SAN Network Advisor. и все бы не чего только вот просит логин и пароль которого не кто не знает. попробую звонить в HP, может подскажут чего хорошего. и еще попробовать подключится через консоль может получится оттуда что либо посмотреть. еще раз хотелось бы поблагодарить за помощь)

  25. A.Vakhitov говорит:

    Нет, тут маленько не так.
    FC-коммутаторы Brocade имеют ip-адрес для администрирования. Чтобы зайти в мастера настройки зоны, необходимо зайти через веб-интерфейс на этот адрес коммутатора.
    HP Network Advisor также будет подключаться через этот ip-адрес коммутатора для снятия настроек и управления.

  26. Алексей говорит:

    Здравствуйте. снова я со своей EVой у меня полный ступор, в HP не могут помочь по скольку у них нет в базе этих сер. номеров, а сам не могу разобраться как снять пароль с коммутаторов. подскажи есть ли возможность и желания помочь по удаленке разумеется не за спасибо.
    и еще хотелось бы добавить что по IP захожу на оба коммутатора но в связи с отсутствием пароля не чего поделать не могу.

  27. A.Vakhitov говорит:

    Со сбросом пароля на коммутаторах Brocade все плохо. Вроде бы только техподдержка умеет это делать. Если поддержки не куплено, остается «понять и простить» или вспомнить пароль.

  28. Алексей говорит:

    с паролями совсем все плохо, был гос.заказ еще в 9 году и с тех пор много админов сменилось у организации, концы в общем не найти. и разумеется с документами как всегда беда нету не чего. остается либо поднимать архив что бы все же получить тех.поддержку. простите за глупый вопрос если взять 1 новый FC коммутатор и подключить оба контроллера к нему то получится ли поднять старые хосты?

  29. Андрей Вахитов говорит:

    Подойдет любой коммутатор.

  30. Алексей говорит:

    Андрей то есть любой коммутатор? любой коммутатор который держит оптику или который san

  31. Андрей Вахитов говорит:

    Любой — имеется в виду SAN-коммутатор (fiber channel)

  32. admin говорит:

    Mister Nobody нарыл ссылку по восстановлению пароля. Будете тренироваться? 🙂
    http://h30499.www3.hp.com/hpeb/attachments/hpeb/bladescategory03/152/1/Password_Recovery_Procedures%208gb%20switch.pdf

  33. Александр говорит:

    «актуальной прошивкой — 32ТБ» — о какой версии идет речь?
    Есть задача, сделать LUN более доступного в данной версии 2TB. В каком направлении копать?

  34. Андрей Вахитов говорит:

    Явно не про EVA *000/*100. Там ограничение в 2ТБ на LUN.

  35. Александр говорит:

    Имею HP EVA 6400, 2 контроллера hsv400, 2 полки с дисками.
    Нашел схему как подключить контроллеры с дисковыми полками, а как подключить для первоначальной настройки? И как правильно подключить к SAN фабрике? На каждом контроллере 4FC — итого 8 FC но как правильно подключить это к двум фабрикам ?

    И если может у кого есть инструкция вминяемая по подключению с картинками?
    Спасибо большое.

  36. Андрей Вахитов говорит:

    Вменяемая инструкция у производителя — HP 6400/8400 Enterprise Virtual Array User Guide.
    Там в картинках схема подключения к SAN.
    По вашему вопросу: два порта с контроллера подключаете в фабрику 1, еще два порта — в фабрику 2.

  37. Александр говорит:

    А такой еще вопрос, ввод WWN кода, на сколько я знаю, на каждое устройство должно быть 2 WWN, но в коробке нашел только один WWN на бумажке. это нормально?

    По подключению, т.е. 2 FC с одного контроллера и 2 FC с другого и это все подключаю к FABRIC1 и FABRIC2 соответственно, а остальные FC нужно заглушить терминаторами (в комплекте идут).

  38. Андрей Вахитов говорит:

    Думаю, что нормально, так как есть WWN_node (адресустройства) и WWN_Port (адрес порта). Скорее всего у вас указан адрес устройства или контроллера.
    С портами вы поняли неправильно — я предлагаю порты FP1, FP2 воткнуть в первую фабрику; FP3, FP4 — во вторую. С каждого контроллера.

  39. Александр говорит:

    а как подключится и настроить? на контролерах есть порт Mfg но туда не влазит стандартный кабель RJ-45, я так понимаю, только через FC соединение? Т.е. на сервер где есть SAN установить CV и уже через него производить дальнейшие настройки?

  40. Андрей Вахитов говорит:

    Все правильно, через Command View, установленный на сервере с FC.
    Сервер должен быть подключен в обе фабрики, после Discover он должен обнаружить неициниализированный массив.

  41. Александр говорит:

    Спасибо, ввел WWN и чексум, буду ставить на сервер CV и дальше смотреть..
    Вопрос по батарейкам Вам можно задать?

  42. Андрей Вахитов говорит:

    Какого рода вопрос?

  43. Александр говорит:

    Вставил батареи, на них есть индикатор, так вот он показывает, что батаери -«фаулт», но на самом контролере так же есть индикатор — он горит зеленым, кому верить? и что будет если батареии все-таки не рабочие?

    И еще, в комплекте было только 4е патчкорда FC, а если подключить контролер только 2мя патчкордами FC к фабрике?

  44. Андрей Вахитов говорит:

    Точно не знаю. На EVA 6000 (HSV200) зеленым индикатор на батарейке начинает гореть через определенное время (после зарядки).
    Так что надо немного подождать.

    Можно контроллер подключить всего двумя патчкордами. Например, FP1 в фабрику №1, FP3 — в фабрику №2.
    Скорее всего работать будет, хотя тут уже лучше обратиться к упомянутому гайду. У меня 6400 нет, так что могу и обмануть.

  45. Александр говорит:

    Доброго дня!

    Не могу презентовать vDisk серверу.

    Создаю хост (в выпадающем окне есть мои WWN сервера), презентую vDisk Хосту, но на сервере не вижу изменений?
    Куда смотреть?

    И еще, как должны быть организованы зоны на SAN коммутаторах для HP EVA?
    Спасибо.

  46. Андрей Вахитов говорит:

    1) По поводу дисков:
    Рескан дисков или ребут на хосте делали?
    Другие диски с Евы хост видит?
    Удалось ли подключить диски с Евы каким-либо другим хостам?
    2) По поводу зон:
    особых рекомендаций под Еву нет — настраиваете все точно так же, как и для других СХД. Главное требование — Command View должен видеть массив через FC (то есть находиться в одной зоне).
    А далее уже разбираетесь сами по интересующему вас варианту.
    Я обычно уважаю один из следующих:
    — single initiator-single target
    — single initiator-multiple target
    initiator — сервер, target — СХД.

  47. Александр говорит:

    1) Рескан и ребут делал на хосте,
    Никакие диски никаким серверам не видны (а тому серверу где стоит CV -диски будут видны?),
    У меня маленький нюанс — Дохлые батареи в контроллерах HSV400, может быть в этом причина.
    Вчера запустил на хостовой машине — P6000SmartStart из папки с инсталяцией CV, запустил мастер по добавлению дисков , так через этот мастер смог создать на EVA vDisk, но он не подключился к данному хосту. Мастером было настроено FC соединение в MPIO, а также добавлен DSM.
    2) Вроде так все и сделано в зонировании.

    Спасибо .

  48. Андрей Вахитов говорит:

    На мой взгляд, причина не в батареях.
    У меня идеи кончились.
    Напишите мне в скайп avahitov — пообщаемся.

  49. Гирев Павел говорит:

    В самой EVE все видно, там не чего не изменилось, вроде все нормально, а диски сервер не видит, попробую создать новый хост, но думаю не чего не изменит, подозреваю что все же дело в свитче, попробовал

    Сегодня была такая же проблема, причина была в неисправном блоке батарейки контроллера кэша. Заменили весь блок — все заработало(для запуска евы достаточно хотя бы одного рабочего блока). Сервера сразу диски увидели.

  50. Андрей Вахитов говорит:

    Ваша правда, Павел. Прошу прощения, что сразу не вспомнил и не поискал.
    Сегодня как раз читал в интернете про это — Ева при наличии дохлых батарей на обоих контроллерах перестает «презентовать» диски. Причем народ пишет, что презентация теряется после выключения/включения Евы (то есть пока Ева работает, диски будут видны).
    Причем это распространяется не только на HSV400, но и на HSV100/200 (судя по форумам).

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *