Тестируем iSCSI поверх 10Gbit

Предисловие

В виртуальном железе версии 7 появился новый виртуальный сетевой адаптер — VMXnet3. Одна из его особенностей — поддержка скорости обмена данными в 10Gbit/sec. Это означает, что виртуальные машины, работающие на одном хосте, могут обмениваться данными через Ethernet на скорости в 10Gbit/sec без каких-либо вложений в инфраструктуру (то есть покупку новых сетевых адаптеров и свитчей).

Недавно мы писали про бесплатный iSCSI-target под Windows. Одна из его отличительных особенностей — возможность раздать по iSCSI RAM-диск. Это позволяет протестировать производительность локальной сети.

Соответственно, я поставил себе задачу — проверить, как работает iSCSI поверх 10Gbit’ных адаптеров. Естественно, при скорости доступа к RAM слабое звено — сеть.

Вперед!

Сервер: Windows 2003 x32 std, 2CPU, 4GB RAM. IP — 10.0.0.1/30.

Клиент: Windows 2003 x32 std, 2CPU, 1GB RAM. IP — 10.0.0.2/30.

ПО сервера: iSCSI Target: Starwind, размер диска — 3500MB.

ПО клиента: MS iSCSI Initiator 2.08, HDTune

Запускаем HDTune на клиенте:

hdd011

Включение Jumbo Frames скоростей не дало.

UPD: Продолжение и тюнинг во второй части статьи.

Запись опубликована в рубрике VMware, vSphere с метками . Добавьте в закладки постоянную ссылку.

7 комментариев: Тестируем iSCSI поверх 10Gbit

  1. Cirill говорит:

    Добр день.
    Явно нигде не указанно, это чтение или запись?
    Если чтение, сделайте плз тест на запись — чтение всегда более менее работает, а вот запись уже намного хуже (

  2. Denis Baturin говорит:

    2Cirill: Тип операции(чтение/запись) тестируют устройство хранения, в описанном случае — оперативную память. Если я правильно понял, Андрей хотел посмотреть производительность сетевого адаптера vmxnet3.

    2Vakhitov: Инициатор и таргет на одном физическом хосте?
    jumbo frames на vswitch включены?
    Скорость маловата… Может кто еще в сеть гадил? Посинифирите трафик…

  3. A.Vakhitov говорит:

    2Denis: на разных. Попытался сделать на одном — инициатор не захотел подключаться к localhost/127.0.0.1.
    Включил Jumbo9000 на обоих серверах. По сетке все хитрее:
    создал на сервере отдельный стандартный vSwitch1, к нему никаких аплинков не подведено. С помощью командной строчки включил на нем поддержку Jumbo9000. На свитче одна порт-группа, в которую и объединены сервер/клиент.
    Абсолютно верно, я хотел посмотреть производительность vmxnet3.
    Физический хост — HP BL460 G6, 2*Xeon5550, 24GB RAM.

  4. Anton Zhbankov говорит:

    Андрей, проведи тесты с разными типами адаптеров и при скорости 1 Гбит

  5. Constantin Videnski говорит:

    А давайте Вы свяжетесь с нами, и мы решим что ж не так 🙂

  6. A.Vakhitov говорит:

    Константин, смотрите почтовый ящик.
    Антон, какие адаптеры тебя интересуют и что там посмотреть?

  7. A.Vakhitov говорит:

    esxcfg-vswitch -l:
    Switch Name Num Ports Used Ports Configured Ports MTU Uplinks
    vSwitch1 64 3 64 9000

    PortGroup Name VLAN ID Used Ports Uplinks
    vmtest 0 2

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *