Проброс видеокарты NVIDIA в VMware ESXi 6.0

diz решил поделиться своим опытом проброса видеокарты NVDIA GTX в ESXi 6.0.

Добрый день, дорогие друзья!

Говорят, что с 2015-ого года работодатели стали сразу выгонять с собеседования ИТ-шников, если вдруг выясняется, что у них нет личного сервера с развернутым частным облаком.

Чтобы не выбиваться из тренда, я собрал дома небольшой двухпроцессорный сервер на базе материнской платы SUPERMICRO X9DRI-F и пары Xeon E5-2670. Т.к. несколько лет своей жизни я посвятил, в т.ч. администрированию инфраструктуры VMWare, то в качестве гипервизора виртуализации был выбран именно ESXi.

Частное облако-домашняя лаба — это, конечно, замечательно и здорово, однако, для комфортной повседневной работы и StarCraft2 желательно иметь доступ к дискретной видеокарте.

Тому, как задружить “бытовую” nVidia GTX и ESXi 6 и посвящается данная статья — краткий проводник-путеводитель по граблям.

Первое, что вам захочется сделать после установки дискретной видеокарты в сервер — переключить приоритет инициализации видеокарты в BIOS в пользу внешней, чтобы видеть POST прямо на экране подключенного к ней монитора. Этого делать не стоит, т.к. в таком случае вы потеряете возможность использовать iKVM материнской платы.

Итак, приступаем к пробросу видеокарты в виртуальную машину с MS Windows 10. Увидев web-интерфейс ESXi 6 я искренне обрадовался тому, что завязал с системным администрированием четыре года назад. Откладываем этот замечательный интерфейс в сторону, т.к. проброс видеокарты через него вы настроить не сможете, при старте виртуальная машина будет ругаться на несоответствие идентификатора устройства PCIe (PCIe passthrough device id invalid) и переключаемся на старый добрый и толстый клиент:

Жмем “Edit..”: nvidia_edit    И ставим галочки только напротив видеокарты и связанного HD AUDIO. Яочень рекомендую сперва добиться ее работоспособности, а уже потом пробрасывать мышку-клаву и звук.  nvidia_ptЗатем переходим к добавлению PCIe устройства в виртуальную машину:nvidia_pci

 В мире розовых пони, где nVidia не жлобы, а VMWare тестируют свои продукты перед релизом, на этом все бы и закончилось. В нашем реальном мире грабли только начинаются. Сперва выясняется, что мы выдали виртуальной машине >2 Гб памяти и теперь она не может поделить адресное пространство с видеокартой. SUPERMICRO протягивает свой FAQ помощи http://www.supermicro.com/support/faqs/results.cfm?id=34 Цитирую:

“We need to make sure GPU BARs are memory mapped above 4GB and to enable EFI firmware add the following 3 lines to configuration (.vmx) file of VM: «pciPassthru.use64bitMMIO = «TRUE» «, «firmware = «efi» » and «vmci.msix = FALSE «.”

VMX файл можно отредактировать руками, а можно в настройках виртуальной машины:  nvidia_vmx

Еще раз обращу внимание, что тип firmware виртуальной машины должен быть “EFI”, кстати, его можно поменять только через web gui, если будете пытаться менять его через толстый клиент, то он перескочит обратно на “BIOS”.

Далее наша виртуальная машина должна успешно запуститься, а драйвер видеокарты порадовать нас такой ошибкой:nvidia_error Суть проблемы: nVidia хочет чтобы все покупали видеокарты серий TESLA и QUADRO и выступает против того, чтобы пользователи занимались виртуализацией видеокарт “бытовых” серий. Драйвер детектит запуск в виртуальной машине и не дает видеокарте стартовать. Обходится при помощи того же трюка, который используется в nested виртуализации — прописыванием строчки hypervisor.cpuid.v0 = “FALSE” в vmx файле виртуальной машины.

 Почти все. Теперь при включении виртуальной машины у нас всего-навсего наглухо виснет гипервизор, даже не выкидывая PSOD. Просто все замирает без каких-либо записей в логах. Можно притвориться умным и сказать, что эту проблему мне помогло решить чтение главы “Problems with Device Assignment Dependencies” документа “Configuration Examples and Troubleshooting for VMDirectPath”, доступного по ссылке http://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/techpaper/vsp-4-vmdirectpath-host-technical-note.pdf, но нет. Форумы в интернете забиты вопросами по этим симптомам с криками о том, что при переходе с версии 5.0 к более старшим VMWare сломала passthrough видеокарт (это относится как к nVidia, так и к ATI) и только один человек c ником mvrk нашел решение: необходимо отредактировать файл по пути /etc/vmware/passthru.map хоста виртуализации и исправить для нашей видеокарты режим проброса с bridge на link:

# NVIDIA
10de  ffff  link   false

Вот теперь можно переходить к пробросу мышки и клавиатуры. Тут тоже не обошлось без “особенностей”: когда я пробросил оба USB контроллера материнской платы в vm, драйвер видеокарты снова стал падать с 43й ошибкой. Решилось пробросом только одного контроллера, к портам которого я подключил оба устройства.

 Спасибо за внимание и всего хорошего!

 P.S. Как здорово, что я больше не админ.

Запись опубликована в рубрике 6.0, Hardware, VMware, vSphere, Советы, Статьи. Добавьте в закладки постоянную ссылку.

42 комментария: Проброс видеокарты NVIDIA в VMware ESXi 6.0

  1. artem говорит:

    классно, и как работает в итоге? производительность сильно пострадала? были какие то тесты?

  2. diz говорит:

    Могу прогнать тесты, если есть интерес и если есть с чем сравнить. StarCraft2 LotV идет на максимальных настройках в разрешении 1440×900 (больше не поддерживает мой монитор), показывая 70-100 fps, но это игра с относительно низкими системными требованиями.

  3. A.Vakhitov говорит:

    Я оценивал производительность по игре Deus Ex 3 — в Hyper-V SharedVGA через WiFi было FPS 10-20 (игра ощутимо подтормаживала при каждом движении).

  4. diz говорит:

    Тут у нас прямой проброс видео, снижение производительности, по идее, должно быть небольшое.

  5. Dim-soft говорит:

    Отличная статья, я в свое время остановился на падении ESXI 😉
    но подглядел, что можно vmware обмануть с помощью паяльника
    например https://geektimes.ru/post/173545/

  6. Дмитрий говорит:

    К теме с паяльником есть целая ветка на одном форуме.
    http://www.eevblog.com/forum/chat/hacking-nvidia-cards-into-their-professional-counterparts/?PHPSESSID=b032509aafb8eb447da909cb114b6efb

  7. Alex говорит:

    Здравствуйте! сделал все по описанию, но карточка у меня GeForce GT610 от Асуса…
    но карточка все равно не работает и показывает ошибку 43 …

  8. diz говорит:

    Добрый день!

    Загрузите vmx файл и скриншоты настроек проброса видеокарты куда-нть.

  9. Zerg говорит:

    Добрый день!
    Вчера пробросил аудио, звук есть но со скрипом и шумом, уши вянут.
    Есть ли у вас на этот счет решение?
    Материнка Asus H97M-Plus

  10. diz говорит:

    К сожалению, кроме как обновить драйвера, а затем открыть документ, ссылку на который я приводил в статье и тупо перебирать параметры о которых там идет речь, посоветовать ни чего не могу.

  11. Alexandr говорит:

    Добрый день!
    Подскажите пожалуйста как можно получить доступ к файлу по адресу
    /etc/vmware/passthru.map ?

  12. diz говорит:

    1. Включить SSH доступ через клиент ESXi
    2. Подключиться по SSH
    3. Отредактировать файл при помощи текстового редактора VI

  13. Роман говорит:

    Доброго вечера. А можно ли прокинуть видеокарту на сразу 4 виртуалки, чтобы они ее юзали и дать каждой виртуалке свой видеовыход?

  14. Mr.Aloof говорит:

    Нет.

  15. Василий говорит:

    А подскажите, если удается ли задействовать одну обычную видеокарту сразу в нескольких виртуальных машинах?

  16. A.Vakhitov говорит:

    Добрый день, Василий.
    Нет, не удастся.

  17. Николай говорит:

    На крайние 2 вопроса все говорят «нет» и «не удастся», но это не свосем верно.
    Обычный vmware драйвер поддерживает DirectX 10 и OpenGL ES 2.0, используа аппаратные ресурсы установленной видеокарты. Что позволяет нормально играть во что-то не особо требовательные. Это работает сразу и не требует проброса видеокарт и прочих танцев с бубном.

  18. Mr.Aloof говорит:

    1. На вопрос «предоставить каждой виртуалке свой видеовыход видеокарты» — ответ однозначно нет. Либо всю видеокарту одной виртуалке, либо вообще никакого видеовыхода.

    2. Обычный драйвер не будет использовать аппартные ресурсы видеокарты. То о чем вы пишете «сразу и не требует проброса видеокарт и прочих танцев с бубном.» — это будет обычный софтварный рендеринг. Средствами процессора, не видеокарты.
    Для того чтобы использовать ресурсы видеокарты (это называется vSGA) вы дложны установить на esxi драйвер видеокарты и запустить xorg.
    Официально вы можете это сделать ТОЛЬКО для видеокарт Nvidia Grid, а не любой «обычной видеокарты». Для этого скачать и установить пакет vib с драйвером и запустить сервис xorg.

    Есть варианты заставить работать vSGA с более широким набором видеокарт, но мы же обсуждаем «без танцев с бубном» не так ли?

  19. Андрей говорит:

    Добрый день. Выучил эту статью уже наизусть, но никак не могу заставить виртуалку работать верно. Видюху пробросил, драйвер, вроде, работает, но мониторов в списке хоть ты тресни — нет и все. Подключено 2 монитора: по hdmi и vga.
    VMware ESXi, 6.5.0, 4564106
    S1200BTL (чип c204)
    Xeon(R) CPU E31220 @ 3.10GHz
    видеокарта msi (nvidia 710) для pcie x8
    Виртуалка — win 7 х64; память 4gb, зарезервирована, в диспетчере устройств видюха определяется.
    Еще, перепробовал на трех контроллерах: z97, z87, b85; ставил другие видюхи, 6 штук перепробовал (ati и nvidia), esxi 5.1, 5.5, 6.5, пробовал другие гостевые системы — gentoo, ubuntu, даже XP. Могу уже свою таблицу составить, если заработает.
    Единственный раз, когда заработало — на тестовом стенде, когда только я начал ковыряться, с чипсетом z97 (asus z97-p)/i5-4690 с относительно коротким кабелем (стандартным 1,8м).
    У меня же кабели vga — 15м, hdmi — 5 метров. Сами кабели и мониторы проверенные — вчера, до того, как я начал в очередной раз экспериментировать, были подключены к другому системнику и прекрасно работали.

    Исходя из количества тестов, кроме длины кабеля в общем-то и вариантов нет. Прошу помощи, может, кто подскажет, что еще можно проверить.

  20. Mister Nobody говорит:

    Опишите подробно действия, и скриншоты бы не помещали.

  21. Андрей говорит:

    На z97-p сделал проброс видюхи, добавил через веб-интерфейс видюху в виртуалку и все заработало.
    В остальных случаях я пробовал как штатно, так и прямо по тексту, за исключением проброса видюхи через веб — оно работает и ни на что не ругается. Я также в нескольких случаях устанавливал vmware tools, но после установки и запуска виртуалка падала в бсод. Отключение программного адаптера от vmware делу не помогло: рабочий стол можно лицезреть через клиент vmware (при этом мониторов в списке вообще нет); включение и отключение поддержки 3d приводит либо к бсоду, либо просто не помогает.
    Я также несколько раз тестировал изменение строчки в /etc/vmware/passthru.map, разницы для nvidia 710 нет. Сейчас стоит bridge.
    Скрин:
    http://2421329.ru/vmscr.png
    Какие еще сделать?

    Сегодня мне подкинули еще один монитор, который собираюсь подключить коротким кабелем. Расскажу вечером, что получится — самому интересно.

  22. Андрей говорит:

    идея с коротким кабелем не прошла — ничего не изменилось

  23. Андрей говорит:

    Поменял на link, перезагрузил хост — не помогло. Поставил в той же машине win 10 x64 — заработало. Хотите верьте, хотите — нет. В этой же виртуалке пробовал win 7 x64, win 7 x32, centos 7 x64, ubuntu 16, ubuntu 14. Все с проприетарными драйверами. Получается, проблема решена. Спасибо за небезразличие.

  24. Mister Nobody говорит:

    Если не секрет — а какие цели в такой реализации?

  25. Андрей говорит:

    Не секрет. Сделал виртуалку в основном для интерактивного зеркала себе в ванну. Зеркало-шпион 5% (5% светопропускаемости маловато, кстати, — буду менять на 12%), за ним монитор.
    Второй же монитор в виртуалке подключен на кухне для того, чтобы жена могла смотреть рецептики всякие.
    А сам сервак постоянно работает — на нем почта, в-центр, торренты качаются и тд. Так что подумал: «что памяти зазря пропадать?».

    Кстати, не хочу, если честно проверять еще пару моментов, которые имели место вчера быть: подключая клавиатуру с мышкой для проброса в виртуалку, заодно поправил монитор, который подключен к встроенной видюхе (на котором сам гипервизор; ранее, видимо, я его задел и, вполне вероятно, был отключен) и после перезагрузки все опять сломалось. Я также добавил внутрь виртуалки один из контроллеров юсб, который, кстати, не появился в системе. И добавил hdmi звук видюхи.

    Чтобы все вернуть я не стал экспериментировать и удалил все, что добавил (юсб + hdmi), вытащил кабель и вуаля:

    http://2421329.ru/15.52.20.jpeg
    http://2421329.ru/15.52.15.jpeg

  26. Brand говорит:

    Нашёл старенький 8400 GS, попробовал прокинуть в гостевую win10x64 на vSphere 6.5 (asus h81m + i5-4440 ). Получил BSOD «video_tdr_failure.» Делал всё по инструкции. Печалька.

  27. Andrey Kouznetsov говорит:

    Ставьте заново без вмтулз

  28. Brand говорит:

    Andrey Kouznetsov, я так и делал.

  29. Андрей говорит:

    Вротмненоги. Счастье было так близко.
    Видеокарта мифическим образом исчезла из гостевой после недели работы.
    Пропала бесшумно и безапелляционно. Пока был в отъезде.
    Из гостевой, той самой, на которой все заработало. Win10 x64.
    Покопался в логах, нашел интересный момент.
    Лог включения:

    2017-04-19T21:52:02.917Z cpu3:193202)VSCSI: 2611: handle 8203(vscsi0:0):Reset request on FSS handle 85787877 (0 outstanding commands) from (vmm0:win_bath)
    2017-04-19T21:52:02.917Z cpu3:65697)VSCSI: 2891: handle 8203(vscsi0:0):Reset [Retries: 0/0] from (vmm0:win_bath)
    2017-04-19T21:52:02.917Z cpu3:65697)VSCSI: 2679: handle 8203(vscsi0:0):Completing reset (0 outstanding commands)
    2017-04-19T21:52:06.702Z cpu0:193197)NetPort: 1879: disabled port 0x200000b
    2017-04-19T21:52:06.702Z cpu0:193197)Net: 3732: disconnected client from port 0x200000b
    2017-04-19T21:52:06.702Z cpu0:193197)WARNING: PCI: 780: Reporting transaction pending on device 0000:01:00.1
    2017-04-19T21:52:11.703Z cpu1:193197)PCI: 649: Device 0000:01:00.0: restoring TV/VC Map (0xff) to offset 114
    2017-04-19T21:52:11.703Z cpu1:193197)WARNING: PCI: 813: Detected transaction pending on device 0000:01:00.1 after reset
    2017-04-19T21:52:11.738Z cpu2:65594)WARNING: PCI: 780: Reporting transaction pending on device 0000:01:00.0
    2017-04-19T21:52:16.739Z cpu3:65594)PCI: 649: Device 0000:01:00.0: restoring TV/VC Map (0xff) to offset 114
    2017-04-19T21:52:16.739Z cpu3:65594)WARNING: PCI: 813: Detected transaction pending on device 0000:01:00.0 after reset
    2017-04-19T21:52:16.739Z cpu3:65594)WARNING: VmMemPin: 368: vm 193198: bpn 0x1000000e0 count was zero (count=0)
    2017-04-19T21:52:16.739Z cpu3:65594)WARNING: VmMemPin: 368: vm 193198: bpn 0x1000000e1 count was zero (count=1)
    2017-04-19T21:52:16.739Z cpu3:65594)WARNING: VmMemPin: 368: vm 193198: bpn 0x1000000e2 count was zero (count=2)
    2017-04-19T21:52:16.739Z cpu3:65594)WARNING: VmMemPin: 368: vm 193198: bpn 0x1000000e3 count was zero (count=3)
    2017-04-19T21:52:16.739Z cpu3:65594)WARNING: VmMemPin: 368: vm 193198: bpn 0x1000000e9 count was zero (count=9)
    2017-04-19T21:52:16.739Z cpu3:65594)WARNING: VmMemPin: 368: vm 193198: bpn 0x1000000f3 count was zero (count=19)
    2017-04-19T21:52:16.739Z cpu3:65594)WARNING: VmMemPin: 368: vm 193198: bpn 0x1000000fd count was zero (count=29)
    2017-04-19T21:52:38.955Z cpu0:67592 opID=4c55a784)World: 12230: VC opID 818da587 maps to vmkernel opID 4c55a784
    2017-04-19T21:52:38.955Z cpu0:67592 opID=4c55a784)Config: 706: «SIOControlFlag2» = 1, Old Value: 0, (Status: 0x0)
    2017-04-19T21:52:39.732Z cpu0:193492)MemSched: vm 193492: 6366: extended swap to 28160 pgs
    2017-04-19T21:52:40.997Z cpu3:193492)World: vm 193493: 7375: Starting world vmm0:win_bath of type 8
    2017-04-19T21:52:40.997Z cpu3:193492)Sched: vm 193493: 6184: Adding world ‘vmm0:win_bath’, group ‘host/user’, cpu: shares=-3 min=0 minLimit=-1 max=-1, mem: shares=-3 min=1048576 minLimit=-1 max=-1
    2017-04-19T21:52:40.997Z cpu3:193492)Sched: vm 193493: 6199: renamed group 533824 to vm.193492
    2017-04-19T21:52:40.997Z cpu3:193492)Sched: vm 193493: 6216: group 533824 is located under group 4
    2017-04-19T21:52:41.183Z cpu0:193492)World: vm 193496: 7375: Starting world vmm1:win_bath of type 8
    2017-04-19T21:52:41.183Z cpu0:193492)World: vm 193497: 7375: Starting world vmm2:win_bath of type 8
    2017-04-19T21:52:41.183Z cpu0:193492)World: vm 193498: 7375: Starting world vmm3:win_bath of type 8
    2017-04-19T21:52:42.825Z cpu2:193492)VSCSI: 3787: handle 8204(vscsi0:0):Creating Virtual Device for world 193493 (FSS handle 346686371) numBlocks=67108864 (bs=512)
    2017-04-19T21:52:42.825Z cpu2:193492)VSCSI: 273: handle 8204(vscsi0:0):Input values: res=0 limit=-2 bw=-1 Shares=1000
    2017-04-19T21:52:42.830Z cpu2:193492)WARNING: PCI: 780: Reporting transaction pending on device 0000:01:00.0
    2017-04-19T21:52:47.830Z cpu0:193492)PCI: 649: Device 0000:01:00.0: restoring TV/VC Map (0xff) to offset 114
    2017-04-19T21:52:47.830Z cpu0:193492)WARNING: PCI: 813: Detected transaction pending on device 0000:01:00.0 after reset
    2017-04-19T21:52:47.831Z cpu0:193492)IOMMU: 2176: Device 0000:01:00.0 placed in new domain 0x430331c38a40.
    2017-04-19T21:52:47.831Z cpu0:193492)WARNING: PCI: 780: Reporting transaction pending on device 0000:01:00.1
    2017-04-19T21:52:52.832Z cpu0:193492)PCI: 649: Device 0000:01:00.0: restoring TV/VC Map (0xff) to offset 114
    2017-04-19T21:52:52.832Z cpu0:193492)WARNING: PCI: 813: Detected transaction pending on device 0000:01:00.1 after reset
    2017-04-19T21:52:52.885Z cpu1:193493)VMMVMKCall: 218: Received INIT from world 193493
    2017-04-19T21:52:52.885Z cpu1:193493)CpuSched: 692: user latency of 193626 LSI-193493:0 0 changed by 193493 vmm0:win_bath -6
    2017-04-19T21:52:52.885Z cpu1:193493)LSI: 1805: LSI: Initialized rings for scsi0 async=1
    2017-04-19T21:52:52.886Z cpu2:193496)VMMVMKCall: 218: Received INIT from world 193496
    2017-04-19T21:52:52.886Z cpu3:193497)VMMVMKCall: 218: Received INIT from world 193497
    2017-04-19T21:52:52.886Z cpu0:193498)VMMVMKCall: 218: Received INIT from world 193498
    2017-04-19T21:52:52.886Z cpu1:193625)WARNING: NetDVS: 681: portAlias is NULL
    2017-04-19T21:52:52.886Z cpu1:193625)Net: 2524: connected win_bath eth0 to VM Network, portID 0x200000c
    2017-04-19T21:52:52.886Z cpu1:193625)CpuSched: 692: user latency of 193494 NetWorld-VM-193493 0 changed by 193625 vmx-vcpu-0:win_bath -6
    2017-04-19T21:52:52.886Z cpu1:193625)NetPort: 1660: enabled port 0x200000c with mac 00:00:00:00:00:00
    2017-04-19T21:52:52.904Z cpu3:67605)Config: 706: «SIOControlFlag2» = 0, Old Value: 1, (Status: 0x0)
    2017-04-19T21:52:53.469Z cpu1:193625)WARNING: PCI: 780: Reporting transaction pending on device 0000:01:00.0
    2017-04-19T21:52:58.470Z cpu3:193625)PCI: 649: Device 0000:01:00.0: restoring TV/VC Map (0xff) to offset 114
    2017-04-19T21:52:58.470Z cpu3:193625)WARNING: PCI: 813: Detected transaction pending on device 0000:01:00.0 after reset
    2017-04-19T21:52:58.470Z cpu3:193625)WARNING: PCI: 780: Reporting transaction pending on device 0000:01:00.0
    2017-04-19T21:53:03.471Z cpu2:193625)PCI: 649: Device 0000:01:00.0: restoring TV/VC Map (0xff) to offset 114
    2017-04-19T21:53:03.471Z cpu2:193625)WARNING: PCI: 813: Detected transaction pending on device 0000:01:00.0 after reset
    2017-04-19T21:53:03.474Z cpu2:193625)WARNING: PCI: 780: Reporting transaction pending on device 0000:01:00.1
    2017-04-19T21:53:08.475Z cpu2:193625)PCI: 649: Device 0000:01:00.0: restoring TV/VC Map (0xff) to offset 114
    2017-04-19T21:53:08.475Z cpu2:193625)WARNING: PCI: 813: Detected transaction pending on device 0000:01:00.1 after reset
    2017-04-19T21:53:08.475Z cpu2:193625)WARNING: PCI: 780: Reporting transaction pending on device 0000:01:00.1
    2017-04-19T21:53:13.476Z cpu1:193625)PCI: 649: Device 0000:01:00.0: restoring TV/VC Map (0xff) to offset 114
    2017-04-19T21:53:13.476Z cpu1:193625)WARNING: PCI: 813: Detected transaction pending on device 0000:01:00.1 after reset
    2017-04-19T21:53:14.375Z cpu3:193493)VSCSI: 2611: handle 8204(vscsi0:0):Reset request on FSS handle 346686371 (0 outstanding commands) from (vmm0:win_bath)
    2017-04-19T21:53:14.375Z cpu0:65697)VSCSI: 2891: handle 8204(vscsi0:0):Reset [Retries: 0/0] from (vmm0:win_bath)
    2017-04-19T21:53:14.375Z cpu0:65697)VSCSI: 2679: handle 8204(vscsi0:0):Completing reset (0 outstanding commands)
    2017-04-19T21:53:14.375Z cpu3:193493)VSCSI: 2611: handle 8204(vscsi0:0):Reset request on FSS handle 346686371 (0 outstanding commands) from (vmm0:win_bath)
    2017-04-19T21:53:14.375Z cpu0:65697)VSCSI: 2891: handle 8204(vscsi0:0):Reset [Retries: 0/0] from (vmm0:win_bath)
    2017-04-19T21:53:14.375Z cpu0:65697)VSCSI: 2679: handle 8204(vscsi0:0):Completing reset (0 outstanding commands)
    2017-04-19T21:53:20.116Z cpu1:193497)VSCSI: 2611: handle 8204(vscsi0:0):Reset request on FSS handle 346686371 (0 outstanding commands) from (vmm0:win_bath)
    2017-04-19T21:53:20.116Z cpu0:65697)VSCSI: 2891: handle 8204(vscsi0:0):Reset [Retries: 0/0] from (vmm0:win_bath)
    2017-04-19T21:53:20.116Z cpu0:65697)VSCSI: 2679: handle 8204(vscsi0:0):Completing reset (0 outstanding commands)

    Вот здесь явно какая-то проблема:
    2017-04-19T21:53:13.476Z cpu1:193625)PCI: 649: Device 0000:01:00.0: restoring TV/VC Map (0xff) to offset 114

    Думаю, что по какой-то причине при включении гостевой ОС, esxi не пробрасывает внутрь видюху; например из-за проверки ACS. Метод выключения проверки нашел только для 5.5: esxcfg-advcfg -k TRUE disableACSCheck. После перезагрузки хоста, наверняка, все заработает (потому что после прошлого включения все было в порядке примерно неделю). Но почему сейчас видюхи нет в списке устройств? Кто-нибудь встречал подобное поведение?

  30. Раймонд говорит:

    Замечательная статья. Вот пытаюсь прокинуть NVIDIA QUADRO 600 в Microserver G8, на ESXi 6.5. Если у VM памяти 2Гб, то прокидывается без проблем, а вот при увеличении памяти у VM, она перестаёт запускаться, пишет:
    Error message from localhost.localdomain: We will respond on the basis of your support entitlement. error

    Выставлял:
    pciPassthru.use64bitMMIO = TRUE
    firmware = efi
    vmci.msix = FALSE
    hypervisor.cpuid.v0 = FALSE

    но не помогает. Может кто подскажет, как это вылечить?

  31. Раймонд говорит:

    Отвечаю на свой комментарий. В логах VM была следующая ошибка:
    vcpu-0| I125: Failed to adjust IOMMU: Failure
    vcpu-0| W115: MONITOR PANIC: vcpu-0:PCIPassthru: failed to adjust IOMMU mappings.

    vcpu-0| I125+ vcpu-0:PCIPassthru: failed to adjust IOMMU mappings.

    VM успешно запустилась при указании только одного параметра (кстати, успешно работает и на VM без EFI):
    pciHole.start = 2048

    подробности в kb2142307. Но к большому сожалению, хоть видеокарта успешно пробросилась в виртуалку, там она корректно не заработала (при любых запусках тестов, писалось, что видеокарта не обнаружена).

  32. Igor говорит:

    Действительно работает — проверял на VM 6.0:

    1) На Гипервизоре — первым делом прописал «link» (в /etc/vmware/passthru.map):
    # NVIDIA
    10de ffff link false

    Далее перезагрузил гипер-визор.

    2) В файле виртуальной машины (.vmx) прописал вот это:
    pciPassthru.use64bitMMIO = «TRUE»
    vmci.msix = «FALSE»

    3) Далее в виртуальную машину — добавил оба PCI-Ex устройства (карта+HDMI звук)

    4) Вот это — firmware = «efi» — не понадобилось (т.к. моя виртуалка уже была установлена на BIOS (классическом) загрузчике и после установки в EFI перестала загружаться. Поэтому это отключил обратно на BIOS (EFI не стал включать):

    5) Далее включил виртуалку и там появилась некая-видеокатра. Поставил к ней родные драйвера. После перезагрузки — определилась верно, но «устройство было выключено (из-за неполадок)».

    Не страшно — выключил машину и прописал в конец (.vmx) файла:
    hypervisor.cpuid.v0 = «FALSE»

    6) Далее включил виртуалку = всё работает!
    Единственно через GUI (vSphere Client) управление консолью машины
    стало не удобно, т.к. «уехала» мышка. В принципе не суть — через любой удалённый администратор нормально управляется.

    7) Приложения которые перестали ругаться на отсутствие поддержки аппаратного ускорителя (до этого ругались 🙂
    — Автокад 16-й,
    — Фотошоп 2015.

  33. diz говорит:

    Без firmware = «efi» у меня не работало. Судя по сообщениям и по тому, что я намониторил, пока писал статью, вся тема с пробросом видео в виртуалку — люто кривая.

  34. Vitaliy говорит:

    NVIDIA QUADRO 600 проброс в ESXi 6.0 на Windows 7 у кого то получилось, есть тесты?

  35. Vitaliy говорит:

    ESXi 6.0 + NVIDIA QUADRO 600 + Windows 10
    Пробовал всё но виртуальную машину не запускало в логах
    PCIPassthru: 0000:81:00.0 : Device BAR 1 requested 64-bit memory address that exceeded MPN type (62122138533888).
    Помогло только на уровне BIOS в SUPERMICRO
    MMIOHBase — 512G (default 56T)
    https://octo.vmware.com/enable-compute-accelerators-vsphere-6-5-machine-learning-hpc-workloads/

  36. Serg говорит:

    Пытаюсь найти решение проблемы PSOD при перезагрузке VM c проброшенной видеокартой. Может кто подскажет, куда копать?
    Было: esxi 5.5 + WS460 Gen8 + Quadro 1000M, VM на RHEL6 (bios boot) с проброшенной Quadro работали великолепно.
    Стало: esxi 6.5 + тоже самое железо, VM c тем же линуксом и проброшенной quadro загружается и работает отлично. Стоит дать виртуальной машине команду reboot (или shutdown с последующим включением) происходит PSOD в момент, когда второй раз (после загрузки хоста) инициализируется драйвер видеокарты внутри VM. Т.е. этакий хост с виртуализацией, при которой перезагрузка VM приводит к перезагрузке самого хоста.

    Перепробовал всё: d3d0 и link в passthru.map, hypervisor.cpuid.v0, pciPassthru.use64bitMMIO, pciHole.start/end, в bios хоста включал-выключал BAR, менял linux драйверы nvidia внутри VM, инсталлировал RHEL на EFI — результат один и тот же: ребут хоста при второй загрузке VM (при втором по счету старте драйвера quadro внутри VM после загрузки хоста)

    help…

  37. Stanislav говорит:

    Очень смущает низкий Performance svga, используется очень мощная карта FirePro S9050. Но по факту оно едва ползает, по сравнению с обычными картами.

  38. Mister Nobody говорит:

    NVIDIA VIB разных версий пробовали?

  39. Serg говорит:

    а при чем тут vib? Это же драйверы для самого хоста esxi (для vSGA режима, когда запросы к вирутальной видеокарте от нескольких VM обрабатываются одной хостовой видеокартой). В описанной выше проблеме речь идет о режиме vDGA (GPU passthrough), при котором хостовой видеокартой монопольно владеет одна VM.

  40. Mister Nobody говорит:

    Мне PSOD хоста в вашем описании не нравится, я бы поставил vib.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *