Внезапно, УЦ “Микроинформ” проводит бесплатный актуальный вебинар о переходе на VMware vSphere 5.5.
Дата проведения: 30 января 2014 г.
Начало вебинара: 16:00 МСК.
Продолжительность вебинара: 1,5 часа.
Записки о виртуализации и о жизни
Внезапно, УЦ “Микроинформ” проводит бесплатный актуальный вебинар о переходе на VMware vSphere 5.5.
Дата проведения: 30 января 2014 г.
Начало вебинара: 16:00 МСК.
Продолжительность вебинара: 1,5 часа.
Mr. Aloof пишет:
Совершенно случайно обнаружил, что правила брандмауэра Windows вполне себе копируются в буфер обмена.
Понадобилось повторить штук 10 правил с одного компьютера на другом. Так как было довольно лениво, с мыслью: «а вдруг?», выделил нужные правила в списке, нажал Ctrl+C и переключившись в RDP на другой компьютер в списке правил нажал Crtl+V. Случилось чудо и правила вставились!
Искренний «Like» программистам из Microsoft, которые не поленились описать формат данных для сериализации и добавить несколько строк реализации метода.
30 октяря 2013 года в Москве, в Центре международной торговли прошло мероприятие VMware Tour Russia 2013, на которое я умудрился съездить.
Приехал с утреца, около 8 часиков, знакомых лиц, к сожалению, сразу не обнаружил, поэтому ходил и смотрел, что происходить перед действом.
Особый восторг вызвала программа мероприятия на фоне храмов России, подчеркивая православность форума.
Сегодня о “худшей практике” одной настройки виртуальной машины.
Некоторое время назад обнаружились серверы с большим уровнем IOPS – в районе 1000-1500 операций. Экспресс-диагностика не дала результата, а так как размер дисков машин был очень небольшим, то они были перемещены на локальные SSD, что сняло остроту проблемы.
Сейчас же обнаружились проблемы с терминальными серверами – довольно сильные лаги при большом количестве подключений. Анализ системы показал довольно классическую проблему – наличие baloon. Наличие “пузыря” в памяти насторожило, так как на хосте свободной памяти было с избытком. Ларчик открылся просто при 3 ГБ ОЗУ виртуальной машины стояла волшебная труодминская настройка memory limit 2 ГБ. К пущей радости, история умалчивает кто был этим тру одмином.
После такого открытия я запустил RVTools и проинспектировал все виртуальные машины на наличие лимитов памяти, ну, и на “пузыри” заодно.
Тут-то и всплыли виртуалки с большими IOPS, так как настройки на них были примерно следующие ОЗУ – 1,5 ГБ, лимит – 256 МБ. На одной из машины при ОЗУ 3 ГБ, лимит был 512 МБ, а размер “пузыря” 2 ГБ.
Для чего понадобилось выставлять лимиты остаётся загадкой. Поснимал все лимиты на память, так как для моей конфигурации данный функционал не имеет смысла.
Наш блог уделяет внимание не только виртуализации, но и её фундаменту – аппаратной инфраструктуре.
Сегодня мне в руки попала презентация линейки второго поколения систем хранения среднего уровня EMC VNX: VNX5400, VNX5600, VNX5800, VNX7600, VNX8000.
Что нового в EMC VNX второго поколения:
Скачать презентацию, ссылка доступна на момент публикации ;).
Обзорная статья от Jason Nash “Introducing the Next Generation VNX Arrays from EMC“, ссылка доступна на момент публикации 😉 .
Поубавить восторгов. Русская версия статьи в блоге Романа Хмелевского.
P.S. Анонс новой системы в сентябре 2013. Часть программного функционала будет доступна в течении нескольких фаз (этапов), аппаратные возможности также будут некоторое время дополняться. Анонс систем хранения начального уровня EMC VNXe второго поколения будет в первом квартале 2014 года.
У меня возникла задача переехать в новый vCenter. При планировании работ обратил внимание на потребность переноса полей виртуальных машин Custom Attributes, созданных мной.
В моей инфраструктуре используется два дополнительных поля – Administrator, где указываются основной и дублирующий администратор, поле – Nagios, где указывается имя, под которым сервер занесен в систему мониторинга. Данное поле позволяет осуществлять контроль все ли продуктивные виртуальные машины занесены в Nagios.
В отличии от Notes, созданный вручную Custom Attribute хранится в vCenter и при переходе на чистую базу данных не сохраняется.
Поиск быстро выдал пример скрипта на PowerShell для экспорта-импорта данных полей.
Приведу кусочек кода, немного исправленный и используемый мной.
Экспорт (обратите внимание на указание кодировки для атрибутов на кириллице):
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
$vmlist = get-vm $Report =@() foreach ($vm in $vmlist) { $row = "" | Select Name, Notes, Key, Value, Key1, Value1 $row.name = $vm.Name $row.Notes = $vm | select -ExpandProperty Notes $customattribs = $vm | select -ExpandProperty CustomFields $row.Key = $customattribs[0].Key $row.Value = $customattribs[0].value $row.Key1 = $customattribs[1].Key $row.Value1 = $customattribs[1].value $Report += $row } $report | Export-Csv "c:\temp\vms-with-notes-and-attributes.csv" -NoTypeInformation -encoding unicode |
Импорт:
1 2 3 4 5 6 7 |
$NewAttribs = Import-Csv "C:\temp\vms-with-notes-and-attributes.csv" foreach ($line in $NewAttribs) { set-vm -vm $line.Name -Description $line.Notes -Confirm:$false Set-CustomField -Entity (get-vm $line.Name) -Name $line.Key -Value $line.Value -confirm:$false Set-CustomField -Entity (get-vm $line.Name) -Name $line.Key1 -Value $line.Value1 -confirm:$false } |
В процессе использования vSphere 5.1 столкнулся с несколькими нюансами работы платформы с Active Directory.
vSphere 5.1 SSO и домены с доверительными отношениями.
Эпически глючная вещь в vSphere 5.1 – это сильно распиаренный Single Sign-On. На нашем предприятии развернут лес с двумя поддоменами, где “живут” учётные записи пользователей, которым требуется доступ к виртуальной инфраструктуре. Очень интересно ведёт себя SSO при недоступности доменных контроллеров доверенных доменов – он просто не даёт авторизовать в других. У меня проблемы две – временная недоступность из-за сетевой недоступности и некорректная настройка DNS.
При восстановлении сетевой доступности SSO не слишком торопится достучаться до контроллеров домена, обычно, приходится авторизоваться под учётной записью admin@system-domain и делать шаманские пляски с перепроверкой identity source.
Вторая проблема возникает при попытке заменить адреса доменных контроллеров на имя домена, то есть вместо dc-01.perm.contoso.com писать perm.contoso.com, так как фактически DNS на запрос perm.contoso.com возвращает NS-серверы, а не доменные контроллеры. В моём случае, запрос по имени доверенного домена возвращает по одному из 4 адресов не контроллер домена. Ну, это местечковые грабли. Для решения проблемы прописал “наиболее доступные” контроллеры домена.
vCenter и объекты безопасности Active Directory.
Второе “волшебное” поведение платформы – это группы и пользователи AD с назначенными разрешениями к объектам vCenter. Вы назначаете группе или учётной записи доступ к виртуальной машине, а спустя некоторое время решает привести названия групп к новому стандарту наименования. Результат впечатляет – все переименованные группы и учётные записи бесследно исчезают из разрешений. Но, как говорится, это by design.
Примечание. При создании локальной доменной группы (domain local) безопасности, добавлении в неё учётной записи из доверенного домена и назначении прав в vCenter получил негативный результат – доступ не был предоставлен. Возможно, где-то я скосячил, а может и не я.
Пришло время нашей постоянной рубрике “Чего ждать от неанонсированных продуктов?”
Ожидаемые новые функции от следующей плаформы VMware:
Анонс ожидается в конце августа на VMworld 2013, дистрибуция в сентябре.
О новых технологиях советую почитать:
Новая концепция хранения: Cormac Hogan. Software Defined Storage.
Распределенный файeрволл: What is a Distributed Firewall?
Переводы от Александра Самойленко:
Тссс… тихо, не говорите VMware… Следующая версия платформы vSphere будет 5.5… Скоро на всех хостах…
Пруфлинк:
В рамках подготовки разворачивания Cisco Nexuus 1000V стал разрабатывать эскиз решения, о котором планирую также написать, с использование 10 гигабитных сетей.
В лезвийных серверах IBM HS23 используется встроенных 10 GbE адаптер, обычно называемый Integrated Virtual Fabric 10 Gigabit Ethernet либо Emulex BE3 Dual 10 Gb/1 Gb, либо просто LOM (10Gb LOM Interposer Card).
Фактически, это Emulex 10GbE Virtual Fabric Adapter II с немного обрезанными возможностями на том же чипсете с той же прошивкой и драйвером.
При установке VMware ESXi 5.1u1 неожиданно вылезла проблема – во время запуска драйвера be2net отрубался цифровой интерфейс подключения KVM к лезвию. Первый же поисковый запрос дал решение, описанное Виталием Агаповым “Как подружить VMware ESXi, IBM HS23 и сетевую карту Emulex“.
Для прошивки и установки драйвера я пошёл более простым путём, чем Виталий. Так как у меня несколько таких лезвий, то я создал новый дистрибутив с помощью ESXi-Customizer. Прошить методом Виталия не получилось – флешка не виделась утилитой, не удалось и с помощью диска, созданного IBM Bootable Media Creator (BoMC). В связи с этим я использовал родной Emulex Offline OneConnect Flash ISO.
После этого проблема с KVM разрешилась, а интерфейс в утилите настройки карты стал более дружелюбным.