Не удается увеличить размер хранилища VMFS

После того, как переполнилось одно хранилище VMFS, мы пошли стандартным путем: увеличили размер LUN’а и попытались увеличить хранилище.

msa01

Облом-с.

msa02

Нагугленная статья, описывающая поведение после переполнения хранилища, посоветовала произвести операцию расширения с того хоста ESXi, на котором расположена включенная ВМ с этого хранилища.

Я подключился напрямую на хост и… Бинго!

msa04

VMware vSphere vs OpenStack

Спросили меня на работе, а почему мы не используем бесплатные решения, разработанные сообществом? Или “платные” решения от Mirantis…

Так как слова OpenStack мне вообще ничего не говорили, пришлось кратко погрузиться в эту тему.

Начать чтение про OpenStack стоит отсюда или в вики. Вообще говоря, это некий набор решений, позволяющий сделать частное или публичное облако.

Так как вопрос изначально стоял про сравнение, то я нагуглил еще пару ссылок про сравнение функционала (раз и два):

  • VMware vMotion переносит ВМ без простоя. Максимальный заявленный latency – 100мс. В vSphere 6.0 можно осуществлять миграцию на другой vCenter (сервер управления) и даже в другую IP-сеть (через маршрутизатор). В OpenStack заявлен suspend (пауза) на две секунды. С другой стороны, OpenStack умеет мигрировать ВМ между Intel и AMD;
  • Storage vMotion в OpenStack то ли не поддерживается, то ли предлагается реализовать средствами LVM. То есть “можно, но геморройно”;
  • балансировки нагрузки, аналогичной VMware DRS, тоже практически нет. DPM также отсутствует. “Готовый” шедулер балансирует машины только при включении. Из практической пользы можно отметить, что при желании можно соорудить свой планировщик, использующий абсолютно любые требования;
  • аналог VMware HA есть (правда, вызывает сомнения функциональность). Мониторинг ОС в ВМ 100% реализуется через стороннюю связку с Zabbix/Nagios. Аналогом Fault Tolerance был Kemari+Xen, но Kemari, вроде бы, больше не поддерживается. Зеркалирование инструкций в KVM, вроде бы, также не поддерживается;
  • всякие другие штуки типа network teaming, VMware API Array Integration, Update Manager, Host Profiles, Distributed Switch, Storage/Network IO Control либо отсутствуют, либо требуют активного допиливания.

В целом, стоит отметить, что OpenStack, с одной стороны, несет за собой конскую экономию на лицензиях гипервизора. С другой, однозначно увеличиваются операционные затраты на изучение и поддержку инфраструктуры плюс увеличится значимость человеческого фактора. Также будет снижена доступность инфраструктуры, так как учиться администраторам надо будет налету.

В целом, я рад, что на текущий момент сообщество может предложить мне не бесплатный гипервизор (Xen/KVM), а некий инструмент, позволяющий создать свою инфраструктуру виртуализации. Несколько лет назад были только гипервизоры…

Список недоступных функций в VMware vSphere Client 6.0.x

VMware vSphere Client 6.0 предназначен для прямого подключения к хоста, но также поддерживает подключение к vCenter.

К моему сожалению, часть функционала не поддерживается:

Сеть:

  • IPv6 support for ESX architecture, NFS 4.1 storage operations, iSCSI, guest OS customizations, virtual datacenters
  • Multi-Instance TCP/IP stack and upgrade
  • SR-IOV, LACP, Multicast support enhancements
  • Opaque Networks
  • Network I/O Control (NIOC v3)
  • Open vSwitch (OVS) support
  • Proxy switch autoscale capability
  • Network DRS
  • DRS anti-affinity rules
  • vSphere vMotion across large geographical distances
  • vSphere vMotion across vCenter Server systems

Подсистема хранения:

  • AHCI SATA device support
  • vFlash-DRS interoperability
  • vFlash cache UI support
  • Virtual SAN disk group management, Profile compatibility errors and warnings, storage policy based management, Default Profiles, Disk serviceability, Fault Domain isolation
  • Storage DRS compatibility with vSphere Replication, Interoperability with Site Recovery Manager
  • I/O Filters: Storage policy support
  • NFS Client 4.1 with Kerberos
  • Virtual Volumes in vCenter Server
  • vCenter Server Storage Profiles
  • Storage Management Views

Аппаратные функции:

  • Intel vGPU
  • AMD vGPU
  • 2TB+ HDD VMDK
  • 128 vCPUs for virtual machines with hardware versions earlier than version 10
  • 32 Serial Ports for virtual machines with hardware versions earlier than version 10
  • SVGA for virtual machines with hardware versions 10 and 11
  • 255 PVSCI Devices
  • VMCI Firewall
  • Smart Card authentication
  • SATA controller and hardware settings
  • SR-IOV settings
  • GPU 3D render and memory settings
  • Tuning latency settings
  • vSphere Flash Read Cache settings
  • Nested hypervisor
  • Fast checkpointing
  • vCPU reference counters
  • Ease and scheduled hardware upgrade
  • Default compatibility level

Прочие функции:

  • VMware Tools reporting and upgrade enhancements
  • vCenter Server Linked Mode
  • vCenter Server Service Status (Health-UI Extension)
  • vCenter Server Hardware Status (CIM-Monitoring Extension)
  • vCenter Server Performance Charts – Overview
  • Simplify tuning for low latency workloads
  • SMS for certificate management
  • CIS runtime configuration
  • CMS support firstbooting
  • Performance charts integration with RAS
  • Tagging enhancements

Хостовые функции:

  • Deleted file reclamation
  • Guest authorization
  • Host profiles reference host independence
  • Lockdown mode

Для использования вышеперечисленных функций необходимо самоотверженно пользоваться vSphere Web Client.

Информация взята из KB2109808.

Установка VMware ESXi 5.5 на хост с менее 4 ГБ ОЗУ

Начиная с версии 5.5 VMware ESXi требует 4 ГБ ОЗУ для установки, что бывает существенно для старых серверов и домашних лабораторий.

Я же захотел обновить ESXi 5.1 до версии 5.5 у нашего героя из предыдущей истории VMware ESXi и Realtek 8168/8169/8111 – HP DL360 G5.

Во время ошибки “MEMORY_SIZE ERROR” жмем ALT+F1, заходим под root без пароля. Выполняем следующие действия:

Ищем строку с текстом MEM_MIN_SIZE  и расчетом 4*1024. У меня это была 1105 строка. Заменяем 4 на 2 либо 1 и сохраняем.

( это будет python PID )

После этого инсталлятор перезапустится.

Другие инструкции на английском с пояснениями:

how to: Installing ESXi 5.5 on less than 2GB RAM

ESXi 5.5 – Installing with less than 4Gib RAM. (ESX MEMORY_SIZE ERROR during install)

VMware ESXi и Realtek 8168/8169/8111

Есть у меня хост IBM x236 с гипервизором 4.1U3. А так как я парень-то на VMware (про-)двинутый, то планирую перейти на vSphere 6.0. А vCenter 6.0 поддерживает только ESXi 5.0+ и перспективы упереться в данный хост не радуют. Серверов у меня рэковых практически нет, а в этом замечательном сервере аж 4 сетевухи, смотрящие в интернеты, DMZ, локалку.

Поиск в амбарах дал результат в виде сервера HP DL360 G5, вот только в старом сервере пару сетевых портов обеспечивала карта формата PCI-X, слотов под который в новом нет.

Опросив своих коллег и пару дружественных организаций, смог найти аж 2 сетевых карты на одинаковом чипсете Realtek 8168E – TP-LINK TG-3468 и D-Link DGE-560T.

Поиск в интернете подсказал, что данный чипсет поддерживается с горем пополам только на ESXi 5.1.

К сожалению,  D-Link DGE-560T запустить мне не удалось, а вот  TP-LINK TG-3468 запустился сразу.

В версии ESXi 5.5 поддержка снова отсутствует, поэтому, в случае крайней необходимости,  советую поставить драйвер самостоятельно:

  • Качаем последнюю версию драйвера, поддерживаемого коммунити –  net-r8168-8.036. Также различные драйверы для неподдерживаемых устройств есть тут.
  • Распаковываем из него net-r8168-8.036.00-1.x86_64.vib .
  • Заливаем на хост через SCP в папку /tmp .
  • Заходим по SSH.
  • Проверяем список установленных VIB:
  • Разрешаем установку пользовательских драйверов:
  • Устанавливаем драйвер:
  • Перезагружаем хост.

ESXi ramdisk ‘root’ is full

При попытке переноса одной ВМ между хранилищами было получено странное сообщение:

The ramdisk ‘root’ is full. As a result, the file /var/log/vmware/journal/… could not be written.

SSH на сервере не работал, поэтому пришлось лезть в iLO (это сервер HP).

Стандартная команда “df -h” результата не дала – вроде бы все хорошо.

Поиск в интернете выдал следующую KB2033073.

Два симптома из трех совпадали:

– не работал SSH;

– команда vdf -h выдавала полную занятость диска ‘root’ (Use = 100%).

Кем/чем – не понятно.

Из соседней KB была найдена команда, отобразившая список файлов >50MB

find / -path “/vmfs” -prune -o -type f -size +50000k -exec ls -l ‘{}’ \;

Почти все они, кроме /var/log/hpHelper.log относились к системным файлам. По этому журналу нагуглилась другая KB2055924.

Согласно этой KB, глюки софта от HP переполняли этот журнал при работе на Proliant Gen8.

Решение проблемы следующее:

1) Остановить агента HP Helper

/etc/init.d/hp-ams.sh stop

2) Удалить файл журналов

rm /var/log/hpHelper.log

3) Установить обновление на агентов или отключить агентов вообще

В случае отключения необходимо выполнить команду

chkconfig hp-ams.sh off

Если делать вообще ничего не хочется, можно перезагрузить хост. Однако, vMotion с такого хоста у меня тоже не сработал.

Задание по настройке балансировки Round Robin в VMware vSphere

Мы ранее уже писали о политиках балансировки и о том, как их настроить через скрипт. Но к сожалению, с течением времени часть хостов меняются, хранилища также меняются на другие и актуальность этих настроек может быть потеряна.

К примеру, я точно помню, что настраивал Round Robin для своего кластера и своей СХД HP EVA пару лет назад.

Однако, текущий вывод скрипта по балансировке показывает, что это далеко не так:

Get-Cluster cluster| Get-VMHost | Get-ScsiLun -LunType disk | group multipathpolicy

Continue reading “Задание по настройке балансировки Round Robin в VMware vSphere”

Свежая установка vCenter Server 5.5 Update 2b

Возникла задача установить свежий vCenter Server со следующими вводными:

  1. Использование внешней базы MS SQL;
  2. Использование учетной записи Active Directory для запуска служб и доступа к базам MS SQL.

1. Для начала пришлось определиться с тем, какой SQL все же нам подходит. Для этого откройте VMware Compatibility Guides и выберите там Product Interoperability Matrixes.

Continue reading “Свежая установка vCenter Server 5.5 Update 2b”

VMware Update Manager и ODBC 32bit

Если вы хоть раз создавали внешнюю базу для VMware Update Manager, то сталкивались с тем, что “обычный” ODBC-источник к ней не подходит. Это связано с тем, что UM – 32битное приложение и требует свои, 32битные ODBC Source.

У VMware есть своя статья, говорящая о том, как эти источники создавать:

  • для 32 бит используется %windir%\SysWoW64\odbcad32.exe
  • Для 64 бит – %windir%\System32\odbcad32.exe

Но, начиная с Windows 2012, процесс стал гораздо нагляднее: Continue reading “VMware Update Manager и ODBC 32bit”

Сравнение различных версий VM Hardware

Случайно нагуглил табличку с различными версиями виртуального железа:

Feature ESXi 5.5 and later ESXi 5.1 and later ESXi 5.0 and later ESX/ESXi 4.x and later ESX/ESXi 3.5 and later
Hardware version 10 9 8 7 4
Maximum memory (GB) 1011 1011 1011 255 64
Maximum number of logical processors* 64 64 32 8 4
Maximum number of cores (virtual CPUs) per socket 64 64 32 8 1
Maximum SCSI adapters 4 4 4 4 4
Bus Logic adapters Y Y Y Y Y
LSI Logic adapters Y Y Y Y Y
LSI Logic SAS adapters Y Y Y Y N
VMware Paravirtual controllers Y Y Y Y N
SATA controllers 4 N N N N
Virtual SCSI disk Y Y Y Y Y
SCSI passthrough Y Y Y Y Y
SCSI hot plug support Y Y Y Y Y
IDE nodes Y Y Y Y Y
Virtual IDE disk Y Y Y Y N
Virtual IDE CD-ROMs Y Y Y Y Y
IDE hot plug support N N N N N
Maximum NICs 10 10 10 10 4
PCNet32 Y Y Y Y Y
VMXNet Y Y Y Y Y
VMXNet2 Y Y Y Y Y
VMXNet3 Y Y Y Y N
E1000 Y Y Y Y Y
E1000e Y Y Y N N
USB 1.x and 2.0 Y Y Y Y N
USB 3.0 Y Y Y N N
Maximum video memory (KB) 524288 524288 131072 131072 131072
SVGA displays 10 10 10 10 1
SVGA 3D hardware acceleration Y Y Y N N
VMCI Y Y Y Y N
PCI passthrough 6 6 6 6 0
PCI Hot plug support Y Y Y Y N
Nested HV support** Y Y N N N
vPMC support Y Y N N N
Serial ports 4 4 4 4 4
Parallel ports 3 3 3 3 3
Floppy devices 2 2 2 2 2

* – максимальное количество процессоров в ВМ (vCPU) зависит не только от версии виртуального железа, но и от редакции гипервизора (Std/Ent и  т.д.) и количества логических процессоров на хосте.

** – по факту подразумевается проброс аппаратной виртуализации внутрь виртуальной машины. Это необходимо, чтобы в виртуальном ESXi с процессором Intel запустить 64битную ВМ. Без аппаратной поддержки виртуализации запустить 64битную ВМ на процессорах Intel нельзя. Стоит также отметить, что эта фича поддерживается на ограниченном количестве CPU.

Еще большее количество таблиц можно найти тут.