В связи с обнаруженными косяками при обновлении до Update 1, компания VMware выпустила ESX 4.0 Update 1A.
Качать тут.
Записки о виртуализации и о жизни
В связи с обнаруженными косяками при обновлении до Update 1, компания VMware выпустила ESX 4.0 Update 1A.
Качать тут.
Филипп Зыков, как обычно, встал на грабли, о месторасположении которых решил поделится.
Еще одно подтверждение важного Issue, который был описан в этой статье.
Если вы ставите VmwareView 4.0 на 64-бит систему, где установлен VspherevCenter4.0 Update 1, то будьте готовы к следующему сюрпризу – VspherevCenter4.0 Update 1 требует для своей работы ODBC 32, а VmwareViewComposer из состава VmwareView 4.0 – ODBC 64 бита, и явно это в документации не указано. Об этом вы узнаете на этапе установкиVmwareViewComposer, если попробуете воспользоваться кнопкой ODBCDSNSetup
и будете недоумевать почему ничего не работает и вы получаете следующую надпись.
Решить это затруднение на самом деле очень просто – ODBC-подключение для VmwareView 4.0нужно просто заранее подготовить черезStart/AdministrativeTools/ DataSources (ODBC)/SystemDSN. Оно создает ODBCподключение 64-бит по-умолчанию.
И потом при инсталляцииVmwareViewComposerимя созданного SystemDSNи нужно вводить в поле: EntertheDataSourceName (DSN)….
Для справки:VmwareViewComposer ставится локально на систему где установлен VMwareVirtualCenter (так написано в документации).
Интересная рекламка от Citrix, направленная против VMware.
Обновились продукты от компании VMware:
Вышла новая версия StarWind 5.0 iSCSI SAN. Основные изменения:
Бесплатная версия также обновилась… дизайном.
Беседуя с различными людьми, часто встречаешь непонимание разницы в механизмах высокой доступности, предоставляемой службами кластера MS и средами виртуализации. Точно такие люди встречаются и с известными ИТ-гуру, в частности, Scott Lowe, который написал небольшую статейку о различиях HA.
Приведу краткий пересказ:
С выходом VMware vSphere 4 в этом году, компания VMware представила технологию VMware Fault Tolerance (VMware FT) – новый механизм, предоставляющий экстремально высокий уровень доступности виртуальных машин. Разговоры с заказчиками, показали мне растущее количество клиентов, которые не понимают разницы в типах высокой доступности, которые даёт VMware(HA и FT) и кластеризация на уровне операционной системы (например, Microsoft Windows Failover Clustering). Хотя, оба типа технологий предназначены для увеличения доступности и уменьшения простоев, они отличны и предоставляют различный уровень функциональности.
Рассмотрим различия:
Заметка не направлена против какой-либо технологии —VMware HA, VMware FT или кластеров уровня ОС, она описывает их достоинства, недостатки, аналогии, различия. Надеюсь, это поможет сделать правильное решение в выборе технологий при разворачивании ЦОД. (Подсказка: Возможно, Вам понадобятся все.)
С каждым годом поддержка серверной виртуализации в системах хранения данных поднимается на уровень выше: это поддержка общих LUN с актив-актив доступом, thin provisioning, вендорная сертификация.
Компания EMC, в структуру которой входит VMware, решила интегрировать поддержку хранилищ виртуальных машин в интерфейс самого хранилища. Это выразилось в создании новой версии операционной системы Flare 29 для EMC CLARiiON CX4.
В интерфейсе хранилища Navisphere теперь вы можете увидеть:
Свойства подключенного хоста
“Подмапленные” LUN
Виртуальные машины(!)
Хранилища виртуальных машин (RDM или VMFS, размещение файлов, тонкие или толстые, ёмкость)
Если с выходом “четверки” мы получили управление хранилищами на стороне хоста, то теперь получаем управление хранением на уровне виртуальных машин на стороне хранилища.
Подробнее тут.
В базе знаний VMware сегодня появилось официальное сравнение гипервизоров ESX и ESXi версии 4. Всем ознакомиться тут.
На сайте Microsoft выложили “отличное” сравнение VMware vSphere 4 и Hyper-V R2. Посмотреть советую всем, не забыв про скепсис, тем более, что всё на русском языке.
Первое сравнение – “Преимущества решений Microsoft перед VMware“, учитываем, что сравниваются функции, которые есть в наборе продуктов Microsoft System Center, а функции, которые есть в Vmware, но нет у MS, вежливо опущены. Плюс Quick Storage Migration работает с прерыванием доступности виртуальной машины.
Второе сравнение – “Решения Microsoft дешевле, чем VMware” рассматривает продукты с точки зрения цены. Про функционал смотрите замечания выше, по цене предлагаю посчитать сами, так как часть затрат не учитывается и подсчет не очень прозрачен.
Филипп Зыков делится с нашими читателями, как физический диск на железе сервера превратить в RDM на vSphere:
Время от времени, особо упрямые и несогласные с предложенным функционалом Vsphere VCenter хотят вытворить что-то такое. А, потом, пишут про это статьи…
Итак, предыстория:
Я решил сделать супермегабюджетное решение в филиале. Там обитает админ, которого подпускать к серверам нельзя. Да, именно. Он не портит и не ломает, но придумывает такие кривые решения, что потом «нормальные» админы готовы ехать туда, чтобы обрушить на его голову свой праведный гнев. Так вот, для реализации «решения» есть DELL NF500 с 2 процами, 4Гб ОЗУ и RAID 5 2,7 Тб. Это вообще-то iSCSI-хранилище на Windows Server 2003. Нам для реализации кое-каких решений нужно завести 3 сервера Windows 2008R2. Железо покупать нельзя по целому ряду объективных и субъективных причин. Поэтому встал вопрос – как это организовать? Поставили ESX 4.0 и встал вопрос разметки встроенного RAID. Подумав, отдали 700Гб под VM, а вот остальное решили сделать RDM*. Но через графический интерфейс Vsphere VCenter этого сделать нельзя, только на SAN можно делать RDM.
Прим.*:Да, пользовательские данные я храню на RDM. Vmdk я уже стирал, они у нас бились, мы долго ругались и решили что RDM это наш выбор. Бэкапить нам 2 Тб нам некуда, железа-то нет, и не будет.
Поиск решения дал ссылку на решение, которое работает в ESX 3.5.
Опытным путем было установлено, что для ESX 4.0 данные рекомендации будут выглядеть так:
Синтаксис ее такой : vmkfstools –i [Путь к vmdk –файл ] –d rdm:/vmfs/devices/disks/naa.xxxxxxxxxxxxxxxxxxxxx [vmdk-файл]
Пример: [root@dell-nf500 Arizona]# vmkfstools -i /vmfs/volumes/Local_Servers_VM/Arizona/Arizona_1.vmdk -d rdm:/vmfs/devices/disks/naa.60022190bd135e001238f9a43a44a6d8 Local_RDM.vmdk
Таким образом мы конвертируем любой vmdk-файл в RDM.
Итак, на самом деле, это не совсем «кошер» и тянет на “грязный хак”, по меркам Vmware, но работает так как архитектура позволяет и допускает!
UPD. В комментариях Валерий Цуканов подсказывает другой работающий способ.
1. Создал из GUI обычный диск
2. Отцепил его от виртуальной машины
3. Выгнал “fdisk -l” и “ls -lh /vmfs/devices/disks/”
4. Открыл VMDK на редактирование, привел к следующему виду
————————————————————————-
# Disk DescriptorFile
version=1
encoding=”UTF-8″
CID=2fcb88a8
parentCID=ffffffff
createType=”vmfsRaw” <- новое значение
# Extent description
RW 3891167910 VMFSRAW “/vmfs/devices/disks/mpx.vmhba0:C0:T1:L0″ <- цифру брал из fdisk (Sec*Cyl*Head), путь из ls -lh
# The Disk Data Base
#DDB
ddb.longContentID = “31425c71cef152041d4c84452fcb88a8″
ddb.adapterType = “lsilogic” <- на buslogic не оживало
ddb.geometry.sectors = “63″ <- из fdisk
ddb.geometry.heads = “255″ <- из fdisk
ddb.geometry.cylinders = “242214″ <- из fdisk
ddb.virtualHWVersion = “7″
————————————————————————-
5. Подключил к vm, отформатировал, ошибок нет.