Отключение виртуальной машины. Сравнительный обзор VMware Server и VMware Workstation

Видеозапись демонстрации в хорошем качестве - 720p - все отчетливо видно. Для тех, кто не хочет смотреть видео - под катом расшифровка демонстрации и скриншоты.

Дисклеймеры:

1. Стенограмма с небольшой редактурой.
2. Просим помнить о разнице в письменной и устной речи.
3. Скриншоты в большом размере, иначе ничего не разобрать.

Коллеги, добрый день. Мы начинаем демонстрацию VMware NSX. Итак, что бы хотелось сегодня показать. Наша демо-инфраструктура развернута на базе нашего дистрибьютора MUK. Инфраструктура достаточно небольшая - это три сервера, серверы есть ESXI в 6-й версии апдейт 1 v-центр обновленный, то есть самое свежее, что мы можем предложить.

В этой структуре мы до использования NSX получили от сетевых инженеров MUK-а несколько VLan-ов, в которых можно было разместить серверный сегмент, видео-десктопы, сегмент, который имеет доступ в интернет, для того чтобы от видео-десктопа можно было получить доступ в интернет, ну и доступ к транзитным сетям для того, чтобы коллеги из MUK могли из внутренней своей сети подключаться, да? Любые операции, связанные, например, если я захочу для какого-то демо или какого-то пилота создать еще несколько каких-то там сетей порт-груп сделать более сложную конфигурацию, надо обратиться к коллегам из MUK, попросить, чтобы они на оборудовании что-то там наделали.
Если мне нужно взаимодействие между сегментами, то либо опять же договариваться с сетевиками, либо по-простому - маленькую машинку, роутер внутри, два интерфейса, туда-сюда, как все мы привыкли делать.

Соответственно использование NSX 10 преследует две цели: с одной стороны, это показать, как это работает не на виртуалках, на железе, да, что это реально работает и это удобно; второй момент, это действительно упростить определенные свои задачи. Соответственно, что мы видим в данный момент? В данный момент мы видим, какие виртуальные машины появились в этой инфраструктуре после того, как NSX был внедрен. Некоторые из них являются обязательными, без них нельзя. Некоторые появились вследствие определенного сетапа самой инфраструктуры.

Соответственно, обязательными являются NSX-менеджер - это основной сервер, через который мы можем взаимодействовать с NSX, он предоставляет веб-клиент V-центра свой графический интерфейс, он позволяет обращаться к нему через rest api для того, чтобы автоматизировать какие-то действия, которые можно делать с NSX либо какими-то скриптами, либо, например, из различных облачных порталов. Например, VMware vRealize Automation либо порталы других вендоров. Для работы технически NSX-у нужен кластер из NSX-контроллеров, то есть эти серверы выполняют служебную роль. Они определяют, они знают, да, они хранят в себе информацию о том, на каком физическом esxi-сервере, какие ip-адреса и mac-адреса в данный момент присутствуют, какие у нас новые сервера добавились, какие отвалились, распространяют эту информацию на esxi -сервера, то есть фактически, когда у нас есть созданный при помощи NSX, L2 сегмент, который должен быть доступен на нескольких esxi -серверах и виртуальная машина пытается отправить ip-пакет другой виртуальной машине в том же самом L2-сегменте, NSX-контроллеры точно знают, на какой хост на самом деле сетевой пакет нужно доставить. И они эту информацию регулярно хостам отдают. Каждый хост владеет таблицей, какие ip, какие mac-адреса на каких хостах находятся, какие реально, физически пакеты надо передавать.

Если мы откроем конфигурацию какого-либо хоста, то мы можем увидеть тот самый интерфейс, через который пакеты будут по сети передаваться. То есть у нас параметры VMkernel адаптера, данный хост будет, используя этот ip-адрес в сеть VXLan пакеты. Немножко у нас тут маленький монитор, поэтому приходится выкручиваться.

И мы видим, что отдельный TCP/IP stack используется для передачи этих пакетов, то есть может быть отдельный default gateway отличный от обычного VMkernel интерфейса. То есть с точки зрения физики: для того, чтобы в демо это развернуть, мне понадобился один VLan, в который я могу разместить эти интерфейсы; желательно - и я проверил, что этот VLan он не только на эти три сервера распространяется, он растянут немножко дальше, если появится там четвертый-пятый сервер, например, не в том же самом шасси, где эти лезвия стоят, а где-то отдельный, может быть, даже не в этом VLan-е, но который маршрутизируется сюда, я смогу добавить, например, четвертый сервер, который будет в другой сети, но они между собой смогут общаться, я смогу растянуть свои L2-сети, созданные при помощи NSX с этих трех серверов в том числе и на этот новый четвертый.

Ну и собственно теперь переходим к тому, как выглядит сам NSX, то есть: что мы можем с ним сделать мышкой и клавиатурой, да? Мы не говорим сейчас о rest api, когда мы хотим что-либо автоматизировать.

Раздел Installation (сейчас мы туда, я надеюсь, переключимся) позволяет нам посмотреть, кто у нас менеджер, сколько контроллеров, сами контроллеры разворачиваются отсюда. То есть менеджер мы скачиваем с сайта VMware, это template, мы его разворачиваем и внедряем в V-центр. Далее мы настраиваем менеджер, указываем ему логин-пароль для подключения к V-центр серверу, для того чтобы он смог зарегистрировать плагин здесь. После этого мы подключаемся к этому уже интерфейсу, говорим: «Надо внедрить контроллеры».

Минимально, если мы говорим, например, о каком-то тестовом стенде, контроллер может быть даже один, система будет работать, но это не рекомендуется. Рекомендуемая конфигурация - это три контроллера, желательно на разных серверах, на разных хранилках, для того, чтобы выход из строя какого-то компонента не мог привести к потере всех трех контроллеров сразу.

Также мы можем определить, какие хосты и какие кластеры под управлением этого V-центр сервера будут взаимодействовать с NSX. На самом деле, не обязательно вся инфраструктура под управлением одного V-центр сервера будет с этим работать, могут быть некие выборочные кластеры. Выбрав кластеры, мы должны выполнить установку на них дополнительных модулей, которые позволяют esxi серверу делать инкапсуляцию/декапсуляцию VXLan пакетов, делается это, опять же, из этого интерфейса. То есть не надо ходить в SSH, не надо никакие модули вручную копировать, отсюда нажали кнопку, отследили статус «получилось/не получилось».

Далее мы должны выбрать, собственно говоря, каким образом вот эта настройка VMkernel интерфейса будет происходить. То есть мы выбираем распределенный коммутатор, выбираем аплинки, то есть где это произойдет; выбираем параметры балансировки нагрузки, когда линков несколько, в зависимости от этого, когда у нас на один хост только один ip-адрес такого типа, иногда их может быть несколько. Сейчас мы используем в режиме по одному.

Далее мы должны выбрать идентификатор VXLan. То есть VXLan - это технология, напоминающая VLan, но это дополнительные метки, позволяющие в одном реальном сегменте изолировать разные виды трафика. Если VLan идентификаторов - их 4 тыс., VXLan идентификаторов- их 16 млн. Здесь мы фактически выбираем некий диапазон номеров VXLan сегментов, которые при автоматическом создании логических свичей, будут им присваиваться.

Как их выбирать? Собственно говоря, как хотите, из вот этого диапазона, если у вас большая инфраструктура и может быть несколько NSX внедрений так, чтобы они не пересекались. Просто-напросто. Собственно, так же, как и VLan. То есть я использую диапазон с 18001 по 18999.

Далее мы можем создать так называемую транспортную зону. Что такое транспортная зона? Если инфраструктура достаточно большая, представьте себе, у вас есть там порядка сотни esxi-серве ров, примерно по 10 серверов на кластер, у вас есть 10 кластеров. Мы можем не все из них задействовать для работы с NSX. Те из них, которые мы задействовали, мы можем использовать как одну инфраструктуру, а можем разбить, например, на несколько групп. Сказать, что у нас первые три кластера - это один островок, с четвертого по десятый - это некий другой островок. То есть, создав транспортные зоны, мы указываем, как далеко этот VXLan-сегмент может распространяться. У меня здесь три сервера, особо не разживешься, да? Поэтому здесь все по-простому. Просто все хосты у меня попадают в эту зону.

И еще один важный момент. При настройке зоны мы управляем, каким образом будет идти обмен информацией для поиска информации об ip-адресах, mac-адресах. Это может быть Unicast, это может быть Multycast уровня L2, это может быть Unicast, маршрутизируемый через уровень L3. Опять же, в зависимости от сетевой топологии.

Это такие некие предварительные вещи, то есть еще раз повторюсь: все, что потребовалось от сетевой инфраструктуры - это то, чтобы у меня все хосты, на которых должен работать NSX, могли взаимодействовать между собой по ip, используя, если нужно, в том числе и обычную маршрутизацию. И второй момент - это то, чтобы MTU вот в этом сегменте, где они взаимодействуют, был 1600 байт, а не 1500 - как это происходит обычно. Если же я не могу получить 1600 байт, поэтому мне просто придется во всех конструкциях, которые я создаю в NSX-е, явным образом прикручивать MTU, например в 1400, чтобы я в физическим транспорте в 1500 поместился.

Далее. Использую NSX, я могу создать логический коммутатор. Это проще всего в сравнении с традиционной сетью (VLan нарезать). Единственное что, как бы я не знаю, куда подключены мои физические серверы, да, здесь - это одни и те же коммутаторы. Теоретически сеть может быть более сложной. У вас может быть часть серверов подключена к одному коммутатору, часть к другому, где-то L2, где-то L3. В итоге, фактически создавая логический свитч, мы нарезаем VLan сразу на всех коммутаторах, через которые трафик будет ходить. Почему? Потому что на самом деле мы создаем VXLan, а реальный физический трафик, который будут видеть коммутаторы, - это трафик с ip-адреса на одного гипервизора на ip-адрес другого гипервизора, тип udp, внутри VXLan-содержимое.

То есть таким образом нарезка сетей происходит очень легко. Мы просто говорим: «Создать новый сегмент», выбираем тип транспорта unicast, выбираем, через какую транспортную зону, то есть фактически на каких esxi-кластерах этот сегмент будет доступен. Немножко ждем - и сейчас этот сегмент появится. На самом деле, что происходит, когда мы создаем эти сегменты? То есть, как подключить туда виртуальную машину? Для этого есть два варианта.

Вариант номер раз.

Мы прямо отсюда говорим, что подключить к физической сети виртуальную машину. И некоторые наши заказчики сказали: «О, это то, что хотят наши сетевики». Они идут в настройки сети, и говорит, вот у тебе вот, шнурок от машины, включая в порт логического коммутатора, да? И выбираем, здесь - машину, здесь, соответственно, интерфейс.

Либо второй вариант. На самом деле, при создании логического коммутатора NSX-менеджер обращается к V-центру сервера и создает порт-группу на распределенном коммутаторе. Поэтому на самом деле мы можем пойти просто в свойства виртуальной машины, выбрать нужную порт-группу, включить виртуальную машину туда. Поскольку имя генерируется программно, в нем будет включено имя этого логического коммутатора, номер VXLan-сегмента. То есть в принципе из обычного V-центр-клиента достаточно понятно, в камкой логический сегмент вы включите виртуальную машину.

Далее. Еще несколько машинок, которые были видны в самом начале, да? И вот, откуда они взялись. Некоторые функции NSX реализует напрямую на уровне модуля в ядре esxi-я. Это, например, маршрутизация между этими сегментами, это файервол при переходе между этими сегментами, либо даже внутри этого сегмента некоторые функции реализовываются при помощи дополнительных виртуальных машин. Так называемые EDGE gateways или дополнительные сервисы, когда они нужны. Что мы видим здесь? Мы видим, что в моей инфраструктуре их три, один из них называется NSX-dlr, dlr - это distributed logical router. Это служебная виртуальная машина, которая позволяет распределенному маршрутизатору в NSX-е работать, через нее не идет сетевой трафик, она не является дата-плэйном, но если у нас распределенный маршрутизатор участвует, например, в обмене маршрутами по протоколам динамической маршрутизации bgp, ospf, откуда-то эти все маршруты должны попадать, другие маршрутизаторы должны к кому-то обращаться и обмениваться этой информацией. Кто-то должен отвечать за статус «работает распределенный маршрутизатор или нет». То есть это фактически некий менеджмент-модуль распределенного маршрутизатора. При его настройке мы можем указать, что он должен работать надежно, соответственно, будет внедрено две виртуальных машины в HA-паре. Если одна почему-то стала недоступна, то на ее место будет работать вторая. Два других edge, которые имеют тип NSX edge, – это виртуальные машины, через которые роутится или натится трафик, который выходит во внешние сети, которые не управляются NSX-ом. В моем сценарии они используются для двух задач: NSX edge просто подключен ко внутренним сетям дата-центра MUK, то ест, например, мой V-центр – он как был на обычной стандартной порт-группе, он там и работает. Для того, чтобы я мог с какой-то виртуальной машиной на NSX logical свитче добежать до V-центра, мне нужен кто-то, кто их свяжет. Связывает их у меня вот эта виртуальная машина. У нее, действительно, один интерфейс подключен к логическому свитчу, другой интерфейс подключен к обычной порт-группе на standart свитче на esxi, который называется NSX Internet edge. Угадайте, чем отличается? Примерно то же самое, но порт-группа, к которой он подключит - та порт-группа, которая подключеня в DNZ-сеть, в которой работают честные белые интернет-адреса. То есть на нем сейчас, на одном из его интерфейсов, настроен белый ip-адрес и можно подключиться к этой демо-среде, используя уже NSX Networking. Соответственно дополнительные сервисы такие, как распределенная маршрутизация, мы настраиваем здесь в пункте фаервол, если же мы хотим делать фаерволинг, если мы хотим делать нат, если мы хотим делать log balancing либо, например, VPN, при внешнем подключении, для этого мы открываем свойства интернет edge.

Мы немножко закругляемся по времени, поэтому не покажу все, что хотел показать.
Соответственно, в свойствах edge мы можем управлять фаерволом, это фаервол, который будет применятся, когда трафик через эту виртуальную машину проходит, то есть это фактически некий наш периметр фаервол получается. Далее, на нем может быть dhсp-сервер, либо он может делать проброс как ip-helper, так как dhсp-helper. Он может делать NAT - то, что мне нужно здесь для edge, который смотрит одной стороной в честный Интернет, а другой во внутренние сети. На нем есть балансировщик нагрузки. Он может выступать в качестве точки для VPN тоннеля либо в качестве терминатора для клиентских подключений. Вот две закладки: VPN и VPN Plus. VPN - это сайт ту сайт, между edge и другим edge, между edge и нашим облаком, между edge и облаком провайдера, который использует наши технологии VCNS либо NSX. SSL VPN Plus - есть клиент для различных операционных систем, который можно поставить вам на свой ноутбук либо пользователя, они смогут к инфраструктуре подключиться к VPN.

Ну и буквально несколько последних моментов. Распределенный фаервол, то есть фаерволлинг, применяется на каждом хосте, в качестве правил мы можем указывать здесь ip-адреса, номера пакетов, номера портов, имя виртуальных машин, включая маски, например. Сделать правило, что со всех машин, имя которых начинается с up, разрешить ходить по 14:33 на все машины, имя которых начинается с db. разрешить трафик с машинки, которая в папочке V-центра одной, будет ходить в папочке другой, подключиться к active directory, сказать, что если у нас машина входит в определенную группу ad, тогда этот трафик разрешить, если не входит, то трафик запретить. Ну и различные другие варианты.

Плюс опять же, что делать с трафиком? Три действия: разрешить, запретить, отказать. Чем отличается запретить от отказать? И одно, и другое блокирует трафик. Но одно просто делает это тихонечко, а второе присылает обратно сообщение, что ваш трафик убили. И гораздо проще потом в диагностике.

И буквально важное дополнение в конце. То есть такой компонент как service composer. Здесь мы можем интегрировать NSX какими-то дополнительными модулями, например, это внешний балансировщик нагрузки, это антивирус, это какая-либо IDS/IPS-система. То есть мы их можем зарегистрировать. Мы можем увидеть здесь, какие конфиги есть, можем описать те самые секьюрити-группы. Например, группа demoUsers - это группа, включающая себя в машины, на которых залогонился пользователь из группы demoUsers. Что мы видим сейчас? Что сейчас в эту группу попадает одна виртуальная машина. Где она? Вот.

Виртуальный десктоп, пользователь туда подключен. Я могу сделать правило в фаерволе, в котором сказать, что разрешить пользователям одной группы доступ к одним файловым серверам, а пользователям другой группы разрешить доступ к другим файловым серверам. И даже если это два пользователя, которые заходят на один и тот же, например, VDI десктоп, но в разное время, фаервол динамически будет применять разные политики к разным пользователям. Таким образом можно гораздо более гибкую инфраструктуру построить. Нет необходимости выделять отдельные какие-то сетевые сегменты, отдельные машины для разных типов пользователей. То есть сетевые политики могут динамически перенастраиваться в зависимости от того, кто сейчас сетью пользуется.

Дистрибуция решений VMware в

На современном рынке софта существует огромное количество виртуальных машин (ВМ), но наш сегодняшний обзор посвящен VMWare Workstation. Это программа, предназначенная для одновременной установки и использования нескольких операционных системах с одного компьютера.

Как установить VMWare Workstation

Установка VMWare Workstation происходит абсолютно так же, как и любой другой программы. После того, как на вашем компьютере появится окно приложения, в левой его части вы увидите все имеющиеся в наличии виртуальные машины, а в правой - непосредственно рабочее окно, с помощью которого и осуществляется управление.

Особое внимание следует уделить созданию ВМ. В VMWare Workstation существует два способа: обычный и выборочный. После выбора типа конфигурации, нужно подобрать совместимые программы и саму операционную систему. Далее будет автоматически предложен список настроек.


Важно, что можно не только выбирать тип операционки, но и количество ядер, задействованных в работе. Но опытные пользователи советуют не тратить слишком много ресурсов на гостевую ОС. Повышенное потребление ресурсов только замедлит работу устройства, но никак не отразится на производительности гостевой операционки. При установке также предлагается выбрать количество оперативной памяти. Как правило, достаточно выбрать значение, предложенное системой автоматически, но настройку можно осуществлять и в ручном режиме.


Этапы настройки

После этого можно приступать к запуску. В процессе работы софт можно ставить на паузу, при этом все введенные настройки и параметры сохранятся. Для выключения достаточно нажать на соответствующую кнопку в рабочем окне. Важно, что рано или поздно работу виртуальной машины придется остановить, так как в ней будут скапливаться лишние файлы, замедляющие работу устройства.

Пользоваться ВМ можно даже после переустановки основной ОС. Для этого достаточно открыть рабочее окно и скопировать ее.

В целом, VMWare Workstation можно смело назвать полезным софтом. Эта программа обладает высокой функциональностью и простым интерфейсом, и позволяет проводить операции на разных операционках без негативных последствий для компьютера.

VMWare Workstation для Windows

Компания VMware – один из первых игроков на рынке платформ виртуализации. В 1998 году VMware запатентовала свои программные техники виртуализации и с тех пор выпустила немало эффективных и профессиональных продуктов для виртуализации различного уровня: от VMware Workstation, предназначенного для настольных ПК, до VMware ESX Server, позволяющего консолидировать физические серверы предприятия в виртуальной инфраструктуре.

В отличие от ЭВМ (мэйнфрейм) устройства на базе x86 не поддерживают виртуализацию в полной мере. Поэтому компании VMware пришлось преодолеть немало проблем в процессе создания виртуальных машин для компьютеров на базе x86. Основные функции большинства ЦП (в ЭВМ и ПК) заключаются в выполнении последовательности сохраненных инструкций (т.е. программ). В процессорах на базе x86 содержатся 17 особых инструкций, создающих проблемы при виртуализации, из-за которых операционная система отображает предупреждающее сообщение, прерывает работу приложения или просто выдает общий сбой. Итак, эти 17 инструкций оказались значительным препятствием на начальном этапе внедрения виртуализации для компьютеров на базе x86.

Для преодоления этого препятствия компания VMware разработала адаптивную технологию виртуализации, которая "перехватывает" данные инструкции на этапе создания и преобразует их в безопасные инструкции, пригодные для виртуализации, не затрагивая при этом процессы выполнения всех остальных инструкций. В результате мы получаем высокопроизводительную виртуальную машину, соответствующую аппаратному обеспечению узла и поддерживающую полную программную совместимость. Компания VMware первой разработала и внедрила данную инновационную технологию, поэтому на сегодняшний день она является неоспоримым лидером технологий виртуализации.

В весьма обширном списке продуктов VMware можно найти немало инструментов для повышения эффективности и оптимизации ИТ-инфраструктуры, управления виртуальными серверами, а также средства миграции с физических платформ на виртуальные. По результатам различных тестов производительности средства виртуализации VMware почти всегда по большинству параметров выигрывают у конкурентов. VMware имеет более 100 000 клиентов по всему миру, в списке ее клиентов 100% организаций из Fortune 100. Сеть партнерств охватывает более 350 производителей оборудования и ПО и более 6000 реселлеров. На данный момент объем рынка, принадлежащий VMware, оценивается на 80%. Между тем, среди платформ виртуализации у VMware есть из чего выбирать:

VMware Workstation – платформа, ориентированная на desktop-пользователей и предназначенная для использования разработчиками ПО, а также профессионалами в сфере ИТ. Новая версия популярного продукта VMware Workstation 7 стала доступна в 2009 г, в качестве хостовых операционных систем поддерживаются Windows и Linux. VMware Workstation 7 может использоваться совместно со средой разработки, что делает ее особенно популярной в среде разработчиков, преподавателей и специалистов технической поддержки. Выход VMware Workstation 7 означает официальную поддержку Windows 7 как в качестве гостевой, так и хостовой операционной системы. Продукт включает поддержку Aero Peek и Flip 3D, что делает возможным наблюдать за работой виртуальной машины, подводя курсор к панели задач VMware или к соответствующей вкладке на рабочем столе хоста. Новая версия может работать на любой версии Windows 7, также как и любые версии Windows могут быть запущены в виртуальных машинах. Кроме того, виртуальные машины в VMware Workstation 7, полностью поддерживают Windows Display Driver Model (WDDM), что позволяет использовать интерфейс Windows Aero в гостевых машинах.

VMware Player – бесплатный "проигрыватель" виртуальных машин на основе виртуальной машины VMware Workstation, предназначенный для запуска уже готовых образов виртуальных машин, созданных в других продуктах VMware, а также в Microsoft VirtualPC и Symantec LiveState Recovery. Начиная с версии 3.0 VMware Player позволяет также создавать образы виртуальных машин. Ограничение функциональности теперь касается в основном функций, предназначенных для IT-специалистов и разработчиков ПО.

VMware Fusion – настольный продукт для виртуализации на платформе Mac от компании Apple.

VMware Server , Бесплатный продукт VMware Server является довольно мощной платформой виртуализации, которая может быть запущена на серверах под управлением хостовых операционных систем Windows и Linux. Основное предназначение VMware Server – поддержка малых и средних виртуальных инфраструктур небольших предприятий. В связи с небольшой сложностью его освоения и установки, VMware Server может быть развернут в кратчайшие сроки, как на серверах организаций, так и на компьютерах домашних пользователей.

VMware Ace – продукт для создания защищенных политиками безопасности виртуальных машин, которые затем можно распространять по модели SaaS (Software-as-a-Service).

VMware vSphere – комплекс продуктов, представляющий надежную платформу для виртуализации ЦОД. Компания позиционирует данный комплекс также как мощную платформу виртуализации для создания и развертывания частного "облака". VMware vSphere поставляется в нескольких выпусках с возможностями, предназначенными специально для малых компаний и средних компаний и корпораций.

VMware vSphere включает ряд компонентов, преобразующих стандартное оборудование в общую устойчивую среду, напоминающую мейнфрейм и включающую встроенные элементы управления уровнями обслуживания для всех приложений:

  • Службы инфраструктуры - это компоненты, обеспечивающие всестороннюю виртуализацию ресурсов серверов, хранилищ и сетей, их объединение и точное выделение приложениям по требованию и в соответствии с приоритетами бизнеса.
  • Службы приложений - это компоненты, предоставляющие встроенные элементы управления уровнями обслуживания для всех приложений на платформе платформы vSphere независимо от их типа или ОС.
  • VMware vCenter Server предоставляет центральную консоль для управления виртуализацией, обеспечивающую администрирования служб инфраструктуры и приложений. Эта консоль поддерживает всестороннюю визуализацию всех аспектов виртуальной инфраструктуры, автоматизацию повседневной эксплуатации и масштабируемость для управления крупными средами ЦОД.


Рис. 2.10.

VMware ESX Server – это гипервизор, разбивающий физические серверы на множество виртуальных машин. VMware ESX является основой пакета VMware vSphere и входит во все выпуски VMware vSphere.


Рис. 2.11.

VMware vSphere Hypervisor (ранее VMware ESXi) - "облегчённая" платформа виртуализации корпоративного уровня, основанная на технологиях ESX. Продукт является бесплатным и доступен для загрузки с сайта VMware. VSphere VMware Hypervisor является простейшим способом для начала работы с виртуализацией

VMware vCenter – предоставляет расширяемую и масштабируемую платформу для упреждающего управления виртуальной инфраструктурой и обеспечивает получение о ней всеобъемлющей информации. VMware vCenter Server обеспечивает централизованное управление средами vSphere и упрощает выполнение повседневных задач, значительно улучшая административное управление средой. Продукт обладает широкими возможностями по консолидации серверов, их настройке и управлению. VMware vCenter Server агрегирует в себе все аспекты управления виртуальной средой: от виртуальных машин до сбора информации о физических серверах для последующей их миграции в виртуальную инфраструктуру. Кроме центрального продукта управления виртуальной инфраструктурой vCenter Server существует также ряд дополнений, реализующих различные аспекты планирования, управления и интеграции распределенной виртуальной инфраструктуры (VMware vCenter Server Heartbeat , VMware vCenter Orchestrator, VMware vCenter Capacity IQ, VMware vCenter Site Recovery Manager, VMware vCenter Lab Manager, VMware vCenter Configuration Manager, VMware vCenter Converter). В частности, vCenter Converter предназначен для перевода в виртуальную среду физических серверов, позволяющий осуществлять "горячую" (без останова систем) и "холодную" миграцию. vCenter Site Recovery Manager – это ПО для создания территориально-удаленного резервного сегмента виртуальной инфраструктуры, который в случае отказа основного узла, берет на себя функции по запуску виртуальных машин в соответствии с планом восстановления после сбоев. vCenter Lab Manager - продукт для создания инфраструктуры хранения и доставки конфигураций виртуальных машин, позволяющий организовать эффективную схему тестирования в компаниях-разработчиках ПО.

VMware ThinApp - бывший продукт Thinstall Virtualization Suite, ПО для виртуализации приложений, позволяющее распространять предустановленные приложения на клиентские рабочие станции, сокращая время на стандартные операции по установке и конфигурации.

VMware View - комплекс продуктов, обеспечивающий централизацию пользовательских рабочих станций в виртуальных машинах на платформе vSphere. Это позволяет сократить затраты на стандартные ИТ-операции, связанные с развертыванием и обслуживанием пользовательских десктопов.

VMware Capacity Planner - средство централизованного сбора и анализа данных об аппаратном и программном обеспечении серверов, а также производительности оборудования. Эти данные используются авторизованными партнерами VMware для построения планов консолидации виртуальных машин на платформе VMware ESX Server.

VMware VMmark - продукт, доступный только производителям аппаратного обеспечения, предназначенный для тестирования производительности VMware ESX Server на серверных платформах.

Citrix (Xen)

Разработка некоммерческого гипервизора Xen начиналась как исследовательский проект компьютерной лаборатории Кембриджского университета. Основателем проекта и его лидером был Иан Пратт (Ian Pratt) сотрудник университета, который создал впоследствии компанию XenSource, занимающуюся разработкой коммерческих платформ виртуализации на основе гипервизора Xen, а также поддержкой Open Source сообщества некоммерческого продукта Xen. Изначально Xen представлял собой самую развитую платформу, поддерживающую технологию паравиртуализации. Эта технология позволяет гипервизору в хостовой системе управлять гостевой ОС посредством гипервызовов VMI (Virtual Machine Interface), что требует модификации ядра гостевой системы. На данный момент бесплатная версия Xen включена в дистрибутивы нескольких ОС, таких как Red Hat, Novell SUSE, Debian, Fedora Core, Sun Solaris. В середине августа 2007 года компания XenSource была поглощена компанией Citrix Systems. Сумма проведенной сделки около 500 миллионов долларов (акциями и денежными средствами) говорит о серьезных намерениях Citrix в отношении виртуализации. Эксперты полагают, что не исключена и покупка Citrix компанией Microsoft, учитывая давнее ее сотрудничество с XenSource.

Бесплатный Xen. В настоящее время Open Source версия платформы Xen применяется в основном в образовательных и исследовательских целях. Некоторые удачные идеи, реализованные многочисленными разработчиками со всего мира, находят свое отражение в коммерческих версиях продуктов виртуализации компании Citrix. Сейчас бесплатные версии Xen включаются в дистрибутивы многих Linux-систем, что позволяет их пользователям применять виртуальные машины для изоляции программного обеспечения в гостевых ОС с целью его тестирования и изучения проблем безопасности, без необходимости установки платформы виртуализации. К тому же многие независимые разработчики ПО могут распространять его с помощью виртуальных шаблонов, в которых уже установлена и настроена гостевая система и предлагаемый продукт. Кроме того, Xen идеально подходит для поддержки старого программного обеспечения в виртуальной машине. Для более же серьезных целей в производственной среде предприятия необходимо использовать коммерческие платформы компании Citrix.

Citrix XenApp - предназначен для виртуализации и публикации приложений в целях оптимизации инфраструктуры доставки сервисов в крупных компаниях. XenApp имеет огромное количество пользователей по всему миру и во многих компаниях является ключевым компонентом ИТ-инфраструктуры.

Citrix XenServer - платформа для консолидации серверов предприятий среднего масштаба, включающая основные возможности для поддержания виртуальной инфраструктуры. Производитель позиционирует данный продукт как решение Enterprise-уровня для виртуализации серверов, поддерживающее работу в "облачном" окружении.

Citrix XenDesktop - решение по виртуализации десктопов предприятия, позволяющее централизованно хранить и доставлять рабочие окружения в виртуальных машинах пользователям. Продукт поддерживает несколько сценариев доставки приложений на настольные ПК, тонкие клиенты и мобильные ПК и совместим с серверными виртуализационными решениями конкурентов.

Сегодня я хотел бы рассказать вам о продуктах, которые раньше выпускались компанией VMware, но по тем или иным причинам были сняты с продаж и перестали развиваться. Список далеко не полный и содержит, по большей части, мое мнение о продуктах по результатам работы с ними.

VMware ESX Server

Начну, пожалуй, с самого значимого продукта, благодаря которому VMware стала лидером на рынке серверной виртуализации.

VMware ESX Server - первый гипервизор типа 1 для процессоров Intel x86. ESX не был первым серверным гипервизором, и даже не был первым продуктом VMware. Однако в нем впервые были реализованы такие функции, как живая миграция ВМ (vMotion), высокая доступность ВМ (High Availability), автоматическая балансировка (Distributed Resource Scheduler), управление питанием (Distributed Power Management) и многое другое.

Кстати, вы никогда не задавались вопросом, что значить аббревиатура ESX? Так вот, ESX - это Elastic Sky X. Что лишний раз доказывает, что еще в далеком 2002 VMware разрабатывала свои продукты с оглядкой на облачные вычисления...

ESX строился на базе монолитной архитектуры, все драйверы, сеть и подсистема ввода-вывода работали на уровне гипервизора. Однако для управления гиперзовиром на каждом хосте устанавливалась небольшая служебная ВМ - Service Console на базе модифицированного дистрибутива Red Hat Linux. С одной стороны, это накладывало ряд ограничений - служебная ВМ отъедала часть вычислительных ресурсов хоста, ее диски, как и любой другой ВМ требовалось размещать на VMFS хранилище, а каждый хост нуждался, по меньшей мере, в двух IP адресах, один - для VMKernel интерфейса, второй - для Service Console. С другой стороны, Service Console предоставляла возможность установки стороннего ПО (агентов, плагинов), которые расширяли возможности по мониторингу и управлению гипервизором. Наличие Service Console породило распространенное заблуждение, что гипервизор ESX является модифицированным Linux"ом.

Стоит упомянуть, что первые версии ESX устанавливались и управлялись по отдельности, однако, начиная ESX 2.0, для централизованного управления несколькими хостами появился VMware VirtualCenter (ныне хорошо известный под именем vCenter Server). Тогда, собственно, и появился Virtual Infrastructure, который представлял собой набор продуктов для виртуализации, состоящий из гипервизора ESX и ПО управления VirtualCenter. К версии 4.0 Virtual Infrastructure был переименован в vSphere.

В 2008 году появился альтернативный гипервизор - ESXi, который не нуждался в Service Console, был гораздо меньше в размере, но не поддерживал многое из того, что умел ESX (у ESXi отсутствовал WEB интерфейс, встроенный брандмауэр, возможность загрузки по SAN, интеграция с Active Directory и пр.). С каждой новой версией VMware постепенно наращивала функционал ESXi. VMware vSphere 4.1 стал последним релизом, включающим гипервизор ESX. Начиная с 5.0 VMware оставила только ESXi.

VMware GSX Server / Server

Долгие годы VMware GSX Server выпускался параллельно с VMware ESX. Ground Storm X (так расшифровывается аббревиатура GSX) представлял собой гипервизор второго типа и устанавливался поверх серверных ОС Microsoft Windows, RedHat или SUSE Linux. Использование гипервизора тип 2 имело свои плюсы. Во-первых, GSX поддерживал гораздо более широкий перечень оборудования и мог работать даже на десктопном железе в отличие от "капризного" ESX. Во-вторых, VMware GSX был крайне прост в установке и настройке, любой, кто работал с VMware Workstation, был способен управиться и с GSX. В-третьих, GSX имел встроенный NAT и DHCP сервер, что позволяло легко настраивать сеть для ВМ.

Как и старший собрат GSX поддерживал централизованное управление через VirtualCenter.

Позже GSX был переименован в VMware Server, получил при этом возможность запускать 64-битные ВМ, а также выделять ВМ несколько виртуальных процессоров. Вышедший в конце 2008 года VMware Server 2.0 стал бесплатным, обзавелся полноценным веб-интерфейсом и возможностью проброса USB устройств внутрь ВМ, однако потерял поддержку VMware VirtualCenter.

К этому времени гипервизоры ESX и ESXi заняли большую часть рынка серверной виртуализации. Выход бесплатных версий VMware ESXi Free и Microsoft Hyper-V Server стали последним гвоздем в крышку гроба VMware Server. VMware и Microsoft забросили свои гипервизоры для серверных ОС.

VMware vCenter Server Heartbeat

Продукт, предназначенный для обеспечения высокой доступности служб vCenter и смежных сервисов (СУБД, SSO, Update Manager), разрабатывался не самой VMware, а сторонней компанией - Neverfail Group .

В основе механизма защиты лежала идея организации двухузлового кластера, работающего в режиме active-passive. Пассивный узел следил за состоянием основного узла, и в случае его недоступности, запускал кластеризованные сервисы. Для работы кластера не требовалось общее хранилище, т.к. изменения, выполненые на активном узле периодически реплицировались на пассивный узел. vCenter Heartbeat обеспечивал защиту как физических, так и виртуальных, и даже смешанных конфигураций vCenter, когда один узел был физическим, а второй - виртуальным.

Хотя какое-то время vCenter Heartbeat и был единственным способом обеспечить защиту vCenter не только от аппаратных, но и от программных сбоев, реализация откровенно хромала. Сложная процедура установки и обслуживания кластера, а также масса багов сделали свое черное дело. В итоге, начиная с vSphere 5.5 U3 / vSphere 6.0 компания VMware отказалась от vCenter Heartbeat и вернулась к более привычному способу кластеризации средствами Microsoft Failover Cluster.

VMware vCenter Protect

Для тех из вас, кто работал с vSphere хотя бы с 4-й версии, должно быть известно, что в то время vCenter Update Manager поддерживал установку обновлений не только для гипервизоров ESX/ESXi, но также гостевых операционных систем и различного ПО. Однако начиная с 5.0 данный функционал был исключен из Update Manager, вместо этого VMware стала предлагать отдельный продукт - VMware vCenter Protect, который был приобретен вместе с компанией Shavlik.


Помимо обновления гостевых ОС, vCenter Protect позволял выполнять инвентаризацию программного и аппаратного обеспечения, запускать различные сценарии по расписанию, выполнять проверку на наличие уязвимостей.

Но, по всей вимости, продажи шли не очень хорошо, кроме того в портфеле VMware был vRealize Configuration Manager, приобретенный в 2010 у EMC, и выполнявший функции патч-менеджмента, инвентаризации и многого другого. Поэтому в 2013 vCenter Protect был продан компании LANDesk.

VMware Virtual Storage Appliance

Virtual Storage Appliance - первая попытка VMware играть на рынке программно-определяемых СХД. VSA предназначался для SMB и позволял создавать общую отказоустойчивую СХД на базе локальных дисков, устанавленных в сервер.


На каждом хосте ESXi развертывался специальный апплайнс VSA. Виртуальные диски VSA размещались на VMFS хранилище, созданном на томах локального RAID контроллера. Половина дискового пространства предназначалась для зеркалирования данных с другого VSA (этакий сетевой аналог RAID 1), расположенного на соседнем хосте, половина оставалась под полезные данные. Затем каждый апплайнс презентовал свое зеркалируемое хранилище по протоколу NFS обратно всем хостам виртуализации. Одна инсталляция поддерживала 2 или 3 хоста виртуализации, при использовании 2 хостов vCenter Server выполнял роль арбитра и должен был разворачиваться на отдельном физическом сервере или хосте ESXi, не входящем в VSA.

Функционал VSA был весьма ограниченным. Так, например, первая версия VSA поддерживала размещение только на VMFS томах с RAID 1 или 10, что приводило к высоким накладным расходам на хранение данных (фактически, полезное пространство составляло менее 1/4 от объема локальных дисков), отсутствовала поддержка VAAI, не было поддержки кэширования или тиринга.

Все это в совокупности с не слишком низкой ценой и невысокой производительностью не позволили VSA вытеснить привычные СХД из SMB сегмента. Поэтому вскоре после выхода первой версии Virtual SAN в 2014, продукт был снят с продаж.

VMware Virsto

Еще одна жертва Virtual SAN, продукт одноименной компании, которую VMware приобрела в 2013 году. Насколько мне известно, после покупки Virsto так и не появился в прайс-листах, а был практически сразу же помножен на ноль.

Перпективная разработка в области программно-определяемых хранилищ данных, Virsto представлял собой виртуальный апплайнс, выполняющий роль виртуализатора СХД, т.е. ресурсы СХД презентовались аплайнсу, а аплайнс, в свою очередь, отдавал дисковое пространство хостам по протоколу NFS. Сердцем Virsto была VirstoFS - специализированная файловая система, позволяющая оптимизировать операции записи и чтения за счет использования механизмов, схожих с теми, что можно видеть в СХД NetApp FAS. Virsto мог аккумулировать случайные операции записи в специальном журнале и затем последовательно записывать данные на СХД, что положительно сказывалось на IOPS и задержках. Кроме того, Virsto поддерживал многоуровневое хранение данных (тиринг) и оптимизировал работу со снапшотами за счет хранения в оперативной памяти метаданных о том, какой блок с данными в каком из снимков находится.


Несмотря на то, что продукт так и не вышел, старания разработчиков не прошли даром - в Virtual SAN 6.0 вместо VMFS-L появился новый формат разметки дисков на базе VirstoFS и поддержка "продвинутых" снапшотов.

VMware Lab Manager

Продукт для автоматизации развертывания и управления жизненным циклом ВМ в тестовых окружениях.

По сути Lab Manager являлся менеджером менеджеров, разворачивался поверх существующей инсталляции VMware ESX/ESXi и vCenter и позволял организовывать многопользовательский (многоарендный) доступ к общей виртуальной инфраструктуре, выделять пользователям необходимый набор вычислительных ресурсов, автоматически выдавать IP адреса ВМ из пулов, создавать изолированные сети для ВМ, указывать срок аренды для ВМ.


С ростом популярности темы облачных вычислений VMware переключилась на другой продукт - vCloud Director, постепенно перенеся из Lab Manager все наработанные фишки и закрыв его.

VMware ACE

Закончить обзор я хочу на достаточно редком звере - VMware ACE. Еще до появления VDI в своем классическом виде и широкого распространения BYOD компания VMware предлагала клиентам ПО для централизованного управления виртуальными рабочими станциями, которые могли запускаться на персональных компьютерах пользователей - VMware ACE.


ACE работал в связке с клиентскими гипервизорами VMware Workstation и Player и позволял управлять ВМ на основании заданных политик. С помощью политик администраторы могли ограничить функционал ВМ (например, отключить проброс USB устройств или контролировать доступ в сеть), принудительно шифровать виртуальные диски, разрешать доступ к ВМ только для авторизованных пользователей, настраивать срок жизни ВМ, по истечении которого ВМ переставала запускаться и т.д. ВМ вместе с политиками и гипервизором VMware Player могли быть экспортированы в виде готово пакета Pocket ACE и переданы пользователю любым удобным способом (на CD-диске, flash-накопителе или по сети). При необходимости, администратор мог развернуть в сети сервер ACE Management Server, к которому подключались клиентские гипервизоры и запрашивали актуальные настройки политик для ВМ.

Не смотря на интересный функционал, продукт не получил широкого распространения, и по словам VMware не отвечал всем требованиям тех немногих заказчиков, что его использовали, поэтому в 2011 он был снят с продажи. Спустя несколько лет на смену ACE пришел VMware Horizon FLEX, имеющий собственный механизм доставки ВМ на компьютеры пользователей, а также поддерживающий гипервизор VMware Fusion Pro для ОС Apple MAC OS X.

Эра персоналок, с установленными приложениями, судя по всему потихоньку движется к закату, вернулись клиент-серверные технологии. Уже не потребуется мощный ПК, ведь вся обработка данных производится на сервере. Новинка требует наличия структуры, которая усилиями маркетологов получила название облачные вычисления. Индустрия стремительно развивается и за пару лет нам обещают убрать в облака десятую часть приложений. Для всего этого нужны специфические инструменты, и кому как не VMware быть первыми.

Назначение VMware vSphere

Чтобы не бежать впереди поезда вначале давай определимся с назначением и местом продукта. Официально история нового имени началась чуть больше года назад (в конце апреля 2009), когда VMware анонсировала VMware vSphere (vmware.com/products/vsphere). Решение не возникло на пустом месте и пришло на смену платформе виртуализации VMware Virtual Infrastructure, наработки которого и использованы.
Вообщем назначение продукта после переименования не изменилось — объединение виртуальных систем, сетей и хранилищ в единые пулы ресурсов. Хотя над определением видно, что поработали маркетологи, которые чуть подправили формулировку под современные тенденции. Теперь на сайте значится, что “vSphere первая ОС ориентированная для облачных вычислений ”, которая дает возможность быстро и качественно развернуть и управлять виртуальными ресурсами. Но мы то знаем, что “ОС — это на чем Земля вертится”, а вертится vSphere, ну не буду забегать вперед.

Главная идея при переходе на vSphere сделать рабочую среду максимально удобной, устойчивой и управляемой. За счет, конечно же оптимизации — уменьшения числа физических серверов, повышения степени консолидации серверов. К слову если почитать описание микрософтовского System Center Virtual Machine Manager 2008 (SCVMM) натыкаемся на знакомые слова:).
Список возможностей vSphere очень большой, здесь лучше обратиться к официальной документации. Выделю только самые примечательные:

  • VMware vStorage Thin Provisioning — экономия дискового пространства, используется реально только необходимый объем;
  • VMware VMsafe – высоконадежная кластерная файловая система, используемая для хранения виртуальных машин;
  • VMware API vStorage и vCenter Data Recovery — централизованное резервное копирование и восстановление VM из графической консоли;
  • VMware Hot Add — горячее «добавление» устройств без остановки виртуальной машины;
  • VMware Distributed Power Management — управление электропотреблением, позволяет существенно сократить ее расходы;
  • VMware Host Profiles — интерфейс управления позволяющий централизовано настраивать узлы VMware ESX/ESXi и контролировать установки на соответствие политикам.

Плюсуем сюда средства «горячей» миграции VMware VMotion , кластеризации High Availability и высокой доступности Fault Toleranc e, балансировки нагрузки VMware DRS , технология перемещения виртуальных дисков Storage VMotio n и многое другое. Причем экономия при использовании vSphere достигается и тем, что для некоторых операций (например, резервирование) уже не нужно закупать продукт стороннего разработчика. Ранее приходилось докупать, что-то вроде Veeam Backup производимый Veeam Software.
Поддерживается ограничения в потреблении CPU, RAM и для пулов ресурсов (Resource Pool) и отдельных хостов, с возможностью гарантированного выделения ресурсов (Reservation), компонент vNetwork обеспечивает двунаправленный шейпинг и ограничение трафика.
Полный список поддерживаемых ОС для разных продуктов VMware представлен на странице VMware Compatibility Guide, здесь найдешь все популярные сегодня системы – Windows и варианты *nix.
В vSphere по сравнению с Virtual Infrastructure изменился и порядок лицензирования, который стал более гибким, так как теперь лицензии ориентированы не на пару физических процессоров, а по числу процессоров (их количество вбивается в ключ). Причем если количество ядер не превышает 6 (в версиях Advanced и Enterprise Plus — 12), то дополнительная оплата не потребуется. В разгар кризиса такой подход весьма приветствовался, ведь при принятии весьма не простого решения о переходе на виртуальные машины учитываются десятки показателей.
VMware vSphere состоит из следующих компонентов:

  • гипервизоров VMware ESX и/или VMware ESXi – собственно на них все и вертится;
  • VMware vCenter Server Agent обеспечивающий подключение гипервизоров к центру управления VMware vCenter Server (ранее VMware VirtualCenter Server), сам vCenter Server отвечающий за развертывание, централизованный менжемент и обеспечение доступа приобретается отдельно;
  • прочих компонентов обеспечивающих основные возможности, состав которых варьируется в зависимости от выбранной лицензии.

Функционально компоненты разделены на две части: службы инфраструктуры (Infrastructure Services) и службы приложений (Application Services), чем они отличаются отлично расписано на сайте проекта.
Чтобы упростить выбор своего решения, vSphere доступен в трех редакциях: Standard,Advanced и Enterprise. Для небольших организаций предлагаются — Essentials, Essentials Plus, и две версии for Retail and Branch Offices Essentials и Essentials Plus. Причем цена на Essentials достаточно адекватная, обеспечивающая использование продукта на 3 серверах (по 2 CPU), чтобы сделать его интересным и главное, что решения для небольшого офиса является интегрированным all-in-one уже включающим vCenter Server.
В документации на сайте можно найти таблицы сравнения vSphere с другими продуктами виртуализации по стоимости и функциональности.
На момент написания этих строк на сайте VMware появилась версия vSphere4 update 2, хотя в сеть уже просочилась полуофициальная информация о будущей версии 4.1. Основные изменения касаются в основном количественных изменений — VM в кластере, зарегистрированных VM и хостов, и так далее.

Развертывание vSphere

Читая описание, первая мысль, которая приходит в голову новичку – это очень сложно. На самом деле при внимательном подходе и выполнении всех требований процесс развертывания и последующего добавления хостов и VM можно назвать даже простым.
Чтобы установить vSphere потребуется выполнить ряд требований и пройти несколько шагов:

  • оборудование должно соответствовать VMware Hardware Compatibility List (HCL);
  • VMware vSphere ESX/ESXi Server — разворачиваем на физических серверах (2х2 Гц х64бит CPU, 2+ Гб RAM, 2+ Гб HDD);
  • VMware vCenter Server и vSphere Client — устанавливаются в той же сети для управления ESX(i) серверами;
  • развертываем сеть хранения данных SAN;
  • устанавливаем клиентские ОС в виртуальных средах.

Чтобы определить поддержку сервером 64-бит VMware можно при помощи утилиты CPU Identification , размещенной на странице (vmware.com/download/shared_utilities.html).
Выше показаны только основные шаги, каждый этап требует и промежуточных настроек (настройка сети, SAN, если нужно Active Directory и так далее). Некоторые из этих моментов очень подробно описаны в документации, которую можно найти в по адресу vmware.com/support/pubs/vs_pubs.html . Как водится, все доки на английском и часто запутаны, хотя она в любом случае рекомендуема к прочтению (по крайней мере если возникнут проблемы 🙂). Мы же вкратце разберем основные моменты по настройке и управлению vSphere, чтобы наглядно представить с чем имеем дело.
На странице закачки, который будет доступен после регистрации, выбираем для установки гипервизор ESX или VMware ESXi, VMware vCenter Server (в виде ISO образа или zip архива). Плюс здесь же опциональные компоненты — Server Heartbeat, Data Recovery (CD ISO) и vShield Zones.
Для небольших организаций вероятно больше подходит бесплатная платформа VMware ESXi, обладающая всеми необходимыми возможностями. Кроме этого ее рекомендует и сами представители VMware. В начале разворачиваем VMware ESX или ESXi, учитывая, что их основа Linux, хотя и несколько урезанный, то установку можно назвать стандартной и проблем она обычно не вызывает. Просто следуем за указаниями визарда — принимаем лицензию, настраиваем сеть и выбираем диск. На ESX лицензию можно ввести затем на vCenter. После перезагрузки мы можем управлять гипервизором с консоли, через веб-интерфейс или установив vSphere Client. Последний можно скачать с веб-страницы виртуальной машины адрес которой будет доступен после установки ESX(i) или с vCenter.
Кроме этого в контексте можно вспомнить о бесплатном веб-инструменте VMware Go (go.vmware.com ), который позволяет быстро перейти к использованию бесплатного гипервизора VMware ESXi для виртуализации физических серверов в небольшой компании.


Следующий шаг установка VMware vCenter ан компьютер под управлением MS Windows. Упоминаний о версии на сайте найти не удалось, но центр без проблем стал как на Windows XP, так и Windows 2008 R2. Все данные vCenter хранит в базе данных, для небольших сред (5 физических, 50 виртуальных машин) можно использовать Microsoft SQL Server 2005 Express , который идет уже с установочным архивом и предлагается по умолчанию. Иначе в процессе установки нужно будет настроить подключение к СУБД.

Если хостов не много (до 250), то достаточно будет и 32 битной версии иначе только 64 битный вариант. То есть резюмируем для небольшого количества серверов достаточно клиентской 32 битной XP с бесплатным SQL Express, в более мощных конфигурациях придется разворачивать сервер с MS SQL с 64 битной ОСью. Более подробно все остальные требования расписаны в документации. В самом начале следует разрешить прохождение пакетов по портам — 80, 389, 443, 636, 902/903, 8080 и 8443.
Скачиваем ISO образ или zip архив, запускаем установочный файл и в окне мастера выбираем ссылку vCenter Server. К слову архив содержит дистрибутивы и некоторых других продуктов — vSphere Client, vCenter Guided Consolidation, vCenter Update Manager, vCenter Converter, vCenter Orchestrator и VMware Consolidated Backup. Язык инсталлятора — английский. Если весь процесс производится в среде Active Directory, то тебе понадобятся админские права.
Во время инициализации установочного скрипта будут произведены проверки на совместимость и в случае нессответствия выданы рекомендации. Например, так как vCenter использует свой веб-сервер, он будет конфликтовать с установленным IIS по портам. Хотя в процессе можно будет изменить настройки, указав порт по умолчанию для большинства сервисов — http, https, LDAP, SSL, heartbeat. Пакет самодостаточен, если чего-то не будет хватать, все необходимое (.Net, J# и другие) будет доустановлено автоматически.
Возможно, объединять несколько систем с установленным в vCenter в связанную группу (Linked Mode), и управлять с любой системы всеми настройками виртуальных машин. По умолчанию предлагается standalone установка, но выбрав на шаге «vCenter Server Linked Mode Options» переключатель в положение «Join a VMware vCenter Server group …», мы может сразу подключиться к уже существующей группе серверов vCenter. Вообщем это вся установка сервера. Некоторое время ждем пока мастер настроит сервисы, сгенерирует сертификаты и скопирует файлы.
По окончании, аналогично устанавливаем остальные компоненты, доступные в окне vCenter Installer, если конечно в них есть необходимость. Опять же их не обязательно ставить на один и тот же комп, хотя так обычно удобней.
При установке vCenter Update Manager (vCUM) указываем IP сервера vCenter и учетные данные для доступа. В качестве базы данных, к которой необходимо подключиться указываем созданную ранее БД. Внимание, при запросе пароля в окне «Database Information » оставляем его пустым, в этом случае будет использована Windows аутентификация. Каталог в который будут помещаться обновления лучше расположить на отдельном разделе харда, который имеет достаточно свободного места (не менее 20 Гб). Его и указываем на шаге Destination Folder для «Configure the location for downloading patches». Клиентская часть vSphere Client при помощи которой и производится собственно все настройки обычно ставится на компе админа, системные требования не велики (CPU 266, 200 Мб RAM и 1 Гб HDD).

Добавление узлов и лицензий

Установка закончена. Открываем из меню vSphere Client, вводим логин и пароль (флажок Use Windows session credential позволит подключиться с текущими учетными данными), принимаем сертификат.
Появившееся окно клиента выполнено в знакомом стиле Проводника. Слева выбираются компьютеры, справа настройки, внизу панель текущих задач. Обрати внимание на строку адреса. После первой регистрации ты попадаешь во вкладку настроек ОС в Home — Inventory — Host and Clusters, а они нам пока не нужны. Чтобы получить доступ ко всем возможностям vSphere просто переходим в Home.


Область управления разделена визуально на три части по назначению:
  • Inventory — поиск систем, добавление узлов и кластеров, datacenter, управление разрешениями и так далее;
  • Administration — управление ролями, сессиями, лицензиями, настройками vSphere, просмотр журнала и статуса работы сервиса;
  • Management — управление задачами, вывод событий и карты виртуальных машин, создание профилей хостов.

Подпунктов в каждом не так уж много, поэтому времени на знакомство с интерфейсом уйдет не много. Не могу не отметить наличие всяческих подсказок и мастеров, если не выполнен какой нибуть обязательный шаг, то сразу получишь ссылку и рекомендации что делать. Интерфейс задача ориентированный, то есть админ что-то настраивает, а vSphere по мере возможностей последовательно выполняет задачи, главное что нет необходимости ждать пока выполнится одна задача, чтобы настроить следующий пункт. Большинство операций требуют некоторого времени и происходят в фоне, поэтому отслеживай статус внизу окна.


Всплывающее окно сразу же показывает количество дней оставшихся до окончания пробного периода. Если лицензия уже куплена, то самое время ее ввести. Переходим в Administration — Licensing , выбираем систему и в контекстном меню пункт Manage vSphere Licenses . Копируем в окно лицензию, и опционально в поле внизу краткое описание и нажимаем Add License Keys. Чтобы сопоставить ключ, конкретному серверу переходим в Assign Licenses или в контекстном меню выбираем Change License Key .
Теперь самое главное ради чего мы все это устанавливали, подключение ESX(i). Вначале создаем DataCenter, не говорю где искать, так как нужную ссылку подсунут в любом случае, а только потом пустят дальше. Тебе останется только переименовать DataCenter, чтобы было понятней его принадлежность. Щелкаем по DataCenter и выбираем ссылку Add a host .

Появляется очередной визард, в первом окне, которого вводим имя или IP узла и логин/пассворд для управления, подключаемся, принимаем сертификат и получаем информацию о системе. Если требуется, мы можем здесь добавить лицензию и ввести данные об узле. Некоторое время придется подождать пока хост будет добавлен (процесс покажет статус-бар внизу окна).
Далее процесс практически аналогичен, выбираем хост, открываются рекомендации в Add a virtual machine (все рекомендации можно отключить в настройках). В окне Summary выводятся все данные по хосту, перейдя в окно Configuration получаем возможность изменить некоторые настройки — параметры сети (подключение VMotion, iSCSI, NFS и другие), виртуального свича и так далее. После добавления нескольких хостов станет доступна возможность создания кластера. Выбираем в контекстном меню пункт New Cluster, визард попросит ввести имя будущего кластера. При помощи чеккеров устанавливаем поддержку HA и DRS (Distributed Resource Scheduler). Технология DRS представляет собой простой балансировщик, который отслеживает и как можно равномерней распределяет ресурсы в VM (подробнее vmware.com/ru/products/vi/vc/drs_overview.html). Если он активирован, в дальнейшем мастер предложит выбрать один из вариантов миграции VM — Manual, Partially и Full automated, плюс указать метод миграции (от Conservative до Aggressive). Настраиваем управление питание (DPM), активируем мониторинг хостов, активация EVC (Enhanced VMotion Compatibility), место хранения свапфайла. К слову суть EVC очень проста. Как известно, процессоры бывают разные и гостевая ОС, установленная в системе может использовать разные фишки вроде SSE. Но что будет, если эту ОС взять и перенести при помощи VMotion в другую систему, в которой совсем другие технологии? Вот EVC и приводит все к единому знаменателю, просто отключая “лишнее”, в результате перенос VM проходит безболезненно. Доступно два варианта включения EVC — для AMD и Intel хостов. После выбора пунктов будет показан список совместимых процессоров. Хотя если в кластере все сервера одинаковы EVC можно совсем отключить.
Кластер создан, но хосты мы еще в него не добавили. Это очень просто, берем и тащим мышкой. Сразу же стартует новый мастер, в котором можно все оставить по умолчанию, жмем два раза Next и аналогично добавляем остальные хосты.
После всех операций становится доступным пункт Deploy OVF Template, позволяющий добавить шаблоны виртуальных машин в формате Open Virtualization Format как с локального диска так и через интернет. Такой образ можно создать, самостоятельно воспользовавшись VMware OVF Tool (можно найти на сайте поиском) или скачать в из интернет. Процесс добавления упрощает очередной мастер. Добавленую ОСь сразу же можно запустить и проверить в работе. Осталось распространить добавленные образы ОС на хосты, для выбираем в контекстном меню пункт Migrate и в окне мастера указываем хост на который его необходимо скопировать.
Учитывая, что облачные системы будут обслуживаться большим количеством админов с разными правами их нужно как то разделить по возможностям. В vSphere используется ролевая концепция, после установки в Administration — Roles доступно 9 шаблонов ролей позволяющих выбрать и за один клик назначить юзеру его права. Простой мастер дает возможность создать любое количество новых ролей.
В проделах одной статьи нельзя рассказать обо всех возможностях такого мощного продукта как vSphere, за рамками остались функции Fault Tolerance, Storage vMotion, горячее добавление устройств, управление ресурсами, мониторинг и многие другие вопросы.