43903

РАЗРАБОТКА И ПРАКТИЧЕСКАЯ РЕАЛИЗАЦИЯ КОРОПРАТИВНОЙ СЕТИ С ВНЕДРЕНИЕМ VDI

Дипломная

Коммуникация, связь, радиоэлектроника и цифровые приборы

5 представлен гипервизор VMwre ESXi который распределяет все ресурсы физического сервера на нужды виртуальных машин а точнее на нужды их гостевых операционных систем.5 – Сравнение стандартной платформы и платформы с гипервизором В виртуальную машину устанавливается стандартный набор драйверов производства VMwre который встроен в ESXi. После этого ВМ будет совместима с любым сервером на котором установлен VMwre ESXi.6 – Распределение ресурсов гипервизором VMwre ESXi В таблице 1.

Русский

2013-11-08

25.56 MB

83 чел.

 1  Принципы построения корпоративных сетей с виртуализацией  рабочих столов

1.1 Концепции построения современных корпоративных сетей

По мере развития компании обязательно возникают вопросы: создание максимально гибкой и эффективной системы управления предприятием, офисными площадками, создание единой системы документооборота, оперативного сбора информации и отчетов со складов и производственных площадок, централизация информационно-финансовых потоков и т.д. Правильное решение этих вопросов позволяет успешно управлять компанией в целом, делает её гибкой и динамично развивающейся. Мировой опыт крупных компаний и корпораций говорит о том, что решением данных вопросов является создание корпоративной сети передачи данных.

Корпоративная сеть — коммуникационная система, принадлежащая и/или управляемая единой организацией в соответствии с правилами этой организации. Решение использования корпоративной сети может быть актуальным не только для крупных фирм. Построение единой сети передачи данных дает фирмам следующие преимущества:

– единое информационное пространство;

          – оперативность получения информации и возможность формирования консолидированных отчетов уровня предприятия;

          – централизация финансовых и информационных потоков данных;

     – возможность оперативного сбора и обработки информации;

     – снижение затрат при использовании серверных решений;

     –  переход от решений для рабочих групп на решения уровня предприятия;

     – возможность обработки мультимедиа потоков данных между офисными площадками;

     – снижение затрат на связь между подразделениями фирмы, организация единого номерного пространства;

          – возможность организации системы видеонаблюдения на основе IP-сети предприятия.

Корпоративная сеть - это сложная система, включающая в себя разнообразные компоненты: персональные компьютеры, личные ноутбуки сотрудников, серверное оборудование, системное и прикладное программное обеспечение, сетевые адаптеры, коммутаторы и маршрутизаторы, кабельную систему. Основная задача системных администраторов состоит в том, чтобы компоненты сети как можно лучше справлялась с обработкой потоков информации, циркулирующих между сотрудниками предприятия, и позволяла принимать им своевременные и рациональные решения.     Корпоративные сети передачи данных строятся на основе локальных вычислительных сетей. При построении локальных вычислительных сетей используется сетевое и серверное оборудование, связь которого обеспечивает структурированная кабельная система.

Структурированная кабельная система (СКС) — физическая основа информационной инфраструктуры предприятия, позволяющая свести в единую систему множество информационных сервисов разного назначения: локальные вычислительные и телефонные сети, системы безопасности, видеонаблюдения и т. д. СКС представляет собой иерархическую кабельную систему здания или группы зданий, разделённую на структурные подсистемы. Она состоит из набора медных и оптических кабелей, кросс-панелей, соединительных шнуров, кабельных разъёмов, модульных гнезд, информационных розеток и вспомогательного оборудования. Все перечисленные элементы интегрируются в единую систему и эксплуатируются согласно определённым правилам.

Сетевое и серверное оборудование располагается в телекоммуникационных шкафах или стойках. Серверное оборудование обеспечивает необходимый функционал корпоративной сети. Корректная настройка программного обеспечения, сервисов и приложений обеспечивает их высокую доступность и бесперебойность работы.

Для начала обратим внимание на то, как построены большинство современных ИТ систем. Кирпичиком, очень часто, является отдельный сервер, на который установлена операционная система и соответствующий набор драйверов, а уже внутри ОС установлено приложение, например, файловый сервер.   

            Рисунок 1.1 – Стандартная серверная платформа

В серверах есть индивидуальный набор комплектующих, из которых основными являются процессор, оперативная память, жесткие диски, различные карты расширения. Все эти ресурсы принадлежат установленной на сервере операционной системе. Она управляет запуском процессов, задействует или отключает доступное оборудование, распределяет всю доступную память между процессами, отправляет и принимает информацию через сетевые интерфейсы.

                               Рисунок 1.2  – Комплектующие сервера

Серверы предприятия взаимодействуют между собой через локальную сеть, в то же время, являясь отдельными ее компонентами. Таким образом, вся информация компании разнесена между серверами, как кусочки паззла.

               Рисунок 1.3 – Взаимодействие серверов в сети

Иногда используется архитектура, включающая в себя системы хранения данных. На рисунке  представлены самые популярные типы СХД на данный момент:

1.  iSCSI – подключение происходит через локальную сеть, через стек TCP/IP, скорость 1 Gbit/s или 10Gbit/s;

2. SAS – сервер соединяется с системой хранения данных по SAS кабелю, скорость 6 Gbit/s;

3. FC – это оптическая сеть, скорость 4 Gbit/s или 8 Gbit/s.

     Рисунок 1.4 – Взаимодействие серверов и систем хранения данных

Для таких инфраструктур переход к виртуализации наиболее простой и мало затратный, т.к. докупить нужно будет только лицензии. Разница между двумя подходами заключается в том, что на чистый физический сервер устанавливается гипервизор, на котором уже создаются виртуальные машины. Таким образом, создается новый уровень взаимодействия (virtualization layer) между физическим сервером и операционными системами, которые установлены внутри виртуальных машин. На рисунке 1.5 представлен гипервизор VMware ESXi,  который распределяет все ресурсы физического сервера на нужды виртуальных машин, а точнее, на нужды их гостевых операционных систем.

Рисунок 1.5 – Сравнение стандартной платформы и платформы с гипервизором

В виртуальную машину устанавливается стандартный набор драйверов производства VMware, который встроен в ESXi. После этого ВМ будет совместима с любым сервером, на котором установлен VMware ESXi. Обычное копирование переносит виртуальную машину на совершенно другой по характеристикам и набору комплектующих сервер, она запустится и будет работать без каких либо конфликтов. Такого рода совместимость ВМ и любого физического сервера открывает ценные возможности, которые будут полезны для любой ИТ инфраструктуры без исключения.

                           

    Рисунок 1.6  – Распределение ресурсов гипервизором VMware ESXi

 В таблице 1.1 описаны проблемы таблицу, возникающие в полностью физической инфраструктуре, которые можно решить с помощью технологий виртуализации.

Таблица 1.1 – Сравнительная характеристика решений с виртуализацией и без виртуализации

Проблемы без виртуализации

Решение с виртуализацией

1. Большое количество серверов, выделяемое по принципу «каждому приложению отдельный сервер».

Это ведет к нехватке места в серверной комнате, покупке дополнительных источников бесперебойного питания, сетевого оборудования, более мощных систем охлаждения. 

Консолидация серверов. Запуск приложений внутри изолированных друг от друга виртуальных машин. Виртуальные машины могут работать на одном физическом сервере не вызывая конфликтов между собой. Средний показатель консолидации это 5:1, то есть пять физических серверов могут быть конвертированы в пять виртуальных машин и запущены на одном физическом сервере.

2. Низкая средняя загрузка физических серверов 5-10%. 

Современные приложения не способны сильно нагрузить мощные серверы, на которых они установлены. Получается, что большинство серверов работают в холостую.

Возможность запустить много разных виртуальных машин на одном физическом сервере, позволит вам контролировать потребление ресурсов серверов в вашей ИТ инфраструктуре.

3. Крайне низкая скорость настройки и запуска  новых ИТ сервисов. 

Если под каждую новую бизнес задачу нужно покупать новое оборудование, то внедрение может затянуться на долгие месяцы, которые уйдут на бюрократические проволочки.

В виртуальной инфраструктуре почти всегда существует запас ресурсов, которые можно использовать для быстрого запуска новых сервисов.

4. Операционная система привязана к серверу, на который была установлена.

Определенный набор драйверов и специфические настройки не дают возможности перенести ОС на другой сервер без трудозатрат и простоев. А в случае аварии такая «привязка» может быть критичной.

Виртуальная машина может свободно перемещаться между серверами, т.к. она не привязана к какому-то конкретному "железу".

5. Каждый сервер управляется отдельно и требует персонального внимания администратора.

 Даже такое, казалось бы, рутинное занятие, как обновление драйверов, требует постоянного контроля со стороны технического специалиста.

Все виртуальные машины управляются централизованно, через специальную программу.

6. Низкий уровень отказоустойчивости. Долгое восстановление в случае аварии.

Если ОС установлена на локальные диски сервера, и он выходит из строя, то велика вероятность потери данных и совершенно точно будет простой в работе сервиса. Его продолжительность будет зависеть от подготовленности персонала к такого вида ситуациям.

Технология высокой доступности перезапускает виртуальную машину на работоспособном сервере в случае аварии, пользователи могут вообще не заметить простоя сервиса, т.к. время простое будет равно времени перезагрузки виртуальной машины. Для работы технологии нужна внешняя система хранения данных.

7. Неудобное резервное копирование гетерогенных сред (Windows, Linux) долгое восстановление из резервных копий.

Виртуальные машины резервируются не на уровне операционных систем, а на уровне файлов ВМ. Поэтому разницы между бэкапом Windows и Linux нет никакой. При использовании дополнительных средств резервного копирования (например, Veeam Backup and Replication) восстановление из резервной копии равно времени запуска виртуальной машины. Также может быть использована функция репликации ВМ, которая создает в выбранном месте реплику (полный клон) виртуальной машины готовый к запуску в любой момент

Сетевое оборудование включает в себя коммутаторы, маршрутизаторы, точки доступа. В зависимости от размеров компании, ее потребностей в функционале, предоставляемом сетевым оборудованием, выбирается сетевая архитектура и виды коммутационного оборудования.

Наличие у небольших организаций территориально разнесенных площадок автоматически ставит вопрос о построении единой офисной сети. Даже, к примеру, наличие одного склада у организации, не включенного в единую корпоративную сеть, делает работу предприятия менее эффективной. А сведение в единую информационную сеть данных работы менеджеров с разных площадок делает работу более оперативной, позволяет равномерно распределить нагрузку между объединенными офисами.

Концепция корпоративной сети, как и любой другой сложной системы, со временем эволюционирует. Долгие годы развитие бизнес-процессов предприятий во многом сдерживалось технологическими ограничениями, но сейчас конвергентные IP-сети открыли дорогу для такого развития. В этой связи особый интерес для корпоративных заказчиков представляют решения, позволяющие перестраивать бизнес в соответствии с богатыми возможностями современных технологий. Они обеспечивают снижение расходов, повышение продуктивности работы, улучшают взаимодействие с партнерами и клиентами.

Современная сеть выходит далеко за рамки обычного подключения. Это стратегическое решение, которое разработано для оптимального удовлетворения сегодняшних потребностей и спроектировано с учетом будущих технологических достижений с одновременным обеспечением защиты инвестиций. Другими словами, современная сеть– это динамическая сеть, учитывающая современные тенденции развития мобильных технологий и облачных вычислений и меняющийся характер угроз. Она также представляет собой механизм предоставления услуг, который позволяет руководителям служб безопасности обеспечивать необходимую поддержку новых деловых начинаний.

Рассмотрим более подробно и сравним, как сеть, развернутая с наименьшими затратами, или традиционная сеть отличается от современной сети, обеспечивающей развитие бизнеса.

• Задача сети: единственной задачей традиционной сети является подключение пользователей к ИТ-ресурсам. Это было допустимо в 2005 г., когда пользователи находились за рабочими станциями, подключенными к портам Ethernet. Корпоративная сеть нового поколения представляет собой унифицированную сеть, объединяющую проводные, беспроводные, VPN-сети, и обеспечивает контроль доступа и потребления энергии.

Безопасность: для традиционной сети не характерна интегрированная безопасность системы. Другими словами, безопасность обеспечивается при помощи специализированных решений, которые не всегда хорошо взаимодействуют друг с другом. В сетях нового поколения происходит интеграция функций безопасности объекта с облачной средой. Интеграция означает сокращение затрат на персонал и устранение недостатков в системе безопасности.

• Анализ приложений: традиционные сети не обладают возможностями анализа приложений и оконечных устройств. Они работают по принципу «данные – это всего лишь данные». Сеть нового поколения способна распознавать приложения и устройства. Она настраивается под предоставляемые приложения и устройства, которые их используют.

• Качество обслуживания: сегодняшние традиционные сети созданы на базовых стандартах качества обслуживания, которые могут оказаться недостаточными для передачи видео и виртуализации рабочих станций. Сеть нового поколения оснащена элементами управления, распознающими медиаданные, и поддерживает интеграцию речевых и видеоданных.

• Стандарты: традиционная сеть основана на стандартах, которые не предусматривают будущее развитие. Сеть нового поколения не только поддерживает современные стандарты, но и включает инновационные решения, которые станут стандартами в будущем.

• Гарантия: в традиционных сетях предоставляются ограниченные гарантии и техническая поддержка. Поставщики сетей нового поколения предоставляют гарантии и интеллектуальные сервисы с встроенными функциями управления.

• Стоимость приобретения: экономия на капитальных затратах может привести к увеличению эксплуатационных затрат из-за высоких расходов на интеграцию, увеличения времени простоя и серьезных проблем, связанных с безопасностью. В то время как поставщики традиционных сетевых решений преуменьшают эти расходы, поставщики сетей нового поколения применяют системный подход, который не только ведет к сокращению эксплуатационных затрат, но также обеспечивает улучшение ИТ-сервисов и создание новых возможностей для бизнес.

Одним из главных барьев стандартных корпаративных сетей для удовлетворения современных требований бизнеса  являются традиционные рабочие места, используемые в большинстве коммерческих компаний и на предприятиях госсектора, которые не отвечают современным требованиям к масштабируемости и управляемости. На рисунке 1.7 представлено развитие рабочих мест за последние 50 лет.

 

                           

                              Рисунок 1.7 Эволюция рабочих мест

Понятно персональные компьютеров неминуемо вызывают проблемы, связанные с техническим обслуживанием и реализацией единой политики информационной безопасности. В результате такая инфраструктура становится узким местом всей корпоративной информационной системы. Другой проблемой использования традиционных персональных компьютеров является постоянно растущие расходы на их эксплуатацию: управление, установка обновлений ПО, резервное копирование, техническая поддержка. Не секрет, что основную долю этих затрат составляют расходы на оплату ИТ-персонала. Фактически, эти расходы превышают затраты на приобретение оборудования, программного обеспечения и расходных материалов. Таким образом, снижается общая эффективность эксплуатации всего ИТ-комплекса предприятия. В связи с этим, возникает необходимость совершенствования технологической базы и снижения расходов на эксплуатацию компьютерного парка. И это в наше  когда  современной задачей является создание объединенных систем, позволяющих уменьшить время, которое подразделения тратят на базовые операции, связанные с интеграцией сети, благодаря предоставлению набора сетевых услуг, которые расширяют возможности удовлетворения потребностей компании и пользователей.

                 1.8.  Рабочее место стандартного офиса

В тоже время есть альтернативный вариант – технология виртуальных рабочих столов. Виртуализация десктопов или виртуализация рабочих столов – это подход, при котором происходит разделение рабочей среды пользователя (ОС, приложения, данные) и физического устройства, на котором он привык работать (ПК, ноутбук).

1.9.  Рабочее место  в архитектуре виртуальных рабочих столов

Благодаря данному подходу сотрудник больше не привязан к физическому рабочему месту в офисе, а может работать с привычными приложениями и данными с любого устройства (планшет, смартфон, тонкий клиент и т.д.) из любого места (дома, в дороге, из гостиницы или из интернет-кафе) Виртуальные ПК, с которыми работают пользователи, не сильно отличаются от обычных персональных компьютеров. Однако данная технология позволяет держать всю необходимую для работы информацию под рукой в любом месте, где есть доступ к Интернету (дома, в деловых поездках, на отдыхе). Удалённая работа становится очень простой и комфортной. Вся информация из виртуального компьютера хранится в специальных дата-центрах. Это обеспечивает её гарантированную защиту от потери (все данные проходят процедуру автоматического резервного копирования), случайного или преднамеренного удаления, а также от доступа к ней посторонних лиц.

              1.10  Современный подход к построению

Обслуживание виртуальных рабочих столов  (в частности установка ПО, обновление приложений и т.д.) производится централизовано, что позволяет минимизировать временные затраты, а также значительно снизить нагрузку на системных администраторов. Также происходит экономия денежных средств на покупке лицензионного программного обеспечения для каждого компьютера и содержании дополнительного штата специалистов.

Данная  архитектура делает доступными  cледующие сервисы, являющие ключевыми для  обеспечения возможности успешного развития бизнеса:

1. Мобильность. Мобильность расширяет границы вашего бизнеса и помогает увеличить производительность сотрудников. Бизнес можно вести в любом месте, где имеется IP-сеть, а количество таких мест постоянно растет. А поскольку сотрудники все чаще используют личные устройства в качестве рабочих, можно перераспределить бюджетные средства, выделяемые на персональные и переносные компьютеры. Но с распространением мобильных решений крайне важно обеспечить постоянное управление пользователями, подключающимися к сети, независимо от того, какое подключение они используют – проводное, беспроводное или VPN.  Сети построенные с применением виртуальных  десктопов объединяют управление пользователями и доступом в проводных и беспроводных сетях и при этом обеспечивают единые политики для всех видов доступа. Обеспечивается полная прозрачность подключений независимо от устройства, сети или расположения, и можно следить за соблюдением политик безопасности в рамках всех проводных и беспроводных сетей. Это позволит вашей компании пользоваться разнообразными преимуществами мобильности, не повышая при этом уязвимость перед новыми угрозами безопасности

2. Обеспечение безопасности. Виртуализация рабочих столов по своей природе защищена лучше, поскольку данные и приложения фактически постоянно находятся в центре обработки данных, а не на устройстве конечного пользователя. Виртуализация, таким образом, обеспечивает защиту от утечек и потерь данных в результате умышленных хищений или аварий. Вместе с тем, настольная виртуализация также поднимает новые вопросы безопасности, потенциально затрагивающие и центр обработки данных, и конечного пользователя. В центре обработки данных предприятиям отныне приходится иметь дело с управлением доступом к виртуальным ресурсам на физических серверах со стороны пользователей и других виртуальных ресурсов.

3. Гибкое управление рабочими станциями. В физической среде рабочая станция является либо вовсе не управляемой, либо управляется пользователями. Для установки нового приложения администраторы должны обойти все рабочие станции либо в прямом смысле, либо с помощью инструментов удаленного администрирования. В любом случае не избежать длительного процесса и отвлечения сотрудников от основной деятельности. В виртуальной среде мы можем создать полностью управляемые рабочие станции. Та же самая задача установки или обновления приложения решается следующим образом: администратор включает виртуальную машину с «золотым образом», один раз устанавливает на нее необходимые изменения/приложения, один раз тестирует и проверяет эти изменения/приложения, выключает виртуальную машину, ее средствами делает снимок виртуальной машины и нажимает кнопку запуска обновления. Вся операция может занять несколько минут в зависимости от сложности установки или обновления. А сами изменения применяются к пользовательским машинам автоматически, например, ночью. Также VDI выигрывает в том случае если пользователю нужно давать смешанный набор разных ОС или давать разные наборы ПО. Еще важное преимущество заключается в том что администратор может выделять  пользователям ресурсы. Если кому-то нужно в определенное время больше оперативной памяти, то администратор может ее выделить. В остальное время отдать другим пользователям. При таком подходе существенно сокращается время простоя оборудования.

4. Повышение отказоустойчивости. Возможность централизованного резервного копирования пользовательских данных. Для физических рабочих станций резервное копирование данных – ручная работа и администратор не в состоянии выполнять ее даже раз в неделю, не говоря уже о том, чтобы предоставить любому пользователю по требованию однодневный бэкап. Ежегодные расходы, связанные с потерей данных на персональных компьютерах в США, составляют $18,2 млрд. Средняя стоимость одного случая потери данных - $3957,70. По расчетам того же автора, ежегодная вероятность потери данных составляет примерно 6%. В случае компании из 100 сотрудников – 6 случаев потери данных x $3957,70 = $23746,2.  При этом мы не учитывали, что данные могут быть похищены вместе с ноутбуком сотрудника, а в этом случае ущерб может быть еще больше. При виртуализации десктопов важные данные находятся в центральном хранилище и надежно оберегаются.

5. Уменьшение стоимости владения. При использовании виртуализации все корпоративные приложения запускаются на серверном оборудовании, поэтому администратор может, не сходя с места, решить любую проблему пользователя. Так же он может за минуты создавать новые рабочие места, добавлять и убирать необходимые корпоративные приложения. То, с чем раньше могли справиться 10 специалистов технической поддержки, теперь могут делать 2-ое. Также уменьшаются расходы на покупку новых рабочих станций на 40 %. На замену громоздким системным блокам под столами пользователей приходят современные моноблоки, тонкие клиенты и мобильные устройства. Заводская сборка этих устройств значительно уменьшает вероятность выхода из строя просто из-за того, что в них меньше механических частей, которые могут сломаться, поэтому и покупать их придется намного меньше, чем обычных системных блоков и комплектующих к ним. Тонкие клиенты не устаревают по прошествии времени, т.к. их не нужно менять и модернизировать для запуска новых ресурсоемких приложений. Тонкие клиенты потребляют на 90% меньше электроэнергии, чем обычные компьютеры. Если за 100 системных блоков в год обойдутся вам в 211 тысяч рублей(при потреблении компьютера 0,2 квт/ч), то 100 тонких клиентов всего в 12 тысяч (при потреблении 0,012 квт/ч).

1.2 Обзор технологий виртуализации настольных десктопов

Виртуализация десктопов или виртуализация рабочих столов – это подход, при котором происходит разделение рабочей среды пользователя (ОС, приложения, данные) и физического устройства, на котором он привык работать (ПК, ноутбук). Благодаря данному подходу сотрудник больше не привязан к физическому рабочему месту в офисе, а может работать с привычными приложениями и данными с любого устройства (планшет, смартфон, тонкий клиент и т.д.) из любого места (дома, в дороге, из гостиницы).  В основе этого подхода лежит не одна конкретная технология, а совместное использование различных технологических решений в области клиентской виртуализации. 

Здесь перечислены основные типы использующихся на данный момент технологий, однако ИТ, как известно, не стоит на месте и, возможно, уже завтра появится новый вариант виртуализации декстопов.
Реалии же сегодняшнего дня таковы: нельзя забывать, что при подобном подходе привычные персональные компьютеры пользователей могут и будут подвергнуты изменениям. Если раньше от компьютера требовалось наличие достаточных вычислительные мощностей для работы бизнес-приложений, а также большое дисковое пространство для хранения пользовательских данных, то теперь, когда процессы происходят в виртуальном пространстве ЦОДов, в этом просто пропала необходимость.

               Рисунок 1.11 - Типы виртуализации десктопов

Рисунок 1.12 – Технология виртуализации десктопов в зависимости от требований пользователей

Наиболее популярными из них сегодня являются:
1
. Виртуализация представлений – классический терминальный доступ, предоставляющий серверную операционную систему (обычно, Windows Server 2008 R2 или 2012) нескольким пользователям в конкурентном режиме. Пользователь подключается к удаленному серверу, и работает с собственным пользовательским сеансов, который изолирован от сеансов других пользователей. В то же время общие ресурсы сервера остаются неа бстрагированными. Это дает следующие преимущества:

         - Данные могут быть централизованы и надежно сохранены на центральном сервере, а не на нескольких настольных компьютерах. За счет этого повышается безопасность, поскольку информация не распределяется между различными системами. 

         - Кроме того, можно значительно сократить затраты на управление приложениями. Вместо обновления каждого приложения на каждом отдельно взятом компьютере необходимо изменить лишь одну общую копию на сервере. Виртуализация представлений также позволяет использовать более простые образы ОС и специализированные настольные компьютеры, называемые «тонкими» клиентами, что способствует снижению расходов на управление. 

           - Компании больше не должны беспокоиться о несовместимости приложений и установленной на компьютере ОС. Эта проблема может быть решена и за счет виртуализации настольных систем, но виртуализация представлений позволяет просто запустить приложение на центральном сервере, а затем сделать его доступным для клиентских компьютеров с любой ОС. 

            - В некоторых случаях виртуализация представлений может повысить производительность. Например, представьте себе клиент-серверное приложение, которое передает большое количество данных от центральной базы данных к клиентскому компьютеру. Низкая скорость соединения клиента и сервера или перегрузка канала связи приведет к медленной работе приложения. Одним из способов повышения производительности является запуск всего приложения (и клиентской, и серверной части) на компьютере с высокоскоростным подключением к базе данных, а затем с помощью виртуализации представлений это приложение можно сделать доступным для пользователей.

Наиболее популярные решения – Citrix XenApp, Microsoft RDS, QuestvWorkspace.

        Рисунок 1.13 - Виртуализация представлений.


            
2. Удаленная физическая рабочая станция (Blade PC) – мощная высокопроизводительная рабочая станция (часто с установленным графическим адаптером) в форм-факторе сервера, расположенная в ЦОД, и предоставляющая свои вычислительные ресурсы удаленным пользователям.

3. Виртуализация приложений (Application Virtualization) – доставка и выполнение приложений на виртуальных машинах, терминальный сервер или ПК без привычной установки программы в ОС. При виртуализации приложений программные средства, выполняемые на клиентской системе, обеспечивают поддержку виртуальных приложений. Уровень виртуализации клиента обеспечивает виртуальное приложение копией файловой системы соответствующей машины, предоставляет ему реестр и другие системные точки ввода-вывода. При выполнении виртуального приложения оно взаимодействует со средой виртуальной системы и не вносит никаких изменений в физический реестр и файловую систему подлинной базовой хост-системы. Технология виртуализации приложений позволяет нескольким приложениям, которые в обычных условиях конфликтуют друг с другом, выполняться на одной машине без каких-либо конфликтов, так как каждое приложение выполняется в своей виртуальной среде. Подобным же образом, поскольку каждое виртуальное приложение выполняется в собственном пространстве, исчезает опасность возникновения «DLL-ада», когда при установке одного приложения осуществляется запись поверх файлов DLL, используемых другим приложением.

К основным достоинствам виртуализации приложений стоит отнести:

             - Увеличивается уровень управляемости приложений;
             - Упрощается процесс развертывания приложений;
             - Сокращается время развертывания приложений;
             - Упрощается переход на новые версии ОС и приложений;
              - Сокращаются расходы на развертывание, поддержку и переход на                      новые версии приложений;
             - Приложения могут предоставляться как услуги (SaaS).

Наиболее популярные решения: Microsoft App-V, Citrix XenApp, VMware ThinApp. 

и виртуализации приложений программные средства, выполняемые на клиентской системе, обеспечивают поддержку виртуальных приложений. Уровень виртуализации клиента обеспечивает виртуальное приложение копией файловой системы соответствующей машины, предоставляет ему реестр и другие системные точки ввода-вывода. При выполнении виртуального приложения оно взаимодействует со средой виртуальной системы и не вносит никаких изменений в физический реестр и файловую систему подлинной базовой хост-системы. Технология виртуализации приложений позволяет нескольким приложениям, которые в обычных условиях конфликтуют друг с другом, выполняться на одной машине без каких-либо конфликтов, так как каждое приложение выполняется в своей виртуальной среде. Подобным же образом, поскольку каждое виртуальное приложение выполняется в собственном пространстве, исчезает опасность возникновения «DLL-ада», когда при установке одного приложения осуществляется запись поверх файлов DLL, используемых другим приложением. Два основных продукта, реализующие технологию виртуализации приложений, — это Microsoft App-V и VMware ThinApp. На рисунке 4 представлена общая схема виртуализации приложений.

                 

              Рисунок 1.14 - Виртуализация приложений.

    4. Развитие концепций виртуализации представления и виртуализации серверов, а также наращивание возможностей аппаратных платформ в виде множества ядер процессоров, больших объемов памяти, дисковых массивов и пропускной способности системной шины, привело к реализации возможности виртуализации рабочих станций. VDI (Virtual Desktops Infrastructure) – инфраструктура виртуальных рабочих столов, конкретная реализация подхода виртуальных декстопов, позволяющая запустить ОС пользователя внутри ВМ на сервере в ЦОД и работать с ней удаленно с любого устройства.

 

      Рисунок 1.15 – Инфраструктура виртуальных рабочих станций.

Типовое решение для виртуализации рабочих  можно представить в следующем виде.

Рисунок 1.16 – Типовое  решения виртуализации  десктопов

 Аппаратная инфраструктура – фундаментом решения являются серверы, использующиеся в качестве хостов виртуализации, на которых будут располагаться либо виртуальные машины, либо терминальные серверы для доступа к ним пользователей, системы хранения данных – для хранения дисков виртуальных машин и пользовательских данных, а также сетевая инфраструктура для обеспечения быстрой связи всех компонент.
         
Платформа виртуализации – гипервизор, решение одного из лидеров этого рынка (Microsoft, VMware, Citrix), выбрать можно любое, исходя из личных соображений. Также не нужно забывать про то, что у всех вышеперечисленных производителей гипервизоров есть бесплатные редакции, обладающие достаточно обширным функционалом.

Программная инфраструктура VDI\TS представляет собой диспетчер соединений между пользователем и запрашиваемым ресурсом, а также обеспечивает поддержку большинства мобильных платформ (Android, iOS).

Клиентские устройства – в качестве конечных устройств могут использоваться практически любые устройства (ПК, планшеты, смартфоны и т.д.), но наиболее экономически выгодным вариантом на текущий момент является замена традиционных ПК на тонкие клиенты. Тонкие клиенты  поддерживают практически все известные на рынке инфраструктуры виртуализации десктопов (Microsoft, VMware, Citrix, Quest, Redhat), а так же возможность централизованного управления с помощью соответствующего ПО. Под поддержкой подразумевается наличие соответствующего протокола на стороне ТК (RDP, ICA\HDX, PCoIP (как программную, так и аппаратную реализацию), EOP, SPICE).
         
Приложения — в качестве технологии виртуализации приложений можно использовать любые из существующих решений, такие как Microsoft App-V или VMware ThinApp. 

          Как поясняет Microsoft, технология VDI является дальнейшим развитием терминальных решений. В отличие от классического подхода, при использовании VDI ресурсы сервера разделяются между пользователями не за счет создания сессий в среде одной операционной системы, а с помощью запуска виртуальных машин, интерфейс которых передается пользователям системы на ПК и тонкие клиенты.

 

    Рисунок 1.17 - Сравнение терминального доступа и VDI 


        
Несмотря на более низкую плотность размещения пользователей на один сервер по сравнению с терминальными решениями VDI обеспечивает: использование клиентской ОС в терминальном режиме; наличие административных прав в терминальной среде для пользователя; возможность сохранения состояния рабочей среды и последующего возобновления работы; повышенную изоляцию пользовательских рабочих сред друг от друга, решающую вопросы нестабильности используемых приложений или возможные пики нагрузки на аппаратные ресурсы сервера, влияющие на других пользователей; перенос рабочей среды на локальный компьютер путем копирования виртуального жесткого диска. Также данный подход позволяет решать задачу когда пользователю нужен разный набор ОС или разный набор ПО.  

               

                           1.3 Обзор решений VDI различных вендоров

                                     1.3.1 VMware View

      VMware View – это комплекс средств для построения инфраструктуры виртуальных рабочих ПК (или виртуальных рабочих столов), позволяющий с различных устройств в любой момент получить доступ к рабочему столу из любой точки мира (при наличии доступа к Internet как клиента, так и инфраструктуры View). В зависимости от наличия разных компонентов, возможно большое количество опций, таких как локальный доступ к столу (без соединения с рабочим столом в конкретный момент времени), быстрое развертывание новых станций, режим аутентификации anonymous (безлимитное использование одного аккаунта неограниченным числом пользователей), гибкие политики и многое другое.

Виртуализация рабочих станций может делиться на два больших блока:

1) Виртуализация рабочих столов;

2) Виртуализация приложений.

Два этих этапа могут проходить независимо друг от друга, а также в любом порядке, что позволит перейти на виртуальные машины довольно быстро и безболезненно для компании. На данный момент соединяться с VMware View можно посредством настольного ПК, рабочих станций, ноутбуков и нетбуков, большого спектра продукции Apple (MacBook’s, IPad, IPhone), тонких клиентов и нулевых клиентов, а также с помощью некоторых моделей Smartphone.

По своей сути, VMware View предоставляет  полностью функциональный пользовательский рабочий стол, который установлен не у сотрудника на ПК, а в серверной.

Для виртуализации рабочих столов необходим продукт VMware View, который включает в себя:

1) VMware View Connection Server;

2) VMware View Composer;

3) VMware View Transfer Server;

4) VMware View Security Server;

VMware View Connection Server – это и есть основной сервер, который создает виртуальную среду для рабочих столов, а также обеспечивающий работу других компонентов View. Устанавливаться Connection Server может либо на отдельную физическую, либо на виртуальную машину.

VMware View Composer – это компонент для создания так называемого “золотого образа” (Parent Image). На основе «золотого образа» будет происходить почти мгновенное развертывание необходимого нам количества столов. Устанавливается Composer на машину с VCenter Server.

VMware View Transfer Server – продукт, который позволяет использовать режим local mode (режим локального использования рабочего стола без действующего соединения).

VMware View Security Server – сервер, защищающий среду View от внешнего мира, простыми словами firewall для VMware View. Через View Security Server можно организовать доступ к виртуальным рабочим столам через интернет.

                   Рисунок 1.18 –  Компоненты VMware View

Лицензируется VMware View по рабочим столам. Можно создать намного больше рабочих столов и записей пользователей, но использоваться в определенный момент времени можно только приобретенное количество виртуальных рабочих столов.

Таблица 1.2 Редакции VMware View

Функционал/Редакции

Enterprise

Premier

VMware vSphere

X

X

VMware vCenter Server

X

X

VMware View Connection Server

X

X

VMware View Composer

X

Клиент VMware View с поддержкой локального режима

X

VMware View Security Server

X

VMware ThinApp

X

Также, если пользователь уже использует продукцию VMware, и у него есть VMware vSphere и VMware vCenter Server, он может приобрести версию View Add-on, чтобы не переплачивать за уже купленные vSphere и vCenter.

При приобретении любой версии View пользователю предоставляются следующие компоненты:

VMware Agent – устанавливается на ВМ, которую мы будем использовать в качестве рабочего стола;

VMware Client – программа, с помощью которой нами будет произведено соединение с рабочим столом (если не применяются тонкие и нулевые клиенты);

VMware View Administrator – универсальная веб-консоль, из под которой будет осуществлено управление инфраструктурой View (ярлык будет доступен по умолчанию на рабочем столе операционной системы, на которой установлен VMware View Connection Server).

Передача рабочего стола нашему клиенту может осуществляться по средствам двух протоколов: PCoIP и RDP.

PCoIP применяется для быстрых сетей, где требуется шифрование данных. При слабом канале передачи данных, а также, если не требуется шифрование лучше выбрать RDP.

Основное преимущество PCoIP перед RDP в том, что он выдает картинку стола сразу, а RDP использует построчное прорисовывание.

Для достижения оптимального качества отображения виртуального рабочего стола мы рекомендуем Вам использовать нулевые клиенты PCoIPна базе чипа Teradici.

Для аутентификации в VMware View также существует поддержка SmartCard 1024 и 2048 бит (512 не поддерживается).

Также существует функция Location Based Printing, позволяющая привязать MAC-адреса клиентов к определенным принтерам, что упростит настройку печати.

При необходимости уехать в командировку, где ограничен доступ к интернет, View предлагает использование локального режима (local mode), который позволит перегрузить данные о машине на любой laptop или другое устройство и работать со своим рабочим столом вне зависимости от наличия связи. По возвращении данные синхронизируются и пработа продолжается уже с обычной машиной в ЦОДе.

Все настройки учетных записей, политики входа, настройка режимов и другие параметры управления View настраиваются с помощью службы Active Directory.

Для разных потребностей возможна настройка разных вариантов выдачи рабочего стола конечному пользователю:

Dedicated mode – режим жесткого назначения каждому пользователю его стола (применяется в компаниях, когда у каждого пользователя должна быть своя неизменная индивидуальная среда; места на жестком диске будет использоваться больше);

Floating mode – режим плавающих столов, когда пользователь может попасть на любой свободный стол (используется, когда все компьютеры обладают идентичными параметрами, а пользователям лишь необходимы определенные программы и свой профиль; это сэкономит место на диске;

Multiple mode – используется для возможности входа на неограниченное число машин с одним логином/паролем (удобно в демонстрационных целях, чтобы не создавать постоянно новые учетные записи);

Kiosk mode – режим, позволяющий получать доступ с одного/нескольких заранее определённых физических устройств пользователям в режиме anonymous (например, платежный терминал).

                                     1.3.2 Citrix XenDesktop

       Citrix XenDesktop предлагает полную систему доставки виртуальных десктопов, интегрируя нескольких распределенных компонентов с расширенными средствами настройки, которые упрощают создание инфраструктуры виртуальных десктопов и управление ею в режиме реального времени. На этом рисунке представлены основные компоненты стандартного развертывания XenDesktop.

                        Рисунок 1.19 – Компоненты Citrix XenDesktop

Основными компонентами XenDesktop являются следующие:

  1.  Контроллер. Контроллер, устанавливаемый на серверах в центре обработки данных, состоит из служб, которые проверяют подлинность пользователей, управляют сборкой сред их виртуальных рабочих столов и являются брокером подключений пользователей к их виртуальным рабочим столам. Он контролирует состояние рабочих столов, запуская и останавливая их по запросу и в зависимости от административной конфигурации. В некоторых редакциях контроллер позволяет установить компонент управления профилем, чтобы управлять параметрами персонализации пользователя в виртуализованных или физических средах Windows.
  2.  Virtual Desktop Agent. Установленный на виртуальных десктопах, этот агент обеспечивает прямые подключения ICA (Independent Computing Architecture) между виртуальным десктопом и пользовательскими устройствами.
  3.  Citrix online plug-in. Онлайн-модуль Citrix, устанавливаемый на пользовательских устройствах, обеспечивает их непосредственные ICA-подключения к виртуальным рабочим столам.
  4.  Службы создания машин. Набор служб, работающих совместно для создания по запросу виртуальных рабочих столов на основе главного образа рабочего стола. Это позволяет оптимизировать использование хранилища и предоставить каждому пользователю чистый виртуальный рабочий стол при каждом его входе в систему.
  5.  Desktop Studio. Обеспечивает настройку и управление развертыванием XenDesktop. Desktop Studio предлагает различные мастера для выполнения процесса настройки среды, создания рабочих столов и их назначения пользователям. Desktop Director. Позволяет ИТ-персоналу по поддержке уровня 1 и 2 отслеживать развертывание XenDesktop и выполнять повседневные задачи по обслуживанию. Кроме того, для устранения неполадок можно просматривать и взаимодействовать с сеансом пользователя с помощью удаленного помощника (Microsoft).
  6.  Citrix XenApp. В развертывании XenDesktop можно использовать XenApp для получения выгод от эффективных процессов, связанных с потоковым доступом к приложениям и виртуализацией. XenApp обеспечивает как пользователям, так и администраторам условия работы с приложениями, лучшие чем с установленными. Приложения быстрее запускаются, значительно повышено качество условий работы пользователя, и существенно снижены расходы на управление приложениями.
  7.  Citrix XenServer. XenServer — это решение инфраструктуры виртуальных машин корпоративного класса, создающее основы для доставки виртуальных десктопов и предлагающее расширенные возможности управления. На XenServer можно запустить множество виртуальных машин благодаря преимуществу расширенных функций виртуализации в последних процессорах Intel и AMD с поддержкой виртуализации.

XenDesktop предлагается в четырех редакциях:

  1.  Platinum. Комплексное решение по виртуализации рабочих столов корпоративного класса с расширенными функциями управления и обеспечения безопасности, помимо возможностей редакции Enterprise Edition.
  2.  Enterprise. Решение по виртуализации рабочих столов корпоративного класса с приложениями, предоставляемыми по запросу, и технологией доставки FlexCast, помимо возможностей редакции VDI Edition.
  3.  VDI. Для масштабируемых реализаций инфраструктуры виртуальных рабочих столов (VDI) с использованием технологии Citrix HDX.
  4.  Express. Бесплатная загрузка, призванная помочь профессионалам в сфере ИТ начать работу с VDI, поддерживающая до 10 пользователей.

XenDesktop  для клиента предлагается возможность выбора лицензирования  «по пользователям» или «по устройствам». Это означает, что ицензированные «пользователи» могут иметь неограниченный доступ к устройствам, а к лицензированным «устройствам» получают доступ неограниченное количество пользователей. Такой подход обеспечивает клиентов максимальной гибкостью, а также улучшает согласование лицензирования виртуализации рабочих мест Microsoft.
Пользователь  – физическое лицо, авторизованное заказчиком к использованию любого устройства для доступа к серверу через единый пользовательский ID, независимо от того, использует он продукт в данное время или нет.
Если пользователь подсоединяется к своему десктопу или к приложениям через множество устройств (например, рабочий ПК, ноутбук, нетбук, смартфон и/или тонкий клиент), ему необходима лишь одна лицензия XenDesktop4. В этом заключается ценность и простота данной модели лицензирования – одна лицензия на пользователя.

Таблица 1.3 –  Редакции Citrix XenDesktop

Функции/Редакции

VDI

Enterprise

Platinum

Мультимедиа

X

X

X

3D

X

X

WAN-оптимизация

X

Удаленные ВМ (VDI )

X

X

X

Blade PC

X

X

X

Рабочий стол сервера

X

X

Подкачиваемые ВМ

X

X

Скачиваемые ВМ (offline)

X

Доставка приложений

X

X

Self-Service Enterprise App Store

X

X

Любой гипервизор

X

X

X

Любая система хранения данных

X

X

X

Управление образами ОС

X

X

X

Управление профайлами

X

X

X

Управление образами приложений

X

X

Безопасный удаленный доступ

X

X

X

Расширенный контроль доступа

X

Видеоаудит

X

Однократная аутентификация

X

Расширенное управление гипервизиром

X

X

Мониторинг работоспособности

X

X

ServerProvisioning

X

X

Мониторинг SLA и отчетность

X

         1.3.3 Microsoft VDI

        Microsoft VDI предоставляет пользователям легкий доступ к многофункциональной, качественной среде Windows, выполняемой в ЦОД, с любого устройства. Инфраструктура Microsoft VDI основана на новой версии ОС Windows Server 2012. Благодаря службам удаленных настольных компьютеров (RDS) и технологии Hyper-V в ОС Windows Server 2012 организации получают следующие преимущества: 

1) Платформа. Windows Server 2012 обеспечивает единую платформу для предоставления любого типа размещаемых настольных компьютеров, благодаря чему упрощается их развертывание и управление.

2) Взаимодействие с пользователем. RemoteFX обеспечивает постоянное полнофункциональное взаимодействие с пользователем вне зависимости от типа виртуального настольного компьютера, или места, из которого пользователь получает доступ к нему.

3) 3 варианта развертывания. В RDS можно размещать настольные компьютеры на основе сеансов, объединенные в пулы ВМ и личные ВМ. Поэтому клиенты имеют возможность развернуть любой настольный компьютер VDI подходящего типа для своих пользователей с единой платформы.

                                  Рисунок 1.20 – Компоненты Microsoft VDI

Основными компонентами XenDesktop являются следующие:

  1.  Remote Desktop Web Access (RDWA) - Веб-доступ к удаленным рабочим столам разрешает пользователям доступ к подключению к удаленным рабочим столам и удаленным приложениям RemoteApp через меню Пуск на компьютере, работающем под управлением Windows 8 или Windows 7, либо через веб-браузер. Подключение к удаленным рабочим столам и приложениям RemoteApp предоставляет настраиваемое представление удаленных приложений RemoteApp и рабочих столов на основе сеансов в коллекции сеансов, а также удаленных приложений RemoteApp и виртуальных рабочих столов в коллекции виртуальных рабочих столов. В VMware это собственно View Client, за исключением веб-портала.
  2.   Remote Desktop Gateway (RDG) - Шлюз удаленных рабочих столов (шлюз RD) позволяет авторизованным пользователям подключаться к виртуальным рабочим столам, удаленным приложениям RemoteApp и рабочим столам на основе сеансов во внутренней корпоративной сети с помощью любого устройства, подключенного к Интернету. В VMware некий аналог View Security Server.
  3.   Remote Desktop Session Host (RDSH) - Узел сеансов удаленных рабочих столов позволяет серверу размещать удаленные приложения RemoteApp или рабочие столы на основе сеансов. Пользователи могут подключаться к серверам узла сеансов удаленных рабочих столов в коллекции сеансов, чтобы выполнять программы, сохранять файлы и использовать ресурсы на этих серверах. Проще говоря, это управлялка службами терминалов. У VMware аналогов нет.
  4.  Remote Desktop Virtual Host (RDVH) - Узел виртуализации удаленных рабочих столов объединяется с Hyper-V для развертывания коллекций помещенных в пул или личных виртуальных рабочих столов в организации с помощью подключения к удаленным рабочим столам и приложениям RemoteApp. Проще говоря, машина с ролью гипервизора – на ней должен стоять Hyper-V. В VMware это ESXi.
  5.  Active Directory (AD) – тут все понятно: собственно AD, DNS и DHCP. В данном мануале DHCP сервера нет ввиду технических ограничений сети тестирования – я обошелся статикой, вовремя подменяемой в момент создания пулов машин.
  6.   Licensing Server - Лицензирование удаленных рабочих столов управляет лицензиями, необходимыми для подключения к серверу узла сеансов удаленных рабочих столов или к виртуальному рабочему столу. Лицензирование удаленных рабочих столов можно использовать для установки, выдачи и отслеживания доступности лицензий.
  7.  Remote Desktop Connection Broker (RDCB) – собственно управлялка подключениями. Аналог View Connection Manager.

Microsoft VDI предлагается в двух редакциях: VDI Standard Suite и VDI Premium Suite. VDI Suite Standard позволяет доступ к Remote Desktop Services прямым или косвенным образом с устройства, лицензированного для VDI, кроме случаев доступа по RDS к Windows Server для работы с его графическим интерфейсом — как с VDI устройства, так и с виртуальной машины, запущенной на сервере VDI. При доступе через RDS к клиентским ОС с устройства VDI или с виртуальной машины, не требуется отдельная RDS CAL. Однако,для использования клиентскими ОС служб, представляемых Windows Server, потребуется иметь Windows Server CAL на оба этих устройства или на вашего пользователя. При использовании VDI Suite Prеmium  дополнительные возможности:

1. Remote Desktop Services.  Права доступа к Windows Server — как с устройства VDI, так и с виртуальной машины на сервере VDI. Лицензии RDS CAL для этого уже не требуется. Оба устройства, или пользователь при этом всё равно должны иметь Windows Server CAL, если используются службы AD, DHCP или DNS на Windows Server.

2. Application Virtualization for Remote Desktop Services. Каждая лицензия VDI Suite Premium включает в себя те же права, что и лицензия APP-V for RDS. Вы можете использовать эту технологию на вашем сервере VDI и получать к ней доступ с устройств VDI, к которым вы привязали лицензию VDI Suite Premium. Вам не требуется покупать отдельную лицензию APP-V for RDS CAL для тех устройств VDI, к которым привязана VDI Suite Premium. Требование на Windows Server CAL для каждого устройства или каждого пользователя остается в силе.

3. Перепривязка лицензий VDI Suite. Для VDI Premium Suite работает право, позволяющее вам перепривязать лицензию VDI Suite Premium с одного устройства VDI на другое на длительный срок (не чаще чем раз в 90 дней). Вы имеете право на перепривязку лицензии VDI Suite Premium к другому устройству и в более ранний срок, если ваше ранее лицензированное устройство VDI вышло из строя и не будет более использоваться в вашей инфраструктуре (кратковременные ремонты не позволяют делать перепривязку чаще, чем раз в 90 дней. Допускается только полный окончательный отказ от данного устройства).

1.3.4  Citrix VDI-in-a-Box

         Citrix  VDI-in-a-Box представляет собой решение «все-в-одном», кото-

рое обеспечивает виртуальные рабочие столы за цену меньшую, чем стои-

мость ПК. Решение VDI-in-a-Box доступно в виде виртуального устройства, которое работает на базе стандартных серверов и устраняет необходимость в дорогостоящей инфраструктуре центра обработки данных. Работая на базе Citrix HDX, VDI-in-a-Box обеспечивает пользователям отличное качество работы в любое время, в любом месте и с любого устройства. Решение предназначено для рабочего стола ИТ. VDI-in-a-Box обеспечивает немедленную доходность инвестированного капитала (ROI), будучи проще и дешевле в установке и управлении, чем ПК. VDI-in-a-Box – универсальное легко внедряемое решение «all-in-one», упрощающее использование VDI благодаря инновационной конструкции, которая не требует:
• отдельных брокеров соединений;
• средств балансировки нагрузки;
• серверов доставки;
• дорогостоящих сетевых СХД с общим доступом.

Рисунок 1.21 – Сравнение стандартного VDI-решения и VDI-in-a-box

                         1.4    Принцип построения  VDI

 

                    1.4.1 Принцип построения инфраструктуры

Принцип построения инфраструктуры в большинстве случаев одинаков.

  •  Базовым компонентом инфраструктуры является решение серверной виртуализации. Данный функционал обеспечивается за счет решений VMware vSphere, Microsoft Hyper-V и Citrix XenServer. Они обеспечивают запуск и выполнение виртуальных машин клиентских рабочих столов.
  •  Управление платформой виртуализации осуществляется посредством специальных программных продуктов, например, Microsoft System Center Virtual Machine Manager, VMware vCenter, XenCenter от Citrix.
  •  Решения Citrix XenDesktop, Microsoft Remote Desktop Services, VMware View позволяют доставлять виртуальные ПК пользователей на любые устройства.
  •  На устройствах пользователей стоит агент, который обеспечивает доступ к ПК. В качестве клиентского можно использовать ПК, тонкие клиенты, планшеты iPad и другие устройства.
  •  Встроенный в архитектуру специальный брокер соединений обеспечивает доступ клиентских устройств к серверам и данным, что позволяет переносить виртуальные десктопы между физическими серверами для балансировки нагрузки или обеспечения работы пользователей при выходе сервера из строя.

                 Рисунок 1.22 – Архитектура VDI-решения

        Для построения VDI инфраструктуры необходимо:

        1. Первое и самое важное — это оборудование. Его можно разделить на следующие пункты:

- Вычислительные мощности – это серверы (или лезвия), находящиеся в них процессоры, оперативная память, карты расширения и т.д., за исключение жестких дисков;

-Дисковая подсистема – имеется ввиду Система Хранения Данных (одна или несколько), на которой централизованно и будут храниться все данные;

- Коммутационное оборудование, такое как Switsh-и (сетевые LAN, оптические FC, SAS…),  балансировщики нагрузки и т.д.;

2. Вторая составляющая проекта – это всегда лицензии. Обычно, это лицензии на саму платформу виртуализации (VMware vSphere, Citrix XenServer, Microsoft Hyper-V), на программная инфраструктура VDI\TS (Citrix XenDesktop, Microsoft Remote Desktop Services, VMware View) и на гостевые операционные системы виртуальных машин, в основном Windows 2008 server.

3. Третью часть расходов составляют работы по внедрению. Иногда заказчики справляются своими силами, иногда просят сделать «под ключ».

                             1.4.2 Оборудование для построения VDI

Серверы. Серверы или, по-другому, вычислительные мощности. Их можно разделить по следующим типам:

Однопроцессорные серверы, самый недорогой вариант. Стоимость начинается от 1000$. Здесь вы не найдете мощных процессоров и большого количества слотов под оперативную память. Такие серверы обычно покупаются при недостатке финансирования или под задачи, которые не требуют значительных ресурсов. С точки зрения виртуализации серверов и рабочих станций, это не самый лучший вариант, т.к. мощности такого сервера скорее всего не хватит на большое число виртуальных машин

Двухпроцессорные серверы – это наиболее подходящее оборудование для виртуализации небольшой компании. Стоимость начинается от 2000$ в базовой комплектации с одним процессором. Например, VMware в своих решениях для малого бизнеса лицензирует свои продукты по количеству двухпроцессорных серверов в компании.

Четырехпроцессорные серверы – используются для ресурсоемких приложений, таких как базы данных. Ценник таких серверов стартует с отметки 17 000$. Еще раз уточню, что такие серверы имеет смыл покупать, если у вас в компании есть приложения, которым для работы не хватает мощности двух процессоров.

Блейд сервер – идеальное решение для виртуализации, в основном, из-за своей архитектуры. Стоимость укомплектованного блейд шасси с тремя двухпроцессорными лезвиями составляет от 17 000$.

Система Хранения Данных. СХД — это дисковая система, которая вынесена за пределы сервера. Файлы виртуальных машин на ней хранятся централизованно. Именно поэтому на каждом сервере (хосте) можно запустить любую из имеющихся виртуальных машин. Разделить Системы Хранения начального уровня можно по типу подключения к серверам (хостам).

iSCSI – протокол передачи информации по TCP/IP LAN сети, т.е. через обычный 1Gbit/s гигабитный switch. У многих производителей есть варианты объединения портов (агрегация) для повышения их производительности. Например, из трех гигабитных портов можно программно сделать один трех-гигабитный. Есть поддержка и 10Gbit сетей, но из-за дороговизны их применяют редко.

SAS – непосредственное подключение СХД и серверов через SAS кабель или через специальный SAS Switch. Скорость подключения 6Gbit/s.

FC – соединение серверов (хостов) и системы хранения данных по оптическим каналам. Скорость 8 Gbit/s, 4 Gbit/s в зависимости от FC HBA карт в сервере. Это самый дорогой способ подключения серверов к СХД.

Особое внимание в системах хранения уделяется отказоустойчивости, для ее повышения все аппаратные компоненты в СХД дублируются. Но, несмотря на это, существуют одно контроллерные варианты, стоимость их где-то на 1000$ меньше, чем двух контроллерных.

Коммутационное оборудование. Задача коммутации заключается в том, чтобы связать виртуальные машины с внутренней сетью LAN и соединить серверы и системы хранения данных. Если первая часть не вызывает у администраторов большой сложности, то вторая – это что-то новое, ее и разберем. Как было сказано выше, у СХД есть три вида подключения: iSCSI, SAS, FC. Нужно изначально планировать архитектуру подключения так, чтобы она была отказоустойчивой. У каждого сервера (хоста) должен быть доступ к файлам виртуальных машин как минимум по двум независимым путям, только в этом случае, исключается единая точка отказа. Какое коммутационное оборудование нужно купить чтобы:

-настроить отказоустойчивую сеть передачи данных на iSCSI;

-настроить отказоустойчивую сеть передачи данных на SAS;

-настроить отказоустойчивую сеть передачи данных на FC.

Питание и Охлаждение. Мало купить все необходимое оборудование и правильно его скоммунтировать, еще нужно обеспечить оптимальные условия эксплуатации. В серверной комнате должна быть температура примерно 18 градусов Цельсия. Конденсат с кондиционера не должен капать на шкаф с серверами. Система должна выдерживать перепады напряжения и периодические отключения электропитания. В случае отключения электричества виртуальные машины по заранее отработанному плану должны штатно выключиться, чтобы избежать потери данных.

                              1.4.3 Платформа виртуализации

Гипервизор  – основа динамической виртуализированной  ИТ-инфраструктуры. Гипервизор – служебное программное обеспечение, реализующее  уровень виртуализации и разделяющее системные ресурсы (процессоры, память, платы ввода\вывода) на несколько виртуальных машин. Современный гипервизор должен отвечать следующим требованиям: устанавливаться на «голое железо», обеспечивать минимальный уровень накладных расходов (overhead) на виртуализацию, уметь работать с многоядерными многопроцессорными системами.

Одна из важнейших задач виртуализации – обеспечение высокой доступности информационных сервисов, работающих на виртуальных машинах. Данный функционал в случае аппаратного или программного сбоя  на сервере обеспечивает  перезапуск  затронутой сбоем виртуальной машины на любом сервере, располагающем достаточным количеством ресурсов.  Применение такого подхода не требует дорогостоящего дублирования ресурсов и не зависит от конфигурации оборудования, версий операционной системы и т.д.

«Живая» миграция позволяет перемещать работающие виртуальные машины с одного физического сервера на другой, обеспечивая тем самым возможность обслуживания оборудования без прерывания работы информационных сервисов. Обеспечивает «горячий» перенос образов виртуальных машин как между массивами, так и между логическими разделами в пределах одного хранилища. Такая возможность позволяет выполнять профилактические работы с СХД, выполнять миграцию, обновление и вывод из эксплуатации массивов без прерывания работы виртуальных машин. Интеллектуальные функции переноса виртуальных машин динамически распределяют и балансируют нагрузку среди набора аппаратных средств, объединенных в единый логический пул ресурсов. Данный инструмент отслеживает нагрузку в виртуализированной инфраструктуре и оперативно перераспределяет ресурсы  в соответствии с бизнес-приоритетами для максимального эффективного их использования. Дополнительным преимуществом этого функционала можно назвать возможность высвобождения и выключения некоторых серверов в часы минимальной загрузки с целью экономии электроэнергии.

Централизованные инструменты управления  обеспечивают централизованное управление виртуализированной средой, автоматизацию процессов и эффективную оптимизацию ресурсов. Эти возможности обеспечивают беспрецедентный уровень простоты эксплуатации, эффективность и надежность работы ИТ-инфраструктуры. Дополнительным плюсом является наличие открытых программных интерфейсов, обеспечивающих интеграцию с продуктами для управления инфраструктурой других производителей (HP OpenView, IBM Tivoli), а также разработку собственных специализированных решений.

В масштабных виртуализированных средах интегрированные инструменты обновления просто незаменимы. Они обеспечивают централизованное управление процедурами обновления программного обеспечения как на физических серверах, так и на виртуальных машинах, обеспечивая тем самым безопасность и стабильность работы систем.

Резервное копирование виртуальных машин связано с рядом трудностей, о которых мы поговорим ниже в соответствующем разделе. Как следствие, возникает необходимость в интегрированном в ПО виртуализации фреймворке для резервного копирования, обеспечивающим эффективное резервное копирование содержимого  виртуальных машин и сокращение нагрузки на хост-систему.

Платформа виртуализации для развертывания инфраструктуры VDI должна обладать функционалом для его использования не только в лабораторных целях, но и в ИТ-структуре действующего предприятия. Перечень основных функций и возможностей, которые должен поддерживать гипервизор для внедрения VDI:

- поддержка Windows и Linux в качестве гостевых операционных систем;

- поддержка до 8 виртуальных процессоров в виртуальной машине;

- поддержка до 7 виртуальных жестких дисков для гостевых машин;

- поддержка одного виртуального CD-ROM;

- поддержка до 7 виртуальных сетевых интерфейсов;

- поддержка до 6 физических сетевых интерфейсов на сервер (возможно использование 6 объединенных пар сетевых интерфейсов);

- поддержка виртуальных сетей (VLAN);

- поддержка неограниченного количества физических серверов в пуле, виртуальных машин и памяти;

- конвертер из физической среды в виртуальную для Windows и Linux-систем (P2V-конвертер);

- поддержка широкого спектра хранилищ данных (IDE, SATA, SCSI, SAS, DAS, Fibre Channel, iSCSI, NFS);

- централизованное управление пулом физических серверов из единой консоли управления;

- возможность перемещения виртуальных машин с одного физического сервера на другой без остановки виртуальной машины (XenMotion) при использовании сетевого хранилища данных;

- использование шаблонов для создания виртуальных машин;

- тонкая настройка использования процессорных мощностей;

- горячее подключение/отключение виртуальных жестких дисков и виртуальных сетевых адаптеров;

- создание мгновенных снимков виртуальных машин;

- возможность создания виртуальных машин из заранее подготовленных шаблонов и их клонирования.

Следует отметить, что  интересен не столько  функционал гипервизора (Vmware ESXi неоспоримый лидер в этом компоненте), как поддержка выбранной программной инфраструктуры VDI\TS. Немаловажным фактором также является функционал бесплатной версии и политика лицензирования.

                          1.4.4 Программная инфраструктура VDI\TS

 Программная инфраструктура VDI\TS (Citrix XenDesktop, Microsoft Remote Desktop Services, VMware View) – это комплекс средств для построения инфраструктуры виртуальных рабочих ПК (или виртуальных рабочих столов), позволяющий с различных устройств в любой момент получить доступ к рабочему столу из любой точки мира (при наличии доступа к Internet как клиента, так и инфраструктуры VDI). В зависимости от наличия разных компонентов, возможно большое количество опций, таких как локальный доступ к столу (без соединения с рабочим столом в конкретный момент времени), быстрое развертывание новых станций, режим аутентификации anonymous (безлимитное использование одного аккаунта неограниченным числом пользователей), гибкие политики и многое другое.

        Неоспоримыми лидерами на рынке в данный момент являются Citrix XenDesktop и VMware View. Эти два решения обеспечивают наиболее полный функционал из решений, представленных на рынке VDI. Перечень основных функций и возможностей, которые должна поддерживать программная инфраструктура VDI\TS:

       - возможность получать доступ к виртуальным рабочим столам со смартфонов, ноутбуков, продуктов компании Apple, тонких клиентов и лаптопов;

          - поддержка встроенных аудио и видео устройств, как встроенных так и внешних;

          - подключение USB-устройств;

     - поддержка 3D графики;

     - технологии экономии трафика;

     - технологии экономии места на жестком диске;

     - поддержка принтеров;

     - мощный инструмент для возможности контролирования пользователей;

     - мощный инструмент для управления всей инфраструктурой;

Citrix XenDesktop и VMware View два наиболее ярко выделяющихся продукта, которые зарекомендовали как качественные решения. Существенных у этих относительно друг друг нет. Для реализации проекта была выбрана инфраструктура VMware View по следующим причинам:

     - более простое развертывание по сравнению с Citrix XenDesktop;

     - гипервизор ESXi более функционален, что в свою очередь дает такие преимущества, как высокая отказоустойчивость и настройка системы резервногокопирования, более тонкое

                    1.4.5 Клиенты для доступа к виртуальным рабочим столам 

Клиенты для доступа к виртуальным рабочим столам VDI делятся на два типа: нулевые и тонкие.

Главное отличие нулевых клиентов от тонких заключается в том, что нулевые клиенты в общем случае не содержат операционную систему, а взаимодействие с VDI идет по протоколу PCoIP или другим проприетарным протоколам.

Тонкий клиент имеет установленную операционную систему, например, Linux или Windows Embedded, служащую для запуска программного клиента. Тонкий клиент имеет все атрибуты, присущие обычной рабочей станции, за исключением, в подавляющем большинстве случаев, подвижных элементов: вентиляторов охлаждения, жестких дисков.

Есть два основных направления, по которым развиваются нулевые клиенты. Первая группа – нулевые клиенты, построенные на чипе Teradici. Teradici – компания-разработчик протокола PCoIP. В нулевых клиентах, построенных на этом чипе, находится аппаратный обработчик протокола PCoIP, поэтому такие нулевые клиенты демонстрируют наилучшие показатели производительности видео, среди устройств, работающих по протоколу PCoIP. К достоинствам таких нулевых клиентов относится простота использования, высокая производительность. К недостаткам – узкая специализация, такие клиенты не поддерживают RDP и другие протоколы. Нулевые клиенты на базе Teradici – отличное решение для тех компаний, которые точно определились, что будет использоваться VMware View.

Клиенты Pano Logig самые нулевые из нулевых. Отличное решение для минималистов (или наоборот, максималистов: выкидывать из устройства компоненты, так по максимуму). Эти нулевые клиенты не содержат процессора, памяти – почти ничего. Построены они на базе ПЛИС FPGA – обработчике собственного протокола передачи видео изображения. Этот протокол оптимизирован для передачи данных по локальной сети и обеспечивает наивысшую производительность при работе с видео, не нагружая сервер кодированием/декодированием видео.

К достоинствам таких клиентов относится низкое энергопотребление, простота использования, широкий спектр применения. Такие клиенты работают по собственному протоколу и требуют установки дополнительного агента на виртуальную машину, для обеспечения коммуникаций. К недостаткам решения можно отнести необходимость установки дополнительного ПО в виртуальную машину, невозможность перепрограммировать устройство по мере выхода более развитых средств взаимодействия, в том числе и от самого Pano Logic. Микросхема FPGA жестко запрограммирована и обновить микропрограмму не получится.

Тонкие клиенты – это мини компьютеры, на которых установлена в той или иной мере специализированная операционная система, например SUSE Linux или Windows 7 Embedded. А клиент доступа является программным. Самый широкий спектр производителей выпускают такие устройства. Главным параметром тонкого клиента является его универсальность. Они могут поддерживать протоколы PCoIP, RDP и другие. Подавляющее большинство тонких клиентов не содержат движущихся элементов, и здесь самое главное, выбрать устройство из большинства и случайно не наткнуться на модели с активным охлаждением. Большинство тонких клиентов можно хорошо приспособить к работе не только пользователей, но и администраторов. Системная консоль может содержать возможность доступа к устройствам по SSH или через браузер. От нулевых клиентов ожидать такой гибкости не приходится. В ущерб широким возможностям приносится производительность. Для клиентов, не требовательных к качеству отображения видео, не работающих с графикой, видео, не решающих инженерные задачи, такого уровня взаимодействия с виртуальным рабочим столом будет вполне достаточно.

К достоинствам тонких клиентов относится гибкость и возможность решения задач администрирования. К недостаткам стоит отнести низкую, по сравнению с аппаратными решениями, производительность графического интерфейса. Существует, также отдельный тип тонких клиентов – программные. Например, Wyse PC Extender, который превращает обычный устаревающий ПК в тонкий клиент с возможностью централизованного управления. Такое решение сможет продлить срок службы ПК и обеспечить плавный переход на специализированные тонкие или нулевые клиенты.

                    Рисунок 1.23 – Сравнение различных клиентов

При выборе тонкого клиента необходимо решить

  1.  Какое решение VDI будет использоваться;
    1.  Насколько важна производительность отображения элементов виртуального рабочего стола: будут ли задачи, связанные с видео, фото, 3d, моделированием и прочим;
    2.  Желаемый уровень автоматизации настройки устройств, например, подключил и забыл. Некоторые устройства могут получать настройки через FTP, а некоторые требуют для автоматизации настроек платных систем управления;

  1.  РАЗРАБОТКА И ПРАКТИЧЕСКАЯ РЕАЛИЗАЦИЯ КОРОПРАТИВНОЙ СЕТИ С ВНЕДРЕНИЕМ VDI

2.1 Расчет аппаратной части для реализации проекта на 100 рабочих мест на базе решения Vmware View

Требованиями к решению VDI следующие:
       1) Начальная конфигурация — 80 пользователей, с расширением до 100;

2) Операционная система – Windows 7x32;

3) Программное обеспечение – Microsoft Office, Mozilla Firefox;

4) Среда виртуализации VMware;

5) Высокая степень отказоустойчивости.

Нужно просчитать какое количество серверов и систем хранения будет в составе решения. Требуется рассчитать следующие параметры:

1) CPU;

2) Memory;

3) Storage;

4) Network.

Расчет CPU Sizing


      На каждое ядро серверного процессора согласно рекомендациям Vmware [] закладывается 5 рабочих станций. Если требуется 100 рабочих станций, то 100/5 = 20 ядер. 20/6 = 4 процессора, т.е. для работы нужно 2 двухпроцессорных сервера с шестиядерными CPU.  В случае выхода из строя одного из серверов (авария) все 100 ВМ должны иметь возможность нормальной работы на втором сервере, для этого ресурсов на нем должно быть с избытком. В случае с двумя серверами это сделать сложно, ведь чтобы получить 20 ядер на одном сервере, нужно покупать 4-х процессорный сервер с 6-ти ядерными процессорами. Поэтому в проекте должен быть 3-ий резервный сервер.

Расчет Memory

Объем памяти напрямую зависит от используемой версии ОС Windows, и от того какие приложения будут запускаться. Требования по каждому приложению всегда можно посмотреть на сайте производителя ОС и программного обеспечения. Windows 7 для базовых операций требуется 1 ГБ []. В проекте также нужно учесть требования программного обеспечения, которое потребует еще около 2 гигабайт (ГБ) оперативной памяти []. Благодаря технологии VMware ESX’s Transparent Page Sharing (TPS) часть памяти используется совместно[]. Windows 7 использует дополнительные механизмы шифрования, из-за чего общими могут быть только 20% используемой памяти, а оставшиеся 80% будут физически заниматься пользователем. Система в обычных условиях начинает использовать файл подкачки, когда остается менее 25% свободного места в оперативной памяти. ОС всегда старается сохранить как минимум 25% свободного места в резерве. Но использование файлов подкачки в виртуальной среде приведет к потере производительности, поэтому вместо создания файла подкачки с объемом в 1,5-2 от оперативной памяти жестко зафиксируем: не более 1 ГБ на файл подкачки. Для клиентов Windows 7 цифры следующие: (2 ГБ + 100МБ) * 50% * 60% = 660МБ на клиент. Итого: 4ГБ + 660МБ *128 = 87 ГБ. Если хост не поддерживает transparent page sharing, то необходимо: 4ГБ + (2ГБ + 100МБ) * 128 = 273 ГБ.

Также нужно учесть ряд  шагов, которые могут повысить производительность VDI:
       1) Отключить Memory Ballooning — для VDI файл подкачки не приносит пользы, стараться выставлять жесткие значения, при необходимости — увеличивать RAM, не файл подкачки;

2) Использовать single vCPU VMs — большинство приложений пользователей однопоточные, им не нужны multi vCPU;

3) Timed Boots — разделить группы пользователей по группам, запускать группы по приоритету.

4) Оптимизировать антивирусное сканирование. Антивирусное ПО — «необходимое зло» в IT, но если ПО не настроено грамотно, то это приведет к резкому снижению производительности. Полезно будет выставить сканирование по записи, сканирование только локальных дисков и исключить Pagefile.sys и папку Print Spool.

5) Отключить 3D Screen Savers в профилях пользователей – эти заставки потребляют очень много ресурсов CPU.

6) Виртуализация приложений — приложения должны быть виртуализованы также, как и ОС. Это упрощает поддержку и сжимает размер «золотых образов». Такие образы легче разворачивать и обновлять.

Расчет Storage


      В  расчете нужно учитывать  производительность - I/O operations per second (IOPS), объем хранилищ получается исходя из IOPS'ов. В зависимости, опять же, от сценария использования, для работы одного виртуального рабочего стола нужно 5-20 IOPS, примем отношение числа операций чтения/записи как 20/80.

Получатся, что для 72 рабочих столов простых пользователей под управлением Windows XP потребуется 360 IOPS, а для продвинутых пользователей да еще под Windows 7 это значение вырастет до 1440 IOPS. Отсюда стедует, что система хранения должна быть оснащена быстрыми дисками, например, 600Gb 15k в рейде 10. Это необходимо, чтобы быстро проходили включение виртуальных машин, когда сотрудники к одному часу приходят в офис, и выключение в конце рабочего дня. Если позволяет бюджет, то хорошо иметь и резервную систему хранения на случай аварийной ситуации.

Для установки одной копии Windows 7, по рекомендациям Microsoft [], требуется не менее 16Гб дискового пространства. При использовании Linked-Clones, экономия составит 90% от 16 Гб – 14,4 Гб на пользователя. В среднем на одного пользователя придется 1.6 Гб объема системы хранения.  На пользовательских данных сэкономить не получится, будем считать, что персональные пользовательские данные одного пользователя будут занимать 10 Гб. Таким образом, на одного пользователя должно приходиться 1.6 Гб + 10 Гб = 11.6 Гб. С учетом запаса в 20% определяем 14 Гб на пользователя.

Для обслуживания VMware View специально будет необходима организация View Security Server (для пользователей, обращающихся из вне), View Connection Server (брокер соединений), vCenter Server/Active Directory (вполне возможно, что Active Directory и/или vCenter уже развернуты, поэтому будем считать их в среднем как один сервер).

Расчет Network

При разработке сети с внедрением VDI нужно учитывать особенности

VDI-трафика. На рисунке 2.1  показана сравнительная характеристика нескольких видов трафика. Исходя из сравнительной характеристики  заключается два основных вывода, что в основу решения нужно залаживать высокопроизводительные устройства, а также грамотно настроить балансировку между устройствами.
      

               Рисунок 2.1 – Архитектура проектируемой корпоративной сети

На рисунках 2.2 и 2.3 показаны отличительные особенности трафика стандартной архитектуры и трафика VDI-архитектуры. Из рисунков видно, что нагрузка на уровень распределения практически идентична уровню доступа в ЦОД, где расположены виртуальные десктопы.

               Рисунок 2.2 – Особенности стандартного трафика

                               Рисунок 2.3 – Особенности VDI-трафика

          Разрабатываемая сеть является сетью предприятия малого бизнеса, с количеством работников до 100 человек. Стандартная архитектура сети рассмотренная в 1.1 в данном случае будет избыточной. Поэтому для реализации сети подходящим вариантом будет альтернативная архитектура без уровня ядра. Первым делом нам нужно рассчитать количество коммутаторов на уровне доступа. Расчет будет исходить из количества требуемых портов. Учитывая, то наиболее популярным на рынке коммутаторов являются 24-портовые, рассчитаем количество 24-портовых коммутаторов.  Количество хостов возьмем за 100, также нужно учесть принтеры, устройства конференцсвязи, точки доступа и количество портов для связи с коммутаторами уровня распределения. Получается около 130 портов, т.е. 130 / 24 ≈ 6 коммутаторов. Когда 100 клиентов подключаются к своим виртуальным машинам, сетевая инфраструктура испытывает значительные нагрузки. Чтобы сеть не стала узким местом, необходимо подключать серверы к общей сети по 10Gbe портам. В современных серверах  IBM M4 или HP gen8 изначально заложена возможность активации двух портов 10Gbe. А в новых моделях коммутаторов Cisco  есть специальные модули, добавляющие по 2 порта 10Gbe в каждый коммутатор. В итоге одним и из наиболее приемлимых решений будет cтек коммутаторов  которые  дадут необходимую отказоустойчивость и скорость работы. Схема решения представлена на рисунке 2.4.

     

     Рисунок 2.4 – Архитектура проектируемой корпоративной сети

         2.2 Обоснование выбора аппаратной части проекта

  1.  Обоснование выбора серверной инфраструктуры

Исходя из расчетов представленных в разделе 2.1 для проекта необходима классическая схема виртуализации - три сервера и система хранения данных.  Мощности данного решения хватить на выполнение сервисов для 100-200 сотрудников, причем это с учетом того, что один из серверов может выйти из строя и в работе останется только два.

                    Рисунок 2.5 – Классическая серверная инфраструктура

Часто решающим фактором при выборе производителя сервера является успешный опыт работы с тем или иным вендором. В проектах виртуализации допустимо использовать серверы разных марок, но лучше  всего использовать брендовые серверы HP, IBM, Dell в том числе и потому, что можно оперативно заменить во время проекта не заработавшие "из коробки" комплектующие. Заплатив несколько тысяч долларов за оборудование не придется еще решать дополнительные проблемы с гарантией. Все модели серверов поставляются с завода в базовой комплектации, которая готова к запуску, но требует дополнительных комплектующих, чтобы справиться с конкретными задачами. Обычно к базовой конфигурации добавляют оперативную память, второй процессор, второй блок питания, жесткие диски, HBA карты для связи с системой хранения. Так как базовые модели отличаются друг от друга, главным образом, установленными процессорами, это и будет главный критерий разделения серверов по группам для дальнейшего сравнения. Современное поколение процессоров INTEL — это серия E5-2400 с максимальным поддерживаемым объемом оперативной памяти 375Гб и E5-2600 c максимальным объемом 750Гб. Поэтому 2400 устанавливают в серверы с 12-ю слотами для установки памяти, а  E5-2600 с 24-ю слотами. 

Таблица 2.1 – Таблица цен на процессоры компании Intel

4-х ядерные

6-ти ядерные

8-ми ядерные

Серия E5-2400, максимальный объем памяти 375Гб

E5-2403 - 1.8GHz - 195$
E5-2407 - 2.2GHz - 250$

E5-2420 - 1.9GHz - 391$

E5-2430 - 2.2GHz - 554$
E5-2450 - 2.1GHz - 1112$

Серия E5-2600, максимальный объем памяти 750Гб

E5-2603 — 1.8GHz - 207$

E5-2620 - 2.0GHz - 410$
E5-2630 - 2.3GHz - 616$
E5-2640 - 2.5GHz - 890$

E5-2650 - 2.0GHz - 1112$
E5-2660 - 2.2GHz - 1333$
E5-2665 - 2.4GHz - 1444$
E5-2670 - 2.6GHz - 1556$
E5-2680 - 2.7GHz - 1727$
E5-2690 - 2.9GHz - 2061$

  Моделей процессоров, на самом деле, гораздо больше. В таблице представлены те CPU, которыми укомплектованы серверы, часто встречающиеся на складах, а значит, их поставки не нужно ждать 8 недель из Европы. 

   Исходя из рассчетов представленных в разделе 2.1 для 100 пользователей достаточно 20 ядер, поэтому для решения нужно 4 процессора по 6 ядер. Согласно таблице для реализации проекта подойдет процессор Xeon E5-2620.

     Собранные из тех же самых комплектующих, что и серверы HP и Dell, серверы IBM обойдутся как минимум на 20% дешевле. Гарантия IBM, как и у других производителей составляет 3 года. Если за это время сервер выйдет из строя, то специалист из IBM приедет и бесплатно починит его, заменив комплектующие или сервер целиком. Среди серверов  IBM наиболее наиболее популярным и интересным решением для виртуализации является сервер x3650 M4. Сервер IBM System x3650 M4 обеспечивает исключительную производительность для самых важных бизнес-приложений. Оптимальная конструкция IBM x3650 M4 обладает высокой энергоэффективностью, позволяет поддерживать больше ядер, больше оперативной памяти, больший объем данных в небольшом корпусе (форм-фактор) 2U, который прост в обслуживании и управлении. Соотношение вычислительной мощности на Ватт потребляемой энергии, новейший процессор Intel Xeon, позволяют сократить расходы, сохраняя при этом скорости работы оборудования и обеспечивая его доступность в приобретении. Для серверов IBM x3650 M4 существуют готовые заводские комплектации. Они полностью работоспособны, но могут быть наполнены дополнительными комплектующими, чтобы полностью соответствовать поставленным задачам.  В [] представлены общие характеристики и отличия моделей с 6-ти ядерными CPU.

Из данной линейки для проекта требованиям удолетворяет сервер  полное название, которого IBM Express x3650 M4 Rack 2U, 1x Xeon E5-2620 6C(2.0GHz/1333MHz/15 MB/95W). По название расшифровываются следующие характеристики:

1) IBM Express x3650 M4 – название модели;

2) Rack 2U – форм фактор, высота в стойке;

3) 1x – количество CPU в базовой комплектации;

4) Xeon E5-2620 – модель CPU;

5) 6C – количество ядер;

6) 2.0GHz – частота CPU;

7) 1333MHz – максимальная частота поддерживаемой памяти;

8) 15 MB – кэш уровня L3;

9) 95W – рассеиваемая мощность.

                          Рисунок 2.6 – Передняя панель IBM x3650 M4

                   

                              Рисунок 2.7 – Задняя панель IBM x3650 M4

Заводской комплектации для реализации проекта будет не достаточно, поэтому каждый сервер должен быть доукомлпектовается следующими аппаратными частями:

1) IBM Express Intel Xeon E5-2620 6C – вторым  процессором;

2) Emulex Dual Port 10GbE SFP+ Embedded VFA III for IBM System - интеллектуальным адаптером 10Gb Gigabit Ethernet с оптическим интерфейсом SFP+, разработанным для различных приложений, таких как виртуализация, устройства сетевой безопасности, IP системы распространения контента, распределенный вычисления, NAS-серверы, а также серверы хранения и резервного копирования;

3) В каждый сервер будет добавлено по 15 планок оперативной памяти 8GB (1x8GB, 2Rx4, 1.35V) PC3L-10600 CL9 ECC DDR3 1333MHz LP RDIMM;

4) Также требуется докупить блок питания - Express System x 550W High Efficiency Platinum AC Power Supply;

5) 2-мя RAID-контроллерами  Express IBM 6Gb SAS HBA (46M0907).

         2.2.2 Обоснование выбора и настройка системы хранения данных

СХД — это дисковая система, которая вынесена за пределы сервера. Файлы виртуальных машин на ней хранятся централизованно. Именно поэтому на каждом сервере (хосте) можно запустить любую из имеющихся виртуальных машин. СХД подключено будет через SAS. SAS – непосредственное подключение СХД и серверов через SAS кабель или через специальный SAS Switch. Скорость подключения 6Gbit/s.

Особое внимание в системах хранения уделяется отказоустойчивости, для ее повышения все аппаратные компоненты в СХД дублируются.

                              Рисунок 2.8 – Интерфейсы IBM DS3512

Двух контроллерная система хранения данных от IBM, System Storage DS3512 идеально подходит для  проектов виртуализации серверов и рабочих станций. IBM предлагает самую низкую цену на рынке систем хранения за двух контроллерную модель, поэтому в конкуренции с HP или Dell данная СХД побеждает своих конкурентов. IBM DS3512 очень легко подключить и настроить даже не самому опытному инженеру. Данная система хранения   совместима с 12-ю SAS  дисками 3.5 дюйма (6Gb/s):

1) 15k оборотов в минуту - 300Gb, 450Gb, 600Gb;
         2) 7.2k оборотов в минуту - 1Tb, 2Tb, 3Tb/

Еще к преимуществам данной системы хранения следует отнести:

 Два контроллера для отказоустойчивости и распределения нагрузки. Во многих СХД, построенных на базе обычных серверов всего один контроллер, например, возьмите тот же Qnap или Iomega, в спецификациях на этом внимание не заостряется. Но надо понимать, что если контроллер выйдет из строя, то работа остановится. В DS3512 два контроллера, через которые вы получаете доступ к созданным разделам (LUN-ам). Все компоненты дублируются.

2) Возможность расширения в основную полку СХД помещается 12 или 24 диска, чтобы расширить вместимость, нужно будет подключить полку(и) расширения, причем к DS3524 можно подключить полку с 3.5 дюймовыми дисками и наоборот к DS3512 полку с дисками 2.5 дюйма. Полки расширения подключаются каскадом SAS кабелями. К головному устройству можно подсоединить еще 3 полки расширения.

3) Совместимость с популярными продуктами виртуализации, чтобы была техническая поддержка. Это очень важный момент, особенно в период настройки информационной системы в целом. Можно задавать вопросы и в службу поддержки IBM и в техподдержку VMware;

4) Поддержка протоколов. Изначально, когда покупается пустая двух контроллерная полка DS3512 в каждый контроллере встроены по два SAS порта. Их достаточно, чтобы начать работу. Если же требуется работать по оптическим каналам или по iSCSI (нужно выбрать что-то одно, и то и то не получится), докупаются карты расширения в оба контроллера. В каждой карте расширения 4 порта iSCSI или FC. SAS порты остаются в СХД все равно.

4) Техническая поддержка и гарантия на головное устройство 3 года, а на каждый диск от IBM, который вы вставляете в DS3512 распространяется ее гарантия. Некоторые администраторы по привычке планируют сразу взять дисков про запас, на случай аварии, но в этом большого смысла нет, т.к. после обращения в поддержку, вам оперативно присылают замену любой вышедшей из строя детали.

5) Простой интерфейс управления позволяет ее настраивать даже не специалисту. Главное понять логику подключения, которая описана в стать настройка DS3524.

6) Развитие, системы хранения постоянно модифицируют, выпуская новые и новые прошивки. В основном, разработчики держат курс на поддержку сред виртуализации и их функционала.

С техническими характеристиками DS3524 можно ознакомиться [].

      Согласно соображениям представленным в 2.1, решением, которое обеспечит требуемое количество IOPS, будет 12 дисков 600GB 15,000 rpm 6Gb SAS 3.5 HDD" собранных в RAID 10.

      Перед началом настройки нужно собрать схему, подключив к системе хранения три сервера. В каждом сервере два SAS HBA адаптера, это просто карта PCI-E, с входом SAS. По два HBA установлено для отказоустойчивости, если один из контроллеров в СХД выйдет из строя, то работа будет продолжена через другой. По такой же логике система защищена от проблем с SAS кабелем или HBA адаптером в сервере. В нашем случае для подключения трех серверов к СХД понадобиться SAS-коммутатор. Для нашего проекта выберем коммутатор  LSI SAS6160 SAS 16-Ports. Схема подключения представлена на рисунке 2.9.

                   

                    Рисунок 2.9 – Схема подключения СХД к серверам

    Принцип настройки любой СХД:

  1.  Из дисков собирается RAID (array);
  2.  На RAID создается логический том (LUN);
  3.  Презентуется том серверам (mapping), чтобы они его увидели и могли с ним работать.

    Порядок настройки СХД DS3512:

1) Выбирается автоматический метод поиска системы хранения, система найдет и подключит ее, СХД отобразиться в консоли;

2) В консоли  правой кнопкой в СХД, выбирается пункт Manage, чтобы начать настройку;

3) В закладке Logical/Physical View отображается нераспределенное дисковое пространство и сначала необходимо создать Array (RAID);

4) Далее следуя за мастером, который будет помогать подсказками, задается имя  array.

5) Выбирается 10 RAID, чтобы его создать нужно выбрать RAID 1. И тут же мастер объясняет, что если вы создаете RAID 1 из четырех и более дисков, то автоматически создастся 10 RAID (или 1+0, то же самое выбираем создание RAID из 12 дисков.

Рисунок 2.9 – Схема подключения СХД к серверам

6)  После создания, автоматически запускается мастер создания тома (LUN), нужно указать размер LUN и придумать название для тома. В нашем случае будет создаваться три тома для каждого сервера.

7) После создания Array и LUN они отобразаться в консоли. Теперь необходимо перейти на другую вкладку и дать доступ к этому LUN серверам. По умолчанию создана группа Default Group и этой группе доступен LUN1. Достаточно добавить сервер (сначала один, затем другой, затем и третий) в это группу, чтобы они могли подключиться к LUN1.

                  Рисунок 2.9 – Схема подключения СХД к серверам

8) Правой кнопкой мыши по Default Group, Define -> Host

                   Рисунок 2.9 – Схема подключения СХД к серверам

9) У каждого сервера есть по два SAS HBA, именно через них происходит подключение к СХД. Система хранения может идентифицировать сервер именно по HBA адаптерам, а точнее, по их уникальным «identifier».

Задается имя хосту. Выбирается два «identifier», которые принадлежат серверу, который подключается. Посмотреть, какие идентификаторы у сервера, можно подключившись к ESXi хосту напрямую через vSphere Client. Там в  разделе «storage adapters». Переносится два  «identifier» из левой колонки в правую. Затем выбирается каждый «identifier» и на кнопку Edit, чтобы добавить и к нему описание. Такая процедура придумана для того, чтобы не запутаться в большом количестве идентификаторов.

10) Теперь выбирается операционная система хоста, если VMware то выбирается VMware.

              Рисунок 2.9 – Схема подключения СХД к серверам

                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                 

      2.2.3 Обоснование выбора и настройка сетевого оборудования

      В качестве среды передачи в настоящее время преимущественно используется неэкранированная витая пара 5-й категории. Однако такая витая пара обеспечивает пропускную способность  до 100 Мбит/с. Для повышения производительности сети мы будем использовать кабель 5E-категории, который при использовании 4 пар проводов позволяет достичь скорости до 1000 Мбит/с. В рамках нашей сети витая пара 5E-категории будет использоваться для соединения компьютеров с коммутаторами(стандарт 1000Base-T).  На уровне доступа будет использоваться стандарт IEEE 802.3at (PoE+). Использование технологии Power over Ethernet на уровне доступа дает следующие преимущества:

     1. Простота развертывания:

            1.1. Один и тот же кабель используется для данных и питания.

     2. Централизованное управление питанием.

     3. Высокая доступность:

           3.1. Централизованное резервирование, непрерывность работы;

           3.2. В большинстве сетевых устройств отказоустойчивые блоки питания;

           3.3. Широко распространено резервирование при помощи генераторов/ИБП/Батарейных блоков.

     4. Эффективность системы питания:

           4.1. Общий блок питания более эффективен, чем индивидуальные;

          4.2. Кривая эффективности общего блока питания оптимизирована для средней загрузки;

           4.3. Общий блок питания стоиот дешевле, чем индивидуальные блоки для каждого устройства.

                              Рисунок 2.10 – Кабель категории 5e

                 Рисунок 2.11 – Принцип работы стандарта IEEE 802.3at (PoE+)

         В настоящее время при изобилии выбора сетевого оборудования большое количество людей выбирают сетевое оборудование исходя из финансовых возможностей предприятия. Однако это неправильный выбор. Сетевое оборудование должно соответствовать и превосходить все возможные требования, которые оно обязано выполнять в рамках конкретной сети. При реализации данного  проекта используется сетевое оборудование ведущего вендора на данном рынке — компании Cisco Systems.

В качестве коммутаторов для построения стека на уровне доступа к дата-центру оптимальным решением будет Cisco Catalyst 3750-X. Коммутаторы серии Cisco Catalyst 3750-X — флагманские продукты семейства коммутаторов Cisco с фиксированной конфигурацией. Эти коммутаторы бизнес-класса поддерживают объединение нескольких коммутаторов в стек, а также могут использоваться в качестве автономных сетевых устройств. Коммутаторы обеспечивают высокопроизводительную коммутацию (10 Gigabit Ethernet) и поддерживают современную технологию электропитания внешних устройств по сети передачи данных PoE+ на всех портах. Помимо технологии StackWise Plus, обеспечивающей высокую надежность передачи данных, в эти коммутаторы Cisco впервые в отрасли встраиваются средства поддержки технологии Cisco StackPower, которая обеспечивает небывало высокую надежность электропитания стека коммутаторов Cisco Catalyst серии 3750-X. Cisco StackPower превращает систему электропитания стека из четырех коммутаторов в единый ресурс, распределяемый между всеми устройствами стека. В случае отказа одного из блоков питания напряжение будет подаваться на все критически важные приложения и сокращаться для менее приоритетных устройств, указанных пользователем. Один блок питания мощностью 1100 ватт может обеспечить электропитание четырех коммутаторов и подключенных к ним критически важных оконечных устройств, поддерживая непрерывность бизнеса.

Рисунок 2.12 – Внешний вид коммутатора Cisco Catalyst 3750-X Series Switches

Для реализации стека для доступа в дата-центр из серии коммутатор Cisco Catalyst 3750-X согласно [] выберем коммутатор WS-C3750X-24T-S. Также в заводскую конфигурацию нужно добавить модуль Catalyst 3K-X 10G Network Module.

                Рисунок 2.13 – Модуль Catalyst 3K-X 10G Network Module

       Для уровня доступа подходящим решением будет линейка коммутаторов Cisco Catalyst 2960S. Коммутаторы Cisco Catalyst 2960S – это коммутаторы доступа с фиксированной конфигурацией, предназначенные для сетей крупных и средних предприятий, а также их филиалов. В крупных сетях данные коммутаторы позиционируются как коммутаторы уровня доступа пользователей. В соответствии с этим, для выполнения функций защиты периметра сети и выполнения первичного подключения разного рода оконечных узлов (пользовательские хосты, IP телефоны, прочие оконечные Ethernet устройства) в перечень функций коммутаторов включены следующие:

      1. Поддержка семейства технологий 802.1x, для выполнения аутентификации конечных узлов, и выполнения динамической авторизации пользователей;

      2. Поддержка набора технологий обеспечения информационной безопасности на 2 уровне;

      3. Поддержка питания по витой паре на всех портах, для обеспечения подключения IP телефонов.

       Данные устройства поддерживают новую технологию стекирования коммутаторов Cisco FlexStack и обеспечивают сетевые подключения на скоростях до 10 Гбит/с. Коммутаторы серии Catalyst 2960S позволяют обеспечить высокую безопасность данных за счет встроенного NAC, поддержки QoS и высокого уровня устойчивости системы.

        Коммутатор Catalyst WC2960S-24PS-L из серии Cisco Catalyst 2960S оснащен 24 фиксированными портами Ethernet 10/100/1000 c поддержкой PoE и четырьмя портами 1Gigabit Ethernet.

                       Рисунок 2.15 – Коммутатор Catalyst WC2960S-24PS-L

        В качестве рабочего хоста выбран Wyse P20,  который представляет собой лучший клиент благодаря встроенному чипу Teradici, который значительно поднимает производительность видео при работе на виртуальном рабочем столе. Данный клиент является нулевым клиентов (zero client), то есть все ресурсы используются для поддержки рабочего стола, операционная система отсутствует. Устанавливается лишь вертикально, довольно компактен и не требует никаких лишних донастроек при начале работы.

Рисунок 2.15 – Коммутатор Catalyst WC2960S-24PS-L

Преимущества:

        - Высокая производительность видео, графики;

        - Настройки времени на клиенте никаким образом не мешают работе на виртуальном месте;

        - Быстрое начало работы;

       - Наличие отдельной кнопки на устройстве, позволяющей выключить в в виртуальную машину;

       - Наличие 2 портов DVI-I, позволяющее как зеркально отображать информацию, так и поддерживающее технологию мульти-монитора.

Недостатки:

      - Отсутствие портов PS/2;

      - Самая высокая стоимость из трех вариантов;

      - Поддержка лишь протокола PCoIP;

      - Самое большое энергопотребление;

      - Невозможность подключения Wi-Fi модуля.

                                          2.2.4 Настройка сети

       Помимо сети физической, которая начинается от сетевых карт сервера (хоста ESXi) и уходит куда-то в физические свитчи, маршрутизаторы, интернет, есть сеть виртуальная. Если ничего не настраивать, и установить ESXi на сервер, создать виртуальную машину,  то ее сетевой интерфейс будет по умолчанию подключен к первой физической сетевой карте хоста. И все будет работать. Пока не придет пора задействовать технологии высокой доступности: High Availability, Fault tolerance, vMotion.

Виртуальный свитч стоит представлять как физический, со всеми его свойствами и возможностями настройки. vSwitch0 создается по умолчанию в единственном числе, а в процессе настройки можно создавать дополнительные виртуальные свитчи, строить внутреннюю сеть хоста ESXi по своему усмотрению. С помощью виртуальных свитчей на ESXi сервере можно смоделировать любую сетевую схему, которую можно сделать в реальной инфраструктуре.

       После первоначальной установки гипервизора ESXi, для управления нужно подключиться к IP адресу XXX. Этот IP адрес автоматически (присвоен порту vmk0, который подключен к виртуальному свитчу vSwitch0, к нему же подключена физическая сетевая карта vmnic0. Теперь для управления хостом ESXi запускается vSphere Client на рабочей станции, вводится IP XXX и по цепочке Локальная сеть -> Switch -> vmnic0 -> vSwitch0 -> vmk0 доступен интерфейс управления.

      Virtual machine port group создается автоматически при установке гипервизора ESXi на сервер.  Сюда присоединяются сетевые интерфейс(ы) виртуальных машин. Цепочка такая:

       -  cетевая карта виртуальной машины должна принадлежать какой-нибудь порт группе;

       -  порт группа должна быть присоединена к какому-нибудь виртуальному свитчу;

       -  виртуальный свитч может быть присоединен к физическим(ой) сетевым картам или может не иметь выхода в общую сеть.

При желании, можно создавать дополнительные группы портов для виртуальных машин и присоединять их к любым vSwitch. Сетевые карты одной ВМ могут быть в разных группах портов, таким образом, можно настраивать полноценные маршрутизаторы или DMZ. Имеет смысл разделять сеть виртуальных машин и трафик vMotion, FT, management. vMotion трафик создается при миграции ВМ с хоста на хост. Fault Tolerance трафик создается при синхронизации двух виртуальных машин, оригинала и дубликата. Management трафик, это тот, который на схеме на vmk0, его, обычно, оставляют в общей сети. На рисунке 17.11111 для этого используется дополнительный VMkernel порт и vSwitch1, подключенные к vmnic1.  При такой архитектуре два потока данных не пересекутся и не будут мешать друг другу. Также повышается безопасность, злоумышленник, имея доступ к локальной сети компании, ни при каких обстоятельствах не сможет попасть в сеть передачи.

                   Рисунок 2.15 – Коммутатор Catalyst WC2960S-24PS-L

         В разрабатываемой сети предлагается физически разделить Management трафик и трафик виртуальных машин от трафика миграции и HA.  Сетевой адаптер vmnic0 будет пропускать трафик  виртуальных машин и трафик управления, а vmnic1 в свою очередь трафик для обеспечения миграции  и отказоустойчивости. Далее сеть  виртуальных машин при помощи vlan будет разбита по подразделениям, а также отделена от трафика управления и трафика порождаемого серверами VMware. В таблице представлена схема распределения интерфейсов по группам, vlan, IP-подсетям.

Таблица 2.1 – Таблица цен на процессоры компании Intel

Подсеть серверов VMware View

100

VM_VIEW

vmnic0

192.168.0.0/24

1-е подразделение

101

VM_VLAN101

vmnic0

192.168.1.0/24

2-е поразделение

102

VM_VLAN102

vmnic0

192.168.2.0/24

3-е подразделение

103

VM_VLAN103

vmnic0

192.168.3.0/24

4-е поразделение

104

VM_VLAN104

vmnic0

192.168.4.0/24

5-е подразделение

105

VM_VLAN105

vmnic0

192.168.5.0/24

6-е подразделение

106

VM_VLAN106

vmnic0

192.168.6.0/24

Подсеть для трафика HA, vMotion

107

VM_VLAN1

vmnic1

192.168.7.0/24

Подсеть для Management трафика

108

VM_VLAN1

vmnic1

192.168.8.0/24

      

Из таблицы Таблица 2.1 мы заключаем,  что нам нужно создать  10 групп портов. А на виртуальных коммутаторах надо сопоставить VLAN ID соответствующим группам портов. Впрочем, это несложно: Configuration  => Networking => свойства vSwitch=> свойства группы портов => в поле VLAN ID выставить нужную цифру.

      В свою очередь IP-адреса наиболее значимых сетевых интерфейсов представлены в таблице Таблица 2.1.

Таблица 2.1 – Таблица цен на процессоры компании Intel

            Интерфейс

IP-адрес

Management vmk0 1-го сервера

192.168.8.10/24

Management vmk0 2-го сервера

192.168.8.11/24

Management vmk0 3-го сервера

192.168.8.12/24

HA, vMotion 1-го сервера

192.168.7.10/24

HA, vMotion 2-го сервера

192.168.7.11/24

HA, vMotion 3-го сервера

192.168.7.12/24

Active Directory

192.168.0.10/24

vCenter Server

192.168.0.11/24

Connection Server

192.168.0.12/24

     Что касается  стека коммутаторов 3750, нужна следующая конфигурация:

  1.  Настроить коммутаторы в стеке по протоколу StackWise. Стек из 4-х коммутаторов собирается согласно рисунку 2.12.

                   Рисунок 2.15 – Коммутатор Catalyst WC2960S-24PS-L

        Если коммутатор подключается к уже работающему стеку, то никакие настройки на нем не делаются, так как конфигурацию для него генерирует мастер стека. Собирать стек лучше с верхнего коммутатора в шкафу. Он включается первым, берет себе индекс "1". К работающему коммутатору-мастеру с индексом "1" последовательно подключаются и включаются остальные коммутаторы. Им присваивается индекс и согласно их модели автоматически создаются интерфейсы в конфигурации.

Состояние коммутаторов смотреть командами:


STACK#show switch

Switch/Stack Mac Address : 0015.6230.c480

H/W   Current

Switch#  Role   Mac Address     Priority Version  State

----------------------------------------------------------

*1       Master 0015.6230.c480     2      0       Ready

2        Member 0021.5681.dd80     1      0       Ready

3        Member 001f.9ee1.5980     1      0       Ready

4        Member 0021.5682.2400     1      0       Ready

STACK#show switch neighbors

 Switch #    Port 1       Port 2

 --------    ------       ------

     1         6             2

     2         1             3

     3         2             4

     4         3             5

Для назначения  мастера, также можно выставлять приоритеты:


STACK(config)#switch 1 priority ?

1-15   Switch Priorit

  1.  Включить PVST.

STACK#spanning-tree mode pvst
STACK#spanning-tree extend system-id

  1.  Настроить trunk-порты на оптическим с инкапсуляцией 802.1Q.

  1.  Настроить по два access-порта на каждый коммутатор доступа.

В разрабатываемой сети к первому и второму коммутатору в стеке мы подключим первые три коммутатора. К третьему и четвертому соответственно с четвертого по шестой. Настройки этого пункта будут в конфигурационном файле следующего вида:

interface GigabitEthernet1/0/1

switchport access vlan 101

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet1/0/2

switchport access vlan 102

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet1/0/3

switchport access vlan 103

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet1/0/4

switchport trunk encapsulation dot1q

switchport mode trunk

interface GigabitEthernet1/0/5

...  

interface GigabitEthernet1/0/24

interface GigabitEthernet2/0/1

switchport access vlan 101

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet2/0/2

switchport access vlan 102

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet2/0/3

switchport access vlan 103

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet2/0/4

...  

interface GigabitEthernet2/0/24

interface GigabitEthernet3/0/1

switchport access vlan 104

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet3/0/2

switchport access vlan 105

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet3/0/3

switchport access vlan 106

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet3/0/4

...  

interface GigabitEthernet3/0/24

interface GigabitEthernet4/0/1

switchport access vlan 105

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet4/0/2

switchport access vlan 105

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet4/0/3

switchport access vlan 106

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet4/0/4

...  

interface GigabitEthernet4/0/24

     5.Настроить IP-адресацию интерфейсов vlan. Нужно включить маршрутизацию 3-го уровня  командами:

STACK#ip subnet-zero

STACK#ip routing

Далее для каждого интерфейса vlan задать ip-адрес, согласно таблице

interface Vlan1

no ip address

shutdown

interface Vlan100

ip address 192.168.0.1 255.255.255.0

interface Vlan101

ip address 192.168.1.1 255.255.255.0

interface Vlan102

ip address 192.168.2.1 255.255.255.0

interface Vlan103

ip address 192.168.3.1 255.255.255.0

interface Vlan104

ip address 192.168.4.1 255.255.255.0

interface Vlan105

ip address 192.168.5.1 255.255.255.0

interface Vlan106

ip address 192.168.6.1 255.255.255.0

interface Vlan107

ip address 192.168.7.1 255.255.255.0

interface Vlan108

ip address 192.168.8.1 255.255.255.0

interface Vlan109

ip address 192.168.9.1 255.255.255.0

  1.  Настроить маршрут по умолчанию. В нашем случае на интерфейс с адресом 192.168.0.1.

 STACK# ip route 0.0.0.0 0.0.0.0

Настройка коммутатора доступа будет осуществляться также весьма просто:

1. Включить PVST.

2. Все порты коммутатора настроить как access-порты.

interface GigabitEthernet

switchport access vlan X

switchport voice vlan 2

spanning-tree portfast

Где номер vlan — номер соответствующего коммутатора уровня доступа.

              2.3 Установка и настройка VMware View

         

                     2.3.1 Общий порядок настройки

Установка VMware View дело не быстрое и поэтапное, в результате установки нужно получить схему представленную на рисунке 2.16.

                  Рисунок 2.16 – Сервер линейки IBM x3650 M4

1. Active Directory сервер — без домена VMware View не работает, поэтому AD обязателен. DNS сервер тоже необходим, причем не только зона прямого просмотра, но и обратного.

2. vCenter server — управляет виртуальной инфраструктурой vSphere, через него автоматически будут создаваться пользовательские виртуальные машины. Причем до последнего времени для работы VMware Composer необходимо было устанавливать именно Windows версию vCenter server.
VMware Composer — дополнительный компонент View, устанавливается обычно в ту же ОС, где находится vCenter server, позволяет создавать не полноразмерные виртуальные машины для каждого пользователя, а так называемые связные клоны (Linked Clones), когда существует «золотой образ» операционной системы и уже на его основе создаются виртуальные машины, в которых сохраняются только изменения по отношению к «золотому образу».

3. Connection server — основной сервер View, через него происходит управление всей инфраструктурой виртуальных рабочих столов (VDI). К нему из локальной сети подключаются пользователи, чтобы получить доступ к своим виртуальным машинам. Управление происходит через Web интерфейс.

4. Кластер серверов ESXi на котором будут запускаться ВМ пользователей.

5. Виртуальные машины пользователей, это могут быть Windows XP или Windows 7, но  чтобы развернуть из одного образа сотни виртуальных машин, «золото образ» нужно особым образом подготовить.

6. Secure server  - для доступа к персональным виртуальным машинам в офисе из интернета. По сути, это SSL VPN сервер.

Перед установкой нужно настроить адресный

Для установки инфраструктуры VMware View необходимо изначально установить и настроить кластер VMware vSphere, а также предварительно подготовить 3 виртуальные машины с Windows server 2008 R2 SP1. После подготовки 3-х виртуальных машин можно не посредственно перейти к установке и настройке непосредственно инфраструктуры VMware View.

Перед началом настройки сети и разворачивания инфраструктуры VMware View необходимо настроить платформу vSphere.  План установки VMware vSphere cледующий:

1. Подготовить для установки физический сервер и систему хранения данных.

2. Установить на каждый сервер ESXi, подключить к получившимся хостам LUN-ы с системы хранения.

3. Создать виртуальную машину и развернуть Active Directory.

4. Создать виртуальную машину и установить vCenter сервер, чтобы иметь возможность управлять виртуальной инфраструктурой. Подключить к vCenter хосты ESXi.

5. Включить функционал "живой миграции" vMotion.

6. Создать кластер DRS через vCenter.

7. Создать отказоустойчивый кластер HA через vCenter.

8. Настроить сеть.

                     2.3.2 Установка и настройка ESXi

ESXi - это операционная система. Установка ее мало чем отличается от установки других ОС, разве что своей. Для установки ESXi  потребуются диск с дистрибутивом и доступ к локальной консоли сервера. С этого диска, запускается мастер установки. Во время установки нужно сделать следующие пункты:

1. Принятие  лицензионного соглашения;

2. Выбор диска для установки. Тут есть нюансы, но в большей степени нюансы планирования - устанавливается ESXi на локальный диск, на диск в системе хранения данных или флэш-накопитель. В нашем случае серверы, на которые устанавливаются ESXi, подключены к системе хранения данных. В силу условий работы живой миграции и других функций vSphere все LUN системы хранения данных должны быть доступны всем серверам. Таким образом, при установке ESXi на один из этих серверов, он увидит все LUN (а еще и локальные диски сервера, если они есть). В нашем случае каждый сервер имеет свой LUN в системе хранения данных, поэтому установка будет происходить на соответствующий LUN;

3. Выбор раскладки клавиатуры;

4. Указание пароля для пользователя root. Именно этот пользователь и его пароль, используются для управления гипервизором;

5. Сразу после установки ESXi необходимо настроить сеть. Делается это очень просто: после нажатия F2, появляется  меню похожее на  BIOS. В пункте Configure Management Network  выставляются, согласно рисунку XXX, настройки: IP-адрес, DNS-имя, домен. Также важен пункт Network Adapters, в котором выбирается один сетевой контроллер, через который будет выходить наружу управляющий интерфейс ESXi.  Необходимо выбрать тот физический сетевой контроллер (они именуются vmnic#), который ведет в сеть управления. На рисунке  1.3 изображено, что в этой сети находится ноутбук - с которого, предполагается, будут управляться ESXi. Или в этой сети находится vCenter, через который будут управляться ESXi.

                  

                         Рисунок 2.15 – Сеть VMware.

После установки ESXi  на каждый из трех серверов, на одном из них нужно создать две виртуальные машины с с Windows server 2008 R2 SP1 и установить туда vCenter и развернуть Active Directory. Для этого потребуется установить приложение vSphere Client, клиент vSphere. Установка клиента тривиальна, мастер не задаст ни одного вопроса. После завершения установки запускается установленный клиент vSphere, указывается имя или IP-адрес сервера ESXi. Авторизация происходит под пользователем root с тем паролем, что при установке сервера ESXi.

                   2.3.3 Настройка Active Directory 

Установка Active Directory производиться на виртуальную машину с Windows server 2008 R2 SP1 c полным набором последних обновлений, на ней будет контроллер домена и DNS. На данной виртуальной машине предварительно выставляются следующие параметры:

  1.  IP-адрес – 192.168.0.10;
  2.  Маска подсети – 255.255.255.0;
  3.  Основной шлюз – 192.168.0.1;
  4.  Адрес DNS-сервера – 192.168.0.10.

Также нужно создать отдельного пользователя, под правами которого будут создаваться (удаляться) в домене компьютеры. Крайне не рекомендуется запускать работу VMware View из-под Администратора домена. Лучше всего создать отдельную OU (подразделение) в Active Directory и дать на этот OU права отдельному пользователю (в данном случае это будет viewadmin).

Порядок настройки и установки:

1) Установка Active Directory производиться из под dcpromo.

2) Создается новый домен в новом лесу. Его полное корневое - view.local, режим работы леса - Windows Server 2008 R2, дополнительные параметры для контроллера домена - DNS.

3)  Указывается расположение для базы данных, файлов журнала и папки SYSLOG. Задается пароль для учетной записи администратора.

4)  Создается пользователь viewadmin и подразделение ViewComputers.

6)  Управление подразделением делегируется пользователю viewadmin.

               2.3.4 Установка и настройка vCenter server для VMware View

Для инфраструктуры View необходимо устанавливать именно Windows- версию vCenter, т.к. в дальнейшем для разворачивания виртуальных рабочих столов потребуется View Composer, который лучше устанавливать вместе с vCenter (в одну ОС). Для установки Windows версии vCenter подготавливается виртуальная машина с Windows server 2008 R2 SP1 с последними обновлениями и дистрибутив vCenter. На данной виртуальной машине предварительно выставляются следующие параметры:

  1.  IP-адрес – 192.168.0.11;
  2.  Маска подсети – 255.255.255.0;
  3.  Основной шлюз – 192.168.0.1;
  4.  Адрес DNS-сервера – 192.168.0.10;
  5.  Имя хоста – vCenter;
  6.  Член домена – view.local.

Далее следует запустить службу веб-сервер(IIS) и установить .Net Framework 3.5.1.

В Active Directory создается зона обратного просмотра 0.168.192.in-addr.arpa, а также PTR-запись для узла 192.168.0.11.

Далее происходит непосредственно установка  дистрибутива vCenter.

Порядок установки и настройки дистрибутива vCenter:

  1.  Запустить VMware vCenter Installer, предварительно полученный на сайте vmware.com;
  2.  Подтвердить лицензионное соглашение;
  3.  Ввести пароль администратора;
  4.  Инсталлируется Microsoft SQL Server 2008 Express;
  5.  Ввести и подтвердить DBA пароль;
  6.  Ввести и подтвердить пароль пользователя базы данных;
  7.  Ввести полное имя хоста – vCenter. view.local;
  8.  Выбрать использование service account;
  9.  Оставить HTTP-порт 7444;

10) Ввести лицензионный ключ;

11)Выбрать номера портов согласно рисунку;

       12) Выбираем количество памяти для сервера согласно  рисунку;

13) Далее нажимаем Install. Установка занимает около 20 минут. В случае успешной установки появится окно представленное на рисунке.

Для добавления серверов в консоль vCenter необходимо, чтобы в ней существовал объект типа Datacenter. Такой объект - папка для объектов всех прочих типов - серверов, кластеров, виртуальных машин, хранилищ, сетей и прочего. Для разрабатываемой сети нет филиалов со своей инфраструктурой и администраторами, нет отдельного отдела безопасности, который сам управляет своими ESXi, или подобных вариантов – поэтому нужно создать лишь один Datacenter. Для создания вызывается контекстное меню для корневого объекта иерархии vCenter и выбирается в нем пункт New Datacenter. Имя объекта выберите по своему усмотрению. Теперь в контекстном меню уже созданного Datacenter выбирается пункт Add Host. В запустившемся мастере указывается имя или IP-адрес сервера ESXi, пользователя root и его пароль. Предпочтительнее добавлять сервера по имени, причем по полному доменному имени (FQDN). Пароль пользователя root необходим vCenter, чтобы создать на этом ESXi своего собственного пользователя vpxuser, из-под которого в дальнейшем vCenter и будет подключаться к этому ESXi. Таким образом, последующая смена пароля root на ESXi-сервере не оказывает на vCenter никакого влияния.

         2.3.5 Настройка кластера DRS Кластер VMware vSphere

vMotion - это название процесса живой миграции, то есть переезда виртуальной машины с одного сервера на другой без перерыва в работе. Живая миграция пригодится:

- когда необходим плановый простой сервера. ВМ с требующего выключения сервера можно убрать на другие сервера и спокойно выключить его;

- для балансировки нагрузки. С загруженного сервера можно мигрировать виртуальные машины на более свободные сервера.

Как только запускается миграцию, vCenteг проверяет выполнение условий для виртуальной машины и серверов, между которыми она мигрирует. Затем гипервизор начинает копировать содержимое оперативной памяти этой виртуальной машины на другой ESXi. Но ведь виртуальная машина продолжает работать, и за время копирования содержимого оперативной памяти это содержимое успеет поменяться. Поэтому гипервизор начинает вести список адресов измененных блоков памяти перемещаемой виртуальной машины. ВМ продолжает работать, но адреса измененных страниц в ее памяти фиксируются. Итак, основной объем памяти передается на другой ESXi через интерфейс УМкегпе1, который мы задействуем под vMotion.

Как только вся память передалась - ВМ блокируется полностью, и на второй ESXi передаются измененные страницы памяти. Так как их объем будет небольшой - время, в течение которого ВМ полностью блокируется, также невелико. Весьма невелико. А если объем измененной памяти будет больше некоего порогового значения, значит, ESXi просто повторит итерацию. Благодаря этому область памяти, для передачи которой ВМ полностью заморозится, обязательно будет очень небольшой, пусть и через несколько итераций. На этом этапе мы имеем два идентичных процесса, две идентичные ВМ на обоих серверах ESXi. Теперь ВМ на исходном сервере убивается, по сети идет оповещение, что машина с этим МАС-адресом доступна уже на другом порту физического коммутатора. Все. В подавляющем большинстве случаев переключение между ВМ на старом и новом сервере занимает менее одной секунды. Если на каком-то этапе идет сбой, то ВМ просто не убивается на исходном сервере и никуда не уезжает, но падения ВМ из-за неудавшегося vMotion не происходит.

Для включения опции в свойствах  портгруппы VMkernel необходимо поставить галочку.

                   Рисунок – Включение опции vMotion.

Живая миграция ВМ - это полезная штука. Она позволяет мигрировать ВМ между серверами для:

- балансировки нагрузки между серверами;

- освобождения сервера, когда нужно его перезагрузить.

Это пригодится при установке обновлений, аппаратном обслуживании. Однако при  большой инфраструктуре выполнять эти операции вручную для администратора становится затруднительно. На помощь в этом ему может прийти VMware DRS, Distributed Resource Scheduler.

Зачем нужен DRS:

- для балансировки нагрузки (по процессору и памяти) между серверами;

- для автоматического vMotion виртуальных машин с сервера в режиме обслуживания (maintenance mode). Этим режимом администратор или VMware Update Manager помечает сервер, который надо освободить от виртуальных машин перед операциями обслуживания.

Для решения этих задач DRS умеет осуществлять всего две вещи:

- запускать vMotion для виртуальных машин и выбирать, откуда, куда и какую ВМ лучше мигрировать;

- при включении ВМ выбирать сервер, на котором она включится (это называется Initial Placement).

Для создания DRS-кластера необходимо создать объект Cluster в иерархии vCenter. В контекстном меню Datacenter выбрать Add new Cluster, указать имя создаваемого кластера и поставить флажок DRS. Кластер как объект vCenter создан. Далее нужно добавить в кластер три сервера и а также .

                   Рисунок – Включение опции vMotion.

Из интересующих настроек нужно:

1. В VMware DRS выбрать Fully automated (полностью автоматический) -  выбор виртуальных машин и vMotion DRS будет делать сам;

2. Бегунок Migration Threshold устанавливается в среднее. Migration Threshold - настройка, указывающая на уровень приоритета, рекомендации с которым выполняются автоматически.  Таким образом, данная настройка указывает на то, насколько кластер может быть несбалансированным.

DRS отслеживает счетчики Host CPU: Active (включая run и ready) и Host Memory: Active. DRS выдает рекомендации за пятиминутные интервалы, изменить это нельзя. Ссылка Run DRS на вкладке DRS для кластера принудительно заставляет обсчитать рекомендации. Приоритет рекомендаций миграции измеряется цифрами от 1 до 5, где 5 указывает на наименьший приоритет. Приоритет зависит от нагрузки на сервера: чем больше загружен один сервер и чем меньше другой - тем выше приоритет миграции ВМ с первого на второй. Также высокий приоритет имеют миграции, вызванные правилами affinity и anti-affinity, о которых позже. Наконец, если сервер поместить в режим Maintenance, то DRS сгенерирует рекомендацию мигрировать с него все ВМ, и у этих рекомендаций приоритет будет максимальный. Таким образом, если бегунок стоит в самом консервативном положении, выполняются только рекомендации от правил affinity и anti-affinity и миграция с серверов в режиме обслуживания. Если в самом агрессивном режиме - даже небольшая разница в нагрузке на сервера будет выравниваться. Рекомендуемыми настройками являются средняя или более консервативные.

Чтобы выбрать ВМ, которую или которые лучше всего мигрировать, DRS просчитывает миграцию каждой ВМ с наиболее загруженного сервера на каждый из менее загруженных серверов, и высчитывается стандартное отклонение после предполагаемой миграции. Затем выбирается наилучший вариант. Притом учитывается анализ рисков - стабильность нагрузки на ВМ за последнее время.

Rules - здесь мы можем создавать так называемые правила affinity и antiaffinity, а также указывать правила принадлежности групп виртуальных машин группам серверов. При создании правила anti-affinity мы указываем несколько виртуальных машин, которые DRS должен разносить по разным серверам. Обратите внимание: каждая ВМ одной группы anti-affinity должна располагаться на отдельном сервере. Например, такое правило имеет смысл для основного и резервного серверов DNS или контроллеров домена. Таким образом, в одном правиле не сможет участвовать виртуальных машин больше, чем в кластере серверов. В правиле affinity мы указываем произвольное количество ВМ, которые DRS должен держать на одном сервере. Например, это бывает оправдано для сервера приложений и сервера БД, с которым тот работает. Если такая пара будет работать на одном сервере, трафик между ними не будет нагружать физическую сеть и не будет ограничен ее пропускной способностью. Если какие-то правила взаимоисключающие, то у имени, созданного последним, нельзя поставить флажок (то есть правило нельзя активировать). С каким другим правилом оно конфликтует, можно посмотреть по кнопке Details.

Virtual Machine Options - это следующий пункт настроек DRS. Здесь можно включить или выключить возможность индивидуальной настройки уровня автоматизации для каждой ВМ. Часто имеет смысл для тяжелых ВМ выставить эту настройку в ручной или полуавтоматический режим, чтобы минимизировать влияние на такие ВМ со стороны DRS. Балансировка нагрузки будет осуществляться за счет менее критичных виртуальных машин.

                    2.3.6 Настройка кластера HA

Текущая версия VMware НА умеет делать две вещи:

- проверять доступность серверов ESXi. Для проверки доступности используются специальные сообщения, «сигналы пульса» (heartbeat), отправляемые по сети управления. Используются сообщения пульса собственного формата. В случае недоступности какого-то сервера делается попытка запустить работавшие на нем ВМ на других серверах кластера;

- проверять доступность виртуальных машин, отслеживая сигналы пульса (heartbeat) от VMware tools. В случае их пропажи ВМ перезагружается. Отвечающий за эту функцию компонент называется Virtual Machine Monitoring. Этот компонент включается отдельно и является необязательным.

В тот момент, когда вы включается НА для кластера, vCenter устанавливает на каждом сервере агент НА. Один из серверов кластера назначается старшим, так называемым Failover Coordinator, координатором. Именно он принимает решение о рестарте ВМ в случае отказа. А если откажет он сам - любой из остальных серверов готов поднять упавшее знамя, вся необходимая информация о состоянии дел есть на каждом сервере кластера. Агенты обмениваются между собой сообщениями пульса (heartbeat) вида «я еще жив». По умолчанию обмен происходит каждую секунду. Для этих сообщений используется сеть управления. Если за 10-секундный интервал от сервера не пришло ни одного сообщения пульса (heartbeat) и сервер не ответил на пинги еще 10 секунд, то он признается отказавшим. Сервер-координатор начинает перезапуск ВМ с этого сервера на других. Причем НА выбирает для включения ВМ сервер с наибольшим количеством незарезервированных ресурсов процессора и памяти, и выбор этот происходит перед включением каждой ВМ.

Для создания НА-кластера необходимо создать объект Cluster в иерархии vCenter. Кластер как объект vCenter создан. Осталось добавить в него сервера ESXi. Впрочем, включить НА можно и для уже существующего кластера. В нашем случае достаточно включить опцию для существующего кластера DRS. НА и DRS без каких-либо проблем можно использовать для одного кластера вместе. Более того, так даже лучше. Функционал этих решений не пересекается, а дополняет друг друга.

2.3.7 Установка View Composer

Установка происходит на ту же самую операционную систему, на которой расположен сервер vCenter.  VMware View Composer подключается к SQL-серверу через ODBC-коннектор, который создается на сервере vCenter Server. Порядок установки ODBC-коннектор:

  1.  Запускается администратор источников данных ODBC;

  1.  Выбирается вкладка системный DSN и кнопка добавить;

  1.  Выбирается SQL Server Native Client 10;

4) Вводится название DSNView Composer и выбирается сервер SQL;

  1.  Установка ODBC-коннектора завершена.

Установка же самого  VMware View Composer довольно проста. Порядок установки:

  1.  Запустить VMware Composer Installer, предварительно полученный на сайте vmware.com;
  2.  Подтвердить лицензионное соглашение;
  3.  Ввести название DSN, username и пароль согласно рисунку;

  1.  Оставить HTTP-порт по умолчанию;
  2.  В случае успешной установки появиться окно представленное на рисунке.

2.3.8 Установка и настройка VMware View Connection Server

VMware View Connection server — это центральная консоль управления инфраструктурой виртуальных рабочих столов в среде View. Установка производиться на виртуальную машина с Windows server 2008 R2 SP1 c полным набором последних обновлений. На данной виртуальной машине предварительно выставляются следующие параметры:

  1.  IP-адрес – 192.168.0.12;
  2.  Маска подсети – 255.255.255.0;
  3.  Основной шлюз – 192.168.0.1;
  4.  Адрес DNS-сервера – 192.168.0.10.

Установка осуществляется из файла скаченного на сайте VMware. Порядок установки следующий:

  1.  Запустить VMware Сonnection  Installer;
  2.  Выбрать View Standart Server;
  3.  Устанавливается пароль восстановления;
  4.  Выбирается автоматическое определение firewall, специфический домен VIEW\viewadmin;
  5.  Установка завершена.

Настройка Сonnection Server осуществляется из веб-интерфейса. Порядок настройки следующий.

  1.  Запускаем браузер  и заходим в веб-интерфейс под пользователем.

  1.  Во вкладке Servers добавляем vCenter Server, параметры вводим согласно рисунку.

  1.  Во вкладке Servers добавляем Composer Server.

  1.  Добавляем домен.

  1.  Добавляем параметры хранилища.

  1.  На этом конфигурация Connection Server закончена.

             2.3.9 Развертывание шаблона Windows 7 и кастомизация

        После установки и первоначальной настройки основных частей инфраструктуры VMware View для создания Linked clones подготавливается шаблон Windows 7. Настройка шаблона производиться согласно []. Виртуальная машина создается обязательно через Web-клиент vCenter Server. Необходимо предварительно настроить DHCP для раздачи адресов пулу десктопов. Установим Windows 7/8. Далее на операционную систему устанавливается весь необходимый софт. После этого необходимо устанавить клиент на  VMware View Agent на Win7. Все закрываем, даем ipconfig /release, выключаем машину и делаем финальный снапшот для использования машины в качестве шаблона Linked Clone, либо просто выключаем и конвертируем машину в template для использования в качестве шаблона Full Clones. Мы будем использовать Linked Clone – так что выключаем и делаем снапшот.

                  2.3.10 Создание Linked Clones-пула виртуальных машин

  1.   Для создания автоматического пула View нужно запустить  мастер создания пула(Inventory->Pools) и  указывать, что он автоматический.
  2.  Выбирается Dedicated (если выбрать пул Floating, то все изменения после работы на виртуальном десктопе будут сброшены после logout’а). Выбирается Enable automatic assignment – View проверит при cоединении пользователя – какой группе он соответствует и какому пулу назначена группа.
  3.  Выбирается Linked Clones (если выбрать Full – при создании пула машина будет клонироваться, что будет намного дольше и затратней по дисковой емкости).
  4.  Указывается внутреннее имя пула Win и отображаемая пользователю метка Win.
  5.  Настройки PCoIP согласно рисунку.

  1.  Выбирается pattern  для названия виртуальных машин;

  1.  Настройка дисков профиля (Persistent Disk) и временных файлов;

  1.  Выбирается шаблон и его snapshot, а также размещение виртуальных машин пула;

  1.  Указывается OU для размещения десктопов пула;

  1.  Назначается группа на пул;

  1.  Настройка пула завершена.

2.4 Решение безопасного удаленного доступа к VMware View  

Компании стремятся к виртуализации рабочих столов и доставке их своим сотрудникам и партнерам, где бы они не находились. Сотрудники и партнеры могут находиться не только в локальной сети, и все чаще появляется потребность предоставить доступ к корпоративным ресурсам через интернет.

Как и в случае с другими технологиями удаленного доступа, скорость доставки экрана по протоколу PCoIP  зависит от производительности VPN, доступной полосы пропускания, задержки передачи сигнала по сети. Требования к распределенной сети могут создать трудности для ИТ-отдела, ведь необходимо не только доставить рабочий стол сотруднику, но и сделать это безопасно. Поэтому большинство компаний используют SSL VPN для обеспечения безопасного соединения с виртуальным рабочим столом из удаленного офиса, дома или из другой точки.

Компания VMware предлагает использовать решения Cisco Systems для безопасного соединения с удаленным рабочим столом, базируясь на технологии SSL VPN. C такими решениями, как Cisco Adaptive Security Appliances (ASA) и Cisco AnyConnect Secure Mobility client, пользователь может подключиться с помощью PCoIP к своему удаленному рабочему столу через защищенное соединение из любой точки.

Cisco ASA 5500 – аппаратно-программный комплекс, сочетающий лучшие в классе сервисы безопасности и VPN как для среднего и малого бизнеса, так и для крупнейших компаний. Cisco ASA 5500 настраивается для каждой конкретной задачи, предлагая различные редакции, такие как безопасный удаленный доступ (SSL/IPsec VPN), межсетевой экран, фильтрация контента и предотвращение вторжений.

                                        Рисунок 2.8 – Cisco ASA  5500

Решение безопасного удаленного доступа предлагает гибкие VPN технологии для любого сценария подключения, масштабирующийся до 10000 конкурентных пользователей на устройство. Решение предоставляет простой в управлении, туннельный сетевой доступ через SSL, DTLS или Ipsec VPN через публичные сети для пользователей, в частности, пользователей рабочих столов VMware View.

Преимущества Cisco Secure Remote Access включают:

1. Доступ к сети с помощью SSL и DTLS – обеспечивает связь удаленного пользователя с сетевыми ресурсами по любым протоколам, включая PCoIP VMware View. Cisco AnyConnect Secure Mobile клиент автоматически подстраивает его туннельный протокол наиболее эффективным способом. Это первый VPN продукт, использующий DTLS, позволяющий обеспечить оптимизированное соединение для чувствительного к задержкам трафика, как, например Voice over IP или TCP-приложений;

2. Тонкий доступ к сети – обеспечивает доступ к сетевым приложениям и ресурсам вне зависимости от местоположения без необходимости устанавливать VPN клиент;

3. Масштабируемость и гибкость – поддерживает до 10000 одновременных пользовательских сессий на устройство с возможностью масштабируемости до десятков тысяч соединений при объединении в кластеры и распределении нагрузки. Функции резервирования обеспечивают высокую доступность решения.

Cisco ASA SSL VPN поддерживает два способа для безопасного подключения пользователей к рабочим столам, находящимся в центре обработки данных компании:

1. Cisco AnyConnect Secure Mobility. Cisco AnyConnect Secure Mobility клиент обеспечивает безопасное VPN соединение с Cisco ASA 5500 используя SSL и DTLS протоколы. AnyConnect запускается на Microsoft Windows, Mac OS X, Linux и Windows Mobileи поддерживает соединение с IPv6 ресурсами через IPv4 туннель. Администраторы могут настроить AnyConnect клиент для автоматического запуска клиента VMware View. DTLS позволяет избежать задержек при передачи сигнала и проблем с пропускной способностью, характерных для обычного SSL соединения и является стандартным SSL протоколом, обеспечивающим низкую задержку передачи данных через UDP. DTLS улучшает производительность приложений реального времени, таких как VMwareView Client с использованием PCoIP (UDP display protocol).

2. Тонкий SSL VPN. Использует SmartTunnel технологию через web браузер и позволяет подключаться к рабочему столу VMware View без необходимости устанавливать защищенное соединение с помощью AnyConnect. C технологией Smart Tunnel безопасное соединение устанавливается между TCP приложением (web браузер) и Cisco ASA. Smart Tunnel технология позволяет осуществить доступ к клиенту VMware View в том числе, если выбран RDP протокол доставки рабочих столов.

                                        Рисунок 2.8 – Cisco ASA  5500

Последовательность соединения:

1. Удаленный пользователь устанавливает SSL VPN соединение со шлюзом ASA VPN, используя AnyConnect клиента или Smart Tunnel;

2. Пользователь использует клиент VMware View для передачи данных по защищенному туннелю и аутентифицируется на VMware View сервере;

3. После успешной аутентификации VMware View сервер отображает доступные виртуальные рабочие столы;

4. Пользователь выбирает необходимый пул столов и устанавливает виртуальную сессию.

VMware View и Cisco ASA создают решение для безопасного доступа удаленных пользователей к виртуальным рабочим столам, находящимся в корпоративном центре обработки данных. С поддержкой DTLS, Cisco ASA обеспечивает решение безопасным UDP транспортом. C AnyConnect Secure Mobility клиентом и Smart Tunnel технологией, пользователи могут выбирать, каким образом подключиться к виртуальным рабочим столам, находящимся в корпоративном центре обработки данных.

Выполните следующие две задачи, чтобы разрешить VPN-клиентам доступ к своей локальной сети при сохранении подключения к VPN-концентратору:

Настроить ASA с помощью приложения Adaptive Security Device Manager (ASDM) или Настроить ASA с помощью интерфейса командной строки

Настройка VPN-клиента

Настройку ASA удобнее всего настраивать через приложение ASDM.

Порядок настройки Cisco ASA будет следующий:

  1.  Выбрать «Wizard»---«SSL VPN Wizard»
    1.  В открывшемся окне выбрать пункт «Cisco SSL VPN Client (AnyConnect VPN Client)».
    2.  Здесь прописываем имя нашего profile (автоматически будет создан), как и в прошлом посте. Проверяем, чтобы для соединений стоял интерфейс outside и запоминаем IP – адрес для подключений.
    3.  Ставим аутентификацию с использованием локальной базы и создаем нового пользователя (задаем имя и пароль, нажимаем «Add»)
    4.  Здесь создадим отдельную групповую политику для SSL клиентов.
    5.  оздадим набор IP-адресов (pool), из которого будут выдаваться адреса для SSL VPN клиентов. Задаем название pool-а, начальный и конечный адреса и маску подсети

3 ПРАКТИЧЕСКАЯ РЕАЛИЗАЦИЯ РАЗРАБАТЫВАЕМОЙ СЕТИ

3.1 Практическая реализация аппаратной инфраструктуры

       Для 100 пользователей проводной сети в дипломной работе предлагается  использовать архитектуру, включающую уровень распределения (он же серверная ферма) и уровень доступа. Коммутаторы уровня распределения должны поддерживают 10 Гбит/с для подключения серверов. Коммутаторы доступа обеспечивают питание по Ethernet для тонких клиентов и для беспроводных точек доступа, а скорость составляет 1 Гбит/с. На уровне доступа используется 6 коммутаторов Catalyst WC2960S-24PS-L.

На уровне распределения применятся стекирование 4-х коммутаторов  WS-C3750X-24T-S по проприетарной технлогии StackWise. В результате 4 стекируемых коммутатора будут рассматриваться как одно устройство сетевое устройство. Данный коммутатор уровня распределения будет  поддерживать 8 оптических соединений, 6 из которых подключены к серверам, обеспечивая скорость 10 Гбит/с. Для обеспечения беспроводного доступа различных устройств(планшетов, ноутбуков, нетбуков, мобильных устройств), используется 2 точки доступа. Точки доступа будут подключены по Ethernet с коммутаторами и будут получать питание по PoE.

    Для обеспечения достаточной отказаустойчивости и ресурсоемкости для построение ЦОД используются три сервера IBM Express x3650 M4 Rack 2U, к тому же каждый из них  серверов будет доукомплектован:

       1. вторым  процессором;

2. адаптером 10Gb Gigabit Ethernet с оптическим интерфейсом SFP+;

3. 15-ю планками оперативной памяти 8GB;

4. Блоком питания;

5. 2-мя RAID-контроллерами.

Следует отметить, что для реализации проекта достаточно ресурсов двух серверов, но для реализации высокой отказоустойчивости, распределения нагрузки и возможности масштабируемости нужен третий сервер.

     В проекте также используется система хранения данных, на ней размещаются гипервизоры и все виртуальные машины. Для реализации сети, после тщательного анализа рынка, была выбрана двухконтролерная СХД  IBM System Storage DS3512. СХД и серверы соединены посредством

SAS-интерфейсов через SAS-коммутатор LSI SAS6160 SAS 16-Ports.

Данное решение обеспечит скорость подключения 6Gbit/s. В СХД будут вмонтированы 12 дисков 600GB 15,000 rpm 6Gb SAS 3.5 HDD" собранных в RAID 10. На этом RAID будут созданы три LUN(по одному для каждого сервера), на которые будут устанавливаться гипервизоры ESXi и виртуальные машины.

   На границе сети будет установлен аппаратно-программный комплекс ASA 5500, который предоставит безопасный удаленный доступ (SSL/IPsec VPN) из внешней сети к инфраструктуре виртуальных рабочих столов посредством приложения Cisco AnyConnect Secure Mobility.  Оборудование необходимое для реализации разрабатываемой сети представлено в таблице 3.1. В свою очередь схема сети представлена на рисунке 3.1.

Таблица 3.1 – Оборудование необходимое для построения разрабатываемой сети

Наименование

Кол-во

Серверное оборудование

IBM Express x3650 M4 Rack 2U, 1x Xeon E5-2620 6C(2.0GHz/1333MHz/15 MB/95W)

3

IBM Express Intel Xeon E5-2620 6C (2.0GHz, 15MB, 1333MHz, 95W W/Fan) (x3650 M4)

3

Emulex Dual Port 10GbE SFP+ Embedded VFA III for IBM System x

3

8GB (1x8GB, 2Rx4, 1.35V) PC3L-10600 CL9 ECC DDR3 1333MHz LP RDIMM

15

Express System x 550W High Efficiency Platinum AC Power Supply

3

Express IBM 6Gb SAS HBA (46M0907)

6

IBM System Storage DS3512 Express Dual Controller Storage System

1

600GB 15,000 rpm 6Gb SAS 3.5 HDD"

12

IBM Cable SAS 3m

8

LSI SAS6160 SAS 16-Ports

1

Rackmount accessory tray for LSI SAS6160 Switch

1

Сетевая инфраструктура

Wyse P20 для VMware View - 64MB Flash/128MB RAM

100

Catalyst 3750X 24 Port Data IP Base

4

Catalyst 3K-X 10G Network Module

3

10GBASE-CU SFP+ Cable 3 Meter

6

Catalyst 2960S 24 Port Data IP Base

6

SMARTNET 8X5XNBD 802.11g Int Unified AP; RP-TNC ETSI Cnfg

2

Cisco ASA 5500

1

                                        Рисунок 2.8 – Cisco ASA  5500

3.2 Практическая реализация аппаратной инфраструктуры

      Для виртуализации рабочих столов в разрабатываемой cети используется продукт VMware View , который в данной сети включает в себя:

   - VMware vCenter Server;

   - VMware View Connection Server;

   - VMware View Composer Server;

  - VMware Agent – устанавливается на ВМ, которую мы будем использовать в качестве рабочего стола;

  - VMware Client – программа, с помощью которой нами будет произведено соединение с рабочим столом (если не применяются тонкие и нулевые клиенты);

  -   VMware View Administrator – универсальная веб-консоль, из под которой будет осуществлено управление инфраструктурой View (ярлык будет доступен по умолчанию на рабочем столе операционной системы, на которой установлен VMware View Connection Server).

    В качестве платформы виртуализации используется гипервизор ESXi, который обеспечивает наиболее тонкую настойку распределения ресурсов из решений на рынке гипервизоров. На основе трех физических серверов и гипервизора построен HA и DRS кластер. Данное решение обеспечивает равномерное распределение нагрузки между серверами, а также в случае отказа одного из серверов перезапускает его виртуальные машины на других серверах.

        Передача рабочего стола клиенту может осуществляться по средствам протокола PCoIP. В качестве клиентского компьютера в сети будет использован нулевой клиент Wyse P20. Аппаратная поддержка протокола PCoIP на базе чипа Teradici обеспечить необходимую производительность и обезопасить от недоразумений вроде слайдшоу вместо видеоролика.  При подключении к своему рабочему столу кроме нулевого клиента могут использоваться:  стандартный компьютер, продукция компании Apple(iPad, Mac Book, IPhone), а также некоторые модели Smartphone (пока поддерживаются только смартфоны с ОС Android). Для доступа с этих устройств достаточно установить приложение VMware View Client.

        Подключиться к своему виртуальному рабочему столу через защищенное подключение SSL пользователь может из любой точки мира, где есть интернет. SSL VPN соедиение из внешней сети осуществляется благодаря аппаратно-программному комплексу ASA 5500 посредством приложения Cisco AnyConnect Secure Mobility.

         При подключении к виртуальному рабочему столу присоединяются используемые на рабочей станции USB-устройства к виртуальному столу, что позволяет нам использовать flash-накопители, гарнитуры и т.д. В настройках политики View Administrator мы можем настроить запреты на использование PCoIP, USB, настройки локального режима и прочее. Так как View работает с Active Directory, более гибкие политики безопасности (политики, настраиваемые службой Group Policy) администратор сможем настроить в том же Active Directory.

Таблица 3.1 – Лицензии для реализации разрабатываемой сети

Название

Кол-во

Примечание

VDA ALNG SubsVL OLV NL 1Mth

AP PerDvc

1

VMware View 5 Premier Bundle:

Starter Kit

1

Сервисная поддержка на 1 год

Basic Support/Subscription for

VMware View 5 Premier Bundle - 10

Pack for 1 year

1

Сервисная поддержка на 1 год

VMware View 5 Premier Add-On: 10

pack

1

Сервисная поддержка на 1 год

VMware View 5 Premier Bundle:

Starter Kit

1

Сервисная поддержка на 1 год

Basic Support/Subscription for

VMware View 5 Premier Desktop

Add-On - 10 desktop VMs for 1 year

Лицензия на Windows server 2008 R2 Enterprise (OEM)

4.  ТЕХНИКО-ЭКОНОМИЧЕСКОЕ ОБОСНОВАНИЕ СРАВНИТЕЛЬНОЙ ЭФФЕКТИВНОСТИ КОРПОРАТИВНОЙ СЕТИ С ВНЕДРЕНИЕМ VDI С СЕТЬЮ СТАНДАРТНОЙ АРХИТЕКТУРЫ

4.1 Характеристика проекта преимущество локальной сети с VDI перед локальной сетью без VDI

VDI, или Virtual Desktop Infrastructure (Инфраструктура виртуальных рабочих столов) — это разновидность виртуализации рабочих мест пользователей. VDI подразумевает, что операционная система пользователя и приложения запускаются в виртуальных машинах, размещенных на серверах в ЦОД, а пользователям предоставляется удаленный доступ к этим машинам. Пользователи могут применять тонкие клиенты для доступа к своим виртуальным ПК или полноценные компьютеры под управлением Windows, Linux или Mac OS независимо от того, какая операционная система используется на виртуальном ПК. Такая модель позволяет отделить ОС и приложения от аппаратной части, повысив гибкость и мобильность.

VDI имеет множество преимуществ по сравнению со стандартным подходом к организации рабочих столов, которые в конечном итоге выражаются в финансовой выгоде для компании. Среди этих преимуществ можно отметить следующие:

1. Сокращение затрат на приобретение физических ПК. В качестве устройств, с которых осуществляется доступ к рабочим столам, могут быть использованы как ПК из имеющегося парка компьютерной техники, так и тонкие клиенты, которые в целом стоят дешевле полноценного ПК. И в том, и в другом случае компания получает непосредственную финансовую экономию в виде уменьшения или даже полного сокращения статьи расходов, касающейся компьютерной техники.

2. Сокращение затрат на модернизацию и обслуживание физических ПК. Физические ПК нуждаются в постоянном обслуживании и подвержены различным неисправностям в процессе работы, как аппаратным, так и программным. Если компьютерный парк организации достаточно велик, административные расходы на поддержание работоспособности парка техники также могут составлять значительную часть бюджета IT-департамента. Это выражается в затратах на содержание инженерного персонала, затратах на компьютерные комплектующие, а также не всегда очевидные смежные затраты из-за простоев в работе персонала, из-за потерь данных.

Использование тонких клиентов решает вышеперечисленные проблемы. Срок службы тонкого клиента в разы больше, чем у традиционного ПК, из-за отсутствия движущихся частей и из-за большей унификации компонентов. Тонкие клиенты нет необходимости модернизировать так часто, как этого требуют традиционные ПК. При росте системных требований со стороны приложений наращивание производительности виртуального рабочего стола происходит на стороне сервера, занимает считанные минуты, и может гибко изменяться. При выходе из строя тонкого клиента происходит его замена. Переустановки ОС и приложений, долгой перенастройки при этом не требуется. Пользователь даже не теряет открытых приложений на своем рабочем столе. Весь процесс занимает минуты, при использовании стандартных ПК – часы и дни. Кроме того, тонкие клиенты обладают низким энергопотреблением, что при большом парке ПК может обернуться значительной экономией.

3. Обеспечение непрерывности бизнеса. Потенциально VDI  предоставляет возможность постоянного доступа к рабочему столу и всем необходимым приложениям из любого места, как внутри организации, так и снаружи. Кроме того, в некоторых случаях доступ к рабочим приложениям и данным возможен даже при отсутствии сетевого подключения, что открывает новые возможности для организации рабочего процесса организации. Такой подход снижает простои до предельно возможного  минимума, а также значительно уменьшает время решения некоторых задач и проблем.

4. Обеспечение гибкости бизнеса. Абстрагирование рабочих столов и приложений от клиентского устройства позволяет не задумываться о совместимости программ, и получать полноценный доступ к приложениям и данным практически с любого устройства. Переключение между устройствами происходит без потерь данных и текущего состояния приложений.

5. Снижение расходов на управление инфраструктурой. Отделение физических устройств от программных компонентов, стандартизация, гибкость управления виртуальной средой, которые предоставляет VDI, позволяет кардинально изменить подход к поддержке технической инфраструктуры организации. Удобство и скорость выполнения задач позволяет в разы уменьшить расходы на инженерный персонал. Консолидация вычислительных мощностей в одном месте (ЦОД) позволяет повысить утилизацию оборудования, когда это необходимо (например, в рабочие часы), и снизить энергопотребление, когда вычислительные мощности не востребованы (например, ночью).

4.2 Расчет единовременных затрат по сравниваемым вариантам

Прирост единовременных капитальных вложений (ΔКВ) определяется по формуле:

                          ΔКВ =Об + КТР+ КМ ;

где Об – единовременные затраты на приобретение новой техники у  предприятия-изготовителя, ден. ед.;

   КТР – единовременные затраты на доставку новой техники к месту эксплуатации, ден. ед.;

КМ –  единовременные затраты на установку, монтаж и наладку, ден. ед.

Единовременные затраты на приобретение новой техники  для VDI инфраструктуры на 100 рабочих мест представлены в таблице 5.1.

     Таблица 4.1 – Единовременные затраты на приобретение новой техники  для VDI инфраструктуры

Наименование

Цена

Кол-во

Стоимость

Сервер IBM x3650M4
процессор 2 х E5-2620 6 ядер 2.0Гц
оперативная память 328 Гб
блок питания 2 x 550Вт
SSD диск 512Гб

14 870$

2

29 740$

Система хранения данных IBM DS3512
2 контроллер (КЭШ каждого 1Гб) диски 4шт. по 3Tб 7.2к

9 454$

1

9 454$

Тонкий клиент с поддержкой протокола PCoIP

200$

100

20 000$

Лицензия VMware Horizon View с технической поддержкой на 100 пользователей

34 542$

1

34 542$

Подписка Microsoft VDA на 100 пользователей, на 1 год

12 000$

1

12 000$

Лицензия на Windows server 2008 R2 Enterprise (OEM)

2 400$

1

2 400$

Итоговая стоимость проекта :

108 136$

Единовременные затраты на приобретение новой техники у  предприятия для стандартной инфраструктуры:

Таблица 4.2 – Единовременные затраты на приобретение новой техники  для стандартной инфраструктуры

Наименование 

Цена

 Кол-во 

Стоимость 

Системный блок $700

700$

100

70 000$

Лицензии на Windows 7

150$

100

15 000$

Итоговая стоимость проекта :

85 000$

Для VDI  инфраструктуры Об1 = 108 136$. Для стандартной инфраструктуры Об2  = 85 000$.  Единовременные затраты на доставку,  установку, монтаж и наладку нового оборудования в обоих случаях равны 20% от Об. Тогда для VDI  инфраструктуры ΔКВ1 = 108 136$ + 0,2 ·  108 136$ = 129 763$. Для стандартной инфраструктуры  ΔКВ2 = 85 000$ + 0,2 · 85 000$ =102 000$.

4.3 Расчет годовых эксплуатационные затраты по сравниваемым вариантам

Результатом внедрения контрольного полуавтомата на предприятии является повышение надежности, долговечности и ремонтопригодности новой техники, что приводит к сокращению численности обслуживающего персонала, затрат на электроэнергию, ремонт и содержание оборудования, т.е. к уменьшению эксплуатационных издержек.

1)  Главной выгодой при внедрении VDI будет сокращение обслуживающего персонала вдвое. Из расчета один человек на 50 компьютеров в стандартной архитектуре, в VDI уже достаточно одного человека на 100 компьютеров. Формула для расчета:

ЗОбС = КПР · ЧОбС · tОбС · ТСЧ · (1 + НД/100) · (1+ННО/100),                                                    

где КПР – коэффициент премий;

ЧОбС – численность обслуживающего персонала, чел.;

TОбС – время, затрачиваемое на обслуживание  используемой техники, ч/год;

ТСЧ – среднечасовая тарифная ставка обслуживающего персонала, ден. ед./ч;

НД – норматив дополнительной заработной платы, %;

ННО – норматив налогов и отчислений от фонда оплаты труда, %.

2)  Амортизационные отчисления для инфраструктуры VDI составляют 3%. Для стандартной инфраструктуры 15%. Формула для расчета:

А= НА·ОФАС/100,                                            

где НА – норма амортизации используемой техники, %;

ОФАС – амортизируемая (первоначальная) стоимость используемой техники (затраты на приобретение, транспортировку, монтаж, наладку и пуск).

3) В VDI инфраструктуре подача питания осуществляется через сетевой кабель ППЕ – потребление составляет от 13 Вт в час, тогда как системный блок, в зависимости от выполняемых задач потребляет порядка 250 Вт.

Годовой эффективный фонд времени работы используемой техники в обоих случаях равен 2 150 часов.

WД1 = 13 Вт · ч · 100 ком = 1,3 кВт · ч.

WД2 = 250 Вт · ч · 100 ком = 25 кВт · ч.

     Тариф на электроэнергию в нашей стране для юридических лиц

0,116 $/кВт · ч. Формула для расчета:

РЭЛ = WД · ТЭФ · ЦЭЛ,

где WД – потребляемая мощность, квт · ч;

ТЭФ – годовой эффективный фонд времени работы используемой техники, ч;

ЦЭЛ – тариф на электроэнергию, ден. ед./квт.· ч

     4)  Норматив затрат на плановый текущий ремонт используемой техники в обоих случаях будет равен 5%. Формула для расчета:

РРЕМ = НРЕМ·ЦОТП/100,

где НРЕМ – норматив затрат на плановый текущий ремонт используемой новой техники, %;

ЦОТП – отпускная цена используемой  техники, ден. ед.

          Таблица 4.3 – Расчет эксплуатационных издержек при внедрении VDI

Наименование издержек

Расчет суммы эксплуатационных издержек, $

1. Заработная плата обслуживающего персонала с начислениями

ЗОбc = 1,3 ∙ 1чел ∙ 2112 ∙ 6$/ч. ∙ 1,2 ∙ 1,4 = 27 676$

2. Амортизационные отчисления

А = 108 136$ ∙ 0,03 = 3 244$

3. Затраты на потребляемую электроэнергию

РЭЛ = 1,3 кВт · ч ∙ 2 150 ч ∙ 0, 116$  = 324$

4. Затраты на текущий ремонт

РРЕМ = 108 136$ ∙ 0,05 = 5406$

Всего затрат

36 650$

          Таблица 4.4 – Расчет эксплуатационных издержек для стандартной инфраструктуры   

Наименование издержек

Расчет суммы эксплуатационных издержек, $

1. Заработная плата обслуживающего персонала с начислениями

ЗОбc = 1,3 ∙ 2чел ∙ 2112 ∙ 6$/ч. ∙ 1,2 ∙ 1,4 = 55 352$

2. Амортизационные отчисления

А = 85 000$ ∙ 0,15 = 12 750$

3.Затраты на потребляемую электроэнергию

РЭЛ = 25 кВт · ч ∙ 2 150 ч ∙ 0, 116$  = 6235$

4. Затраты на текущий ремонт

РРЕМ = 85 000$ ∙ 0,05 = 4250$

Всего затрат

78 587$

4.4 Оценка годовых приведенных затрат по сравниваемым вариантам

Расчет годовых затрат производиться по следующей формуле

Зг = Э + ΔКВ ∙ Еп , где Э - эксплуатационные издержки;

ΔКВ - прирост единовременных капитальных вложений;

Еп = 0,15.

Для VDI Зг1 = Э1 + ΔКВ1 ∙ Еп1= 36 650$ + 0,15 ∙ 108 136$ = 52 870$. Для стандартной сети Зг2 = Э2 + ΔКВ2 ∙ Еп2= 78 587$ + 0,15 ∙ 85 000$ = 91 337$.

Экономическая эффективность Эф.ср. = Зг2 - Зг1= 91 337$ - 52 870$ = 38467$.

5 ОБЕСПЕЧЕНИЕ БЕЗОПАСТНЫХ УСЛОВИЙ ТРУДА ИНЖЕНЕРОВ-РАЗРАБОТЧИКОВ НА ПРЕДПРИЯТИИ МАЛОГО БИЗНЕСА “НПП БЕЛСОФТ”

Целью данной дипломной работы является разработка корпоративной сети с внедрением технологии VDI в интересах ЗАО “НПП Белсофт”. В настоящем разделе рассматриваются вопросы связанные с обеспечением безопасных условий труда инженеров-разработчиков на предприятии малого бизнеса ЗАО “НПП Белсофт”. Таким образом, изложенные положения обеспечат безопасные условия труда.

Главным элементом рабочего места инженера-разработчика в ЗАО “НПП Белсофт” являются персональный компьютер. Как известно, при работе с компьютером человек подвергается воздействию ряда опасных и вредных производственных факторов: ВЧ-электромагнитных полей, инфракрасного и ионизирующего излучений, шума и вибрации, статического электричества. Для снижения вредного воздействия ЭВМ до пренебрежимо малого требуется соблюдение правильного режима труда и отдыха. В противном случае у персонала отмечаются значительное напряжение зрительного аппарата с появлением жалоб на неудовлетворенность работой, головные боли, раздражительность, нарушение сна, усталость и болезненные ощущения в глазах, в пояснице, в области шеи и руках. Все это приводит к снижению эффективности и является симптомами вреда, наносимого здоровью людей. Для предотвращения вредных последствий работы за ПК на предприятии “Белсофт” были выработаны следующие  нормы работы. При работе с персональным компьютером время регламентированного перерыва или работы не связанной с персональным компьютером должно быть 15 мин на каждый час работы. Работнику запрещается работать с персональным компьютером более 45 мин в час. Каждому работнику рекомендуется проводить комплекс упражнений для глаз. Упражнения выполняются сидя или стоя, отвернувшись от экрана, при ритмичном дыхании с максимальной амплитудой движения глаз. На счет 1 - 4 закрыть глаза, сильно напрягая глазные мышцы. На счет 1 - 6 раскрыть глаза, расслабив мышцы глаз, посмотреть вдаль. Повторить 4 - 5 раз. На счет 1 - 4 посмотреть на переносицу и задержать взор. До усталости глаза не доводить. На счет 1 - 6 открыть глаза, посмотреть вдаль. Повторить 4 - 5 раз. На счет 1 - 4, не поворачивая головы, посмотреть направо и зафиксировать взгляд. На счет 1 - 6 посмотреть прямо вдаль. Аналогичным образом проводятся упражнения, но с фиксацией взгляда влево, вверх и вниз. Повторить 3 - 4 раза. Быстро перевести взгляд по диагонали: направо вверх - налево вниз. Посмотреть прямо вдаль; затем налево - вверх, направо - вниз и посмотреть вдаль. Повторить 4 - 5 раз.

Режим труда на предприятии  “Белсофт”  неукоснительно соблюдается; при этом эффективность перерывов повышается при сочетании с производственной гимнастикой или организации специального помещения для отдыха персонала с удобной мягкой мебелью, аквариумом и т. п.

 

                        Рисунок 5.1- Комната отдыха в “Белсофт”

Рациональная планировка рабочего места на предприяии “Белсофт” предусматривает четкий порядок и постоянство размещения предметов, средств труда и документации. То, что требуется для выполнения работ чаще, расположено в зоне легкой досягаемости рабочего пространства.

        Рисунок 5.2- Рабочее место инженера-разработчика в “Белсофт”

Основным рабочим положением является положение сидя.  Рабочая поза сидя вызывает минимальное утомление.

             

          Рисунок 5.3- Правильное расположение за компьютером

Создание благоприятных условий труда и правильное эстетическое оформление рабочих мест имеет большое значение как для облегчения труда, так и для повышения его привлекательности, положительно влияющей на производительность труда.

Объем помещений, в которых размещены инженеры-разработчики на предприятии “Белсофт”, не меньше 19,5 м3/человека с учетом максимального числа одновременно работающих в смену.

Для обеспечения комфортных условий на предприятии “Белсофт” использованы как организационные методы (рациональная организация проведения работ в зависимости от времени года и суток, чередование труда и отдыха), так и технические средства (вентиляция, кондиционирование воздуха, современная отопительная система).

       Рисунок 5.4- Кондиционер и вентиляционная система в “Белсофт”

Окраска помещений и мебели создает благоприятные условия для зрительного восприятия, хорошего настроения. Источники света, такие как светильники и окна, которые дают отражение от поверхности экрана, значительно ухудшают точность знаков и влекут за собой помехи физиологического характера, которые могут выразиться в значительном напряжении, особенно при продолжительной работе. Поэтому отражение, включая отражения от вторичных источников света, сведено к минимуму. Для защиты от избыточной яркости окон применены жалюзи.

В помещении, где работают инженеры-разработчики, применяется система комбинированного освещения. Кроме того все поле зрения освещено достаточно равномерно – это основное гигиеническое требование. Иными словами, степень освещения помещения и яркость экрана компьютера примерно одинаковыми, т.к. яркий свет в районе периферийного зрения значительно увеличивает напряженность глаз и, как следствие, приводит к их быстрой утомляемости.

                    Рисунок 5.5- Рабочее помещение в Белсофт

Шум ухудшает условия труда, оказывая вредное действие на организм человека. Уровень шума на рабочем месте  не превышает 50 дБ. Сетевое оборудование, демо-оборудование и наиболее мощная вычислительная техника расположены в серверной.

                       Рисунок 5.6- Серверная комната в Белсофт

    На предприятии “Белсофт” работники выполняют трудовую дисциплину, требования охраны труда, правила личной гигиены, требования пожарной безопасности, знают порядок действий при пожаре, умеют применять первичные средства пожаротушения. Курение на предприятии разрешается только в специально предназначенном  месте на улице.

                                 Рисунок 5.7- Место для курения.

     Все работники предприятия обладают приемами оказания первой помощи при несчастных случаях. О неисправностях оборудования и других замечаниях по работе заблаговременно сообщают непосредственному руководителю или лицам, осуществляющим техническое обслуживание оборудования.


 

А также другие работы, которые могут Вас заинтересовать

77272. Мозжечок, его развитие, внешнее и внутреннее строение. Связи мозжечка с др отделами центральной нервной системы. Артерии мозжечка 232.24 KB
  Части: Средняя vermis Боковые hemispheri Поверхности: Fcies superior cerebelli посередине продольное возвышение – vermis superior Fcies inferior cerebelli посередине продольное возвышение – vermis inferior продольное углубление долина мозжечка vllecul cerebelli. Дольки червя: lingul cerebelli lobulus centrlis monticulus culmen declive folium cerebelli tuber vermis pyrmis vermis uvul vermis nodulus. Дольки полушарий: lobulus qudrngulris lobulus semilunris superior et inferior lobulus grcilis lobulus biventer tonsill...
77273. Спинно-мозжечковые пути 14.9 KB
  spinocerebellris posterior Идет в составе нижних ножек мозжечка. Заканчиваются на нейронах коры нижней части червя мозжечка.spinocerebellris nterior Идет в составе верхних ножек мозжечка. Заканчиваются на нейронах коры верхней части червя мозжечка.
77274. Средний мозг, его развитие, внешнее и внутреннее строение (отделы, ядра, тракты, полость) 120.39 KB
  Внутреннее строение: Серое вещество: substnti nigr чёрное вещество Земмеринга разграничивает bsis pedunculi cerebri вентральнее и tegmentum mesencephli дорсальнее содержит серое и белое вещество ножек мозга nucleus ruber на нём заканчиваются tr. striorubrlis nucleus interpedunculris межножковое непарное на нём заканчивается tr. hbenulointerpedunculris – поводковомежножковый путь предположительно одно из звеньев эфферентного вегетативного пути substnti grise centrlis: nucl. trigemini V ядра III nucl.
77275. Промежуточный мозг, его развитие, классификация, отделы и полость. Стенки полости 445.42 KB
  Таламический мозг: Thlmus Epithlmus Metthlmus Внешнее строение таламуса – зрительного бугра: tuberculum nterius pulvinr задний конец подушка stri terminlis – терминальная полоска разделяет thlmus зрительный бугор – и хвостатое ядро nucleus cudtus stri medullris мозговая полоска проходит на границе верхней и медиальной поверхностей зрительного бугра sulcus hypothlmicus sulcus limitns пограничная борозда – граница между отделами промежуточного мозга dhesio interthlmic соединяет зрительные бугры tel choroide – сосудистая...
77276. САМОКАЛИБРУЮЩАЯСЯ МАСШТАБИРУЕМАЯ СИСТЕМА ВВОДА ТРЁХМЕРНЫХ ЖЕСТОВ 62.5 KB
  Традиционные методы калибровки оптических камер требуют больших усилий со стороны пользователей и больших вычислительных ресурсов. Описываемый метод может работать в системах включающих в себя различные типы камер. Ключевые слова: калибровка оптические камеры алгоритм SCLBLE SELFCLIBRTING 3DGESTURE INPUT SYSTEM . Поэтому нами была разработана собственная технология основанная на единственной вебкамере и обыкновенном фонарике который пользователь держит в руке.
77277. Веб-ориентированная среда поддержки удаленного рендеринга и онлайн-визуализации 28.5 KB
  Классический подход к высокопроизводительным вычислениям подразумевает пакетное исполнение параллельных программ. При этом в определенных случаях практически ценным оказывается наблюдение за состоянием считающейся задачи и возможность управления ей. В простейшем варианте это может быть вывод в лог-файл по ходу счета значений переменных программы. Более сложные случаи требуют наличия специальной системы онлайн-визуализации для наблюдения и управления задачей.
77278. Задачи визуализации программного обеспечения параллельных и распределенных вычислений 4.55 MB
  Также рассматриваются проблема формализации и или верификации визуализации в том числе в рамках теории принятия решений. Приводятся примеры визуализации используемой в процессе разработки системного программного обеспечения нижнего уровня для современных процессоров с параллельной архитектурой. Использование визуализации в области параллельных вычислений началось примерно в это же время.
77279. TAG CLOUD FOR THE INFORMATION DATA FILTRATION 27.5 KB
  The ppliction of the theory of rough sets is considered to solve the problems of visuliztion nd processing of dt. The theory of rough sets cn be considered to be one of the wys of developing the Freges ide of uncertinty. In this pproch uncertinty is defined through the boundry of set. If our knowledge is not enough for strict definition of set then its boundry is not null otherwise the set is stndrd.
77280. THREAD EFFICENCY ON SHARED MEMORY SYSTEMS 22.5 KB
  Bkhterev IMM UrB RS It is trdition to think tht computtion decomposition into tsks executed in prllel on the shred memory systems is more effective with threds but not with processes. Usully this point of view grounds on tht the switching cpu execution context between processes is more expensive thn the switching between threds. If it is specified then it is execution context ssocited wit TLB Trnsltion Lookside Buffer which should be reset nd filled with new vlues when the processor is being switched between execution of different...