39640

ОРГАНИЗАЦИЯ КОРПОРАТИВНОЙ СЕТИ НА ОСНОВЕ ТЕХНОЛОГИИ VDI

Дипломная

Информатика, кибернетика и программирование

3 представлен гипервизор VMware ESXi который распределяет все ресурсы физического сервера на нужды виртуальных машин а точнее на нужды их гостевых операционных систем.3 – Сравнение стандартной платформы и платформы с гипервизором В виртуальную машину устанавливается стандартный набор драйверов производства VMware который встроен в ESXi. После этого ВМ будет совместима с любым сервером на котором установлен VMware ESXi. Наиболее популярные решения: Microsoft AppV Citrix XenApp VMware ThinApp.

Русский

2013-10-08

12.64 MB

110 чел.

СПИСОК УСЛОВНЫХ СОКРАЩЕНИЙ

AMD – Advanced Micro Devices

ATX – Advanced Technology Extended

ASA – Adaptive Security Appliance

CAL – Client Access License

CPU – Сentral processing unit

DAS – Direct-attached storage

DNS – Domain Name System

DTLS – Datagram Transport Layer Security

DRS – Distributed Resource Scheduler

DSN – data source name

DVI – Digital Visual Interface

EOP – Experience Optimized Protocol

FС – Fibre Channel

FTP – File Transfer Protocol 

HBA – Host Bus Adapter

HDX – High-Definition User Experience

HTTP – HyperText Transfer Protocol

ICA – Independent Computing Architecture

IDE – Integrated Development Environment

IOPS – Input/Output Operations Per Second  

IP – Internet protocol

IPsec – сокращение от IP Security

iSCSI – Internet Small Computer System Interface

LAN – Local Area Network

LUN – Logical Unit Number 

MAC – Media Access Control

NAS – Network Attached Storage

NAT – Network Address Translation

NFS – Network File System

ODBC – Open Database Connectivity

OU – Organizational Unit

VLAN – Virtual Local Area Network

PC – Personal Computer

PoE – Power over Ethernet

PTR-запись – от англ. pointer – указатель

PVST – Per-VLAN Spanning Tree Protocol

PCoIP – personal computer over internet protocol

QoS – Quality of Service

RAID – redundant array of independent disks

RDP – Remote Desktop Protocol 

RDCB – Remote Desktop Connection Broker

RDG – Remote Desktop Gateway

RDSH – Remote Desktop Session Host

RDVH – Remote Desktop Virtual Host

RDWA – Remote Desktop Web Access   

ROI – Return on Investment

SAS – Serial Attached SCSI

SATA – Serial ATA

SFP – Small Form-factor Pluggable

SPICE – Simple Protocol for Independent Computing Environments

SQL – Structured Query Language 

SSH – Secure SHell

SSL – Secure Socket Layer

TS – Terminal System

UDP – User Datagram Protocol

USB – Universal Serial Bus 

VDI – Virtual Desktop Infrastructure

VPN – Virtual Private Network 

VLAN – Virtual Local Area Network

ВМ – Виртуальная Машина

ИТ – Информационные Технологии

ОС  – Операционная Система

ПК – Персональный Компьютер

ПО – Программное Обеспечение

СКС – Структурированная Кабельная Система

СХД – Система Хранения Данных

ЦОД  – Центр Обработки Данных

                                                ВВЕДЕНИЕ

Настольные компьютеры являются основой любой инфраструктуры информационных технологий, однако, использование пользовательских персональных компьютеров вызывает ряд сложностей:

  •   большие операционные издержки на поддержку компьютерного парка;
  •  обеспечение пользователям безопасного и надежного доступа к программному обеспечению и приложениям необходимым для работы;
  •  техническое сопровождение пользователей;
  •  установка и обновление лицензий на программное обеспечение и техническое обслуживание;
  •  резервное копирование и т.д.

Поэтому компании находятся в поиске более экономичных и эффективных решений, не требующих при этом переобучения конечных пользователей.

Технология VDI – инфраструктура виртуальных рабочих столов, делает возможным создание виртуальной инфраструктуры, которая предоставляет высокоэффективные инструменты управления, не внося при этом заметных изменений в рабочий процесс пользователей. Технология VDI позволяет создавать виртуальные настольные персональные компьютеры, которые могут быть централизованно развернуты на базе одного сервера. Это обеспечивает снижение операционных издержек и повышение безопасности и не требует обучения конечных пользователей работе с новым интерфейсом. VDI – это решение,  обеспечивающее такие преимущества:

  •  минимизация издержек;

           –  экологичность бизнеса;

  •  гибкость управления.

           Благодаря VDI пользователи получают в свое распоряжение виртуальные персональные компьютеры, которые выглядят в точности как обычные персональные компьютеры, и с которыми можно работать не только в офисе, но и во время путешествия или из дома. Все данные и настройки пользователей хранятся на сервере, благодаря чему нет необходимости носить информацию с собой.

В плане оптимизации информационных технологий VDI позволяет консолидировать несколько серверов, обеспечивающих работу виртуальных персональных компьютеров, что приводит к значительному снижению издержек. Дополнительное сокращение издержек происходит также за счет централизованного управления и внедрения приложений и обновлений, а значит, снижения нагрузки на системных администраторов и отдел сопровождения пользователей.

В данной дипломной работе будут рассмотрены различные подходы виртуализации рабочих столов и общие принципы построения корпоративных сетей с внедрением VDI. Также будет проведен анализ рынка VDI решений различных производителей. На основании полученных данных будет сделан выбор оптимального VDI решения для корпоративной сети предприятия малого бизнеса с количеством компьютеров около ста. Цель дипломной работы – организация корпоративной сети с внедрением технологии VDI.  В дипломной работе будет обоснован выбор серверной и сетевой инфраструктуры, развернута платформа виртуализации с требуемым функционалом, произведена настройка выбранного программного VDI комплекса. Конечным итогом дипломной работы будет полностью функционирующая сеть с режимом доступа к рабочим станциям по технологии VDI, так называемое решение “под ключ”.

1 ПРИНЦИПЫ ПОСТРОЕНИЯ КОРПОРАТИВНЫХ СЕТЕЙ С              

  ВИРТУАЛИЗАЦИЕЙ ПЕРСОНАЛЬНЫХ КОМПЬЮТЕРОВ

1.1 Концепции построения современных корпоративных сетей

По мере развития компании обязательно возникают вопросы: создание максимально гибкой и эффективной системы управления предприятием, офисными площадками, создание единой системы документооборота, оперативного сбора информации и отчетов со складов и производственных площадок, централизация информационно-финансовых потоков и т.д. Правильное решение этих вопросов позволяет успешно управлять компанией в целом, делает её гибкой и динамично развивающейся. Мировой опыт крупных компаний и корпораций говорит о том, что решением данных вопросов является создание корпоративной сети передачи данных.

Корпоративная сеть — коммуникационная система, принадлежащая и/или управляемая единой организацией в соответствии с правилами этой организации. Решение использования корпоративной сети может быть актуальным не только для крупных фирм. Построение единой сети передачи данных дает фирмам следующие преимущества:

  •  единое информационное пространство;
  •  оперативность получения информации и возможность формирования консолидированных отчетов уровня предприятия;
  •  централизация финансовых и информационных потоков данных;
  •  возможность оперативного сбора и обработки информации;
  •  снижение затрат при использовании серверных решений;
  •  переход от решений для рабочих групп на решения уровня предприятия;
  •  возможность обработки мультимедиа потоков данных между офисными площадками;
  •  снижение затрат на связь между подразделениями фирмы, организация единого номерного пространства;
  •  возможность организации системы видеонаблюдения на основе IP-сети предприятия.

Корпоративная сеть - это сложная система, включающая в себя разнообразные компоненты: персональные компьютеры, личные ноутбуки сотрудников, серверное оборудование, системное и прикладное программное обеспечение, сетевые адаптеры, коммутаторы и маршрутизаторы, кабельную систему. Основная задача системных администраторов состоит в том, чтобы компоненты сети как можно лучше справлялась с обработкой потоков информации, циркулирующих между сотрудниками предприятия, и позволяла принимать им своевременные и рациональные решения.     Корпоративные сети передачи данных строятся на основе локальных вычислительных сетей. При построении локальных вычислительных сетей используется сетевое и серверное оборудование, связь которого обеспечивает структурированная кабельная система.

Структурированная кабельная система (СКС) — физическая основа информационной инфраструктуры предприятия, позволяющая свести в единую систему множество информационных сервисов разного назначения: локальные вычислительные и телефонные сети, системы безопасности, видеонаблюдения и т. д. СКС представляет собой иерархическую кабельную систему здания или группы зданий, разделённую на структурные подсистемы. Она состоит из набора медных и оптических кабелей, кросс-панелей, соединительных шнуров, кабельных разъёмов, модульных гнезд, информационных розеток и вспомогательного оборудования. Все перечисленные элементы интегрируются в единую систему и эксплуатируются согласно определённым правилам.

Сетевое и серверное оборудование располагается в телекоммуникационных шкафах или стойках. Серверное оборудование обеспечивает необходимый функционал корпоративной сети. Корректная настройка программного обеспечения, сервисов и приложений обеспечивает их высокую доступность и бесперебойность работы. Кирпичиком большинства современных ИТ-систем является отдельный сервер, на который установлена операционная система и соответствующий набор драйверов, а уже внутри ОС установлено приложение, например, файловый сервер.  В серверах есть индивидуальный набор комплектующих, из которых основными являются процессор, оперативная память, жесткие диски, различные карты расширения. Все эти ресурсы принадлежат установленной на сервере операционной системе. Она управляет запуском процессов, задействует или отключает доступное оборудование, распределяет всю доступную память между процессами, отправляет и принимает информацию через сетевые интерфейсы. Серверы предприятия взаимодействуют между собой через локальную сеть, в то же время, являясь отдельными ее компонентами. Таким образом, вся информация компании разнесена между серверами, как показано на рисунке 1.1.

Рисунок 1.1 – Взаимодействие серверов в сети

Иногда используется архитектура, включающая в себя системы хранения данных. На рисунке 1.2 представлены самые популярные типы СХД на данный момент:

  •   iSCSI – подключение происходит через локальную сеть, через стек TCP/IP, скорость 1 Gbit/s или 10Gbit/s;
  •  SAS – сервер соединяется с системой хранения данных по SAS кабелю, скорость 6 Gbit/s;
  •  FC – это оптическая сеть, скорость 4 Gbit/s или 8 Gbit/s.

         Рисунок 1.2 – Взаимодействие серверов и систем хранения данных

Для таких инфраструктур переход к виртуализации наиболее простой и мало затратный, т.к. докупить нужно будет только лицензии. Разница между двумя подходами заключается в том, что на чистый физический сервер устанавливается гипервизор, на котором уже создаются виртуальные машины. Таким образом, создается новый уровень взаимодействия (уровень виртуализации) между физическим сервером и операционными системами, которые установлены внутри виртуальных машин. На рисунке 1.3 представлен гипервизор VMware ESXi,  который распределяет все ресурсы физического сервера на нужды виртуальных машин, а точнее, на нужды их гостевых операционных систем.

Рисунок 1.3 – Сравнение стандартной платформы и платформы с     

                       гипервизором

В виртуальную машину устанавливается стандартный набор драйверов производства VMware, который встроен в ESXi. После этого ВМ будет совместима с любым сервером, на котором установлен VMware ESXi. Обычное копирование переносит виртуальную машину на совершенно другой по характеристикам и набору комплектующих сервер, она запустится и будет работать без каких либо конфликтов. Такого рода совместимость ВМ и любого физического сервера открывает ценные возможности, которые будут полезны для любой ИТ инфраструктуры без исключения.                      

 В таблице 1.1 описаны проблемы, возникающие в полностью физической инфраструктуре, которые можно решить с помощью технологий виртуализации.

Таблица 1.1 – Сравнительная характеристика решений с виртуализацией и  без виртуализации

1

2

Проблемы без виртуализации

Решение с виртуализацией

1. Большое количество серверов, выделяемое по принципу «каждому приложению отдельный сервер».

Это ведет к нехватке места в серверной комнате, покупке дополнительных источников бесперебойного питания, сетевого оборудования, более мощных систем охлаждения. 

Консолидация серверов. Запуск приложений внутри изолированных друг от друга виртуальных машин. Виртуальные машины могут работать на одном физическом сервере не вызывая конфликтов между собой. Средний показатель консолидации это 5:1, то есть пять физических серверов могут быть конвертированы в пять виртуальных машин и запущены на одном физическом сервере.

2. Низкая средняя загрузка физических серверов 5-10%. 

Современные приложения не способны сильно нагрузить мощные серверы, на которых они установлены. Получается, что большинство серверов работают в холостую.

Возможность запустить много разных виртуальных машин на одном физическом сервере, позволит вам контролировать потребление ресурсов серверов в вашей ИТ-инфраструктуре.

3. Крайне низкая скорость настройки и запуска  новых ИТ сервисов. 

Если под каждую новую бизнес задачу нужно покупать новое оборудование, то внедрение может затянуться на долгие месяцы, которые уйдут на бюрократические проволочки.

В виртуальной инфраструктуре почти всегда существует запас ресурсов, которые можно использовать для быстрого запуска новых сервисов.

4. Операционная система привязана к серверу, на который была установлена.

Определенный набор драйверов и специфические настройки не дают возможности перенести ОС на другой сервер без трудозатрат и простоев. А в случае аварии такая «привязка» может быть критичной.

Виртуальная машина может свободно перемещаться между серверами, т.к. она не привязана к какому-то конкретному "железу".

Продолжение таблицы 1.1

                       1

                       2

5. Низкий уровень отказоустойчивости. Долгое восстановление в случае аварии.

Если ОС установлена на локальные диски сервера, и он выходит из строя, то велика вероятность потери данных и совершенно точно будет простой в работе сервиса.

Технология высокой доступности перезапускает виртуальную машину на работоспособном сервере в случае аварии, пользователи могут вообще не заметить простоя сервиса, т.к. время простое будет равно времени перезагрузки виртуальной машины. Для работы технологии нужна внешняя система хранения данных.

6. Неудобное резервное копирование гетерогенных сред (Windows, Linux) долгое восстановление из резервных копий.

Виртуальные машины резервируются не на уровне операционных систем, а на уровне файлов ВМ. Поэтому разницы между бэкапом Windows и Linux нет никакой. При использовании дополнительных средств резервного копирования (например, Veeam Backup and Replication) восстановление из резервной копии равно времени запуска виртуальной машины. Также может быть использована функция репликации ВМ, которая создает в выбранном месте реплику (полный клон) виртуальной машины готовый к запуску в любой момент.

7. Каждый сервер управляется отдельно и требует персонального внимания администратора.

Все виртуальные машины управляются централизованно, через специальную программу.

Сетевое оборудование включает в себя коммутаторы, маршрутизаторы, точки доступа. В зависимости от размеров компании, ее потребностей в функционале, предоставляемом сетевым оборудованием, выбирается сетевая архитектура и виды коммутационного оборудования.

Наличие у небольших организаций территориально разнесенных площадок автоматически ставит вопрос о построении единой офисной сети. Даже, к примеру, наличие одного склада у организации, не включенного в единую корпоративную сеть, делает работу предприятия менее эффективной. А сведение в единую информационную сеть данных работы менеджеров с разных площадок делает работу более оперативной, позволяет равномерно распределить нагрузку между объединенными офисами.

Концепция корпоративной сети, как и любой другой сложной системы, со временем эволюционирует. Долгие годы развитие бизнес-процессов предприятий во многом сдерживалось технологическими ограничениями, но сейчас конвергентные IP-сети открыли дорогу для такого развития. В этой связи особый интерес для корпоративных заказчиков представляют решения, позволяющие перестраивать бизнес в соответствии с богатыми возможностями современных технологий. Они обеспечивают снижение расходов, повышение продуктивности работы, улучшают взаимодействие с партнерами и клиентами.

Современная сеть выходит далеко за рамки обычного подключения. Это стратегическое решение, которое разработано для оптимального удовлетворения сегодняшних потребностей и спроектировано с учетом будущих технологических достижений с одновременным обеспечением защиты инвестиций. Другими словами, современная сеть– это динамическая сеть, учитывающая современные тенденции развития мобильных технологий и облачных вычислений и меняющийся характер угроз. Она также представляет собой механизм предоставления услуг, который позволяет руководителям служб безопасности обеспечивать необходимую поддержку новых деловых начинаний.

Рассмотрим более подробно и сравним, как сеть, развернутая с наименьшими затратами, или традиционная сеть отличается от современной сети, обеспечивающей развитие бизнеса.

  •  Задача сети: единственной задачей традиционной сети является подключение пользователей к ИТ-ресурсам. Это было допустимо в 2005 г., когда пользователи находились за рабочими станциями, подключенными к портам Ethernet. Корпоративная сеть нового поколения представляет собой унифицированную сеть, объединяющую проводные, беспроводные, VPN-сети, и обеспечивает контроль доступа и потребления энергии.
  •  Безопасность: для традиционной сети не характерна интегрированная безопасность системы. Другими словами, безопасность обеспечивается при помощи специализированных решений, которые не всегда хорошо взаимодействуют друг с другом. В сетях нового поколения происходит интеграция функций безопасности объекта с облачной средой. Интеграция означает сокращение затрат на персонал и устранение недостатков в системе безопасности.
  •  Анализ приложений: традиционные сети не обладают возможностями анализа приложений и оконечных устройств. Они работают по принципу «данные – это всего лишь данные». Сеть нового поколения способна распознавать приложения и устройства. Она настраивается под предоставляемые приложения и устройства, которые их используют.
  •  Качество обслуживания: сегодняшние традиционные сети созданы на базовых стандартах качества обслуживания, которые могут оказаться недостаточными для передачи видео и виртуализации рабочих станций. Сеть нового поколения оснащена элементами управления, распознающими медиаданные, и поддерживает интеграцию речевых и видеоданных.
  •  Стандарты: традиционная сеть основана на стандартах, которые не предусматривают будущее развитие. Сеть нового поколения не только поддерживает современные стандарты, но и включает инновационные решения, которые станут стандартами в будущем.
  •  Гарантия: в традиционных сетях предоставляются ограниченные гарантии и техническая поддержка. Поставщики сетей нового поколения предоставляют гарантии и интеллектуальные сервисы с встроенными функциями управления.
  •  Стоимость приобретения: экономия на капитальных затратах может привести к увеличению эксплуатационных затрат из-за высоких расходов на интеграцию, увеличения времени простоя и серьезных проблем, связанных с безопасностью. В то время как поставщики традиционных сетевых решений преуменьшают эти расходы, поставщики сетей нового поколения применяют системный подход, который не только ведет к сокращению эксплуатационных затрат, но также обеспечивает улучшение ИТ-сервисов и создание новых возможностей для бизнеса.

Одним из главных барьеров стандартных корпоративных сетей для удовлетворения современных требований бизнеса  являются традиционные рабочие места, используемые в большинстве коммерческих компаний и на предприятиях госсектора, которые не отвечают современным требованиям к масштабируемости и управляемости. На рисунке 1.4 представлено развитие рабочих мест за последние пятьдесят лет.

 

                           

           Рисунок 1.4 – Эволюция рабочих мест

Персональные компьютеры неминуемо вызывают проблемы, связанные с техническим обслуживанием и реализацией единой политики информационной безопасности. В результате такая инфраструктура становится узким местом всей корпоративной информационной системы. Другой проблемой использования традиционных персональных компьютеров является постоянно растущие расходы на их эксплуатацию: управление, установка обновлений ПО, резервное копирование, техническая поддержка. Основную долю этих затрат составляют расходы на оплату ИТ-персонала. Фактически, эти расходы превышают затраты на приобретение оборудования, программного обеспечения и расходных материалов. Таким образом, снижается общая эффективность эксплуатации всего ИТ-комплекса предприятия. В связи с этим, возникает необходимость совершенствования технологической базы и снижения расходов на эксплуатацию компьютерного парка. И это во время, когда  современной задачей является создание объединенных систем, позволяющих уменьшить время, которое подразделения тратят на базовые операции, связанные с интеграцией сети, благодаря предоставлению набора сетевых услуг, которые расширяют возможности удовлетворения потребностей компании и пользователей. На рисунке 1.5 изображена структура стандартного рабочего места большинства компаний.

   Рисунок  1.5 – Рабочее место стандартного офиса

В тоже время есть альтернативный вариант – технология виртуальных рабочих столов. Виртуализация рабочих станций или виртуализация рабочих столов – это подход, при котором происходит разделение рабочей среды пользователя (ОС, приложения, данные) и физического устройства, на котором он привык работать (ПК, ноутбук). На рисунке 1.6 изображена структура стандартного рабочего места в архитектуре виртуальных рабочих столов.

   Рисунок 1.6 – Рабочее место  в архитектуре виртуальных рабочих  

                           столов

Благодаря данному подходу сотрудник больше не привязан к физическому рабочему месту в офисе, а может работать с привычными приложениями и данными с любого устройства (планшет, смартфон, тонкий клиент и т.д.) и из любого места (дома, в дороге, из гостиницы или из интернет-кафе). Виртуальные ПК, с которыми работают пользователи, не сильно отличаются от обычных персональных компьютеров. Однако данная технология позволяет держать всю необходимую для работы информацию под рукой в любом месте, где есть доступ к Интернету (дома, в деловых поездках, на отдыхе). Удалённая работа становится очень простой и комфортной. Вся информация из виртуального компьютера хранится в специальных дата-центрах. Это обеспечивает её гарантированную защиту от потери (все данные проходят процедуру автоматического резервного копирования), случайного или преднамеренного удаления, а также от доступа к ней посторонних лиц. Современный подход к построению рабочего места показан на рисунке 1.7.

   Рисунок  1.7 –  Современный подход к построению рабочего места

Обслуживание виртуальных рабочих столов  (в частности установка ПО, обновление приложений и т.д.) производится централизовано, что позволяет минимизировать временные затраты, а также значительно снизить нагрузку на системных администраторов. Также происходит экономия денежных средств на покупке лицензионного программного обеспечения для каждого компьютера и содержании дополнительного штата специалистов. Данная  архитектура делает доступными следующие сервисы, являющие ключевыми для  обеспечения возможности успешного развития бизнеса:

  •  Мобильность. Мобильность расширяет границы вашего бизнеса и помогает увеличить производительность сотрудников. Бизнес можно вести в любом месте, где имеется IP-сеть, а количество таких мест постоянно растет. А поскольку сотрудники все чаще используют личные устройства в качестве рабочих, можно перераспределить бюджетные средства, выделяемые на персональные и переносные компьютеры. Но с распространением мобильных решений крайне важно обеспечить постоянное управление пользователями, подключающимися к сети, независимо от того, какое подключение они используют – проводное, беспроводное или VPN. Сети, построенные с применением виртуальных  рабочих станций, объединяют управление пользователями и доступом в проводных и беспроводных сетях и при этом обеспечивают единые политики для всех видов доступа. Обеспечивается полная прозрачность подключений независимо от устройства, сети или расположения, и можно следить за соблюдением политик безопасности в рамках всех проводных и беспроводных сетей. Это позволит вашей компании пользоваться разнообразными преимуществами мобильности, не повышая при этом уязвимость перед новыми угрозами безопасности
  •  Обеспечение безопасности. Виртуализация рабочих столов по своей природе защищена лучше, поскольку данные и приложения фактически постоянно находятся в центре обработки данных, а не на устройстве конечного пользователя. Виртуализация, таким образом, обеспечивает защиту от утечек и потерь данных в результате умышленных хищений или аварий. Вместе с тем, настольная виртуализация также поднимает новые вопросы безопасности, потенциально затрагивающие и центр обработки данных, и конечного пользователя. В центре обработки данных предприятиям отныне приходится иметь дело с управлением доступом к виртуальным ресурсам на физических серверах со стороны пользователей и других виртуальных ресурсов.
  •   Гибкое управление рабочими станциями. В физической среде рабочая станция является либо вовсе не управляемой, либо управляется пользователями. Для установки нового приложения администраторы должны обойти все рабочие станции либо в прямом смысле, либо с помощью инструментов удаленного администрирования. В любом случае не избежать длительного процесса и отвлечения сотрудников от основной деятельности. В виртуальной среде мы можем создать полностью управляемые рабочие станции. Та же самая задача установки или обновления приложения решается следующим образом: администратор включает виртуальную машину с «золотым образом», один раз устанавливает на нее необходимые изменения/приложения, один раз тестирует и проверяет эти изменения/приложения, выключает виртуальную машину, ее средствами делает снимок виртуальной машины и нажимает кнопку запуска обновления. Вся операция может занять несколько минут в зависимости от сложности установки или обновления. А сами изменения применяются к пользовательским машинам автоматически, например, ночью. Также VDI выигрывает в том случае если пользователю нужно давать смешанный набор разных ОС или давать разные наборы ПО. Еще важное преимущество заключается в том, что администратор может выделять  пользователям ресурсы. Если кому-то нужно в определенное время больше оперативной памяти, то администратор может ее выделить. В остальное время отдать другим пользователям. При таком подходе существенно сокращается время простоя оборудования.
  •  Повышение отказоустойчивости. Возможность централизован-ного резервного копирования пользовательских данных. Для физических рабочих станций резервное копирование данных – ручная работа и администратор не в состоянии выполнять ее даже раз в неделю, не говоря уже о том, чтобы предоставить любому пользователю по требованию однодневный бэкап. Ежегодные расходы, связанные с потерей данных на персональных компьютерах в США, составляют $18,2 млрд. Средняя стоимость одного случая потери данных – $3957,70. По расчетам того же автора, ежегодная вероятность потери данных составляет примерно 6%. При этом мы не учитывали, что данные могут быть похищены вместе с ноутбуком сотрудника, а в этом случае ущерб может быть еще больше. При виртуализации рабочих станций важные данные находятся в центральном хранилище и надежно оберегаются.
  •  Уменьшение стоимости владения. При использовании виртуализации все корпоративные приложения запускаются на серверном оборудовании, поэтому администратор может, не сходя с места, решить любую проблему пользователя. Так же он может за минуты создавать новые рабочие места, добавлять и убирать необходимые корпоративные приложения. То, с чем раньше могли справиться 10 специалистов технической поддержки, теперь могут делать 2-ое. Также уменьшаются расходы на покупку новых рабочих станций на 40 %. На замену громоздким системным блокам под столами пользователей приходят современные моноблоки, тонкие клиенты и мобильные устройства. Заводская сборка этих устройств значительно уменьшает вероятность выхода из строя просто из-за того, что в них меньше механических частей, которые могут сломаться, поэтому и покупать их придется намного меньше, чем обычных системных блоков и комплектующих к ним. Тонкие клиенты не устаревают по прошествии времени, т.к. их не нужно менять и модернизировать для запуска новых ресурсоемких приложений. Тонкие клиенты потребляют на 90% меньше электроэнергии, чем обычные компьютеры. Если за 100 системных блоков в год обойдутся вам в 211 тысяч рублей (при потреблении компьютера 0,2 квт/ч), то 100 тонких клиентов всего в 12 тысяч (при потреблении 0,012 квт/ч).

           1.2 Обзор технологий виртуализации настольных рабочих столов

Виртуализация рабочих станций или виртуализация рабочих столов – это подход, при котором происходит разделение рабочей среды пользователя (ОС, приложения, данные) и физического устройства, на котором он привык работать (ПК, ноутбук). Благодаря данному подходу сотрудник больше не привязан к физическому рабочему месту в офисе, а может работать с привычными приложениями и данными с любого устройства (планшет, смартфон, тонкий клиент и т.д.) из любого места (дома, в дороге, из гостиницы).  В основе этого подхода лежит не одна конкретная технология, а совместное использование различных технологических решений в области клиентской виртуализации. 

В данном подразделе перечислены основные типы использующихся на данный момент технологий, однако ИТ, как известно, не стоит на месте и, возможно, уже завтра появится новый вариант виртуализации рабочих станций. Реалии же сегодняшнего дня таковы: нельзя забывать, что при подобном подходе привычные персональные компьютеры пользователей могут и будут подвергнуты изменениям. Если раньше от компьютера требовалось наличие достаточных вычислительные мощностей для работы бизнес-приложений, а также большое дисковое пространство для хранения пользовательских данных, то теперь, когда процессы происходят в виртуальном пространстве ЦОДов, в этом просто пропала необходимость. Наиболее популярными из них сегодня являются:

  •  Виртуализация представлений – классический терминальный доступ, предоставляющий серверную операционную систему (обычно, Windows Server 2008 R2 или 2012) нескольким пользователям в конкурентном режиме. Пользователь подключается к удаленному серверу, и работает со своим собственным пользовательским сеансов, который изолирован от сеансов других пользователей. В то же время общие ресурсы сервера остаются неабстрагированными. Это дает следующие преимущества:
  1.  Данные могут быть централизованы и надежно сохранены на центральном сервере, а не на нескольких настольных компьютерах. За счет этого повышается безопасность, поскольку информация не распределяется между различными системами. 
  2.  Кроме того, можно значительно сократить затраты на управление приложениями. Вместо обновления каждого приложения на каждом отдельно взятом компьютере необходимо изменить лишь одну общую копию на сервере. Виртуализация представлений также позволяет использовать более простые образы ОС и специализированные настольные компьютеры, называемые «тонкими» клиентами, что способствует снижению расходов на управление. 
  3.  Компании больше не должны беспокоиться о несовместимости приложений и установленной на компьютере ОС. Эта проблема может быть решена и за счет виртуализации настольных систем, но виртуализация представлений позволяет просто запустить приложение на центральном сервере, а затем сделать его доступным для клиентских компьютеров с любой ОС. 
  4.  В некоторых случаях виртуализация представлений может повысить производительность. Например, представьте себе клиент-серверное приложение, которое передает большое количество данных от центральной базы данных к клиентскому компьютеру. Низкая скорость соединения клиента и сервера или перегрузка канала связи приведет к медленной работе приложения. Одним из способов повышения производительности является запуск всего приложения (и клиентской, и серверной части) на компьютере с высокоскоростным подключением к базе данных, а затем с помощью виртуализации представлений это приложение можно сделать доступным для пользователей.

Наиболее популярные решения: Citrix XenApp, Microsoft RDS, QuestvWorkspace.

  •  Удаленная физическая рабочая станция (Blade PC) – мощная высокопроизводительная рабочая станция (часто с установленным графическим адаптером) в форм-факторе сервера, расположенная в ЦОД, и предоставляющая свои вычислительные ресурсы удаленным пользователям.
  •  Виртуализация приложений – доставка и выполнение приложений на виртуальных машинах, терминальный сервер или ПК без привычной установки программы в ОС. При виртуализации приложений программные средства, выполняемые на клиентской системе, обеспечивают поддержку виртуальных приложений. Уровень виртуализации клиента обеспечивает виртуальное приложение копией файловой системы соответствующей машины, предоставляет ему реестр и другие системные точки ввода-вывода. При выполнении виртуального приложения оно взаимодействует со средой виртуальной системы и не вносит никаких изменений в физический реестр и файловую систему подлинной базовой хост-системы. Технология виртуализации приложений позволяет нескольким приложениям, которые в обычных условиях конфликтуют друг с другом, выполняться на одной машине без каких-либо конфликтов, так как каждое приложение выполняется в своей виртуальной среде. К основным достоинствам виртуализации приложений стоит отнести:

             а) увеличивается уровень управляемости приложений;

             б) упрощается процесс развертывания приложений;

             в) сокращается время развертывания приложений;

             г) упрощается переход на новые версии ОС и приложений;

             д) приложения могут предоставляться как услуги.

Наиболее популярные решения: Microsoft App-V, Citrix XenApp, VMware ThinApp. 

и виртуализации приложений программные средства, выполняемые на клиентской системе, обеспечивают поддержку виртуальных приложений. Уровень виртуализации клиента обеспечивает виртуальное приложение копией файловой системы соответствующей машины, предоставляет ему реестр и другие системные точки ввода-вывода. При выполнении виртуального приложения оно взаимодействует со средой виртуальной системы и не вносит никаких изменений в физический реестр и файловую систему подлинной базовой хост-системы. Технология виртуализации приложений позволяет нескольким приложениям, которые в обычных условиях конфликтуют друг с другом, выполняться на одной машине без каких-либо конфликтов, так как каждое приложение выполняется в своей виртуальной среде. Подобным же образом, поскольку каждое виртуальное приложение выполняется в собственном пространстве, исчезает опасность возникновения «DLL-ада», когда при установке одного приложения осуществляется запись поверх файлов DLL, используемых другим приложением. Два основных продукта, реализующие технологию виртуализации приложений, — э. На рисунке 4 представлена общая схема виртуализации приложений.

  •  Развитие концепций виртуализации представления и виртуализации серверов, а также наращивание возможностей аппаратных платформ в виде множества ядер процессоров, больших объемов памяти, дисковых массивов и пропускной способности системной шины, привело к реализации возможности виртуализации рабочих станций. VDI – инфраструктура виртуальных рабочих столов, конкретная реализация подхода виртуальных рабочих станций, позволяющая запустить ОС пользователя внутри ВМ на сервере в ЦОД и работать с ней удаленно с любого устройства. Типовое решение для виртуализации рабочих  представлено на рисунке 1.8.

Рисунок 1.8 – Типовое  решение виртуализации  рабочих станций

Аппаратная инфраструктура – фундаментом решения являются серверы, использующиеся в качестве хостов виртуализации, на которых будут располагаться либо виртуальные машины, либо терминальные серверы для доступа к ним пользователей, системы хранения данных – для хранения дисков виртуальных машин и пользовательских данных, а также сетевая инфраструктура для обеспечения быстрой связи всех компонент.
              Платформа виртуализации – гипервизор, решение одного из лидеров этого рынка (Microsoft, VMware, Citrix), выбрать можно любое, исходя из личных соображений. Также не нужно забывать про то, что у всех вышеперечисленных производителей гипервизоров есть бесплатные редакции, обладающие достаточно обширным функционалом.

Программная инфраструктура VDI\TS представляет собой диспетчер соединений между пользователем и запрашиваемым ресурсом, а также обеспечивает поддержку большинства мобильных платформ (Android, iOS).

Клиентские устройства – в качестве конечных устройств могут использоваться практически любые устройства (ПК, планшеты, смартфоны и т.д.), но наиболее экономически выгодным вариантом на текущий момент является замена традиционных ПК на тонкие клиенты. Тонкие клиенты  поддерживают практически все известные на рынке инфраструктуры виртуализации рабочих станций (Microsoft, VMware, Citrix, Quest, Redhat), а так же возможность централизованного управления с помощью соответствующего ПО. Под поддержкой подразумевается наличие соответствующего протокола на стороне ТК (RDP, ICA\HDX, PCoIP (как программную, так и аппаратную реализацию), EOP, SPICE).
         Приложения — в качестве технологии виртуализации приложений можно использовать любые из существующих решений, такие как Microsoft App-V или VMware ThinApp. 

Как поясняет Microsoft, технология VDI является дальнейшим развитием терминальных решений. В отличие от классического подхода, при использовании VDI ресурсы сервера разделяются между пользователями не за счет создания сессий в среде одной операционной системы, а с помощью запуска виртуальных машин, интерфейс которых передается пользователям системы на ПК и тонкие клиенты. На рисунке 1.9 показано различие между терминальным доступом и технологией VDI.

Рисунок 1.9 - Сравнение терминального доступа и VDI 


        
Несмотря на более низкую плотность размещения пользователей на один сервер по сравнению с терминальными решениями VDI обеспечивает: использование клиентской ОС в терминальном режиме; наличие административных прав в терминальной среде для пользователя; возможность сохранения состояния рабочей среды и последующего возобновления работы; повышенную изоляцию пользовательских рабочих сред друг от друга, решающую вопросы нестабильности используемых приложений или возможные пики нагрузки на аппаратные ресурсы сервера, влияющие на других пользователей; перенос рабочей среды на локальный компьютер путем копирования виртуального жесткого диска. Также данный подход позволяет решать задачу — когда пользователю нужен разный набор ОС или разный набор ПО.  

               

           1.3 Обзор решений VDI различных производителей

           1.3.1 VMware View

VMware View – это комплекс средств для построения инфраструктуры виртуальных рабочих ПК (или виртуальных рабочих столов), позволяющий с различных устройств в любой момент получить доступ к рабочему столу из любой точки мира (при наличии доступа к Internet как клиента, так и инфраструктуры View). В зависимости от наличия разных компонентов, возможно большое количество опций, таких как локальный доступ к столу (без соединения с рабочим столом в конкретный момент времени), быстрое развертывание новых станций, режим аутентификации anonymous (безлимитное использование одного аккаунта неограниченным числом пользователей), гибкие политики и многое другое. Виртуализация рабочих станций может делиться на два больших блока:

  •  виртуализация рабочих столов;
  •  виртуализация приложений.

Два этих этапа могут проходить независимо друг от друга, а также в любом порядке, что позволит перейти на виртуальные машины довольно быстро и безболезненно для компании. На данный момент соединяться с VMware View можно посредством настольного ПК, рабочих станций, ноутбуков и нетбуков, большого спектра продукции Apple (MacBook’s, IPad, IPhone), тонких клиентов и нулевых клиентов, а также с помощью некоторых моделей Smartphone.

По своей сути, VMware View предоставляет  полностью функциональный пользовательский рабочий стол, который установлен не у сотрудника на ПК, а в серверной. Для виртуализации рабочих столов необходим продукт VMware View, представленный на рисунке 1.10, который включает в себя:

  •  VMware View Connection Server – это и есть основной сервер, который создает виртуальную среду для рабочих столов, а также обеспечивающий работу других компонентов View. Устанавливаться Connection Server может либо на отдельную физическую, либо на виртуальную машину;
  •  VMware View Composer – это компонент для создания так называемого “золотого образа” (Parent Image). На основе «золотого образа» будет происходить почти мгновенное развертывание необходимого нам количества столов. Устанавливается Composer на машину с VCenter Server;
  •  VMware View Transfer Server – продукт, который позволяет использовать режим local mode (режим локального использования рабочего стола без действующего соединения);
  •  VMware View Security Server – сервер, защищающий среду View от внешнего мира, простыми словами firewall для VMware View. Через View Security Server можно организовать доступ к виртуальным рабочим столам через интернет.

    

   Рисунок 1.10 –  Компоненты VMware View

Лицензируется VMware View по рабочим столам. Можно создать намного больше рабочих столов и записей пользователей, но использоваться в определенный момент времени можно только приобретенное количество виртуальных рабочих столов. В таблице 1.2 представлены редакции VMware View.

Таблица 1.2 Редакции VMware View

Функционал/Редакции

Enterprise

Premier

VMware vSphere

X

X

VMware vCenter Server

X

X

VMware View Connection Server

X

X

VMware View Composer

X

Клиент VMware View с поддержкой локального режима

X

VMware View Security Server

X

VMware ThinApp

X

При приобретении любой версии View пользователю предоставляются следующие компоненты:

  •  VMware Agent – устанавливается на ВМ, которую мы будем использовать в качестве рабочего стола;
  •  VMware Client – программа, с помощью которой нами будет произведено соединение с рабочим столом (если не применяются тонкие и нулевые клиенты);
  •  VMware View Administrator – универсальная веб-консоль, из под которой будет осуществлено управление инфраструктурой View (ярлык будет доступен по умолчанию на рабочем столе операционной системы, на которой установлен VMware View Connection Server).

Передача рабочего стола нашему клиенту может осуществляться по средствам двух протоколов: PCoIP и RDP. PCoIP применяется для быстрых сетей, где требуется шифрование данных. При слабом канале передачи данных, а также, если не требуется шифрование лучше выбрать RDP. Основное преимущество PCoIP перед RDP в том, что он выдает картинку стола сразу, а RDP использует построчное прорисовывание.

Для аутентификации в VMware View также существует поддержка SmartCard 1024 и 2048 бит (512 не поддерживается).

Также существует функция Location Based Printing, позволяющая привязать MAC-адреса клиентов к определенным принтерам, что упростит настройку печати.

При необходимости уехать в командировку, где ограничен доступ к интернет, View предлагает использование локального режима (local mode), который позволит перегрузить данные о машине на любой laptop или другое устройство и работать со своим рабочим столом вне зависимости от наличия связи. По возвращении данные синхронизируются и пработа продолжается уже с обычной машиной в ЦОДе.

Все настройки учетных записей, политики входа, настройка режимов и другие параметры управления View настраиваются с помощью службы Active Directory.

Для разных потребностей возможна настройка разных вариантов выдачи рабочего стола конечному пользователю:

  •  Dedicated mode  – режим жесткого назначения каждому пользователю его стола (применяется в компаниях, когда у каждого пользователя должна быть своя неизменная индивидуальная среда; места на жестком диске будет использоваться больше);
  •  Floating mode  – режим плавающих столов, когда пользователь может попасть на любой свободный стол (используется, когда все компьютеры обладают идентичными параметрами, а пользователям лишь необходимы определенные программы и свой профиль; это сэкономит место на диске;
  •  Multiple mode – используется для возможности входа на неограниченное число машин с одним логином/паролем (удобно в демонстрационных целях, чтобы не создавать постоянно новые учетные записи);
  •  Kiosk mode  – режим, позволяющий получать доступ с одного/нескольких заранее определённых физических устройств пользователям в режиме anonymous (например, платежный терминал).

           1.3.2 Citrix XenDesktop

Citrix XenDesktop предлагает полную систему доставки виртуальных десктопов, интегрируя нескольких распределенных компонентов с расширенными средствами настройки, которые упрощают создание инфраструктуры виртуальных десктопов и управление ею в режиме реального времени. На рисунке 1.11 представлены основные компоненты стандартного развертывания XenDesktop.

          Рисунок 1.11 – Компоненты Citrix XenDesktop

Основными компонентами XenDesktop являются следующие:

  •  Контроллер. Контроллер, устанавливаемый на серверах в центре обработки данных, состоит из служб, которые проверяют подлинность пользователей, управляют сборкой сред их виртуальных рабочих столов и являются брокером подключений пользователей к их виртуальным рабочим столам. Он контролирует состояние рабочих столов, запуская и останавливая их по запросу и в зависимости от административной конфигурации. В некоторых редакциях контроллер позволяет установить компонент управления профилем, чтобы управлять параметрами персонализации пользователя в виртуализованных или физических средах Windows.
  •  Virtual Desktop Agent. Установленный на виртуальных десктопах, этот агент обеспечивает прямые подключения ICA (Independent Computing Architecture) между виртуальным десктопом и пользовательскими устройствами.
  •  Citrix online plug-in. Онлайн-модуль Citrix, устанавливаемый на пользовательских устройствах, обеспечивает их непосредственные ICA-подключения к виртуальным рабочим столам.
  •  Службы создания машин. Набор служб, работающих совместно для создания по запросу виртуальных рабочих столов на основе главного образа рабочего стола. Это позволяет оптимизировать использование хранилища и предоставить каждому пользователю чистый виртуальный рабочий стол при каждом его входе в систему.
  •  Desktop Studio. Обеспечивает настройку и управление развертыванием XenDesktop. Desktop Studio предлагает различные мастера для выполнения процесса настройки среды, создания рабочих столов и их назначения пользователям. Desktop Director. Позволяет ИТ-персоналу по поддержке уровня 1 и 2 отслеживать развертывание XenDesktop и выполнять повседневные задачи по обслуживанию. Кроме того, для устранения неполадок можно просматривать и взаимодействовать с сеансом пользователя с помощью удаленного помощника (Microsoft).
  •  Citrix XenApp. В развертывании XenDesktop можно использовать XenApp для получения выгод от эффективных процессов, связанных с потоковым доступом к приложениям и виртуализацией. XenApp обеспечивает как пользователям, так и администраторам условия работы с приложениями, лучшие чем с установленными. Приложения быстрее запускаются, значительно повышается качество условий работы пользователя, и существенно снижены расходы на управление приложениями.
  •  Citrix XenServer. XenServer — это решение инфраструктуры виртуальных машин корпоративного класса, создающее основы для доставки виртуальных десктопов и предлагающее расширенные возможности управления. На XenServer можно запустить множество виртуальных машин благодаря преимуществу расширенных функций виртуализации в последних процессорах Intel и AMD с поддержкой виртуализации.

          XenDesktop предлагается в четырех редакциях:

  •  Platinum. Комплексное решение по виртуализации рабочих столов корпоративного класса с расширенными функциями управления и обеспечения безопасности, помимо возможностей редакции Enterprise Edition.
  •  Enterprise. Решение по виртуализации рабочих столов корпоративного класса с приложениями, предоставляемыми по запросу, и технологией доставки FlexCast, помимо возможностей редакции VDI Edition.
  •  VDI. Для масштабируемых реализаций инфраструктуры виртуальных рабочих столов (VDI) с использованием технологии Citrix HDX.
  •  Express. Бесплатная загрузка, призванная помочь профессионалам в сфере ИТ начать работу с VDI, поддерживающая до 10 пользователей.

XenDesktop  для клиента предлагается возможность выбора лицензирования  по пользователям или по устройствам. Это означает, что лицензированные пользователи могут иметь неограниченный доступ к устройствам, а к лицензированным устройствам получают доступ неограниченное количество пользователей. Такой подход обеспечивает клиентов максимальной гибкостью, а также улучшает согласование

лицензирования виртуализации рабочих мест Microsoft.
Пользователь
  – физическое лицо, авторизованное заказчиком к использованию любого устройства для доступа к серверу через единый пользовательский ID. Если пользователь подсоединяется к своему виртуальному рабочему столы или к приложениям через множество устройств (например, рабочий ПК, ноутбук, нетбук, смартфон и/или тонкий клиент), ему необходима лишь одна лицензия XenDesktop.

          Редакции Citrix XenDesktop, представлены в таблице 1.3.

Таблица 1.3 –  Редакции Citrix XenDesktop

1

2

3

4

Функции/Редакции

VDI

Enterprise

Platinum

Мультимедиа

X

X

X

3D

X

X

WAN-оптимизация

X

Удаленные ВМ (VDI )

X

X

X

Blade PC

X

X

X

Рабочий стол сервера

X

X

Подкачиваемые ВМ

X

X

Скачиваемые ВМ (offline)

X

Доставка приложений

X

X

Self-Service Enterprise App Store

X

X

Любой гипервизор

X

X

X

Любая система хранения данных

X

X

X

Управление образами ОС

X

X

X

Управление профайлами

X

X

X

Продолжение таблицы 1.3

1

2

3

4

Управление образами приложений

X

X

Безопасный удаленный доступ

X

X

X

Расширенный контроль доступа

X

Видеоаудит

X

Однократная аутентификация

X

Расширенное управление гипервизиром

X

X

Мониторинг работоспособности

X

X

ServerProvisioning

X

X

Мониторинг SLA и отчетность

X

        1.3.3 Microsoft VDI

        Microsoft VDI предоставляет пользователям легкий доступ к многофункциональной, качественной среде Windows, выполняемой в ЦОД, с любого устройства. Инфраструктура Microsoft VDI основана на новой версии ОС Windows Server 2012. Благодаря службам удаленных настольных компьютеров (RDS) и технологии Hyper-V в ОС Windows Server 2012 организации получают следующие преимущества: 

  •  Платформа. Windows Server 2012 обеспечивает единую платформу для предоставления любого типа размещаемых настольных компьютеров, благодаря чему упрощается их развертывание и управление.
  •  Взаимодействие с пользователем.  RemoteFX обеспечивает постоянное полнофункциональное взаимодействие с пользователем вне зависимости от типа виртуального настольного компьютера, или места, из которого пользователь получает доступ к нему.
  •  3 варианта развертывания. В RDS можно размещать настольные компьютеры на основе сеансов, объединенные в пулы ВМ и личные ВМ. Поэтому клиенты имеют возможность развернуть любой настольный компьютер VDI подходящего типа для своих пользователей с единой платформы.

Основными компонентами Microsoft VDI, представленными на рисунке 1.12 являются:

  •  Remote Desktop Web Access (RDWA)  – веб-доступ к удаленным рабочим столам разрешает пользователям доступ к подключению к удаленным рабочим столам и удаленным приложениям RemoteApp через меню Пуск на компьютере, работающем под управлением Windows 8 или Windows 7, либо через веб-браузер. Подключение к удаленным рабочим столам и приложениям RemoteApp предоставляет настраиваемое представление удаленных приложений RemoteApp и рабочих столов на основе сеансов в коллекции сеансов, а также удаленных приложений RemoteApp и виртуальных рабочих столов в коллекции виртуальных рабочих столов.
  •   Remote Desktop Gateway (RDG) – шлюз удаленных рабочих столов (шлюз RD) позволяет авторизованным пользователям подключаться к виртуальным рабочим столам, удаленным приложениям RemoteApp и рабочим столам на основе сеансов во внутренней корпоративной сети с помощью любого устройства, подключенного к Интернету.
  •   Remote Desktop Session Host (RDSH) – узел сеансов удаленных рабочих столов позволяет серверу размещать удаленные приложения RemoteApp или рабочие столы на основе сеансов. Пользователи могут подключаться к серверам узла сеансов удаленных рабочих столов в коллекции сеансов, чтобы выполнять программы, сохранять файлы и использовать ресурсы на этих серверах. Проще говоря, это управлялка службами терминалов. У VMware аналогов нет.
  •  Remote Desktop Virtual Host (RDVH)  – узел виртуализации удаленных рабочих столов объединяется с Hyper-V для развертывания коллекций помещенных в пул или личных виртуальных рабочих столов в организации с помощью подключения к удаленным рабочим столам и приложениям RemoteApp.
  •   Licensing Server  – лицензирование удаленных рабочих столов управляет лицензиями, необходимыми для подключения к серверу узла сеансов удаленных рабочих столов или к виртуальному рабочему столу. Лицензирование удаленных рабочих столов можно использовать для установки, выдачи и отслеживания доступности лицензий.
  •  Remote Desktop Connection Broker (RDCB) – собственно система управления подключениями.

      Рисунок 1.12 – Компоненты Microsoft VDI

Microsoft VDI предлагается в двух редакциях: VDI Standard Suite и VDI Premium Suite. VDI Suite Standard позволяет доступ к Remote Desktop Services прямым или косвенным образом с устройства, лицензированного для VDI, кроме случаев доступа по RDS к Windows Server для работы с его графическим интерфейсом — как с VDI устройства, так и с виртуальной машины, запущенной на сервере VDI. При доступе через RDS к клиентским ОС с устройства VDI или с виртуальной машины, не требуется отдельная RDS CAL. Для использования клиентскими ОС служб, представляемых Windows Server, потребуется иметь Windows Server CAL на оба этих устройства или на пользователя. При использовании VDI Suite Prеmium  предоставляются дополнительные возможности:

  •  Remote Desktop Services.  Права доступа к Windows Server — как с устройства VDI, так и с виртуальной машины на сервере VDI. Лицензии RDS CAL для этого уже не требуется. Оба устройства, или пользователь при этом всё равно должны иметь Windows Server CAL, если используются службы AD, DHCP или DNS на Windows Server.
  •  Application Virtualization for Remote Desktop Services. Каждая лицензия VDI Suite Premium включает в себя те же права, что и лицензия APP-V для RDS. Вы можете использовать эту технологию на вашем сервере VDI и получать к ней доступ с устройств VDI, к которым вы привязали лицензию VDI Suite Premium. Вам не требуется покупать отдельную лицензию APP-V for RDS CAL для тех устройств VDI, к которым привязана VDI Suite Premium. Требование на Windows Server CAL для каждого устройства или каждого пользователя остается в силе.
  •  Перепривязка лицензий VDI Suite.  Для VDI Premium Suite работает право, позволяющее перепривязать лицензию VDI Suite Premium с одного устройства VDI на другое на длительный срок (не чаще чем раз в 90 дней). Есть возможность на перепривязку лицензии VDI Suite Premium к другому устройству и в более ранний срок, если ваше ранее лицензированное устройство VDI вышло из строя и не будет более использоваться в инфраструктуре.

  1.3.4  Citrix VDI-in-a-Box

Citrix  VDI-in-a-Box представляет собой решение «все-в-одном», которое обеспечивает виртуальные рабочие столы за цену меньшую, чем стоимость ПК. Решение VDI-in-a-Box доступно в виде виртуального устройства, которое работает на базе стандартных серверов и устраняет необходимость в дорогостоящей инфраструктуре центра обработки данных. Работая на базе Citrix HDX, VDI-in-a-Box обеспечивает пользователям отличное качество работы в любое время, в любом месте и с любого устройства. Решение предназначено для рабочего стола ИТ. VDI-in-a-Box обеспечивает немедленную доходность инвестированного капитала (ROI), будучи проще и дешевле в установке и управлении, чем ПК. VDI-in-a-Box – универсальное легко внедряемое решение «все-в-одном», упрощающее использование VDI благодаря инновационной конструкции, которая не требует:

  •  отдельных брокеров соединений;
  •  средств балансировки нагрузки;
  •  серверов доставки;
  •  дорогостоящих  СХД с общим доступом.

Сравнение стандартного VDI-решения и VDI-in-a-box представлено на рисунке 1.13.

           Рисунок 1.13 – Сравнение стандартного VDI-решения и VDI-in-a-box

       1.4    Принцип построения  VDI

           1.4.1 Общий принцип построения инфраструктуры

Принцип построения инфраструктуры, представленный на

рисунке  1.14, в большинстве случаев одинаков и состоит из следующих компонентов:

  •  базовым компонентом инфраструктуры является решение серверной виртуализации. Данный функционал обеспечивается за счет решений VMware vSphere, Microsoft Hyper-V и Citrix XenServer. Они обеспечивают запуск и выполнение виртуальных машин клиентских рабочих столов;
  •  управление платформой виртуализации осуществляется посредством специальных программных продуктов, например, Microsoft System Center Virtual Machine Manager, VMware vCenter, XenCenter от Citrix;
  •  решения Citrix XenDesktop, Microsoft Remote Desktop Services, VMware View позволяют доставлять виртуальные ПК пользователей на любые устройства;
  •  на устройствах пользователей стоит агент, который обеспечивает доступ к ПК. В качестве клиентского можно использовать ПК, тонкие клиенты, планшеты iPad и другие устройства;
  •  встроенный в архитектуру специальный брокер соединений обеспечивает доступ клиентских устройств к серверам и данным, что позволяет переносить виртуальные рабочие станции между физическими серверами для балансировки нагрузки или обеспечения работы пользователей при выходе сервера из строя.

        Рисунок 1.14 – Архитектура VDI-решения

        Для построения VDI инфраструктуры необходимо:

  •   первое и самое важное — это оборудование. Его можно разделить на следующие пункты:

вычислительные мощности – это серверы (или лезвия), находящиеся в них процессоры, оперативная память, карты расширения и т.д., за исключение жестких дисков;

  1.  дисковая подсистема – имеется ввиду Система Хранения Данных (одна или несколько), на которой централизованно и будут храниться все данные;
  2.  коммутационное оборудование, такое как Switsh-и (сетевые LAN, оптические FC, SAS…),  балансировщики нагрузки и т.д.;
  •  вторая составляющая проекта – это всегда лицензии. Обычно, это лицензии на саму платформу виртуализации (VMware vSphere, Citrix XenServer, Microsoft Hyper-V), на программная инфраструктура VDI\TS (Citrix XenDesktop, Microsoft Remote Desktop Services, VMware View) и на гостевые операционные системы виртуальных машин, в основном Windows 2008 server;
  •  третью часть расходов составляют работы по внедрению. Иногда заказчики справляются своими силами, иногда просят сделать «под ключ».

         

           1.4.2 Оборудование для построения VDI

1.4.2.1 Серверы или, по-другому, вычислительные мощности. Их можно разделить по следующим типам:

  •  однопроцессорные серверы, самый недорогой вариант. Стоимость начинается от 1000$. Здесь вы не найдете мощных процессоров и большого количества слотов под оперативную память. Такие серверы обычно покупаются при недостатке финансирования или под задачи, которые не требуют значительных ресурсов. С точки зрения виртуализации серверов и рабочих станций, это не самый лучший вариант, т.к. мощности такого сервера скорее всего не хватит на большое число виртуальных машин;
  •  двухпроцессорные серверы  – это наиболее подходящее оборудование для виртуализации небольшой компании. Стоимость начинается от 2000$ в базовой комплектации с одним процессором. Например, VMware в своих решениях для малого бизнеса лицензирует свои продукты по количеству двухпроцессорных серверов в компании;
  •  четырехпроцессорные серверы – используются для ресурсоемких приложений, таких как базы данных. Цена таких серверов стартует с отметки 17 000$. Еще раз уточню, что такие серверы имеет смыл покупать, если у вас в компании есть приложения, которым для работы не хватает мощности двух процессоров;
  •  блейд-сервер  – идеальное решение для виртуализации, в основном, из-за своей архитектуры. Стоимость укомплектованного блейд-шасси с тремя двухпроцессорными лезвиями составляет от 17 000$.

 1.4.2.2 СХД — это дисковая система, которая вынесена за пределы сервера. Файлы виртуальных машин на ней хранятся централизованно. Именно поэтому на каждом сервере (хосте) можно запустить любую из имеющихся виртуальных машин. Разделить Системы Хранения начального уровня можно по типу подключения к серверам (хостам):

  •  iSCSI – протокол передачи информации по TCP/IP LAN сети, т.е. через обычный 1Gbit/s гигабитный коммутатор. У многих производителей есть варианты объединения портов (агрегация) для повышения их производительности. Например, из трех гигабитных портов можно программно сделать один трехгигабитный. Есть поддержка и 10Gbit сетей, но из-за дороговизны их применяют редко;
  •  SAS – непосредственное подключение СХД и серверов через SAS кабель или через специальный SAS коммутатор. Скорость подключения 6Gbit/s;
  •  FC – соединение серверов (хостов) и системы хранения данных по оптическим каналам. Скорость 8 Gbit/s, 4 Gbit/s в зависимости от FC HBA карт в сервере. Это самый дорогой способ подключения серверов к СХД.

Особое внимание в системах хранения уделяется отказоустойчивости, для ее повышения все аппаратные компоненты в СХД дублируются. Но, несмотря на это, существуют одно контроллерные варианты, стоимость их где-то на 1000$ меньше, чем двух контроллерных.

1.4.2.3 Коммутационное оборудование. Задача коммутации заключается в том, чтобы связать виртуальные машины с внутренней сетью LAN и соединить серверы и системы хранения данных. Если первая часть не вызывает у администраторов большой сложности, то вторая – это что-то новое, ее и разберем. Как было сказано выше, у СХД есть три вида подключения: iSCSI, SAS, FC. Нужно изначально планировать архитектуру подключения так, чтобы она была отказоустойчивой. У каждого сервера (хоста) должен быть доступ к файлам виртуальных машин как минимум по двум независимым путям, только в этом случае, исключается единая точка отказа. Какое коммутационное оборудование нужно купить чтобы:

  •  настроить отказоустойчивую сеть передачи данных на iSCSI;
  •  настроить отказоустойчивую сеть передачи данных на SAS;
  •  настроить отказоустойчивую сеть передачи данных на FC.

1.4.2.4 Питание и охлаждение. Мало купить все необходимое оборудование и правильно его скоммунтировать, еще нужно обеспечить оптимальные условия эксплуатации. В серверной комнате должна быть температура примерно 18 градусов Цельсия. Конденсат с кондиционера не должен капать на шкаф с серверами. Система должна выдерживать перепады напряжения и периодические отключения электропитания. В случае отключения электричества виртуальные машины по заранее отработанному плану должны штатно выключиться, чтобы избежать потери данных.

          1.4.3 Платформа виртуализации

          Гипервизор  – основа динамической виртуализированной  ИТ-инфраструктуры. Гипервизор – служебное программное обеспечение, реализующее  уровень виртуализации и разделяющее системные ресурсы (процессоры, память, платы ввода\вывода) на несколько виртуальных машин. Современный гипервизор должен отвечать следующим требованиям: устанавливаться на “голое железо”, обеспечивать минимальный уровень накладных расходов на виртуализацию, уметь работать с многоядерными многопроцессорными системами.

Одна из важнейших задач виртуализации – обеспечение высокой доступности информационных сервисов, работающих на виртуальных машинах. Данный функционал в случае аппаратного или программного сбоя  на сервере обеспечивает  перезапуск  затронутой сбоем виртуальной машины на любом сервере, располагающем достаточным количеством ресурсов.  Применение такого подхода не требует дорогостоящего дублирования ресурсов и не зависит от конфигурации оборудования, версий операционной системы и т.д.

“Живая” миграция позволяет перемещать работающие виртуальные машины с одного физического сервера на другой, обеспечивая тем самым возможность обслуживания оборудования без прерывания работы информационных сервисов. Обеспечивает “горячий” перенос образов виртуальных машин как между массивами, так и между логическими разделами в пределах одного хранилища. Такая возможность позволяет выполнять профилактические работы с СХД, выполнять миграцию, обновление и вывод из эксплуатации массивов без прерывания работы виртуальных машин. Интеллектуальные функции переноса виртуальных машин динамически распределяют и балансируют нагрузку среди набора аппаратных средств, объединенных в единый логический пул ресурсов. Данный инструмент отслеживает нагрузку в виртуализированной инфраструктуре и оперативно перераспределяет ресурсы  в соответствии с бизнес-приоритетами для максимального эффективного их использования. Дополнительным преимуществом этого функционала можно назвать возможность высвобождения и выключения некоторых серверов в часы минимальной загрузки с целью экономии электроэнергии.

Централизованные инструменты управления  обеспечивают централизованное управление виртуализированной средой, автоматизацию процессов и эффективную оптимизацию ресурсов. Эти возможности обеспечивают беспрецедентный уровень простоты эксплуатации, эффективность и надежность работы ИТ-инфраструктуры. Дополнительным плюсом является наличие открытых программных интерфейсов, обеспечивающих интеграцию с продуктами для управления инфраструктурой других производителей, а также разработку собственных специализированных решений.

В масштабных виртуализированных средах интегрированные инструменты обновления просто незаменимы. Они обеспечивают централизованное управление процедурами обновления программного обеспечения как на физических серверах, так и на виртуальных машинах, обеспечивая тем самым безопасность и стабильность работы систем.

Платформа виртуализации для развертывания инфраструктуры VDI должна обладать функционалом для его использования не только в лабораторных целях, но и в ИТ-структуре действующего предприятия. Перечень основных функций и возможностей, которые должен поддерживать гипервизор для внедрения VDI:

  •  поддержка Windows и Linux в качестве гостевых операционных систем;
  •  поддержка до 8 виртуальных процессоров в виртуальной машине;
  •  поддержка до 7 виртуальных жестких дисков для гостевых машин;
  •  поддержка одного виртуального CD-ROM;
  •  поддержка до 7 виртуальных сетевых интерфейсов;
  •  поддержка до 6 физических сетевых интерфейсов на сервер (возможно использование 6 объединенных пар сетевых интерфейсов);
  •  поддержка виртуальных сетей (VLAN);
  •  поддержка неограниченного количества физических серверов в пуле, виртуальных машин и памяти;
  •  конвертер из физической среды в виртуальную для Windows и Linux-систем (P2V-конвертер);
  •  поддержка широкого спектра хранилищ данных (IDE, SATA, SCSI, SAS, DAS, Fibre Channel, iSCSI, NFS);
  •  централизованное управление пулом физических серверов из единой консоли управления;
  •  возможность перемещения виртуальных машин с одного физического сервера на другой без остановки виртуальной машины (XenMotion) при использовании сетевого хранилища данных;
  •  использование шаблонов для создания виртуальных машин;
  •  тонкая настройка использования процессорных мощностей;
  •  горячее подключение/отключение виртуальных жестких дисков и виртуальных сетевых адаптеров;
  •  создание мгновенных снимков виртуальных машин;
  •  возможность создания виртуальных машин из заранее подготовленных шаблонов и их клонирования.

Следует отметить, что  интересен не столько  функционал гипервизора (Vmware ESXi неоспоримый лидер в этом компоненте), как поддержка выбранной программной инфраструктуры VDI\TS. Немаловажным фактором также является функционал бесплатной версии и политика лицензирования.

            1.4.4 Программная инфраструктура VDI\TS

 Программная инфраструктура VDI\TS (Citrix XenDesktop, Microsoft Remote Desktop Services, VMware View) – это комплекс средств для построения инфраструктуры виртуальных рабочих ПК (или виртуальных рабочих столов), позволяющий с различных устройств в любой момент получить доступ к рабочему столу из любой точки мира (при наличии доступа к Internet как клиента, так и инфраструктуры VDI). В зависимости от наличия разных компонентов, возможно большое количество опций, таких как локальный доступ к столу (без соединения с рабочим столом в конкретный момент времени), быстрое развертывание новых станций, режим аутентификации anonymous (безлимитное использование одного аккаунта неограниченным числом пользователей), гибкие политики и многое другое.

Неоспоримыми лидерами на рынке в данный момент являются Citrix XenDesktop и VMware View. Эти два решения обеспечивают наиболее полный функционал из решений, представленных на рынке VDI. Перечень основных функций и возможностей, которые должна поддерживать программная инфраструктура VDI\TS:

  •  возможность получать доступ к виртуальным рабочим столам со смартфонов, ноутбуков, продуктов компании Apple, тонких клиентов;
  •  поддержка встроенных аудио и видео устройств, как встроенных так и внешних;
  •  подключение USB-устройств;
  •  поддержка 3D графики;
  •  технологии экономии трафика;
  •  технологии экономии места на жестком диске;
  •  поддержка принтеров;
  •  мощный инструмент для возможности контролирования пользователей;
  •  мощный инструмент для управления всей инфраструктурой;

Citrix XenDesktop и VMware View два наиболее ярко выделяющихся продукта, которые зарекомендовали себя на рынке, как качественные решения. Существенных различий  у этих двух продуктов нет. Для реализации проекта была выбрана инфраструктура VMware View по следующим причинам:

  •  удовлетворяет всем условиям, описанным выше, в данном пункте;
  •  более простое развертывание по сравнению с Citrix XenDesktop[1];
  •  протокол PCoIP является более производительным по сравнению с протоколом RDP в решении Microsoft VDI;
  •  меньшая цена в расчете на одну виртуальную рабочую станцию в сравнении с Citrix XenDesktop[1];
  •  наличие мощной системы управления всей виртуальной инфраструктуры;
  •  наличие интеграторов в нашей стране занимающихся внедрением продукции VMware, которые могут провести консультацию и техническую поддержку;
  •  наличие огромной базы огромной базы технической документации на продукты VMware, в том числе и на русском языке.

           Платформой виртуализации будет выбран VMware ESXi, поскольку его Enterprise-версия входит в редакции продукта VMware View. Также данный гипервизор удовлетворяет всем требованиям, перечисленным в подразделе 1.4.3.

1.4.5 Клиенты для доступа к виртуальным рабочим столам 

Клиенты для доступа к виртуальным рабочим столам VDI делятся на два типа: нулевые и тонкие.

Главное отличие нулевых клиентов от тонких заключается в том, что нулевые клиенты в общем случае не содержат операционную систему, а взаимодействие с VDI идет по протоколу PCoIP или другим проприетарным протоколам.

Тонкий клиент имеет установленную операционную систему, например, Linux или Windows Embedded, служащую для запуска программного клиента. Тонкий клиент имеет все атрибуты, присущие обычной рабочей станции, за исключением, в подавляющем большинстве случаев, подвижных элементов: вентиляторов охлаждения, жестких дисков.

Есть два основных направления, по которым развиваются нулевые клиенты. Первая группа – нулевые клиенты, построенные на чипе Teradici. Teradici – компания-разработчик протокола PCoIP. В нулевых клиентах, построенных на этом чипе, находится аппаратный обработчик протокола PCoIP, поэтому такие нулевые клиенты демонстрируют наилучшие показатели производительности видео, среди устройств, работающих по протоколу PCoIP. К достоинствам таких нулевых клиентов относится простота использования, высокая производительность. К недостаткам – узкая специализация, такие клиенты не поддерживают RDP и другие протоколы. Нулевые клиенты на базе Teradici – отличное решение для тех компаний, которые точно определились, что будет использоваться VMware View.

Клиенты Pano Logig самые нулевые из нулевых. Отличное решение для минималистов (или наоборот, максималистов: выкидывать из устройства компоненты, так по максимуму). Эти нулевые клиенты не содержат процессора, памяти – почти ничего. Построены они на базе ПЛИС FPGA – обработчике собственного протокола передачи видео изображения. Этот протокол оптимизирован для передачи данных по локальной сети и обеспечивает наивысшую производительность при работе с видео, не нагружая сервер кодированием/декодированием видео.

К достоинствам таких клиентов относится низкое энергопотребление, простота использования, широкий спектр применения. Такие клиенты работают по собственному протоколу и требуют установки дополнительного агента на виртуальную машину, для обеспечения коммуникаций. К недостаткам решения можно отнести необходимость установки дополнительного ПО в виртуальную машину, невозможность перепрограммировать устройство по мере выхода более развитых средств взаимодействия, в том числе и от самого Pano Logic. Микросхема FPGA жестко запрограммирована и обновить микропрограмму не получится.

Тонкие клиенты – это мини компьютеры, на которых установлена в той или иной мере специализированная операционная система, например SUSE Linux или Windows 7 Embedded. А клиент доступа является программным. Самый широкий спектр производителей выпускают такие устройства. Главным параметром тонкого клиента является его универсальность. Они могут поддерживать протоколы PCoIP, RDP и другие. Подавляющее большинство тонких клиентов не содержат движущихся элементов, и здесь самое главное, выбрать устройство из большинства и случайно не наткнуться на модели с активным охлаждением. Большинство тонких клиентов можно хорошо приспособить к работе не только пользователей, но и администраторов. Системная консоль может содержать возможность доступа к устройствам по SSH или через браузер. От нулевых клиентов ожидать такой гибкости не приходится. В ущерб широким возможностям приносится производительность. Для клиентов, не требовательных к качеству отображения видео, не работающих с графикой, видео, не решающих инженерные задачи, такого уровня взаимодействия с виртуальным рабочим столом будет вполне достаточно.

К достоинствам тонких клиентов относится гибкость и возможность решения задач администрирования. К недостаткам стоит отнести низкую, по сравнению с аппаратными решениями, производительность графического интерфейса. Существует, также отдельный тип тонких клиентов – программные. Например, Wyse PC Extender, который превращает обычный устаревающий ПК в тонкий клиент с возможностью централизованного управления. Такое решение сможет продлить срок службы ПК и обеспечить плавный переход на специализированные тонкие или нулевые клиенты. На рисунке 1.15 представлено сравнение различных типов клиентов.

           Рисунок 11.5– Сравнение различных клиентов

При выборе тонкого клиента необходимо решить:

  •  какое решение VDI будет использоваться;
  •  насколько важна производительность отображения элементов виртуального рабочего стола: будут ли задачи, связанные с видео, фото, 3d, моделированием и прочим;
  •  желаемый уровень автоматизации настройки устройств, например, подключил и забыл. Некоторые устройства могут получать настройки через FTP, а некоторые требуют для автоматизации настроек платных систем управления;

    

      

      2 РАЗРАБОТКА КОРПОРАТИВНОЙ СЕТИ НА ОСНОВЕ

         ТЕХНОЛОГИИ VDI

    2.1 Расчет аппаратной части для реализации проекта на базе решения    

          VMware View

Требованиями к решению VDI:

  •  начальная конфигурация — 80 пользователей, с расширением

до 100;

  •  операционная система — Windows 7x32;
  •  программное обеспечение  —  Microsoft Office, Mozilla Firefox;
  •  среда виртуализации VMware;
  •  высокая степень отказоустойчивости.

Нужно посчитать, какое количество серверов и систем хранения будет в составе решения. Требуется рассчитать следующие параметры:

  •  CPU;
  •  оперативную память;
  •  параметры системы хранения;
  •  параметры сети.

            2.1.1 Расчет CPU

На каждое ядро серверного процессора, согласно рекомендациям Vmware[2], необходимо 5 рабочих станций. Если требуется 100 рабочих станций, то 100/5 = 20 ядер. 20/6 = 4 процессора, т.е. для работы нужно 2 двухпроцессорных сервера с шестиядерными CPU.  В случае выхода из строя одного из серверов (авария) все 100 виртуальных машин должны иметь возможность нормальной работы на втором сервере, для этого ресурсов на нем должно быть с избытком. В случае с двумя серверами это сделать сложно, ведь чтобы получить 20 ядер на одном сервере, нужно покупать 4-х процессорный сервер с 6-ти ядерными процессорами. Поэтому в сети должен быть 3-ий резервный сервер.

   2.1.2 Расчет оперативной памяти

Объем памяти напрямую зависит от используемой версии ОС Windows, и от того какие приложения будут запускаться. Требования по каждому приложению всегда можно посмотреть на сайте производителя ОС и программного обеспечения. Windows 7 для базовых операций требуется 1 ГБ [3]. При разработке также нужно учесть требования программного обеспечения, которое потребует еще около 2 гигабайт (ГБ) оперативной памяти [4]. Благодаря технологии VMware ESX’s Transparent Page Sharing (TPS), часть памяти используется совместно[5]. Windows 7 использует дополнительные механизмы шифрования, из-за чего общими могут быть только 20% используемой памяти, а оставшиеся 80% будут физически заниматься пользователем. Система в обычных условиях начинает использовать файл подкачки, когда остается менее 25% свободного места в оперативной памяти. ОС всегда старается сохранить как минимум 25% свободного места в резерве. Но использование файлов подкачки в виртуальной среде приведет к потере производительности, поэтому вместо создания файла подкачки с объемом в 1,5-2 от оперативной памяти жестко зафиксируем: не более 1 ГБ на файл подкачки. Для клиентов Windows 7 цифры следующие:

                  (2 ГБ + 100МБ) * 50% * 60% = 660МБ

на клиент. Итого:

                   4ГБ + 660МБ *128 = 87 ГБ.

Если хост не поддерживает transparent page sharing, то необходимо:

                  4ГБ + (2ГБ + 100МБ) * 128 = 273 ГБ.

Также нужно учесть ряд  шагов, которые могут повысить производительность  VDI[6]:

  •  отключить Memory Ballooning — для VDI файл подкачки не приносит пользы, стараться выставлять жесткие значения, при необходимости — увеличивать RAM, не файл подкачки;
  •  использовать single vCPU VMs — большинство приложений пользователей однопоточные, им не нужны multi vCPU;
  •  Timed Boots — разделить группы пользователей по группам, запускать группы по приоритету.
  •  оптимизировать антивирусное сканирование, полезно будет выставить сканирование по записи, сканирование только локальных дисков и исключить Pagefile.sys и папку Print Spool.
  •  отключить 3D Screen Savers в профилях;
  •  виртуализация приложений  — приложения должны быть виртуализованы также, как и ОС.

     2.1.3 Расчет параметров системы хранения

 В  расчете нужно учитывать  производительность — I/O операций в секунду (IOPS), объем хранилищ получается исходя из IOPS'ов. В зависимости, опять же, от сценария использования, для работы одного виртуального рабочего стола нужно 5-20 IOPS, примем отношение числа операций чтения/записи как 20/80.

Получатся, что для 72 рабочих столов простых пользователей под управлением Windows XP потребуется 360 IOPS, а для продвинутых пользователей да еще под Windows 7 это значение вырастет до 1440 IOPS. Отсюда следует, что система хранения должна быть оснащена быстрыми дисками, например, 600Gb 15k в рейде 10. Это необходимо, чтобы быстро проходили включение виртуальных машин, когда сотрудники к одному часу приходят в офис, и выключение в конце рабочего дня. Если позволяет бюджет, то хорошо иметь и резервную систему хранения на случай аварийной ситуации.

Для установки одной копии Windows 7, по рекомендациям Microsoft [3], требуется не менее 16Гб дискового пространства. При использовании Linked-Clones, экономия составит 90% от 16 Гб – 14,4 Гб на пользователя. В среднем на одного пользователя придется 1.6 Гб объема системы хранения.  На пользовательских данных сэкономить не получится, будем считать, что персональные пользовательские данные одного пользователя будут занимать 10 Гб. Таким образом, на одного пользователя должно приходиться

                                         1.6 Гб + 10 Гб = 11.6 Гб.

С учетом запаса в 20% определяем 14 Гб на пользователя.

Для обслуживания VMware View специально будет необходима организация View Security Server (для пользователей, обращающихся из вне), View Connection Server (брокер соединений), vCenter Server/Active Directory (вполне возможно, что Active Directory и/или vCenter уже развернуты, поэтому будем считать их в среднем как один сервер).

    2.1.4 Расчет параметров сети

При разработке сети с внедрением VDI нужно учитывать особенности VDI-трафика. На рисунке 2.1 показана сравнительная характеристика нескольких видов трафика. Исходя из сравнительной характеристики  заключается два основных вывода —  в основу решения нужно закладывать высокопроизводительные устройства, а также настроить балансировку.

           Рисунок 2.1 – Требования к различным видам трафика

На рисунках 2.2 и 2.3 показаны отличительные особенности трафика стандартной архитектуры и трафика VDI-архитектуры. Из рисунков 2.1 и 2.2 видно, что нагрузка на уровень распределения практически идентична уровню доступа в ЦОД, где расположены виртуальные рабочие столы.

               Рисунок 2.2 – Особенности стандартного трафика

           Рисунок 2.3 – Особенности VDI-трафика

Разрабатываемая сеть является сетью предприятия малого бизнеса, с количеством работников до 100 человек. Трехуровневая архитектура сети в данном случае будет избыточной. Поэтому для реализации сети подходящим вариантом будет альтернативная архитектура без уровня ядра. Первым делом нам нужно рассчитать количество коммутаторов на уровне доступа. Расчет будет исходить из количества требуемых портов. Учитывая, то наиболее популярным на рынке коммутаторов являются 24-портовые, рассчитаем количество 24-портовых коммутаторов.  Количество хостов возьмем за 100, также нужно учесть принтеры, устройства конференцсвязи, точки доступа и количество портов для связи с коммутаторами уровня распределения. Получается около 130 портов, т.е. 130 / 24 ≈ 6 коммутаторов. Когда 100 клиентов подключаются к своим виртуальным машинам, сетевая инфраструктура испытывает значительные нагрузки. Чтобы сеть не стала узким местом, необходимо подключать серверы к общей сети по 10Gbe портам. В современных серверах  IBM M4 или HP gen8 изначально заложена возможность активации двух портов 10Gbe. А в новых моделях коммутаторов Cisco  есть специальные модули, добавляющие по 2 порта 10Gbe в каждый коммутатор. В итоге одним и из наиболее приемлемых решений будет cтек коммутаторов,  которые  дадут необходимую отказоустойчивость и скорость работы. Схема решения представлена на рисунке 2.4.

     

        Рисунок 2.4 – Архитектура проектируемой корпоративной сети

          2.2 Обоснование выбора аппаратной части

  1.  Обоснование выбора серверной инфраструктуры

          Исходя из расчетов, представленных в разделе 2.1 для проекта необходима классическая схема виртуализации - три сервера и система хранения данных.  Мощности данного решения хватить на выполнение сервисов для 100-200 сотрудников, причем это с учетом того, что один из серверов может выйти из строя и в работе останется только два. Архитектура данного решения представлена на рисунке 2.5.

           Рисунок 2.5 – Классическая серверная инфраструктура

Часто решающим фактором при выборе производителя сервера является успешный опыт работы с тем или иным производителем. В проектах виртуализации допустимо использовать серверы разных марок, но лучше  всего использовать брендовые серверы HP, IBM, Dell в том числе и потому, что можно оперативно заменить во время проекта не заработавшие "из коробки" комплектующие. Заплатив несколько тысяч долларов за оборудование не придется еще решать дополнительные проблемы с гарантией. Все модели серверов поставляются с завода в базовой комплектации, которая готова к запуску, но требует дополнительных комплектующих, чтобы справиться с конкретными задачами. Обычно к базовой конфигурации добавляют оперативную память, второй процессор, второй блок питания, жесткие диски, HBA карты для связи с системой хранения. Так как базовые модели отличаются друг от друга, главным образом, установленными процессорами, это и будет главный критерий разделения серверов по группам для дальнейшего сравнения. Современное поколение процессоров INTEL — это серия E5-2400 с максимальным поддерживаемым объемом оперативной памяти 375Гб и E5-2600 c максимальным объемом 750Гб. Поэтому 2400 устанавливают в серверы с 12-ю слотами для установки памяти, а  E5-2600 с 24-ю слотами.  В таблице 2.1 представлены модели процессоров Intel Xeon c соответствующими ценами.

Таблица 2.1 – Таблица цен на процессоры компании Intel

4-х ядерные

6-ти ядерные

8-ми ядерные

Серия E5-2400, максимальный объем памяти 375Гб

E5-2403 - 1.8GHz - 195$
E5-2407 - 2.2GHz - 250$

E5-2420 - 1.9GHz - 391$

E5-2430 - 2.2GHz - 554$
E5-2450 - 2.1GHz - 1112$

Серия E5-2600, максимальный объем памяти 750Гб

E5-2603 — 1.8GHz - 207$

E5-2620 - 2.0GHz - 410$
E5-2630 - 2.3GHz - 616$
E5-2640 - 2.5GHz - 890$

E5-2650 - 2.0GHz - 1112$
E5-2660 - 2.2GHz - 1333$
E5-2665 - 2.4GHz - 1444$
E5-2670 - 2.6GHz - 1556$
E5-2680 - 2.7GHz - 1727$
E5-2690 - 2.9GHz - 2061$

  Моделей процессоров, на самом деле, гораздо больше. В таблице представлены те CPU, которыми укомплектованы серверы, часто встречающиеся на складах, а значит, их поставки не нужно ждать 8 недель из Европы. 

   Исходя из расчетов представленных в разделе 2.1, для 100 пользователей, достаточно 20 ядер, поэтому для решения нужно 4 процессора по 6 ядер. Согласно таблице 2.1 для реализации проекта подойдет процессор Xeon E5-2620.

     Собранные из тех же самых комплектующих, что и серверы HP и Dell, серверы IBM обойдутся как минимум на 20% дешевле. Гарантия IBM, как и у других производителей составляет 3 года. Если за это время сервер выйдет из строя, то специалист из IBM приедет и бесплатно починит его, заменив комплектующие или сервер целиком. Среди серверов  IBM наиболее наиболее популярным и интересным решением для виртуализации является сервер x3650 M4. Сервер IBM System x3650 M4 обеспечивает исключительную производительность для самых важных бизнес-приложений. Оптимальная конструкция IBM x3650 M4 обладает высокой энергоэффективностью, позволяет поддерживать больше ядер, больше оперативной памяти, больший объем данных в небольшом корпусе (форм-фактор) 2U, который прост в обслуживании и управлении. Соотношение вычислительной мощности на Ватт потребляемой энергии, новейший процессор Intel Xeon, позволяют сократить расходы, сохраняя при этом скорости работы оборудования и обеспечивая его доступность в приобретении. Для серверов IBM x3650 M4 существуют готовые заводские комплектации. Они полностью работоспособны, но могут быть наполнены дополнительными комплектующими, чтобы полностью соответствовать поставленным задачам.  В [7] представлены общие характеристики и отличия моделей с 6-ти ядерными CPU.

Из данной линейки для проекта требованиям удовлетворяет сервер  полное название, которого IBM Express x3650 M4 Rack 2U, 1x Xeon E5-2620 6C(2.0GHz/1333MHz/15 MB/95W). Сервер представлен на рисунках 2.6 и 2.7. По название расшифровываются следующие характеристики:

  •  IBM Express x3650 M4 – название модели;
  •  Rack 2U – форм фактор, высота в стойке;
  •  1x – количество CPU в базовой комплектации;
  •  Xeon E5-2620 – модель CPU;
  •  6C – количество ядер;
  •  2.0GHz – частота CPU;
  •  1333MHz – максимальная частота поддерживаемой памяти;
  •  15 MB – кэш уровня L3;
  •  95W – рассеиваемая мощность.

          Рисунок 2.6 – Передняя панель IBM x3650 M4

           Рисунок 2.7 – Задняя панель IBM x3650 M4

Заводской комплектации для реализации проекта будет не достаточно, поэтому каждый сервер должен быть доукомплектован следующими аппаратными частями:

  •  IBM Express Intel Xeon E5-2620 6C – вторым  процессором;
  •  Emulex Dual Port 10GbE SFP+ Embedded VFA III for IBM System - интеллектуальным адаптером 10Gb Gigabit Ethernet с оптическим интерфейсом SFP+, разработанным для различных приложений, таких как виртуализация, устройства сетевой безопасности, IP системы распространения контента, распределенный вычисления, NAS-серверы, а также серверы хранения и резервного копирования;
  •  в каждый сервер будет добавлено по 15 планок оперативной памяти 8GB (1x8GB, 2Rx4, 1.35V) PC3L-10600 CL9 ECC DDR3 1333MHz LP RDIMM;
  •  блок питания - Express System x 550W High Efficiency Platinum AC Power Supply;
  •  два RAID-контроллера Express IBM 6Gb SAS HBA (46M0907).

           2.2.2 Обоснование выбора и настройка СХД

СХД — это дисковая система, которая вынесена за пределы сервера. Файлы виртуальных машин на ней хранятся централизованно. Именно поэтому на каждом сервере (хосте) можно запустить любую из имеющихся виртуальных машин. СХД подключено будет через SAS. SAS – непосредственное подключение СХД и серверов через SAS кабель или через специальный SAS Switch. Скорость подключения 6Gbit/s. Особое внимание в системах хранения уделяется отказоустойчивости, для ее повышения все аппаратные компоненты в СХД дублируются. Интерфейсы СХД представлены на рисунке 2.8.

           Рисунок 2.8 – Интерфейсы IBM DS3512

Двух контроллерная система хранения данных от IBM, System Storage DS3512 идеально подходит для  проектов виртуализации серверов и рабочих станций. IBM предлагает самую низкую цену на рынке систем хранения за двух контроллерную модель, поэтому в конкуренции с HP или Dell данная СХД побеждает своих конкурентов. IBM DS3512 очень легко подключить и настроить даже не самому опытному инженеру. Данная система хранения   совместима с 12-ю SAS  дисками 3.5 дюйма (6Gb/s):

  •  15k оборотов в минуту - 300Gb, 450Gb, 600Gb;
  •  7.2k оборотов в минуту - 1Tb, 2Tb, 3Tb.

Еще к преимуществам данной системы хранения следует отнести:

  •    два контроллера для отказоустойчивости и распределения нагрузки. Во многих СХД, построенных на базе обычных серверов всего один контроллер, например, возьмите тот же Qnap или Iomega, в спецификациях на этом внимание не заостряется. Но надо понимать, что если контроллер выйдет из строя, то работа остановится. В DS3512 два контроллера, через которые вы получаете доступ к созданным разделам (LUN-ам). Все компоненты дублируются;
  •  возможность расширения в основную полку СХД помещается 12 или 24 диска, чтобы расширить вместимость, нужно будет подключить полку(и) расширения, причем к DS3524 можно подключить полку с 3.5 дюймовыми дисками и наоборот к DS3512 полку с дисками 2.5 дюйма. Полки расширения подключаются каскадом SAS кабелями. К головному устройству можно подсоединить еще 3 полки расширения;
  •  cовместимость с популярными продуктами виртуализации, чтобы была техническая поддержка. Это очень важный момент, особенно в период настройки информационной системы в целом. Можно задавать вопросы и в службу поддержки IBM и в техподдержку VMware;
  •  поддержка протоколов. Изначально, когда покупается пустая двух контроллерная полка DS3512 в каждый контроллере встроены по два SAS порта. Их достаточно, чтобы начать работу. Если же требуется работать по оптическим каналам или по iSCSI (нужно выбрать что-то одно, и то и то не получится), докупаются карты расширения в оба контроллера. В каждой карте расширения 4 порта iSCSI или FC. SAS порты остаются в СХД все равно;
  •  техническая поддержка и гарантия на головное устройство 3 года, а на каждый диск от IBM, который вы вставляете в DS3512 распространяется ее гарантия. Некоторые администраторы по привычке планируют сразу взять дисков про запас, на случай аварии, но в этом большого смысла нет, т.к. после обращения в поддержку, вам оперативно присылают замену любой вышедшей из строя детали;
  •  простой интерфейс управления позволяет ее настраивать даже не специалисту. Главное понять логику подключения, которая описана в стать настройка DS3524;
  •  развитие, системы хранения постоянно модифицируют, выпуская новые и новые прошивки. В основном, разработчики держат курс на поддержку сред виртуализации и их функционала.

             С техническими характеристиками DS3524 можно ознакомиться [7].

 Согласно расчетам, представленным в 2.1, решением, которое обеспечит требуемое количество IOPS, будет 12 дисков 600GB 15,000 rpm 6Gb SAS 3.5 HDD" собранных в RAID 10.

 Перед началом настройки нужно собрать схему, подключив к системе хранения три сервера. В каждом сервере два SAS HBA адаптера, это просто карта PCI-E, с входом SAS. По два HBA установлено для отказоустойчивости, если один из контроллеров в СХД выйдет из строя, то работа будет продолжена через другой. По такой же логике система защищена от проблем с SAS кабелем или HBA адаптером в сервере. В нашем случае для подключения трех серверов к СХД понадобиться SAS-коммутатор. Для нашего проекта выберем коммутатор  LSI SAS6160 SAS 16-Ports. Схема подключения представлена на рисунке 2.9.

                   

    Рисунок 2.9 – Схема подключения СХД к серверам

    Принцип настройки любой СХД:

  •  из дисков собирается RAID (array);
  •  на RAID создается логический том (LUN);
  •  презентуется том серверам (mapping), чтобы они его увидели и могли с ним работать.

    Порядок настройки СХД DS3512[8]:

1) выбирается автоматический метод поиска системы хранения, система найдет и подключит ее, СХД отобразиться в консоли;

2) в консоли  правой кнопкой в СХД, выбирается пункт Manage, чтобы начать настройку;

3) в закладке Logical/Physical View отображается нераспределенное дисковое пространство и сначала необходимо создать Array (RAID);

4) далее следуя за мастером, который будет помогать подсказками, задается имя  array;

5) выбирается 10 RAID, чтобы его создать нужно выбрать RAID 1. И тут же мастер объясняет, что если вы создаете RAID 1 из четырех и более дисков, то автоматически создастся 10 RAID (или 1+0, то же самое выбираем создание RAID из 12 дисков;

6)  после создания, автоматически запускается мастер создания тома (LUN), нужно указать размер LUN и придумать название для тома (в разрабатываемой сети случае будет создаваться три тома для каждого сервера);

7) после создания Array и LUN они отобразаться в консоли. Теперь необходимо перейти на другую вкладку и дать доступ к этому LUN серверам. По умолчанию создана группа Default Group и этой группе доступен LUN1. Достаточно добавить сервер (сначала один, затем другой, затем и третий) в это группу, чтобы они могли подключиться к LUN1;

           8)  правой кнопкой мыши, как представлено на рисунке 2.10, по Default Group, Define -> Host;

9) у каждого сервера есть по два SAS HBA, именно через них происходит подключение к СХД. Система хранения может идентифицировать сервер именно по HBA адаптерам, а точнее, по их уникальным идентификаторам. Задается имя хосту. Выбирается два идентификатора, которые принадлежат серверу, который подключается. Посмотреть, какие идентификаторы у сервера, можно подключившись к ESXi хосту напрямую через vSphere Client. Там в  разделе storage adapters. Переносится два  идентификатора из левой колонки в правую. Затем выбирается каждый идентификатор и на кнопку Edit, чтобы добавить и к нему описание. Такая процедура придумана для того, чтобы не запутаться в большом количестве идентификаторов;

10) теперь выбирается, как представлено на рисунке 2.10, операционная система хоста, если это гипервизор VMware ESXi, то выбирается VMware.

    Рисунок 2.10 – Выбор типа операционной системы при настройке  

                              СХД DS3512

                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                 

           2.2.3 Обоснование выбора сетевого оборудования

В качестве среды передачи в настоящее время преимущественно используется неэкранированная витая пара 5-й категории. Однако такая витая пара обеспечивает пропускную способность  до 100 Мбит/с. Для повышения производительности сети мы будем использовать кабель 5E-категории, который при использовании 4 пар проводов позволяет достичь скорости до 1000 Мбит/с. В рамках нашей сети витая пара 5E-категории будет использоваться для соединения компьютеров с коммутаторами(стандарт 1000Base-T). На уровне доступа будет использоваться стандарт IEEE 802.3at (PoE). Использование технологии Power over Ethernet на уровне доступа дает следующие преимущества:

  •   простота развертывания:

один и тот же кабель используется для данных и питания.

  •   централизованное управление питанием.
  •   высокая доступность:

централизованное резервирование, непрерывность работы;

в большинстве сетевых устройств отказоустойчивые блоки питания;

широко распространено резервирование при помощи генераторов/ИБП/Батарейных блоков.

  •   эффективность системы питания:
  1.  общий блок питания более эффективен, чем индивидуальные;
  2.  кривая эффективности общего блока питания оптимизирована для средней загрузки;
  3.  общий блок питания стоиот дешевле, чем индивидуальные блоки для каждого устройства.

В настоящее время при изобилии выбора сетевого оборудования большое количество людей выбирают сетевое оборудование исходя из финансовых возможностей предприятия. Однако это неправильный выбор. Сетевое оборудование должно соответствовать и превосходить все возможные требования, которые оно обязано выполнять в рамках конкретной сети. При реализации данного  проекта используется сетевое оборудование ведущего производителя на данном рынке — компании Cisco Systems.

В качестве коммутаторов для построения стека на уровне доступа к дата-центру оптимальным решением будет Cisco Catalyst 3750-X. Коммутаторы серии Cisco Catalyst 3750-X — флагманские продукты семейства коммутаторов Cisco с фиксированной конфигурацией. Эти коммутаторы бизнес-класса поддерживают объединение нескольких коммутаторов в стек, а также могут использоваться в качестве автономных сетевых устройств. Коммутаторы обеспечивают высокопроизводительную коммутацию (10 Gigabit Ethernet) и поддерживают современную технологию электропитания внешних устройств по сети передачи данных PoE+ на всех портах. Помимо технологии StackWise Plus, обеспечивающей высокую надежность передачи данных, в эти коммутаторы Cisco впервые в отрасли встраиваются средства поддержки технологии Cisco StackPower, которая обеспечивает небывало высокую надежность электропитания стека коммутаторов Cisco Catalyst серии 3750-X. Cisco StackPower превращает систему электропитания стека из четырех коммутаторов в единый ресурс, распределяемый между всеми устройствами стека. В случае отказа одного из блоков питания напряжение будет подаваться на все критически важные приложения и сокращаться для менее приоритетных устройств, указанных пользователем. Один блок питания мощностью 1100 ватт может обеспечить электропитание четырех коммутаторов и подключенных к ним критически важных оконечных устройств, поддерживая непрерывность бизнеса. Внешний вид коммутатора Cisco Catalyst 3750-X представлен на

рисунке 2.11.

          

            Рисунок 2.11 – Внешний вид коммутатора Cisco Catalyst 3750-X

Для реализации стека для доступа в дата-центр из серии коммутатор Cisco Catalyst 3750-X согласно [9] выберем коммутатор WS-C3750X-24T-S. Также в заводскую конфигурацию нужно добавить модуль Catalyst 3K-X 10G Network Module. Модуль Catalyst 3K-X 10G Network Module представлен на рисунке 2.12.

           Рисунок 2.12 – Модуль Catalyst 3K-X 10G Network Module

Для уровня доступа подходящим решением будет линейка коммутаторов Cisco Catalyst 2960S. Коммутаторы Cisco Catalyst 2960S – это коммутаторы доступа с фиксированной конфигурацией, предназначенные для сетей крупных и средних предприятий, а также их филиалов. В крупных сетях данные коммутаторы позиционируются как коммутаторы уровня доступа пользователей. В соответствии с этим, для выполнения функций защиты периметра сети и выполнения первичного подключения разного рода оконечных узлов (пользовательские хосты, IP телефоны, прочие оконечные Ethernet устройства) в перечень функций коммутаторов включены следующие:

  •  поддержка семейства технологий 802.1x, для выполнения аутентификации конечных узлов, и выполнения динамической авторизации пользователей;
  •  поддержка набора технологий обеспечения информационной безопасности на 2 уровне;
  •   поддержка питания по витой паре на всех портах, для обеспечения подключения IP телефонов.

Данные устройства поддерживают новую технологию стекирования коммутаторов Cisco FlexStack и обеспечивают сетевые подключения на скоростях до 10 Гбит/с. Коммутаторы серии Catalyst 2960S позволяют обеспечить высокую безопасность данных за счет встроенного NAC, поддержки QoS и высокого уровня устойчивости системы. Коммутатор Catalyst WC2960S-24PS-L из серии Cisco Catalyst 2960S оснащен 24 фиксированными портами Ethernet 10/100/1000 c поддержкой PoE и четырьмя портами 1Gigabit Ethernet. Коммутатор Catalyst WC2960S-24PS-L представлен на рисунке 2.13.

                       

            Рисунок 2.13 – Коммутатор Catalyst WC2960S-24PS-L

В качестве рабочего хоста выбран Wyse P20,  который представляет собой лучший клиент благодаря встроенному чипу Teradici, который значительно поднимает производительность видео при работе на виртуальном рабочем столе. Данный клиент является нулевым клиентов, то есть все ресурсы используются для поддержки рабочего стола, операционная система отсутствует. Устанавливается лишь вертикально, довольно компактен и не требует никаких лишних настроек в начале работы.

Преимущества:

  •  высокая производительность видео, графики;
  •  настройки времени на клиенте никаким образом не мешают работе на виртуальном месте;
  •   быстрое начало работы;
  •   наличие отдельной кнопки на устройстве, позволяющей выключить в в виртуальную машину;
  •   наличие 2-ух портов DVI-I, позволяющее как зеркально отображать информацию, так и поддерживающее технологию мульти-монитора.

Недостатки:

  •   отсутствие портов PS/2;
  •   самая высокая стоимость из трех вариантов;
  •   поддержка лишь протокола PCoIP;
  •   самое большое энергопотребление;
  •   невозможность подключения Wi-Fi модуля.

           2.2.4 Настройки сети

Помимо сети физической, которая начинается от сетевых карт сервера (хоста ESXi) и уходит куда-то в физические свитчи, маршрутизаторы, интернет, есть сеть виртуальная. Если ничего не настраивать, и установить ESXi на сервер, создать виртуальную машину,  то ее сетевой интерфейс будет по умолчанию подключен к первой физической сетевой карте хоста. И все будет работать. Пока не придет пора задействовать технологии высокой доступности: High Availability, Fault tolerance, vMotion.

Виртуальный свитч стоит представлять как физический, со всеми его свойствами и возможностями настройки. vSwitch0 создается по умолчанию в единственном числе, а в процессе настройки можно создавать дополнительные виртуальные свитчи, строить внутреннюю сеть хоста ESXi по своему усмотрению. С помощью виртуальных свитчей на ESXi сервере можно смоделировать любую сетевую схему, которую можно сделать в реальной инфраструктуре.

После первоначальной установки гипервизора ESXi, для управления нужно подключиться к IP адресу XXX. Этот IP адрес автоматически (присвоен порту vmk0, который подключен к виртуальному свитчу vSwitch0, к нему же подключена физическая сетевая карта vmnic0. Теперь для управления хостом ESXi запускается vSphere Client на рабочей станции, вводится IP XXX и по цепочке Локальная сеть -> Switch -> vmnic0 -> vSwitch0 -> vmk0 доступен интерфейс управления. Virtual machine port group создается автоматически при установке гипервизора ESXi на сервер.  Сюда присоединяются сетевые интерфейс(ы) виртуальных машин. Цепочка такая:

  •  cетевая карта виртуальной машины должна принадлежать какой-нибудь порт группе;
  •  порт группа должна быть присоединена к какому-нибудь виртуальному свитчу;
  •  виртуальный свитч может быть присоединен к физическим(ой) сетевым картам или может не иметь выхода в общую сеть.

Можно создавать дополнительные группы портов для виртуальных машин и присоединять их к любым vSwitch. Сетевые карты одной ВМ могут быть в разных группах портов, таким образом, можно настраивать полноценные маршрутизаторы или DMZ. Имеет смысл разделять сеть виртуальных машин и трафик vMotion, FT, management. vMotion трафик создается при миграции ВМ с хоста на хост. Fault Tolerance трафик создается при синхронизации двух виртуальных машин, оригинала и дубликата. Management трафик, это тот, который на схеме на vmk0, его, обычно, оставляют в общей сети. На рисунке 2.14 для этого используется дополнительный VMkernel порт и vSwitch1, подключенные к vmnic1.  При такой архитектуре два потока данных не пересекутся и не будут мешать друг другу. Также повышается безопасность, злоумышленник, имея доступ к локальной сети компании, ни при каких обстоятельствах не сможет попасть в сеть передачи.

           Рисунок 2.14 – Виртуальная сеть в ESXi

В разрабатываемой сети предлагается физически разделить Management трафик и трафик виртуальных машин от трафика миграции и HA.  Сетевой адаптер vmnic0 будет пропускать трафик  виртуальных машин и трафик управления, а vmnic1 в свою очередь трафик для обеспечения миграции  и отказоустойчивости. Далее сеть  виртуальных машин при помощи vlan будет разбита по подразделениям, а также отделена от трафика управления и трафика порождаемого серверами VMware. В таблице 2.2 представлено распределение интерфейсов по группам, vlan, IP-подсетям.

Таблица 2.2 – Распределение интерфейсов

Подсеть серверов VMware View

100

VM_VIEW

vmnic0

192.168.0.0/24

1-е подразделение

101

VM_VLAN101

vmnic0

192.168.1.0/24

2-е подразделение

102

VM_VLAN102

vmnic0

192.168.2.0/24

3-е подразделение

103

VM_VLAN103

vmnic0

192.168.3.0/24

4-е подразделение

104

VM_VLAN104

vmnic0

192.168.4.0/24

5-е подразделение

105

VM_VLAN105

vmnic0

192.168.5.0/24

6-е подразделение

106

VM_VLAN106

vmnic0

192.168.6.0/24

Подсеть для трафика HA, vMotion

107

VM_VLAN1

vmnic1

192.168.7.0/24

Подсеть для Management трафика

108

VM_VLAN1

vmnic1

192.168.8.0/24

      

Из таблицы 2.2 заключаем,  что нам нужно создать  10 групп портов, а на виртуальных коммутаторах надо сопоставить VLAN ID соответствующим группам портов. Впрочем, это несложно: Configuration  => Networking => свойства vSwitch => свойства группы портов => в поле VLAN ID выставить нужную цифру. IP-адреса наиболее значимых сетевых интерфейсов, представлены в таблице 2.3.

Таблица 2.3 – IP-адреса наиболее значимых сетевых интерфейсов

            Интерфейс

IP-адрес

Management vmk0 1-го сервера

192.168.8.10/24

Management vmk0 2-го сервера

192.168.8.11/24

Management vmk0 3-го сервера

192.168.8.12/24

HA, vMotion 1-го сервера

192.168.7.10/24

HA, vMotion 2-го сервера

192.168.7.11/24

HA, vMotion 3-го сервера

192.168.7.12/24

Active Directory

192.168.0.10/24

vCenter Server

192.168.0.11/24

Connection Server

192.168.0.12/24

           Для  стека коммутаторов 3750X, нужна следующая конфигурация:

1) настроить коммутаторы в стеке по протоколу StackWise[10]. Стек из 4-х коммутаторов собирается согласно рисунку 2.15;

           Рисунок 2.15 – Стек коммутаторов Catalyst WS-C3750X-24T-S

Если коммутатор подключается к уже работающему стеку, то никакие настройки на нем не делаются, так как конфигурацию для него генерирует мастер стека. Собирать стек лучше с верхнего коммутатора в шкафу. Он включается первым, берет себе индекс "1". К работающему коммутатору-мастеру с индексом "1" последовательно подключаются и включаются остальные коммутаторы. Им присваивается индекс и согласно их модели автоматически создаются интерфейсы в конфигурации. Состояние коммутаторов смотреть командами:


STACK#show switch

Switch/Stack Mac Address : 0015.6230.c480

H/W   Current

Switch#  Role   Mac Address     Priority Version  State

----------------------------------------------------------

*1       Master 0015.6230.c480     2      0       Ready

2        Member 0021.5681.dd80     1      0       Ready

3        Member 001f.9ee1.5980     1      0       Ready

4        Member 0021.5682.2400     1      0       Ready

STACK#show switch neighbors

 Switch #    Port 1       Port 2

 --------    ------       ------

     1         6             2

     2         1             3

     3         2             4

     4         3             5

Для назначения  мастера, также можно выставлять приоритеты:


STACK(config)#switch 1 priority ?

1-15   Switch Priorit

  1.  включить PVST:

STACK#spanning-tree mode pvst
STACK#spanning-tree extend system-id

  1.  настроить trunk-порты на оптических интерфейсах с инкапсуляцией 802.1Q:

interface 10GigabitEthernet1/1

switchport mode trunk

interface 10GigabitEthernet1/2

switchport mode trunk

interface 10GigabitEthernet2/1

switchport mode trunk

interface 10GigabitEthernet2/2

switchport mode trunk

interface 10GigabitEthernet3/1

switchport mode trunk

interface 10GigabitEthernet3/2

switchport mode trunk

  1.  настроить по два access-порта на каждый коммутатор доступа.

В разрабатываемой сети к первому и второму коммутатору в стеке мы подключим первые три коммутатора. К третьему и четвертому соответственно с четвертого по шестой. Настройки этого пункта будут в конфигурационном файле следующего вида:

interface GigabitEthernet1/0/1

switchport access vlan 101

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet1/0/2

switchport access vlan 102

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet1/0/3

switchport access vlan 103

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet1/0/4

switchport access vlan 104

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet1/0/5

...  

interface GigabitEthernet1/0/24

interface GigabitEthernet2/0/1

switchport access vlan 101

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet2/0/2

switchport access vlan 102

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet2/0/3

switchport access vlan 103

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet2/0/4

...  

interface GigabitEthernet2/0/24

interface GigabitEthernet3/0/1

switchport access vlan 104

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet3/0/2

switchport access vlan 105

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet3/0/3

switchport access vlan 106

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet3/0/4

...  

interface GigabitEthernet3/0/24

interface GigabitEthernet4/0/1

switchport access vlan 105

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet4/0/2

switchport access vlan 105

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet4/0/3

switchport access vlan 106

switchport voice vlan 2

spanning-tree portfast

interface GigabitEthernet4/0/4

...  

interface GigabitEthernet4/0/24

           5) настроить IP-адресацию интерфейсов vlan. Нужно включить маршрутизацию 3-го уровня  командами:

STACK#ip subnet-zero

STACK#ip routing

Далее для каждого интерфейса vlan задать ip-адрес, согласно таблице 2.2.

interface Vlan1

no ip address

shutdown

interface Vlan100

ip address 192.168.0.1 255.255.255.0

interface Vlan101

ip address 192.168.1.1 255.255.255.0

interface Vlan102

ip address 192.168.2.1 255.255.255.0

interface Vlan103

ip address 192.168.3.1 255.255.255.0

interface Vlan104

ip address 192.168.4.1 255.255.255.0

interface Vlan105

ip address 192.168.5.1 255.255.255.0

interface Vlan106

ip address 192.168.6.1 255.255.255.0

interface Vlan107

ip address 192.168.7.1 255.255.255.0

interface Vlan108

ip address 192.168.8.1 255.255.255.0

interface Vlan109

ip address 192.168.9.1 255.255.255.0

  1.  настроить маршрут по умолчанию. В нашем случае на интерфейс с адресом 192.168.0.1.

 STACK# ip default-gateway 192.168.0.1

Настройка коммутатора доступа будет осуществляться также весьма просто:

1) включить PVST;

2) все порты коммутатора настроить как access-порты.

interface GigabitEthernet

switchport access vlan X

switchport voice vlan 2

spanning-tree portfast

Где номер vlan — номер соответствующего коммутатора уровня доступа, vlan номер 2 для IP-телефонии.

           2.3 Установка и настройка VMware View

         

   2.3.1 Общий порядок настройки

Установка VMware View дело не быстрое и поэтапное, в результате установки нужно получить схему, представленную на рисунке 2.16.

           Рисунок 2.16 – Сервер линейки IBM x3650 M4

1) Active Directory сервер — без домена VMware View не работает, поэтому AD обязателен. DNS сервер тоже необходим, причем не только зона прямого просмотра, но и обратного;

2) vCenter server  — управляет виртуальной инфраструктурой vSphere, через него автоматически будут создаваться пользовательские виртуальные машины. Причем до последнего времени для работы VMware Composer необходимо было устанавливать именно Windows версию vCenter server. VMware Composer — дополнительный компонент View, устанавливается обычно в ту же ОС, где находится vCenter server, позволяет создавать не полноразмерные виртуальные машины для каждого пользователя, а так называемые связные клоны (Linked Clones), когда существует «золотой образ» операционной системы и уже на его основе создаются виртуальные машины, в которых сохраняются только изменения по отношению к “золотому образу”;

3) Connection server — основной сервер View, через него происходит управление всей инфраструктурой виртуальных рабочих столов (VDI). К нему из локальной сети подключаются пользователи, чтобы получить доступ к своим виртуальным машинам. Управление происходит через Web интерфейс;

4) Кластер серверов ESXi на котором будут запускаться ВМ пользователей;

5) Виртуальные машины пользователей, это могут быть Windows XP или Windows 7, но  чтобы развернуть из одного образа сотни виртуальных машин, “золото образ” нужно особым образом подготовить;

6) Secure server  — для доступа к персональным виртуальным машинам в офисе из интернета. По сути, это SSL VPN сервер.

Для установки инфраструктуры VMware View необходимо изначально установить и настроить кластер VMware vSphere, а также предварительно подготовить 3 виртуальные машины с Windows server 2008 R2 SP1. После подготовки 3-х виртуальных машин можно не посредственно перейти к установке и настройке непосредственно инфраструктуры VMware View.

Перед началом настройки сети и разворачивания инфраструктуры VMware View необходимо настроить платформу vSphere.  План установки VMware vSphere cледующий:

  1.  подготовить для установки физический сервер и систему хранения данных;
  2.  установить на каждый сервер ESXi, подключить к получившимся хостам LUN-ы с системы хранения;
  3.  создать виртуальную машину и развернуть Active Directory;
  4.  создать виртуальную машину и установить vCenter сервер, чтобы иметь возможность управлять виртуальной инфраструктурой, подключить к vCenter хосты ESXi;
  5.  включить функционал "живой миграции" vMotion;
  6.  создать кластер DRS через vCenter;
  7.  создать отказоустойчивый кластер HA через vCenter;
  8.  настроить сеть.

   2.3.2 Установка и настройка ESXi

ESXi - это операционная система. Установка ее мало чем отличается от установки других ОС, разве что своей. Для установки ESXi  потребуются диск с дистрибутивом и доступ к локальной консоли сервера. С этого диска, запускается мастер установки. Во время установки нужно сделать следующие пункты[11]:

  1.  принятие  лицензионного соглашения;
  2.  выбор диска для установки. Тут есть нюансы, но в большей степени нюансы планирования - устанавливается ESXi на локальный диск, на диск в системе хранения данных или флэш-накопитель. В нашем случае серверы, на которые устанавливаются ESXi, подключены к системе хранения данных. В силу условий работы живой миграции и других функций vSphere все LUN системы хранения данных должны быть доступны всем серверам. Таким образом, при установке ESXi на один из этих серверов, он увидит все LUN (а еще и локальные диски сервера, если они есть). В нашем случае каждый сервер имеет свой LUN в системе хранения данных, поэтому установка будет происходить на соответствующий LUN;
  3.  выбор раскладки клавиатуры;
  4.  указание пароля для пользователя root. Именно этот пользователь и его пароль, используются для управления гипервизором;
  5.  сразу после установки ESXi необходимо настроить сеть. Делается это очень просто: после нажатия F2, появляется  меню похожее на  BIOS. В пункте Configure Management Network  выставляются настройки: IP-адрес, DNS-имя, домен. Также важен пункт Network Adapters, в котором выбирается один сетевой контроллер, через который будет выходить наружу управляющий интерфейс ESXi.  Необходимо выбрать тот физический сетевой контроллер (они именуются vmnic#), который ведет в сеть управления. На рисунке  2.17 изображено, что в этой сети находится ноутбук - с которого, предполагается, будут управляться ESXi. Или в этой сети находится vCenter, через который будут управляться ESXi.

    Рисунок 2.17 – Сеть VMware

После установки ESXi  на каждый из трех серверов, на одном из них нужно создать две виртуальные машины с с Windows server 2008 R2 SP1 и установить туда vCenter и развернуть Active Directory. Для этого потребуется установить приложение vSphere Client, клиент vSphere. Установка клиента тривиальна, мастер не задаст ни одного вопроса. После завершения установки запускается установленный клиент vSphere, указывается имя или IP-адрес сервера ESXi. Авторизация происходит под пользователем root с тем паролем, что при установке сервера ESXi.

   2.3.3 Настройка Active Directory 

Установка Active Directory производиться на виртуальную машину с Windows server 2008 R2 SP1 c полным набором последних обновлений, на ней будет контроллер домена и DNS. На данной виртуальной машине предварительно выставляются следующие параметры:

  •  IP-адрес – 192.168.0.10;
  •  маска подсети – 255.255.255.0;
  •  основной шлюз – 192.168.0.1;
  •  адрес DNS-сервера – 192.168.0.10.

Также нужно создать отдельного пользователя, под правами которого будут создаваться (удаляться) в домене компьютеры. Крайне не рекомендуется запускать работу VMware View из-под Администратора домена. Лучше всего создать отдельную OU (подразделение) в Active Directory и дать на этот OU права отдельному пользователю (в данном случае это будет viewadmin).

Порядок настройки и установки:

1) установка Active Directory производиться из под dcpromo;

2) создается новый домен в новом лесу, его полное корневое - view.local, режим работы леса - Windows Server 2008 R2, дополнительные параметры для контроллера домена – DNS;

3) указывается расположение для базы данных, файлов журнала и папки SYSLOG, задается пароль для учетной записи администратора;

4) согласно рисунку 2.18 создается пользователь viewadmin и подразделение ViewComputers;

     Рисунок 2.18 – Создание пользователя и подразделения в AD

    6)  управление подразделением делегируется пользователю viewadmin.

            2.3.4 Установка и настройка vCenter server

Для инфраструктуры View необходимо устанавливать именно Windows-версию vCenter[12], т.к. в дальнейшем для разворачивания виртуальных рабочих столов потребуется View Composer, который лучше устанавливать вместе с vCenter (в одну ОС). Для установки Windows версии vCenter подготавливается виртуальная машина с Windows server 2008 R2 SP1 с последними обновлениями и дистрибутив vCenter. На данной виртуальной машине предварительно выставляются следующие параметры:

  •  IP-адрес – 192.168.0.11;
  •  маска подсети – 255.255.255.0;
  •  основной шлюз – 192.168.0.1;
  •  адрес DNS-сервера – 192.168.0.10;
  •  имя хоста – vCenter;
  •  член домена – view.local.

Далее следует запустить службу веб-сервер(IIS) и установить

.Net Framework 3.5.1. В Active Directory, согласно рисункам 2.19 и 2.20, создается зона обратного просмотра 0.168.192.in-addr.arpa, а также PTR-запись для узла 192.168.0.11.

     Рисунок 2.19 – Настройка PTR-записи

   Рисунок 2.20 – Настройка PTR-записи

Далее происходит непосредственно установка  дистрибутива vCenter. Порядок установки и настройки дистрибутива vCenter:

  1.  запустить VMware vCenter Installer, предварительно полученный на сайте vmware.com;
  2.  подтвердить лицензионное соглашение;
  3.  ввести пароль администратора;
  4.  инсталлировать Microsoft SQL Server 2008 Express;
  5.  ввести и подтвердить DBA пароль;
  6.  ввести и подтвердить пароль пользователя базы данных;
  7.  ввести полное имя хоста – vCenter. view.local;
  8.  выбрать использование service account;
  9.  оставить HTTP-порт 7444;
  10.  ввести лицензионный ключ;
  11.  выбрать номера портов согласно рисунку 2.21;

   Рисунок 2.21 – Настройка портов при установке vCenter

           13) количество памяти выбираем для сервера с количеством виртуальных машин от ста до тысячи;

            14) далее нажимаем Install.

Для добавления серверов в консоль vCenter необходимо, чтобы в ней существовал объект типа Datacenter[11]. Такой объект - папка для объектов всех прочих типов - серверов, кластеров, виртуальных машин, хранилищ, сетей и прочего. Для разрабатываемой сети нет филиалов со своей инфраструктурой и администраторами, нет отдельного отдела безопасности, который сам управляет своими ESXi, или подобных вариантов – поэтому нужно создать лишь один Datacenter. Для создания вызывается контекстное меню для корневого объекта иерархии vCenter и выбирается в нем пункт New Datacenter. Имя объекта выберите по своему усмотрению. Теперь в контекстном меню уже созданного Datacenter выбирается пункт Add Host. В запустившемся мастере указывается имя или IP-адрес сервера ESXi, пользователя root и его пароль. Предпочтительнее добавлять сервера по имени, причем по полному доменному имени (FQDN). Пароль пользователя root необходим vCenter, чтобы создать на этом ESXi своего собственного пользователя vpxuser, из-под которого в дальнейшем vCenter и будет подключаться к этому ESXi. Таким образом, последующая смена пароля root на ESXi-сервере не оказывает на vCenter никакого влияния.

 

   2.3.5 Настройка кластера DRS

vMotion - это название процесса живой миграции, то есть переезда виртуальной машины с одного сервера на другой без перерыва в работе. Живая миграция пригодится:

  •  когда необходим плановый простой сервера. ВМ с требующего выключения сервера можно убрать на другие сервера и спокойно выключить его;
  •  для балансировки нагрузки. С загруженного сервера можно мигрировать виртуальные машины на более свободные сервера.

Как только запускается миграцию, vCenteг проверяет выполнение условий для виртуальной машины и серверов, между которыми она мигрирует. Затем гипервизор начинает копировать содержимое оперативной памяти этой виртуальной машины на другой ESXi. Но ведь виртуальная машина продолжает работать, и за время копирования содержимого оперативной памяти это содержимое успеет поменяться. Поэтому гипервизор начинает вести список адресов измененных блоков памяти перемещаемой виртуальной машины. ВМ продолжает работать, но адреса измененных страниц в ее памяти фиксируются. Итак, основной объем памяти передается на другой ESXi через интерфейс VMkernel, который мы задействуем под vMotion.

Как только вся память передалась - ВМ блокируется полностью, и на второй ESXi передаются измененные страницы памяти. Так как их объем будет небольшой - время, в течение которого ВМ полностью блокируется, также невелико. Весьма невелико. А если объем измененной памяти будет больше некоего порогового значения, значит, ESXi просто повторит итерацию. Благодаря этому область памяти, для передачи которой ВМ полностью заморозится, обязательно будет очень небольшой, пусть и через несколько итераций. На этом этапе мы имеем два идентичных процесса, две идентичные ВМ на обоих серверах ESXi. Теперь ВМ на исходном сервере убивается, по сети идет оповещение, что машина с этим МАС-адресом доступна уже на другом порту физического коммутатора. Все. В подавляющем большинстве случаев переключение между ВМ на старом и новом сервере занимает менее одной секунды. Если на каком-то этапе идет сбой, то ВМ просто не убивается на исходном сервере и никуда не уезжает, но падения ВМ из-за неудавшегося vMotion не происходит.

Включение опции в свойствах портгруппы VMkernel представлено на рисунке 2.22.

   Рисунок 2.22 – Включение опции vMotion

Живая миграция ВМ - это полезная технология. Функциями миграции являются:

  •  балансировка нагрузки между серверами;
  •  освобождение сервера, когда нужно его перезагрузить.

Это пригодится при установке обновлений, аппаратном обслуживании. Однако при  большой инфраструктуре выполнять эти операции вручную для администратора становится затруднительно. На помощь в этом ему может прийти VMware DRS (Distributed Resource Scheduler). Функции DRS:

  •  балансировка нагрузки (по процессору и памяти) между серверами;
  •  автоматическая vMotion виртуальных машин с сервера в режиме обслуживания (maintenance mode).

Для решения этих задач DRS умеет осуществлять всего две вещи:

  •  запускает vMotion для виртуальных машин и выбирать, откуда, куда и какую ВМ лучше мигрировать;
  •  при включении ВМ выбирать сервер, на котором она включится (это называется Initial Placement).

Для создания DRS-кластера необходимо создать объект Cluster в иерархии vCenter[11]. В контекстном меню Datacenter выбрать Add new Cluster, указать имя создаваемого кластера и поставить флажок DRS. Кластер как объект vCenter создан. Далее нужно добавить в кластер три сервера и а также. Основные настройки кластера DRS изображены на рисунке 2.23.

Рисунок 2.23 – Настройки DRS-кластера

Из настроек необходимо[11]:

  •  в VMware DRS выбрать Fully automated (полностью автоматический) -  выбор виртуальных машин и vMotion DRS будет делать сам;
  •  бегунок Migration Threshold устанавливается в среднее. Migration Threshold - настройка, указывающая на уровень приоритета, рекомендации с которым выполняются автоматически.  Таким образом, данная настройка указывает на то, насколько кластер может быть несбалансированным.

DRS отслеживает счетчики Host CPU: Active (включая run и ready) и Host Memory: Active. DRS выдает рекомендации за пятиминутные интервалы, изменить это нельзя. Ссылка Run DRS на вкладке DRS для кластера принудительно заставляет обсчитать рекомендации. Приоритет рекомендаций миграции измеряется цифрами от 1 до 5, где 5 указывает на наименьший приоритет. Приоритет зависит от нагрузки на сервера: чем больше загружен один сервер и чем меньше другой - тем выше приоритет миграции ВМ с первого на второй. Также высокий приоритет имеют миграции, вызванные правилами affinity и anti-affinity, о которых позже. Наконец, если сервер поместить в режим Maintenance, то DRS сгенерирует рекомендацию мигрировать с него все ВМ, и у этих рекомендаций приоритет будет максимальный. Таким образом, если бегунок стоит в самом консервативном положении, выполняются только рекомендации от правил affinity и anti-affinity и миграция с серверов в режиме обслуживания. Если в самом агрессивном режиме - даже небольшая разница в нагрузке на сервера будет выравниваться. Рекомендуемыми настройками являются средняя или более консервативные.

Чтобы выбрать ВМ, которую или которые лучше всего мигрировать, DRS просчитывает миграцию каждой ВМ с наиболее загруженного сервера на каждый из менее загруженных серверов, и высчитывается стандартное отклонение после предполагаемой миграции. Затем выбирается наилучший вариант. Притом учитывается анализ рисков - стабильность нагрузки на ВМ за последнее время.

Rules - здесь мы можем создавать так называемые правила affinity и antiaffinity, а также указывать правила принадлежности групп виртуальных машин группам серверов. При создании правила anti-affinity мы указываем несколько виртуальных машин, которые DRS должен разносить по разным серверам. Обратите внимание: каждая ВМ одной группы anti-affinity должна располагаться на отдельном сервере. Например, такое правило имеет смысл для основного и резервного серверов DNS или контроллеров домена. Таким образом, в одном правиле не сможет участвовать виртуальных машин больше, чем в кластере серверов. В правиле affinity мы указываем произвольное количество ВМ, которые DRS должен держать на одном сервере. Например, это бывает оправдано для сервера приложений и сервера БД, с которым тот работает. Если такая пара будет работать на одном сервере, трафик между ними не будет нагружать физическую сеть и не будет ограничен ее пропускной способностью. Если какие-то правила взаимоисключающие, то у имени, созданного последним, нельзя поставить флажок (то есть правило нельзя активировать). С каким другим правилом оно конфликтует, можно посмотреть по кнопке Details.

Virtual Machine Options - это следующий пункт настроек DRS. Здесь можно включить или выключить возможность индивидуальной настройки уровня автоматизации для каждой ВМ. Часто имеет смысл для тяжелых ВМ выставить эту настройку в ручной или полуавтоматический режим, чтобы минимизировать влияние на такие ВМ со стороны DRS. Балансировка нагрузки будет осуществляться за счет менее критичных виртуальных машин.

2.3.6 Настройка кластера HA

Текущая версия VMware НА выполняет следующие функции[11]:

  •  проверяет доступность серверов ESXi. Для проверки доступности используются специальные сообщения, «сигналы пульса» (heartbeat), отправляемые по сети управления. Используются сообщения пульса собственного формата. В случае недоступности какого-то сервера делается попытка запустить работавшие на нем ВМ на других серверах кластера;
  •  проверяет доступность виртуальных машин, отслеживая сигналы пульса (heartbeat) от VMware tools. В случае их пропажи ВМ перезагружается. Отвечающий за эту функцию компонент называется Virtual Machine Monitoring. Этот компонент включается отдельно и является необязательным.

В тот момент, когда вы включается НА для кластера, vCenter устанавливает на каждом сервере агент НА. Один из серверов кластера назначается старшим, так называемым Failover Coordinator, координатором. Именно он принимает решение о рестарте ВМ в случае отказа. А если откажет он сам - любой из остальных серверов готов поднять упавшее знамя, вся необходимая информация о состоянии дел есть на каждом сервере кластера. Агенты обмениваются между собой сообщениями пульса (heartbeat) вида “я еще жив”. По умолчанию обмен происходит каждую секунду. Для этих сообщений используется сеть управления. Если за 10-секундный интервал от сервера не пришло ни одного сообщения пульса (heartbeat) и сервер не ответил на пинги еще 10 секунд, то он признается отказавшим. Сервер-координатор начинает перезапуск ВМ с этого сервера на других. Причем НА выбирает для включения ВМ сервер с наибольшим количеством незарезервированных ресурсов процессора и памяти, и выбор этот происходит перед включением каждой ВМ.

Для создания НА-кластера необходимо создать объект Cluster в иерархии vCenter[11]. Кластер как объект vCenter создан. Осталось добавить в него сервера ESXi. Впрочем, включить НА можно и для уже существующего кластера. В нашем случае достаточно включить опцию для существующего кластера DRS. НА и DRS без каких-либо проблем можно использовать для одного кластера вместе. Более того, так даже лучше. Функционал этих решений не пересекается, а дополняет друг друга.

           2.3.7 Установка View Composer

Установка происходит на ту же самую операционную систему, на которой расположен сервер vCenter[12].  VMware View Composer

подключается к SQL-серверу через ODBC-коннектор, который создается на сервере vCenter.

Порядок установки ODBC-коннектора:

1) согласно рисунку 2.24 запускается администратор источников данных ODBC;

    Рисунок 2.24 – Запуск источника данных(ODBC)

  1.  выбирается вкладка системный DSN и кнопка добавить;
  2.  выбирается SQL Server Native Client 10;
  3.  вводится название DSN – View Composer и выбирается сервер SQL;
  4.  установка ODBC-коннектора завершена.

Установка же самого  VMware View Composer довольно проста. Порядок установки:

  1.  запустить VMware Composer Installer, предварительно полученный на сайте vmware.com;
  2.  подтвердить лицензионное соглашение;
  3.  ввести название DSN, username и пароль согласно рисунку 2.25;

        Рисунок 2.25 – Настройка View Composer 

  1.  оставить HTTP-порт по умолчанию;
  2.  в случае успешной установки появиться окно представленное на рисунке.

2.3.8 Установка и настройка VMware View Connection Server

VMware View Connection server — это центральная консоль управления инфраструктурой виртуальных рабочих столов в среде View. Установка производиться на виртуальную машина с Windows server 2008 R2 SP1 c полным набором последних обновлений. На данной виртуальной машине предварительно выставляются следующие параметры:

  •  IP-адрес – 192.168.0.12;
  •  маска подсети – 255.255.255.0;
  •  основной шлюз – 192.168.0.1;
  •  адрес DNS-сервера – 192.168.0.10.

Установка осуществляется из файла скаченного на сайте VMware. Порядок установки следующий[12]:

  1.  запустить VMware Сonnection  Installer;
  2.  выбрать View Standart Server;
  3.  устанавливается пароль восстановления;
  4.  выбирается автоматическое определение firewall, специфический домен VIEW\viewadmin;
  5.  установка завершена.

Настройка Сonnection Server осуществляется из веб-интерфейса. Порядок настройки следующий:

  1.  запускаем браузер  и заходим в веб-интерфейс под пользователем.
  2.  во вкладке Servers добавляем vCenter Server, параметры вводим согласно рисунку 2.26.

                 Рисунок 2.26 – Параметры  vCenter Server

  1.  во вкладке Servers добавляем Composer Server.
  2.  добавляем домен согласно рисунку 2.27.

     Рисунок 2.26 – Добавление домена при настройке Connection server

  1.  добавляем параметры СХД согласно рисунку 2.27.

     Рисунок 2.26 – Добавление СХД при настройке Connection server

  1.  на этом конфигурация Connection Server закончена.

            2.3.9 Развертывание шаблона Windows 7 и кастомизация

После установки и первоначальной настройки основных частей инфраструктуры VMware View для создания Linked clones подготавливается шаблон Windows 7. Настройка шаблона производиться согласно [13]. Виртуальная машина создается обязательно через Web-клиент vCenter Server. Необходимо предварительно настроить DHCP для раздачи адресов пулу виртуальных рабочих станций. Сначала устанавливается операционная система Windows 7. Далее на операционную систему устанавливается все необходимое программное обеспечение. После этого необходимо установить клиент на  VMware View Agent на Win7. Далее нужно настроить ipconfig /release, выключить виртуальную машину и сделать финальный снимок для использования машины в качестве шаблона Linked Clone, либо просто выключить и конвертировать виртуальную машину в template для использования в качестве шаблона Full Clones. В сети будут использоваться Linked Clone, в этом случае виртуальная машина выключается и делается снимок.

             2.3.10 Создание Linked Clones-пула виртуальных машин

 Порядок создания автоматического пула[12]:

  1.  для создания автоматического пула View нужно запустить  мастер создания пула(Inventory->Pools) и  указывать, что он автоматический;
  2.  выбирается Dedicated (если выбрать пул Floating, то все изменения после работы на виртуальном десктопе будут сброшены после logout’а). Выбирается Enable automatic assignment – View проверит при cоединении пользователя – какой группе он соответствует и какому пулу назначена группа;
  3.  выбирается Linked Clones (если выбрать Full – при создании пула машина будет клонироваться, что будет намного дольше и затратней по дисковой емкости);
  4.  указывается внутреннее имя пула Win и отображаемая пользователю метка Win;
  5.  настройки PCoIP согласно рисунку 2.27;

      Рисунок 2.27 – Настройки PCoIP

  1.  настройки pattern  для названия виртуальных машин, представлены на рисунке 2.28;

 Рисунок 2.27 – Настройки pattern  для названия виртуальных машин

  1.  настройка дисков профиля (Persistent Disk) и временных файлов согласно рисунку 2.28;

     Рисунок 2.28 – Настройка дисков профиля (Persistent Disk)

  1.  выбирается шаблон и его снимок, а также размещение виртуальных машин пула согласно рисунку  2.29;

      Рисунок 2.29 – Выбор шаблона и его снимка

  1.  согласно рисунку 2.30 указывается OU для размещения виртуальных машин пула;

     Рисунок 2.30 – OU для размещения виртуальных машин пула

  1.  назначается группа на пул согласно рисунку 2.31;

     Рисунок 2.31 – Назначение группы на пул

  1.  настройка пула завершена.

2.4 Решение безопасного удаленного доступа к VMware View  

Компании стремятся к виртуализации рабочих столов и доставке их своим сотрудникам и партнерам, где бы они не находились. Сотрудники и партнеры могут находиться не только в локальной сети, и все чаще появляется потребность предоставить доступ к корпоративным ресурсам через интернет.

Как и в случае с другими технологиями удаленного доступа, скорость доставки экрана по протоколу PCoIP  зависит от производительности VPN, доступной полосы пропускания, задержки передачи сигнала по сети. Требования к распределенной сети могут создать трудности для ИТ-отдела, ведь необходимо не только доставить рабочий стол сотруднику, но и сделать это безопасно. Поэтому большинство компаний используют SSL VPN для обеспечения безопасного соединения с виртуальным рабочим столом из удаленного офиса, дома или из другой точки.

В разрабатываемой сети предлагается использовать решения Cisco Systems для безопасного соединения с удаленным рабочим столом, базируясь на технологии SSL VPN. C такими решениями, как Cisco Adaptive Security Appliances (ASA) и Cisco AnyConnect Secure Mobility client, пользователь может подключиться с помощью PCoIP к своему удаленному рабочему столу через защищенное соединение из любой точки.

Cisco ASA 5500 – аппаратно-программный комплекс, сочетающий лучшие в классе сервисы безопасности и VPN как для среднего и малого бизнеса, так и для крупнейших компаний. Cisco ASA 5500 настраивается для каждой конкретной задачи, предлагая различные редакции, такие как безопасный удаленный доступ (SSL/IPsec VPN), межсетевой экран, фильтрация контента и предотвращение вторжений. Внешний вид Cisco ASA

изображен на рисунке 2.32.

           Рисунок 2.32 – Cisco ASA  5500

Решение безопасного удаленного доступа предлагает гибкие VPN технологии для любого сценария подключения, масштабирующийся до 10000 конкурентных пользователей на устройство. Решение предоставляет простой в управлении, туннельный сетевой доступ через SSL, DTLS или Ipsec VPN через публичные сети для пользователей, в частности, пользователей рабочих столов VMware View.

Преимущества Cisco Secure Remote Access включают:

  •  Доступ к сети с помощью SSL и DTLS – обеспечивает связь удаленного пользователя с сетевыми ресурсами по любым протоколам, включая PCoIP VMware View. Cisco AnyConnect Secure Mobile клиент автоматически подстраивает его туннельный протокол наиболее эффективным способом. Это первый VPN продукт, использующий DTLS, позволяющий обеспечить оптимизированное соединение для чувствительного к задержкам трафика, как, например Voice over IP или TCP-приложений;
  •  Тонкий доступ к сети – обеспечивает доступ к сетевым приложениям и ресурсам вне зависимости от местоположения без необходимости устанавливать VPN клиент;
  •  Масштабируемость и гибкость – поддерживает до 10000 одновременных пользовательских сессий на устройство с возможностью масштабируемости до десятков тысяч соединений при объединении в кластеры и распределении нагрузки. Функции резервирования обеспечивают высокую доступность решения.

Cisco ASA SSL VPN поддерживает два способа для безопасного подключения пользователей к рабочим столам, находящимся в центре обработки данных компании:

1) Cisco AnyConnect Secure Mobility. Cisco AnyConnect Secure Mobility клиент обеспечивает безопасное VPN соединение с Cisco ASA 5500 используя SSL и DTLS протоколы. AnyConnect запускается на Microsoft Windows, Mac OS X, Linux и Windows Mobileи поддерживает соединение с IPv6 ресурсами через IPv4 туннель. Администраторы могут настроить AnyConnect клиент для автоматического запуска клиента VMware View. DTLS позволяет избежать задержек при передачи сигнала и проблем с пропускной способностью, характерных для обычного SSL соединения и является стандартным SSL протоколом, обеспечивающим низкую задержку передачи данных через UDP. DTLS улучшает производительность приложений реального времени, таких как VMwareView Client с использованием PCoIP (UDP display protocol).

2) Тонкий SSL VPN. Использует SmartTunnel технологию через web браузер и позволяет подключаться к рабочему столу VMware View без необходимости устанавливать защищенное соединение с помощью AnyConnect. C технологией Smart Tunnel безопасное соединение устанавливается между TCP приложением (web браузер) и Cisco ASA. Smart Tunnel технология позволяет осуществить доступ к клиенту VMware View в том числе, если выбран RDP протокол доставки рабочих столов.

VMware View и Cisco ASA создают решение для безопасного доступа удаленных пользователей к виртуальным рабочим столам, находящимся в корпоративном центре обработки данных. С поддержкой DTLS, Cisco ASA обеспечивает решение безопасным UDP транспортом. C AnyConnect Secure Mobility клиентом и Smart Tunnel технологией, пользователи могут выбирать, каким образом подключиться к виртуальным рабочим столам, находящимся в корпоративном центре обработки данных.

Рассмотрим  как можно подключиться с устройства из внешней сети  к корпоративной сети, на границе которой расположена Cisco ASA 5510. Порядок  настройки согласно [14] состоит из следующих шагов:

  1.  назначение адресов, которые будут раздаваться подключаемым клиентам из внешней сети:

 ip local pool VIEW-POOL 192.168.0.200-192.168.1.253 mask 255.255.255.0

  1.  определение IPSec transform-set с именем View (алгоритм шифрования 3des, хэш-функция SHA):

crypto ipsec transform-set View esp-3des esp-sha-hmac

  1.  настройка динамической crypto map:

crypto dynamic-map VIEW_CRYPTO_MAP 10 set transform-set View

  1.  задается имя View-map для crypto map, которая будет использоваться с IKE для установки соединения безопасных ассоциаций:

crypto map View_map 65535 ipsec-isakmp dynamic VIEW_CRYPTO_MAP

crypto map View_map interface INTERNET

  1.  настройка IKE:

crypto isakmp enable INTERNET

crypto isakmp policy 10

authentication pre-share

encryption 3des

hash sha

group 2

lifetime 86400

crypto isakmp nat-traversal 3600

  1.  настройка group-policy:

group-policy View internal

group-policy View attributes

vpn-tunnel-protocol IPSec

address-pools value VIEW-POOL

  1.  настройка tunnel-group:

tunnel-group View type remote-access

tunnel-group View general-attributes

default-group-policy View

tunnel-group View ipsec-attributes

pre-shared-key <password>

tunnel-group View ppp-attributes

authentication ms-chap-v2

  1.  необходимо создать пользователя:

username View password <PASSWORD> encrypted

username View attributes

vpn-group-policy View

Настройки клиента для доступа в VPN-сеть: Зайти в Настройки -> Основные -> Сеть -> VPN -> IPSec. Указать описание, адрес (DNS имя) ASA, имя пользователя, пароль, название tunnel-group и pre-shared-key. Для отслеживания процесса подключения можно на Cisco ASA ввести следующие команды:

debug ipsec-over-tcp 127

terminal monitor

3 ПРАКТИЧЕСКАЯ РЕАЛИЗАЦИЯ РАЗРАБАТЫВАЕМОЙ СЕТИ

3.1 Практическая реализация аппаратной инфраструктуры

Для 100 пользователей проводной сети в дипломной работе предлагается использовать архитектуру, включающую уровень распределения (он же серверная ферма) и уровень доступа. Коммутаторы уровня распределения должны поддерживают 10 Гбит/с для подключения серверов. Коммутаторы доступа обеспечивают питание по Ethernet для тонких клиентов и для беспроводных точек доступа, а скорость составляет 1 Гбит/с. На уровне доступа используется 6 коммутаторов Catalyst WC2960S-24PS-L. На уровне распределения применятся стекирование 4-х коммутаторов  WS-C3750X-24T-S по технологии StackWise. В результате 4 стекируемых коммутатора будут рассматриваться как одно устройство сетевое устройство. Данный коммутатор уровня распределения будет  поддерживать 8 оптических соединений, 6 из которых подключены к серверам, обеспечивая скорость 10 Гбит/с. Для обеспечения беспроводного доступа различных устройств(планшетов, ноутбуков, нетбуков, мобильных устройств), используется 2 точки доступа. Точки доступа будут подключены по Ethernet с коммутаторами и будут получать питание по PoE.

Для обеспечения достаточной отказоустойчивости и ресурсоемкости для построение ЦОД используются три сервера IBM Express x3650 M4 Rack 2U, к тому же каждый из них  серверов будет доукомплектован:

  •   вторым  процессором;
  •   адаптером 10Gb Gigabit Ethernet с оптическим интерфейсом SFP+;
  •   15-ю планками оперативной памяти 8GB;
  •   блоком питания;
  •   2-мя RAID-контроллерами.

Следует отметить, что для реализации проекта достаточно ресурсов двух серверов, но для повышения отказоустойчивости, распределения нагрузки и возможности масштабируемости нужен третий сервер.

В разрабатываемой сети также используется система хранения данных, на ней размещаются гипервизоры и все виртуальные машины. Для реализации сети, после тщательного анализа рынка, была выбрана двухконтролерная СХД  IBM System Storage DS3512. СХД и серверы соединены посредством SAS-интерфейсов через SAS-коммутатор LSI SAS6160 SAS 16-Ports. Данное решение обеспечит скорость подключения 6Gbit/s. В СХД будут вмонтированы 12 дисков 600GB 15,000 rpm 6Gb

SAS 3.5 HDD" собранных в RAID 10. На этом RAID будут созданы три LUN(по одному для каждого сервера), на которые будут устанавливаться гипервизоры ESXi и виртуальные машины.

 На границе сети установлен аппаратно-программный комплекс ASA 5500, который предоставляет безопасный удаленный доступ (SSL/IPsec VPN) из внешней сети к инфраструктуре виртуальных рабочих столов посредством приложения Cisco AnyConnect Secure Mobility.

Оборудование необходимое для реализации разрабатываемой сети представлено в таблице 3.1. В свою очередь схема сети представлена на рисунке 3.1.

Таблица 3.1 – Оборудование необходимое для построения сети

Наименование

Кол-во

Серверное оборудование

IBM Express x3650 M4 Rack 2U, 1x Xeon E5-2620 6C(2.0GHz/1333MHz/15 MB/95W)

3

IBM Express Intel Xeon E5-2620 6C (2.0GHz, 15MB, 1333MHz, 95W W/Fan) (x3650 M4)

3

Emulex Dual Port 10GbE SFP+ Embedded VFA III for IBM System x

3

8GB (1x8GB, 2Rx4, 1.35V) PC3L-10600 CL9 ECC DDR3 1333MHz LP RDIMM

15

Express System x 550W High Efficiency Platinum AC Power Supply

3

Express IBM 6Gb SAS HBA (46M0907)

6

IBM System Storage DS3512 Express Dual Controller Storage System

1

600GB 15,000 rpm 6Gb SAS 3.5 HDD"

12

IBM Cable SAS 3m

8

LSI SAS6160 SAS 16-Ports

1

Rackmount accessory tray for LSI SAS6160 Switch

1

Сетевая инфраструктура

Wyse P20 для VMware View - 64MB Flash/128MB RAM

100

Catalyst 3750X 24 Port Data IP Base

4

Catalyst 3K-X 10G Network Module

3

10GBASE-CU SFP+ Cable 3 Meter

6

Catalyst 2960S 24 Port Data IP Base

6

SMARTNET 8X5XNBD 802.11g Int Unified AP; RP-TNC ETSI Cnfg

2

Cisco ASA 5500

1

            Рисунок 3.1 – Структура сети

В разрабатываемой сети физически разделяется Management трафик и трафик виртуальных машин от трафика миграции и HA физически разделяются.  Сетевой адаптер vmnic0 у каждого из серверов  обрабатывает трафик  виртуальных машин и трафик управления, а vmnic1 в свою очередь трафик для обеспечения миграции  и отказоустойчивости. Сеть  виртуальных машин при помощи vlan будет разбита по подразделениям, а также отделена от трафика управления и трафика порождаемого серверами VMware. В таблице 3.2 представлено распределение интерфейсов по группам, vlan, IP-подсетям.

Четыре коммутатора будут объединены в стек по протоколу StackWise. Между всеми коммутаторами будет функционировать протокол PVSTP. На оптических интерфейсах, как серверов, так и коммутаторов будут настроены trunk-порты с инкапсуляцией 802.1Q. Все порты коммутаторов доступа настроены как access-порты. VLAN номер 2 будет настроен, как VLAN для IP-телефонии, для ее последующего внедрения. Стек коммутаторов будет являться устройством 3-го уровня c возможностью передачи трафика  между VLAN и с маршрутом по умолчании на интерфейс 192.168.0.1. Конфигурация стека коммутаторов будет представлена в приложении A.

Таблица 2.2 – Распределение интерфейсов

Подсеть серверов VMware View

100

VM_VIEW

vmnic0

192.168.0.0/24

1-е подразделение

101

VM_VLAN101

vmnic0

192.168.1.0/24

2-е подразделение

102

VM_VLAN102

vmnic0

192.168.2.0/24

3-е подразделение

103

VM_VLAN103

vmnic0

192.168.3.0/24

4-е подразделение

104

VM_VLAN104

vmnic0

192.168.4.0/24

5-е подразделение

105

VM_VLAN105

vmnic0

192.168.5.0/24

6-е подразделение

106

VM_VLAN106

vmnic0

192.168.6.0/24

Подсеть для трафика HA, vMotion

107

VM_VLAN1

vmnic1

192.168.7.0/24

Подсеть для Management трафика

108

VM_VLAN1

vmnic1

192.168.8.0/24

      

       3.2 Практическая реализация виртуальной инфраструктуры

          Для виртуализации рабочих столов в разрабатываемой cети используется продукт VMware View, который в данной реализации виртуализации рабочих станций включает в себя:

  •  VMware vCenter Server;
  •  VMware View Connection Server;
  •  VMware View Composer Server;
  •  VMware Agent – устанавливается на ВМ, которую мы будем использовать в качестве рабочего стола;
  •  VMware Client – программа, с помощью которой нами будет произведено соединение с рабочим столом (если не применяются тонкие и нулевые клиенты);
  •  VMware View Administrator – универсальная веб-консоль, из под которой будет осуществлено управление инфраструктурой View (ярлык будет доступен по умолчанию на рабочем столе операционной системы, на которой установлен VMware View Connection Server).

В качестве платформы виртуализации используется гипервизор ESXi, который обеспечивает наиболее тонкую настойку распределения ресурсов из решений на рынке гипервизоров. На основе трех физических серверов и гипервизора построен HA и DRS кластер. Данное решение обеспечивает равномерное распределение нагрузки между серверами, а также в случае отказа одного из серверов перезапускает его виртуальные машины на других серверах.

Передача рабочего стола клиенту может осуществляться по средствам протокола PCoIP. В качестве клиентского компьютера в сети использован нулевой клиент Wyse P20. Аппаратная поддержка протокола PCoIP на базе чипа Teradici обеспечить необходимую производительность. При подключении к своему рабочему столу кроме нулевого клиента могут использоваться:  стандартный компьютер, продукция компании Apple(iPad, Mac Book, IPhone), а также некоторые модели Smartphone (пока поддерживаются только смартфоны с ОС Android). Для доступа с этих устройств достаточно установить приложение VMware View Client. На рисунках 3.2-3.5 представлено подключение к виртуальному рабочему столу с операционной системой Windows 7.

Рисунок 3.2 – Подключение к Connection серверу

            Рисунок 3.3 – Аутентификация в систему VDI 

           Рисунок 3.4 – Выбор Linked-пула

            Рисунок 3.5 – Виртуальный рабочий стол

Подключиться к своему виртуальному рабочему столу через защищенное подключение SSL пользователь может из любой точки мира, где есть интернет. SSL VPN соединение из внешней сети осуществляется благодаря аппаратно-программному комплексу ASA 5500 посредством приложения Cisco AnyConnect Secure Mobility, как показано на рисунке 3.6.

Конфигурация Cisco ASA представлена в приложении Б. Последовательность соединения:

  •  удаленный пользователь устанавливает SSL VPN соединение со шлюзом ASA VPN, используя AnyConnect клиента или Smart Tunnel;
  •  пользователь использует клиент VMware View для передачи данных по защищенному туннелю и аутентифицируется на VMware View сервере;
  •  после успешной аутентификации VMware View сервер отображает доступные виртуальные рабочие столы;
  •  пользователь выбирает необходимый пул столов и устанавливает виртуальную сессию.

         Рисунок 3.6 – Удаленное подключение к рабочему столу

         При подключении к виртуальному рабочему столу присоединяются используемые на рабочей станции USB-устройства к виртуальному столу, что позволяет нам использовать flash-накопители, гарнитуры и т.д. В настройках политики View Administrator можно настроить запреты на использование PCoIP, USB, настройки локального режима и прочее.      

        Лицензии на программное обеспечение, которые нужно приобрести для разворачивания программного комплекса VDI, представлены в таблице 3.2.

Таблица 3.2 – Лицензии для реализации разрабатываемой сети

1

2

3

Название

Кол-во

Примечание

VDA ALNG SubsVL OLV NL 1Mth

AP PerDvc

1

VMware View 5 Premier Bundle:Starter Kit

1

Сервисная поддержка на 1 год

        

Продолжение таблицы 3.2

1

2

3

Basic Support/Subscription for

VMware View 5 Premier Bundle - 10

Pack for 1 year

1

Сервисная поддержка на 1 год

VMware View 5 Premier Add-On: 10

pack

1

Сервисная поддержка на 1 год

VMware View 5 Premier Bundle:

Starter Kit

1

Сервисная поддержка на 1 год

Basic Support/Subscription for

VMware View 5 Premier Desktop

Add-On - 10 desktop VMs for 1 year

1

Лицензия на Windows server 2008 R2 Enterprise (OEM)

3

4 ТЕХНИКО-ЭКОНОМИЧЕСКОЕ ОБОСНОВАНИЕ

  СРАВНИТЕЛЬНОЙ ЭФФЕКТИВНОСТИ КОРПОРАТИВНОЙ  НА

  ОСНОВЕ ТЕХНОЛОГИИ VDI CO СТАНДАРТНОЙ СЕТЬЮ

           4.1 Характеристика проекта преимущество локальной сети с VDI 

                 перед локальной сетью без VDI

VDI, или Virtual Desktop Infrastructure (Инфраструктура виртуальных рабочих столов) — это разновидность виртуализации рабочих мест пользователей. VDI подразумевает, что операционная система пользователя и приложения запускаются в виртуальных машинах, размещенных на серверах в ЦОД, а пользователям предоставляется удаленный доступ к этим машинам. Пользователи могут применять тонкие клиенты для доступа к своим виртуальным ПК или полноценные компьютеры под управлением Windows, Linux или Mac OS независимо от того, какая операционная система используется на виртуальном ПК. Такая модель позволяет отделить ОС и приложения от аппаратной части, повысив гибкость и мобильность.

VDI имеет множество преимуществ по сравнению со стандартным подходом к организации рабочих столов, которые в конечном итоге выражаются в финансовой выгоде для компании. Среди этих преимуществ можно отметить следующие:

  •  Cокращение затрат на приобретение физических ПК. В качестве устройств, с которых осуществляется доступ к рабочим столам, могут быть использованы как ПК из имеющегося парка компьютерной техники, так и тонкие клиенты, которые в целом стоят дешевле полноценного ПК. И в том, и в другом случае компания получает непосредственную финансовую экономию в виде уменьшения или даже полного сокращения статьи расходов, касающейся компьютерной техники.
  •  Сокращение затрат на модернизацию и обслуживание физических ПК. Физические ПК нуждаются в постоянном обслуживании и подвержены различным неисправностям в процессе работы, как аппаратным, так и программным. Если компьютерный парк организации достаточно велик, административные расходы на поддержание работоспособности парка техники также могут составлять значительную часть бюджета IT-департамента. Это выражается в затратах на содержание инженерного персонала, затратах на компьютерные комплектующие, а также не всегда очевидные смежные затраты из-за простоев в работе персонала, из-за потерь данных. Использование тонких клиентов решает вышеперечисленные проблемы. Срок службы тонкого клиента в разы больше, чем у традиционного ПК, из-за отсутствия движущихся частей и из-за большей унификации компонентов. Тонкие клиенты нет необходимости модернизировать так часто, как этого требуют традиционные ПК. При росте системных требований со стороны приложений наращивание производительности виртуального рабочего стола происходит на стороне сервера, занимает считанные минуты, и может гибко изменяться. При выходе из строя тонкого клиента происходит его замена. Переустановки ОС и приложений, долгой перенастройки при этом не требуется. Пользователь даже не теряет открытых приложений на своем рабочем столе. Весь процесс занимает минуты, при использовании стандартных ПК – часы и дни. Кроме того, тонкие клиенты обладают низким энергопотреблением, что при большом парке ПК может обернуться значительной экономией.
  •  Обеспечение непрерывности бизнеса. Потенциально VDI  предоставляет возможность постоянного доступа к рабочему столу и всем необходимым приложениям из любого места, как внутри организации, так и снаружи. Кроме того, в некоторых случаях доступ к рабочим приложениям и данным возможен даже при отсутствии сетевого подключения, что открывает новые возможности для организации рабочего процесса организации. Такой подход снижает простои до предельно возможного  минимума, а также значительно уменьшает время решения некоторых задач и проблем.
  •  Обеспечение гибкости бизнеса. Абстрагирование рабочих столов и приложений от клиентского устройства позволяет не задумываться о совместимости программ, и получать полноценный доступ к приложениям и данным практически с любого устройства. Переключение между устройствами происходит без потерь данных и текущего состояния приложений.
  •  Снижение расходов на управление инфраструктурой. Отделение физических устройств от программных компонентов, стандартизация, гибкость управления виртуальной средой, которые предоставляет VDI, позволяет кардинально изменить подход к поддержке технической инфраструктуры организации. Удобство и скорость выполнения задач позволяет в разы уменьшить расходы на инженерный персонал. Консолидация вычислительных мощностей в одном месте (ЦОД) позволяет повысить утилизацию оборудования, когда это необходимо (например, в рабочие часы), и снизить энергопотребление, когда вычислительные мощности не востребованы (например, ночью).

4.2 Расчет единовременных затрат по сравниваемым вариантам

Прирост единовременных капитальных вложений (ΔКВ) определяется по формуле[15]:

                             ΔКВ =Об + КТР + КМ                              (4.1)

где Об – единовременные затраты на приобретение новой техники у  предприятия-изготовителя, руб;

КТР – единовременные затраты на доставку новой техники к месту эксплуатации, руб;

КМ –  единовременные затраты на установку, монтаж и наладку, бел. руб.

Единовременные затраты на приобретение новой техники  для VDI инфраструктуры на 100 рабочих мест представлены в таблице 4.1.

Таблица 4.1 – Единовременные затраты на приобретение новой техники  для VDI инфраструктуры

Наименование

Цена,

руб

Кол-во

Стоимость,

руб

Сервер IBM x3650M4
процессор 2 х E5-2620 6 ядер 2.0Гц
оперативная память 328 Гб
блок питания 2 x 550Вт
SSD диск 512Гб

129 220 300

2


258 440 600

Система хранения данных IBM DS3512
2 контроллер (КЭШ каждого 1Гб) 

диски 4шт. по 3Tб 7.2к


82 155 250

1

82 155 300

Тонкий клиент с поддержкой

протокола PCoIP

1 738 000

100

173  800 000

Лицензия VMware Horizon View 

с технической поддержкой

на 100 пользователей

300 169 950

1

300 169 900

Подписка Microsoft VDA 

на 100 пользователей, на 1 год

104 280 000

1

104 280 000

Лицензия на Windows server 2008 R2

Enterprise (OEM)

20 856 000

1

20 856 000

Итоговая стоимость проекта:

939 701 900

Единовременные затраты на приобретение новой техники у  предприятия для стандартной инфраструктуры:

Таблица 4.2 – Единовременные затраты на приобретение новой техники  для стандартной инфраструктуры

Наименование

Цена,

руб

Кол-во

Стоимость,

руб

Системный блок $700

6 083 000

100

608 300 000

Лицензии на Windows 7

1 303 500

100

130 350 000

Итоговая стоимость проекта:

738 650 000

Для VDI  инфраструктуры Об1 = 939 701 840 руб. Для стандартной инфраструктуры Об2 = 738 650 000 руб.  Единовременные затраты на доставку,  установку, монтаж и наладку нового оборудования в обоих случаях равны 20% от Об. Тогда для VDI  инфраструктуры:

           ΔКВ1 = 939 701 850  руб + 0,2 ·  939 701 850 руб   = 1 127 640 450 руб

Для стандартной инфраструктуры:

           ΔКВ2 = 738 650 000 руб + 0,2 · 738 650 000 руб = 886 380 000 руб

4.3 Расчет годовых эксплуатационных затрат по сравниваемым  

     вариантам

Результатом внедрения контрольного полуавтомата на предприятии является повышение надежности, долговечности и ремонтопригодности новой техники, что приводит к сокращению численности обслуживающего персонала, затрат на электроэнергию, ремонт и содержание оборудования, т.е. к уменьшению эксплуатационных издержек.

1) Главной выгодой при внедрении VDI будет сокращение обслуживающего персонала вдвое. Из расчета один человек на 50 компьютеров в стандартной архитектуре, в VDI уже достаточно одного человека на 100 компьютеров. Формула для расчета:

ЗОбС = КПР · ЧОбС · tОбС · ТСЧ · (1 + НД/100) · (1+ННО/100)        (4.2)

                                                

где КПР – коэффициент премий;

ЧОбС – численность обслуживающего персонала, чел.;

tОбС – время, затрачиваемое на обслуживание  используемой техники, ч/год;

ТСЧ – среднечасовая тарифная ставка обслуживающего персонала, руб/ч;

НД – норматив дополнительной заработной платы, %;

ННО – норматив налогов и отчислений от фонда оплаты труда, %.

2) Амортизационные отчисления для инфраструктуры VDI составляют 3%. Для стандартной инфраструктуры 15%. Формула для расчета:

                                А= НА·ОФАС/100                                      (4.3)

                                        

где НА – норма амортизации используемой техники, %;

ОФАС – амортизируемая (первоначальная) стоимость используемой техники (затраты на приобретение, транспортировку, монтаж, наладку и пуск).

3) В VDI инфраструктуре подача питания осуществляется через сетевой кабель ППЕ – потребление составляет от 13 Вт в час, тогда как системный блок, в зависимости от выполняемых задач потребляет порядка 250 Вт.

Годовой эффективный фонд времени работы используемой техники в обоих случаях равен 2 150 часов.

WД1 = 13 Вт · ч · 100 ком = 1,3 кВт · ч                         

WД2 = 250 Вт · ч · 100 ком = 25 кВт · ч                        

Тариф на электроэнергию в нашей стране для юридических лиц


1 450 руб/кВт · ч.  Формула для расчета:

                                 РЭЛ = WД · ТЭФ · ЦЭЛ                                (4.4)

где WД – потребляемая мощность, квт · ч;

ТЭФ – годовой эффективный фонд времени работы используемой техники, ч;

ЦЭЛ – тариф на электроэнергию,  руб/квт · ч

Норматив затрат на плановый текущий ремонт используемой

техники в обоих случаях будет равен 5%. Формула для расчета:

                                РРЕМ = НРЕМ·ЦОТП/100                               (4.5)

               где НРЕМ – норматив затрат на плановый текущий ремонт используемой новой техники, %;

               ЦОТП – отпускная цена используемой  техники, руб.

 Таблица 4.3 – Расчет эксплуатационных издержек при внедрении VDI

Наименование издержек

Расчет суммы эксплуатационных издержек, руб

1. Заработная плата обслуживающего персонала с начислениями

ЗОбc = 1,3 ∙ 1чел ∙ 2112 ∙ 52 140 руб/ч ∙ 1,2 ∙ 1,4 = 204 504 440

2. Амортизационные отчисления

А = 936 701 840 руб ∙ 0,03

= 28 190 360

3. Затраты на потребляемую электроэнергию

РЭЛ = 1,3 кВт · ч ∙ 2 150 ч ∙ 1 450 руб

= 2 815 560

4. Затраты на текущий ремонт

РРЕМ = 939 701 840 руб ∙ 0,05

= 46 978 140

Всего затрат

318 488 500

Таблица 4.4 – Расчет эксплуатационных издержек для стандартной инфраструктуры   

Наименование издержек

Расчет суммы эксплуатационных издержек, бел. руб.

1. Заработная плата обслуживающего персонала с начислениями

ЗОбc = 1,3 ∙ 2 чел ∙ 2112 ∙ 52 140 руб/ч

∙ 1,2 ∙ 1,4 = 454 938 880

2. Амортизационные отчисления

А = 738 650 000 руб ∙ 0,15

= 110  797 500

3.Затраты на потребляемую электроэнергию

РЭЛ = 25 кВт · ч ∙ 2 150 ч ∙ 1 450 руб

 = 54 182 150

4. Затраты на текущий ремонт

РРЕМ = 78 650 000 руб ∙ 0,05

= 36 932 500

Всего затрат

682 921 030

4.4 Оценка годовых приведенных затрат по сравниваемым вариантам

Расчет годовых затрат производиться по следующей формуле:

                                               Зг = Э + ΔКВ ∙ Еп                                      (4.6)

             где Э - эксплуатационные издержки;

             ΔКВ - прирост единовременных капитальных вложений;

             Еп = 0,15.

             Для VDI:

Зг1 = Э1 + ΔКВ1 ∙ Еп1= 318 488 500 руб + 0,15 ∙ 318 488 500 руб = 459 440 300 руб

                 Для стандартной сети:

Зг2 = Э2 + ΔКВ2 ∙ Еп2 = 682 921 030 руб + 0,15 ∙ 738 650 000 руб = 793 718 530 руб

     

            Экономическая эффективность:

Эф.ср. = Зг2 - Зг1= 793 718 530 руб - 459 440 300 руб = 334278250 руб

                     

5 ОБЕСПЕЧЕНИЕ БЕЗОПАСНЫХ УСЛОВИЙ ТРУДА ИНЖЕНЕРОВ-   РАЗРАБОТЧИКОВ НА ПРЕДПРИЯТИИ “БЕЛСОФТ”

Целью данной дипломной работы является разработка корпоративной сети с внедрением технологии VDI в интересах ЗАО “НПП Белсофт”. В настоящем разделе рассматриваются вопросы, связанные с обеспечением безопасных условий труда инженеров-разработчиков на предприятии малого бизнеса ЗАО “НПП Белсофт”. Таким образом, изложенные положения обеспечат безопасные условия труда.

Главным элементом рабочего места инженера-разработчика в ЗАО “НПП Белсофт” являются персональный компьютер. Как известно, при работе с компьютером человек подвергается воздействию ряда опасных и вредных производственных факторов: ВЧ-электромагнитных полей, инфракрасного и ионизирующего излучений, шума и вибрации, статического электричества. Для снижения вредного воздействия ЭВМ до пренебрежимо малого требуется соблюдение правильного режима труда и отдыха. В противном случае у персонала отмечаются значительное напряжение зрительного аппарата с появлением жалоб на неудовлетворенность работой, головные боли, раздражительность, нарушение сна, усталость и болезненные ощущения в глазах, в пояснице, в области шеи и руках. Все это приводит к снижению эффективности и является симптомами вреда, наносимого здоровью людей. Для предотвращения вредных последствий работы за ПК на предприятии “Белсофт” были выработаны следующие  нормы работы. При работе с персональным компьютером время регламентированного перерыва или работы не связанной с персональным компьютером должно быть 15 мин на каждый час работы. Работнику запрещается работать с персональным компьютером более 45 мин в час. Каждому работнику рекомендуется проводить комплекс упражнений для глаз. Упражнения выполняются сидя или стоя, отвернувшись от экрана, при ритмичном дыхании с максимальной амплитудой движения глаз. На счет 1 - 4 закрыть глаза, сильно напрягая глазные мышцы. На счет 1 - 6 раскрыть глаза, расслабив мышцы глаз, посмотреть вдаль. Повторить 4 - 5 раз. На счет 1 - 4 посмотреть на переносицу и задержать взор. До усталости глаза не доводить. На счет 1 - 6 открыть глаза, посмотреть вдаль. Повторить 4 - 5 раз. На счет 1 - 4, не поворачивая головы, посмотреть направо и зафиксировать взгляд. На счет 1 - 6 посмотреть прямо вдаль. Аналогичным образом проводятся упражнения, но с фиксацией взгляда влево, вверх и вниз. Повторить 3 - 4 раза. Быстро перевести взгляд по диагонали: направо вверх - налево вниз. Посмотреть прямо вдаль; затем налево - вверх, направо - вниз и посмотреть вдаль. Повторить 4 - 5 раз.

Режим труда на предприятии  “Белсофт”  неукоснительно соблюдается; при этом эффективность перерывов повышается при сочетании с производственной гимнастикой или организации специального помещения для отдыха персонала, показанного на рисунке 5.1, с удобной мягкой мебелью, аквариумом и т. п.

 

   Рисунок 5.1- Комната отдыха в “Белсофт”

Рациональная планировка рабочего места на предприятии “Белсофт” предусматривает четкий порядок и постоянство размещения предметов, средств труда и документации. То, что требуется для выполнения работ чаще, расположено в зоне легкой досягаемости рабочего пространства. На рисунке 5.2 показано рабочее место инженера в Белсофте.

      Рисунок 5.2- Рабочее место инженера-разработчика в “Белсофт”

Основным рабочим положением является положение сидя.  Рабочая поза сидя, показанная на рисунке 5.3, вызывает минимальное утомление.

             

    Рисунок 5.3- Правильное расположение за компьютером

Создание благоприятных условий труда и правильное эстетическое оформление рабочих мест имеет большое значение как для облегчения труда, так и для повышения его привлекательности, положительно влияющей на производительность труда.

Объем помещений, в которых размещены инженеры-разработчики на предприятии “Белсофт”, не меньше 19,5 м3/человека с учетом максимального числа одновременно работающих в смену.

Для обеспечения комфортных условий на предприятии “Белсофт” использованы как организационные методы (рациональная организация проведения работ в зависимости от времени года и суток, чередование труда и отдыха), так и технические средства (вентиляция, кондиционирование воздуха, современная отопительная система), которые показаны на

рисунке 5.4.

           Рисунок 5.4- Кондиционер и вентиляционная система в “Белсофт”

Окраска помещений и мебели создает благоприятные условия для зрительного восприятия, хорошего настроения. Источники света, такие как светильники и окна, которые дают отражение от поверхности экрана, значительно ухудшают точность знаков и влекут за собой помехи физиологического характера, которые могут выразиться в значительном напряжении, особенно при продолжительной работе. Поэтому отражение, включая отражения от вторичных источников света, сведено к минимуму. Для защиты от избыточной яркости окон применены жалюзи.

В помещении, где работают инженеры-разработчики, применяется система комбинированного освещения. Кроме того все поле зрения освещено достаточно равномерно – это основное гигиеническое требование. Иными словами, степень освещения помещения и яркость экрана компьютера примерно одинаковыми, т.к. яркий свет в районе периферийного зрения значительно увеличивает напряженность глаз и, как следствие, приводит к их быстрой утомляемости.

   Рисунок 5.5- Рабочее помещение в Белсофт

Шум ухудшает условия труда, оказывая вредное действие на организм человека. Уровень шума на рабочем месте  не превышает 50 дБ. Сетевое оборудование, демо-оборудование и наиболее мощная вычислительная техника расположены в серверной.

         Рисунок 5.6- Серверная комната в Белсофт

    На предприятии “Белсофт” работники выполняют трудовую дисциплину, требования охраны труда, правила личной гигиены, требования пожарной безопасности, знают порядок действий при пожаре, умеют применять первичные средства пожаротушения. Курение на предприятии разрешается только в специально предназначенном  месте на улице.

         Рисунок 5.7- Место для курения.

     Все работники предприятия обладают приемами оказания первой помощи при несчастных случаях. О неисправностях оборудования и других замечаниях по работе заблаговременно сообщают непосредственному руководителю или лицам, осуществляющим техническое обслуживание оборудования.

                                         

                                           ЗАКЛЮЧЕНИЕ

   

В данной  дипломной работе был рассмотрен один из способов организации виртуализации рабочих станций. В процессе организации корпоративной сети с внедрением VDI были рассмотрены следующие вопросы:

– подходы к виртуализации рабочих столов;

– выбор серверного оборудования;

– выбор и настройка сетевого оборудования;

– выбор системы хранения данных;

– установка и настройка виртуальной инфраструктуры vSphere;

– установка и настройка программного комплекса для виртуализации рабочих станций - VMware View;

Проведен обзор рынка решений VDI различных производителей и обзор возможностей современных платформ виртуализации. На основе полученных данных было отдано предпочтение решению от компании VMware — Vmware View. Также был проведен анализ требований к параметрам настроек передачи данных, критичных при работе в сети с виртуализацией персональных компьютеров.

В ходе выполнения дипломной работы была полностью разработана структура корпоративной сети с внедрением технологии VDI для ста виртуальных рабочих мест, определены настройки сетевого  оборудования, виртуальной платформы vSphere и программного комплекса  VMware View. Итогом дипломной работы стала полностью функционирующая сеть, так называемое решение “под ключ”.

             СПИСОК ИСПОЛЬЗУЕМЫХ ИСТОЧНИКОВ

        

  1.  Principled Technologies Report – View 5 Compared to XenDesktop 5.5 [Электронный ресурс] – Режим доступа http://www.vmware.com/files/pdf/

techpaper/PCoIPvHDXsinglesession03-05-12.pdf .

  1.  VMware Horizon View Architecture Planning [Электронный ресурс] – Режим доступа http://www.vmware.com/files/pdf/view.
  2.  Server and Storage Sizing Guide for Windows 7 [Электронный ресурс] – Режим доступа http://www.vmware.com/files/pdf/view.
  3.  Требования к системе выпуска 2007 системы Microsoft Office [Электронный ресурс] – Режим доступа http://office.microsoft.com/ru-ru/support/HA010166865.aspx.
  4.  Transparent Page Sharing (TPS) in hardware MMU systems [Электронный ресурс] – Режим доступа http://kb.vmware.com/selfservice/ microsites/search.do?language=en_US&cmd=displayKC&externalId=1021095.
  5.  VMware View Optimization Guide for Windows 7 [Электронный ресурс] – Режим доступа  http://www.vmware.com/files/pdf/.
  6.  IBM System x3650 M4 IBM Redbooks Product Guide [Электронный ресурс] – Режим доступа  http://www.intel.ru/content/dam/www/public/us/en/

documents/guides/xeon-e5-ibm-redbook-ibm-system-x3650-m4-guide.pdf.  

  1.  IBM Midrange System Storage Implementation and Best Practices Guide [электронный ресурс] – режим доступа  http://www.redbooks.ibm.com/

redbooks/pdfs/sg246363.pdf.

  1.  Compare Models [Электронный ресурс]  – Режим доступа http://www.cisco.com/en/US/products/hw/switches/ps5023/prod_models_comparison.html.
  2.  Создание и управление стеками коммутаторов на примере коммутатора Catalyst 3750 [Электронный ресурс] – Режим доступа http://www.akvilona.ru/serv/cisco/a_catalyst3750.htm.
  3.  Михеев М. О. Администрирование VMware vSphere 5. - М.: ДМК Пресс, 2012. - 504 с.: ил.
  4.  VMware View Installation [Электронный ресурс] – Режим доступа http://www.vmware.com/files/pdf/view.
  5.   Configuring PCoIP for use with View Manager [Электронный ресурс] – Режим доступа http://kb.vmware.com/selfservice/microsites.
  6.  Cisco ASA 5500 SSL VPN Deployment Guide, Version 8.x [Электронный ресурс] – Режим доступа http://www.cisco.com/en/US/docs.
  7.   Максимов Г.Т. Технико-экономическое обоснование дипломных проектов: Методическое пособие для студентов всех специальностей БГУИР дневной и заочной форм обучения. В 4 ч. Ч. 1. Научно-исследовательские проекты / Г.Т. Максимов. – Мн.: БГУИР, 2003. – 42с., ил.

PAGE  9


 

А также другие работы, которые могут Вас заинтересовать

19203. Детекторы заряженных частиц – канальные электронные умножители и микроканальные пластины. Поверхностно-барьерный детектор 128.5 KB
  Лекция 15 Детекторы заряженных частиц – канальные электронные умножители и микроканальные пластины. Поверхностнобарьерный детектор. Твердотельный рентгеновский спектрометр. В настоящее время наиболее распространенными детекторами заряженных частиц являются канал...
19204. Основные понятия вакуумной техники. Длина свободного пробега ионов при различных давлениях. Адсорбция остаточных газов на поверхности образца 123 KB
  Лекция 16 Основные понятия вакуумной техники. Длина свободного пробега ионов при различных давлениях. Адсорбция остаточных газов на поверхности образца. Методы очистки поверхности. Состояние разреженного газа при давлении ниже атмосферного принято называть вакуумом....
19205. ОСНОВНЫЕ ПОНЯТИЯ И СВОЙСТВА ПЛАЗМЫ 254 KB
  Лекция № 1. Плазма – коллективное состояние заряженных частиц ионизованного газа. Пространственные и временные масштабы разделения зарядов в плазме. Идеальная и неидеальная вырожденная плазма. Холодная газоразрядная горячая и релятивистская плазма. I. ОСНОВНЫ...
19206. Траектории заряженных частиц в однородных электрическом и магнитном полях 603 KB
  Лекция № 2. Траектории заряженных частиц в однородных электрическом и магнитном полях. Отклонение и фокусировка заряженных частиц в постоянном электрическом поле. Фокусировка в плоском и цилиндрическом конденсаторах. Электростатические энергоанализаторы. Фокусиро
19207. Движение в неоднородном магнитном поле 333 KB
  Лекция № 3. Движение в неоднородном магнитном поле. Дрейфовое приближение условия применимости дрейфовая скорость. Дрейфы в неоднородном магнитном поле. Адиабатический инвариант. Движение в скрещенных электрическом и магнитном полях. Общий случай скрещенных поля л...
19208. Аналогия световой и электронной оптики. Электронная оптика параксиальных пучков 735 KB
  Лекция № 4. Аналогия световой и электронной оптики. Электронная оптика параксиальных пучков. Движение заряженных частиц в аксиальносимметричном электрическом поле. Основные типы электростатических линз. IV. Электронная оптика. 4.1. Аналогия световой и электрон
19209. Движение заряженных частиц в аксиально-симметричном магнитном поле. Магнитные линзы 412.5 KB
  Лекция № 5. Движение заряженных частиц в аксиальносимметричном магнитном поле. Магнитные линзы. Фокусировка короткой катушкой. Магнитные квадрупольные линзы жесткая фокусировка. Магнитные электронные микроскопы. Аберрация электронных линз. V. Магнитные линзы. ...
19210. Ограничение тока пространственным зарядом в диоде. Формула Ленгмюра и Богуславского для плоских и цилиндрических электродов 325.5 KB
  Лекция № 6. Ограничение тока пространственным зарядом в диоде. Формула Ленгмюра и Богуславского для плоских и цилиндрических электродов. Учет начальных скоростей частиц. Образование виртуального катода. Предельная плотность тока пучка частиц в пролетном промежутке
19211. Расхождение пучков заряженных частиц под действием собственного объемного заряда 421.5 KB
  Лекция № 7. Расхождение пучков заряженных частиц под действием собственного объемного заряда. Прямолинейные пучки электронных лучей электронные пушки Пирса. VII. Формирование электронных и ионных пучков. 7.1. Расплывание пучков заряженных частиц под действи