48523

СОВРЕМЕННЫЕ ПРОБЛЕМЫ ИНФОРМАТИКИ И ВЫЧИСЛИТЕЛЬНОЙ ТЕХНИКИ. КОНСПЕКТ ЛЕКЦИЙ

Конспект

Информатика, кибернетика и программирование

Способы представления знаний Численность населения на земном шаре 30 октября 2011 г. По данным Xerox 46 специальных знаний компаний не использующих систем управления знаниями заключены в документации разного рода. Для любой организации желающей преуспеть в сегодняшней глобальной информационной экономике необходима интеллектуальная исчерпывающая и простая в использовании система для управления знаниями а также система доступа к знаниям и система приобретения новых знаний. Тематика управления и представления знаний получает...

Русский

2013-12-11

1.02 MB

116 чел.

МИНИСТЕРСТВО  ОБРАЗОВАНИЯ  И  НАУКИ  РОССИЙСКОЙ  ФЕДЕРАЦИИ

Государственное образовательное учреждение высшего профессионального образования

«НАЦИОНАЛЬНЫЙ ИССЛЕДОВАТЕЛЬСКИЙ

ТОМСКИЙ ПОЛИТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ»

А.Д. Чередов

СОВРЕМЕННЫЕ ПРОБЛЕМЫ ИНФОРМАТИКИ
И В
ЫЧИСЛИТЕЛЬНОЙ ТЕХНИКИ

КОНСПЕКТ ЛЕКЦИЙ

для студентов магистратуры по направлению
«Информатика и в
ычислительная техника»

2012


Лекция 1

Знания. Способы представления знаний

Численность населения на земном шаре 30 октября 2011 г. достигла 7 млрд. человек. Каждые 20 лет развития численность  будет увеличиваться примерно на 1 млрд. и в скором будущем достигнет 10 млрд. человек. Для того, чтобы жизнь на земном шаре продолжала существовать, человечеству необходимо спроектировать Мир, отвечающий следующим требованиям:

  •  Пригодный для счастливой жизни
  •  Здоровый
  •  Обильный
  •  Эффективный
  •  Социально-ответственный
  •  Почитающий и поддерживающий биоразнообразие
  •  Устойчиво развивающийся.

Достичь этих требований можно только с помощью развитой мировой экономики. Глобальное развитие экономики должно идти по пути от индустриальной экономики к интеллектуальной экономике, основанной на знании. Интеллектуальные системы, интеллектуальная инфраструктура, наукоёмкие производства должны стать фундаментом всего мирового развития.

Важнейшим ресурсом современного предприятия, способным значительно повлиять на повышение его конкурентоспособности и инвестиционной привлекательности, являются корпоративные знания. Сегодня с этим никто не спорит, вопрос только в том, как воспользоваться этими корпоративными знаниями, так как большинство из них скрыто в головах сотрудников.

Управление знаниями становится наиболее горячей темой, обсуждаемой специалистами всех уровней управления. Способность эффективно использовать и развивать знания, воплощать их в новые изделия и услуги превращается в важнейший фактор выживания в условиях информационного общества. Знания – это богатство фирмы, которое добывается, обрабатывается и распространяется.

По мнению специалистов, во многих фирмах знания документируются и распределяются произвольно,   без строгой системы. По данным Xerox, 46% специальных знаний компаний, не использующих систем управления знаниями, заключены в документации разного рода. Из них 26% находятся на бумажных носителях, а остальные – на компьютерных. Отдельные сведения хранятся у сотрудников в папках или на жестких дисках и могут быть получены только ими.

Для любой организации, желающей преуспеть в сегодняшней глобальной информационной экономике,  необходима  интеллектуальная,  исчерпывающая  и  простая  в использовании система для управления знаниями, а также система доступа к знаниям и система приобретения новых знаний.

Тематика управления и представления знаний получает мощный толчок развития последние 20–25 лет, хотя первые разработки в этом направлении начинались ещё в 60-х. В связи с подобным развитием, напрашивается вывод, что развитие систем управления знаниями связано с развитием сети Интернет. И действительно, организации могут начать управлять запасами своих знаний, только при условии возможности их быстрого распространения и обмена.

Понятие «знания»

По мере того как появляется все больше и больше организаций, инвестирующих в службы по управлению знаниями, возникает необходимость разобраться в том, что понимается под терминами «знания».

С точки зрения целей общества, где доминируют информационные технологии, знания – это просто интеллект, используемый в работе. Знания, приобретаемые фактическим опытом, продуктивны только тогда, когда они используются при выполнении работы или интегрируются в процессе выполнения работы.

Знания приобретают разные формы и поэтому ими становится сложнее управлять. Часто знания оказываются чем-то большим, чем просто информацией и данными о событиях, продуктах или процедурах. Знания есть вторая производная от данных, которые присутствуют во множестве источников в любой организации (рис. 1.1).

Рис. 1.1. Понятие «знания»

Если данные – это не долго живущие новости, временные записи и т.п., не предназначенные для длительного использования, то информация представляет собой полуструктурированные (или агрегированные) данные, служащие, например, опорой для периодического принятия каких-либо решений. В свою очередь знания, являющиеся результатом переработки информации, имеют весьма длительный цикл жизни, несут определенную идею и снабжены контекстом, определяющим область ее эффективного применения в данном месте в данное время. Говоря другими словами, информация это то, что может иметь отношение к решаемой задаче, а знания это то, что необходимо для решения данной задачи.

Знания подразделяют на явные и неявные. Явное – это то, что можно потрогать, сохранить на диске или просмотреть в браузере. Неявное – то, что находится в головах сотрудников, рекомендации, которые пересказываются из уст в уста, навыки, выработанные в результате тренингов. Системы управления знаниями имеют опосредованное отношение к неявным знаниям, которые вообще очень трудно поддаются управлению. Однако следует отметить, что в определенных случаях системы управления знаниями способствуют переходу неявных знаний в явные. Для этого неявные знания, во-первых, должны существовать, и, во-вторых, их владелец должен захотеть ими поделиться.

Корпоративные знания делятся на внешние и внутренние. 

Внешние:

  •  знания клиента (наиболее важное знание для большинства организаций);
  •  независимая аналитическая информация (маркетинговые отчеты и рейтинги, цены на международных фондовых биржах) и др.

Внутренние:

  •  знания о ключевых для данной отрасли процессах – накопление лучшего опыта (ноу-хау) при выполнении основных задач;
  •  знания об изделиях (и услугах);
  •  лучшие решения, наиболее соответствующие текущим потребностям пользователей;
  •  знания сотрудников – выявление, накопление и использование интеллектуального капитала (наиболее ценный актив организации);
  •  «память» организации (прошлый опыт);
  •  знания о построении отношений – глубокие персональные знания, которые обеспечивают успешное сотрудничество;
  •  интеллектуальные активы (базы знаний) – опыт ведения проектов (образцы наилучшей практики).

Представление знаний

Вопрос представления знаний возникает в когнитологии (науке о мышлении), в информатике и в исследованиях по искусственному интеллекту. В когнитологии он связан с тем, как люди хранят и обрабатывают информацию. В информатике – с подбором представления конкретных и обобщённых знаний, сведений и фактов для накопления и обработки информации в ЭВМ. Главная задача в искусственном интеллекте – научиться хранить знания таким образом, чтобы программы могли осмысленно обрабатывать их и достигнуть тем подобия человеческого интеллекта.

Для формализации и представления знаний разрабатываются специальные модели представления знаний и языки для описания знаний, выделяются различные типы знаний.

Признано, что системы, основанные на знаниях, целесообразно разрабатывать с выделением ряда подсистем. Основными из них считаются:

  •  подсистема представления декларативных знаний1;
  •  подсистема представления процедурных знаний2;
  •  подсистема манипулирования знаниями (механизм логического вывода).

Целью такого разделения является возможность использования системы в различных предметных областях. Для этого достаточно заменить подсистему представления декларативных знаний без изменения остальных частей. В самом деле, имея универсальный механизм логического вывода, достаточно заполнить оболочку системы конкретными правилами и фактами из требуемой предметной области, чтобы получить готовую к применению систему.

История развития методов инженерии знаний свидетельствует о том, что эта идея продолжительное время являлась основополагающим направлением исследований. Так, например, А. Ньюэлл и Г. Саймон из Университета Карнеги-Меллона (США) разработали программу GPS – универсальный решатель задач. В формальной логике был разработан метод резолюций. В 70-х гг. XX в., однако, большинство исследователей пришли к выводу, что не существует универсальной системы представления процедурных знаний, пригодной для всех областей деятельности. Подтверждением этому служит высокая ценность специалистов-экспертов в узких предметных областях. Была сформулирована проблема представления знаний.

Проблема представления знаний заключается в несоответствии между сведениями о зависимостях данной предметной области, имеющимися у специалиста, методами, используемыми им при решении задач, и возможностями формального (однозначно-ограниченного) представления такой информации в ЭВМ. Часто проблема осложняется трудностями для эксперта по формулированию в явном виде имеющихся у него знаний.

Общая проблема представления знаний включает ряд частных проблем:

  •  представление декларативных знаний как данных, наделенных семантикой (фактов);
  •  представление процедурных знаний как отношений между элементами модели, в том числе в виде процедур и функций;
  •  представление метазнаний3 – правил обработки фактов, способов организации логического вывода, методов решения задач пользователем, порождения новых знаний и т. д.

Способы представления знаний

Это одно из важнейших направлений исследований в области искусственного интеллекта, без знаний искусственный интеллект не может существовать в принципе. Именно поэтому, при создании систем искусственного интеллекта особенное внимание уделяется способам представления знаний.

На сегодняшний день разработано уже достаточное количество способов. Каждый из них обладает своими плюсами и минусами, и поэтому для каждой конкретной задачи необходимо выбрать именно свой способ. От этого будет зависеть не столько эффективность выполнения поставленной задачи, сколько возможность её решения вообще.

Отметим, что способы представления знаний относятся к прагматическому направлению исследований в области искусственного интеллекта. Это направление основано на предположении о том, что мыслительная деятельность человека – «чёрный ящик». При таком подходе не ставится вопрос об адекватности используемых в компьютере способов представления знаний тем способам, которыми пользуется в аналогичных ситуациях человек, а рассматривается лишь конечный результат решения конкретных задач.

Из множества разработанных способов представления знаний можно выделить два основных подхода (рис. 1.2): эмпирический и теоретический.

Рис. 1.2. Классификация способов представления знаний

Эмпирический подход основывается на исследовании сознания человека, изучении принципов организации памяти и моделировании механизмов решения задач.

Другой подход – теоретический, можно назвать теоретически обоснованным. Он «гарантирует» правильность решений. В рамках этого подхода  до настоящего времени удавалось решать только сравнительно простые задачи из узкой предметной области.

Кроме способов, разработанных в рамках каждого из этих подходов, отдельно выделяют (относя к обоим подходам сразу) бионическое направление, представленное генетическими алгоритмами и нейронными сетями.

В каждом подходе мы увидим своё отношение и к тому, что является знанием, и к тому, как его представлять. Если в теоретических способах знания строго формализованы, то эмпирические призваны дать некоторую свободу. Однако, ценой за эту свободу будет потенциальная невыводимость некоторых решений и невозможность найти ответ на поставленный вопрос, когда теоретические способы это гарантируют.


Лекция 2

Управление знаниями

Управление знаниями (knowledge management) – это формальный процесс, который состоит в оценке организационных процедур, людей и технологий, в создании системы, использующей взаимосвязи между этими компонентами с целью предоставления нужной информации нужным людям в нужное время, что приводит к повышению продуктивности.

Управление знаниями включает в себя комплекс формализованных методов, охватывающих:

• поиск и извлечение знаний из живых и неживых объектов (носителей знаний);

• структурирование и систематизацию знаний (для обеспечения их удобного хранения и поиска);

• анализ знаний (выявление зависимостей и аналогий);

• обновление (актуализацию) знаний;

• распространение знаний;

• генерацию новых знаний.

Для управления знаниями в организациях используют СУЗы (системы управления знаниями). Предприятие не способно управлять своим интеллектуальным капиталом в отсутствии СУЗ. Интеллектуальные активы предприятия увеличивают его конкурентоспособность и рыночную стоимость (рис. 2.1). Предприятие должно не только охранять свои патенты, авторские права и ноухау, но и выявлять и охранять знания своих ведущих специалистов, знания о производстве товаров (услуг), о покупателях, конкурентах и т.п.

Рис. 2.1. Интеллектуальные активы и стоимость предприятия

В рамках СУЗ особое внимание предлагается уделить выявлению неявных знаний сотрудников (т.е. знаний, которые приобретены в ходе опыта работы и явно не выражены).

В процессе управления знаниями обычно выделяют следующие виды функций:

  •  создание – функция, результатом которой являются новые знания или новые конфигурации существующих знаний;
  •  выявление – функция, которая делает неявные знания явными, т.е. преобразует индивидуальные знания в знания предприятия (его сотрудников);
  •  организация знаний – функция по классификации и категоризации знаний для навигации, запоминания, поиска и сопровождения знаний;
  •  доступ – функция по передаче и распространению знаний между сотрудниками;
  •  использование – функция по применению знаний для принятия решений и расширению возможностей.

Есть три основных компонента управления знаниями:

  •  люди получают, генерируют и передают знания;
  •  процессы используются для распространения знаний;
  •  технологии обеспечивают быструю и эффективную работу людей и процессов.

В зависимости от архитектуры и подхода к построению СУЗ, можно выделить два случая:

  •  корпоративная память (база знаний) – упор делается на программную реализацию задач получения, хранения и интегрирования знаний;
  •  портал знаний – упор делается на программную реализацию задач уровня пользовательских приложений поиска и визуализации знаний.

Сравнительно новый подход к управлению знаниями – семантический веб. Не следует путать семантический веб с приведённым ранее способом представления знаний «семантическая сеть». Сейчас значительная часть содержания всемирной сети предназначена для чтения человеком, а не для осмысленного манипулирования им с помощью компьютерных программ. Компьютер способен умело разобраться в разметке веб-страницы и произвести рутинную её обработку – тут идёт заголовок, здесь следует ссылка на другую страницу, но у компьютера нет надёжного способа обрабатывать смысл документа: это домашняя страница компании, а эта ссылка ведёт на резюме сотрудников данной компании. Семантический веб призван решить эту проблему.

Корпоративная память

Одним из первых инструментов СУЗ стали хранилища данных, которые работают по принципу центрального склада. Как правило, хранилища содержат многолетние версии обычной базы данных, физически размещаемые в той же самой базе. Когда все данные содержатся в едином хранилище, изучение и анализ связей между отдельными элементами могут быть наиболее эффективны. В дальнейшем идея хранилища была развита в понятие корпоративной памяти, которая по аналогии с человеческой памятью позволяет накапливать информацию из предыдущего опыта и якобы избегать повторения ошибок, что является чисто декларативным утверждением.

Корпоративная память (КП) хранит информацию из различных источников предприятия и делает эту информацию доступной специалистам для решения производственных задач.

На современном уровне развития информационных технологий КП, или как их ещё именуют – централизованные корпоративные хранилища, имеют следующую структуру и состав (рис. 2.2).

Рис. 2.2. Структура и состав корпоративного хранилища

Как следует из приведенного рисунка, в КП (в централизованном корпоративном хранилище) данные, информация и знания представляются на трех уровнях агрегации. Нижний, наиболее детальный уровень, для данных составляют базы данных, файлы, Web-страницы, для информации – электронные (оцифрованные) документы и чертежи, для знаний – базы знаний. Средний уровень – это справочники и каталоги для данных, отчеты, методики, регламенты, технологии – для информации, правила логического вывода – для знаний. Верхний уровень представляют метаданные, структура архивов (метаинформация) и онтологии для данных, информации и знаний соответственно.

Предметная ориентация, интегрированный характер, наличие не только текущих оперативных данных, но и исторических данных являются важными свойствами корпоративных хранилищ.

Основные функции КП:

  •  сбор и систематическая организация информации;
  •  интеграция с существующими автоматизированными системами;
  •  обеспечение нужной информации по запросу (пассивная форма) и при необходимости (активная форма).

Конечная цель КП состоит в обеспечении доступа к знанию всякий раз, когда это необходимо. Для этого КП реализует активный подход к распространению знаний, который не полагается на запросы пользователей, а автоматически обеспечивает полезное для решения задачи знание. Чтобы предотвращать информационную перегрузку, этот подход должен быть совмещён с высокой выборочной оценкой уместности. Законченная система должна действовать как интеллектуальный помощник пользователю.

Интеллектуальный анализ данных выполняется методами, характерными для систем OLAP, извлечение сведений о зависимостях и закономерностях, имеющихся в данных, осуществляется с помощью систем Data Mining.

Корпоративный портал знаний

В настоящее время найдено универсальное решение, обеспечивающее доступ к информации в рамках СУЗ – это корпоративные порталы знаний. Корпоративный портал – это система, которая объединяет все имеющиеся у организации информационные ресурсы (приложения, базы и хранилища данных, аналитические системы и пр.) и, используя web-интерфейс, предоставляет пользователям единый защищенный доступ к корпоративной и внешней информации (рис. 2.3).

Рис. 2.3. Схема корпоративного портала

Полезные свойства порталов:

  •  систематизация контента и предоставление удобных средств поиска и навигации;
  •  управление контентом для различных групп сотрудников (управление доступом);
  •  внутрикорпоративный обмен знаниями и совместная работа за счет наличия различных конференций, форумов и единого рабочего пространства;
  •  индивидуальный персонализированный интерфейс;
  •  возможность работы с онтологиями.

Контент это любое информационное наполнение чего-либо (картинки, текст, видеоролики и т.д.) (англ. content – содержание). По отношению к сети Интернет обычно имеют в виду контент сайта, т.е. всё, что предстаёт перед глазами пользователя, что он может почитать, посмотреть или послушать. А вот под контентом сайта чаще всего понимают его текстовое наполнение (к примеру, то, что Вы сейчас читаете).

Контент делится на уникальный (копии которого отсутствуют в поисковых системах), и не уникальный.

Семантический Веб

Семантический Веб – это направление развития Всемирной паутины, целью которого является представление информации в виде, пригодном для машинной обработки.

В обычной Паутине, основанной на HTML-страницах, информация заложена в тексте страниц и извлекается человеком с помощью браузера. Семантическая же паутина предполагает запись информации в виде семантической сети с помощью онтологий.

Для того, чтобы Семантический Веб мог функционировать, компьютеры должны иметь доступ к структурированным хранилищам информации и множествам правил вывода, которые могли бы использоваться для проведения автоматических рассуждений. Однако два хранилища информации или базы данных могут использовать различные идентификаторы для обозначения одного и того же понятия, такого, например, как почтовый индекс. И программа, желающая сравнить или как-то скомбинировать информацию из этих баз данных, должна знать, что два конкретных термина используются ими для обозначения одного и того же. В идеале, у программы должен быть способ распознавать подобные термины с одинаковым смыслом, с какими бы базами данных ей не пришлось столкнуться в процессе своей работы.

Решение этой проблемы достигается онтологией. Существует несколько определений онтологии. Дословный перевод от древнегреческого (греч. on, ontos – сущее, logos – учение) – наука о сущем. Термин «Онтология» был предложен Р. Гоклениусом в 1613 г. и обозначал раздел философии, изучающий бытие.

В искусственном интеллекте и информатике онтология – это формальное описание понятий (классов) в рассматриваемой предметной области, свойств каждого понятия (атрибутов, слотов, ролей), включает также декларативные и процедурные интерпретации понятий и их отношений и ограничения (фасеты), наложенные на слоты. В центре большинства онтологий находятся классы. Слоты могут иметь различные фасеты, которые описывают тип значения, разрешенные значения, число значений (мощность) и др.

Другое определение онтологии дается следующей ее моделью:

,       (1)

где – множество понятий предметной области, называемых также концептами, – множество отношений между концептами, – множество функций интерпретации концептов и отношений.

Частные случаи (1):

Простой словарь = , = ; словари часто называют глоссариями, в них наряду с самими концепатми описываются грамматические, стилистические характеристики и примеры использования.

Простая таксономия (т.е. иерархическая система понятий) = .

Важно различать класс и его имя: классы представляют понятия предметной области, а не слова, которые обозначают эти понятия. Синонимы одного и того же понятия не представляют различные классы.

Для представления онтологий применяют дескриптивную логику, логику первого порядка, графы и семантические сети.

Онтология определяет классы объектов и отношения между ними. Например, понятие адрес может быть определено как разновидность понятия местонахождение, а код города можно задавать применительно лишь к местонахождениям и так далее. Задание классов, подклассов, а также отношений между индивидами является чрезвычайно мощным инструментом для использования в вебе.

Таким образом программа-клиент может непосредственно извлекать из паутины факты и делать из них логические заключения. Семантическая паутина работает параллельно с обычной Паутиной и на её основе, используя протокол НТТР и идентификаторы ресурсов URI.

Применение семантического Web направлено на повышение эффективности решения следующих проблем:

  •  расширенная навигация в информационном Web-пространстве и многомерный поиск;
  •  семантическая интероперабельность порталов и других источников и хранилищ информации; данные из разных источников и разных форматов могут быть интегрированы в одном приложении;
  •  реструктуризация информации в порталах, описание содержимого и взаимосвязей веб-сайтов, страниц, библиотек.

Интероперабельность (англ. Interoperability – способность к взаимодействию) – это способность продукта или системы, интерфейсы которых полностью открыты, взаимодействовать и функционировать с другими продуктами или системами без каких-либо ограничений доступа и реализации. Интероперабельность программного обеспечения (функциональность программного обеспечения) – способность программного продукта выполнять набор функций, определённых в его внешнем описании и удовлетворяющих заданным или подразумеваемым потребностям пользователей.

Полноценный Семантический веб – это технология управления знаниями будущего, однако, уже сейчас можно пользоваться его отдельными технологиями и применять в ограниченных областях. Примером является Семантический веб организации – или реализация этой концепции в рамках отдельной организации.


Лекция 3

Эволюционные методы вычислений. Синергетика

Эволюционные вычисления – термин, обычно используемый для общего описания алгоритмов поиска, оптимизации или обучения, основанных на формализованных принципах естественного эволюционного процесса.

Эволюционные методы предназначены для поиска предпочтительных решений и основаны на статистическом подходе к исследованию ситуаций и итерационном приближении к искомому состоянию систем. В отличие от точных методов математического программирования эволюционные методы позволяют находить решения, близкие к оптимальным, за приемлемое время, а в отличии от известных эвристических методов оптимизации характеризуются существенно меньшей зависимостью от особенностей приложения (т.е. более универсальны) и во многих случаях обеспечивают лучшую степень приближения к оптимальному решению. Основное преимущество эволюционных методов оптимизации заключается в возможности решения многомодальных (имеющих несколько локальных экстремумов) задач с большой размерностью за счет сочетания элементов случайности и детерминированности точно так же, как это происходит в природной среде. Детерминированность этих методов заключается в моделировании природных процессов отбора, размножения и наследования, происходящих по строго определенным правилам. В основу процесса отбора положен закон эволюции: «выживает сильнейший». Суть процессов размножения и наследования заключается в том, что рассматриваемые варианты решений могут по определенному правилу порождать новые решения, которые будут наследовать лучшие черты своих «предков».

В качестве случайного элемента в методах эволюционных вычислений используется моделирование процесса мутации. С ее помощью характеристики того или иного решения могут быть случайно изменены, что приведет к новому направлению в процессе эволюции решений и может ускорить процесс выработки лучшего решения.

Выделяют следующие направления эволюционных методов:

  1.  Эволюционные стратегии. Метод оптимизации, основанный на идеях адаптации и эволюции. Степень мутации в данном случае меняется со временем – это приводит к, так называемой, самоадаптации.
  2.  Генетическое программирование. Применение эволюционного подхода к популяции программ.
  3.  Эволюционное программирование. Процесс построения программ строится как эволюция в мире программ.
  4.  Генетические алгоритмы. Генетический алгоритм – это алгоритм, который позволяет найти удовлетворительное решение к аналитически неразрешимым или сложно решаемым проблемам через последовательный подбор и комбинирование искомых параметров с использованием механизмов, напоминающих биологическую эволюцию.
  5.  Теорию муравьиных колоний. Эти алгоритмы основаны на применении нескольких агентов и обладают специфическими свойствами, присущими муравьям, и используют их для ориентации в физическом пространстве. Алгоритмы поведения муравья используются для решения не только статичных, но и динамических проблем, например, в изменяющихся сетях.

Достоинства и недостатки эволюционных вычислений

Преимущества и недостатки эволюционных вычислений можно вкратце сформулировать следующим образом.

Достоинства эволюционных вычислений:

  •  широкая область применения;
  •  возможность проблемно-ориентированного кодирования решений, подбора начальной популяции, комбинирования эволюционных вычислений с неэволюционными алгоритмами, продолжения процесса эволюции до тех пор, пока имеются необходимые ресурсы;
  •  пригодность для поиска в сложном пространстве решений большой размерности;
  •  отсутствие ограничений на вид целевой функции;
  •  ясность схемы и базовых принципов эволюционных вычислений;
  •  интегрируемость эволюционных вычислений с другими неклассическими парадигмами искусственного интеллекта, такими как искусственные нейросети и нечеткая логика.

Недостатки эволюционных вычислений:

  •  эвристический характер эволюционных вычислений не гарантирует оптимальности полученного решения;
  •  относительно высокая вычислительная трудоемкость, которая однако преодолевается за счет распараллеливания на уровне организации эволюционных вычислений и на уровне их непосредственной реализации в вычислительной системе;
  •  относительно невысокая эффективность на заключительных фазах моделирования эволюции.

Генетические алгоритмы

Генетические алгоритмы возникли в результате наблюдения и попыток копирования естественных процессов, происходящих в мире живых организмов, в частности, эволюции и связанной с ней селекции (естественного отбора) популяций живых существ.

Идею генетических алгоритмов высказал Дж. Холланд в конце 60-х–начале 70-х годов XX века. Он заинтересовался свойствами процессов естественной эволюции (в том числе фактом, что эволюционируют хромосомы, а не сами живые существа). Холланд был уверен в возможности составить и реализовать в виде компьютерной программы алгоритм, который будет решать сложные задачи так, как это делает природа – путем эволюции. Поэтому он начал трудиться над алгоритмами, оперировавшими последовательностями двоичных цифр, получившими название хромосом. В генетических алгоритмах применяется ряд терминов, заимствованных из генетики, прежде всего гены и хромосомы, а также популяция, особь, аллель, генотип, фенотип.

Эти алгоритмы имитировали эволюционные процессы в поколениях таких хромосом. В них были реализованы механизмы селекции и репродукции, аналогичные применяемым при естественной эволюции. Так же, как и в природе, генетические алгоритмы осуществляли поиск «хороших» хромосом без использования какой-либо информации о характере решаемой задачи. Требовалась только некая оценка каждой хромосомы, отражающая ее приспособленность. Механизм селекции заключается в выборе хромосом с наивысшей оценкой, которые репродуцируют чаще, чем особи с более низкой оценкой. Репродукция означает создание новых хромосом в результате рекомбинации генов родительских хромосом. Рекомбинация – это процесс, в результате которого возникают новые комбинации генов. Для этого используются две операции: скрещивание, позволяющее создать две совершенно новые хромосомы потомков путем комбинирования генетического материала пары родителей, а также мутация, которая может вызывать изменения в отдельных хромосомах.

Генетические алгоритмы применяются для решения следующих задач:

  •  оптимизации функций;
  •  разнообразные задачи на графах (задача коммивояжера, раскраска, нахождение паросочетаний);
  •  настройка и обучение искусственной нейронной сети;
  •  задачи компоновки;
  •  составление расписаний;
  •  игровые стратегии;
  •  аппроксимация функций;
  •  искусственная жизнь;
  •  биоинформатика.

Фактически генетические алгоритмы максимизируют многопараметрические функции. Поэтому их область применения столь широка. Все приведённые задачи решаются именно путём формирования функции, зависящей от некоторого числа параметров, глобальный максимум которой будет соответствовать решению задачи.

Синергетика

Синергетика – новое научное междисциплинарное направление, основанное профессором Штутгартского университета Г.Хакеном, которое занимается изучением систем, состоящих из многих подсистем различной природы и имеющих свойства, которыми не обладали подсистемы. Слово синергетика переводится как «энергия совместного действия» (от греческого: со – совместно, эргос – действие).

Синергетика представляет собой новую обобщающую науку, изучающую основные законы самоорганизации сложных систем. (математические модели явлений самоорганизации). Ее составными частями являются такие понятия и предметные области как нелинейная динамика, хаос, фракталы, катастрофы, бифуркации и т.п.

Понятия фрактал и фрактальная геометрия, появившиеся в конце 70-х, с середины 80-х прочно вошли в обиход математиков и программистов. Слово фрактал образовано от латинского fractus и в переводе означает состоящий из фрагментов.

Точка бифуркации – это состояние системы, когда очень маленькое воздействие приводит к глобальным изменениям. В духе, «взмах крыла бабочки привёл к урагану в Калифорнии». Кстати, «эффект бабочки» - это как раз о точках бифуркации. Витязь на распутье – это точка бифуркации. космический аппарат, летящий ровно в центре гравитации между Землёй и Луной и не имеющий достаточно скорости, чтобы уйти от обеих, находится в точке бифуркации. Он станет или спутником Земли, или спутником Луны. Точки бифуркации есть в экономике и политике.

Точка Растущая в наши дни популярность синергетики объясняется тем, что она становится языком междисциплинарного общения, на котором могут друг друга понимать специалисты по математике, физике, химии, биологии, психологии.

На вопрос: «Что такое синергетика?» можно дать несколько ответов.

Во-первых, буквальный. Речь идет о явлениях, которые возникают от совместного действия нескольких разных факторов, в то время как каждый фактор в отдельности к этому явлению не приводит.

Во-вторых, синергетику часто определяют как науку о самоорганизации. Под самоорганизацией понимают самопроизвольное усложнение структуры системы при медленном и плавном изменении ее параметров. При этом самопроизвольно возникающие образования называют диссипативными структурами.

Можно дать третье определение: синергетика – наука о неожиданных явлениях. Это определение не противоречит, а дополняет предыдущие. Действительно, при медленном плавном и монотонном изменении параметров в системе в некоторый момент «вдруг» появляются автоколебания. Причина – потеря устойчивости.

Анализ причин и законов самоорганизации и составляет предмет синергетики.

Формирование и сохранение упорядоченности структур требуется при решении многих задач не только в естественных и технических науках, но также в экономике и социологии.

Одной из практических задач синергетики является использование в искусственных системах, создаваемых человеком, явлений самоорганизации, имеющихся в биологических системах.

Вопрос об оптимальной упорядоченности и организации особенно остро стоит при исследованиях глобальных проблем – энергетических, экологических, многих других, требующих привлечения огромных ресурсов. Здесь нет возможности искать ответ методом проб и ошибок, а «навязать» системе необходимое поведение очень трудно. Гораздо разумнее действовать, опираясь на знание внутренних свойств системы, законов ее развития. В такой ситуации значение законов самоорганизации, формирования упорядоченности в физических, биологических и других системах трудно переоценить.

Основой синергетики является теория динамических систем.

В классической математической физике исследуются задачи, связанные с решением линейных уравнений. Линейные модели описывают процессы, в которых при изменении внешних воздействий наблюдаются количественные, но не качественные изменения состояний.

Если же внешние воздействия велики, то обычно начинают играть существенную роль нелинейные эффекты. Синергетика и предназначена для исследования нелинейных моделей.

Возникновение синергетики было неоднозначно воспринято научным сообществом. Одни говорили о новой парадигме в естествознании, социальных и гуманитарных науках на базе кооперации фундаментальных наук и их методов. Другие не видели в синергетике ничего нового по сравнению с современной теорией нелинейных колебаний и волн. Третьи склонялись к мнению, что синергетика всего лишь объединяющий лозунг и ничего более, и высказывали недоумение по поводу нездорового, по их мнению, ажиотажа, вызванного новым направлением.

Столь широкий разброс мнений связан с некоторыми необычными особенностями синергетики и ее взаимосвязями с другими науками.

В отличие от наук, возникавших на стыке двух дисциплин, например, физической химии или химической физики, одна из которых предоставляет новой науке предмет, а другая — метод исследования, синергетика опирается на методы, одинаково приложимые к различным предметным областям, и изучает сложные («многокомпонентные») системы безотносительно к их природе. Ясно, что ученый, который знакомится с синергетикой с позиции той науки, которой он занимается, прежде всего обращает внимание на те ее аспекты, которые наиболее близки основным идеям знакомой ему области знания. Что же касается отличий синергетики от наук «со стажем», то они остаются в тени. Между тем такие отличия существуют. Синергетика обращает внимание на то, что при традиционном подходе остается за рамками рассмотрения. Например, термодинамика и теория информации изучают статику, тогда как для синергетики основной интерес представляет динамика. Неравновесные фазовые переходы синергетических систем, включающие в себя колебания, пространственно-временные структуры и хаос, отличаются несравненно бoльшим разнообразием, чем фазовые переходы систем, находящихся в состоянии теплового равновесия. В отличие от кибернетики, занимающейся разработкой алгоритмов и методов, позволяющих управлять системой так, чтобы та функционировала заданным образом, синергетика изучает самоорганизацию системы при произвольном изменении управляющих параметров. Самоорганизацией при этом называют процесс, идущий за счёт внутренних стимулов, не требующий вмешательства внешних факторов, не принадлежащих системе. В отличие от теории динамических систем, которая игнорирует флуктуации в точках бифуркации, синергетика занимается изучением стохастической динамики во всей ее полноте в подпространстве зависящих от времени управляющих параметров.

Важная особенность синергетических систем состоит в том, что ими можно управлять извне, изменяя действующие на системы факторы. Например, скорость роста клеток можно регулировать извне, обрабатывая клетки различными химическими веществами. Параметры, описывающие действующие на систему факторы, называются управляющими.

Временнaя эволюция синергетических систем зависит от причин, которые не могут быть предсказаны с абсолютной точностью. Непредсказуемость поведения синергетических систем связана не только с неполнотой информации о состоянии их многочисленных подсистем (что заставляет ограничиваться описанием ансамблей подсистем вместо индивидуального описания каждой подсистемы) и неизбежными квантовыми флуктуациями, но и тем, что эволюция некоторых систем очень чувствительна к начальным условиям. Даже небольшое различие в начальных условиях в корне изменяет последующую эволюцию системы. Непредсказуемость эволюции синергетических систем получила название стохастичности.

В процессе временной эволюции синергетическая система, находящаяся в одном состоянии, переходит в новое состояние (старое состояние утрачивает устойчивость). При описании перехода из одного состояния в другое одни параметры состояния (быстрые переменные) можно выразить через другие (медленные переменные), которые называются параметрами порядка, в результате чего количество независимых переменных уменьшается. Возможность представления быстрых переменных в виде функций параметров порядка составляет содержание синергетического принципа подчинения. Например, если на местности имеется овраг, то самая низкая точка поверхности земли в окрестности оврага находится на его дне. Поэтому для нахождения этой точки существенны медленные переменные, или параметры порядка, описывающие «осевую» дна оврага, а быстрые переменные, описывающие склоны оврага, могут быть представлены как функции параметров порядка в силу принципа подчинения. Параметр порядка и принцип подчинения принадлежат к числу наиболее фундаментальных понятий синергетики.


Лекция 4

Направления развития элементной базы вычислительной техники.
Наноэле
ктроника

Любой современный кристалл процессора состоит из огромного количества транзисторов, исчисляемого миллионами и миллиардами, необходимого для достижения высокой производительности процессора. Уменьшение размеров транзистора ведёт к уменьшению напряжения питания, что в свою очередь снижает энергопотребление, к увеличению скорости работы и плотности размещения транзисторов на кристалле. Поэтому со времени создания первой интегральной микросхемы в 1959 году развитие микроэлектроники идёт по направлению уменьшения размеров транзисторов и одновременного увеличения плотности их размещения на кристалле. Для оценки этих параметров была введена специальная характеристика «Норма технологического процесса производства полупроводниковых кристаллов», измеряемая в нанометрах (нм). В недалёком прошлом (конец 90-х годов) кристаллы процессоров изготавливались по 130 нм нормам, с 2002 г. – по 90 нм, с 2006 – по 65 нм, с 2007 г. используются норма 45 нм, с 2009 г. – 32 нм, а с 2011 – 22 нм.

Спроектированный в Intel по 45-нм нормам транзистор примерно на 20% опережает своего 65-нм собрата по скоростным характеристикам и оказывается примерно на 30 % экономичнее с точки зрения затрат энергии на переключение.

22-нм процессоры Intel используют транзисторы с вертикально
(рис. 4.1) расположенным затвором FinFET (Fin Field Effect Transistor, также известные как 3D-транзисторы и «транзисторы с трёхмерной структурой затвора»). Согласно оценкам компании производительность 22-нм Tri-Gate транзисторов на 37 % выше производительности планарных 32-нм структур. При этом энергопотребление у новинок до 50 % меньше.


I

Рис. 4.1. Структура транзистора:
а – 32 нм традиционный планарный транз
истор;

б – 22 нм транзистор с трёхмерной структурой затвора

Обновленная версия транзистора отличается использованием затвора в виде тонкой трехмерной кремниевой пластины, установленной перпендикулярно кремниевому субстрату. Прохождение тока в этом случае контролируется тремя затворами, расположенными на гранях пластины. Такое усовершенствование при минимальных геометрических размерах транзисторов обеспечивает максимальную величину тока во включенном состоянии и приближенную к нулю – в выключенном. В результате не только ускоряется переключение, но и уменьшаются паразитные утечки, снижается напряжение питания и, как следствие, энергопотребление и нагрев чипа. Кроме того появляется возможность увеличить (рис. 4.2) плотность компоновки транзисторов, что позволяет нарастить их число для создания более сложных интегральных схем, при этом не увеличивая площадь самого кристалла. Примечательно, что при успешном внедрении 3D-транзисторов, стоимость производства чипов увеличивается всего на 2–3 %, при этом получаемый эффект несоизмерим с такими затратами.

Рис. 4.2. Вид транзисторов под микроскопом

Близок рубеж, за которым кремниевая технология не сможет обеспечить прогресс в быстродействии обработки и плотности хранения информации. Действительно, размер атома имеет порядок десятых долей нм, а принципы работы кремниевых транзисторов рассчитаны на структуры, как минимум, в несколько атомных слоев. Поэтому сегодняшние проектные нормы в 22 нм близки к этому рубежу.

Среди традиционных подходов можно назвать создание китайским ученым Вэйсяо Хуан (Weixiao Huang) первого в мире транзистора на основе нитрида галлия GaN. По своим характеристикам транзистор значительно превосходит используемые сегодня кремниевые аналоги и может работать в самых экстремальных условиях. Разработанная Хуаном технология позволяет интегрировать на один чип несколько функций, что невозможно осуществить, используя кремний. Поэтому переход с кремниевых транзисторов на GaN-транзисторы мог бы позволить значительно упростить электронные схемы. Кроме того, замена кремниевых транзисторов на аналогичные, но выполненные на основе нитрида галлия, позволит существенно уменьшить энергопотребление.

Особо интенсивный поиск «наследника кремния» ведётся среди наноструктур на основе углерода: фуллерены, углеродные нанотрубки, наноспирали, нанопровода, графеновые пленки и прочие.

Графен – это пленка углерода толщиной в один атом, имеющая строго упорядоченную гексагональную кристаллическую структуру (рис. 4.3). Графен можно считать развернутой в плоскость одностенной нанотрубкой, или двумерным фуллереном, или же отдельно взятым атомарным слоем из множества таких слоев, составляющих кристалл графита.

Графен обладает уникальными электрическими, оптическими, механическими и тепловыми свойствами, отличается высокой тепло- и электропроводностью. Подвижность электронов в графене в 10–20 раз выше, чем в арсениде галлия, что позволяет рассчитывать на получение приборов, работающих на частотах вплоть до 100 ГГц и выше. Графен, в отличие от нанотрубок, приспособлен для применения в обычной планарной технологии.

Рис. 4.3. Гексагональная кристаллическая структура графена

Различные элементы и межсоединения БИС могут быть получены в одном графеновом слое. В графеновом транзисторе используется металлический затвор и изолирующий слой, состоящий из полимера и оксида с высокой диэлектрической проницаемостью.

Электроны в графене перемещаются гораздо быстрее, чем в кремнии и благодаря этому можно свести токи утечки к минимуму, которые и ограничивают уменьшение энергозатрат процессорами.

Фуллерен – молекула, состоящая из атомов углерода, расположенных в вершинах правильных шести- и пятиугольников (рис. 4.4), образующих каркасную форму в виде замкнутой полой сферической или эллипсоидной оболочки. Молекулы фуллеренов могут содержать 28, 32, 50, 60, 70, 76 и т.д. атомов углерода. Самый известный из фуллеренов – это так называемый фуллерен C60. Этот фуллерен, обладает максимальной стабильностью. Атомы углерода в нем располагаются на сферической поверхности в вершинах 20 правильных шестиугольников и 12 правильных пятиугольников; каждый шестиугольник имеет три общие стороны с другими шестиугольниками и три общие стороны с пятиугольниками, то есть все пятиугольники граничат только с шестиугольниками.

Рис. 4.4. Сферическая структура фуллерена С60

Именно с фуллерена С60, открытого в 1985 году, началась целая эпоха развития этих удивительных по своим свойствам каркасных структур. Фуллерены были названы по имени американского архитектора Бакминстера Фуллера (Buckminster Fuller), который при конструировании куполов зданий применял структуры, подобные фуллеренам.

В конце 80-х – начале 90-х годов фуллерены научились получать в макроскопических количествах, а в 1991 году неожиданно были открыты новые фуллерены, напоминающие длинные цилиндрические каркасные формы – они называются нанотрубки.

Углеродная нанотрубка – цилиндрическая молекула, состоящая из атомов углерода, имеющая форму цилиндра диаметром около 1 нм и длину от одного до сотен мкм (рис. 4.5), внешне выглядит как свернутая в цилиндр графитовая плоскость. Цилиндр оканчивается молекулой фуллерена.Впервые обнаружена Сумио Ииджимой (корпорация NEC) в 1991 г. как побочный продукт синтеза фуллерена С60.

Нанотрубки бывают однослойными и многослойными. Последние представляют собой несколько однослойных нанотрубок, вложенных одна в другую. Основная классификация нанотрубок проводится по способу сворачивания графитовой плоскости. Различают прямые (ахиральные) нанотрубки и спиральные (хиральные) нанотрубки.

Нанотрубки обладают уникальными электрическими, магнитными и оптическими свойствами. Они могут быть как проводниками, так и полупроводниками. Нанотрубки на порядок прочнее стали. Получают нанотрубки путем термического распыления графитовых электродов в плазме дугового разряда. В результате такой обработки получается достаточно легкий и пористый материал, состоящий из многослойных нанотрубок со средним диаметром 20 нм и длиной около 10 мкм. Изготовление нанотрубок обходится дорого — один грамм стоит несколько сотен долларов США.

Рис. 4.5. Углеродная нанотрубка

На основе нанотрубок создаются новые сверхпрочные и сверхлегкие композиционные материалы. Нанотрубки используются в качестве иглы для сканирующего туннельного и атомного силового микроскопа, а также для создания полупроводниковых гетероструктур. Разрабатываются технологии применения нанотрубок в биомедицине и криминалистике.

Нанотрубки находят все большее применение в микроэлектронике, они используются для создания диодов и полевых транзисторов.

Например, изогнутая нанотрубка по свойствам проводимости адекватна диоду. Дело в том, что для изгиба нанотрубки в нее нужно внедрить дефектный элемент (например, заменить один из шестиугольников на пятиугольник). В результате степень скрученности нанотрубки с разных относительно изгиба сторон оказывается различной, что приводит к разному типу проводимости. С одной стороны относительно изгиба может быть металлическая проводимость, а с другой – полупроводниковая. В этом случае такая нанотрубка с изломом будет представлять собой структуру типа «металл – полупроводник» с односторонней (как и у диода) проводимостью.

В полевых транзисторах роль канала выполняет нанотрубка. В обычном состоянии концентрация свободных носителей зарядов (дырок и электронов) в нанотрубке мала, то есть она является диэлектриком. Зона проводимости в данном случае отделена от валентной зоны запрещенной зоной шириной в несколько электрон-вольт. Однако при помещении нанотрубки в электрическое поле ширина запрещенной зоны меняется и концентрация свободных носителей зарядов увеличивается. В этих условиях нанокарбоновая трубка становится проводником. Электрическое поле, управляющее проводимостью нанокарбоновой трубки, создается затвором, которым, как уже отмечалось, является кремниевая подложка. При потенциале затвора порядка 6 В концентрация свободных носителей заряда в валентной зоне достигает максимума, и нанотрубка становится хорошим проводником. Таким образом, меняя напряжение на затворе, можно управлять проводимостью нанотрубки и соответственно открывать или запирать транзистор.

Созданы и опробованы прототипы тонких плоских дисплеев, работающих на матрице из нанотрубок.

Другое применение нанотрубок – это создание энергонезависимой оперативной памяти NRAM (Nonvolatile Random Access Memory).

В NRAM на кремниевую подложку наносится тонкая изолирующая пленка оксида кремния, вдоль которой размещены токопроводящие электроды шириной в 130 нм, отделенные друг от друга изолирующими слоями. Над электродами перпендикулярно к ним расположены массивы нанотрубок, которые замыкаются с обеих сторон на проводящие контакты. В обычном состоянии (состояние OFF) нанотрубки не касаются электродов и находятся над ними на высоте порядка 13 нм. Если к нижнему электроду приложить напряжение, то нанотрубка под воздействием электрического поля начнет выгибаться и коснется нижнего электрода. Однако такое состояние (состояние ON) оказывается устойчивым за счет баланса между возникающим механическим напряжением и Ван-дер-Ваальсовыми силами. В результате даже после исчезновения напряжения форма нанотрубки не изменится. Таким образом, меняя напряжение на электроде, можно переходить между двумя стабильными механическими состояниями нанотрубок, в одном из которых имеется контакт с электродом, а в другом – нет. Одно из этих состояний будет отвечать логическому нулю, а другое – логической единице.

Для того чтобы прочитать содержимое элементарной ячейки памяти, между нижним электродом и контактом, к которому подсоединены нанотрубки, отвечающие выбранной ячейке памяти, подается напряжение. Если ячейка памяти находится в состоянии OFF, при котором нет физического контакта между электродом и нанотрубкой, то электрическая цепь оказывается разомкнутой и напряжение будет высоким, что соответствует логической единице. Если же ячейка памяти находится в состоянии ON, то есть имеется контакт между нанотрубкой и нижним электродом, то цепь замыкается и напряжение будет низким, что соответствует логическому нулю.

В сравнении с традиционными типами памяти, память NRAM имеет ряд преимуществ. Во-первых, несмотря на то, что это RAM-память, она является энергонезависимой. Во-вторых, по утверждениям компании Nantero, плотность записи информации в устройствах NRAM может достигать 5 млрд. бит на квадратный сантиметр (в несколько раз больше, чем в сегодняшних микросхемах памяти), а частота работы памяти – до 2 ГГц.

Другим направлением замены кремниевой технологии является использование оптических и квантовых технологий.

Одними из перспективных являются оптические технологии. Наряду с множеством преимуществ, благодаря тому, что в качестве носителей информации используются фотоны, а не электроны, информация, которая закодирована оптическим лучом, может передаваться с микроскопическими затратами энергии.

Оптические технологии в вычислительной технике  пока ещё применяются, в основном, в двух сферах – в сетевой, где для создания магистральных каналов используются волоконно-оптические линии связи, а также в соединительных узлах суперкомпьютеров, где необходима сверхбыстрая передача очень больших объёмов данных.

Ещё в 2003 году компания Lenslet (Израиль) создала первый в мире оптический процессор. Процессор называется EnLight256, его производительность составляет 8 тераоп (триллионов арифметических операций в секунду). Высокая производительность достигнута за счёт манипуляции потоков света, а не электронов. Оптические технологии пока ещё ориентированы на промышленное производство, военную технику – там, где нужно в реальном времени обрабатывать большие потоки информации, где промедление в несколько сотых секунд может закончиться непоправимыми последствиями.

Преимущества оптической технологии:

  •  возможность использовать совершенно разные среды передачи, хранения и обработки информации;
  •  возможность обработки информации во время ее передачи через оптическую систему, которая реализует вычислительную среду;
  •  возможность передавать информацию, которая закодирована оптическим лучом, практически без потерь энергии;
  •  отсутствие вероятности перехвата информации (по оптической технологии в окружающую среду ничто не излучается).

Единственный существующий сейчас коммерческий оптический процессор EnLight 256 уже можно купить. Этот процессор является первым оптическим DSP (Digital Signal Processor), который в три раза превосходит лучшие электронные DSP. Если говорить точнее, EnLight256 - это гибридный оптический процессор, содержащий преобразователи. Создать полностью оптический компьютер пока слишком дорого. Простая замена ядра с сохранением всех остальных электронных компонент позволяет получить огромный прирост производительности.

Ядро этого процессора – оптическое, а входная и выходная информация представляется в электронном виде. Ядро состоит из 256-ти VCSEL-лазеров, пространственного модулятора света, набора линз и приемников.

Организация технологии Lenslet позволяет использовать лучшее из оптического и электрического миров. Оптическая матрица VMM (Vector-Matrix Multiplication), ядро процессора, конвертирует электрическую информацию в свет, затем производит необходимые преобразования этой информации, направляя свет через программируемую внутреннюю оптику. Свет, который появляется на выходе, ощущается множеством датчиков и преобразуется снова в электрический сигнал.

Появился прогресс и в создании гибридных оптических чипов. Исследователи компании Intel представили кремниевый чип, преобразовывающий электрические сигналы в оптические с рекордной скоростью 200 Гбит/секунду. Технический директор Intel Джастин Раттнер недавно сообщил, что, по его прогнозам, первые оптические чипы от Intel появятся на рынке уже через 2 года. При этом, в планах компании – использовать оптику не только в серверах и вычислительных центрах, но и на компьютерах обычных пользователей.

В 2012 году компания IBM намерена производить оптические процессоры, которые будут умещаться в ноутбуках, но по производительности будут сравнимы с современными.

Сегодня физики разных стран разрабатывают квантовые вычислительные системы, которые по своей вычислительной мощности в миллионы раз превзойдут современные компьютеры. Энергозатраты у квантовых компьютеров на единицу обработанной информации ожидаются быть мизерными.

Работы по созданию квантовых компьютеров ведутся уже относительно давно. Принципиальным отличием квантовых компьютеров от современных является использование так называемых квантовых битов (кубитов) вместо двоичной системы представления информации в виде 0 и 1. Кубиты, в отличие от битов - единичных ячеек информации в современных компьютерах - могут не только находиться в одно и то же время в двух различных состояниях (0 и 1), но и испытывать состояние так называемого квантового запутывания (суперпозиции) – находиться одновременно в состоянии «0» и «1».

Леонардо Ди Карло (Leonardo DiCarlo) и его команда из Йельского университета в Нью-Хейвене впервые сумели применить твердотельные элементы для создания простейшего квантового процессора, состоящего всего из двух кубитов. В качестве кубитов Ди Карло использовал две тонкие пластинки ниобия, помещенные на поверхность оксида алюминия и разделенные небольшой канавкой. Пластинки ниобия охлаждались до температуры, всего на долю градуса отличающейся от абсолютного нуля, при которой переходили в сверхпроводящие состояние. Для контроля состояния кубитов и перевода их в состояние "квантового запутывания" ученые использовали микроволновое излучение, которое заполняло пространство между пластинками.

В 2007 году компания D-Wave впервые продемонстрировала 16-кубитовый квантовый процессор Orion. Его чип выполнен из ниобия, который охлаждается в жидком гелии до температуры близкой к абсолютному нулю. Поэтому компьютер и называют адиабатическим, так как при таком охлаждении возникают условия, когда система не получает и не отдает тепло. При этом 16 металлических дорожек из ниобия, расположенные на кремниевой подложке и разделенные изолятором, начинают пропускать электрический ток по часовой стрелке, против неё или в обоих направлениях. Таким образом, выполняется главное условие квантовых вычислений — суперпозиция двух состояний в квантовом бите информации (кубите). Вся информация хранится в виде направлений течения тока по металлическим петлям и переходам. Позже, в 2008 году, компания представила 28-кубитовый квантовый процессор Leda с усовершенствованной технологией связи между кубитами.
Квантовое вычислительное устройство размером L кубит может выполнять параллельно 2
L операций: если квантовый процессор Orion мог выполнять параллельно 216=65 536 операций, то процессор Leda – уже 228=268 435 456. Останавливаться на достигнутом в D-Wave не собираются – на очереди квантовые компьютеры с 512 и 1024 кубитами. Это открывает фантастические возможности для вычислений.

Пока варианты использования квантовых компьютеров D-Wave ограничены возможностями вычислительных алгоритмов, для развития которых и предназначен проект AQUA@home. Но уже сейчас Orion с успехом справляется со сложнейшей задачей распознавания образов на фотографиях, играючи решает японскую головоломку Судоку, по заданным параметрам производит поиск молекул в химической базе данных. Наилучшим образом проявить себя квантовые компьютеры смогут в решении задач с большим числом переменных, требующих распараллеливания вычислений на множество потоков. Это задачи теории управления, оптимизации процессов, моделирования работы сложных физических, химических и биологических систем.

Несколько фактов о технологиях, стоящих уже на пороге

Интригующим стало недавнее сообщение о прорыве в новых магнитооптических технологиях хранения данных, что может привести к появлению накопителей высокой емкости, которые будут работать на скоростях, в тысячи раз превышающих существующие и имеющих при этом более высокую надежность и низкую энергоемкость. С дешёвыми пикосекундными лазерами такие гибридные устройства смогут достичь скорости в 1 Терабит/сек, в то время как самые скоростные современные винчестеры могут достигать скорости передачи данных около 1 Гбита в секунду, твердотельные флэшки – 2–3 Гбит/сек. В случае перехода к более короткоимпульсным фемтосекундным лазерам, цифры становятся фантастическими – 100 Тбит/сек.

На основе принципов, открытых физиками Массачусетского технологического института, исследователи Intel разрабатывают технологию беспроводного электропитания Wireless Resonant Energy Link (WREL).

Весьма перспективным направлением развития электронных дисплеев могут стать устройства, позволяющие при помощи лазерного луча малой мощности проецировать изображение непосредственно на сетчатку глаза.

18 августа 2011 г. IBM представила первые в мире когнитивные вычислительные чипы, называемые иногда «cognizers». Воспроизводя функции нейронов и синапсов мозга человека, в IBM создали первый в мире процессор, предназначенный для работы с огромными потоками информации от множества источников путем адаптации, подобно мозгу человека.

Обычные компьютеры, которыми мы пользуемся сегодня, в действительности построены на основе старой модели, впервые предложенной Джоном фон Нейманом в 1945 г. Так называемая архитектура фон Неймана искусственно отделяет обработку данных от хранения путем разделения процессора и его памяти.

К сожалению, это разделение труда делает чрезвычайно сложной задачу объединения данных, полученных из множества потоков. На сегодняшний день это нерешенная проблема номер один для компьютерных систем. Когнитивные компьютеры, в свою очередь, действуют по принципу мозга человека, распределяя обработку и память в пределах одной системы, которая в мозге состоит из нейронов и синапсов.

«Наш чип представляет собой явный отказ от традиционной архитектуры фон Неймана, – зявляет Дхармендра Модха, руководитель исследовательского проекта IBM Research. – Все функции хранения объединены с функциями обработки, создавая в некотором роде социальную сеть нейронов, программное обеспечение которой хранится в синапсах».

Разработчики уже создали действующую модель мозга кошки, получившую название «Синее вещество», и совсем недавно представили полный неврологический атлас мозга обезьяны.

Сперва пришлось прибегнуть к современным достижениям неврологии для разработки алгоритмов точного моделирования функций мозга. Затем учёные обратились к исследованиям в области нанотехнологий, используя нанополупроводники в качестве высокопроизводительных элементов ядра когнитивных вычислительных чипов.

В IBM разработали два действующих прототипа, каждый из которых был произведен с использованием 45-нм технологии SOI-CMOS и содержит 256 нейронов. Один из прототипов содержит 262 144 программируемых, другой – 65 536 самообучающихся синапсов.

Команда исследователей IBM продемонстрировала работу простых приложений, в том числе навигацию, машинное зрение, распознавание образов, ассоциативную память и классификацию. Когнитивный компьютер может с легкостью обрабатывать показания тысяч датчиков, измеряющих температуру океана, давление, высоту волн, акустические параметры и приливы, а затем выдавать сверхточные предупреждения о цунами, заявляют в корпорации.

IBM утверждает, что этот тип архитектуры имеет широкие возможности применения, особенно в современных задачах одновременной обработки потоков данных от множества источников, которые встречаются все чаще и чаще.

Лекция 5

Направления развития микропроцессоров

5.1. Стратегия развития процессоров Intel

Стратегия развития Intel заключается во внедрении новых микроархитектур процессоров, основанных на новых поколениях полупроводниковой производственной технологии. Темпы выпуска инновационных микроархитектур и полупроводниковых технологий основаны на принципе, который корпорация Intel называет моделью «TICK-TOCK» («ТИК-ТАК»). Каждый «TICK» обозначает (табл. 5.1) новый этап развития полупроводниковых технологий (техпроцесс – 65 нм, 45 нм, 32 нм), а каждый «ТОСК» - создание новой микроархитектуры (Intel Core, Nechalem, Sandy Bridge). Переход на новый техпроцесс сопровождается выпуском соответствующих семейств процессоров (Penryn, Westmere).

Табл. 5.1

Intel Core

NEW

Microarchitecture

Penryn

NEW

Process

Nehalem

NEW

Microarchitecture

Westmere

NEW

Process

Sandy Bridge

NEW

Microarchitecture

Ivy Bridge NEW Process

65 nm

45 nm 

45 nm 

32 nm 

32 nm 

22 nm 

2006 г.

2007 г.

2008 г.

2009 г.

2010 г.

2011 г.

TOCK 

TICK 

TOCK 

TICK 

TOCK 

TICK 

Этот цикл, как правило, повторяется каждые 2 года. Новаторская микроархитектура «обкатывается» на текущем производственном процессе, затем переносится на новую производственную технологию. Данная модель развития позволяет осуществлять внедрение единообразной процессорной микроархитектуры во всех сегментах рынка. Стратегия развития архитектуры и полупроводниковой технологии, реализуемая корпорацией Intel, не только позволяет выпускать новые решения в соответствии с запланированными темпами, но и способствует внедрению инновационных решений в отрасли на уровне платформ, расширяя использование преимуществ высокой производительности и энергоэкономичности.

После семейства процессоров Ivy Bridge появится совершенно новая (как утверждают в Intel) процессорная микроархитектура Haswell.

5.2. Особенности микроархитектуры Sandy Bridge

Ключевыми особенностями процессоров архитектуры Sandy Bridge являются:

  1.  Усовершенствованное по сравнению с Nehalem вычислительное ядро.
  2.  Монолитная конструкция – процессор состоит из одного полупроводникового кристалла, изготовленного по 32 нм технологии техпроцесса.
  3.  Новый набор инструкций Intel Advanced Vector Extensions (AVX) для ускорения обработки вещественных чисел.
  4.  Оптимизированная технология Intel Turbo Boost.
  5.  Заметно увеличившаяся энергоэффективность.
  6.  Производительность интегрированного в процессор графического ядра значительно увеличена.
  7.  Новая кольцевая шина Ring Interconnect.
  8.  Наличие нового функционального узла процессора – системного агента.
  9.  Усовершенствованный интегрированный контроллер памяти.

Усовершенствования вычислительного ядра

Наиболее важные изменения в вычислительном ядре процессора с архитектурой Sandy Bridge (рис. 5.1):

Рис. 5.1. Структура ядра

  1.  Возврат к выделению кэш-памяти для примерно 1,5 тысяч декодированных микроопераций L0 (использовался в Pentium 4), являющейся обособленной частью L1, что позволяет одновременно обеспечить более равномерную загрузку конвейеров и снизить энергопотребление вследствие увеличения пауз в работе достаточно сложных схем декодеров операций;
  2.  Повышение эффективности блока предсказания ветвлений вследствие увеличения емкости буферов адресов результатов ветвления, истории команд, истории ветвлений, что увеличило эффективность конвейеров;
  3.  Увеличение емкости буфера переупорядоченных команд (ROB - ReOrder Buffer) и повышение эффективности этой части процессора благодаря внедрению физического регистрового файла (PRF – Physical Register File, тоже характерной особенности Pentium 4) для хранения данных, а также расширение других буферов;
  4.   Удвоение емкости регистров для работы с потоковыми вещественными данными, что в ряде случаев может обеспечить в два раза большую скорость выполнения операций, их использующих;
  5.  Увеличение эффективности исполнения инструкций шифрования для алгоритмов AES, RSA и SHA;
  6.  Оптимизация работы кэш-памяти первого L1 и второго L2 уровней.
  7.  Оптимизация для более эффективной виртуализации и исполнения серверных приложений.

Одним из наиболее важных нововведений микроархитектуры Sandy Bridge является кеш декодированных микроопераций, или кеш инструкций L0. По сути своей кеш декодированных микроопераций напоминает трассировочный кеш микроархитектуры NetBurst (Pentium 4), однако принцип работы у них совершенно разный, сходство заканчивается на том, что оба они работают с микрооперациями.

Благодаря структурной организации формата 32х8 с возможностью хранения шести микроопераций в линии, кеш декодированных микроопераций вмещает чуть более полутора тысяч микроопераций. Без особых затей он кеширует на выходе декодеров все предварительно декодированные микрооперации. Как только поступает на обработку новая инструкция, блок упреждающей выборки первым делом производит сверку с кешем L0, и в случае обнаружения совпадений, загрузка конвейера по четыре микрооперации за такт в обход декодеров осуществляется уже из кеша L0. Незадействованные и простаивающие цепи декодеров, кстати, весьма сложные, и потому достаточно «прожорливые», в этот момент попросту… отключаются от питания. В противном случае, когда кеш декодированных операций оказывается невостребованным, продолжается обычная работа по выборке и декодированию команд, а кеш декодированных операций переводится в режим экономии энергии.

Кеш L0 в какой-то мере можно считать частью кеша L1, в который он, кстати, интегрирован, но отдельной и очень быстрой его частью. По словам представителей Intel, при работе с большинством приложений, вероятность удачного «попадания» в кеш декодированных микроопераций очень велика и может достигать 80%.

Ничуть не меньше изменился блок предсказания ветвлений (branch prediction). В частности, буфер предсказания результата ветвления (branch target buffer, BTB) чипа Sandy Bridge вмещает в два раза больше адресов результатов ветвления и вдвое большую историю комбинаций команд, нежели аналогичный буфер Nehalem. Кроме того, увеличены размеры области хранения истории ветвлений, в том числе предсказанных и выполненных. Так, удалось снизить количество неудачных предсказаний ветвлений, что положительно отозвалось как на увеличении производительности за счёт уменьшения времени вынужденного простоя для сброса конвейера с десятками обработанных впустую инструкций, так и на потреблении энергии, затрачиваемой зря на обработку неудачных ветвлений.

Процессы распределения, переименования, планировки и вывода данных в процессе конвейерного выполнения макроопераций в микроархитектуре Sandy Bridge подверглись самой значительной переработке.

Реализация алгоритма исполнения инструкций с изменением последовательности в предыдущих поколениях процессоров Intel Core, вплоть до Westmere, базировалась на использовании буфера переупорядочивания - ROB (reorder buffer), который в конечном итоге также служит для восстановления последовательности инструкций. По структуре этот буфер представляет собой матрицу с записями всех исполняемых в данный момент инструкций, а также гигантский массив виртуальных данных со значениями регистров и информацией о перемещениях между регистрами.

Теперь, в микроархитектуре Sandy Bridge, результаты отслеживания и переименования микроопераций фиксируются с помощью физического регистрового файла, PRF (physical register file), присущего архитектуре NetBurst (Pentium 4) и также характерного для многих Out-of-Order архитектур вроде AMD Bulldozer/Bobcat, IBM POWER, но отсутствующего в ядрах Nehalem. Фактически, на буфер переупорядочивания в ядре Sandy Bridge возложена только функция «трассировки» инструкций, обрабатываемых в данный момент времени, в то время как функции хранения данных возложены на независимый физический регистровый файл. Иными словами, факт исполнения операции в Out-of-Order структуре Sandy Bridge приводит только к тому, что регистр указывает на иное значение в PRF, а не к переносу 32-, 64-, 128- или 256-битных данных, как в случае, когда используется только буфер переупорядочивания.

Распределение процессов между двумя структурами вместо одной может показаться архитектурным ретроградством, ведущим к усложнению конструкции и дополнительному увеличению количества транзисторов, то есть, к росту энергопотребления чипа. Тем не менее в конечном итоге такое разделение функций значительно разгружает буфер переупорядочивания, постоянно перегруженный в чипах Nehalem и от того постоянно «горячий».

Кроме появления в архитектуре Sandy Bridge физического регистрового файла, изменились и характеристики традиционных модулей кластера Out-of-Order процессов. Так, буфер переупорядочивания способен обрабатывать до 168 микроопераций одновременно. Целочисленный физический регистровый файл Sandy Bridge хранит 160 отдельных 64-битных записей; физический регистровый файл для векторно-вещественных данных с плавающей запятой хранит 144 256-битных записей, то есть регистры YMM с новыми векторными x86-64 командами AVX целиком.

В микроархитектуре Sandy Bridge вводятся новые векторные инструкции AVX.

Сами по себе инструкции AVX – это дальнейшее развитие SSE, расширяющие разрядность типовых векторных SIMD операций на 256-битные операнды. Размер векторных регистров SIMD увеличивается с 128 (XMM) до 256  бит (регистры YMM0 – YMM15). Кроме того, новый набор позволяет проводить операции в недеструктивной форме, то есть без потери исходных данных в регистрах. Благодаря этим свойствам набор инструкций AVX наравне с микроархитектурными улучшениями также можно отнести к нововведениям, направленным на повышение производительности и на экономию энергии, так как их внедрение позволит упростить многие алгоритмы и совершать большее количество работы с использованием меньшего числа команд. Инструкции AVX хорошо подходят для интенсивных вычислений с плавающей точкой в мультимедиа, научных и финансовых задачах.

Для эффективного исполнения 256-битных инструкций исполнительные устройства процессора были подвергнуты специальному редизайну. Суть изменений сводится к тому, что для работы с 256-битными данными 128-битные исполнительные устройства объединяются попарно. А учитывая то, что каждый из трёх исполнительных портов Sandy Bridge (как и Nehalem) имеет устройства для работы одновременно с тремя видами данных – 64-битными, 128-битными целыми или 128-битными вещественными – попарное объединение SIMD устройств в рамках одного порта выглядит вполне естественным и разумным решением. И, что немаловажно, такое перераспределение ресурсов не наносит ущерба общей пропускной способности исполнительного блока процессора.

Как и раньше, в чипах Nehalem, загрузка микроопераций всех типов: SIMD, целочисленных и с плавающей запятой, происходит по одинаковому сценарию, единым унифицированным планировщиком, динамически распределённым между всеми потоками. Разница в том, что в архитектуре Sandy Bridge планировщик более ёмкий и загружается сразу 54 переименованными и готовыми к исполнению микрокомандами.

Благодаря существенной доработке, нацеленной на удвоение производительности при работе с 256-битными векторными инструкциями AVX и возможности исполнения большинства из них как единой микрооперации, исполнительные блоки микроархитектуры Sandy Bridge стали вдвое мощнее, чем у чипов Nehalem. Теперь они способны обрабатывать восемь операций двойной точности с плавающей запятой (FP) или 16 FP-операций одинарной точности за такт. Таким образом, ядро Sandy Bridge способно исполнять за каждый такт 256-битное FP-умножение, 256-битное FP-сложение и 256-битное смещение.

Несмотря на увеличение разрядности исполнительных блоков ядра до 256 бит, увеличения ширины шины данных до 256 бит не произошло. Для исполнения 256-битных микроопераций в ядре Sandy Bridge объединяются возможности имеющихся в наличии 128-битных трактов для работы с данными SIMD INT и SIMD FP.

Также стоит упомянуть, что в ядре Sandy Bridge повышена производительность при обработке инструкций стандарта шифрования AES и RSA, а также производительность при вычислении хешей SHA-1.

Необходимость работы с вдвое увеличенными (до 256 бит) операндами SSE FP не могла не сказаться на нагрузке подсистемы памяти ядра Sandy Bridge, которая должна обслуживать не менее двух запросов за такт, гарантированно обеспечивая возможность 16-байт записи и 16-байт чтения.

Вот почему в структуре 8-банкового кеша данных L1 ядра Sandy Bridge был добавлен второй 16-битный порт чтения, благодаря которому суммарная пропускная способность кеша выросла до 48 байт за такт: два 16-байт запроса чтения и 16-байт запись. Размеры буферов записи и чтения, разделённых между исполнительными блоками ядра Sandy Bridge, были также увеличены: буфер записи - до 64 ячеек, буфер чтения - до 36 ячеек.

8-банковый ассоциативный кеш L2 микроархитектуры Sandy Bridge, распределённый по 256 Кбайт на каждое ядро, достаточно схож с тем, что применялось в предыдущих поколениях процессоров Intel. Здесь изменения минимальны.


Лекция 6

Графический процессор

Возможности графического процессора Sandy Bridge в целом сравнимы с таковыми у предыдущего поколения подобных решений Intel, разве что теперь в дополнение к возможностям DirectX 10 добавлена поддержка DirectX 10.1, вместо ожидаемой поддержки DirectX 11. Соответственно и не многие приложения с поддержкой OpenGL ограничены аппаратной совместимостью только с 3-й версией спецификации этого свободного API.

Тем не менее нововведений в графике Sandy Bridge достаточно много, и нацелены они главным образом на увеличение производительности при работе с 3D-графикой.

Основной упор при разработке нового графического ядра, по словам представителей Intel, был сделан на максимальном использовании аппаратных возможностей для обсчёта 3D-функций, и то же самое – для обработки медиа-данных. Такой подход радикально отличается от полностью программируемой аппаратной модели, принятой на вооружение, например, в NVIDIA, или в самой Intel для разработки Larrabee (за исключением текстурных блоков).

Однако в реализации Sandy Bridge отход от программируемой гибкости имеет свои неоспоримые плюсы, за счет него достигаются более важные для интегрированной графики выгоды в виде меньшей латентности при исполнении операций, лучшей производительности на фоне экономии расхода энергии, упрощённой модели программирования драйверов, и что немаловажно, с экономией физических размеров графического модуля.

Для программируемых исполнительных шейдерных модулей графики Sandy Bridge, по традиции называемых в Intel «исполнительными блоками» (EU, Execution Units), характерны увеличенные размеры регистрового файла, что позволяет достичь эффективного исполнения комплексных шейдеров. Также в новых исполнительных блоках применена оптимизация ветвления для достижения лучшего распараллеливания исполняемых команд.

В целом, по заявлению представителей Intel, новые исполнительные блоки обладают удвоенной по сравнению с предыдущим поколением интегрированной графики пропускной способностью, а производительность вычислений с трансцедентальными числами (тригонометрия, натуральные логарифмы и так далее) за счёт акцента на использовании аппаратных вычислительных возможностей модели вырастет в 4-20 раз.

Внутренний набор команд, усиленный в Sandy Bridge рядом новых, позволяет распределять большинство инструкций API набора DirectX 10 в режиме «один к одному», как в случае с архитектурой CISC, что в результате позволяет добиться значительно более высокой производительности при той же тактовой частоте.

Быстрый доступ посредством быстрой кольцевой шины к распределённому кешу L3 с динамически конфигурируемой сегментацией позволяет снизить латентность, поднять производительность и в то же время снизить частоту обращений графического процессора к оперативной памяти.

Кольцевая шина

Вся история модернизации процессорных микроархитектур Intel последних лет неразрывно связана с последовательной интеграцией в единый кристалл всё большего количества модулей и функций, ранее располагавшихся вне процессора: в чипсете, на материнской плате и т.д. Соответственно, по мере увеличения производительности процессора и степени интеграции чипа, требования к пропускной способности внутренних межкомпонентных шин росли опережающими темпами. До поры до времени, даже после внедрения графического чипа в архитектуру чипов Arrandale/Clarkdale, удавалось обходиться межкомпонентными шинами с привычной перекрёстной топологией - этого было достаточно.

Однако эффективность такой топологии высока лишь при небольшом количестве компонентов, принимающих участие в обмене данными. В микроархитектуре Sandy Bridge для повышения общей производительности системы разработчики решили обратиться к кольцевой топологии 256-битной межкомпонентной шины (рис. 6.1), выполненной на основе новой версии технологии QPI (QuickPath Interconnect), расширенной, доработанной и впервые реализованной в архитектуре серверного чипа Nehalem-EX (Xeon 7500), а также планировавшейся к применению совместно с архитектурой чипов Larrabee.

Кольцевая шина (Ring Interconnect) в версии архитектуры Sandy Bridge для настольных и мобильных систем служит для обмена данными между шестью ключевыми компонентами чипа: четырьмя процессорными ядрами x86, графическим ядром, кэш-памятью L3, теперь е ё называют LLC (Last Level Cache), и системным агентом. Шина состоит из четырёх 32-байтных колец: шины данных (Data Ring), шины запросов (Request Ring), шины мониторинга состояния (Snoop Ring) и шины подтверждения (Acknowledge Ring), на практике это фактически позволяет делить доступ к 64-байтному интерфейсу кеша последнего уровня на два различных пакета. Управление шинами осуществляется с помощью коммуникационного протокола распределённого арбитража, при этом конвейерная обработка запросов происходит на тактовой частоте процессорных ядер, что придаёт архитектуре дополнительную гибкость при разгоне. Производительность кольцевой шины оценивается на уровне 96 Гбайт в секунду на соединение при тактовой частоте 3 ГГц, что фактически в четыре раза превышает показатели процессоров Intel предыдущего поколения.

Рис.6.1. Кольцевая шина (Ring Interconnect)

Кольцевая топология и организация шин обеспечивает минимальную латентность при обработке запросов, максимальную производительность и отличную масштабируемость технологии для версий чипов с различным количеством ядер и других компонентов. По словам представителей компании, в перспективе к кольцевой шине может быть "подключено" до 20 процессорных ядер на кристалл, и подобный редизайн, как вы понимаете, может производиться очень быстро, в виде гибкой и оперативной реакции на текущие потребности рынка. Кроме того, физически кольцевая шина располагается непосредственно над блоками кеш-памяти L3 в верхнем уровне металлизации, что упрощает разводку дизайна и позволяет сделать чип более компактным.

Кэш-память последнего уровня

Кеш-память L3 обозначается как «кеш последнего уровня», то есть, LLC - Last Level Cache. В микроархитектуре Sandy Bridge кеш L3 распределён не только между четырьмя процессорными ядрами, но, благодаря кольцевой шине, также между графическим ядром и системным агентом, в который, среди прочего, входит модуль аппаратного ускорения графики и блок видеовыхода. При этом специальный трассировочный механизм упреждает возникновение конфликтов доступа между процессорными ядрами и графикой.

В целях ускорения работы каждое из четырёх процессорных ядер имеет прямой доступ к «своему» сегменту кэша L3, при этом каждый сегмент кэша L3 предоставляет половину ширины своей шины для доступа кольцевой шины данных, при этом физическая адресация всех четырёх сегментов кэша обеспечивается единой хэш-функцией. Каждый сегмент кэша L3 обладает собственным независимым контроллером доступа к кольцевой шине, он отвечает за обработку запросов по размещению физических адресов. Кроме того, контроллер кэша постоянно взаимодействует с системным агентом на предмет неудачных обращений к L3, контроля межкомпонентного обмена данными и некешируемых обращений, то есть системный агент производит общее управление кэш-памятью.

Системный агент

Ранее вместо определения System Agent в терминологии Intel фигурировало так называемое «Неядро» - Uncore, то есть, «всё, что не входит в Core», а именно кеш L3, графика, контроллер памяти, другие контроллеры вроде PCI Express и т.д. Мы же по привычке частенько называли большую часть этого элементами северного моста, перенесённого из чипсета в процессор.

Системный агент микроархитектуры Sandy Bridge включает в себя контроллер памяти DDR3, модуль управления питанием (Power Control Unit, PCU), контроллеры PCI-Express 2.0, DMI, блок видеовыхода и пр. Как и все остальные элементы архитектуры, системный агент подключен в общую систему посредством высокопроизводительной кольцевой шины.

Встроенная в процессор шина  PCI Express соответствует спецификации 2.0 и насчитывает 16 линий для возможности увеличения мощности графической подсистемы при помощи мощного внешнего 3D-ускорителя. В случае использования старших наборов системной логики и согласования лицензионных вопросов эти 16 линий могут быть разделены на 2 или 3 слота в режимах 8х +8х или 8х +4х+4х 4х соответственно для NVIDIA SLI и/или AMD CrossFireX.

Для обмена данными с системой (накопителями, портами ввода-вывода, периферией, контроллеры которых находятся в чипсете) используется шина DMI 2.0, позволяющая прокачать до 2 ГБ/с полезной информации в обоих направлениях.

Двухканальный контроллер памяти DDR3 отныне «вернулся» на кристалл (в чипах Clarkdale он располагался вне процессорного кристалла) и, скорее всего, теперь будет обеспечивать значительно меньшую латентность.

Расположенный в системном агенте контроллер управления питанием отвечает за своевременное динамичное масштабирование напряжений питания и тактовых частот процессорных ядер, графического ядра, кэшей, контроллера памяти и интерфейсов. Что особенно важно подчеркнуть, управление питанием и тактовой частотой производится независимо для процессорных ядер и графического ядра.

Можно отметить, что для питания новых процессоров нужно трёхкомпонентный стабилизатор питания (или двух, если встроенное видеоядро останется неактивным) – отдельно для вычислительных ядер, системного агента и интегрированной видеокарты.

Каждое из четырёх ядер Sandy Bridge может быть при необходимости независимо переведено в режим минимального энергопотребления, графическое ядро также можно перевести в очень экономичный режим. Кольцевая шина и кеш L3, в силу их распределения между другими ресурсами, не могут быть отключены, однако для кольцевой шины предусмотрен специальный экономичный ждущий режим, когда она не нагружена, а для кеш-памяти L3 применяется традиционная технология отключения неиспользуемых транзисторов, уже известная нам по предыдущим микроархитектурам. Таким образом, процессоры Sandy Bridge в составе мобильных ПК обеспечивают длительную автономную работу при питании от аккумулятора.

Модули видеовыхода и мультимедийного аппаратного декодирования также входят в число элементов системного агента. В отличие от предшественников, где аппаратное декодирование было возложено на графическое ядро, в новой архитектуре для декодирования мультимедийных потоков используется отдельный, гораздо более производительный и экономичный модуль, и лишь в процессе кодирования (сжатия) мультимедийных данных используются возможности шейдерных блоков графического ядра и кеш L3.

В соответствии с современными веяниями, предусмотрены инструменты воспроизведения 3D-контента: аппаратный модуль декодирования Sandy Bridge способен без труда обрабатывать сразу два независимых потока MPEG2, VC1 или AVC в разрешении Full HD.

Тенденции развития суперкомпьютеров

Главным индикатором изменений в области суперкомпьютеров является Международный рейтинг мощнейших вычислительных систем Top 500.

Ключевым трендом сегодняшнего дня является бурное развитие гибридной архитектуры суперкомпьютеров с применением наряду с традиционными графических процессоров GPU. Применение GPU вдохнуло новую жизнь в суперкомпьютерные технологии, так как позволило в разы увеличить производительность вычислительных систем и при этом снизить энергопотребление, массу, занимаемую площадь. В Top 500 первые места занимают суперкомпьютеры с производительностью в несколько десятков петафлопс и количество гибридных систем постоянно увеличивается (в ноябре 2011 г. присутствовало 39 гибридных систем, из них 35 – на базе графических ускорителей Nviclia). В настоящее время происходит наиболее тесная интеграция процессора и графического ускорителя. Гонку за экзафлопсы сейчас возглавляют гибридные системы.

Проблемы в использовании гибридных систем заключаются в том, что в реальности пока создано очень мало стандартных приложений, которые могут задействовать всю их мощь. Дело в том, что хардверная составляющая прогресса всегда идёт впереди софтверной. Софт делается дольше. И здесь нужно понимать, что программистов нужно обучить новым методам программирования и распараллеливания программ. Более того, существует целый класс задач, для которых сверхмощный компьютер не требуется. Он просто не будет полностью использован. Поэтому процесс адаптации и перехода на гибридные архитектуры будет довольно медленным и растянется на несколько лет. Причём станут ли, например, учёные переписывать свои большие приложения, которые развивались и модифицировались годами, ещё большой вопрос.

В рейтинге суперкомпьютеров ТОР500, опубликованном в июне 2012 года, сменился лидер – им стал суперкомпьютер IBM Blue Gene/Q с кодовым именем Sequoia. Эта система установлена в Ливерморской национальной лаборатории имени Лоуренса (США), показала производительность в 16, 32 петафлопс на тестовом пакете Linpack. Новинка включает 1572864 вычислительных ядер (16-ядерных POWER BQC, 1,6 ГГц), 1572864 Гбайт памяти, потребляет 7890 кВт электроэнергии и работает под управлением Linux.

На вторую позицию сместился японский суперкомпьютер КComputer (компания Fujitsu), который по-прежнему показывает производительность 10,51 петафлопс. Он использует 705024 ядра SPARC 64.

Новый суперкомпьютер Mira, установленный в Аргоннской национальной лаборатории Иллинойса, вышел на третью позицию. Эта система с архитектурой Blue Gene содержит 786432 ядра и показала производительность 8,16 петафлопс.

На четвёртой позиции оказался самый быстрый для Европы суперкомпьютер под названием Super MUC. Он произведён IBM на базе восьмиядерных процессоров Intel Xeon E5-2680 на 2,7 ГГц и установлен в Германии. В настоящее время это самая быстрая система на базе х86.

Первый российский суперкомпьютер «Ломоносов» (МГУ) находится на 22-ом месте рейтинга, имеет 78 тысяч ядер и пиковую производительность 1,7 петафлопс.

Ещё одной тенденцией является транформация взглядов на использование ресурсов суперкомпьютеров. По мнению некоторых экспертов дальнейшее развитие рынка суперкомпьютеров будет связано с унификацией интерфейса и расширением доступности вычислительных мощностей в рамках облачных вычислений.

Другая тенденция рынка высокопроизводительных систем – расширение линеек ведущих брендов за счёт так называемых персональных суперкомпьютеров (с производительностью не более нескольких десятков терафлопс). Речь идёт о решениях для небольших рабочих групп и лабораторий – для тех, кто только начинает приобщаться к высокопроизводительным вычислениям.


Лекция 7

Энергосберегающие технологии, используемые в компьютерах

В 2008 г. число используемых во всем мире ПК превысило 1 миллиард и по прогнозам специалистов к 2014 г. это число удвоится. Они ежегодно потребляют электроэнергии на многие млрд долларов. Чтобы произвести всё это электричество, требуется выбросить в атмосферу сотни млн тонн углекислого газа. Как известно, многие миллиарды долларов в год пропадают в пустую из-за потерь электроэнергии за счет неэффективных источников питания личных и домашних электронных приборов, многие из которых продолжают использовать энергию даже тогда, когда они выключены, но не отсоединены от сети: «вокруг нас находятся настоящие электронные вампиры, которые высасывают электричество день и ночь». Ещё в 2007 г. в США 60 % компьютеров оставлялись включенными на ночь. Если корпоративная Америка насчитывала на это время около 100 млн компьютеров, значит 60 млн из них оставались включенными, это приводило к потерям около $2 млрд за год.

Согласно отчёту Минэкономразвития России, суммарный дефицит энергетических мощностей в России в 2010 году составил 14 ГВт, а стоимость электроэнергии в ближайшее десятилетие будет только расти. Этот факт наряду с глобальным экономическим кризисом заставляет производителей в сфере ИТ пересматривать один из пунктов эффективности ведения бизнеса – его энергоемкость.

«… энергоемкость экономики России в 2,3 раза выше, чем в среднем в мире. Около 40 – 45 % текущего объёма потребления энергии – это потенциал энергосбережения в нашей стране» (из выступления В.В. Путина на совещании).

Из-за удорожания электроэнергии и ужесточения экологических стандартов на энергетическое и радиационное загрязнение среды на самых емких рынках развитых стран, сегодня все производители переходят на технологии уменьшения потребления электроэнергии в ПК и периферии, особенно в моменты простоя и ожидания. Это касается и мониторов и принтеров и всяческой другой бытовой техники.

Уровень энергопотребления становится важным фактором при покупке аппаратуры. Все большее число потребителей приобретает продукцию, совместимую со стандартом Energy Star.

В 2007 году компании Intel и Google вместе с фондом WWF дали старт инициативе Climate Savers Computing (CSCI), объединяющей отдельных пользователей, компании и экологические организации, которых беспокоят проблемы охраны окружающей среды. Эта инициатива направлена на стимулирование разработки, развёртывание и внедрение интеллектуальных технологий, способных повысить не только эффективность энергосбережения компьютера, но и сократить его энергопотребление в неактивном состоянии.

Целью данной инициативы является увеличение эффективности использования энергии компьютером на 50 %, что будет означать общее снижение расходов, связанных с приобретением энергоносителей, ориентировочно на 5,5 млрд. долларов США.

На протяжении многих лет корпорация Intel является лидером полупроводниковой отрасли по инновациям и производительности, что проявляется не только в разработке новых технологий, но и в решении сложных глобальных экологических проблем.

Эффективность использования энергии и экономия ресурсов становятся первоочередными задачами в борьбе с изменениями климата. Корпорация Intel концентрирует свои усилия для достижения лидерства по целому ряду направлений.

Эффективность использования энергии стала ключевым приоритетом при проектировании передовых процессоров и вычислительных платформ. Инновационные технологии Intel активно применяются в решениях, обеспечивающих эффективное энергопотребление и безопасную производственную деятельность, а также сотрудничество, направленное на защиту окружающей среды.

За 30 лет количество энергии, потребляемой в расчёте на один транзистор, снизилось почти в миллион раз.

Переход от одноядерных к многоядерным технологиям полностью изменил привычный стиль работы компьютеров и обеспечил высокую энергосберегающую производительность всех платформ Intel.

Выдающимся достижением Intel явилась 45-нм производственная технология с применением диэлектрика на основе гафния с высоким коэффициентом диэлектрической проницаемости – nigh-k, а также металлического затвора транзистора, что обеспечило эффективное энергопотребление по сравнению с технологиям предыдущих поколений (30%-ное снижение затрат энергии на переключение транзистора).

Процессоры с микроархитектурой Sandy Bridge и 22-нм техпроцессом построены на транзисторах с трехмерной структурой затвора (Tri Gate), что позволяет уменьшить энергопотребление до 50 %.

Intel Speed Step – это энергосберегающая технология Intel, в основе которой лежит динамическое изменение частоты и энергопотребления процессора в зависимости от используемого источника питания. Впервые была использована в процессорах mobile Pentium III.

По этой технологии процессоры могут автоматически уменьшать частоту и напряжение питания при простое или малой нагрузке, снижая, таким образом, своё энергопотребление. Как только нагрузка возрастает, частота и напряжение автоматически поднимаются до своих нормальных значений.

Intel Halt State – энергосберегающая технология, в результате которой отключаются некоторые блоки процессора во время их бездействия.

Управление питанием и технология Turbo Boost в процессорах с микроархитектурой Sandy Bridge осуществляется с помощью блока управления питанием PCU (Power Control Unit), входящего в состав системного агента. Этот блок представляет собой программируемый микроконтроллер, который собирает информацию о температуре и потребляемом токе различных узлов процессора и имеет возможность интерактивно управлять их частотой и напряжением питания. Силами PCU реализуются как энергосберегающие функции, так и турбо-режим, который в Sandy Bridge получил дальнейшее развитие.

Все функциональные модули, составляющие процессоры Sandy Bridge, разделены в нём на три домена, использующие независимые схемы тактования частоты и подключения питания. Первый и основной домен объединяет процессорные ядра и L3 кэш, которые работают на единой частоте и напряжении. Второй домен – это графическое ядро, которое использует собственную частоту. Третий домен – это системный агент.

Такое разделение позволило инженерам реализовать работу технологий Enhanced Intel Speed Step и Turbo Boost одновременно и независимо для графического и процессорных ядер. Подобный подход уже был применен в мобильных процессорах Arrandale, однако там он работал по-простому, через драйвер. В Sandy Bridge уже реализовано полностью аппаратное решение, которое управляет частотами вычислительных и графических ядер взаимосвязано, учитывая их текущее потребление. Это позволяет получить более серьёзный реализуемый через турбо-режим разгон процессорных ядер во время простоя графического ядра и наоборот – существенный разгон графического ядра во время неполной загрузки вычислительных ядер. Агрессивность турбо-режима в Sandy Bridge нетрудно оценить потому, что частота процессора может увеличиваться на четыре шага относительно номинальной частоты, а вариация в частоте графического ядра может достигать и шести-семи шагов.

Однако это далеко не все нововведения в технологии Turbo Boost. Преимущество её новой реализации заключается ещё и в том, что PCU получил возможность управлять частотами более интеллектуально ориентируясь на реальные температуры процессорных составляющих, а не только на их энергопотребление. Это означает, что в тех случаях, когда процессор работает в благоприятных температурных условиях, его энергопотреблению разрешается выходить за границу, задаваемую TDP (термопакет). Термопакет – это величина, показывающая на отвод какой тепловой мощности должна быть рассчитана система охлаждения процессора.

При типичной повседневной работе процессорная нагрузка носит скачкообразный характер. Большинство времени процессор проводит в энергосберегающих состояниях, а высокая производительность требуется лишь в небольшие промежутки времени. За такие промежутки нагрев процессора не успевает достигнуть сколь-нибудь серьёзных величин – сказывается инерционность, обеспечиваемая теплопроводностью кулера. Управляющий частотами в Sandy Bridge блок PCU справедливо считает, что ничего страшного не произойдёт, если в такие моменты процессор будет разогнан сильнее, чем в теории может позволить величина расчётного тепловыделения. Когда же температура процессора начнёт приближаться к критическим значениям, частота будет снижена до безопасных значений. Максимальная продолжительность работы в состоянии «за гранью TDP» аппаратно ограничена 25 секундами.

Сегодня в США и в Европе широко пропагандируется способ энергосбережения, называемый ecobutton и представляющий собой большую круглую зелёную кнопку, нажатие которой переводит компьютер в режим энергосбережения (hibernating). Все последние версии Windows имеют энергосберегающие функции и умеют мгновенно «усыплять» и «будить» компьютер.

Другое дело – что большая зелёная кнопка заметней, а её создатели рекомендуют нажимать на неё, даже уходя на короткий перекур.

Энергосберегающие функции сетевого фильтра Green Power MDP 900 от Monster Cable позволяют экономить существенное количество энергии, когда подключенные приборы уходят в режим standby. Наиболее полезно это устройство в сочетании с настольным компьютером. Когда компьютер переключается в спящий режим, MDP 900 автоматически отключает от сети все периферийные устройства, такие как принтер или монитор, а когда компьютер выходит из спящего режима, подключая их обратно.

Мощная современная видеокарта под полной нагрузкой требует столько же энергии, сколько остальные комплектующие ПК вместе взятые: от 110 до 270 Вт. Поэтому производители приступили к выпуску интеллектуальных видеокарт с управлением потребления электроэнергии в зависимости от нагрузки.

Ресурсосберегающие технологии, применяемые в серверах

Серверы – это компьютеры, выполняющие служебные функции в компьютерной сети. Рынок серверов в настоящее время можно сегментировать на домашние и корпоративные серверы. Корпоративные серверы в свою очередь можно классифицировать по сферам применения:

  •  федеральные и муниципальные структуры;
  •  крупные предприятия;
  •  средние и малые предприятия;
  •  центры обработки данных (ЦОД).

Последний сектор специфичен тем, что практически весь компьютерный парк составляют серверы.

Важное значение в настоящее время приобретает бурно развивающийся сегмент серверов для домашних сетей. Если эта тенденция сохранится, то вскоре парк домашних серверов превысит в количественном отношении парк корпоративных серверов. Это вызвано, во-первых, резким ростом среднего числа компьютеров, приходящихся на одну семью, а во-вторых, значительным расширением функций домашних информационных сетей. Так, если ещё недавно домашняя сеть лишь обеспечивала подключение всех компьютеров в квартире к интернету, то теперь её функции всё чаще дополняются решением задач, связанных с автономным копированием информации на домашний компьютер, видеонаблюдением за объектом, управлением охранной сигнализацией, управлением компонентами, входящими в состав «Умного дома» и т.д.

С учётом того, что, в отличие от рабочих мест, серверы обычно работают непрерывно в режиме 24х7х365, во многих случаях энергопотребление серверного компонента составляет более половины общего энергопотребления информационной системы. Особенно это ощутимо в бурно развивающемся секторе домашних компьютерных сетей, где суммарное рабочее время персональных мест может значительно уступать времени работы сервера. Таким образом, внедрение энергосберегающих технологий в серверный компонент информационных систем постепенно выходит на первый план.

Для повышения эффективности энергосбережения, снижения затрат в эксплуатации основным подходом является консолидация серверов с использованием технологий визуализации и блейд-серверных технологий.

По определению аналитической компании IDC блейд-сервер – это модульная одноплатная компьютерная система, включающая процессор и память. Платы или лезвия (blade – лезвие) вставляются в специальное шасси с объединительной панелью, обеспечивающей им подключение к сети и подачу электропитания. За счёт общего использования таких компонентов, как источники питания, сетевые карты, диски и блоки охлаждения, блейд-серверы обеспечивают более высокую плотность размещения вычислительной мощности в стойке по сравнению с обычными тонкими серверами.

Практически все Blade-решения имеют собственные интеллектуальные системы управления питанием и охлаждением, что позволяет оптимизировать затраты на них в зависимости от потребностей. Помимо значительной экономии электроэнергии (до 20%), ограничения тепловыделения и потребности в системе охлаждения (т.е. сокращения долгосрочных расходов на эксплуатацию), данный подход существенно экономит время ИТ-персонала и, таким образом, снижает совокупную стоимость владения.

Виртуализация серверов – возможность одному компьютеру выполнять работу нескольких. Выигрыш достигается за счет более эффективного использования вычислительных ресурсов; уменьшения количества оборудования при увеличении производительности, снижения расходов на поддержку ИТ; снижение энергозатрат.

На сегодняшний день в общей структуре виртуализационных средств выделяется три основных слоя:

  •  виртуализация вычислительных сред (ресурсов центрального процессора, включая ОЗУ, и операционной системы);
  •  виртуализация хранилищ данных;
  •  виртуализация сетей.

В общем случае комплекс средств виртуализации вычислительных сред (или виртуализации ПО) можно представить в виде нескольких основных технологических подходов, которые приведены в таблице 1.

Таблица 1

Вид виртуализации

Описание

Назначение

Где применяется

Пример реализации (поставщики)

Виртуальные машины

Возможность запуска нескольких ОС, в том числе разнородных, на одном компьютере

Повышение эффективности использования ресурсов центрального процессора

ПК, серверы

VMware, Microsoft, Citrix, Oracle, Red Hat, Sun, Parallels и др.

Виртуальные контейнеры

Создание нескольких однородных изолированных операционных сред на базе одного экземпляра ОС

Повышение эффективности использования ресурсов центрального процессора

серверы

Parallels, Sun

Виртуальные приложения

Создание дополнительного операционного окружения вокруг отдельного приложения внутри ОС

Повышение независимости приложения от версии ОС и уровня изоляции между приложениями

ПК

Microsoft, VMware, Symantec

Виртуализация представлений

Отделение бизнес-логики от пользовательского интерфейса

Реализация идеи терминального доступа с использованием тонкого клиента

ПК и другое клиентское оборудование

Citrix, Microsoft и др.

Далее мы сосредоточим внимание на технологиях виртуализации преимущественно в контексте задачи консолидации серверов. Основным методом здесь является механизм виртуальных машин. Предпосылки использования виртуализации в данном случае вполне очевидны: до недавнего времени информационные системы были организованы так, что для работы каждого отдельного ИТ или бизнес-сервиса (электронная почта, Web-сайт, бухгалтерская система и пр.) требовался отдельный физический сервер, загрузка процессора в котором составляла 3–10 %, в то время как оптимальный уровень – от 40 до 60 %. Средства виртуализации позволяют использовать один виртуальный сервер вместо пяти-шести физических. Посмотрим чего это стоит клиенту и что он от этого выигрывает. При переходе от физической инфраструктуры к виртуальной капитальные (разовые) затраты составляют:

  1.  Оборудование. Скорее всего придётся покупать новую технику. Прямой выигрыш тут может быть только в том случае, если удастся удачно утилизировать освободившееся старое оборудование.
  2.  Программное обеспечение. К уже имеющемуся ПО (ОС, приложения) нужно будет покупать ПО виртуализации.
  3.  Услуги по реализации проекта. Понятно, что сам проект потребует дополнительных затрат человеческих ресурсов. Но тут нужно отметить важный момент: выполнение такого проекта в целом может быть по силам и имеющемуся ИТ-персоналу, т.е. его можно реализовать поэтапно в рамках текущих бюджетов.

По текущим (эксплуатационным) затратам можно ожидать снижения расходов по всем статьям – аренда помещений, стоимость электроэнергии, администрирование, техническое обслуживание, модификация старых и развёртывание новых ИТ-сервисов. Кроме того, могут быть получены качественно новые преимущества с точки зрения как ИТ (оптимизация ИТ-инфраструктуры в целом за счёт гибкой балансировки нагрузок, повышение надежности и доступности), так и бизнеса (быстрая реализация требований пользователей).

Какой эффект будет в результате? В общем случае он видится скорее положительным, но более точно можно говорить только применительно к конкретным проектам. Вполне определённо можно сказать одно: успех проекта напрямую зависит от правильности общей методики его реализации, квалификации исполнителей, решимости руководства компании и ИТ-подразделений и т.д.


Лекция 8

Ресурсосберегающие технологии, применяемые в ЦОДах

Объёмы информации в современном мире растут чуть ли не экспоненциальными темпами. По крайней мере аналитики IDC предрекали по итогам 2011 года 44-кратный рост использования данных в глобальном масштабе. В итоге общий объём информации, с которым имеют дело компании и частные пользователи во всём мире, может превысить 32 зеттабайт  (1 Зб = 1 млрд. Тб, 1021).

В такой ситуации для множества руководителей естественным выбором становится оптимизация подсистемы хранения информации, выделение такой подсистемы в собственный центр обработки данных либо использование услуг внешних ЦОДов.

Централизация хранения и обработки информации находится в русле ещё одной зримой тенденции последних нескольких лет – перехода к модели использования ИТ в виде услуг (в том числе в виде облачных сервисов).

Хранение и обработка данных в качестве услуги, предоставляемой на коммерческой основе, становится полноправной отраслью ИТ-бизнеса. ЦОД как коммерческое предприятие обязан быть выгодным – и для своего владельца, и для клиентов.

Мировому рынку самих ЦОДов и предоставляемым ими услугам эксперты отмеряют лет тридцать. Сегодня это вполне зрелый рынок во всём его спектре. Спрос на ЦОДы продолжает уверенно расти, что связано с влиянием на него самых разных областей экономики.

Лет пятнадцать назад стало возможным говорить о создании и эксплуатации ЦОДов как о рынке и в нашей стране. Примечательным для России стал 2006 г., когда в строительстве ЦОДов начали активно применяться стандарты и создавать объекты высшей категории. В это же время наметилась и сегментация рынка +ЦОДов: он разделился на корпоративные и коммерческие ЦОДы, а коммерческие, в свою очередь, разделились на комплексы разных категорий. Начался рост потребности в высоконадёжных комплексах, способных обеспечивать работу по критерию 24х7х365.

Первыми такие требования к ЦОДам предъявили компании телекомовского и финансового сегментов, для которых критична каждая минута прерывания бизнеса.

Структурно ЦОДа состоит из вычислительного или ИТ-оборудования (серверы, системы хранения, сетевое оборудование и т.д.) и инженерной инфраструктуры (системы охлаждения и кондиционирования, системы энергообеспечения, шкафы с кабель-каналами, распределительные панели, системы освещения, системы безопасности и т.д.).

Главная посткризисная тенденция в развитии ЦОДов – переход от экстенсивного наращивания вычислительных мощностей к их оптимизации и увеличению эффективности использования ресурсов. Но в то же время в силу централизации растёт и мощность ЦОДов и серверных. А значит, заметно увеличивается спрос на энергосберегающие технологии. В Европе и Соединённых Штатах уже сейчас стоимость ресурсов, потребляемых ЦОДом в течение нескольких лет, сравнилась со стоимостью всего оборудования: и вскоре таким же будет положение дел и в России.

В этой ситуации решающее значение приобретает эффективное управление электропитанием ЦОДа. Ведь повышение КПД системы всего на несколько процентов приводит к миллионной экономии в масштабах нескольких лет.

При создании нового и модернизации старого серверного хозяйства останавливаются на выборе Blade-систем как на наиболее современном и перспективном решении для стандартизации серверов в организации (ЦОДе).

К преимуществам использования блейд-серверов можно отнести следующие:

  •  уменьшение занимаемого объема;
  •  уменьшение энергопотребления и выделяемого тепла;
  •  уменьшение стоимости и повышение надежности системы питания и охлаждения;
  •  повышение удобства управления системой;
  •  высокая масштабируемость;
  •  высокая гибкость;
  •  сокращение количества коммутационных проводов.

Блейд-серверы стали предпочтительным и наиболее часто запрашиваемым решением для виртуализации и консолидации серверных приложений.

Современная инженерная инфраструктура ЦОДа с позиции заказчика должна отвечать очень разным и изменяющимся потребностям. Главными качественными характеристиками инфраструктуры, определяющими конкурентные преимущества, являются: модульность, масштабируемость, адаптивность, энергоэффективность, надёжность и управляемость её оборудования.

Задачи автоматизации управления инженерной инфраструктурой ЦОДа сегодня наиболее актуальны. Непрерывность предоставления ИТ-сервисов – основная задача инженерной инфраструктуры ЦОДа. Задача системы управления состоит в том, чтобы обеспечивать алгоритмы и механизмы управления достаточной надёжности, с тем чтобы в режиме реального времени поддерживать непрерывность энергообеспечения, кондиционирования, охлаждения вне зависимости от влияния внешних факторов. Это необходимый минимум. Другая задача заключается в управлении доступностью инфраструктурных компонентов внутри гермозоны. Особенно важно это для крупных (и тем более территориально распределённых) объектов, где планирование распределения  инфраструктурных ресурсов тоже решается с помощью (специализированных) систем автоматизации.

Для поддержки виртуализации ИТ-ресурсов инженерная инфраструктура должна быть максимально адаптированной и способной реагировать на изменения инфраструктурных параметров в режиме реального времени. Это перекликается с задачами управления инженерной инфраструктурой.

Идёт процесс интеллектуализации управления инженерной инфраструктурой. В ближайшие 5–7 лет тема развития ПО управления инженерной инфраструктурой ЦОДов будет на слуху.

Для оценки энергоэффективности ЦОДов используется показатель Power Usage Effectiveness (PUE). Он определяется как отношение энергопотребления всего ЦОДа к энергопотреблению его ИТ-оборудования:

PUE = энергопотребление ИТ-оборудования + энергопотребление инфраструктуры / энергопотребление ИТ-оборудования.

Хотя показатель PUE широко распространён для описания того, как ЦОД использует электропитание, нужно осторожно подходить к интерпретации полученных с его помощью результатов. Следует всегда помнить, что PUE наиболее полезен для отслеживания влияния изменений, вносимых в инфраструктуру, и менее полезен для оценки улучшений, происходящих за счёт сокращения энергопотребления ИТ-оборудования ЦОДа, поскольку сокращение энергопотребления оборудования приведёт к увеличению PUE.

Рассмотрим способы повышения эффективности множества ЦОДов, которые созданы много лет назад (20–30 лет назад). Ведь именно их использует большинство предприятий, университетов и госучереждений. Используемые раньше мэйнфреймы и мини-компьютеры, как правило, уступили место множеству серверов и дисковых систем, которые добавлялись год за годом по мере роста потребностей. Энергопотребление таких ЦОДов постоянно росло за счёт добавления нового оборудования. У большинства зрелых (старых) центров значение PUE находится в диапазоне от 3.0 до 5.0. В среднем у современных ЦОДов показатель эффективности приближается к двойке, т.е. на каждый ватт, потребляемый серверами, приходится ещё один ватт, который расходует инженерная инфраструктура.

Для повышения эффективности ЦОДов, которые созданы много лет назад, необходимо провести следующие мероприятия. Первый шаг состоит в примерном подсчёте потребляемой энергии вашим оборудованием по трём категориям: ИТ-оборудование (серверы, системы хранения); другое оборудование (системы охлаждения и потери энергии от распределения питания); освещение. Каким бы ни были ваши результаты, с их помощью вы сможете понять, куда уходит львиная доля электроэнергии, и построить несколько стратегий энергосбережения. После этого можно провести первый уровень апгрейта, который не требует высоких капитальных затрат, вносит минимум нарушений в работу ЦОДа и быстро окупается. Для большинства несовременных ЦОДов наиболее продуктивными является следующие четыре шага:

  1.  создайте горячие и холодные проходы за счёт перегруппировки ваших стоек с оборудованием так, чтобы в одном ряду друг против друга стояли холодные передние панели, а в другом – горячие задние части с отверстиями для вентиляции;
  2.  поднимите температуру воды в холодильных установках (как правило, с 55 до 58 градусов). Это нужно делать постепенно, чтобы не вызвать проблем у оборудования;
  3.  поднимите температуру воздуха в вашем ЦОДе (на 3–5 градусов). Это также следует делать постепенно, по одному градусу за один раз;
  4.  найдите и выключите неиспользованное оборудование.

Второй этап усовершенствования вашего ЦОДа требует больше усилий, вызывает больше нарушений в работе, подразумевает некоторые, хоть и небольшие, инвестиции, но окупается меньше чем за год. В этот этап входят четыре усовершенствования:

  1.  виртуализация серверов – повышение эффективности при меньшем количестве машин;
  2.  консолидация памяти – аналогично виртуализации серверов этот метод подразумевает использование единого массива памяти для поддержки множества заказчиков или бизнес-функций;
  3.  оптимизация хранения – установка ПО, позволяющего выключать низкоприоритетные устройства хранения (третьего уровня и предназначенные для резервного копирования), когда они не используются;
  4.  мониторинг старения систем хранения. Когда они долго работают, растёт число операций поиска на дисках, возрастает торможение шпинделя и возникают другие нарушения, которые приводят к росту энергопотребления и уменьшению надёжности. Большинство экспертов считают, что трёхлетний цикл обновления дисковых накопителей сокращает энергопотребление на 10 %.

И наконец настало время для рассмотрения возможностей для обновления оборудования. Замена нескольких старых пожирателей электричества на один новый виртуализированный сервер или консолидированную систему памяти должна быть включена в список периодических работ, требующих капитальных затрат. Такой подход позволяет распределить расходы по времени и свести к минимуму нарушения в работе ЦОДа.

Сегодня крупные серверные вендоры в качестве примера успешного построения ЦОДов часто приводят проекты консолидации собственной корпоративной инфраструктуры таких центров, позволяющие существенно повысить отдачу от инвестиций в ИТ и снизить расходы на эксплуатацию ЦОДов. В 2010 году Microsoft опубликовало статью, в которой почётный инженер корпорации Дилипп Бхандаркар рассказал об опыте создания новых корпоративных мега ЦОДов в Чикаго и Дублине мощностью 60 и 27 МВт соответственно, оптимизированных для сокращения энергопотребления. При разработке спецификаций серверов для этих ЦОДов ставка делалась на процессоры с пониженным потреблением мощности, из конфигурации которых были исключены лишние компоненты (например, приводы компакт-дисков и неиспользуемые слоты расширения) и в которых использовались более эффективные блоки питания и трансформаторы. Кроме того, вопреки промышленным стандартам при проектировании ЦОДов была на несколько градусов увеличена максимально допустимая температура серверного оборудования. При проектировании обоих ЦОДов инженеры Microsoft постарались получить максимальную вычислительную мощность, несмотря на ограниченные ресурсы энергообеспечения. В результате показатель энергоэффективности новых ЦОДов (PUE) составил 1,2 (у ЦОДов Microsoft предыдущего поколения он равнялся 1,6).

На основании опыта эксплуатации чикагского ЦОДа инженеры Microsoft пришли к выводу, что применение стандартных контейнеров с водяным охлаждением для размещения ИТ-оборудования не является оптимальным решением, поскольку снижается максимально допустимая температура серверов и эффективность воздушного охлаждения. Поэтому они предложили размещать серверы под навесом. Естественное воздушное охлаждение вполне может использоваться в большинстве регионов мира, за исключением тропиков, характеризующихся жарким климатом и высокой влажностью воздуха. Отказ от водяного охлаждения не только значительно снизит затраты на построение инфраструктуры и сроки развёртывания ЦОДа, но доведёт показатель PUE до 1,05.

Одна из ключевых идей (и преимуществ) виртуализации – переход от статической структуры дата-центров с использованием исключительно физических серверов к динамической организации на базе смешанной виртуально-физической инфраструктуры (рис. 1).

Управление неоднородной виртуально-физической
ИТ-инфраструктурой

Рис.1 Организация динамической виртуально-физической ИТ-инфраструктуры

Важно отметить, что применение средств виртуализации не отменяет (по крайней мере в видимой перспективе) необходимости в физических серверах (один компьютер – одна ОС). Причина тому вполне очевидна: наряду с достоинствами (гибкость управления, оптимизация нагрузок) виртуальные машины (ВМ) имеют и недостатки по сравнению с автономными ОС (некоторые ограничения в использовании ресурсов, снижение производительности, возможные проблемы с совместимостью).

Посмотрев на структуры такого динамического дата-центра, легко оценить значимость задачи управления всей этой сложной системой. До сих пор обсуждение проблем виртуализации сводилось преимущественно к теме среды функционирования ВМ (в частности, гипервизоров). Однако следует чётко понимать: гипервизоры – это хотя и базовый, но всего лишь один из компонентов ПО виртуализации. Второй компонент, но сегодня он по сути выходит на первый план – это средства управления. В свою очередь ПО управления включает две основные категории инструментов:

  •  средства управления виртуальными машинами внутри отдельного сервера;
  •  средства управления системой виртуальных и физических серверов в целом.

Тут стоит обратить внимание на то, что если первая категория инструментов довольно жёстко связана с конкретным гипервизором и соответственно обычно поставляется самим его производителем, то вторая представляет собой сферу пересечения интересов как поставщиков виртуальных сред, так и независимых разработчиков.

Сложность задачи управления динамической ИТ-инфраструктурой легко себе представить, если учесть, что речь идёт о сугубо неоднородной системе, которая имеет дело с несколькими группами поставщиков (оборудования, ОС, приложений, ПО виртуализации), причём в каждой такой группе есть своя неоднородность (например, могут использоваться виртуальные среды разных разработчиков).

1 Декларативное знание (Дескриптивное) – любое знание о мире, к которому человек имеет осознанный доступ и которое он может декларировать (изложить с помощью языковых средств).

2 Процедурное знание – операционное, практическое знание, находящееся вне области осознания и проявляется через определенные действия, задаёт определённую модель мира и выражается суждениями со связкой «есть». В качестве классических примеров процедурного знания приводится езда на велосипеде, знание как завязывать узел или говорить на языке. Человек может знать, но не уметь, или наоборот, уметь, но быть не в состоянии объяснить, как он это делает.

3 Метазнание – знание о знании и о возможностях работы со знанием. Например, в искусственном интеллекте знание системы, о собственном функционировании и процессах построения логических выводов.


Данные

Информация

Знания

Осмысление

Контекст

Логические способы

Теоретические способы

Эмпирические способы

родукционные способы

Сетевые
способы

Фреймовые способы

Формальные грамматики

Комбинаторные способы

Алгебраические способы

Ленемы

Нейронные сети, генетические алгоритмы

Способы представления знаний

ДАННЫЕ

ИНФОРМАЦИЯ

ЗНАНИЯ

Метаданные

Структура архивов

Онтологии

Справочники, каталоги

Отчёты, методики, технологии

Правила выбора

БД, файлы, Web-страницы

Электронные документы, чертежи

Базы знаний

Интерфейс пользователя

Логика

Интеграционная часть

Система
безопасности

Система управления поручениями

Система
документооборота

Офисная
телефония

Система
финансового учёта

Корпоративный портал

Электронный бизнес

Интернет

Корпоративные системы

Внешние
информацио
нные системы

Пользователь

б

a

Физический сервер
(одна ОС)

Физический сервер
(одна ОС)

Управление
виртуальным сервером

Виртуальный сервер

Гипервизор

ВМ1

ВМn

Виртуальный сервер

Управление
виртуальным сервером

Гипервизор

ВМ1

ВМm


 

А также другие работы, которые могут Вас заинтересовать

36119. Податкові системи зарубіжних країн 585 KB
  Так у Стародавньому Римі основними податками які справлялися у натуральній формі були поземельний податок податки на живий інвентар фруктові дерева виноградники та нерухомість. Іншим видом податку тих часів було поплужне тобто податок з кожного плуга. Після приєднання українських земель до Росії основним податком стає подимне або подвірний податок який сплачувався кожним селянським двором. Тому цей податок отримав назву поголовщина або подушна подать.
36120. ПОЛІТОЛОГІЯ. Курс лекцій 5.29 MB
  СТАНОВЛЕННЯ ТА РОЗВИТОК ПОЛІТИЧНОЇ ДУМКИ. РОЗВИТОК ПОЛІТИЧНОЇ ДУМКИ В УКРАЇНИ. ДЕРЖАВА ГОЛОВНИЙ ІНСТИТУТ ПОЛІТИЧНОЇ СИСТЕМИ. Проте в новий час розвиток політичної думки та уявлень про державу призвів до відокремлення науки про державу та її обособлення від політичної науки.
36121. Управління поведінкою споживача 1.03 MB
  Підходи та етапи моделювання поведінки споживачів. Поведінка споживачів у промисловому маркетингу. Поведінка споживачів це дії які здійснює окрема особа купуючи і користуючись продукцією чи послугами це розумові і соціальні процеси що передують цим діям або настають за ними. Поведінка споживачів у промисловому маркетингу це процес прийняття рішення яким користується підприємство чи організація для визначення потреби у продуктах послугах ідентифікації оцінювання й вибору торгових марок і постачальників.
36122. Проектування трубопроводів 892.5 KB
  Особливості різних способів транспортування нафтинафтопродуктів і газу. Особливості трубопровідного транспорту. Особливості залізничного транспорту. Особливості морського транспорту. Особливості річкового транспорту. Особливості автомобільного транспорту. Економіка різних видів транспортування нафти інафтопродуктів. Вибір раціонального способу транспортування нафтовихвантажів. Методика розрахунку характеристик за способамитранспортування. Розрахунок економічних показників трубопровідноготранспорту...
36124. Основи статистики. Конспект лекцій 342.46 KB
  Статистичні спостереження. Статистичні спостереження. Суть та організаційні форми статистичного спостереження. План статистичного спостереження.
36125. Релігієзнавство. Основи філософських знань 181 KB
  Філософія релігії Мені довелося потіснити знання щоб звільнити місце вірі І. Центральний об’єкт релігійної віри – Бог саме з нього виводиться зміст усієї релігії. Розподіл філософії та релігії на самостійні форми суспільної свідомості відбувається лише в Новий час коли починають розвиватися природничі науки механіка. Філософія прагне заповнити емоційнодушевну пустоту відновити властиву релігії психологічну рівновагу.
36126. Основи національної економіки 2.85 MB
  Основні етапи розвитку національної економіки України. Особливості й ключові завдання сучасного етапу розвитку української національної економіки. Основні показники рівня розвитку національної економіки. ПОНЯТТЯ НАЦІОНАЛЬНОЇ ЕКОНОМІКИ ЯК РЕЗУЛЬТАТУ ЕКОНОМІЧНОЇ ДІЯЛЬНОСТІ Поняття національна економіка досить багатозначне оскільки це перш за все певний підсумок багатовікового розвитку народногосподарського комплексу країни.
36127. Соціальне страхування 462.5 KB
  Сутність принципи й роль соціального страхування План Сутність і необхідність соціального страхування в умовах ринкової економіки. Становлення і розвиток соціального страхування. Сутність і необхідність соціального страхування в умовах ринкової економіки. У багатьох країнах діє система взаємодоповнюючого соціального страхування що містить у собі такі елементи як: Державне соціальне забезпечення; Корпоративні соціальні програми; Індивідуальне часткове страхування.