10055

Использование искусственных нейронных сетей в задачах распознавания атак на компьютерные системы

Научная статья

Информатика, кибернетика и программирование

Использование искусственных нейронных сетей в задачах распознавания атак на компьютерные системы Статья посвящена вопросам применения искусственных нейронных сетей при разработке методов и средств защиты информации. Проведена оценка возможности использования изв...

Русский

2013-03-20

103 KB

98 чел.

Использование искусственных нейронных сетей в задачах распознавания атак на компьютерные системы

Статья посвящена вопросам применения  искусственных нейронных сетей при разработке методов и средств защиты информации. Проведена оценка возможности использования известных видов нейронных сетей в различных компонентах систем защиты информации. Предложены рабочие параметры средств защиты, анализ которых возможно проводить с использованием нейронных сетей.  Показана целесообразность применения комбинированных нейросетевых структур в системах определения атак, а рекуррентных сетей в системах защиты от спама.

Введение

В последнее время в самых разных отраслях науки и техники отмечается возросший интерес к применению искусственных нейронных сетей. Во многом популярность нейронных сетей объясняется  возможностью их эффективного использования в задачах плохо решаемых "аналитическими" методами.  В теоретических работах [1, 2, 3, 4] посвященных нейронным сетям отмечается, что их использование целесообразно в  задачах:

  •  Классификации образцов. Задача состоит в указании принадлежности входного образца, представленного вектором признаков, одному или нескольким предварительно определенным классам.
  •  Кластеризации/категоризации. Задача отличается от классификации образцов только тем, что классы заранее не определены, хотя во многих случаях количество классов все-таки предварительно  указывается.
  •  Аппроксимации функций. Задача состоит в нахождении оценки функции по известной выборке ее параметров и значений. Нейронные сети рекомендуется использовать в случаях, когда выборка искажена шумом и найти аналитическое решение затруднительно. При этом попутно решается задача фильтрации, т.е. выделения полезного сигнала из фонового шума.
  •  Предсказания/прогноза. Необходимо на основании множества дискретных отсчетов {f(t1), f(t2),…f(tj)} в последовательные моменты времени   предсказать значение f(tj+1) в момент времени tj+1.
  •  Оптимизации, т.е. нахождения решений, которые удовлетворяют системе ограничений и максимизируют или минимизируют целевую функцию. Для решения этой задачи нейронные сети рекомендуется использовать при невозможности составить явные функциональные зависимости для ограничений и/или целевой функции.
  •  Управления с эталонной моделью. В этих задачах целью управления является расчет такого входного управляющего воздействия на управляемую систему,  при котором она следует по желаемой траектории, диктуемой эталонной моделью.
  •  Создания информационно-вычислительных систем обладающих памятью, адресуемой по содержанию, т.е. ассоциативной памяти. В этом случае содержание памяти может быть вызвано по частичному или искаженному содержанию, что кроме прочего положительно сказывается и на живучести таких систем. При этом ассоциативная память позволяет решать задачи сжатия информации и восстановления данных.

Отметим, что частично или в комплексе, решать перечисленные задачи приходиться при разработке методов и средств защиты информации. В [5] указано  на применение нейронных сетей в компонентах систем оповещения об атаках (СОА), а также в системах обнаружения уязвимостей (СОУ). Однако подробного описания механизма  такого применения в доступной литературе нами не найдено.  Скорее всего, речь идет об использовании в указанных средствах защиты управляющего элемента на базе относительно давней разновидности нейронной сети – многослойного перспетрона. С его помощью решается задача распознавания реализации атаки на компьютерную систему, т.е. задача распознавания образов. СОА на основании нейронных сетей получили определенное распространение. Однако все они обладают рядом существенных недостатков, которые ограничивают их практическую ценность [5]. К указанным недостаткам относятся, высокий уровень ложных тревог, сложность подбора оптимальных граничных параметров, сложность ввода в систему нового субъекта/объекта наблюдений, не достаточная адаптация ко многим особенностям современного состояния отрасли информационных технологий. Это свидетельствует о  необходимости дальнейшего усовершенствования таких систем. При этом следует учитывать определенный прогресс в развитии теории искусственных нейронных сетей, что в свою очередь должно отражаться и не методике их использования в задачах защиты информации. Так, кроме перспетрона уже достаточно хорошо изучены, еще несколько разновидностей нейронных сетей, каждая из которых обладает своими специфическими возможностями.  Этим объясняется актуальность исследования применимости различного рода нейронных сетей, в задачах зашиты информации.

Постановка задачи

Оценка возможностей применения управляющих элементов на базе нейронных сетей при разработке методов и средств защиты информации.

Общий принцип работы нейронных сетей

Нейроны представляют собой простые процессоры, вычислительные возможности которых  ограничиваются некоторым правилом комбинирования входных сигналов и правилом активации, позволяющим вычислить выходной сигнал  по совокупности входных сигналов. Выходной сигнал нейрона может посылаться другим нейронам сети по взвешенным связям, с каждой из которых связан весовой коэффициент, называемый также  весом связи. Правило комбинирования входящих сигналов нейрона заключается в суммировании их взвешенных значений. Общий входной сигнал нейрона (net) рассчитывается так:

                                                               ,                                                    (1)

где w0  сдвиг, n  число входящих связей, xi  величина i-й связи, wi  вес i-й связи.

Правило (функция) активации представляет собой правило вычисления выходного значения нейрона, которое предполагается передать другим нейронам или во внешнюю среду. В качестве функции активации чаще всего используют линейную (2), линейную с погашением отрицательных импульсов (3), пороговую (4) и сигмоидальную функции (5):

                                                           ,                                                    (2)

                                                    ,                                             (3)

                                                    ,                                                (4)

                                                      ,                                               (5)

где z  некоторое пороговое значение, а некоторый коэффициент.

Линейная и линейная с погашением отрицательных импульсов функции активации используются в основном для нейронов, которые принимают сигналы от внешней среды. Такие нейроны называются входными. Выходной сигнал нейрона в соответствии с функцией активации может иметь как положительное, так и отрицательное значение. При этом связи, по которым к нейрону поступают положительные сигналы, называются возбуждающими. Связи, по которым поступают отрицательные сигналы, называются тормозящими.

В общем случае, нейронная сеть является совокупностью произвольным образом соединенных между собой нейронов. Нейроны, которые непосредственно не принимают сигналы от внешней среды и не посылают данные во внешнюю среду, называются скрытыми. Обучение сети начинается с инициализации весов связей (весовых коэффициентов) случайными величинами. Сети предъявляются различные данные, а весовые коэффициенты подстраиваются согласно выбранной математической схеме. После обучения сеть может распознавать входные данные либо нести какую-либо иную смысловую нагрузку. Информация о полученном во время обучения опыте хранится в виде весовых коэффициентов связей.

Основными характеристиками нейронной сети являются:

  •  Количество входных, скрытых и выходных нейронов.
  •  Структура связей.
  •  Правила распространения сигналов в сети.
  •  Правила комбинирования входящих в нейрон сигналов.
  •  Правила вычисления выходного сигнала нейрона.
  •  Правила обучения, корректирующие связи в сети.

Анализ [1, 4] позволяет сформулировать вывод о том, что развитие современных нейронных сетей заключается в формировании оптимальной, с точки зрения прикладной задачи, структуры связей сети, правил распространения сигналов и правил ее обучения. В настоящее время в различных сферах деятельности используется довольно много  нейросетевых структур: многослойный перспетрон, сеть с радиальными базисными функциями, модель Липпмана-Хемминга, самоорганизующуюся карта признаков, сеть Хопфилда, сеть BAM, автоассоциативные сети, рекурентные сети, машина Больцмана, сеть PNN, модульные нейронные сети, сети адаптивной резонансоной теории, когнитроны, неокогнитроны, нечеткие нейронные сети. При этом, для каждого класса прикладных задач применяются свои типы нейронных сетей. Проведем исследование наиболее известных и апробированных базовых нейросетевых структур с точки зрения их адаптации к решению задач защиты информации. Отметим, что этим мы, несколько сужаем круг исследований. Остаются без рассмотрения некоторые возможно и перспективные, но не достаточно апробированные виды нейронных сетей. Например, мы не будем рассматривать когнитрон или нейронные сети, базирующиеся на нечеткой логике.

Многослойный перспетрон и сеть с радиальными базисными функциями

В общем случае многослойный персептрон представляет собой сеть, состоящую из нескольких последовательно соединенных слоев формальных нейронов. Обычно информация сначала поступает во входной слой, состоящий только из сенсорных элементов (входных нейронов). Задачей входного слоя является только прием и распространение по сети входной информации. Далее имеются один или, реже, несколько скрытых слоев. Выходная информация отображается в выходном слое. Чаще всего, каждый в нейрон скрытого слоя принимает все выходные сигналы нейронов предыдущего слоя, а его выходной сигнал рассылается всем нейронам следующего слоя. Особенностью многослойного перспетрона является наличие только прямых тормозящих и/или возбуждающих связей между соседними слоями. При этом каждый нейрон в скрытом слое характеризуется уникальным вектором весовых коэффициентов, настраиваемых в процессе обучения. Обучение перспетрона производиться методом – "обучение с учителем", с использованием алгоритма обратного распространения ошибок. Алгоритм  базируется на минимизации функции ошибки перспетрона на всем множестве обучающей выборки. Поиск минимума ошибки осуществляется методом градиентного спуска. Указанный алгоритм обучения обладает достаточной эффективностью, но накладывает ограничение на использование только гладких функций активации нейронов в скрытых слоях.

В общем случае с помощью перспетрона возможно решить задачу аппроксимации многомерных функций, т.е. построения многомерного отображения F: xy, обобщающего заданный набор примеров xn,yn. Теоретически доказано [1, 4], что одного скрытого слоя нейронов с сигмоидной функцией активации достаточно для аппроксимации любой функции со сколь угодно высокой точностью. Более того, многослойный перспетрон может одновременно аппроксимировать и саму функцию, и ее производные. Отметим, что многие практические задачи распознавания образов, фильтрации шумов, предсказания временных рядов сводятся к аппроксимации многомерных функций.

Максимальное количество запоминаемых образцов (p) в двухслойном перспетроне с пороговой активационной функцией вида (4), можно оценить следующим образом:

                                          ,                                                        (6)

где Lw число подстраиваемых весов, m  количество нейронов в выходном слое.

Емкость двухслойного перспетрона  с гладкими активационными  функциями вида (5) обычно несколько выше. При этом емкость перспетрона с количеством слоев больше двух теоретически не определена.

Проведенный анализ позволяет сделать вывод о том, что многослойный перспетрон целесообразно использовать в тех средств защиты информации, которые базируются на анализе множества взаимокорелируемых дискретных параметров. К таким средствам защиты относятся системы распознавания атак, системы распознавания уязвимостей,  антивирусы, антикейллогеры. Возможные входные параметры многослойного перспетрона для этих средств защиты показаны в таблице 1.

Таблица 1

Входные параметры многослойного перспетрона в некоторых средствах защиты

Название средств защиты

Входные параметры

Система распознавания атак

Параметры сетевых запросов и событий в компьютерной системе: вход/выход пользователей, количество процессов, доступ к файлам, временные интервалы запросов к объектам компьютерной системы.

Система распознавания уязвимостей

Параметры настроек компьютерной системы: количество пользователей, привилегии пользователей, параметры доступа к объектам компьютерной системы, количество и номенклатура открытых портов, запущенные сетевые службы, параметры административных настроек служб DCOM/COM+.

Антивирусы, антикейллогеры

Параметры событий в компьютерной системе: количество и номенклатура запущенных программ и процессов, доступ процессов к файлам, попытки доступа к сетевым службам, попытки изменения исполняемых файлов, доступ к API операционной системы.

Аналогичные перспетрону задачи позволяет решать сеть с радиальными базисными функциями. В наиболее простой форме сеть содержит три слоя: входной, скрытый и выходной. Отображение от входного слоя к скрытому является нелинейным, а отображение скрытого в выходной линейным. Обычно в таких сетях число скрытых нейронов больше числа входных нейронов. Построение сети базируется на предпосылке о том, что для повышения вероятности линейной разделимости необходимо разместить классифицируемые образцы в пространстве высокой размерности некоторым нелинейным образом [2,3]. Для обучения первого слоя сети с радиальными базисными функциями используется обучение без управления, а для второй слой обучается "с учителем". Сравнивая радиальную базисную сеть с  многослойным перспетроном источники [1,2,3] указывают на более высокую мощность последнего. При этом в качестве преимущества радиальной базисной сети указывается простота ее модельной и программной реализации.

На наш взгляд основными ограничениями использования многослойного перспетрона и сети с радиальными базисными функциями являются:

  •  Недостаточно изученные возможности в области обобщения и вывода новых знаний.
  •  Не возможность самостоятельного дообучения в процессе практического эксплуатации.

На практике эти ограничения могут негативно отразиться на возможности диагностирования новых видов атак или неизвестных уязвимостей. Для решения этой проблемы необходимо разработать методику формирования качественной первоначальной обучающей выборки и провести исследование в направлении развития такой характеристики перспетрона и сети радиального базиса, как обобщение подобной входной информации.  Кроме этого необходимо провести исследование в направлении комбинированного применения перспетрона с другими видами нейронных сетей.

Самоорганизующаяся карта признаков (сеть Кохонена)

Назначением сети является кластеризация образцов. Такая сеть имеет набор входных элементов, число которых соответствует размерности учебных векторов, и набор выходных элементов, которые служат в качестве прототипов. Входные нейроны предназначены только для того, что бы распределять данные входного вектора признаков между выходными элементами сети. Выходные нейроны называются кластерными элементами. Обычно число кластерных элементов меньше числа учебных образцов. Вектор входных значений X=(x1,x2,…xm) передается кластерным элементам A, B, … N. В начале вектор весовых коэффициентов W проинициализирован случайными числами w1A, w1b… Сеть обучается по алгоритму "победитель забирает все", в соответствии, с которым при предъявлении сети входного вектора возбуждается единственный нейрон-победитель, наиболее точно соответствующий образцу. Вектор весовых коэффициентов нейрона-победителя модифицируется:

                                               ,                                                                    (7)

где c – некоторый положительный параметр обучения.

Иногда в алгоритм добавляют параметр "совести", который обновляется на каждой итерации и препятствует слишком частым "победам" одних и тех же нейронов. В некоторых случаях определяется не один нейрон-победитель, а множество ближайших нейронов. Отметим, что в любом случае указанный алгоритм реализует принцип обучения без учителя.  Хотя это и расширяет адаптивные возможности сети, но не позволяет использовать накопленные знания об изучаемом процессе.  Поэтому в современных нейросетевых системах сеть Кохонена самостоятельно не используется [2,3].

Сети встречного распространения

Являются в некотором смысле модификацией сети Кохонена и используются для решения задач кластеризации образцов [1,4]. Модификация заключается в добавлении в состав сети слоя Гросберга (звезды Гросберга). В режиме распознавания нейроны слоя Кохонена  определяют кластер, к которому принадлежит входной образ. Затем выходная звезда слоя Гроссберга, обучаясь "с учителем", по сигналу нейрона-победителя в слое Кохонена воспроизводит на выходах сети соответствующий образ.

Обучение весов слоя Кохонена выполняется без учителя на основе самоорганизации. Входной вектор  вначале нормируется, сохраняя направление. После выполнения одной итерации обучения определяется нейрон победитель, состояние его возбуждения устанавливается равным единице, и теперь могут быть модифицированы веса соответствующей ему звезды Гроссберга. Темпы обучения нейронов Кохонена и Гроссберга должны быть согласованы. В слое Кохонена обучаются веса всех нейронов в окрестности победителя, которая постепенно сужается до одного нейрона.

Рекомендуется использование этой архитектуры для быстрого моделирования систем на начальных этапах исследований с дальнейшим переходом, если это потребуется, на значительно более ресурсоемкий, но более точный метод обучения с обратным распространением ошибок [2].  По этой причине использовать сеть встречного распространения в действующих системах защиты не целесообразно.

Линейный ассоциатор

Реализует одну из форм интерполятивной памяти. Интерполятивная память – это такое отображение XY(X), при котором отличному от эталона вектору X=Xi+i ставиться в соответствие выходной вектор Y(X)=Y(Xi+i)=Yi+Y(i). Таким образом, каждый эталонный образец связывается с соответствующим образом в памяти. Если же входной образец отличается от эталонного, на вектор i, то выходной вектор тоже отличается от эталонного на величину Y(i). Кроме этого, ожидаемые свойства сети базируются на предположении, что эталонные образцы составляют множество ортонормальных векторов [4]. Эти обстоятельства затрудняют практическое применение линейного ассоциатора для решения задач защиты информации.  

Сети ассоциативной памяти

К известным сетям такого типа относятся сети  Хопфилда, Хемминга, BAM (Bidirectional Associative Memory), а также машина Больцмана.

Сеть Хопфилда является автоассоциативной сетью, которая может классифицировать сохраненный образец даже по подсказке, представляющей собой искаженную помехами версию нужного образца. Если не учитывать входные нейроны, то сеть Хопфилда является однослойной. Все нейроны связываются друг с другом, но не сами с собой. Обучение сети заключается в применении процедура обновления веса случайного нейрона до тех пор, пока не будет получено устойчивое состояние, соответствующее локальному минимуму энергии сети.  Таким образом, весовые значения нейронов определяются непосредственно из учебных данных перед началом функционирования сети.  Доказано, что для сетей Хопфилда всегда существует функция энергии сети, обеспечивающая ее сходимость к устойчивому состоянию. Кроме использования в задачах автоассоциативной памяти сеть Хопфилда предлагается применять для решения задач оптимизации.

Сеть Хемминга, являясь модификацией сети Хопфилда, применяется в тех случаях, когда допускается определить только номер исходного образца по зашумленному входному сигналу. Преимуществом этой сети перед сетью Хопфилда является меньшие затраты на вычислительные ресурсы.

Установлено, [2] что максимальное количество образцов (p), которые можно сохранить в сетях Хопфилда и Хемминга, если требовать правильного распознавания большинства образцов, должно быть:

                                              ,                                                                         (8)

где N  количество нейронов в сети.

При этом, для безошибочной работы сети максимальное количество образцов должно быть:

                                                                                                                         (9)

Известной модификацией сети Хопфилда является машина Больцмана [2]. Ее отличительной чертой является обучения методом модельной "закалки". Данный метод частично позволяет обойти локальные минимумы функции энергии сети и установить равновесное состояние, соответствующее глобальному минимуму.

Еще одним видом сетей ассоциативной памяти является сеть ВАМ [2,4]. В общем случае сеть BAM представляет собой гертероассоциативной рекуррентной сетью, состоящей из двух слоев. Связи между слоями устроены таким образом, что каждый нейрон одного слоя связан с каждым нейроном другого слоя. Внутри слоев связи между нейронами отсутствуют, число нейронов на каждом слое может быть различным.  Обучение задается правилом Хебба. Поскольку связи между нейронами разных слоев являются двунаправленными, то веса связей необходимо определить для обоих направлений.  Если рассматривать набор ассоциаций вида <X1,X1>, <X2,X2>, то сеть BAM можно классифицировать как двунаправленную ассоциативную память. В этом случае второй слой нейронов можно исключить, при этом необходимо установить двунаправленные связи между всеми нейронами оставшегося слоя.

Распространенность сетей Хопфилда, Хемминга и ВАМ объясняется  простотой построения программных и аппаратных моделей.  Так как этого весовые коэффициенты в этих сетей могут быть найдены с помощью простых матричных вычислений,  такие сети не требуют длительного обучения.  

К основным недостаткам данных сетей относятся:

  •  Равновесное состояние сети, по критерию минимума энергии не обязательно соответствует глобальному минимуму для моделируемой системы. Общего метода решения этой проблемы не существует. Таким образом, сети Хопфилда и Хемминга не обязательно правильно воспроизводят исходный образец по зашумленным данным. При этом нельзя точно определить уровень шума, выше которого сеть становиться не работоспособной.
  •  При использовании сетей в задачах оптимизации  не существует общего метода отображения ограничений оптимизации в функцию энергии сети.
  •  Относительно невысокая емкость сетей.

Несмотря на указанные недостатки, существует достаточно много примеров использования сетей Хопфилда и Хемминга, а также сети ВАМ. Например, в [2,3] показано удачное применение таких сетей в системах распознавания текста. Отметим, что количество параметров учитываемых в системах распознавания текста соизмеримо с количеством параметров, анализируемых в СОА и САУ.  При этом в СОА и СОУ количество эталонных образцов должно быть намного больше. Кроме этого, некоторым ограничением применения указанных сетей являются проблемы ложной памяти [1,4].

Сети PNN (вероятностные нейронные сети)

Предназначена для классификации образцов на основе статистических оценок их близости соседним образцам [3]. Формальным правилом соответствия неизвестного образца x k-му классу  является выражение:

                                     ,                                                          (10)

где {N}множество всех классов, iпроизвольный класс, hk (hi ) априорная вероятность классификации образца как класса k (i), ck (ci) цена ошибки классификации   образца как класса k (i), fk(x) и fi(x) функции плотности вероятности классов k и i.

На практике расчет априорных вероятностей и ошибок классификации во многих случаях затруднителен. Поэтому часто эти величины выбираются одинаковыми для всех классов.  Оценка функции плотности вероятности производится на основании учебных образцов с использованием метода Парцена. При этом используется весовая функция (ядро), имеющая центр в точке, представляющей учебный образец.  Чаще всего в качестве ядра используют функцию Гаусса. Сеть состоит из трех слоев нейронов, количество которых определяется структурой учебных данных. Число входных нейронов равно числу признаков класса. Число элемента слоя образцов равно числу учебных образцов. Число элементов слоя суммирования равно числу классов. Для входящих в элемент слоя образцов связей весовые коэффициенты устанавливаются равными элементам соответствующего вектора-образца. Таким образом, все параметры сети PNN определяются непосредственно учебными данными. За счет этого обучение сети производится относительно быстро. Кроме этого, достоинствами сети PNN являются возможность качественной классификации на малых наборах учебных данных, а также низкая чувствительность к наличию ошибочных данных в учебных образцах. К общим недостаткам сети   относят высокую вычислительную ресурсоемкость и возможность применения в только задачах классификации. Отметим, что указанные недостатки не столь критичны в задачах защиты информации. Например, для решения проблемы ресурсоемкости можно реализовать сеть с помощью аппаратных средств. Поэтому  использование сети PNN в разнообразных средствах защиты информации имеет хорошие перспективы. При этом необходимо решить следующие задачи:

  •  Организовать эффективную систему сбора и обработки первоначальной статистической информации.
  •  Адаптировать сеть к распознаванию как можно более широкой номенклатуры  классов (опасностей).
  •  Адаптировать сеть к дообучению в процессе эксплуатации для распознавания новых опасностей.

Рекуррентные сети

Рекуррентную сеть можно рассматривать как модификацию сети с прямыми связями. Модификация заключается в добавлении рекуррентных связей, когда нейрон посылает сигналы себе или элементам своего слоя или элементам более низких слоев. При этом алгоритм работы рекуррентных сетей представляет собой непосредственную модификацию алгоритма работы соответствующей сети с прямыми связями. Основным достоинством рекуррентных сетей является то, что при фиксированных размерах они  в состоянии обрабатывать структуры переменной длины. К известным архитектурам  рекуррентных сетей относятся сеть Джордана и простая рекуррентная сеть SRN (Simple Recurrent Network). Доказано, что с помощью сети SRN можно реализовать любой конечный автомат. В литературе [3] представлены примеры использования рекуррентных сетей в области распознавания смысла текстовой информации. Отметим, что к данной области относится задача распознавания смысла электронных писем, решение которой является важнейшим этапом разработки средств защиты от спама.  

Выводы

Из апробированных нейронных сетей наиболее перспективными для применения в средствах защиты компьютерных систем являются многослойный перспетрон, сеть Кохонена, сеть PNN, а также рекуррентные сети.  

Многослойный перспетрон, сеть Кохонена и сеть PNN целесообразно использовать в управляющих элементах СОА, СОУ, антивирусных системах и в системах защиты от кейлогеров. При этом в качестве анализируемых возможно применение параметров представленных в табл. 1.

Рекуррентные сети, а также сеть PNN возможно использовать в системах защиты от спама.

Вследствие того, что возможности указанных нейронных сетей во многом дополняют друг друга,  перспективным путем дальнейших исследований является разработка комбинированной нейронной сети. Ее основными характеристиками должны быть достаточно высокая емкость и точность, а также возможность дообучения в процессе функционирования.

Литература

  1.  ЕжовА.А., Шумский С.А. Нейрокомпьютинг и его применения в экономике и бизнесе. М.: МИФИ, 1998. 224 с.
  2.  Круглов В.В., Борисов В.В. Искусственные нейронные сети. М.: Горячая линия-Телеком, 2002. 382 с.
  3.  Каллан Р. Основные концепции нейронных сетей. : Пер. с англ. М.: Вильямс, 2003. 288 с.
  4.  Люгер Ф. Искусственный интелект: стратегии и методы решения сложных проблем, 4-е издание.: Пер. с англ. М.: Вильямс, 2003. 864 с.
  5.  Архипов А, Ишутин А. Применение моделей обнаружения аномалий для выявления атак // Четверта науково-технічна конференція. Правове, нормативне та метрологічне забезпечення системи захисту інформації в Україні. Тези доповідей. 2006. 71-72 С.


 

А также другие работы, которые могут Вас заинтересовать

6056. Государственный кредит и государственный долг 30.17 KB
  Государственный кредит и государственный долг 1. Понятие, сущность и основные формы государственного кредита 2. Государственный долг и методы управления им. 1. Немаловажным звеном финансовой системы является государственный кредит. Основными и...
6057. Заголовок у друкованій рекламі: структура, типи та функції 83.82 KB
  Заголовок у друкованій рекламі: структура, типи та функції Вступ З кожним днем реклама все більше проникає в життя суспільства. Від написання рекламного тексту залежить, чи дізнаються люди про товар і чи буде він куплений. Якісний продукт може залиш...
6058. Дослідження елементного складу обєктів із використанням мас-спектрометра з лазерним джерелом іонів 283 KB
  Мета роботи: Ознайомитися з принципом дії часопролітного мас-спектрометра з лазерним джерелом іонів та вміти застосувати його при дослідженні елементного складу об'єктів...
6059. Технология машиностроения Правила оформления технологической документации 8.53 MB
  В методическом пособии рассмотрены основные требования стандартов по оформлению маршрутных и операционных карт, карт эскизов. Приведены иллюстрации переходов при механической обработке, правила записи и условные обозначения баз и зажимных устройств, примеры заполнения технологической документации....
6060. Индивидуальный привод с цилиндрическо-червячным редуктором 712.5 KB
  Индивидуальный привод с цилиндрическо-червячным редуктором Кинематический расчет Подбор электродвигателя По заданным характеристикам электродвигателя и редуктора: определим общее передаточное число...
6061. Налоговая система России, роль для развития экономики 137.17 KB
  Введение Налоги являются необходимым звеном экономических отношений в обществе с момента возникновения государства. Развитие и изменение форм государственного ...
6062. Расчет предела текучести металлов и сплавов как совокупной характеристики с учетом влияния структурных уровней 89 KB
  Расчет предела текучести металлов и сплавов как совокупной характеристики с учетом влияния структурных уровней Цель работы - на практике убедиться, что прочность металла является совокупной характеристикой его межатомных сил связи, а также влия...
6063. Автогенераторы. Основы теории цепей 36.5 KB
  Схема LC-автогенератора. Условия самовозбуждения. Баланс фаз, то есть совпадение начальных фаз гармонических напряжений на входе и выходе системы. Такое совпадение наступает, когда суммарный сдвиг фаз, вносимый усилителем и цепью обратной связи равен нулю или кратен...
6064. Педагогический дизайн в системе обучения русскому языку (на примере реализации программированной модели урока орфографии) 51.5 KB
  Педагогический дизайн в системе обучения русскому языку (на примере реализации программированной модели урока орфографии) Изменение условий учебного процесса в связи с внедрением новых информационных технологий требует пересмотра традиционных форм и...