49162

Применение нейросети для определения видовой принадлежности деревьев

Курсовая

Информатика, кибернетика и программирование

Обучение нейросети. Применение нейросети для определения видовой принадлежности деревьев. Предметом исследования является применение нейросети для определения видовой принадлежности деревьев. В ней описываются все параметры используемые для обучения сети создается обучающая выборка и представлены результаты работы.

Русский

2014-01-12

364.5 KB

5 чел.

Оглавление

ВВЕДЕНИЕ 3

ГЛАВА 1.Теоретические основы 4

             1.1.Многослойная нейронная сеть 6

             1.2.Искусственный нейрон 7

             1.3.Обучение нейросети 10

ГЛАВА 2.Практическая часть

2.1.Применение нейросети для определения видовой принадлежности

деревьев   13

2.2.Обучение персептрона 16

ЗАКЛЮЧЕНИЕ 19

СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ И ЛИТЕРАТУРЫ 20

Введение

Цель работы: посмотреть, обучится ли нейросеть при определении видовой принадлежности деревьев, насколько точны будут результаты обучающей выборки.

Для достижения поставленной цели были поставлены следующие задачи:

- составить обучающую выборку на основе полученных данных;

- посмотреть, можно ли обучить Нейросимулятор определению видовой принадлежности деревьев;

- обучить Нейросимулятор;

- представить результаты для наглядности в виде гистограммы.

Объектом исследования являются искусственный интеллект.

Предметом исследования является применение нейросети для определения видовой принадлежности деревьев.

Работа состоит из введения, двух глав, заключения.

Первая глава - теоретическая часть, в которой рассматривается теория нейронных сетей, а также их архитектура.

Вторая глава – практическая часть. В ней описываются все параметры, используемые для обучения сети, создается обучающая выборка и представлены результаты работы.

 

Теоретические основы

Человека всегда интересовало устройство мозга, принципы его работы и организации. Первая математическая модель нейрона (базового элемента мозга) была создана в 1943 году, когда американский ученый Уоррен Маккаллок (McCulloch W.) и его ученик У. Питтс (Pitts W.) сформулировали основные положения теории деятельности головного мозга.

Ими было сделано следующее:

  •  разработана модель нейрона как простейшего процессорного элемента, выполнявшего вычисление переходной функции от скалярного произведения вектора входных сигналов и вектора весовых коэффициентов;
  •  предложена конструкция сети таких элементов для выполнения логических и арифметических операций;
  •  сделано основополагающее предположение о том, что такая сеть способна обучаться, распознавать образы, обобщать полученную информацию.

За прошедшие десятилетия теория нейронных сетей ушла достаточно далеко вперед, однако многие утверждения У. Маккаллока остаются актуальными и по сей день. В частности, при большом разнообразии моделей нейронов принцип их действия, заложенный У. Маккаллоком и У. Питтсом, остается неизменным. Недостатком модели  является сама модель нейрона — «пороговый» вид активационной функции. Пороговый вид функции не дает нейронной сети достаточную гибкость при обучении и настройке на поставленную задачу.

Дальнейшее развитие теория нейронных сетей получила в работах американского нейрофизиолога Френсиса Розенблата (Rosenblatt F.). В 1958 году он предложил свою модель нейронной сети [3].

Ф. Розенблат ввел в модель У. Маккаллока и У. Питтса способность связей к модификации, что сделало ее обучаемой. Эта модель была названа персептроном. Первоначально персептрон представлял собой однослойную структуру с жесткой пороговой функцией процессорного элемента и бинарными или многозначными входами, в дальнейшем эта модель была значительно усовершенствована.

Персептрон, воспринятый первоначально безоговорочно и с большим энтузиазмом, вскоре подвергся интенсивным нападкам со стороны крупных научных авторитетов.

В 1982 году американский биофизик Дж. Хопфилд (Hopfield J.) предложил оригинальную модель нейронной сети, в дальнейшем названную его именем.

Сеть Дж. Хопфилда имеет обратные связи между слоями, что увеличивает ее обобщающие свойства, такие сети нашли широкое применение при распознавании образов. В последующие несколько лет было найдено множество эффективных алгоритмов и архитектур нейросетей, таких как сеть обратного распространения, двунаправленная ассоциативная память, самоорганизующиеся карты и др.

Построение любой нейронной сети предполагает большой объем вычислений (обучение сети обычно является итерационным процессом). Поэтому только с ростом вычислительной мощности компьютеров появилась возможность практического применения нейросетей, что дало мощный толчок к широкому распространению программ, использующих принципы нейросетевой обработки данных.

1.1. Многослойная нейронная сеть

Как и человеческий мозг, нейросеть состоит из множества простейших элементов — нейронов, взаимодействующих друг с другом. Именно их совокупность обеспечивает уникальность свойств нейронных сетей, таких как способность к обобщению, работа с зашумленными и неполными данными и др.

Среди всего разнообразия архитектур нейронных сетей наибольшее распространение получили многослойные. Фактически эти сети стали «классическим», и когда в литературе говорится о нейросетях, обычно подразумевают многослойные полно связанные сети. Поэтому рассмотрим их подробнее и приведем примеры использования.

В такой архитектуре нейроны объединены в так называемые слои. Под слоем понимается совокупность нейронов, входы которых соединены с выходами нейронов предыдущего слоя, а в свою очередь, выходы нейронов этого слоя являются входами для следующего слоя.

Обычно слоистые сети являются полно связанными, то есть входы каждого нейрона слоя связаны со всеми выходами нейронов предыдущего слоя. Пример двухслойной полносвязанной нейросети приведен на рис. 1.

Рис. 1 Пример двухслойной полносвязанной нейросети.

В нейропрограммах пользователь может легко задать требуемую структуру нейронной сети, определив для этого лишь число слоев и нейронов в них. Практическое распространение таких сетей объясняется хорошо отработанными алгоритмами

обучения и широким классом решаемых ими задач.

Не полносвязанные нейросети являются частным случаем. Отсутствие связи эквивалентно нулевому коэффициенту веса связи.

Чаще применяются нейросети имеющие два и более слоев. Однослойные нейронные сети имеют один существенный недостаток, они не решают задачу классификации линейно неразделимых классов, которая в литературе носит название задачи «исключающего ИЛИ».

Линейно разделимая задача — задача классификации, при которой выделяемые классы можно разделить гиперплоскостями (для нейросети с двумя входами — прямыми линиями).

1.2. Искусственный нейрон

Искусственные нейросети чрезвычайно разнообразны по своей архитектуре, и в настоящее время создано более 20 их парадигм. Все они имеет простой общий базовый элемент — искусственный нейрон, который имитирует свойства своего биологического родителя.

Рис. 2 Искусственный нейрон

На вход искусственного нейрона  подается набор входных сигналов x1, x2, ..., xn (входной вектор X), представляющий собой выходные сигналы других нейроподобных элементов или входные сигналы нейросети. Каждый входной сигнал умножается на соответствующий вес связи w1, w2, ...,wn— аналог эффективности синапса. Вес этой связи является положительным для возбуждающей и отрицательным для тормозящей связи нейрона. Взвешенные весами связей, входные сигналы поступают на блок суммации (по своей сути являющийся аналогом тела клетки в биологическом нейроне), где вычисляется их алгебраическая сумма и определяется уровень возбуждения нейрона S:

 

где: θ — порог возбуждения нейрона.

Затем над уровнем возбуждения S производится необходимое нелинейное преобразование: Y=F(S)

Эта функция называется активационной, примеры таких функций приведены на рисунке 3

Рис. 3 Примеры активационных функций.

Наиболее часто на практике применяется сигмоидальная (логистическая) функция вида:

Эта функция позволяет работать как со слабыми уровнями возбуждения ( значения около 0), так и с большими уровнями возбуждения нейрона. При сильных уровнях сигнала происходит насыщение активационной функции, и таким образом, нейрон функционирует в широком диапазоне входных сигналов.

Коэффициент β определяет крутизну сигмоида.

Нелинейность функции активации F(S) очень важна и принципиальна; если бы нейроны были линейными элементами (использовали линейную функцию активации), то любая последовательность нейронов также производила бы линейное преобразование и вся нейросеть была бы эквивалентна одному нейрону (или одному слою нейронов — в случае нескольких выходов). Нелинейность разрушает линейную суперпозицию и приводит к тому, что возможности нейросети существенно выше возможностей отдельных нейронов.

Выше описанная модель нейрона пренебрегает многими известными характеристиками биологического прототипа, которые некоторые исследователи считают критическими. Например, в ней не учитывают нелинейность пространственно-временной суммации, которая особенно существенна для сигналов, приходящих по возбуждающим и тормозящим синапсам; различного рода временные задержки; эффекты синхронизации и частотной модуляции; рефлекторность и т. п. Невзирая на эти отклонения, сети, построенные на основе таких нейронов, демонстрируют ассоциативные свойства, напоминающие свойства биологических систем, и успешно применяются на практике.

1.3. Обучение нейросети

Одно из важнейших свойств нейронной сети — ее способность к самоорганизации, самоадаптации с целью улучшения качества функционирования.

Эта цель достигается путем обучения сети, алгоритм задается набором правил. Обучающие правила определяют, каким образом изменяются связи в ответ на входное воздействие. Обучение основано на увеличении силы связи (веса синапса) между одновременно активными нейронами. Часто используемые связи усиливаются, и этим объясняется феномен обучаемости нейросетей путем повторения и привыкания. В настоящее время выработано достаточное количество разнообразных обучающих правил (алгоритмов обучения).

Все это многообразие можно разделить на две условные группы — «обучение без учителя» и «обучение с учителем». При «обучении без учителя» нет  эталонных выходных значений, и нейросеть сама обучается на входных примерах, выявляя в них закономерности и проводя самоорганизацию. Наиболее известной архитектурой такой нейросети являются самоорганизующиеся карты Кохонена (Self-Organizing Maps), о которых будет рассказано в дальнейшем.

В процессе «обучения с учителем» на входы нейросети подаются входные значения и затем производится сравнение полученных выходных значений с требуемыми. Фактически требуемые (эталонные) значения выходов играют роль «учителя», каждый раз давая урок нейросети. Рассматриваемые  многослойные сети обучаются по этому принципу.

Когда в сети есть только один слой, то алгоритм ее обучения с учителем довольно очевиден, так как правильные выходные состояния нейронов единственного слоя заведомо известны и подстройка весов (синаптических связей) идет в направлении минимизации ошибки на выходе. В многослойных же сетях оптимальные выходные

значения нейронов всех слоев, кроме последнего, как правило, не известны, и их уже невозможно обучить, руководствуясь только величинами ошибок на выходах НС.

Тренировка многослойных нейронных сетей проводится с помощью алгоритма обратного распространения ошибки (back propagation). Этот алгоритм является обобщением одной из процедур обучения простого персептрона, известной как дельта-правило, и требует наличия обучающей выборки. Выборка состоит из набора пары векторов (входной и выходной), между которым и надо установить соответствие.

Алгоритм обратного распространения ошибки является одной из разновидностей градиентного спуска, минимизирующий суммарную квадратичную ошибку:

где: — реальное выходное состояние нейрона i-го выходного слоя N нейронной сети при подаче на ее входы k-го образа; Yi,k— идеальное (желаемое) выходное состояние этого нейрона. Идея алгоритма состоит в том, чтобы вычислить чувствительность выхода нейрона к изменению весов в случае возникновения ошибки.

Для этого вычисляются частные производные от ошибки по весам.

Для работы алгоритма требуется, чтобы активационные функции нейронов были неубывающими и имели ограниченную производную. При проведении данной операции обычно используют сигмоидальную активационную функцию. Перед началом обучения связям присваиваются небольшие случайные значения. Каждая итерация процедуры состоит из двух фаз. Во время первой фазы (прямой проход) на сеть подается входной вектор путем установки в нужное состояние входных элементов. Затем входные сигналы распространяются по сети, порождая выходной вектор.

Полученный выходной вектор сравнивается с требуемым (обратный проход).

Если они совпадают, обучения не происходит. В противном случае вычисляется разница между фактическими и требуемыми выходными значениями, которая передается последовательно от выходного слоя к входному. На основании информации об ошибке производится модификация весов связей.

Описанный алгоритм хотя и является широко распространенным, но все же имеет некоторые недостатки:

  •  в процессе обучения может возникнуть ситуация, когда большие положительные или отрицательные значения весов переведут нейрон в область насыщения активационной функции;
  •  применение метода градиентного спуска не гарантирует, что будет найден глобальный, а не локальный минимум целевой функции;
  •  нет никаких предварительных оценок требуемого времени для обучения нейросети.

Наличие этих и другие, проблем подвигло разработчиков, в свою очередь, к созданию большого числа улучшенных алгоритмов обратного распространения ошибки, таких как использование производных второго порядка, пакетной обработки и т. д.

Отдельной проблемой при обучении с учителем является переобучение нейросети. Под переобучением понимается такое обучение, при котором теряются обобщающие свойства и нейросеть просто «запоминает» выходные данные. Другими словами на обучающей выборке сеть показывает великолепные результаты, а на новых данных или на подтверждающей выборке, результаты гораздо хуже.

Рис. 4. Результаты подтверждающей и обучающей выборки, переобучение.

На рисунке 4 показан момент наступления переобучения нейросети. При дальнейшем уменьшении ошибки на обучающей выборке на подтверждающей выборке ошибка увеличивается.

Основным методом «борьбы» с переобучением является введение механизма калибровки в алгоритм обучения.

Калибровка подразумевает выделение из обучающего множества — специального калибровочного (подтверждающего). Процесс обучения проводится на обучающем множестве, а мониторинг и принятие решения об остановке обучения принимается по результатам прогона через нейросеть калибровочного множества примеров.

В большинстве случаев ошибка прогноза нейросети складывается из двух основных составляющих. Первая из них определяется недостаточным качеством аппроксимации и наличием «шума» во входных данных, вторая — недостатком информации, поданной на вход нейросети при обучении. Недостаток информации обычно вызван либо отсутствием во входах важных для прогноза переменных или/и малым размером обучающей выборки, не отражающей всей полноты картины.

Практическая часть

2.1. Применение нейросети для определения видовой принадлежности деревьев

Иногда требуется определить как называется то или иное растение, это можно определить по внешнему виду [2]. В первую очередь можно сразу отнести растения к двум группам:

  1.  лиственные;
  2.  хвойные.

Далее смотрят какой высоты достигает дерево, высота варьируется от 5 метров и может доходить 150 метров.

Следующий параметр любого дерева этого его крона, существуют следующие типы крон:

  1.  колоновидная;
  2.  конусообразная;
  3.  зонтообразная;
  4.  шарообразная;
  5.  флагообразная;
  6.  вислая;
  7.  раскидистая.

Но одной кроны будет не достаточно, следует также включить тип листвы  и иголок. Так, например, сосну сибирскую и обычную отличают по количеству иголок в одном пучке. Выпишем в список все известные типы листвы и иголок:

  1.  иглы мелкие, частые на одной прямой;
  2.  иглы длинные, по 5 штук в пучке;
  3.  иглы средние по две в пучке;
  4.  иглы средние;
  5.  лист большой пятиугольный;
  6.  лист фигурный средний;
  7.  лист узкий, длинный, большой;
  8.  лист узкий, маленький;
  9.  лист не правильной формы;
  10.  лист простой.

Кроме листвы и иголок  на ветках также есть плоды, выпишем в список все, что нам о них известно:

  1.  шишка;
  2.  желудь;
  3.  орех;
  4.  ягода;
  5.  яблоко;
  6.  кисть.

Не следует забывать и про кору дерева, она тоже может сильно варьироваться, выпишем все известные нам типы:

  1.  гладкая;
  2.  шершавая;
  3.  грубая;
  4.  грубая с наростами.

После того как все основные признаки указаны, составим таблицу видов с учетом признаков деревьев (таблица 1). Зададим каждому виду дерева свой идентификационный номер.

Данные обучающей выборки                                                  Таблица 1

Вид(Y1)

(порядковый номер)

Группа

(X1)

Рост

(X2)

Крона

(X3)

Лист и

игла (X4)

Плод

(X5)

Кора

(X6)

Сосна обычная (11)

1

40

3

3

1

4

Ель (22)

1

45

2

1

1

2

Лиственница (33)

1

40

2

4

1

2

Пихта (44)

1

30

2

4

1

3

Можжевельник (55)

1

12

5

4

1

1

Береза (66)

2

30

6

10

6

1

Ольха (77)

2

20

2

10

6

1

ива (88)

2

25

6

7

0

1

Клен (99)

2

30

7

5

0

3

Липа (100)

2

28

7

10

0

4

Тополь (110)

2

35

1

8

0

4

Рябина (120)

2

20

2

8

4

1

Осина (130)

2

35

7

10

0

1

Черемуха (140)

2

17

2

10

4

3

Яблоня (150)

2

10

7

10

5

3

Ясень (160)

2

45

7

10

0

3

Орех (170)

2

20

7

8

3

3

Дуб (180)

2

25

7

9

2

4

Каштан (190)

2

30

7

10

3

4

Бузина (200)

2

10

5

10

0

1

Бук (210)

2

30

7

10

2

3

Вяз (220)

2

25

3

10

0

4

Граб (230)

2

25

6

10

6

4

Груша (240)

2

20

7

10

5

3

Боярышник (250)

2

4

7

10

4

3

Калина (260)

2

4

5

5

4

1

Облепиха (270)

2

4

7

8

4

1


2.2. Обучение персептрона

Переходим к работе с программой Нейросимулятор, который был создан студентом 4 курса механико – математического факультета, Черепановым Ф.

Для начала укажем общие параметры сети:

  1.  Задаем количество входных нейронов по количеству признаков, 6 штук.
  2.  Скрытых слоев указываем 3.
  3.  На выходе у нас только один нейрон, показывающий близость к тому или иному виду.

Далее переходим на вкладку обучение и начинаем набирать данные из приведенной выше таблицы.

Рис.5. Нейросимулятор.

Когда данные набраны и проведено обучение выдается следующий график ошибок сети.

Рис.6. Ошибка сети

Переходим во вкладку вычисления и запрашиваем обучающие примеры, вычислим их и запишем в таблицу 2.

 

                                Обучение персептрона                                                                  Таблица 2

практические значения

модельные значения

Сосна обычная

11

13,94

Ель

22

16,10

Лиственница

33

36,56

Пихта

44

42,56

Можжевельник

55

54,35

Береза

66

71,44

Ольха

77

86,36

Ива

88

90,91

Клен

99

100,04

Липа

100

102,67

Тополь

110

112,15

Рябина

120

105,67

Осина

130

129,37

Черемуха

140

143,45

Яблоня

150

156,09

Ясень

160

160,88

Орех

170

172,62

Дуб

180

180,27

Каштан

190

190,97

Бузина

200

203,63

Бук

210

208,14

Вяз

220

220,0

Граб

230

230,85

Груша

240

240,17

Боярышник

250

247,85

Калина

260

260,06

Облепиха

270

271,23


При обучении данным методом обратного распространения ошибки, выдались результаты, наиболее близкие к практическим. Хотя некоторые модели деревьев, например, береза, ольха и рябина выдаются неточно. На рисунке 7 покажем это соотношение. Возьмем для наглядности последние 15 примеров.

Рис.7. Результаты нейросетевого моделирования

Можно посмотреть, сможет ли нейросимулятор выдать модель дерева на неизвестные ему параметры. После того, как была сформирована тестируемая выборка, которая представлена в таблице 3, и обучена сеть, мы можем убедиться, что результаты не верны. Нейросимулятор смог определить только дерево тополь (порядковый №3).  Представим это на рис.8.

Тестируемая выборка                                                                                                  Таблица 3.

2

23

6

8

0

1

70

2

30

7

9

3

3

198

2

38

1

9

0

3

109

2

31

7

10

2

2

232

2

43

7

8

2

4

230

Рис.8. Результаты тестируемой выборки

При проектировании персептронов необходимо понимать, что персептрон должен не только правильно реагировать на примеры, на которых он обучен, но и уметь обобщать приобретенные знания, т.е. правильно реагировать на примеры, которых в обучающей выборке не было. Погрешность персептрона, вычисленная на обучающей выборке называется погрешностью обучения, обозначаемой, а вычисленная на тестовой выборке- погрешностью обобщения, обозначаемой T. При увеличении числа нейронов внутренних слоев персептрона N погрешность обучения обычно падает, тогда как погрешность обобщения   сначала падает, а затем, начиная с некоторого оптимального значения N=N0, возрастает [3]. Кривые зависимости погрешностей обучения и обобщения от числа нейронов внутренних слоев персептрона приведены на рис. 9.

Рис.9. Зависимости погрешности обучения и погрешности обобщения от числа нейронов внутренних слоев персептрона.

Заключение

Первая математическая модель нейрона (базового элемента мозга) была создана в 1943 году, когда американский ученый Уоррен Маккаллок (McCulloch W.) и его ученик У. Питтс (Pitts W.) сформулировали основные положения теории деятельности головного мозга.

Среди всего разнообразия архитектур нейронных сетей наибольшее распространение получили многослойные. Фактически эти сети стали «классическим», и когда в литературе говорится о нейросетях, обычно подразумевают многослойные полно связанные сети.

Одно из важнейших свойств нейронной сети — ее способность к самоорганизации, самоадаптации с целью улучшения качества функционирования.

Эта цель достигается путем обучения сети, алгоритм задается набором правил. Обучающие правила определяют, каким образом изменяются связи в ответ на входное воздействие. Обучение основано на увеличении силы связи (веса синапса) между одновременно активными нейронами.

В данной работе была рассмотрен принцип реализации нейронных сетей. Также был проведен опыт для определения вида деревьев по заранее известным данным. Для этого была создана база знаний, в которой был указ рост, крона, тип покрова веток (листья или) иголки, качество коры.

При обучении выдались результаты, наиболее близкие к практическим. При проверке на тестируемых данных, результаты оказались хуже. Из пяти введенных моделей нейросимулятор смог определить только 1. Это можно объяснить тем, что данные, которые мы вводили, не совпадают с точными значениями деревьев. Но для работы с уже известными параметрами деревьев нейросимулятор вполне подходит, его можно использовать биологам и экологам, которые работают в этой области, чтобы им можно было быстро выдать дерево по введенным параметрам. Это облегчит и ускорит работу.

 

 

СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ И ЛИТЕРАТУРЫ

Литература

  1.  Хайкин С. Нейронные сети. Издательство «Вильямс», 2005.-1104 с.
  2.  Шкараба Е.М. «Деревья и кустарники Прикамья»: Определитель-справочник: учебное пособие/ Шкараба Е.М.-Пермь.Кн Мир.
  3.  Ясницкий Л.Н. Введение в искусственный интеллект: Учеб. пособие для студ. высш. учеб. заведений, М.: Издательский центр «Академия», 2005.-176 с.


 

А также другие работы, которые могут Вас заинтересовать

37763. Методы противодействия радиоэлектронным закладным устройствам, предназначенным для снятия конфиденциальной информации 48.88 KB
  Цели и учебные вопросы Цели лабораторной работы: ознакомление с возможностями комплекса Крона НМ и программного обеспечения Филин Ультра; получение практических навыков: по проведению радиомониторинга в контролируемой зоне по обнаружению поиску и блокированию радиозакладных устройств Учебные вопросы: классификация поисковых устройств для проведения радиомониторинга см. Место: лаборатория Технические средства обеспечения безопасности Используемые технические средства: автоматизированный комплекс обнаружения электронных...
37764. Безпека SMTP і спам 760.04 KB
  У результаті цього спам став практично нерозв'язною проблемою так як було неможливо визначити хто насправді є відправником повідомлення фактично можна відправити лист від імені будьякої людини. DT CRLF Вказує на початок повідомлення. Для завершення повідомлення вказується CRLF . Повідомлення доставляються клієнтові за протоколом POP а надсилаються як і раніше за допомогою SMTP.
37765. Робота з діалоговими компонентами 2.09 MB
  Виконавши лабораторну роботу, я освоїв роботу програм з такими діалоговими компонентами як OpenDialog та SaveDialog для зв’язку з файлами (їх створення, збереження або відкриття вже існуючих), PrinterSetupDialog для налагодження підключених принтерів для друку, FindDialog та ReplaceDialog для пошуку та заміни тексту. Також закріпив навички роботи з компонентами середовища Delphi TMemo та TMainMenu, зрозумів основні принципи створення текстового редактора.
37766. Безопасность жизнедеятельности. Чрезвычайные ситуации мирного и военного времени, организация защиты населения 262.51 KB
  Безопасность жизнедеятельности — это область научных знаний, изучающая общие опасности, угрожающие каждому человеку, и разрабатывающая соответствующие способы защиты от них в любых условиях обитания человека.
37767. Протокол для передачі файлів FTP 189.19 KB
  Для переходу в інший каталог використовую команду CWD: CWD incoming. Для того щоб створити в цій директорії вводжу команду STOR: STOR myfile. Переходжу в інший каталог за допомогою команди CWD: cwd incoming та вводжу команду PWD яка відображає вмістиме каталогу з яким встановлений зв’язок:. Вводжу команду LS що відображає файли і підкаталоги в даному каталозі.
37768. Розробка складних додатків з використанням графіки 1.16 MB
  ps unit Unit1; {mode objfpc}{H} interfce uses Clsses SysUtils FileUtil LResources Forms Controls Grphics Dilogs Menus StdCtrls ExtCtrls Spin; type { TForm1 } TForm1 = clssTForm Button1: TButton; Button2: TButton; Button3: TButton; ColorDilog1: TColorDilog; MinMenu1: TMinMenu; MenuItem1: TMenuItem; MenuItem2: TMenuItem; MenuItem3: TMenuItem; MenuItem4: TMenuItem; MenuItem5: TMenuItem; MenuItem6: TMenuItem; MenuItem7: TMenuItem; MenuItem8: TMenuItem; MenuItem9:...
37770. Розробка DLL-бібліотек 4.3 MB
  Тема: Розробка DLL-бібліотек. Мета: навчитись створювати DLL-бібліотеки та використовувати їх в додатках, засвоїти навички експорту функцій.
37771. Методы защиты информации от утечки по опто виброакустическому каналу 534 KB
  УЧЕБНОЕ ПОСОБИЕ для студента по выполнению лабораторной работы № 2 по учебной дисциплине Инженернотехническая защиты информации Тема: Методы защиты информации от утечки по опто виброакустическому каналу Занятие: Исследование активных методов защиты защищаемого помещения от утечки речевой информации за счет каналов утечки речевой информации на основе волоконнооптических коммуникаций. Обсуждено на заседании кафедры ФЗИ РГГУ ____ ________ 2007 года протокол № ____ Москва – 2007 Тема: Методы защиты защищаемого помещения ЗП от...