22182

Аппарат нечетких нейронных или гибридных сетей

Лекция

Информатика, кибернетика и программирование

Например нейронные сети хороши для задач распознавания образов но весьма неудобны для выяснения вопроса как они такое распознавание осуществляют. Они могут автоматически приобретать знания но процесс их обучения зачастую происходит достаточно медленно а анализ обученной сети весьма сложен обученная сеть обычно черный ящик для пользователя. Теоретически системы с нечеткой логикой и искусственные нейронные сети эквивалентны друг другу однако в соответствии с изложенным выше на практике у них имеются свои собственные достоинства и...

Русский

2013-08-04

450.5 KB

77 чел.

Лекция №7

Аппарат нечетких нейронных или гибридных сетей

Каждая разновидность систем искусственного интеллекта имеет свои особенности, например, по возможностям обучения, обобщения и выработки выводов, что делает ее наиболее пригодной для решения одного класса задач и менее пригодной - для другого.

Например, нейронные сети хороши для задач распознавания образов, но весьма неудобны для выяснения вопроса, как они такое распознавание осуществляют. Они могут автоматически приобретать знания, но процесс их обучения зачастую происходит достаточно медленно, а анализ обученной сети весьма сложен (обученная сеть обычно - черный ящик для пользователя). При этом какую-либо априорную информацию (знания эксперта) для ускорения процесса ее обучения в нейронную сеть ввести невозможно

Системы с нечеткой логикой, напротив, хороши для объяснения получаемых с их помощью выводов, но они не могут автоматически приобретать знания для использования их в механизмах выводов. Необходимость разбиения универсальных множеств на отдельные области, как правило,  ограничивает количество входных переменных в таких системах небольшим значением.

Теоретически, системы с нечеткой логикой и искусственные нейронные сети эквивалентны друг другу, однако, в соответствии с изложенным выше, на практике у них имеются свои собственные достоинства и недостатки. Данное соображение легло в основу аппарата нечетких нейронных или гибридных сетей, в которых выводы делаются на основе аппарата нечеткой логики, но соответствующие функции принадлежности подстраиваются с использованием алгоритмов обучения нейронных сетей, например, алгоритма обратного распространения ошибки. Такие системы не только используют априорную информацию, но могут приобретать новые знания и для пользователя являются логически прозрачными.

Основные понятия и определения нечетких нейронных сетей

Для пояснения сущности нечетких нейронных (гибридных) сетей, рассмотрим еще раз простую нейронную сеть, имеющую два входа и только один нейрон (см. рисунок 5.10).

Рисунок 5.10 - Элементарная НС

Здесь входные сигналы xi "взаимодействуют" с весами wi, образуя произведения

pi = xiwi,   i = 1,2.

Такая частная информация (произведения) объединяются с использованием операции суммирования, образуя вход net нейрона:

net = p1+p2 = w1x1+w2x2.

Выход нейрона образуется в результате преобразования входа net некоторой активационной функцией:

y = f(net) = f(w1x1+w2x2),

например, сигмоидного типа

.

Приведенную однонейронную сеть, в которой используются операции умножения, суммирования и сигмоидная функция активации будем называть стандартной нейронной сетью.

В случае применения других операций, таких как t-норма или t-конорма (см. раздел 4) придем к нейронной сети, которая будет называться гибридной.

Определение. Гибридная нейронная сеть - это нейронная сеть с четкими сигналами, весами и активационной функцией, но с объединением xi и wi,, p1 и p2 с использованием  t-нормы, t-конормы или некоторых других непрерывных операций /21/.

Входы, выходы и веса гибридной нейронной сети - вещественные числа, принадлежащие отрезку [0,1].

Рассмотрим следующие примеры элементарных гибридных нейронных сетей.

Нечеткий нейрон "И".

Сигналы xi и веса wi в данном случае объединяются с помощью треугольной конормы:

pi = S(wi, xi),     i = 1,2,

а выход образуется с применением треугольной нормы:

y = AND(p1, p2) = T(p1, p2) = T(S(w1,x1),S(w2,,x2)).

Рисунок 5.11 - Структура гибридного нейрона "И"

Если принять T = min,   S = max, тогда нечеткий нейрон "И" реализует композицию min-max:

y = min{w1Vx1, w2Vx2}.

Нечеткий нейрон "ИЛИ".

Сигналы xi и веса wi здесь объединяются с помощью треугольной нормы:

pi = T(wi, xi),     i = 1,2,

а выход образуется с применением треугольной конормы:

y = OR(p1, p2) = S(p1, p2) = S(T(w1,x1),T(w2,,x2)).

Рисунок 5.12 - Нечеткий нейрон "ИЛИ"

Если принять T = min,   S = max, тогда нечеткий нейрон "ИЛИ" реализует композицию max- min:

y = max{w1x1, w2x2}.

Алгоритм Сугено является наиболее часто используемым при построении адаптивных систем нейро-нечеткого вывода.

На основе алгоритма нечеткого логического вывода строится система рассуждений (рисунок 5.13).


Рисунок 5.13 - Система нечетких рассуждений

Система нечетких рассуждений состоят из пяти функциональных блоков:

- блок фаззификации, преобразующий численные входные значения в степени соответствия лингвистическим переменным;

- база правил, содержащая набор нечетких правил типа если-то;

- база данных, в которой определены функции принадлежности нечетких множеств используемых в нечетких правилах;

- блок принятия решений, совершающий операции вывода на основании имеющихся правил;

- блок дефаззификации, преобразующий результаты вывода в численные значения.

Традиционно база правил и база данных объединяются в общий блок - база знаний. Рассмотрим класс адаптивных сетей функционально эквивалентных системам нечетких рассуждений. Подобная архитектура носит название ANFIS (это аббревиатура Adaptive-Network-Based Fuzzy Inference System - адаптивная сеть нечеткого вывода). Она была предложена Янгом (Jang) в начале девяностых. ANFIS является одним из первых вариантов гибридных нейро-нечетких сетей - нейронной сети прямого распространения сигнала особого типа. Архитектура нейро-нечеткой сети изоморфна нечеткой базе знаний. В нейро-нечетких сетях используются дифференцируемые реализации треугольных норм (умножение и вероятностное ИЛИ), а также гладкие функции принадлежности. Это позволяет применять для настройки нейро-нечетких сетей быстрые алгоритмы обучения нейронных сетей, основанные на методе обратного распространения ошибки.

Ниже описываются архитектура и правила функционирования каждого слоя ANFIS-сети. ANFIS реализует систему нечеткого вывода Сугено в виде пятислойной нейронной сети прямого распространения сигнала. Назначение слоев следующее:

- первый слой-термы входных переменных;

-второй слой - антецеденты (посылки) нечетких правил;

-третий слой - нормализация степеней выполнения правил;

-четвертый слой - заключения правил;

-пятый слой - агрегирование результата, полученного по различным правилам.

Рисунок 5.14 – Пример ANFIS сети

Входы сети в отдельный слой не выделяются. На рисунке 5.14 изображена ANFIS-сеть с двумя входными переменными (x1 и x2) и четырьмя нечеткими правилами. Для лингвистической оценки входной переменной x1 используется 3 терма, для переменной x2 - 2 терма.

ANFIS-сеть функционирует следующим образом.

1-й слой: Термы входных переменных. Каждый узел первого слоя представляет один терм с функцией принадлежности. Количество узлов первого слоя равно сумме мощностей терм-множеств входных переменных. Выходом узла являются степень принадлежности значения входной переменной соответствующему нечеткому терму. Другими словами,  - функция принадлежности переменной Aj, определяющей степень, с которой  удовлетворяет Aj. Например, если в качестве  выбираем колоколообразную функцию, то:

                                                                        (5.1)

где          {ai, bi, ci} - набор параметров данного слоя.

Параметры этого слоя относятся к так называемым параметрам предпосылок.

2-й слой: Антецеденты (посылки) нечетких правил. Каждый узел данного слоя является фиксированным узлом, перемножающим входные сигналы, причем выходное значение узла  представляет собой вес некоторого правила:

                                                                                                (5.2)

Количество узлов второго слоя равно m. Каждый узел этого слоя соответствует одному нечеткому правилу. Узел второго слоя соединен с теми узлами первого слоя, которые формируют антецеденты соответствующего правила. Следовательно, каждый узел второго слоя может принимать от 1 до n входных сигналов. Выходом узла является степень выполнения правила, которая рассчитывается как произведение входных сигналов.

3-й слой: Нормализация степеней выполнения правил. Каждый i-ый узел данного слоя определяет отношение веса i-го правила к сумме весов всех правил:

 

                                                                                               (5.3)

Выходные сигналы 3-го слоя называются нормализованными весами. Количество узлов третьего слоя также равно m. Каждый узел этого слоя рассчитывает относительную степень выполнения нечеткого правила.

4-й слой: Заключения правил. Узлы данного слоя определяются линейными функциями принадлежности выходных переменных:

                                                                                   (5.4)

где           - линейная функция принадлежности;

- значение входа j.

- параметр линейного уравнения, рассчитанный следующим образом:

                              , где                                 (5.4)

где           - параметр функции принадлежности входного слоя,

- параметр функции принадлежности выходного слоя.

Количество узлов четвертого слоя также равно m. Каждый узел соединен с одним узлом третьего слоя, а также со всеми входами.

5-й слой: Агрегирование результата, полученного по различным правилам. Единственный узел данного слоя является фиксированным узлом, в котором вычисляется полное выходное значение адаптивной сети  как сумма всех входных сигналов:

                                                                                          (5.5)

Способ реализации  ANFIS сети

База правил. База правил представляет собой множество нечетких правил  вида:

это  AND  это  … AND  это ) Then ( это  AND  это  … AND  это ),                                                                 (5.6)

где          N – количество нечетких правил;

, - нечеткие множества.

При скалярном выводе данная формула примет вид:

    это  AND  это  … AND  это ) Then ( это )   (5.7)

Таким образом, база правил системы нечеткого вывода представляется в виде совокупности нечетких предикатных правил вида:

П1: если x есть A1, тогда y есть B1

П2: если x есть A2, тогда y есть B2,

. . . . . . . . . .

Пn: если x есть An, тогда y есть Bn,

Если ввести обозначения , , то правило можно представить в виде нечеткой импликации:

                                                                        (5.8)

Правило  можно интерпретировать как нечеткое отношение, определенное на множестве , т.е.   - нечеткое множество с функцией принадлежности:

                                                                       (5.9)

Если в качестве нечеткой импликации будет использоваться операция умножения, то получим формулу:

                                                                    (5.10)

Блок вывода (блок принятия решения). Для определения функции принадлежности нечеткого множества  можно воспользоваться формулой:

                                         (5.11)

Блок фаззификации. Применим операцию типа синглетон:

                                          ,                                      (5.12)

супремум  в 5.11 достигается при , при этом выражение 5.11 принимает вид:

                           .                            (5.13)

Блок дефаззификации. Применим метод Центра  тяжести (CoGS, Centre of Gravity for Singletons):

                                        ,                                    (5.14)

где  -центр нечеткого множества , т.е. точка в которой функции принадлежности нечеткого множества  достигает максимума.

При подстановке выражения 5.13 в формулу 5.14 и учитывая, что максимальное значение в точке =1, можно записать:

                                                                    (5.15)

Завершающий этап проектирования – это определение формы и  параметров функций принадлежности нечетких множеств А.

Например это может быть функция Гаусса

                                     ,                                    (5.16)

где        - это центр;

            - ширина гауссовской кривой.

Объединим все представленные элементы. Воспользуемся выражениями 5.14, 5.11, 5.12 и 5.16 и тогда окончательно имеем:

                                                                 (5.17)

Приведенное выражение представляет собой один из способов реализации  ANFIS сети.

Определение параметров функций принадлежности. Определение параметров функций принадлежности можно разбить на следующие этапы:

а) Определяется область определения функции следующим образом: определяются максимальное и минимальное значение среди обучающих данных:

                               

где           - значение обучающей выборки i-го входа сети.

Таким образом, область определения функции принадлежности это интервал .

б) Определяются параметры  функций принадлежности с помощью методов определенных для каждой функции. Например, для функции гаусса параметры определяются следующим образом:

, ,

где          n – число функций принадлежности i-го входа сети,

             a, b – параметры функции принадлежности гаусса.

Для треугольной функции принадлежности параметры определяются следующим образом:

, ,

где          , ,   – параметры треугольной функции принадлежности;

                j – номер правила.

Применение адаптивной системы нейро-нечеткого вывода на примере решения задачи прогнозирования временных рядов /22,23/. С помощью адаптивной сети нейро-нечеткого вывода задача прогнозирования формализуется через задачу распознавания образов.

Данных о прогнозируемой переменной за некоторый промежуток времени образуют образ, класс которого определяется значением прогнозируемой переменной в некоторый момент времени за  пределами данного промежутка, т.е.  значением переменной через интервал прогнозирования.  

Прогнозирование осуществляется по тому же  принципу,  что  и формирование  обучающей выборки.  При этом выделяются две возможности: одношаговое и многошаговое прогнозирование. Многошаговое прогнозирование используется для осуществления долгосрочного прогноза и предназначено для определения  основного тренда и главных точек изменения тренда для некоторого промежутка времени в будущем.  Одношаговое прогнозирование используется для краткосрочных прогнозов,  обычно - абсолютных значений последовательности. Осуществляется  прогноз  только на один шаг вперед,  но используется реальное, а не прогнозируемое значение для осуществления прогноза на следующем шаге.

Прогнозирующая нейронная сеть должна иметь всего один выход и столько входов, сколько предыдущих значений мы хотим использовать для прогноза - например, 4 последних значения.

Обучающий пример составляется следующим образом - входными значениями будут значения за 4 последовательных дня, а желаемым выходом - известное нам значение в следующий день за этими четырьмя. Для составления обучающей выборки необходимо скопировать данных в 4 столбца и сдвинуть второй столбец на 1 ячейку вверх, третий столбец - на 2 ячейки вверх и т.д.

Результат представлен на рисунке 5.15 - каждая строка таблицы представляет собой обучающий пример, где первые 4 числа - входные значения сети, а пятое число - желаемое значение выхода.

Рисунок 5.15 – Составление обучающей выборки

Разработка алгоритма решения

Проектирование адаптивной системы нейро-нечеткого вывода, как и любой нейронной сети, состоит из построения системы и ее обучения. Построение состоит из проектирования базы знаний, которая состоит из базы данных, хранящей параметры функции принадлежности в виде системы нечеткого вывода и базы правил генерируемых на основе базы данных. Таким образом, алгоритм решения можно представить в виде диаграммы активности (рисунок 5.16).

Проектирование нейро-нечеткой сети реализуется в несколько шагов:

1 генерация fis-структуры, в рамках данного этапа определяются параметры функций принадлежности;

2 генерация базы правил, на данном этапе определяется число правил, предпосылки и заключения для каждого правила.

3 задаются параметры обучения: количество эпох, минимальная ошибка обучения и скорость обучения сети и начальные параметры: обнуляется счетчик эпох,  и другие переменные используемые при обучении.

4 если количество эпох меньше заданного или требуемая ошибка более среднеквадратичной начинаем новую эпоху обучения и переходим на шаг 5, иначе на шаг 9;

5 если есть необученные выборки, то считываем данные очередной выборки и переходим на этап 6, иначе на этап 8;

6 обучение сети по текущей выборке методом обратного распространения ошибки;

7 определяем ошибку после обучения и переходим на шаг алгоритма 5;

8 рассчитываем ошибку обучения как среднеквадратичное отклонение ошибки каждой выборки и переходим на шаг 4.

9 вывод результатов на экран.

Первый и второй этап характеризуют создание базы знаний, на этапах 3-8 происходит обучение созданной сети.

Этап обучения сети. Когда в сети только один слой, алгоритм ее обучения с учителем довольно очевиден, так как правильные выходные состояния нейронов единственного слоя заведомо известны, и подстройка синаптических связей идет в направлении, минимизирующем ошибку на выходе сети.

По этому принципу строится, например, алгоритм обучения однослойного перцептрона. В многослойных же сетях оптимальные выходные значения нейронов всех слоев, кроме последнего, как правило, не известны, и двух или более слойный перцептрон уже невозможно обучить, руководствуясь только величинами ошибок на выходах НС. Один из вариантов решения этой проблемы – разработка наборов выходных сигналов, соответствующих входным, для каждого слоя НС, что, конечно, является очень трудоемкой операцией и не всегда осуществимо. Второй вариант – динамическая подстройка весовых коэффициентов синапсов, в ходе которой выбираются, как правило, наиболее слабые связи и изменяются на малую величину в ту или иную сторону, а сохраняются только те изменения, которые повлекли уменьшение ошибки на выходе всей сети.

Рисунок 5.16 – Алгоритм функционирования сети

И, наконец, третий, более приемлемый вариант – распространение сигналов ошибки от выходов НС к ее входам, в направлении, обратном прямому распространению сигналов в обычном режиме работы. На рисунке 5.17, представлен процесс обучения нейросети.

Рисунок 5.17 – Процесс обучения сети

Этот алгоритм обучения НС получил название процедуры обратного распространения. Рассмотрим данный метод применительно к нейронным сетям /24/. Согласно методу наименьших квадратов, минимизируемой целевой функцией ошибки НС является величина:

                                                                 (5.18)

где           – реальное выходное состояние нейрона;

djp – идеальное (желаемое) выходное состояние этого нейрона.

Суммирование ведется по всем нейронам выходного слоя и по всем обрабатываемым сетью образам. Минимизация ведется методом градиентного спуска, что означает подстройку весовых коэффициентов следующим образом:

                                  ,                                            (5.19)

где          wij – весовой коэффициент синаптической связи;

– коэффициент скорости обучения, 0<<1.

              

                                       ,                                    (5.20)

Здесь под yj, как и раньше, подразумевается выход нейрона j, а под sj – взвешенная сумма его входных сигналов, то есть аргумент активационной функции. Так как множитель dyj/dsj является производной этой функции по ее аргументу, из этого следует, что производная активационной функция должна быть определена на всей оси абсцисс.

Что касается первого множителя в (5.20), он легко раскладывается следующим образом:

                                        (5.21)

Здесь суммирование по k выполняется среди нейронов слоя n+1.

Введем новую переменную:

                                                                                     (5.22)

Получим рекурсивную формулу для расчетов величин j(n) слоя n из величин k(n+1) более старшего слоя n+1.

                                                             (5.23)

Для выходного же слоя

                                                                          (5.24)

Теперь мы можем записать (5.24)   в раскрытом виде:

                                                                         (5.25)

Иногда для придания процессу коррекции весов некоторой инерционности, сглаживающей резкие скачки при перемещении по поверхности целевой функции, дополняется значением изменения веса на предыдущей итерации:

             ,           (5.26)

где           – коэффициент инерционности;

t – номер текущей итерации.

Таким образом, полный алгоритм обучения НС с помощью процедуры обратного распространения строится так:

1 Подать на входы сети один из возможных образов и в режиме обычного функционирования НС, когда сигналы распространяются от входов к выходам, рассчитать значения последних.

2 Рассчитать (N) для выходного слоя по формуле (5.23).

Рассчитать по формуле (5.24)   или (5.25)  изменения весов w(N) слоя N.

3 Рассчитать по формулам (5.22) и (5.23) соответственно (n) и w(n) для всех остальных слоев, n=N-1,…1.

4 Скорректировать все веса в НС по следующей формуле:

                                                              (5.27)

5 Если ошибка сети существенна, перейти на шаг 1. В противном случае – конец.

Сети на шаге 1 попеременно в случайном порядке предъявляются все тренировочные образы, чтобы сеть, образно говоря, не забывала одни по мере запоминания других /25/. Алгоритм иллюстрируется рисунком 5.18.

Рисунок 5.18 - Диаграмма сигналов в сети при обучении по алгоритму обратного распространения

Типовые процедуры обучения нейронных сетей могут быть применены для настройки ANFIS-сети так как, в ней использует только дифференцируемые функции. Обычно применяется комбинация градиентного спуска в виде алгоритма обратного распространения ошибки и метода наименьших квадратов.

Алгоритм обратного распространения ошибки настраивает параметры антецедентов правил, т.е. функций принадлежности. Методом наименьших квадратов оцениваются коэффициенты заключений правил, так как они линейно связаны с выходом сети. Каждая итерация процедуры настройки выполняется в два этапа. На первом этапе на входы подается обучающая выборка, и по невязке между желаемым и действительным поведением сети итерационным методом наименьших квадратов находятся оптимальные параметры узлов четвертого слоя. На втором этапе остаточная невязка передается с выхода сети на входы, и методом обратного распространения ошибки модифицируются параметры узлов первого слоя. При этом найденные на первом этапе коэффициенты заключений правил не изменяются. Во время прямого прохода определяются параметров вывода методом наименьших квадратов. Во время обратного прохода обновляются параметры предпосылок с помощью метода снижения градиента. Итерационная процедура настройки продолжается пока невязка превышает заранее установленное значение.

Таким образом, при прямом проходе модифицируются параметры заключений правил по следующей формуле:

                      (5.28)

где          γ – константа обучения;

t – эпоха обучения;

i – номер правила;

- требуемое значение выхода сети;

y – полученное значение выхода сети;

kj-ая предпосылка правила i;

m - n-ая предпосылка правила j.

Во время обратного прохода обновляются параметры предпосылок с помощью метода снижения градиента. Например, при функции принадлежности Гаусса формулы модификации параметров a и b определены следующим образом /26/:

  (5.29)

   (5.30)

В качестве ошибки обучения чети используем среднеквадратичную ошибку, рассчитанную по следующей формуле:

                                                                             (5.31)

где          n – число выборок для обучения.

Алгоритм обучения состоит из определения правил, влияющих на результат при данных значениях входов сети, определения необходимого приращения заключения правил, настройки заключений правил, определение значения выхода сети при настроенных параметров, определение остаточной ошибки путем нахождения разницы между выходом сети и требуемым значением сети, определение приращения предпосылок правил и настройки предпосылок правил.

Схема алгоритма обучения нейро-нечеткой сети в виде диаграммы активности представлена на рисунке 5.19

Алгоритм обучения адаптивной системы нейро-нечеткого вывода можно разбить на следующие шаги:

1 Определить для выборки правила, которые влияют на результат, это те правила , которых не равно нулю.

2 Если есть нерассмотренные правила влияющие на результат считываем очередное правило и переходим на шаг 3, иначе на шаг 5.

3 Рассчитываем приращение для параметров функций принадлежностей, определенных в заключении рассматриваемого правила по формуле.

4 Изменяем значение параметров функций принадлежности на рассчитанную величину по формуле (5.28) и переходим на шаг 2.

5. Рассчитывается выходное значение сети после изменения параметров выходного слоя.

6. Определяется остаточная ошибка.

7. Если есть нерассмотренные правила влияющие на результат считываем очередное правило и переходим на шаг 8, иначе на шаг 12.

8. По предпосылкам правил определяем какие узлы первого слоя влияют на результат.

9. Рассчитываем производную функции принадлежности для определенных на предыдущем шаге узлов.

10. Рассчитываем приращение для параметров функций принадлежностей по формуле.

11. Изменяем значение параметров функций принадлежности на рассчитанную величину по формулам (5.29), (5.30)  и переходим на шаг 7.

12. Завершение обучения и выход из процедуры.

Третий и четвертый шаги алгоритма реализуют обучение узлов выходного слоя, пяты и шестой шаги вычисляют остаточную ошибку после обучения выходного слоя, и шаги реализуют обучение узлов первого слоя методом градиентного спуска.

Рисунок 5.19 – Алгоритм обучения сети

10


 

А также другие работы, которые могут Вас заинтересовать

33317. Элементы налога на добычу полезных ископаемых и их характеристика 32 KB
  Элементы налога на добычу полезных ископаемых и их характеристика. Налогообложение по налогу на добычу полезных ископаемых установлено в 26 главе второй части Налогового кодекса РФ. Если добыча полезных ископаемых производится на континентальном шельфе РФ в исключительной экономической зоне РФ либо на территории за пределами территории РФ при условии что данная территория находится под юрисдикцией РФ арендуется у иностранных государств или используется на основании международного договора налогоплательщики должны встать на учет по...
33319. Взыскание налогов и сборов налоговыми органами и порядок применения принудительных мер 130 KB
  Взыскание налогов и сборов налоговыми органами и порядок применения принудительных мер. Два вида взыскания налогов и сборов: 1. Взыскание налога за счет денежных средств на счетах налогоплательщика ст. Взыскание налога за счет имущества налогоплательщика ст.
33320. Налог на игорный бизнес 221.5 KB
  Налог на игорный бизнес. Налог на игорный бизнес взимается на основании Закона РФ от 31. №142ФЗ О налоге на игорный бизнес. Порядок исчисления и уплаты налога регламентируется инструкцией ГНС от 28.
33321. Безпека життєдіяльності 702 KB
  Ризик як оцінка небезпеки. Здоров’я людини як основна передумова її безпеки. Розрахунок фільтровентиляційного обладнання сховища. Розрахунок протирадіаційного захисту сховищ. Розрахунок та визначення основних параметрів при землетрусі. Розрахунок та визначення оцінки пожежної обстановки при горінні твердих горючих матеріалів та рідких горючих речовин.
33322. Общая характеристика федеральных налогов 282.5 KB
  Общая харка федеральных налогов. Федеральные налоги это налоги устанавмые федер. налоги и сборы: налог на прибыль или доход оргций – ставка для всех 24.; налог на доходы от капитала налог по операциям с цен.
33323. Возникновение, необходимость, источник налогов 535.5 KB
  Первое упоминание о налогах относится к IV в. В условиях рыночных отношений налогам присущи две функции: фискальная и регулирующая каждая из которых отражает отдельную сторону внутреннего содержания этой категории. Фискальная функция возникшая с налогами обуславливает действие и развитие регулирующей. Методы налогового регулирования налоговая практика зарубежных стран: закрепление различных видов налогов за определенными бюджетами разного уровня; установление твердой доли конкретного налога отчисляемого в нижестоящий бюджет;...
33324. Налоги ответы к экзамену 123 KB
  Историю налогообложения условно принято делить на 4 этапа: Древний мир 4 тысячелетие до н. в этот период налоги носили бессистемный характер и взымались по мере необходимости как правило в натуральной форме; Средние века с 5 в н э.по 18 в к концу этапа стали формироваться основные принципы налогообложения к концу 18 в налоги становятся важнейшим источником государственной казны...
33325. Состав и структура сетей электросвязи и назначение её элементов 27.15 KB
  Основными компонентами сети электросвязи являются: сетевые узлы и сетевые станции в которых устанавливается каналообразующая аппаратура и осуществляется переключение каналов или групп каналов и сетевых трактов; линии передачи соединяющие между собой сетевые станции или сетевые узлы и оконечные устройства; узлы центры коммутации УК распределяющие сообщения в соответствии с адресом; УК могут быть транзитными оконечными если к ним подключаются ОП и смешанного типа; оконечные пункты ОП обеспечивающие ввод вывод сообщений абонента....