49954

Законы распределения случайных величин

Лабораторная работа

Математика и математический анализ

Функция распределения x b. Функция плотности распределения вероятности: М. Нормальное распределение Плотность распределения: 45.

Русский

2014-01-13

413 KB

55 чел.

16

  1.  некоторые наиболее важные Законы распределения

случайных величин

  1.  Равномерное распределение вероятностей

Для него вероятность того, что с.в. Х попадет в интервал Х:

Prob(Х)=(-)/(b-a).

Функция распределения        ,                        a<x<b.

Функция плотности распределения (вероятности):

М.о. и дисперсия: .

  1.  Нормальное распределение

Плотность распределения:                                                     (45.4).

Точки перегиба кривой плотности распределения:  и .

Функция распределения:

             (46.4),

где  - м.о., (х) – стандарт.

Чем больше (х), тем ниже и шире кривая плотности распределения.

Плотность n-мерного нормального распределения: , где - определитель корреляционной матрицы , а Ajl – алгебраическое дополнение элемента kjl-того определителя.

Р(х) можно выразить через интеграл вероятности Гаусса

,                                                (47.4)

                                                            (48.4).

Функция (47) – нечетная (Ф(-z) = - Ф(z)),  имеются таблицы ее значений.

Вероятность попадания с.в. Х в интервал (a,b)

                                                     (49.4).

Если b-a =6 (X), то вероятность того, что с.в. Х окажется в интервале  равна 0.9973. Линейные функции с.в., подчиняющиеся нормальным законам распределения, имеют также нормальный закон распределения.

Как показал Ляпунов в случае, если число n безгранично увеличивается, кривая плотностей вероятностей суммы не зависит от кривых плотностей вероятностей, слагаемых при некоторых предположениях, и представляет собой нормальную кривую (45.4).

Условия: слагаемые величины х=х12+...+хn (xi, i=1, 2...n) в среднем одного порядка и одного порядка некоторые характеристики слагаемых - вторые и третьи моменты. Т.о. если с.в. образуется из суммы большого числа независимых, неограниченных случайных переменных факторов, то ее закон - близок к нормальному, т.е. в действительности многие переменные представляют собой результат простого суммирования многих независимых факторов.

Закон больших чисел:

.

  1.  Усеченный нормальный закон

Если известны границы возможных значений с.в. (a,b), то

  (50.4).

Закон используется для описания реальных величин, распределенных нормально (например, не могущих принимать отрицательные значения).

  1.  Логарифмически нормальное распределение

Если некоторая с.в. Х распределена по нормальному закону (45.4), то ее экспоненциальная функция

Y=exp(X)                                                                               (51.4)

(X=ln(Y)) распределится по закону (используем (40.3)):

                         (52.4).

М. о. и дисперсия:

,                             (53.4).

Коэффициент вариации:  .    Изменению Х по нормальному закону (45.4) в пределах (-,) соответствует изменение Y по закону (52) в пределах (0,+).

  1.  Распределение Вейбулла

В теории хрупкого разрушения и других отраслях техники нашло применение распределение Вейбулла. Интегральная кривая распределения:

        (54.4).

Плотность распределения:

          (55.4).

В выражения для числовых характеристик распределения Вейбулла входит гамма-функция

                                                           (56.4),

которая табулирована  в математических справочниках.

  1.  Распределение Гумбеля (двойное экспоненциальное распределение)

Используется при статистическом анализе снеговых и ветровых нагрузок на сооружения. Функция распределения (интегральная): 

                                                               (57.4)

Значению x= соответствует вероятность непревышения , равная

P()=exp(-exp0))=exp(-1)=1/e=0.36788.

Значению x=0 соответствует вероятность непревышения 0, равная P(0)=exp[-exp(/)].

Плотность распределения: 

             (58.4).

В (58) <x<, <<, >0.

Если возвести в n-ную степень (57), то интегральная кривая не изменит своего вида, а только сместится вдоль оси на величину ln(n):

            (59.4).

Параметры и связаны с м.о.  и дисперсией D(x):

                                           (60.4).

4.7 Распределение максимумов случайных величин

Рассматривается n статически независимых с.в. Xi (i  = 1, 2, …, n) и имеется вероятность того, что ни одна из них не превысит х. Вероятность непревышения значения х величиной XiProb(Xi<x)=Pi(x),

где Pi(x) – интегральный закон распределения Xi.

Вероятность непревышения х ни одной из величин Xi:

                         (61.4),

где Pn(x) – интегральный закон распределения максимумов совокупности n с.в. Xi.

Тогда плотность распределения вероятностей:

                                                    (62.4).

Для 3-х с.в.

Если закон распределения всех с.в. Xi одинаков, то

                                          (63.4),

где Pn(x) и pn(x) – интегральная функция распределения и плотность распределения максимумов, получаемых при n реализациях одной и той же с.в. Xi.

М.о. и дисперсия максимума в n опытах:

                                          (64.4),

 

(65.4).

  1.  Распределение Пуассона

Это дискретное распределение описывает число событий, происходящих в одинаковых промежутках времени при условии, что события происходят независимо одно от другого с постоянной интенсивностью. Вероятность того, что с.в. Х примет значение, равное m (m – целое число):

                                      (65.4)

Распределение зависит от одного параметра , называемого пуассоновским потоком.

Существуют некоторые недостатки при описании реальных с.в.: так в некоторых законах с.в. может принимать отрицательные значения (нормальный закон), хотя этими законами описываются изначально только положительные величины (предел текучести стали и т.д.). Кроме того, теоретические распределения допускают, хотя и с малой вероятностью, возможность сколь угодно больших отклонений с.в. от среднего значения.

Все теоретические закономерности и законы теории вероятностей относятся к идеальным схемам. Применяемые обычно теоретические законы распределения относятся к ситуациям с неограниченным нарастанием числа случайных факторов или с неограниченным повторением некоторого явления и имеют характер предельных закономерностей, к которым приближаются реальные распределения.

Кроме перечисленныхиспользуются и другие распределения – Пирсона 3-го рода, Рэлея, Максвелла, Пирсона 2-го рода, 2 (хи-квадрат), Стьюдента, Фишера и т.д.

5. СЛУЧАЙНЫЕ ФУНКЦИИ

5.1 Характеристики случайных функций

Случайная функция – функция, которая в результате опыта может принять тот или иной неизвестный заранее конкретный вид. Обычно аргументом случайной функции (с.ф.) является время, тогда с.ф. называют случайным процессом (с.п.).

С.ф. непрерывно изменяющегося аргумента t называется такая с.в., распределение которой зависит не только от аргумента t=t1, но и от того, какие частные значения принимала эта величина при других значениях данного аргумента t=t2. Эти с.в. корреляционно связаны между собой и тем больше, чем ближе одни к другим значения аргументов. В пределе при интервале между двумя значениями аргумента, стремящемся к нулю, коэффициент корреляции равен единице:

,

т.е. t1 и t1+t1 при t10 связаны линейной зависимостью.

С.ф. принимает в результате одного опыта бесчисленное (в общем случае несчетное) множество значений – по одному для каждого значения аргумента или для каждой совокупности значений аргументов. Эта функция имеет одно вполне определенное значение для каждого момента времени. Результат измерения непрерывно изменяющейся величины является такой с.в., которая в каждом данном опыте представляет собой определенную функцию времени.

С.ф. можно также рассматривать как бесконечную совокупность с.в., зависящую от одного или нескольких непрерывно изменяющихся параметров t. Каждому данному значению параметра t соответствует одна с.в Xt. Вместе все с.в. Xt определяют с.ф. X(t). Эти с.в. корреляционно связаны между собой и тем сильнее, чем ближе друг к другу.

Элементарная с.ф. – это произведение обычной с.в. Х на некоторую неслучайную функцию (t): X(t)=X(t), т.е. такая с.ф., у которой случайным является не вид, а только ее масштаб.

С.ф.  - имеет м.о. равное нулю. p[x(t1)] – плотность распределения с.в. Х (значения с.ф. X(t)), взятой при произвольном значении t1 аргумента t.

Реализация с.ф. X(t) – описывается уравнением x=f1(t) при t=t1 и уравнением x=f2(t) при t=t2.

Вообще функции x=f1(t) и x=f2(t) – различные функции. Но эти функции тождественны и линейны тем более, чем более (t1t2)  t1 ближе к t2.

Одномерная плотность вероятности с.ф. p(x,t) – зависит от х и от параметра t. Двумерная плотность вероятности p(x1,x2;t1,t2) – совместный закон распределения значений X(t1) и X(t2) с. ф. X(t) при двух произвольных значениях t и t аргумента t.

.                          (66.5)

В общем случае функция X(t) характеризуется большим числом n-мерных законов распределения .

М.о. с.ф. X(t) - неслучайная функция , которая при каждом значении аргумента t равна м.о. ординаты с.ф. при этом аргументе t.

- функция, зависящая от x и t.

Аналогично и дисперсия - неслучайная функция.

Степень зависимости с.в. для различных значений аргумента характеризуется автокорреляционной функцией.

Автокорреляционная функция с.ф. X(t) - неслучайная функция двух аргументов Kx(ti,tj), которая при каждой паре значений ti, tj равна корреляционному моменту соответствующих ординат с.ф. (при i=j корреляционная функция (к.ф.) обращается в дисперсию с.ф.);

                 (67.5)=(34.3),

где  - совместная плотность распределения двух с.в. (значений с.ф.), взятых при двух произвольных значениях t1 и t2 аргумента t.  При t1=t2=t получаем дисперсию D(t).

Автокорреляционная функция - совокупность м.о. произведений отклонений двух ординат с.ф. , взятых при аргументах t1 и t2, от ординат неслучайной функции м.о. , взятых при тех же аргументах.

Автокорреляционная функция характеризует степень изменчивости с.ф. при изменении аргумента. На рис. видно, что зависимость между значениями с.ф., соответствующим двум данным значениям аргумента t - слабее в первом случае.

Рис. Корреляционно связанные случайные функции

Если две с.ф. X(t) и Y(t), образующие систему не являются независимыми, то тождественно не равна нулю их взаимная корреляционная функция:

               (68.5),

где  - совместная плотность распределения двух с.в. (значений двух с.ф. X(t) и Y(t)), взятых при двух произвольных аргументах (t1 - аргумент функции X(t), t2 - аргумент функции Y(t)).

Если X(t) и Y(t) независимы, то KXY(t1,t2)=0. Система из n с.ф.  X1(t), X2(t),...,Xn(t) характеризуется n м.о. , n автокорреляционными функциями  и еще n(n-1)/2 корреляционными функциями .

Взаимная корреляционная функция (характеризует связь между двумя с.ф., т.е. стохастическую зависимость)  двух с.ф. X(t) и Y(t) - неслучайная функция двух аргументов ti и tj, которая при каждой паре значений ti, tj равна корреляционному моменту соответствующих сечений с.ф. Она устанавливает связь между двумя значениями двух функций (значения - с.в.), при двух аргументах t1 и t2.

Особое значение имеют стационарные случайные функции, вероятностные характеристики которых не меняются при любом сдвиге аргумента. М.о. стационарной с.ф. постоянно (т.е. не является функцией), а корреляционная функция зависит лишь от разности значений аргументов ti и tj.

,                                (69.5)

Это четная функция (симметрично OY).

Из (69.5) .

При большом значении интервала времени =t2-t1 отклонение ординаты с.ф. от ее м.о. в момент времени t2 становится практически независимым от значения этого отклонения в момент времени t1. В этом случае функция KX(), дающая значение корреляционного момента между X(t1) и X(t2), при  стремится к нулю.

Многие стационарные с.ф. обладают эргодическим свойством, которое заключается в том, что при неограниченно возрастающем интервале наблюдения среднее наблюденное значение стационарной с.ф. с вероятностью, равной 1, будет неограниченно приближаться к ее м.о. Наблюдение стационарной с.ф. при разных значениях t на достаточно большом интервале в одном опыте равноценно наблюдению ее значений при одном и том же значении t в ряде опытов.

Иногда требуется определить характеристики преобразованных с.ф. по характеристикам исходных с.ф. Так если

                                                            (70.5),

то  т.е. м.о. интеграла (производной) от с.ф. равно интегралу (производной) от м.о. (y(t) - скорость изменения с.ф. X(t),  - скорость изменения м.о.).

При интегрировании или дифференцировании с.ф. получаем также с.ф. Если X(t) распределена нормально, то Z(t) и Y(t) распределены тоже нормально. Если X(t) – стационарная с.ф., то Z(t) уже не стационарная с.ф., т.к.  зависит от t.

Примеры корреляционных функций.

1)  (из (2) при );                      2) ;  

3) ;                                                      4) ;  

5) (из (3) при );                                      6)  (из (4) при ).

На графиках  = 1,  = 5,  = 1.

- характеризует быстроту убывания корреляционной связи между ординатами с.ф. при увеличении разности аргументов этих ординат .

 - характеризует "степень нерегулярности процесса". При малом  ординаты процесса оказываются сильно коррелированными и реализация процесса похожа на синусоиду; при большом  периодичность с частотой становится незаметной.

Корреляционные функции 4 и 6 – не имеют производных при =0. Соответствующие спектральные плотности:

2) ;

3) ;

4) ;

6) .

Чтобы найти корреляционную функцию интеграла (производной) от с.ф., нужно дважды проинтегрировать (продифференцировать) корреляционную функцию исходной с.ф. сначала по одному, затем по другому аргументу:

                                                     (71.5).

Формула (71) для стационарной функции примет вид:

.

Корреляционная функция с.ф. и ее производной . Для дифференцируемого стационарного процесса ордината с.ф. и ее производной, взятая в тот же момент времени являются некоррелированными с.в. (а для нормального процесса и независимыми).

При умножении с.ф. на детерминированную получаем с.ф. Z(t)=a(t)X(t), корреляционная функция которой равна

KZ(t1,t2)=a(t1)a(t2) KX(t1,t2)                                                     (72.5),

где a(t) - детерминированная функция.

Сумма двух с.ф. является тоже с.ф. Z(t)=X(t)+Y(t) и ее корреляционная функция при наличии корреляционной связи между X(t) и Y(t):

KZ(t1,t2)=KX(t1,t2)+ KY(t1,t2)+2KXY(t1,t2),                                        (73.5)

где KXY(t1,t2) - см. (68.5) - взаимная корреляционная функция двух зависимых с.ф. X(t) и Y(t). 

Если X(t) и Y(t) независимы, то KXY(t1,t2)=0.     М.о. с.ф. Z(t):       .

5.2. Выбросы случайной функции за заданный уровень

Необходимость определения вероятностных характеристик процесса пересечения с. функцией заданного уровня возникает, когда необходимо вычислить вероятность того, что в течение срока службы нагрузка, действующая на строительную конструкцию, не превысит допустимого уровня. Найдем вероятность пересечения случайной функцией (дифференцируемой) X(t) некоторого уровня а в течение времени t. Полагая скорость изменения с.ф. V(t)=dX(t)/dt постоянной в течение времени dt (с точностью до бесконечно малых второго порядка) условие пересечения функцией X(t) уровня а за малый промежуток времени dt:

X(t)<a; X(t)+V(t)dt>a                                                            (74.5)

или

a-V(t)dt<X(t)<a (V(t)>0)                                                    (75.5).

Вероятность этого события (выраженного условием (75)):

                                                      (76.5),

где p(x,V) - совместная плотность распределения с.ф. X(t) и V(t). 

Ввиду близости пределов внутреннего интеграла (его заменили на p(a,V)Vdt - площадь прямоугольника) вероятность выброса:

                                                        (77.5).

Если разделить вероятность выброса Qa на время dt, в течение которого он ожидается, получится временная плотность вероятности выброса за уровень а в момент t (среднее число выбросов в единицу времени):

                                                            (78.5).

В случае стационарного с.п. X(t) и Y(t) - независимые с.ф. и (при том  и известна автокорреляционная функция для X(t) - KX()), следовательно,

p(x,V)=px(x)pV(V),                                                              (79.5)

где p(x,V) - совместная плотность распределения X(t) и Y(t); px(x)и pV(V) - соответственно плотности распределения X(t) и Y(t).

Тогда временная плотность вероятности выброса:

                                       (80.5),

где  - м.о. положительной скорости V(t).

Для нормального распределения X(t):

                                                     (81.5)

распределение скорости V(t) будет также нормальным и независимым от распределения X(t):                                                           (82.5).

М.о.  вследствие стационарности процесса. По (72) .

Подстановка (82) и (81) в (80) даст для временной плотности вероятности выброса

                                                  (83.5).

Доказательство (83.5):

.

Заменим подынтегральное выражение,

,

тогда

,

и тогда .

Чем больше уровень а, тем меньше q(a). При очень малом значении q(a) выбросы можно рассматривать как редкие события, т.е. как независимые с.в.

Если число выбросов в течение времени t подчиняется закону Пуассона  (66), тогда вероятность того, что за время T не произойдет ни одного выброса при условии, что X(t) – стационарная функция

Pt=exp[q(a)T]                                                                 (84.5)

Это функция надежности.

В случае нестационарной функции

                                                                  (85.5).

6. Приближенные методы нахождения распределения функций с.в.

  1.  Метод Монте-Карло (метод рандомизации)

Есть система двух с.в. X и Y и p(x,y) – совместная плотность их распределения. Данный метод позволяет найти плотность распределения p(U), где U=U(X,Y). 

Для одномерной с.в. Х, где р(х) – плотность ее распределения, можно найти p(U), причем U есть функция от X:

U=U(X)).

Суть метода в том, что аргументам X и Y даются случайные значения, распределенные согласно p(x,y). Случайные числа для значений аргументов можно брать по таблицам (есть таблицы для равномерного, нормального распределений, распределения Пирсона и т.д.) или определять на ЭВМ по специальной программе. Каждой случайной точке (xi,yj) соответствует определенное значение функции U(xi,yj). После реализации достаточно большого количества значений с.в. U их можно сгруппировать по интервалам n<U<(n+1) и построить ступенчатую аппроксимацию искомой кривой распределения p(U). Метод эффективен при использовании ЭВМ и при разрывности функции U(X,Y) (или при различном ее аналитическом описании в различных областях плоскости XOY).

Если есть функция двух с.в. U=U(X,Y) и p(x,y) – совместная плотность распределения X и Y, то

(получено из (40.3) и (29.3)), где x=(U,y). 

                                                                 (86.6)

и

                                                      (87.6),

но для двух аргументов.

  1.  Метод статистических испытаний

Производится достаточно большое число статистических испытаний по схеме Бернулли, т.е. на каждом испытании генерируются случайные реализации всех исходных величин. Далее, например, если необходимо определить вероятность отказа системы, то испытания проводятся n раз, и каждый раз проверяется условие наступления отказа (например, Q>R, где Q – фактическая нагрузка на систему, R – прочность системы). Затем частота появления отказа: P*(A)=m/n, где m – количество отказов. При n -

P*(A)P(A),

где P(A) – вероятность наступления отказа, являющаяся достоверной величиной.

В данном методе необходимо оценить погрешность определения P*(A) при определенном количестве испытаний n или оценить количество испытаний n, необходимое для достижения частотой наступления отказа P*(A) достаточной достоверности.

7. Вероятность редких событий (появление случайного

события A  за время  T)

Пусть некоторое событие A появляется случайно, причем корреляционная связь между вероятностями соседних по времени событий практически отсутствует, т.е. на срок возникновения последующего события не влияют сроки появления предыдущих. Наблюдениями в течение очень большого промежутка времени можно установить среднюю частоту появления события A, т.е. число событий, образующееся в среднем за единицу времени. U=n/T, где n - число событий, появившихся за большой промежуток времени T.

Тогда вероятность появления события A хотя бы один раз за время t:

1- Pt = 1- e-ut                                                       (88.7),

где Pt - вероятность не появления события A за время t.

Если средняя частота появления события A - u переменна во времени (т.е. u=u(t)), то

                                                       (89.7).

Если событие A крайне нежелательно или недопустимо (например, А – отказ), то выражение

                                                            (90.7)

есть функция надежности, представляющая собой вероятность непоявления события A в течение времени t ни разу.

При постоянной U(t)=const:

Pt=e-ut                                                                      (91.7).


 

А также другие работы, которые могут Вас заинтересовать

23652. Экспертная система по составлению учебных расписаний 59 KB
  При составлении расписаний лучше исходить не из заданной цели к тому же трудно сформулировать какое расписание €œлучше€ а из возможностей комбинирования учебных дисциплин. Далее можно попытаться оценить относительную ценность полученных расписаний их уже будет не так много с точки зрения быстрейшего и полного освоения дисциплин специализации в необходимой пропорции с факультативными и общеобразовательными курсами. Представим что студенту желающему специализироваться в конкретной области предоставлена возможность самостоятельного...
23653. Логическое программирование задачи поиска пути на конечных графах пространства состояний 680 KB
  Рассмотрим ориентированный ациклический граф: Наличие ориентированной связи двух соседних вершин отображается в программе в виде фактовпредикатов edgex y. edgeac. edgecf. edgefh.
23654. Разработка графического интерфейса и базы данных каскадной системы регулирования температуры, расхода и концентрации в процессе ректификации стирола 3.53 MB
  Листинг программы unit Unit1; interface uses Windows Messages SysUtils Variants Classes Graphics Controls Forms Dialogs Grids ComCtrls ExtCtrls DBCtrls DBGrids StdCtrls Buttons DB DBTables ImgList ToolWin Mask TeEngine Series TeeProcs Chart DbChart Animate GIFCtrl; type TForm1 = classTForm PageControl1: TPageControl; TabSheet1: TTabSheet; TabSheet3: TTabSheet; PageControl2: TPageControl; TabSheet5: TTabSheet; DBNavigator1: TDBNavigator; DBGrid1: TDBGrid; BitBtn1: TBitBtn;...
23655. Управление качеством электронных средств 423 KB
  Непрерывной случайной величиной СВ называется величина которая при испытании может принять любое значение из заданного диапазона. Любое распределение характеризуется определенными характеристиками важнейшими из которых являются среднее значение и дисперсия. Несмещенной является оценка среднее значение которой совпадает со средним значением генерал ной совокупности. Здесь оценка истинное значение характеристики – оператор усреднения.
23656. Семантические сети 170 KB
  Семантические сети Семантической сетью является структура данных имеющая определенный смысл как сеть. Стандартного определения семантической сети не существует но обычно под ней подразумевают следующее: Семантическая сеть это система знаний имеющая определенный смысл в виде целостного образа сети узлы которой соответствуют понятиям и объектам а дуги отношениям между объектами. Следовательно всевозможные сети можно рассматривать как сети входящие в состав семантической сети. Поэтому в контексте знакомства с СОЗ семантические сети...
23657. Продукционные модели. ЕСЛИ - ТО (явление - реакция) 166 KB
  Эти две отличительные черты и определили широкое распространение методов представления знаний правилами. Программные средства оперирующие со знаниями представленными правилами получили название продукционных систем или систем продукции и впервые были предложены Постом в 1941 году. Общим для систем продукции является то что они состоят из трех элементов: Набор правил используемых как БЗ его еще называют базой правил; Рабочая память где хранятся предпосылки касающиеся отдельных задач а также результаты выводов получаемых на основе...
23658. Представление знаний с применением фреймов 143.5 KB
  Понятие фрейма и слота В сложных семантических сетях включающих множество понятий процесс обновления узлов и контроль связей между ними становится затруднительным. В каждом узле понятия определяются набором атрибутов и их значениями которые содержатся в слотах фрейма. Слот это атрибут связанный с узлом в системе основанной на фреймах. Слот является составляющей фрейма.
23659. Стратегии поиска в СОЗ 105.5 KB
  7 Начальныесостояния Цель конечные состояния Реализует возможность выбора Выполняет шаги от начального состояния к новым более близким к цели Исходные посылки и факты Поиск Стратегия поиска B A C C A B A B C A B C C B A B C A B A C C A B A B C C A B B A C A B C A C B 8. Стратегии поиска в СОЗ 8. Поиск в СОЗ Причем поиск конечного состояния выполняется автоматически на основе реализованной в СОЗ стратегии поиска которая: реализует возможность выбора; позволяет выполнять шаги от начального...
23660. Нечеткие множества в системах основанных на знаниях 462.5 KB
  Для ее решения вводится два показателя: П АiФ = sup min фu Aiu это возможность что нечеткое множество Ф принадлежит значению Аi атрибута Ã. Рассмотрим геометрическую интерпретацию определения ПА1Ф: min фu A1u – представляет собой треугольник SQR т. sup min фu A1u – это точка Q т. Тогда ПА1Ф = min {max 0 min 1 1 m1 m2 1 2 max 0 min 1 1 m2 m1 2 1 }.