49954

Законы распределения случайных величин

Лабораторная работа

Математика и математический анализ

Функция распределения x b. Функция плотности распределения вероятности: М. Нормальное распределение Плотность распределения: 45.

Русский

2014-01-13

413 KB

59 чел.

16

  1.  некоторые наиболее важные Законы распределения

случайных величин

  1.  Равномерное распределение вероятностей

Для него вероятность того, что с.в. Х попадет в интервал Х:

Prob(Х)=(-)/(b-a).

Функция распределения        ,                        a<x<b.

Функция плотности распределения (вероятности):

М.о. и дисперсия: .

  1.  Нормальное распределение

Плотность распределения:                                                     (45.4).

Точки перегиба кривой плотности распределения:  и .

Функция распределения:

             (46.4),

где  - м.о., (х) – стандарт.

Чем больше (х), тем ниже и шире кривая плотности распределения.

Плотность n-мерного нормального распределения: , где - определитель корреляционной матрицы , а Ajl – алгебраическое дополнение элемента kjl-того определителя.

Р(х) можно выразить через интеграл вероятности Гаусса

,                                                (47.4)

                                                            (48.4).

Функция (47) – нечетная (Ф(-z) = - Ф(z)),  имеются таблицы ее значений.

Вероятность попадания с.в. Х в интервал (a,b)

                                                     (49.4).

Если b-a =6 (X), то вероятность того, что с.в. Х окажется в интервале  равна 0.9973. Линейные функции с.в., подчиняющиеся нормальным законам распределения, имеют также нормальный закон распределения.

Как показал Ляпунов в случае, если число n безгранично увеличивается, кривая плотностей вероятностей суммы не зависит от кривых плотностей вероятностей, слагаемых при некоторых предположениях, и представляет собой нормальную кривую (45.4).

Условия: слагаемые величины х=х12+...+хn (xi, i=1, 2...n) в среднем одного порядка и одного порядка некоторые характеристики слагаемых - вторые и третьи моменты. Т.о. если с.в. образуется из суммы большого числа независимых, неограниченных случайных переменных факторов, то ее закон - близок к нормальному, т.е. в действительности многие переменные представляют собой результат простого суммирования многих независимых факторов.

Закон больших чисел:

.

  1.  Усеченный нормальный закон

Если известны границы возможных значений с.в. (a,b), то

  (50.4).

Закон используется для описания реальных величин, распределенных нормально (например, не могущих принимать отрицательные значения).

  1.  Логарифмически нормальное распределение

Если некоторая с.в. Х распределена по нормальному закону (45.4), то ее экспоненциальная функция

Y=exp(X)                                                                               (51.4)

(X=ln(Y)) распределится по закону (используем (40.3)):

                         (52.4).

М. о. и дисперсия:

,                             (53.4).

Коэффициент вариации:  .    Изменению Х по нормальному закону (45.4) в пределах (-,) соответствует изменение Y по закону (52) в пределах (0,+).

  1.  Распределение Вейбулла

В теории хрупкого разрушения и других отраслях техники нашло применение распределение Вейбулла. Интегральная кривая распределения:

        (54.4).

Плотность распределения:

          (55.4).

В выражения для числовых характеристик распределения Вейбулла входит гамма-функция

                                                           (56.4),

которая табулирована  в математических справочниках.

  1.  Распределение Гумбеля (двойное экспоненциальное распределение)

Используется при статистическом анализе снеговых и ветровых нагрузок на сооружения. Функция распределения (интегральная): 

                                                               (57.4)

Значению x= соответствует вероятность непревышения , равная

P()=exp(-exp0))=exp(-1)=1/e=0.36788.

Значению x=0 соответствует вероятность непревышения 0, равная P(0)=exp[-exp(/)].

Плотность распределения: 

             (58.4).

В (58) <x<, <<, >0.

Если возвести в n-ную степень (57), то интегральная кривая не изменит своего вида, а только сместится вдоль оси на величину ln(n):

            (59.4).

Параметры и связаны с м.о.  и дисперсией D(x):

                                           (60.4).

4.7 Распределение максимумов случайных величин

Рассматривается n статически независимых с.в. Xi (i  = 1, 2, …, n) и имеется вероятность того, что ни одна из них не превысит х. Вероятность непревышения значения х величиной XiProb(Xi<x)=Pi(x),

где Pi(x) – интегральный закон распределения Xi.

Вероятность непревышения х ни одной из величин Xi:

                         (61.4),

где Pn(x) – интегральный закон распределения максимумов совокупности n с.в. Xi.

Тогда плотность распределения вероятностей:

                                                    (62.4).

Для 3-х с.в.

Если закон распределения всех с.в. Xi одинаков, то

                                          (63.4),

где Pn(x) и pn(x) – интегральная функция распределения и плотность распределения максимумов, получаемых при n реализациях одной и той же с.в. Xi.

М.о. и дисперсия максимума в n опытах:

                                          (64.4),

 

(65.4).

  1.  Распределение Пуассона

Это дискретное распределение описывает число событий, происходящих в одинаковых промежутках времени при условии, что события происходят независимо одно от другого с постоянной интенсивностью. Вероятность того, что с.в. Х примет значение, равное m (m – целое число):

                                      (65.4)

Распределение зависит от одного параметра , называемого пуассоновским потоком.

Существуют некоторые недостатки при описании реальных с.в.: так в некоторых законах с.в. может принимать отрицательные значения (нормальный закон), хотя этими законами описываются изначально только положительные величины (предел текучести стали и т.д.). Кроме того, теоретические распределения допускают, хотя и с малой вероятностью, возможность сколь угодно больших отклонений с.в. от среднего значения.

Все теоретические закономерности и законы теории вероятностей относятся к идеальным схемам. Применяемые обычно теоретические законы распределения относятся к ситуациям с неограниченным нарастанием числа случайных факторов или с неограниченным повторением некоторого явления и имеют характер предельных закономерностей, к которым приближаются реальные распределения.

Кроме перечисленныхиспользуются и другие распределения – Пирсона 3-го рода, Рэлея, Максвелла, Пирсона 2-го рода, 2 (хи-квадрат), Стьюдента, Фишера и т.д.

5. СЛУЧАЙНЫЕ ФУНКЦИИ

5.1 Характеристики случайных функций

Случайная функция – функция, которая в результате опыта может принять тот или иной неизвестный заранее конкретный вид. Обычно аргументом случайной функции (с.ф.) является время, тогда с.ф. называют случайным процессом (с.п.).

С.ф. непрерывно изменяющегося аргумента t называется такая с.в., распределение которой зависит не только от аргумента t=t1, но и от того, какие частные значения принимала эта величина при других значениях данного аргумента t=t2. Эти с.в. корреляционно связаны между собой и тем больше, чем ближе одни к другим значения аргументов. В пределе при интервале между двумя значениями аргумента, стремящемся к нулю, коэффициент корреляции равен единице:

,

т.е. t1 и t1+t1 при t10 связаны линейной зависимостью.

С.ф. принимает в результате одного опыта бесчисленное (в общем случае несчетное) множество значений – по одному для каждого значения аргумента или для каждой совокупности значений аргументов. Эта функция имеет одно вполне определенное значение для каждого момента времени. Результат измерения непрерывно изменяющейся величины является такой с.в., которая в каждом данном опыте представляет собой определенную функцию времени.

С.ф. можно также рассматривать как бесконечную совокупность с.в., зависящую от одного или нескольких непрерывно изменяющихся параметров t. Каждому данному значению параметра t соответствует одна с.в Xt. Вместе все с.в. Xt определяют с.ф. X(t). Эти с.в. корреляционно связаны между собой и тем сильнее, чем ближе друг к другу.

Элементарная с.ф. – это произведение обычной с.в. Х на некоторую неслучайную функцию (t): X(t)=X(t), т.е. такая с.ф., у которой случайным является не вид, а только ее масштаб.

С.ф.  - имеет м.о. равное нулю. p[x(t1)] – плотность распределения с.в. Х (значения с.ф. X(t)), взятой при произвольном значении t1 аргумента t.

Реализация с.ф. X(t) – описывается уравнением x=f1(t) при t=t1 и уравнением x=f2(t) при t=t2.

Вообще функции x=f1(t) и x=f2(t) – различные функции. Но эти функции тождественны и линейны тем более, чем более (t1t2)  t1 ближе к t2.

Одномерная плотность вероятности с.ф. p(x,t) – зависит от х и от параметра t. Двумерная плотность вероятности p(x1,x2;t1,t2) – совместный закон распределения значений X(t1) и X(t2) с. ф. X(t) при двух произвольных значениях t и t аргумента t.

.                          (66.5)

В общем случае функция X(t) характеризуется большим числом n-мерных законов распределения .

М.о. с.ф. X(t) - неслучайная функция , которая при каждом значении аргумента t равна м.о. ординаты с.ф. при этом аргументе t.

- функция, зависящая от x и t.

Аналогично и дисперсия - неслучайная функция.

Степень зависимости с.в. для различных значений аргумента характеризуется автокорреляционной функцией.

Автокорреляционная функция с.ф. X(t) - неслучайная функция двух аргументов Kx(ti,tj), которая при каждой паре значений ti, tj равна корреляционному моменту соответствующих ординат с.ф. (при i=j корреляционная функция (к.ф.) обращается в дисперсию с.ф.);

                 (67.5)=(34.3),

где  - совместная плотность распределения двух с.в. (значений с.ф.), взятых при двух произвольных значениях t1 и t2 аргумента t.  При t1=t2=t получаем дисперсию D(t).

Автокорреляционная функция - совокупность м.о. произведений отклонений двух ординат с.ф. , взятых при аргументах t1 и t2, от ординат неслучайной функции м.о. , взятых при тех же аргументах.

Автокорреляционная функция характеризует степень изменчивости с.ф. при изменении аргумента. На рис. видно, что зависимость между значениями с.ф., соответствующим двум данным значениям аргумента t - слабее в первом случае.

Рис. Корреляционно связанные случайные функции

Если две с.ф. X(t) и Y(t), образующие систему не являются независимыми, то тождественно не равна нулю их взаимная корреляционная функция:

               (68.5),

где  - совместная плотность распределения двух с.в. (значений двух с.ф. X(t) и Y(t)), взятых при двух произвольных аргументах (t1 - аргумент функции X(t), t2 - аргумент функции Y(t)).

Если X(t) и Y(t) независимы, то KXY(t1,t2)=0. Система из n с.ф.  X1(t), X2(t),...,Xn(t) характеризуется n м.о. , n автокорреляционными функциями  и еще n(n-1)/2 корреляционными функциями .

Взаимная корреляционная функция (характеризует связь между двумя с.ф., т.е. стохастическую зависимость)  двух с.ф. X(t) и Y(t) - неслучайная функция двух аргументов ti и tj, которая при каждой паре значений ti, tj равна корреляционному моменту соответствующих сечений с.ф. Она устанавливает связь между двумя значениями двух функций (значения - с.в.), при двух аргументах t1 и t2.

Особое значение имеют стационарные случайные функции, вероятностные характеристики которых не меняются при любом сдвиге аргумента. М.о. стационарной с.ф. постоянно (т.е. не является функцией), а корреляционная функция зависит лишь от разности значений аргументов ti и tj.

,                                (69.5)

Это четная функция (симметрично OY).

Из (69.5) .

При большом значении интервала времени =t2-t1 отклонение ординаты с.ф. от ее м.о. в момент времени t2 становится практически независимым от значения этого отклонения в момент времени t1. В этом случае функция KX(), дающая значение корреляционного момента между X(t1) и X(t2), при  стремится к нулю.

Многие стационарные с.ф. обладают эргодическим свойством, которое заключается в том, что при неограниченно возрастающем интервале наблюдения среднее наблюденное значение стационарной с.ф. с вероятностью, равной 1, будет неограниченно приближаться к ее м.о. Наблюдение стационарной с.ф. при разных значениях t на достаточно большом интервале в одном опыте равноценно наблюдению ее значений при одном и том же значении t в ряде опытов.

Иногда требуется определить характеристики преобразованных с.ф. по характеристикам исходных с.ф. Так если

                                                            (70.5),

то  т.е. м.о. интеграла (производной) от с.ф. равно интегралу (производной) от м.о. (y(t) - скорость изменения с.ф. X(t),  - скорость изменения м.о.).

При интегрировании или дифференцировании с.ф. получаем также с.ф. Если X(t) распределена нормально, то Z(t) и Y(t) распределены тоже нормально. Если X(t) – стационарная с.ф., то Z(t) уже не стационарная с.ф., т.к.  зависит от t.

Примеры корреляционных функций.

1)  (из (2) при );                      2) ;  

3) ;                                                      4) ;  

5) (из (3) при );                                      6)  (из (4) при ).

На графиках  = 1,  = 5,  = 1.

- характеризует быстроту убывания корреляционной связи между ординатами с.ф. при увеличении разности аргументов этих ординат .

 - характеризует "степень нерегулярности процесса". При малом  ординаты процесса оказываются сильно коррелированными и реализация процесса похожа на синусоиду; при большом  периодичность с частотой становится незаметной.

Корреляционные функции 4 и 6 – не имеют производных при =0. Соответствующие спектральные плотности:

2) ;

3) ;

4) ;

6) .

Чтобы найти корреляционную функцию интеграла (производной) от с.ф., нужно дважды проинтегрировать (продифференцировать) корреляционную функцию исходной с.ф. сначала по одному, затем по другому аргументу:

                                                     (71.5).

Формула (71) для стационарной функции примет вид:

.

Корреляционная функция с.ф. и ее производной . Для дифференцируемого стационарного процесса ордината с.ф. и ее производной, взятая в тот же момент времени являются некоррелированными с.в. (а для нормального процесса и независимыми).

При умножении с.ф. на детерминированную получаем с.ф. Z(t)=a(t)X(t), корреляционная функция которой равна

KZ(t1,t2)=a(t1)a(t2) KX(t1,t2)                                                     (72.5),

где a(t) - детерминированная функция.

Сумма двух с.ф. является тоже с.ф. Z(t)=X(t)+Y(t) и ее корреляционная функция при наличии корреляционной связи между X(t) и Y(t):

KZ(t1,t2)=KX(t1,t2)+ KY(t1,t2)+2KXY(t1,t2),                                        (73.5)

где KXY(t1,t2) - см. (68.5) - взаимная корреляционная функция двух зависимых с.ф. X(t) и Y(t). 

Если X(t) и Y(t) независимы, то KXY(t1,t2)=0.     М.о. с.ф. Z(t):       .

5.2. Выбросы случайной функции за заданный уровень

Необходимость определения вероятностных характеристик процесса пересечения с. функцией заданного уровня возникает, когда необходимо вычислить вероятность того, что в течение срока службы нагрузка, действующая на строительную конструкцию, не превысит допустимого уровня. Найдем вероятность пересечения случайной функцией (дифференцируемой) X(t) некоторого уровня а в течение времени t. Полагая скорость изменения с.ф. V(t)=dX(t)/dt постоянной в течение времени dt (с точностью до бесконечно малых второго порядка) условие пересечения функцией X(t) уровня а за малый промежуток времени dt:

X(t)<a; X(t)+V(t)dt>a                                                            (74.5)

или

a-V(t)dt<X(t)<a (V(t)>0)                                                    (75.5).

Вероятность этого события (выраженного условием (75)):

                                                      (76.5),

где p(x,V) - совместная плотность распределения с.ф. X(t) и V(t). 

Ввиду близости пределов внутреннего интеграла (его заменили на p(a,V)Vdt - площадь прямоугольника) вероятность выброса:

                                                        (77.5).

Если разделить вероятность выброса Qa на время dt, в течение которого он ожидается, получится временная плотность вероятности выброса за уровень а в момент t (среднее число выбросов в единицу времени):

                                                            (78.5).

В случае стационарного с.п. X(t) и Y(t) - независимые с.ф. и (при том  и известна автокорреляционная функция для X(t) - KX()), следовательно,

p(x,V)=px(x)pV(V),                                                              (79.5)

где p(x,V) - совместная плотность распределения X(t) и Y(t); px(x)и pV(V) - соответственно плотности распределения X(t) и Y(t).

Тогда временная плотность вероятности выброса:

                                       (80.5),

где  - м.о. положительной скорости V(t).

Для нормального распределения X(t):

                                                     (81.5)

распределение скорости V(t) будет также нормальным и независимым от распределения X(t):                                                           (82.5).

М.о.  вследствие стационарности процесса. По (72) .

Подстановка (82) и (81) в (80) даст для временной плотности вероятности выброса

                                                  (83.5).

Доказательство (83.5):

.

Заменим подынтегральное выражение,

,

тогда

,

и тогда .

Чем больше уровень а, тем меньше q(a). При очень малом значении q(a) выбросы можно рассматривать как редкие события, т.е. как независимые с.в.

Если число выбросов в течение времени t подчиняется закону Пуассона  (66), тогда вероятность того, что за время T не произойдет ни одного выброса при условии, что X(t) – стационарная функция

Pt=exp[q(a)T]                                                                 (84.5)

Это функция надежности.

В случае нестационарной функции

                                                                  (85.5).

6. Приближенные методы нахождения распределения функций с.в.

  1.  Метод Монте-Карло (метод рандомизации)

Есть система двух с.в. X и Y и p(x,y) – совместная плотность их распределения. Данный метод позволяет найти плотность распределения p(U), где U=U(X,Y). 

Для одномерной с.в. Х, где р(х) – плотность ее распределения, можно найти p(U), причем U есть функция от X:

U=U(X)).

Суть метода в том, что аргументам X и Y даются случайные значения, распределенные согласно p(x,y). Случайные числа для значений аргументов можно брать по таблицам (есть таблицы для равномерного, нормального распределений, распределения Пирсона и т.д.) или определять на ЭВМ по специальной программе. Каждой случайной точке (xi,yj) соответствует определенное значение функции U(xi,yj). После реализации достаточно большого количества значений с.в. U их можно сгруппировать по интервалам n<U<(n+1) и построить ступенчатую аппроксимацию искомой кривой распределения p(U). Метод эффективен при использовании ЭВМ и при разрывности функции U(X,Y) (или при различном ее аналитическом описании в различных областях плоскости XOY).

Если есть функция двух с.в. U=U(X,Y) и p(x,y) – совместная плотность распределения X и Y, то

(получено из (40.3) и (29.3)), где x=(U,y). 

                                                                 (86.6)

и

                                                      (87.6),

но для двух аргументов.

  1.  Метод статистических испытаний

Производится достаточно большое число статистических испытаний по схеме Бернулли, т.е. на каждом испытании генерируются случайные реализации всех исходных величин. Далее, например, если необходимо определить вероятность отказа системы, то испытания проводятся n раз, и каждый раз проверяется условие наступления отказа (например, Q>R, где Q – фактическая нагрузка на систему, R – прочность системы). Затем частота появления отказа: P*(A)=m/n, где m – количество отказов. При n -

P*(A)P(A),

где P(A) – вероятность наступления отказа, являющаяся достоверной величиной.

В данном методе необходимо оценить погрешность определения P*(A) при определенном количестве испытаний n или оценить количество испытаний n, необходимое для достижения частотой наступления отказа P*(A) достаточной достоверности.

7. Вероятность редких событий (появление случайного

события A  за время  T)

Пусть некоторое событие A появляется случайно, причем корреляционная связь между вероятностями соседних по времени событий практически отсутствует, т.е. на срок возникновения последующего события не влияют сроки появления предыдущих. Наблюдениями в течение очень большого промежутка времени можно установить среднюю частоту появления события A, т.е. число событий, образующееся в среднем за единицу времени. U=n/T, где n - число событий, появившихся за большой промежуток времени T.

Тогда вероятность появления события A хотя бы один раз за время t:

1- Pt = 1- e-ut                                                       (88.7),

где Pt - вероятность не появления события A за время t.

Если средняя частота появления события A - u переменна во времени (т.е. u=u(t)), то

                                                       (89.7).

Если событие A крайне нежелательно или недопустимо (например, А – отказ), то выражение

                                                            (90.7)

есть функция надежности, представляющая собой вероятность непоявления события A в течение времени t ни разу.

При постоянной U(t)=const:

Pt=e-ut                                                                      (91.7).


 

А также другие работы, которые могут Вас заинтересовать

69052. Язык OWL (Web Ontology Language) 563 KB
  Язык онтологий для Web – OWL (Web Ontology Language), так же как RDF и RDFS разработан для описания данных и метаданных, а также отношений между ними и предназначен для использования в компьютерной обработке данных семантического Web.
69053. Общие компоненты технологии XML 176 KB
  Содержание документа на бумаге может быть сугубо текстовым, а также содержать изображения. Если документ представлен в электронном виде, он может содержать и мультимедийные данные, а также ссылки на другие документы. Хотя содержимое разных документов различно, их можно классифицировать по типам...
69054. Объявление типа документа 134 KB
  Определение типа документа DTD (Document Type Definition) является той основой, на которой создаются документы XML. DTD представляет собой набор правил, определяющий инструкции, которые могут быть переданы анализатору (parser) для обработки им этого документа.
69055. Формирование описания документа с помощью схем 271 KB
  Элемент age может быть проверен на принадлежность его содержимого заданному типу (PCDATA), поэтому содержимое обоих дескрипторов будет считаться правильным, т.е. при использовании DTD нельзя осуществить проверку как на соответствии определенному типу данных...
69056. Объявление атрибутов в схеме XML 187 KB
  Объявление атрибута обеспечивает локальную проверку значений атрибута, а также задание значения по умолчанию или фиксированного значения. Объявление атрибута выполняется с помощью элемента attribute, имеющего следующий формат...
69057. Обработка документов XML. Вспомогательные языки XML. Язык XPath 406 KB
  Язык XML предоставляет многообразные, гибкие и эффективные возможности описания структуры данных. Однако он не обеспечивает средств для навигации в документе и поиска компонент структурированных данных внутри документа, например, для поиска наименований книг по фамилии автора.
69058. Выражения пути в XPath 287 KB
  Одна из важнейших функций XPath – это выбор множеств узлов в документе. Особый вид выражений XPath, называемый выражениями пути (path expressions), позволяет выбирать в документе множество узлов в соответствии заданными критериями.
69059. Вспомогательные языки XML. Обработка документов XML 267.5 KB
  Стандартизованный набор элементов и атрибутов HTML позволяет создавать программы просмотра (Web-браузеры) и графические редакторы документов HTML, пригодные для обработки любого документа HTML.
69060. Языки XSLT. Связывание документов XML с таблицами стилей 300.5 KB
  Наиболее простым способом форматированного вывода документов XML в Web-браузерах является связывание документа XML с внешними таблицами стилей. Для такого связывания в спецификации W3 «Связывание таблиц стилей с документами XML (Associating Style Sheets with XML documents)»...