9199

ТЕОРІЯ ЙМОВІРНОСТЕЙ

Лекция

Математика и математический анализ

ТЕМА 19. ТЕОРІЯ ЙМОВІРНОСТЕЙ Теорія ймовірностей - математична наука, яка вивчає закономірності випадкових явищ. Фундаментальними поняттями теорії ймовірностей є випадкова подія та випадковий експеримент (випробування). Випробування (випадковий...

Русский

2013-02-26

325.36 KB

4 чел.

ТЕМА 19. ТЕОРІЯ ЙМОВІРНОСТЕЙ

Теорія ймовірностей – математична наука, яка вивчає закономірності

випадкових явищ.

Фундаментальними поняттями теорії ймовірностей є випадкова подія та

випадковий експеримент (випробування).

Випробування (випадковий експеримент) – це багатократне повторення

певного комплексу умов, в яких відбувається деяке явище, та фіксується той чи

інший результат, але цей результат не можна напевно передбачити.

Випадковою подією називається будь-який факт, що може відбутися в

результаті випробування чи ні.

Наприклад: поява Г або Р при підкиданні монети; вихід бракованої деталі

з конвеєру; виграшний білет в лотереї і т.п.

Вірогідною або достовірною називають подію, яка обов’язково

відбудеться у випадковому експерименті. Неможливою називається подія, яка

ні в якому разі не може відбутися в результаті випробування.

Нехай в результаті випробування відбувається одна і тільки одна з подій

1 ,  2 , ...,  n , ..., які є найпростішими результатами випробування і

називаються елементарними випадковими подіями. Множина всіх можливих

наслідків випробування називається простором елементарних подій і

позначаються ;   1 ,  2 , ...,  n , ....

Випадкові події позначаються: А, В, С, ...

Випадкова подія А є підмножина простору . Елементарні наслідки

випробування, які утворюють А, називаються сприятливими для А.

Операції над подіями аналогічні операціям над множинами, для

ілюстрації яких будемо користуватися діаграмами Ейлера-Венна.

Теоретико-множинна інтерпретація випадкових подій

Теорія множин

Теорія ймовірностей

Діаграми

1

 - універсальна  - простір елементарних

множина

подій, вірогідна подія

2

порожня  - неможлива подія

множина

A  , A

3

А – випадкова подія

підмножина 

А

A  B, A

4

Якщо відбудеться А, то

відбудеться і В

підмножина В

АВ 

5

6

A B

множин

переріз A  B . Відбудеться і А, і В;

тобто А і В відбудеться

одночасно

A  B   множини A  B   ; Події А і В

А

і

В

не несумісні, тобто не можуть

перетинаються

відбутися одночасно

1

А

A B

А

В 

В 


7

A B

об’єднання A  B – сума подій, коли а)

A B 

події

відбувається принаймні одна несумісні.

множин

з них

А

В

б) A  B   події сумісні

A B

А

8

9

A\ A

доповнення до А,

тобто різниця між 

та А

А\В різниця між А і

В

A    A – протилежна

подія, тобто А – не

відбувається

А – В різниця подій,

відбувається А, але не

відбувається В

В

A B

А

А

A

В

A B

Деякі властивості операцій над подіями

1) A    ;

2) A    A;

3) A    A;

4) A     ;

5)

A  A  ;

7) A  A  A;

8) A  A  A – це закони поглинання;

6) A  A   ;

9) A  B  B  A;

10) A  B  B  A;

11)  A  B   C  A  B  C ;

12)  A  B   C  A  B  C ;

13) A  B  C   A  B    A  C ;

14) A  B  C   A  B  A  C – це властивості операцій суми та добутку;

16) A  B  A  B – закони де Моргана для відшукання

15) A  B  A  B;

протилежних подій.

Основні правила і формули комбінаторики

Комбінаторика – розділ математики, який вивчає розташування об’єктів

у відповідності з певними правилами та методи підрахунку кількості таких

розташувань.

Правило суми. Нехай  i i  1,2,..., n  – елементи деякої скінченої множини  .

Якщо елемент 1 може бути обраний n1 способами, ...,  k – nk способами, то

вибір одного з елементів 1 ,  2 або wk здійснюється n1  n2  ...  nk

способами.

Основний принцип комбінаторики – правило добутку. Якщо елемент 1 може

бути обраний n1 способами, ... wk – nk способами, то вибір всіх елементів

1 ,  2 , ...,  k у вказаному порядку здійснюється n1  n2  ...  nk способами.

2


Розміщення. Нехай є множина  з п різних елементів. З цієї множини можуть

бути утворені підмножини з k елементів. Якщо ці підмножини відрізняються

або складом елементів, або порядком їх розташування (або тим і іншим), то такі

підмножини називаються розміщеннями з п елементів по k , тобто розміщення

це будь-яка впорядкована k - елементів підмножина множини з п елементів.

Число розміщень обчислюється за формулою

n!

k

(1)

An  n  n  1    n  k  1 

; n! 1  2    n.

n  k !

Комбінації (сполучення). Якщо підмножини з k елементів п - елементної

множини відрізняється тільки складом елементів, то їх називають сполученнями

з п елементів по k , тобто сполучення – це будь-яка невпорядкована множина з

k елементів п - елементної множини. Число сполучень обчислюється за

формулою

k

An

n  n  1    n  k  1

n!

k

k

.

(2)

Cn 

; тобто C n 

k!

k!

k!n  k !

0

 1.

За означенням 0! = 1, отже C n

Перестановки. Якщо множини з п елементів відрізняються лише порядком

розташування, то їх називають перестановками. Число перестановок

обчислюється за формулою

n

.

(3)

Pn  n! тобто Pn  An

Означення та властивості ймовірності

Імовірність події – це базове поняття теорії ймовірностей.

Імовірність події характеризує міру об’єктивної можливості появи події в

умовах випробування. Існує декілька означень імовірності, які застосовуються

в різних випадках (класичне, геометричне, статистичне та ін.). Всі ці означення

узгоджені між собою і ймовірності мають такі основні властивості:

1. P   1 – ймовірність вірогідної події дорівнює 1;

2. P   0 – ймовірність неможливої події дорівнює 0;

3. 0  P A  1 – ймовірність випадкової події невід’ємна і не перевищує 1.

Класичне означення ймовірності. Нехай простір елементарних подій

  1 ,  2 , ...,  n  є скінчена множина рівноможливих елементарних подій.

Подія A  . . Імовірність події А дорівнює відношенню числа т наслідків, які

сприяють події А до числа п наслідків, що складають простір  , тобто

m

P  A  .

(4)

n

Статистичне означення ймовірності. Припустимо, що проведено п

випробувань, в результаті яких k n разів відбулася подія А. Відносною

k

частотою події А називають відношення Wn  A  n і тоді границя

n

lim Wn  A  P A називається ймовірністю події А.

n

Геометричне означення ймовірності. Нехай  – область простору, А –

3


підобласть відповідного виміру. Випробування полягає в тому, що навмання

обирається точка, яка належить області  ; подія А полягає в тому, що ця точка

потрапляє в А. Імовірність події А визначається

  A

P  A 

,

  

де   A – є деякою з геометричних мір: довжина, площа, об’єм.

Теореми суми та добутку ймовірностей. Умовна ймовірність

Т.1. Якщо A  B   , то

P  A  B   P  A  P B  .

(5)

Наслідок 1. P A1  A2    An   P A1     P An , якщо Ai  A j   для

всіх i  j.



Наслідок 2. P A  P A  1.

Т.2.

(5´)

P  A  B   P  A   P  B   P  A  B ,

якщо А і В – сумісні.

Якщо ймовірність події А залежить від того, чи відбулася подія В, то така

ймовірність називається умовною і позначається P A / B  чи PB  A; а подія А та

В – залежними.

Т.3.

P  A  B   P B   P  A / B   P  A  P B / A .

(6)

P A  B 

P A  B 

Наслідок 1. P A / B  

, якщо PB   0 та PB / A 

, якщо

P B 

P  A

P A  0.

Наслідок

2.

P A1  A2    An   P A1   P A1   P A1 / A2     P An / A1  A2    An 1 .

Подія А називається незалежною від події В, якщо поява події В не

впливає на ймовірність події А, тобто P A / B   P A.

Т.4. Якщо події А і В незалежні, то

P A  B   P A  PB .

(7)

Події A1 , ..., An називаються незалежними в сукупності, якщо

P A1  ...  An   P A1   P A2     P An .

Т.5. Якщо A1 , ..., An є незалежними в сукупності, то ймовірність появи

принаймні однієї з них обчислюється за формулою

P A1  A2  ...  An   1  P A1   P A2     P An .

(8)

Події H1 , H 2 , ..., H n складають повну групу подій, якщо:

1) H i  H j   для всіх i  j , тобто вони попарно несумісні;

2) H1  H 2  ...  H n  , тобто в результаті випробування відбудеться одна з

них.

Як випливає з Т.1. PH1   PH 2     PH n   1.

Якщо подія А може відбутися тільки при умові, що відбудеться одна з подій

4


H1 , H 2 , ..., H n , які складають повну групу подій, то ймовірність події А

обчислюється за формулою повної ймовірності

n

P  A    P  H i   P  A / H i   P  H 1   P  A / H 1     P  H n   P  A / H n ,

(9)

i 1

Н1

Н2

Н5

Н

P  H i / A 

Н

а події H1 , H 2 , ..., H n називаються гіпотезами,

а їх ймовірності – апріорними. Проілюструємо

A, H1 , ..., H n на діаграмі: Для переоцінки

(уточнення)

ймовірностей

гіпотез

H i i  1,2, ..., n , якщо внаслідок випробування

відбулася подія А, застосовують формулу

Байєса

P  H i  A

P H i   P  A / H i 

.

 n

P  A

 PH i   P  A / H i 

(10)

i 1

Умовні ймовірності PH i / A називають апостеріорними.

Повторні незалежні випробування. Схема Бернулі

Нехай проводиться п незалежних однотипних випробувань, в кожному з

яких подія А може відбутися („успіх”) або не відбутися („невдача”). В кожному

випробуванні ймовірність події А постійна і не залежить від результатів

попередніх випробувань, P A  P, тоді P A  1  p  q. Така постанова задачі

називається схемою Бернуллі. Позначимо Pn k  ймовірність того, що подія А

відбудеться при п випробуваннях рівно k разів. k  n  , тоді вона обчислюється

за формулою Бернуллі

k

Pn k   C n

 pk  qnk .

(11)

Нехай Pn k1 , k 2  – це ймовірність того, що подія А в п випробуваннях

відбудеться від k1 до k 2 разів, тоді



Pn k1 , k 2  

k2

k2

k  k1

k  k1

 Pn k    Cnk  p k  q n  k .

(11´)

Значення m0 , при якому Pn k  набуває найбільшого значення,

називається найбільш ймовірним числом успіхів та знаходиться з нерівності

np  q  m0  np  p.

(12)

Якщо число випробувань досить велике, то застосування формули

Бернуллі стає дуже громіздким, і тоді користуються наближеними формулами,

які дають граничні теореми Муавра-Лапласа та Пуассона.

ЛОКАЛЬНА ТЕОРЕМА МУАВРА-ЛАПЛАСА

Pn k  

 k  np 

1

;



npq 

npq

(13)

5


x2

2

1

e

– це функція Гаусса, що подана в таблиці 1.

2

  x     x , та   x   0, при x  .

Інтегральна теорема Муавра-Лапласа

 k 2  np 

 k  np 

   1

Pn k1  k  k 2   

(14)

 npq 

 npq  ,

де   x  

x

u2

1

де  x  

e 2 du – функція Лапласа, подана в таблиці 2.

2

0

  x     x  та   x   0,5, при x  .

Найкращі наближення ці формули дають при npq  20 або при n  200 та

np  10.

Наслідок теореми Муавра-Лапласа

n 

m

P n  p     P  p     2

.

pq

 n

Формула Пуассона застосовується для так званих „рідких” подій, тобто

коли р дуже мале, а п дуже велике так, щоб np    10, і тоді

Pn k  

k  e 

(15)

k!

Pn k1 , k 2  

k2

k1

 Pn k   

k  k1

k  k1

k  e  

k!

.

Випадкові величини

Поняття випадкові величини є основним в теорії ймовірностей та її

застосуваннях.

Випадковою називають величину, яка в результаті випробування приймає

одне з можливих значень, яке наперед не можна передбачити. Випадкові

величини позначаються грецькими літерами  ,  , або великими латинськими

X , Y , Z , ...; значення, які приймають випадкові величини, позначають малими

латинськими літерами x1 , x2 , ..., y1 , y 2 , ..., z1 , z 2 , ... .

Випадкова величина – це є дійсна функція на просторі елементарних

подій, тобто X  X  .

Розглядатимемо дискретні і неперервні випадкові величини. Якщо

значення, які приймає випадкова величина, можна перелічити або

пронумерувати, - її називають дискретною. Можливі значення неперервної

випадкової величини заповнюють деякий числовий проміжок.

Законом розподілу дискретної випадкової величини називаються перелік

всіх її можливих значень і відповідних їм ймовірностей, з якими вона приймає

кожне з цих значень. Закон розподілу подають, як правило, в таблиці

х x1 x2 ... xn ...

6


р p1 p2 ... pn ...

де Pi  PX  xi  i  1, 2, ..., n, ... .

Очевидно, що p1  p2    pn    1.

Ламана лінія, що з’єднує точки  xi , pi  на координатній площині є

графічним зображенням закону розподілу і називається багатокутником

розподілу, або полігоном.

у

 x3 ,

p3

x1 , p1 

p3 

p1

 x2 , p 2 

p2

x 4 ,

p4

x1

0

x2

x3

x4

p4 

х

Приклади дискретних розподілів

Біноміальний розподіл. Нехай проводяться випробування за схемою Бернуллі,

випадкова величина Х – число появ „успіхів” серед п іспитів, тоді

k k

P X  k   Pn k   Cn

p  qnk ;

k  0, 1, 2, ..., n.

Розподіл Пуассона. Випадкова величина Х має розподіл Пуассона, з параметром

 , якщо

PX  k  

k  e 

;

(k  0, 1, 2, ...) ,

  0.

k!

Функцією розподілу F  x  випадкової величини Х називають таку, що для

кожного Х показує ймовірність того, що випадкова величина у випробуванні

прийме значення, менше за х, тобто F  x   PX  x.

Властивості функції розподілу:

1) 0  F  x   1;

2) F  x  – неспадна функція, неперервна зліва;

3) lim F  x   0; lim F  x   1.

x  

x  

Крім того, функція розподілу повністю характеризує будь-яку випадкову

величину (дискретну чи неперервну).

4)

Pa  X  b  F b   F a .

(16)

5) Для неперервної випадкової величини PX  b  0.

Графіком функції розподілу дискретної випадкової величини є

розривна ступінчата лінія, стрибки якої відбуваються в точках відповідних

можливих значень. Сума всіх стрибків дорівнює 1.

7


у

1

P

1  P2    Pn 1

P

1  P2

...

P

1

x1

x2

х

xn 1 xn

x3

Графіком функції розподілу неперервної випадкової величини є

неперервна лінія.

Кажуть, що випадкова величина має щільність розподілу f  x  , якщо

існує інтегровна функція f  x  така, що

F x  

x

 f u du, тобто F x   f x .

(17)



Властивості щільності розподілу

1) f  x   0;



2)

b

 f x dx  1;

3) Pa  X  b   f  x dx.



a

Графік щільності розподілу називається кривою розподілу. Як випливає з

властивості 1), крива розподілу завжди розташована вище осі ОХ.

Приклади неперервних розподілів

Рівномірний розподіл

0, x  a

0, x  a

 1

x  a

F x   

,

a xb

f x   

,

a xb

b

a

b

a

1

,

x

b

xb

0,

у

1

у

F x 

а

0

b

Показників розподіл.

0, x  0

F x   

 x

1  e , x  0

f x 

1

ba

х

0

0, x  0

f  x     x

e , x  0

8

а

b

х


у

у

F x 

1

f x 

F x  

x

1

2  



e

х

х

0

Нормальний розподіл.

 x  a 2

2

2

f x  

dx;

1

e

 2

 x  a 2

2

2

.

у

f x 

a 1

  0,25

a  5;   2

х

Якщо дослідити криву нормального розподілу f  x  , матимемо, що f  x 

досягає максимуму при x  a , а точки x  a   є точками перегину; вісь

абсцис ОХ - асимптота кривої.

Ймовірність того, що випадкова величина Х набуде значення з проміжку

x1 , x2  визначається за формулою

 x a

 x  a

P x1  X  x2    2

(18)

   1

,

  

  

де u  – функція Лапласу, значення якої знаходимо в таблиці 2. Зокрема,

 

P  X  a     2   .

(19)

 

У випадку   3 , отримаємо відоме правило 3 для нормального закону

Pa  3  X  a  3   0,997.

ЧИСЛОВІ ХАРАКТЕРИСТИКИ ЧИСЛОВИХ ВЕЛИЧИН

Закони розподілу є повними і вичерпними характеристиками випадкових

величин. Однак, для багатьох задач практики немає необхідності в повному

описі випадкових величин, достатньо лише вказати певні невипадкові числові

параметри, що характеризують суттєві риси розподілу: наприклад, середнє,

навколо розсіяні значення випадкової величини та величину цього розсіювання.

Математичним сподіванням дискретної випадкової величини Х

називається число

M  X    xi  pi .

(20)

i

Математичним

сподіванням

неперервної

9

випадкової

величини

Х


називається число

M X  



 xf x dx .

(21)



Математичне сподівання є середнім значенням випадкової величини.

Дисперсією випадкової величини називають математичне сподівання

випадкової величини  X  M  X 2 , тобто

D X   M  X  M  X 2 .

(22)

Середнім квадратичним відхиленням випадкової величини називається

число   X   D X  , яке характеризує розсіювання навколо середнього

значення.

Властивості математичного сподівання та дисперсії

1. DC   0;

1. M C   C  const;

2. Якщо X  0, то M  X   0;

2. D X   0 для будь-якої випадкової

величини;

3. DC  X   C 2 D X ;

3. M C  X   C  M  X ;

 

4. D X   M X  M  X 2 ;

4. M  X  Y   M  X   M Y ;

5. M  X  Y   M  X   M Y ; –

5. D X  Y   D X   DY ; –

якщо Х і Y – незалежні

якщо Х і Y – незалежні

випадкові величини.

випадкові величини.

Для дискретної та неперервної випадкових величин

обчислюється за формулою (відповідно)

2

D X     xi  M  X 2  pi   xi  pi  M  X 2 ;

2

D X  

i

i

 x  M  X  f x dx   x f x dx  M  X  .



2

2

2

дисперсія

(23)



Двовимірні випадкові величини

В багатьох випадках результат випробування характеризується не однією

випадковою величиною, а деякою системою випадкових величин X 1 , ..., X n ,

яку називають випадковим вектором X   X 1 , X 2 , ..., X n  .

x1 х2 ... хп ру

X

Y

р11 р21 ... рп1 ро1

y1

р12 р22 ... рп2 ро2

y2

...

... ... ... ...

р1т р2т ... рпт рот

ym

р1о р2о ... рпо 1

px

Нехай X   X , Y  – двовимірна випадкова величина, компоненти якої є

дискретні, тоді закон її розподілу можна представити у вигляді таблиці

10




розподілу в кожній клітинці якої pij  P  X  xi   Y  y j , причому

n

m

  pij  1

i 1 j 1

та

m

n

j 1

i 1

P X  xi   pio   pij ; PY  yi   poj   pij . (24)

Перший та останній рядок таблиці складають закон розподілу компоненти Х; а

перший та останній стовпці – розподіл компоненти У. Можна відповідно

обчислити числові характеристики M  X , D X , M Y , DY .

Якщо зафіксувати Y  y j , тоді отриманий закон розподілу

компоненти Х називається умовним і ймовірності обчислюються

 pij

 pij

Y  y j

 X  xi

(25)

P

; P

.

Y  yj p

X  xi 

 p

oj

io

Розглядаються також числові характеристики умовних розподілів.

Умовне математичне сподівання M Y / X  xi   M x Y   f  x  називається

регресією Y по Х, аналогічно M X / Y  y j  M y  X   g  y  регресією Х по Y .

Графіки функцій M x Y  та M y  X  називаються лініями регресії або кривими

регресії. Вони встановлюють форму зв’язку між випадковими величинами Х та

Y.

Функція F  x; y   P X  x; Y  y  називається функцією розподілу

двовимірного вектора; вона має властивості:

1. 0  F  x, y   1;

2. F  x;     F  ; y   F  ;     0;

3. F  ;     1, F  x; y  – неспадна по обох аргументах.

4. F  x;     F1  x  – функція розподілу компоненти Х.

F  ; y   F2  y  – функція розподілу компоненти Y .

Випадкові величини Х та Y незалежні тоді і тільки тоді, коли

F  x; y   F1  x   F2  y .

Для випадку неперервних компонент і коли F  x, y  – неперервно

диференційовна по кожній змінній, розглядають щільність розподілу

2

 F  x, y 

f  x, y  

і тоді

xy

y

x

1) F  x, y  

  f x, y dxdy;

 

3) f1  x  

 

2)

  f x, y dxdy  1;

 

 f x, y dy

– щільність розподілу Х;



f2 y 

 f x, y dx – щільність розподілу Y .



11


Якщо Х та Y – незалежні, то f  x, y   f1  x   f 2  y .

Кореляційним моментом (коваріацією) випадкових

називається величина

K xy  M  X  M  X   Y  M Y   M  X  Y   M  X   M Y 

і обчислюється за формулами

n

m

K xy    xi  y j  pij  M  X   M Y 

величин

(26)

i 1 j 1

для дискретного випадку;

та для неперервного випадку

K xy 

 

  xyf x, y dxdy  M  X   M Y .

 

Величина, яка характеризує силу (тісноту) зв’язку між Х та Y називають

коефіцієнтом кореляції і обчислюють за формулою

K xy

 xy 

(27)

D X   DY 

причому  xy  1.

Якщо Х та Y є незалежними, то K xy  0 та rxy  0.

Якщо rxy  0, то величини Х та Y називаються некорельованими.

Зразки розв’язування задач

Задача 1. В урні 10 кульок, серед яких 5 білих, 3 чорних, а решта червоні.

Навмання вийняли одну кульку. Знайти ймовірність того, що вона: 1) біла; 2)

червона.

Розв’язування. Позначимо події: А – вийнята біла кулька; В – вийнята

червона кулька. Кількість можливих наслідків випробування п = 10. Тоді за

формулою (4)

m

5 1

P A  1 ; де m1  5; тобто P A   ;

n

10 2

m

2 1

PB   2 ; де m2  10  5  3  2; PB    .

n

10 5

Задача 2. В урні 10 кульок, серед яких 5 білих, 3 чорних, решта червоні.

Навмання вийняли 3 кульки. Знайти ймовірність того, що вони: 1) всі білі; 2)

дві білі і одна чорна; 3) дві червоні і одна біла.

Розв’язування. Позначимо події: А – вийняли 3 білі кульки; В – вийняли

дві білі і одну чорну; С – вийняли 2 червоні і одну білу. Кількість можливих

наслідків випробування знайдемо за формулою (12)

10!

7!8  9  10

3

n  C10 

 4  3  10  120.

3!10  3! 1  2  3  7!

5!

3

m1  C5 

 10,

тоді

1) кількість сприятливих до А подій

3!2!

12


P  A 

m1 10

1

 .

n 120 12

2) кількість сприятливих до В подій

PB  

3)

2

1

m2  C5  C3 

5! 3!

 15,

2!3! 1!2!

тоді

2! 5!

 5,

2!0! 1!4!

тоді

m2 15

 0,125.

n 120

кількість

сприятливих

до

С

подій

2

1

m3  C 2  C5 

m3

5

1

 .

n 120 24

Задача 3. Двоє студентів складають іспит. Імовірність скласти іспит для

першого студента дорівнює 0,9, а для другого – 0,8. Знайти ймовірність того,

що іспит складуть: 1) обидва студенти; 2) один студент; 3) принаймні один

студент.

Розв’язування. Позначимо події: А – іспит складе перший студент; В –

іспит складе другий студент; С – іспит складуть обидва студенти; Д – іспит

складе тільки один; Е – іспит складе принаймні один студент; тоді E – іспит не

складе жоден. Тоді C  A  B; D  A  B  B  A; E    E ; E  A  B. Події

PC  

A, B, A, B – незалежні, тому для обчислення ймовірності події C , D, E

застосуємо

формули

(5´),

(7)

та

(8).

Маємо

PC   P  A  PB   0,9  0,8  0,72; P A  1  P A  1  0,9  0,1;

P B  1  PB   1  0,8  0,2; PD   P A  P B  PB   P A  0,9  0,2  0,8  0,1  0,26.





 





 

PE   1  P E  1  P A  P B  1  0,2  0,1  0,98.

Задача 4. Робота приладу обірвалася із-за виходу виходу з ладу одного з 5

уніфікованих блоків. Послідовно заміняють кожен блок новим доти, поки

прилад не почне працювати. Яка ймовірність того, що доведеться замінити 2

блоки?

Розв’язання. Позначимо випадкові події Ai  {і – тий блок працює}, і = 1,

2, 3, 4, 5. В – довелося замінити два блоки. З умови випливає, що B  A1  A2 ,

тоді PB   P A1  A2 . Тобто ми маємо скористатися формулою (6), де

4 1 1

1

P A2 / A1  . PB   P A1   P A2 / A1    , оскільки ймовірність події A2

5 4 5

4

залежить від того, чи відбулася подія A1.

Задача 5. У складальний цех поступають однакові деталі, котрі

виготовляють три автомати, продуктивність яких відноситься як 1:2:3. Перший

автомат дає 5 % браку, другий – 3 %, третій – 2 %. Знайти ймовірність того, що

деталь, яку навмання взяв складальник буде: 1) бракованою; 2) виготовленою

третім автоматом, якщо вона виявилася бракованою.

Розв’язання. Позначимо події: А – деталь бракована; H i – деталь

13


виготовлена і-тим автоматом, і = 1, 2, 3. H1 , H 2 , H 3 складають повну групу

1

1

3 1

2 1

 ; PH 2    ;

PH 3    . Відмітимо, що

подій, PH1  

1 2  3 6

6 2

6 3

1 1 1

5

PH1   PH 2   PH 3      1. З умови маємо, що P A / H1  

 0,05;

6 3 2

100

3

2

P A / H 2  

 0,03; P A / H 3  

 0,02. Тоді за формулами (9) та (10)

100

100

маємо:

17

1

1

1

1) P A   0,05   0,03   0,02 

 0,028.

600

2

3

6

PH 3   P A / H 3  1 / 2  0,02 6

2) PH 3 / A 

  0,353.

P  A

0,028

17

Задача 6. Імовірність попадання для стрільця дорівнює 0,8. По цілі було

зроблено 5 пострілів. Знайти ймовірність того, що: 1) було три попадання; 2)

було не більше двох промахів.

Розв’язування. Для обчислення використаємо формули Бернуллі (11) та

(11´).

1)

5!

3

3

2

n  5; k  3; p  0,8; q  1  0,8  0,2. P5 3  C5  p  q 

 0,83  0,2 2  0,2048.

3!2!

2)

n  5; k1  0; k 2  2; p  0,2; q  0,8. P5 0  k  2  P5 0  P5 1  P5 2  0,85  5 

 0,2  0,84  5  2  0,04  0,83  0,9421.

Задача 7. Посіяли 40 зерен деякого злаку. Знайти найбільш ймовірне

число зерен, які зійдуть, якщо сходжуваність таких зерен дорівнює 60%.

Розв’язування.

Застосуємо

формулу

(12),

де

n  40; p  0,6; q  1  0,6  0,4. Одержимо

40  0,6  0,4  m0  40  0,6  0,6, тобто 24  0,4  m0  24  0,6. Ціле число із

цього проміжку 23,6; 24,6 є m0  24.

Задача 8. Контрольну роботу з теорії ймовірностей успішно виконують в

середньому 50 % студентів. Знайти ймовірність того, що серед 400 студентів

виконають роботу успішно: 1) 180 студентів; 2) не менше 180 студентів.

Розв’язування. Тут застосовуватимемо формули (13) і (14). Оскільки

n  400; p  q  0,5 і тому n  p  200, а n  p  q  100  20 і краще скористатися

наближеними формулами Муавра-Лапласа. Значення функцій   x  та   x 

візьмемо з таблиць 1 і 2.

1

 180  200  1

1) P400 180  



   2   0,0054.

100 

100  10

14


 180  200 

 400  200 

2) P400 180  k  400   

   20    2 

  

100

100

 0,5  0,4772  0,9772.

Задача 9. Завод відправив на базу 10000 стандартних виробів. Середнє число

виробів, що пошкоджується при транспортуванні, складає 0,02 %. Знайти

ймовірність того, що серед відправлених виробів буде пошкоджено: 1) три; 2)

принаймні три.

0,02

Розв’язування. За умовами задачі n  10000 (досить велике). p 

 0,0002

100

(досить мала). Крім того, n  p  2 і тому слід використати формулу Пуассона

(15), де   n  p  2.

2

3

2 e

 0,1804;

1) P

10000 3 

3!

2) P

10000 k  3  1  P k  3  1  P

10000 0   P

10000 1  P

10000 2  

 1  0,1353  0,2709  0,2707   0,3233.

Задача 10. Серед 15 агрегатів, 6 необхідно додатково тестувати. Навмання

для перевірки відібрано 4 агрегати. Скласти закон розподілу числа агрегатів, які

необхідно додатково тестувати серед відібраних чотирьох. Знайти

M  X ,   X .

Розв’язування. Позначимо випадкову величину Х – число агрегатів, які

необхідно додатково тестувати. Тоді вона може приймати значення 0, 1, 2, 3, 4.

Ймовірності прийняття цих значень обчислимо за формулою Бернуллі, де

6

9

n  4, p   0,4; q   0,6; тоді

15

15

4

9

P1  P4 0 

 p  q  q     0,6  4  0,1296;

 15 

1

3

P2  P4 1  4  p  q  4  0,4  0,6 3  0,3456;

0

C4

0

4

4

2

P3  P4 2   C 4

 0,4 2  0,6 2  6  0,16  0,36  0,3456;

3

P4  P4 3  C 4

 0,4 3  0,6   0,1536.

P5  P4  p 4  0,4 4  0,0256, причому P

1  P2  P

3  P4  P

5  1.

Отримали закон розподілу

хі 0

1

2

3

4

рі 0,1296 0,3456 0,3456 0,1536 0,0256

Обчислимо M  X  за формулою (20).

M  X   0  0,1296  1  0,3456  2  0,3456  3  0,1536  4  0,0256  1,6.

За

формулою

(23)

D X   M X 2  M  X 2  0 2  0,1296  12  0,3456 

 

обчислимо

 2  0,3456  3  0,1536  4  0,0256  1,62  0,96; тоді   X   D X   0,98.

Задача 11. Випадкова величина Х задана функцією розподілу

2

2

2

15


x  1;

0,

F  x    x  12 , 1  x  4;

1,

x  4.

Знайти M  X ,   X , P1  X  2 . Побудувати графіки f  x  та F  x  .

Розв’язування. Знайдемо щільність розподілу f  x  за формулою (17)

x  1;

0,

2

f  x   F  x     x  1, 1  x  4;

9

x  4.

0,

4

3

2 4

2

2

x

x 

   3.

Тоді M  X    xf  x dx   x   x  1dx 

9

9 3

2 

1

1



4

4

3 4

x

x 

2

2

2 2

2

2

   9  0,5.

D X   M X  M  X    x   x  1dx  3 

 4

9

3

9

1

1

Тоді   X   0,5  0,707.

 

1

P1  X  2   F 2  F 1   x  12

9

2

1

1

1

 0 .

9

9

Побудуємо графіки функцій f  x  та F  x  .

F x 

1

f x 

1

2/9

х

0

4

4

0

х

Задача 12. Відоме математичне сподівання a  16 та середнє квадратичне

відхилення   5 нормально розподіленої випадкової величини Х. Обчислити

ймовірність того, що: 1) Х прийме значення з інтервалу (13; 22), 2) абсолютна

величина відхилення X  a буде менша за   10.

Розв’язування. 1) Для нормально розподіленої випадкової величини Х

скористаємося формулою (18)

 22  16 

 13  16 

P13  X  22   

  

   1,2    0,6   0,3849  0,2257  0,61.

 5 

 5 

Значення   x  візьмемо з таблиці 2.

2) За формулою (19), матимемо

 

P  X  a     2   ,

 

тобто

16


 10 

P X  16  10  2   2 2   2  0,4772  0,9544.

5

Задача 13. Закон розподілу дискретної двовимірної випадкової величини

 X , Y  задано таблицею. Знайти закон розподілу та числові характеристики

компонент, умовний закон розподілу Х при умові Y  2 та Y при умові X  1,

умовні математичні сподівання.

У -1

0

1

2

Рх

Х

1

0,10 0,25 0,30 0,15 0,8

2

0,10 0,05 0

0,05 0,2

Ру

0,2 0,3 0,3 0,2 1

Розв’язування. Розподіли компонент отримаємо з першого та останнього

стовпчиків, та першого і останнього рядків.

Х 1

2

У -1 0

1

2

Р 0,8 0,2

Р 0,2 0,3 0,3 0,2

Звідки

M  X   1  0,8  2  0,2  1,2; D X   12  0,8  2 2  0,2  1,2 2  0,16;   X   0,4.

Відповідно

M Y   1  0,2  0  0,3  1  0,3  2  0,2  0,5; DY   1  0,2  1  0,3  4  0,2 

 0,52  1,05;  Y   1,025. Знайдемо K xy за формулою (26)

K xy  1   1  0,1  0  1  0,25  1  1  0,3  1  2  0,15  2   1  0,1  0  2  0,05  1  2  0 

 2  2  0,05  1,2  0,5  0,1.

Обчислимо тепер коефіцієнт кореляції за формулою (27)

 0,1

rxy 

 0,244, який вказує, що Х та Y від’ємно корельовані.

0,4  1,025

Обчислимо умовні ймовірності:

0,15

0,05

 0,75;

 0,25;

P X 1

P X 2

Y  2 0,2

Y  2 0,2

0,1

0,25

 0,125;

 0,3125;

P Y  1

PY 0

X  1 0,8

X  1 0,8

0,3

0,15

PY 2

 0,375;

 0,1875.

P Y 1

X  1 0,8

X  1 0,8

Тоді умовні математичні сподівання

M X

 1  0,75  2  0,25  1,25; M Y

 1  0,125  0  0,31  25  1  0,375 

X 1

Y 2

 2  0,1815  0,625.

ЕЛЕМЕНТИ МАТЕМАТИЧНОЇ СТАТИСТИКИ

Математична статистика – це наука, що займається обробкою та

аналізом результатів випробувань, проведених над випадковими подіями.

17


Теоретичною основою математичної статистики є теорія ймовірностей.

Генеральна сукупність – це весь можливий набір однорідних даних, які

описують дане явище. Та частина об’єктів (даних), що відібрана для вивчення з

генеральної сукупності називається вибірка. Об’ємом сукупності називають

число об’єктів цієї сукупності.

Суть вибіркового методу полягає в тому, щоб по деякій частині

генеральної сукупності (вибірці) робити висновки про властивості і поведінку

сукупності в цілому. Теоретичною основою вибіркового методу служить закон

великих чисел, згідно якому при необмеженому зростанні об’єму вибірки,

вибіркові характеристики наближаються до параметрів генеральної сукупності.

Нехай з генеральної сукупності вилучена вибірка, причому значення x1

спостерігалося n1 разів, x2  n2 , ..., xk  nk разів. Об’єм вибірки складає

n1  n2    nk  n. Значення xi називають варіантами. Послідовність варіант,

записаних в порядку зростання, називають варіаційним рядом. Числа ni

n

називають частотами, а wi  i – відносними частотами.

n

Статистичним розподілом вибірки називають перелік варіант та відповідних

їм частот або відносних частот:

Варіанти

x1 x2 ... xk

Частоти ni

n1 n2 ... nk

Відносні частоти w1 w2 ... wk

,

причому

k

 wi  1.

i 1

Приклад 1. П’ятдесят абітурієнтів отримали на вступних іспитах такі бали: 12,

14, 19, 15, 14, 18, 13, 16, 17, 12, 20, 17, 15, 13, 17, 16, 20, 14, 14, 13, 17, 16, 15, 19,

16, 15, 18, 17, 15, 14, 16, 15, 15, 18, 15, 15, 19, 14, 16, 18, 18, 15, 15, 17, 15, 16, 16,

14, 14, 17.

Складемо варіаційний ряд: 12, 13, 14, 15, 16, 17, 18, 19, 20.

Найменше значення X min  12; найбільше значення X max  20.

Розмах вибірки R  X max  X min , R  20  12  8. Об’єм вибірки n  50. Для

знаходження частот, підрахуємо, скільки разів кожне значення варіанти

зустрічається у вибірці, для знаходження відносних частот, поділимо кожну

знайдену частоту на об’єм вибірки. Результати занесемо в таблицю і отримаємо

статистичний розподіл вибірки.

13

14

15

16

17

18

19

20

xi 12

 ni  50

i

3

8

12

8

7

5

3

2

ni 2

wi 2/50 3/50 8/50 12/50 8/50 7/50 5/50 3/50 2/50  wi  1

i

Статистичний розподіл можна задати також у вигляді послідовності інтервалів і

відповідних їм частот, тобто у вигляді інтервального варіаційного ряду.

Якщо А – деякий інтервал, то частотою n A називають кількість елементів

18


nA

. Згідно формули

n

Стерджеса рекомендують число інтервалів т: m  1  3,322  lg n і тоді довжина

 xmin

R x

. Для зручності іноді рекомендують брати хпочаткове

інтервалу h   max

m

m

h

h

= xmin  та хкінцеве = xmax  .

2

2

В розглядуваному прикладі 1 візьмемо m  6 і запишемо інтервальний

статистичний розподіл: h  1,5.

w Ai

Частота n Ai Відносна частота w Ai

№ інтервалу

Інтервал

n

1

(11,5 – 13)

2

2/50 = 0,04

0,02(6)

2

[13 –14,5)

11

11/50 = 0,22

0,14(6)

3

[14,5 – 16)

12

12/50 = 0,24

0,16

4

[16 – 17,5)

15

15/50 = 0,3

0,2

5

[17,5 – 19)

5

5/50 = 0,1

0,0(6)

6

[19 – 20,5)

5

5/50 = 0,1

0,0(6)

6

6

Всього:

 n Ai  50  wAi  1

вибірки, які попали в інтервал А; відносна частота w A 

i 1

i 1

Дискретний та інтервальний статистичний розподіл можна представити

графічно, використовуючи полігон – для дискретного, та гістограму – для

інтервального.

Полігон частот (або відносних частот) – це ламана, що з’єднує точки з

координатами  xi , ni  або  xi , wi  .

Гістограма – ступенева фігура, що складається з прямокутників з

w Ai

основою h і висотою

. Площа фігури дорівнює 1. Гістограма є аналог

h

кривої розподілу.

Побудуємо полігон та гістограму для прикладу

ni

w

12

полігон

h

частот

0,2

8

7

гістограма

0,14(6)

5

3

0,0(6)

2

0,027

12

14

16

20 0

0

18

xi 11, 1 14, 1617, 1 20,

х

Важливою характеристикою є емпірична функція розподілу. Позначимо

накопичені частоти n x  число xi  x, тоді емпірична функція розподілу

19


nx

, це є функція накопичених частот. Це є аналогія функції розподілу

n

для інтервального розподілу і за теоремою Бернуллі при n   наближається

до функції розподілу.

*

Побудуємо F  x  для прикладу 1.

x  11,5

0,

*

F x 

2 / 50  0,04, 11,5  x  13

1

13 / 50  0,26, 13  x  14,5

0,

0,8

*

F  x   25 / 50  0,5, 14,5  x  16

40 / 50  0,8, 16  x  17,5

0,

0,2

45 / 50  0,9, 17,5  x  19

0,0

50 / 50  1, 1, x  19

0 11, 1 14, 1 17, 1 20,

х

До числових характеристик вибірки відносяться:

вибіркове середнє значення

1 n

1 k

x   xi   xi  ni .

(1)

n i 1

n i 1

вибіркова дисперсія

2

2

2

1 n

1 n 2

1 k

Dв   xi  x   xi  x або Dв   ni  xi 2  x .

(2)

n i 1

n i 1

n i 1

вибіркове середнє квадратичне відхилення

 в  DB .

(3)

виправлена дисперсія

n

2

S 

 DB

(4)

n 1

та відповідне середнє квадратичне відхилення

F x  

*





S  S2.

(5)

Ці числові характеристики є оцінками відповідно математичного

сподівання та дисперсії генеральної сукупності.

Обчислимо числові характеристики вибірки прикладу 1. За дискретним

статистичним розподілом, маємо:

1

x  12  2  13  3  14  8  15  12  16  8  17  7  18  5  19  3  20  2   15,78.

50

1

2

2

2

2

2

2

2

2

2

DB 

12  2  13  3  14  8  15  12  16  8  17  7  18  5  19  3  20  2 

50

 15,782  3,7316;

 B  3,7316  1,9317.

50

2

 3,7316  3,808; S  3,808  1,9513.

Тоді S 

49

Для знаходження характеристик запишемо середини інтервалів і

відповідні частоти

20


хс

пі

12,25

2

13,75

11

15,25

12

16,75

15

18,75

5

19,75

5

1

12,25  2  13,75  11  15,25  12  16,75  15  18,75  5  19,75  5  16,05.

50

1

2

2

2

2

2

2

DB 

12,25  2  13,75  11  15,25  12  16,75  15  18,75  5  19,75  5  16,052 

50

 261,7425  257,6025  4,14, тоді  B  4,14  2,035. Відповідно

50

2

S 

 4,14  4,224, S  4,224  2,055.

49

Нехай для кожного об’єкта вибірки спостерігаються дві ознаки Х та У, які

є випадкові величини. Необхідно з’ясувати чи існує між ними статистична

залежність, тобто чи впливають зміни закону розподілу однієї ознаки на закон

розподілу іншої, і як саме. Це з’ясовує кореляційний та регресійний аналіз.

Нехай xi , i  1, n – значення ознаки Х, y j , i  1, m – ознаки У. Тоді, так

само, як для двовимірних випадкових величин, ми можемо розглядати умовні

закони розподілу (тобто їх статистичні аналоги). Замість M x Y  розглядають

x

y x – умовне середнє значень Y при відповідних значеннях Х.

Якщо y x  f  x , то залежність між Y та Х називається кореляційною, а

y  f  x  є рівняння регресії Y по Х. Аналогічно, замість M y  X  розглядають

x y  g  y .

Якщо функції f  x  та g  y  лінійні, тобто y x  ax  b; x y  cy  d , де

a, b, c, d – сталі, то залежність називається лінійною кореляцією.

Величину лінійної залежності значень Х та Y вибірки характеризує

вибірковий коефіцієнт кореляції, який обчислюється за формулою

n

 n xy xi y j  n  x  y

b 

i , j 1

n  x  y

,

(6)

де x, y – вибіркові середні ознак Х та Y ,

 x ,  y – вибіркові середні

квадратичні відхилення Х та Y , п – об’єм вибірки; n xy – частота значення

X  xi ,

Y  yj .

Вибірковий коефіцієнт кореляції є статистичною оцінкою теоретичного

коефіцієнту кореляції.

Вибіркове рівняння прямої лінії регресії Y по Х має вигляд:

yx  y b 

y

x  x ,

x

(7)

де х – змінна.

Вибіркове рівняння регресії дозволяє за значенням ознаки Х передбачити

значення ознаки Y .

Приклад 2. Нехай після спостережень за ознаками Х та Y маємо

21


кореляційну таблицю.

У

15

30

45

60

75

90

пх

Х

12

5

2

7

15

1

7

5

13

18

5

20

6

2

33

21

9

22

3

1

35

24

3

4

1

8

27

1

3

4

пу

6

13

34

31

10

5

п = 100

На перетині рядків та стовпчиків знаходяться частоти n xy пар значень

ознак, які спостерігаються. В останньому стовпчику – частоти ознаки Х, в

останньому рядку – частоти ознаки У. Складемо вибіркове рівняння прямої

регресії Y по Х. Скористаємося формулами (6) та (7). Для цього обчислимо всі

необхідні коефіцієнти.

Вибіркові середні обчислимо за формулою (1)

1

12  7  15  13  18  33  21  35  24  8  27  4  19,08.

x

100

1

15  6  30  13  45  34  60  31  75  10  90  5  50.

y

100

Знайдемо  x та  y , користуючись (2), (3).

DB  X    x 

2

1

(7  12  19,082  1315  19,082  3318  19,082  3521  19,082 

100

 8  24  19,082  427  19,082 )  11,794.

Отже  x  DB  x   3,434.

1

(615  50 2  1330  50 2  3415  50 2 

100

 75  50 2  10  590  502 )  307,5.  y  307,5  17,536.

Аналогічно

 3160  502

DB  y    y 

2

Далі, щоб обчислити  n xy  x  y, рухаємося послідовно по всім клітинам

таблиці і додаємо добутки частот на відповідні їм значення Х та У.

n xy xy  5  12  15  2  12  30  1  15  15  7  15  30  5  15  45  5  18  30  20  18  45 

 6  18  60  2  18  75  9  21  45  22  21  60  3  21  75  1  21  90  3  24  60 

 4  24  75  1  24  90  1  27  75  3  27  90  98685.

Підставимо отримані значення в формулу (6), отримаємо  B  0,546, і

тоді скористаємося формулою (7), матимемо:

17,536

x  19,08, отже, остаточно, рівняння регресії має

y x  50  0,546 

3,434

вигляд:

y x  2,786 x  3,151.

22



 

А также другие работы, которые могут Вас заинтересовать

81083. Влияние водного режима на качественный и количественный состав флавоноидов календулы 114.12 KB
  Одним из активно изучаемых классов защитных веществ растений являются фенольные соединения. внедрение в геном чудеродных для данного вида генов с целью получения трансгенных растений источников биологически активных соединений в частности флавоноидов...
81084. ЗЛОУПОТРЕБЛЕНИЕ СУБЪЕКТИВНЫМИ ГРАЖДАНСКИМИ ПРАВАМИ НА ПРИМЕРЕ КОРПОРАТИВНЫХ ПРАВООТНОШЕНИЙ 172.47 KB
  Актуальность темы дипломной работы обусловлена необходимостью решения одной из самых неоднозначных проблем гражданского права - злоупотребления правом на примере корпоративных правоотношений. Необходимо отметить, что правоприменительная практика сталкивается с большим количеством корпоративных...
81085. ФЕМИНИСТИЧЕСКАЯ ТЕОЛОГИЯ КОНЦА 20-ГО ВЕКА В ПОИСКАХ МЕТОДОЛОГИИ 266 KB
  В период раннего капитализма традиционная точка зрения на положение женщины в обществе подвергается пересмотру: впервые говорится о различии в общественной сфере занятости необходимости строгого разграничения частного и общественного.
81087. ПРИОРИЕТЫ БЮДЖЕТНО-НАЛОГОВОЙ ПОЛИТИКИ РФ 45.51 KB
  Полнота бюджета, как правило, прямо пропорциональна благосостоянию граждан. Бюджет, его формирование и статьи расходов являются важным разделом в экономической науки, требующим большого внимания со стороны не только занимающих высокие посты экономистов и политиков, но и рядовых граждан.
81088. Электронные выпрямители, преобразователи, защита электронных устройств и основные характеристики 468.06 KB
  Инвертор который формирует частоту напряжения электродвигателя. Преобразователи частоты различаются по режиму коммутации используемому для регулирования напряжения питания электродвигателя.
81089. СОЗДАНИЕ ГОСУДАРСТВЕННОГО СТАНДАРТА ISO 21500:2012 30.93 KB
  Задачей рабочей группы по созданию стандарта было взять за основу опыт существующих организаций по управлению проектами (Института управления проектами PMI (США), Британского института стандартизации BSI и Международной ассоциации управления проектами IPMA) и свести его в лучшую практику – универсальный стандарт.
81090. Изменения в системе государственного управления при правлении Ивана III 50 KB
  Иван III заложил основы российского самодержавства не только значительно расширив территорию своего государства но и укрепив его политический строй государственный аппарат резко возвысив международный престиж Москвы. Иван III явился фактическим создателем Московского государства.
81091. Разработки и построение моделей социальных процессов для определения сущности, областей применения и наиболее эффективных методов моделирования 23.61 KB
  Актуальность темы состоит в том что в настоящее время нельзя назвать область человеческой деятельности в которой в той или иной степени не использовались бы методы моделирования. Остановимся на философских аспектах моделирования а точнее общей теории моделирования. Методологическая основа моделирования.