36118

Теория ймовірностей та математична статистика

Конспект

Математика и математический анализ

Числові характеристики вибіркового розподілу. Значення функції щільністі нормального розподілу. Функція розподілу нормального закону. Квантилі розподілу Стьюдента.

Украинкский

2013-09-21

3.77 MB

37 чел.

PAGE  58

Міністерство освіти і науки України

Одеський національний політехнічний університет

Конспект  лекцій

з   дисципліни «Теория ймовірностей та математична статистика»

для  студентів  спеціальності  7.050.102  «Економічна кібернетика»

денної та заочної форм навчання

Одеса ОНПУ 2009

Міністерство освіти і науки України

Одеський національний політехнічний університет

Конспект  лекцій

з   дисципліни «Теория ймовірностей та математична статистика»

для  студентів  спеціальності  7.050.102 «Економічна кібернетика»

денної та заочної форм навчання

Затверджено  на кафедрі інформаційних систем у менеджменті

Протокол №8 від 22 квітня 2009р.

Одеса: ОНПУ, 2009

Конспект лекцій з дисципліни «Теорія ймовірностей та математична статистика» для студентів спеціальності 7.050.102 «Економічна кібернетика» денної та заочної форм навчання / Укл.: В.М. Андрієнко, Н.М.Журавльова. – Одеса: ОНПУ, 2009. - 31 с.

Укладачі.: В.М. Андрієнко, канд. екон. наук, доц.,                           Н.М.Журавльова,старший викладач

ЗМІСТ

Лекція 1.   Деякі історичні відомості про виникнення

                  і розвиток теорії ймовірностей……………………………………………………4

                 Випадкові події. Стохастичний експеримент, простір елементарних

                  наслідків…………………………………………………………………………….5

                  Визначення випадкової події  ………………………………………………….....6

Лекція 2 . Алгебра подій……………………………………………………………………….7             

                 Класичне означення ймовірності………………………………………………...8

                 Статистична оцінка ймовірності………………………………………………......9

Лекції 3,4. Умовні ймовірності. Незалежність подій……………………………………….10

                   Формула повної ймовірності…………………………………………………….11

                   Формули Байеса…………………………………………………………………..12

                   Послідовність незалежних випробувань. Формула Бернуллі………………....13

                   Найімовірніше число появ події………………………………………………..14

Лекція 5.   Випадкові величини. Оизначення випадкової величини……………………….15

Лекція 6.   Числові характеристики випадкової величини………………………………17                                    

Лекція 7,8. Неперервні випадкові величини………………………………………………..20

                    Моменти випадкових величин…………………………………………………24

Лекція 9.  Багатовимірні випадкові величини………………………………………………..26

Лекція 10,11. Граничні теореми……………………………………………………………...30

Лекція 12.  Основні поняття математичної статистики. Методи  

                   статистичного опису результатів спостережень………………………………36

Лекція 13. Числові характеристики вибіркового розподілу………………………………..38

Лекція 14.  Методи оцінювання параметрів…………………………………………………41

Лекція 15,17 Довірчий інтервал . Перевірка статистичних гіпотез .....................................44

Лекція 18. Перевірка гіпотези про значимість коефіцієнта кореляції……………………..50

                   Критерій  і його застосування………………………………………………..50

Список літератури…………………………………………………………………………… .54   

Додатки…………………………………………………………………………………………55

      Додаток 1. Значення функції щільністі нормального розподілу ,

                            …………………………………………………………….55                                                                   

      Додаток 2. Функція розподілу   нормального закону ;

            ,  …………………., …………………………………………….57                                                                   

      Додаток 3. Квантилі розподілу Стьюдента  ……………………………………….59                                                                         

      Додаток 4. Квантилі  розподілу  …………………………………………………..60

      Додаток 5. Квантилі розподілу Фішера ………………………………………..62

Лекція 1.                      

Деякі історичні відомості про виникнення

і розвиток теорії ймовірностей.

             Теорія  ймовірностей - це математична  наука, що вивчає закономірності випадкових явищ.  Виникнення  теорії ймовірностей відноситься до середини XVII століття й пов'язане з іменами  Гюйгенса (1629-1695), Паскаля (1623-1662),Ферма (1601-1665) і Я.Бернуллі (1654-1705). У переписці  Паскаля й Ферма, викликаної задачами, поставленими азартними іграми, яки не укладалися в рамки математики того часу,  поступово виникли такі важливі поняття, як ймовірність і математичне сподівання. При цьому, звичайно,  відомі вчені, займаючись задачами азартних  ігор, передбачали й  фундаментальну роль науки, що вивчає випадкові явища. Вони були переконані  в тому , що на базі масових випадкових подій можуть виникати чіткі закономірності. Формально-математичний апарат, за допомогою якого вирішувалися задачі, що виникали в теорії  ймовірностей, зводився винятково до елементарних арифметичних і комбінаторних методів.

Вимоги з боку  природознавства й суспільної практики (теорія помилок спостережень, задачі теорії стрілянини, проблеми статистики) привели до необхідності подальшого розвитку  теорії ймовірностей і залучення аналітичного апарату. Особливо значну роль у розвитку аналітичних методів зіграли Муавр (1667-1754),  Лаплас (1749-1827), Гаусс (1777-1855), Пуассон(1781-1840). Із середини XIX сторіччя й приблизно до двадцятих років ХХ сторіччя розвиток теорії ймовірностей пов'язаний значною мірою з іменами російських вчених - Чебишева П.Л. (1821-1894), Маркова А.А. (1856-1922), Ляпунова А.М. (1856-1918). Цей успіх  російської науки був підготовлений діяльністю Буняковского В.Я. (1804-1889), який широко використовував дослідження із застосування теорії ймовірностей у статистиці, особливо в страховій справі й демографії.

         Сучасний розвиток теорії ймовірностей характеризується загальним підйомом інтересу до неї, а також розширенням кола її практичних застосувань. Однією з найважливіших сфер застосування теорії ймовірностей є економіка. Багато економічних показників (продуктивність праці, заробітна плата, виробіток  на  одного робітника за зміну, страховий запас, резервні потужності, державні резерви, попит на товари виробника й ін.) є  випадковими величинами. Прогнозування економічних явищ здійснюється на основі  економетричного моделювання, регресійного аналізу, трендових і згладжуючих моделей, що опираються на теорію ймовірностей. Результати  теорії ймовірностей використвуються для організації виробництва  (статистичний контроль у виробництві). Велике значення має розробка статистичних методів керування якістю продукції в процесі виробництва. Для інженерної справи серйозну роль відіграє теорія надійності, що широко використвує методи теорії ймовірностей.

         Ми визначили на самому початку теорію ймовірностей як науку, що вивчає випадкові явища. Який зміст вкладається  в поняття «випадкове явище» ми розглянемо  трохи пізніше, а зараз обмежимося деякими зауваженнями. У повсякденних уявленнях, життєвій практиці вважається, що випадкові події являють собою  щось украй рідке, що йде врозріз сталому порядку речей, закономірному розвитку подій . Випадкові події, як вони розуміються  в теорії ймовірностей, володіють рядом характерних особливостей; зокрема, всі вони відбуваються в масових  явищах, здатних багаторазово повторюватися при відтворенні певного комплексу умов. Теорія ймовірностей не займається вивченням унікальних подій, які не допускають повторень .

                                          

ВИПАДКОВІ ПОДІЇ

Стохастичний експеримент, простір елементарних  наслідків

            Вихідними поняттями теорії ймовірностей є поняття  стохастичного експерименту, випадкової події та імовірності випадкової події. Стохастичними називаються експерименти, можливі наслідки яких відомі, але  заздалегідь угадати, який з них буде мати місце  не можна. Множину всіх можливих наслідків експерименту називають простором елементарних наслідків і позначають       = .

Таким чином, розглянутому експерименту  поставлена у відповідність деяка множина  , елементами якої є  взаємовиключні   елементарні наслідки . Результатом експерименту є один і тільки один  результат. Розглянемо приклади.

1.  Один раз кидають монету. Множина  , де буква Г означає появу герба, буква Р-поява решки.

2. Один раз кидають гральний кубик. Можливі наслідки цього експерименту - випадання числа очок, рівного 1, 2, 3, 4, 5, 6, тобто

                                              = {1, 2, 3, 4, 5, 6} .                     

3. Монету кидають двічі,

                                            ,

тут    ГГ означає , що обидва рази з'явиться герб,

         ГР- при першому киданні з'явиться герб, а при другому -решка,

         РГ- при першому  киданні з'явиться  решка, при другому -герб,

         РР- обидва рази з'явиться решка.

4. Монету кидають до першої появи герба. Можливі наслідки експерименту:

                         Г- герб випаде з першого разу,

                         РГ- герб випаде при другому киданні,

                        РРГ- герб випаде при третьому киданні і т. д

Теоретично експеримент може тривати нескінченно довго. Простором  елементарних подій такого експерименту є  нескінченна множина

                               

   5. Дві особи А і В  умовилися зустрітися в інтервалі часу [0,T]. Позначимо  

               x -  час приходу особи А,

                      Y  -   час приходу особи  В.

                      

Геометрично цей простір представляє квадрат, зображений на Рисунок.1

                     

                                           

Рисунок 1. Простір елементарних наслідків експерименту 4.

Множину  називають простором елементарних наслідків (подій). Наведені приклади показують, що множина   може бути дискретною і неперервною. До дискретних відносяться скінченні або зліченні множини  елементарних наслідків, до неперервних - множини типу континуума (будь-який скінченний або нескінченний інтервал на числовій  прямій являє приклад  множини типу континуума ).

     Простір елементарних наслідків залежить від умов, в яких відбувається випадковий експеримент. Надалі будемо розглядати умови, за яких  наслідки експерименту  рівно можливі,   тобто  ніякий результат експерименту не має об'єктивної переваги перед іншими.

У розглянутих вище прикладах передбачається, що експерименти  відбуваються в ідеальних умовах (ідеальна монета кидається на ідеально гладку поверхню  й т.д.).

Визначення випадкової події.

Елементарні наслідки експерименту - це найпростіші випадкові події й  визначенню не підлягають. Однак у кожному випадковому експерименті крім елементарних можуть відбуватися й інші  випадкові події . Так, наприклад, у прикладі 2  можна розглянути події:

        А - випадання парного числа очок,

        В - випадання числа очок, не менше 4,

        С - випадання непарного числа очок і т.д.

Подія А відбудеться, якщо  буде мати місце один з наслідків експерименту: випаде число очок, рівне 2 або 4 або 6. Таким чином,

             А =   {2, 4, 6} ,          В = {4, 5, 6},     C = {1, 3, 5} .

У прикладі 3 можуть відбутися події:

        А - хоча б один раз випаде герб,

        В - герб  випаде при першому киданні,

        С - хоча б один раз випаде решка і т.д.

                    А = {ГГ, ГР, РГ},  В = {ГГ,ГР},  С = {РР,РГ,ГР}.

Нехай у прикладі 4 подія  А  полягає в тому, що буде зроблено не більше трьох кидань.  Тоді

                                           А = .

Розглянемо задачу про зустріч (приклад 5). Припустимо, що кожна з осіб А и В очікує іншого час, не більш ніж t , <t <Т. Нехай С - подія, яка полягає в тому, що зустріч  відбудеться. Тоді

                            С ={(x, y) : }

(Рисунок 2) .                              

Рисунок 2.  Подія С- зустріч  відбудеться

Ті елементарні наслідки, за яких подія А настає, називають сприятливими події А.

Отже, випадкова подія  А – це деяка  підмножина , що складається із всіх тих елементів   - елементарних подій, які сприяють події А.

Лекція 2 .              

                                                       Алгебра подій .

   Подія називається неможливою, якщо вона в експерименті напевно  не наступить  і позначається   Подія називається достовірною, якщо вона  в експерименті напевно наступить і позначається . Сама множина  є достовірною подією,  оскільки один з його наслідків обов'язково відбудеться. Так , у прикладі  2 подія  - « випадіння числа очок, рівного 7»,  є в цьому випадку  неможливою , а подія - «випадання числа очок, не більше  6», - достовірна подія.

Якщо у випадковому експерименті з настання події А випливає настання події В, то говорять, що  А тягне за собою В ( А  В ).

Якщо А  В , а В  А, то говорять , що події А и В рівносильні ( А = В ).

Сумою двох подій  А и В називають подію  А + В  (А В), що відбувається тоді й тільки тоді, коли відбувається або подія  А ,  або подія В. Сума подій відповідає об'єднанню множин  (Рисунок 3).

Рисунок 3. Сума двох подій.

У  Прикладі 2    А + В= { 2, 4, 5, 6}.

Аналогічний зміст  має сума будь-якого числа подій. Якщо  I-довільна множина значень деякого індексу i, A  - деяка множина  подій  то сума  є подію , що відбувається тоді й тільки тоді, коли відбувається хоча б одна подія A.

Добутком двох подій А и B (подій A , i) називають подію  AВ (А В), що відбувається тоді й тільки тоді, коли відбувається й подія А, і подія В ( всі події   A , i ) .

Добуток подій відповідає перетину  множин (Рисунок 4).

Рисунок 4. Добуток двох подій.

Для подій із приклада 2  АВ = { 4, 6 }.

Різниця  А \ В двох подій  А  и  В є подія, що відбувається тоді й тільки тоді. коли відбувається  А , але не відбувається В. Різниця подій відповідає різниці множин (Рисунок 5)

Рисунок 5. Різниця двух подій.

У прикладі 2  А \ В = {2}.

Подія   називається протилежною події А, якщо воно відбувається тоді й тільки тоді, коли  не відбувається А (відповідає доповненню множин)  Рисунок 6.

Рисунок.6. Протилежна подія.

У прикладі 2   = { 1, 3, 5 }.

        Операції додавання й множення подій мають наступні властивості :

а)  А+В = В+А ,  АВ = ВА  (комутативність);

б)  (А+В)+С =А+(В+С) ,  А(ВС)=(АВ)С   (асоциативність);

в) (А+В)С=АС+ВС) (дистрибутивність множення відносно додавання).

Відзначимо ще деякі очевидні співвідношення:

        А ,     А ,     ,    .

Дві події  А  і  В називаються неспільними, якщо неможливо їхнє спільне наставання, іншими словами  АВ = . Прикладом неспільних подій є  А  и  .

Сукупність подій   А ,А , … , А  становить повну групу попарно несумісних подій , якщо:

  1.  хоча б одна із цих подій неодмінно відбувається;
  2.  будь-яка пара подій несумісна , А А = , i j,  i,j= .

                      

Класичне означення ймовірності.

Імовірність - це кількісна оцінка можливості настання випадкової події. За класичним означенням, імовірністю випадкової події Р(А) називається відношення числа m сприятливих наслідків до  загального числа   n   рівноможливих наслідків експерименту     

                                     Р(А) =

Класична ймовірність має наступні властивості:

  1.  Р(А) 0.
  2.  Імовірність достовірної події   дорівнює  1:

                         Р( )=1.

  1.  Якщо подія  С = А+В, причому А  и  В несумісні, то

                         Р(С) = Р(А)+Р(В).

4.  Імовірність протилежної події   дорівнює

                         Р( )=1- Р(А).

  1.  Імовірність неможливої події дорівнює нулю

                         Р( ) = 0.

  1.  Якщо  А В, то Р(А) Р(В).
  2.  Імовірність будь-якої події міститься між нулем і одиницею

                          0 Р(А) 1.

Розглянемо приклади на обчислення ймовірностей.

Приклад 1.  Один раз підкидають монету. Чому дорівнює ймовірність випадання герба?  

Тут   , причому наслідки експерименту рівно можливі , А={Г} , у такий спосіб  m=1,    n=2,      P(A) =  .

Приклад 2.  Один раз підкидають гральний кубик. Чому дорівнює ймовірність того, що  випаде  число очок, не менш чотирьох ?

- рівноможливі,   А={4,5,6},     m=3,  n=6,       P(A) = .

У більш складних задачах  не представляється можливим явно записати  всі наслідки експерименту, а також сприятливі випадковій  події наслідки. У таких випадках застосовуються комбінаторні методи підрахунку чисел  m  і  n.

Приклад 3. У ящику знаходиться   10 деталей, серед яких  3 бракованих. З ящика навмання витягають 5 деталей. Знайти ймовірність того, що серед них виявиться дві браковані.

Подія А - серед  5-ти витягнутих деталей  2 бракованих, а 3 якісних.

Для підрахунку  m і  n  використаємо правило сполучень:

              n = ,   P(A) =   =  = .

Відзначимо недоліки класичного означення ймовірностей:

     1. Класичне означення неможливо застосувати у випадку      нескінченного простору елементарних наслідків.

     2. Існує проблема знаходження розумного способу виділення «рівноможливих випадків». Наприклад, як визначити ймовірність того, що народжена дитина виявиться хлопчиком?

По мірі розвитку теорії ймовірностей з'явилися інші означення ймовірності, які  усували недоліки  класичного. Розглянемо ще один підхід до означення ймовірності.

Статистична оцінка ймовірності.

Тривалі спостереження над появою  або не появою  події  А при великій кількості незалежних випробувань у ряді випадків показують, що число появ події  А  підкоряється  стійким закономірностям. Позначимо  

                          - число появ події  А,

                         n  -  число випробувань,

- частота появи події  А  при досить  великому  n  зберігає майже  постійну величину.

Таким чином, під статистичною  ймовірністю  розуміється відносна частота появи події  А  в  n  зроблених експериментах.  

        Статистична ймовірність має ті ж властивості, що й класична ймовірність, але при цьому не потрібно  рівно можливості наслідків . Найбільш загальним є  аксіоматичне оизначення ймовірності, що сформулював радянський математик Колмогоров А.Н. в 1933 р. Однак  розгляд цього означення виходить за рамки даного курсу лекцій.

Лекції 3,4.     

Умовні ймовірності. Незалежність подій.

        Досить часто доводиться розглядати ймовірність події А за умови, що мала місце деяка інша подія  В. Така ймовірність називається умовною й позначаються  Р(А / В) .

Приклад. Кинуто дві гральні кістки. Чому дорівнює ймовірність того, що сума очок, що випали, дорівнює 8, якщо відомо , що ця сума є парним числом?

Нехай  А - сума очок, що випали, дорівнює 8,

            В - сума очок, що випали, парне число.

Знайдемо спочатку ймовірність  Р(А) за класичним означенням. Число всіх можливих наслідків експерименту n=6 6=36, а  сума очок, рівна 8, випаде в наступних  комбінаціях:   (2,6),  (3,5),  (4,4),  (5,3),  (6,2). У такий спосіб  m=5   і    Р(А) = .

Тепер обчислимо ймовірність події  А за умови, що наступила подія  В.  У цьому випадку можливі наслідки експерименту становлять комбінації, за  яких  сума очок, що випали, - парне число, таких комбінацій - 18, тому m = 5,  n = 18, а умовна  ймовірність Р(А / В) = .     

Дві події А  и  В називаються незалежними , якщо настання одного з них не впливає на ймовірність настання іншого, іншими словами, якщо умовна ймовірність дорівнює  безумовної , Р(А / В) = Р(А). У противному випадку події вважають залежними. Так, у наведеному вище прикладі, події  А  і  В є залежними.

Події  А ,А , … , А  називаються незалежними у сукупності , якщо  для будь-якого  А з їх числа й будь-якої підмножини даної сукупності , що не змістить події А,  подія  А і  добуток подій з підмножини взаємно незалежні.

Розглянемо приклад. Тетраедр , три грані якого пофарбовані відповідно в червоний , зелений і синій кольори, а четверта грань містить всі три кольори, кидається навмання  на площину. Події А, В, С полягають у тому , що тетраедр упав на грань, що містить відповідно червоний, зелений або синій кольори.

 Безумовні ймовірності  Р(А) = Р(В) = Р(С) = , 

умовні ймовірності  Р(А/В) = Р(А/С) = Р(В/С) = Р(С/А) = Р(В/А) = .

Отже попарно події  незалежні, однак  Р(А/ВС) = 1, а це свідчить про те що  в сукупності  події  залежні.

Розглянемо формули, які  використовуються для обчислення ймовірностей складних подій.   Складною подією називається спостережувана подія, виражена  через інші спостережувані  у тому же експерименті події  за допомогою допустимих алгебраїчних операцій.

Формула додавання. Для довільних подій  А и В справедливе співвідношення

                Р(А+В) = Р(А) + Р(В) - Р(АВ)

Для довільного скінченного числа подій формула додавання має вигляд:

Р(А +А +…+А) =Р(А )+Р(А )+…+Р(А )-Р(А А )-Р(А А )-…- Р(А А )+Р(А А А )+Р(А А А )+…+Р(А А А )-… (-1)Р(А А…А) .     

Для неспільних подій  імовірність суми подій дорівнює сумі ймовірностей цих подій, тобто

Р(А +А +…+А) = Р(А )+Р(А )+ … +Р(А )

Формула множення. Для довільних подій А і В

                Р(АВ) = Р(А) Р(B/A)=P(B)P(A/B.

Формула справедлива, якщо  Р(А) > 0, P(B) > 0, і дозволяє обчислювати ймовірність здійснення обох подій  А и В у тих випадках, коли умовна ймовірність вважається відомою  або визначається методом допоміжного експерименту.

Для довільного скінченного числа подій формула множення має вигляд:

Р(А А…А) =Р(А )Р(А /А )Р(А /А А )Р(А /А А А )…Р(А /А А…А) .

Для незалежних  у сукупності подій  імовірність добутку подій дорівнює добутку їхніх імовірностей, тобто

                       Р(А А…А) =  Р(А А…А) .

Приклад 4. В умовах експерименту, розглянутого в прикладі 3 знайти ймовірності того, що серед обраних виробів виявиться  :

а) не більше одного бракованого;

б) хоча б одне браковане.

Нехай подія А - серед обраних виробів не більше одного бракованого,

Розглянемо події:  А - серед обраних виробів - жодного бракованого,

                               А - серед обраних виробів  - один  бракований.

Тоді   А = А + А , причому  А , А - несумісні. За формулою додавання шукана ймовірність Р(А) =Р(  А + А ) =Р(А ) +Р(А ),

      Р(А ) = =  = ,    Р(А ) =   =  =  ,

                                   Р(А) =  

Нехай подія  В - серед обраних виробів хоча б один бракований.

Можна розв’язати цю задачу за допомогою формули додавання, але розв’язок розв’язок буде значно простіше, якщо перейти до протилежної події  - серед обраних виробів немає  бракованих.

      = А ,  Р( ) = Р (А ) = ,   Р(В) = 1 - Р( ) = 1 -  =

Приклад 5. Визначити ймовірність того , що обраний навмання виріб є першосортним, якщо відомо, що 5% всієї продукції є браком, а 80%  не бракованих виробів задовольняють вимогам  1-го сорту.

Позначимо  А - обраний виріб є не бракованим,

                    В - обраний виріб задовольняє вимогам 1-го сорту,

тоді  АВ - обраний виріб є першосортним , а шукана ймовірність

                     Р(АВ) = Р(А)Р(В/А) = ,

тут   Р(А) = 1 - 0,05 = 0,95 ,       Р(В/А) = 0,8 .  

Формула повної ймовірності.

Приклад 6. Нехай в одному  із трьох ящиків знаходиться 3 білих і 2 чорних кулі, у другому - 2 білі  й 3 чорних, у третьому - тільки білі кулі. З навмання обраного ящика витягають одну кулю. Знайти ймовірність того, що він білого кольору.

Позначимо через А  подію, яка полягає в тому, що обрана куля білого кольору. Ймовірність цієї події залежить від того, з якого ящика обрана куля. Розглянемо події :

    H - куля взята з першого ящика,

    H  - куля взята із другого ящика,

    H - куля взята із третього ящика.

Події  H , H , H - несумісні, тоді   подія  А можна представити у вигляді суми добутків

                           А= H А +  H А + H А

Застосовуючи формули додавання й множення одержимо,

      Р(А) = Р(H А +  H А + H А ) = Р(H А) + Р(H А) + (H А) =

      Р(H )Р(А/ H ) + Р(H )Р(А/ H ) + Р(H )Р(А/ H ) =

Це і є формула повної ймовірності. Запишемо її в загальному виді. Нехай подія   А  може відбутися тільки разом з однією  з подій H , H , … , H, які утворюють повну групу подій (гіпотез).

Ймовірність  Р(А) визначається за формулою повної ймовірності  

         Р(А) = Р( H )P(A/ H ),   де         Р( H ) = 1.

Приклад 7.    На двох автоматичних верстатах виготовляються однакові валики. Імовірність виготовлення валика вищого сорту на  першому верстаті дорівнює 0,95 , а на другому  - 0,80. Виготовлені на обох верстатах не розсортовані валики перебувають на складі, серед них валиків, виготовлених на першому верстаті, у три рази більше, ніж на другому. Визначити ймовірність того, що навмання взятий валик виявиться вищого сорту.

Позначимо  А -  подію, яка полягає у тому, що взятий навмання валик виявиться   вищого

                           сорту;              

                    B -  подія, яка полягає у тому, що взятий навмання валик  

                           зроблений  на першому верстаті;  

                    B -  подія, яка полягає у тому, що валик зроблений на другому

                              верстаті.

Застосувавши формулу повної ймовірності одержимо:

                Р(А) = Р(В )Р(А/ В ) + Р(В )Р(А/ В ).

Оскільки валиків, зроблених на першому верстаті , в 3 рази більше, ніж на другому, то             Р(В ) = ,       Р(В ) = .

У задачі дані умовні ймовірності:

               Р(А/ В ) = 0,92 ,        Р(А/ В ) = 0,80.

Шукана ймовірність

               Р(А) =  = 0,89.

Формули Байеса.

   В умовах Приклада 6, обрана з ящика куля, виявилася білого кольору. Знайти ймовірність того, що куля була взята із третього ящика.

Це задача відрізняється тим, що відома подія, яка наступила в результаті експерименту: Ця подія  А – витягнута  куля білого кольору. Потрібно знайти ймовірність гіпотези за умови, що наступила подія  А, тобто  Р(Н /А).

Розглянемо   ймовірність  Р(А Н ) , за формулою множення

                Р(А Н ) = Р(А)Р(Н /А) = Р(Н )Р(А/ Н ).

З останньої рівності виразимо шукану ймовірність

                 Р(Н /А)  = , де  Р(А) - повна ймовірність події  А.

Отримана рівність і є формула Байеса для  Н. Аналогічно можна одержати формули для гіпотез  H і  H .

Використовуючи результати Приклада 6 , одержимо

                  Р(Н /А)  =  =  .

Запишемо формули  Байеса в загальному виді :

                 Р( ,    Р(А) – повна ймовірність події А,

                  Р( H ) = 1,    k =  .

Приклад 8. В умовах Приклада 7, взятий навмання валик виявився вищого сорту. Визначити ймовірність того, що він зроблений на першому верстаті.

Використовуючи позначення Приклада 7, за формулою  Баейса одержимо:

                  Р(В /А) =  =  = 0,76.

Послідовність незалежних випробувань. Формула Бернуллі.

        На практиці доводиться зустрічатись із задачами, які виникають у багаторазово повторюваних випробуваннях, в результаті кожного з яких може з'явитися або не з'явитися подія  А. При цьому інтерес уявляє результат не кожного окремого випробування, а загальне число появ події А в результаті певної кількості випробувань. У подібних випадках потрібно вміти визначати ймовірність будь-якого числа m появ події  А  в результаті  n  випробувань.

Розглянемо випадок, коли випробування є незалежними й імовірність появи події   А  в кожному випробуванні однакова й дорівнює  р, тоді Р( ) = 1 – р = q . Розглянемо приклад.

Монету підкидають 5 разів. Знайти ймовірність того, що герб з'явиться 3 рази.

Позначимо  події:

                                   А - поява герба в одному випробуванні,

                                   В -  герб  з'явиться 3 рази в серії з п'яти випробувань.

За допомогою алгебраїчних дій подію  В можна записати:

В = ААА +  А АА +  А АА  + ААА  + А АА  + А А А +

+  

У кожний добуток подія  А  входить  3 рази, а подія   5-3=2 разів, число додатків дорівнює  . За формулами додавання й множення одержимо

Р(В) = Р(ААА ) + Р(ААА ) + Р(ААА) + Р(ААА) + Р(ААА) + 

+   Р(АА А ) +  Р(ААА ) + Р(ААА ) + Р(ААА ) + Р(АА А) =

=    = , це і є формула Бернуллі.

Запишемо цю формулу в загальному виді. Нехай  Р(n,m) – ймовірність того, що  в  n незалежних випробуваннях  подія  А  наступить  m  раз. Тоді

                                                     Р(n,m)  =  .

Доведення формули  Бернуллі аналогічне розв’язанню розглянутої вище задачі.

Приклад 9. Вироби деякого виробництва містять 5% браку. Знайти ймовірність того, що серед шести, узятих навмання виробів:

  1.  буде два бракованих;
  2.  не буде бракованих;
  3.  буде хоча б один бракований.                                                                               

Тут  А – поява бракованого виробу,  Р(А) = 0,05 ,  Р( ) = 1- 0,05 = 0,95,

n=6. За формулою Бернуллі

  1.   при  m = 2,   Р(6,2) =  = 0,03;
  2.   при  m = 0,    Р(6,0) = (0,95)     0,73;
  3.   у цьому випадку задачу можна розв’язати двома способами.

Перший спосіб. Використовуючи формулу додавання , одержимо

        Р(6,1) + Р(6,2) =     0,27.

Другий спосіб. Перейдемо до протилежної події - серед обраних виробів немає бракованих. Ймовірність цієї події обчислена в п.2) і дорівнює 0,73. Тоді  шукана ймовірність   

                              Р( 1 – 0,73 = 0,27.

Найімовірніше число появ події.

       Найімовірнішим числом появи події  А   в  n  незалежних випробуваннях називається таке число m , для якого ймовірність Р(n, m), що відповідає цьому числу , не менше ймовірності кожного з інших можливих чисел появи події  А.

                                        Р(n, m )  Р(n, m).

Для знаходження  m  розглянемо дві нерівності

                           

Ров’язуючи спільно ці нерівності відносно m , одержимо, що m лежить в інтервалі одиничної довжини

                                    np – q   m np + p .

Приклад 10. Оптова база постачає 10 магазинів, від кожного з яких може надійти заявка на черговий  день із імовірністю 0,4 незалежно від заявок інших  магазинів. Знайти найімовірніше число заявок у день і ймовірність одержання цього числа заявок.

У даній задачі  n = 10,  p = 0,4 ,  q =  1-p = 1 - 0,4 = 0,6 . Підставимо ці дані у наведену вище нерівність

                               10   m  10 ,

                                              3,4   m 4,4 ,

і остаточно,   m = 4. Найімовірніше число  заявок дорівнює 4.

Знайдемо тепер ймовірність одержання чотирьох заявок за формулою Бернуллі

                     Р(10,4) =  = 0,25.

Лекція 5.                                      ВИПАДКОВІ ВЕЛИЧИНИ.

Поняття випадкової величини.

      Випадковою величиною називається величина, значення якої заздалегідь предректи не можна. Всі економічні показники є випадковими величинами. Це й заробітна плата працівників, і обсяг випуску продукції, і рентабельність, і продуктивність праці й ін. Поняття випадкової величини тісно пов'язане з поняттям випадкової події. Розглянемо приклад: один раз підкидають монету.  Нехай випадкова величина ( - число випадань герба. Ця випадкова величина приймає два значення: = 0, якщо випадає «решка» і = 1, якщо випадає «герб». Таким чином, випадкова величина приймає свої значення залежно від елементарних наслідків експерименту тобто є функцією від елементарних наслідків експерименту

                  = f ( ),    ,

тобто кожне значення випадкової величини ставиться у відповідність результату експерименту. Можливі значення випадкової величини будемо позначати малими буквами латинського алфавіту. Множина  наслідків  експерименту  може бути  скінченною  або нескінченною. Будемо розглядати випадкові величини двох типів. Випадкова величина називається випадковою величиною дискретного типу, якщо множина її можливих значень  скінченна або зліченна. Випадкова величина називається  випадковою величиною неперервного типу, якщо її значення  заповнюють суцільно  деякий інтервал.  

Розглянемо спочатку дискретні випадкові величини.

                    Дискретні випадкові величини.

  Ряд розподілу.

 Рядом розподілу або законом розподілу випадкової величини називається  перелік значень випадкової величини  й відповідних їм значень ймовірностей, р(=а ) = р >0,  = 1, де підсумовування поширюється на всі можливі значення  k.

Приклад 11. Монету кидають двічі. Знайти ряд розподілу числа появ герба.

Тут   - число появи герба, ряд розподілу наведений у Таблиці 1.

                       Таблиця 1. Ряд розподілу

 

РР

ГР + РГ

ГГ

а

0

1

2

р

1/4

1/2

1/4

р ( = 0) = р(РР) = 1/2 * 1/2  = 1/4,

р ( = 1) = р(ГР + РГ) = Р(ГР) + Р(РГ) = 1/2 * 1/2 + 1/2*1/2= 1/2,

р ( =2) = р (ГГ) = 1/2 * 1/2  = 1/4 ,             

= 1/4 +1/2 + 1/4 = 1 .

Функція розподілу.

 Функцією розподілу F(x), яка визначена для будь-якого дійсного x,  називається ймовірність того, що випадкова величина прийме значення менше  x:

                          .

Властивості функції розподілу:

  1.  0  F(x) 1
  2.  F(x) 0  при х  -   

3.   F(x) 1  при х +   

  1.  Ймовірність попадання випадкової величини в довільний напівінтервал дійсної осі

     [x ,x)  визначається формулою

                        р( х1   < х2) = F (х2) – F (х1)

Доведемо цю властивість. Розглянемо подію (  х2). Очевидно, що її можна записати у  вигляді суми:      (  х2) = ( х1   < х2) + (  х1),     використовуючи формулу додавання для  несумісних подій,    одержимо        р(  х2) =  р( х1   < х2) + р(  х1),     звідки випливає

F (х2) = р( х1   < х2) + F (х1) або р( х1   < х2) = F (х2)- F (х1).

5. Функція розподілу F (х) - неспадна функція на всій осі Ох, тобто якщо  х2   х1  , то

   F (х2) F (х1).

Дійсно, нехай  х2   х1  , у пункті 5 показано, що для       F (х2)  справедлива рівність     

    F (х2) = р( х1   < х2) + F (х1) , а тому що  р( х1   < х2) 0, то звідси випливає, що

    F (х2) F (х1).

6. Функція розподілу неперервна зліва , тобто

                                  .

Знаючи закон розподілу  дискретної випадкової величини, можна обчислити функцію розподілу за формулою

                                     F (x) = ,

де підсумовування поширюється на всі ті значення індексу i, для яких  .

Приклад 12. Побудувати функцію розподілу для випадкової величини, розглянутої  у Прикладі 11. Оскільки функція F(x) визначена для всіх дійсних значень x, то розглянемо послідовно інтервали:

     1. х (- ∞; 0],  F (x) = р( < x) = 0, тому що подія ( < x) для такого x є неможливою подією.

     2. х (0; 1],  F (x) = р( = 0) = 1/4 , тут нерівності   < x задовольняє одне значення = 0.

     3. х    (1; 2],  F (x) = р( = 0) + P ( = 1) = 1/4 + 1/2 = 3/4 ,тут нерівності   < x задовольняють два значення   = 0 і   = 1.

     4. х  (2; )     F (x) = P (( = 0) + P (( = 1) + P (( = 2) = 1/4 + 1/2 + 1/4 = 1, для  x з цього інтервала  нерівності   ( < x задовольняють всі значення випадкової     величини.  Таким чином,

                             F(x) =

Графік  обчисленої функції наведений на  Рисунку 7.

Рисунок 7. Функція розподілу.

Лекція 6.

                               Числові характеристики випадкової величини.

Математичне сподівання.

Випадкові величини крім законів розподілу можуть описуватися також числовими характеристиками .

Математичним сподіванням  М ()   випадкової величини називається її середнє значення .

Математичне сподівання дискретної випадкової величини обчислюється за формулою

                     М () = ,                                                                                                 (1)

де   значення випадкової величини,    - їх  ймовірності .

Розглянемо властивості математичного сподівання:

  1.  Математичне сподівання  константи дорівнює самій константі

                                   М (С) = С

  1.  Якщо випадкову величину помножити на деяке число  k, то й математичне сподівання  помножиться на це ж число

                                           М (k) = kМ ()

  1.  Математичне сподівання  суми випадкових величин дорівнює сумі їх математичних сподівань

                М (1 + 2 + … + n) = М (1) + М (2) +…+М (n)   

  1.  М (1 - 2) = М (1) - М (2)

5.  Для незалежних випадкових величин  1,  2,  … n математичне сподівання  добутку дорівнює добутку їхніх математичних  сподівань   

                М (1,  2,  … n ) = М (1) М (2) … М (n)  

6.  М (( - М ()) = М () - М (М()) = М () - М (() = 0

Обчислимо математичне  сподівання  для випадкової величини із Приклада 11.

М () = = .

Приклад 12. Нехай випадкові величини  1,  2  задані відповідно законами розподілу:

Таблиця 2. Закон розподілу 1

- 0,1

- 0,01

0

0,01

0,1

р

0,1

0,2

0,4

0,2

0,1

Таблиця 3. Закон розподілу 2

b

- 20

- 10

0

10

20

р

0,3

0,1

0,2

0,1

0,3

Обчислимо  М (1) і  М (2)

М (1) = (- 0,1) 0,1 + (- 0,01) 0,2 + 0 · 0,4 + 0,01 · 0,2 + 0,1 · 0,1 = 0

М (2) = (- 20) 0,3 + (- 10) 0,1 + 0 · 0,2 + 10 · 0,1 + 20 · 0,3 = 0

Математичні сподівання  обох випадкових величин однакові - вони дорівнюють нулю. Однак характер їхнього розподілу різний. Якщо значення 1   мало відрізняються від свого математичного сподівання , то значення   2  у великому ступені відрізняються від свого математичного сподівання , і ймовірності таких відхилень не малі. Ці приклади показують, що за середнім значенням не можна визначити, які відхилення від нього мають місце як у меншу, так і в більшу сторону. Так при однаковій середній величині опадів, що випадають у двох місцевостях, за рік не можна сказати, що ці місцевості однаково сприятливі для сільськогосподарських робіт. Аналогічно по показнику середньої заробітної плати не можливо судити про питому вагу високо- і низькооплачуваних працівників. Тому, запроваджується числова характеристика –  дисперсія  D () , що характеризує міру відхилення випадкової величини від свого середнього значення:

                             D () = M ( - M ())2 .                                                                                       (2)

Дисперсія - це математичне сподівання квадрата відхилення випадкової величини від математичного сподівання. Для  дискретної випадкової величини дисперсія обчислюється за формулою:

D () =  =                                                                   (3)

Із означення дисперсії випливає, що D () 0.

Властивості дисперсії:

  1.  Дисперсія константи дорівнює нулю

                            D (C) = 0

  1.  Якщо випадкову величину помножити на деяке число k , то дисперсія помножиться на квадрат цього числа

                            D (k) = k2 D ()

  1.  D () = М (2) – М2 ()
  2.  Для попарно незалежних випадкових величин  1,  2,  … n  дисперсія суми дорівнює сумі дисперсій.

    D (1 + 2 + … + n) = D (1) + D (2) +…+ D (n)   

Обчислимо дисперсію для випадкової величини із Приклада 11.

Математичне сподівання   М () = 1. Тому за формулою  (3)  маємо:

      D () = (0 – 1)2·1/4 + (1 – 1)2·1/2 + (2 – 1)2·1/4 =1/2

Відзначимо, що  дисперсію обчислювати простіше, якщо скористатися властивістю 3:

                                  D () = М (2 ) – М2 ().  

Обчислимо дисперсії для випадкових величин  1,  2  із Приклада 12 за цією формулою. Математичні сподівання  обох випадкових величин дорівнюють нулю.

D (1) = (0,1)2· 0,1+(0,01)2· 0,2+ (0,01)2· 0,2+(0,1)2· 0,1 = 0,001 + 0,00002 + 0,00002 + 0,001 =                     = 0,00204

D (2) = (-20)2 · 0,3 + (-10)2 · 0,1 + 102 · 0,1 + 202 · 0,3 = 240 +20 =  260

Чим ближче значення дисперсії до нуля, тим менше розкид випадкової величини навколо середнього значення. Величина   називається середньоквадратичним відхиленням.

Модою випадкової величини  дискретного типу Md  називається таке  значення випадкової величини, якому відповідає найбільша  ймовірність.

         

Приклади дискретних розподілів.

1. Біноміальний розподіл.

Нехай зроблено n незалежних випробувань. У кожному випробуванні настає або подія А, або  відповідно з ймовірностями  р,  1 -р.  Розглянемо випадкову величину   - число появ події  А  в послідовності випробувань.

Закон розподілу цієї випадкової величини можна записати таким  чином

             Р ( = m) = ,  m=0,1,2,…n...                                                                    (4)

Дійсно, розглянемо вираз (p + q)n =1 , розкладемо двочлен (p + q)n за формулою бінома Ньютона. Одержимо

                            

тобто  сума ймовірностей значень випадкової величини дорівнює одиниці, отже (4) є законом розподілу.

Знайти математичне сподівання за означенням, тобто за формулою

                                           M () = ,

дуже складно.

Тому розглянемо випадкові величини 1, 2, … n , с однаковим законом розподілу :

                               k =

де  k = 1,2,...n . Тоді

                               = 1 + 2 + … + n...

Використовуючи властивості математичного сподівання  одержимо:

М () = М (1 + 2 + … + n) = М (1) + М (2) +…+М (n) .

Знайдемо математичне сподівання    k ,

                          М (k) = 0 · (1 - p) + 1· p = р,    ,  тоді

                                  М () = np

Аналогічно знайдемо дисперсію:

D () = D (1 + 2 + … + n) = D (1) + D (2) +…+ D (n)

D (k) = (0 – p)2 (1 – p) + (1 – p)2  p =  p2 (1 – p) + (1 – p)2 p = p (1 - p) (p + 1 - p) = p (1 - p) = p q

                                   D () = n p q,  

                                   

2. Розподіл Пуассона.

        Нехай зроблено нескінченне число випробувань. Розглянемо випадкову величину  -число появ події   А.

Закон розподілу в цьому випадку має вигляд:

p ( =m) = ,     λ > 0  - параметр розподілу,  m = 0, 1, 2, ...                                                (5)

Покажемо, що сума ймовірностей дорівнює одиниці.

                        .

Аналогічно можна показати, що математичне сподівання  й дисперсію відповідно рівні  ,

                                  М () = ,   D () = .

Закон Пуассона називають законом рідких подій.

Лекція 7,8.

                                                  Неперервні випадкові величини.

Щільність розподілу .

        Щільність розподілу  ймовірностей  f(x)  характеризує ймовірність попадання випадкової величини в деякий  інтервал. Ця ймовірність дорівнює площі фігури, розташованої  між віссю абсцис і графіком функції  f(x)  на інтервалі ( Рисунок 8). Зазначимо,  що функція     f(x) = .

                                            Рисунок  8. Щільність розподілу  ймовірностей  f(x)  

Щільність розподілу має наступні властивості:

1.    f (x) >0

2.     

3.      p( a

4.      f(x) =    в точках неперервності функції f(x).

Поняття функції розподілу, математичного сподівання й дисперсії мають такий же смисл, як у дискретному випадку, а обчислюються відповідно за формулами (6) - (8).

                                                                                                                               (6)

M () =                                                                                                                            (7)

D() =                                                                         (8)

Приклад 13. Випадкова величина , що  розподілена за законом , який визначається щільністю розподілу ймовірностей  виду

                       f (x) =                                                                  

Знайти  параметр a,  F(x),   M () ,   D() .

Параметр a  знайдемо із  властивості , інтеграл розіб'ємо на суму трьох інтегралів

                 

Намалюємо графік щільності розподілу   f (x)  (Рисунок 9)

                                                     Рисунок 9. Графік щільності розподілу   f (x)  

Обчислимо функцію розподілу, для цього розглянемо інтервали  .

1. х (- ∞, 0)     ,

2. х [0, 2]        , 

3. х  (2, )       .

Графік функції наведений на  Рисунку 10.

Обчислимо математичне сподівання й дисперсію:

                     

                                           Рисунок 10. Графік функції розподілу.

Модою випадкової величини   неперервного типу Md,  називається  дійсне число - точка  максимуму щільності розподілу ймовірностей  f(x).

Медіаною випадкової величини   неперервного типу Mn називається дійсне число, що задовольняє рівняння

                                     F(x) = .

Квантилью порядка р розподілу випадкової величини неперервного типу називається дійсне число , що задовольняє рівняння     р = р

   

        Приклади   розподілів безперервної випадкової величини.

  1.  Рівномірний розподіл.

Випадкова величина неперервного типу називається розподіленою рівномірно на відрізку [a,b], якщо її щільність розподілу має від:

                f(x) =                                                                                         (9)

Обчислимо математичне сподівання й дисперсію:           ,

=

Розглянутий в Прикладі 13 розподіл є рівномірним при a = 0   і   b = 1.

2.   Показниковий (експонентний) розподіл:

Випадкова величина називається розподіленою за показниковим (експонентним) законом з параметром  >0, якщо вона неперервного типу і її щільність розподілу задається формулою

                          f(x) =                                                                                   (10)

 Графік функції наведений на  Рисунку11.                  

                                                      

                                            Рисунок 11. Щільність показового (експонентного)  розподілу

Математичне сподівання й дисперсія відповідно рівні:

                             M () = ,      D ()=

3. Закон нормального розподілу.

Випадкова величина називається розподіленою за нормальним законом з параметрами  а  й >0, якщо щільність розподілу ймовірностей має вигляд

                      f(x) = ,                                                                        (11)

Для того, щоб побудувати графік цієї функції, проведемо її дослідження. Обчислимо похідну  

                        .

При x < a >  0, отже на інтервалі  функція зростає, а при x >a   <  0, - функція спадає. У точці  x = a – функція має  максимум.  Графік функції наведений на Рисунку 12.

Важливе значення в прикладних задачах має окремий випадок щільності нормального розподілу при  a = 0  і =1

                                                 .                                                                            (12)

Це, так званий, стандартний нормальний розполіл.  Функція  (12) -  парна , тобто

                                                     (-x) = (x).

Для  значень цієї функції є таблиці  ( Додаток 1).

                                               

                                                Рисунок 12. Щільність нормального розподілу.

Обчислимо математичне сподівання й дисперсію:

 ; ; .

При обчисленні інтегралів використані властивості:

1) = 0, як інтеграл від непарної функції в симетричних межах;

2)  =1, як інтеграл від щільності  нормального розподілу з параметрами  a = 0  і  = 1 ( властивість 2 функції щільності розподілу).

Аналогічно можна показати, що   D () = 2 . Параметри  a  і  збігаються з основними характеристиками розподілу. Надалі, якщо щільність розподілу випадкової величини  має вигляд (11), то для стислості будемо записувати   ~ N ( ).

Ймовірність попадання випадкової величини в інтервал  обчислюється за формулою

         ,                             (13)

де - функція  Лапласа  

                                        ,                                                                           (14)

функція  нормального розподілу  N(0,1), для цієї функції є таблиці (Додаток 2).

Відзначимо, що

                                           Ф(-x) = 1 - Ф(x)                                                                                 (15)

Приклад 14.  Коробки із шоколадом упаковують автоматично. Їхня середня маса дорівнює 1,06 кг. Відомо, що 5 % коробок мають масу менше 1 кг. Який відсоток коробок, маса яких перевищує 940 р. (вага коробок розподілена нормально)?

В умовах задачі  параметр  а = 1,06, параметр -невідомий. Розглянемо випадкову величину  ( - маса коробок. Потрібно визначити

p ( > 0,94), тобто  p ( > 0,94) = p (0,94 < < + ∞)  

    

З таблиці Додатка 2 визначимо , за формулою (14) маємо

= 1- , тоді  p (0,94 < < + ∞)  1-1+ = .

Параметр   знайдемо з умови      р ( < 1) = 0,5

тобто    1-  звідки одержимо ) = 0,95.

За таблицею Додатка 3 визначимо   = 1,645, тоді  з рівності  знайдемо значення . Остаточно одержимо

                         .

4. Розподіл Парето

Розподіл Парето використовується при вивченні розподілу доходів, що перевищують деякий граничний рівень x0.

f(x) =  x0 < x < ∞,      α > 0, х0 > 0 – параметри розподілу,                               (16)

При  математичне сподівання і дисперсія визначаються за формулами

                          M(ξ)= ,  D(ξ)= .

                                             Моменти випадкових величин.

Початкові моменти.

Початковим моментом порядка k називається математичне сподівання k-ого ступеня випадкової величини  

                                   = M(ξк),       k = 1,2,…n (16)

υ1=M(ξ), перший початковий момент – це математичне сподівання.

Центральні моменти.

Центральним моментом порядка k  називається математичне сподівання к-ого ступеня відхилення випадкової величини від середнього значення.

                                    μk = М (ξ-М(ξ))k                                                                                                                              (17)

μ1 = М (ξ-М(ξ))= 0

μ2 = М (ξ-М(ξ))2 = D(ξ)

Центральні моменти завжди можна виразити через початкові. Наприклад:

М2= М(ξ-М(ξ))2 = М (ξ2-2ξМ(ξ)+М2(ξ) = М(ξ2) - М(2ξМ(ξ))+М(М2(ξ)) =

= М(ξ2) -2М(ξ)М(ξ)+М2(ξ) = М(ξ2)2(ξ) = υ2 - υ12

Центральний момент порядка k можна виразити через початкові моменти, використовуючи формулу бінома Ньютона.    

Запишемо формули для 3-го й 4-го центральних моментів:

μ3 = υ3 - 3υ1υ2 + 2υ12

μ4 = υ4 - 4υ1υ3 + 6υ1υ22 - 3υ14

Коефіцієнт асиметрії  

                                                                                                                                          (18)

характеризує ступінь асиметричності розподілу. Для симетричного розподілу А=0. При А<0 - лівостороння асиметрія, А>0 - правостороння асиметрія.

Рисунок 13. Асиметрія розподілу

Коефіцієнт ексцесу   

                                                                                                                                   (19)

характеризує ступінь гостроверхості розподілу. Для нормального розподілу  Е=0.

                                                      

Рисунок 14. Ексцес розподілу.

Лекція 9.                             Багатомірні випадкові величини

На тому самому просторі елементарних наслідків можна розглядати не одну, а кілька випадкових величин. Наприклад, підкидають три гральних кубика. Можна розглядати одну випадкову величину  ξ - суму очок, що випали, або три випадкових величини:

ξ1– число очок, що випали на 1-му кубику,

ξ2 – число очок, що випали на 2-му кубику,

ξ3 – число очок, що випали на 3-му кубику.

В економіці, як правило, на показник діє кілька факторів, наприклад, якість продукції залежить від багатьох факторів.

Нехай ξ1, ξ2, … , ξn–система випадкових величин, визначених на множині  .

Функція розподілу системи випадкових величин визначається формулою

                         F(x1, x2, … , xn) = P(ξ1<x1, ξ2<x2, ..... ,ξn<xn),                                                      (20)

де  x1, x2, … , xn    ()

При цьому  F(x1, x2, … , xn) – неспадна функція за кожним аргументом.

Для дискретної системи  випадкової величини закон розподілу  визначається задачім вектора  x1, x2, … ,xn і вектора ймовірностей  ,                      

таких, що    .

Функція розподілу  виражається у вигляді кратної суми

          F(x1, x2, … , xn) = ,                                          (21)

де підсумовування проводиться по всіх можливих значеннях кожної з випадкових величин, для яких  .         

Система ξ1, ξ2, … , ξn   називається неперервною , якщо існує f( x1, x2, … , xn  )  0 така, що для будь-яких x1, x2, … , xn  функцію розподілу F(x) можна представити у вигляді n-мірного  інтеграла

                         F(x) = .                                                                 (22)

Функція  f( )  називається щільністю розподілу ймовірностей системи випадкових величин,

                            f( )  =                                                                     (23)

в точках неперервності.

Випадкові величини   ξ1, ξ2, … , ξn називаються незалежними , якщо для будь-яких

x1, x2, … , xn     незалежні події     .

Для незалежних  ξ1, ξ2, … , ξn   функція розподілу дорівнює добутку функцій розподілу кожної випадкової величини

                        F(x1, x2, … , xn) =                                                            (24)

Також справедливі рівності :

     для дискретних випадкових величин   р =

                                                         =  ,

     для неперервних  випадкових величин    f( ) = .

Основними  числовими характеристиками  n  випадкових величин  є математичні сподівання

                  М( ) =                                                              (25)

і дисперсії

                D( ) =  =  .                                 (26)

Умовним законом розподілу  однієї випадкової величини , що входить у систему, називається закон, знайдений за умови, що інша випадкова величина , що входить у цю же систему , прийняла певне значення. Умовний закон розподілу  задається як функцією розподілу, так і щільністю розподілу. Якщо розглядається  розподіл випадкової величини  ξi  за умови, що інша випадкова величина  ξj  прийняла певне значення, то  умовна функція розподілу  позначається F(x/y), а щільність - f(x/ y). Важливими характеристиками  є  умовні математичні сподівання й умовні дисперсії. Нехай випадкова величина ξi  приймає значення

a = ( ), а випадкова величина ξj   -     b = ( ).

Умовним математичним сподіванням дискретної випадкової величини  ξi при  ξj = b  називають суму  добутків можливих значень  ξi   на їхні умовні ймовірності . Тоді умовне математичне сподівання обчислюється за формулою:

                           M(ξi / ξj =b) = .                                                                               (27)    

Для неперервних випадкових величин

                            M(ξi / ξj =b) = .                                                                             (28)         

Особлива роль у вивченні системи випадкових величин  належить кореляційному моменту

( коваріації). Коваріацією випадкових величин ξi  і   ξj   називається число 

= cov(ξiξj) = M((ξi-M(ξi))(ξj-M(ξj)))=M(ξiξj)-M(ξi)M(ξj) ,        i,j=1,2,…n                          (29)

Для незалежних випадкових величин коваріація дорівнює нулю, тому що  в цьому випадку  M(ξiξj ) = M(ξi)M(ξj).

Очевидно, що  = = D( ),  cov(ξiξj) = cov(ξξ)

Всі парні коваріації становлять симетричну щодо головної діагоналі коваріаційну матрицю розмірністю (n n).

                                    =

Визначник коваріаційної матриці є узагальненою дисперсією системи випадкових величин.

Розглянемо систему тільки двох випадкових величин, нехай ξ1, ξ2. Нехай випадкова величина ξ1 приймає значення з множинаі X , ξ2з множинаі Y, ( X,Y) -  дійсні числа. Мірою лінійної залежності двох випадкових величин  ξ1, ξ2   є коефіцієнт кореляції

                                                          ,                                                           (30)

Властивості коефіцієнта кореляції:

1. |ρ| .

2. |ρ|=1  тоді й тільки тоді, коли між випадковими величинами існує

лінійний функціональний взаємозв'язок

                                             y = аx + b,                                                                                         (31)

де             ,                    

причому, якщо ρ = 1, то a > 0, якщо  ρ = -1, то a < 0  ( Рисунок 15)

Для незалежних випадкових величин ρ = 0, але обернене твердження невірне, тому що між випадковими величинами може бути  інший тип взаємозв'язку (нелінійний). Чим ближче значення ρ до нуля, тим слабкіше лінійний взаємозв'язок, чим ближче по модулю до одиниці,  тим - сильніше. Якщо ρ = 0, то говорять, що випадкові величини  некорельовані. Можна показати, що якщо нормально розподілені випадкові величини некорельовані, то вони  незалежні.

    

                                             

                     Рисунок 15. Лінійний функціональний взаємозв'язок

.

Нехай –1<ρ<1 і ρ≠0. Якщо нанести точки (X,Y) на координатну площину Xo, то можна помітити, що ці точки групуються навколо деякої прямої  y = ax + b. Обчислимо коефіцієнти  a,b ції прямої за умови, що дисперсія відхилень точок (X,Y) від точок на прямій була мінімальна.

                                                                    .

                                                                   .

                                                        .

                                                 .

                                               .                           

                           Рисунок 16. Графік рівняння регресії.

Рівняння, щодо якого дисперсія мінімальна, називається рівнянням регресії. Розглядаючи дисперсію як функцію від двох змінних  a  і  b  скористаємося необхідною умовою екстремума

                             

Розв’язуючи цю систему відносно a  і  b, одержимо

      ,     , рівняння регресії  -  y = (Рисунок 16),

при цьому дисперсія   ,  і вона є мінімальною.

Таким чином, рівняння регресії  в = , дає найкраще лінійне подання  ξ2   по ξ1.

Кількісною характеристикою нелінійного взаємозв'язку випадкових величин ξ1, ξ2  є кореляційне відношення. Коефіцієнт кореляційного відношення ξ2 по ξ1  обчислюється за формулою:      

                                 ,                                                                   (32)

де - умовна дисперсія, що характеризує розсіювання  ξ2 навколо умовного математичного сподівання  .                                                                         

Властивості кореляційного відношення:

1. .

2. η =0  відповідає некорельованим випадковим величинам.

3. η=1,тоді й тільки тоді , коли   має місце функціональна залежність між  ξ1  і ξ2. У випадку лінійної залежності  ξ2 від ξ1  кореляційне  відношення збігається із квадратом коефіцієнта  кореляції.

Кореляційне відношення несиметрично відносно ξ1  і ξ2 , тому поряд з   розглядається  , що визначається аналогічно. Між  і   немає якої-небудь простої залежності.

Тепер розглянемо сукупність n  випадкових величин . Можна обчислити коефіцієнти кореляції ρij між кожною  парою випадкових величин. Вони  складуть кореляційну матрицю

                                       

ρijji, i≠j тобто матриця симетрична відносно головної діагоналі.

Взаємозв'язок якої-небудь випадкової величини ξi з усіма іншими випадковими величинами характеризується множинним коефіцієнтом кореляції

                                                                                                                (33)

|R| - визначник матриці  R,

Rjj –  алгебраїчне доповнення, що відповідає елементу кореляційної матриці   ρjj,

                                                         .

Лекція 10,11.                                  Граничні теореми.

Локальна гранична  теорема Муавра-Лапласа.

Нехай проводиться n незалежних випробувань. У кожному випробуванні можливі два результати: або наступить подія A , або . Якщо ймовірність настання події постійна й дорівнює  р (0<p<1), то ймовірність

                  =         при                 

рівномірно для тих  m , для яких     

                                           

знаходиться в якому-небудь скінченому інтервалі.

Практичне значення теореми полягає в тому, що вона дозволяє обчислити біноминальні ймовірності  Р(n,m)   при великому значенні  n. Теоретичне значення цієї теореми наступне: дискретний біноміальний розподіл при великих значеннях n можна замінити неперервним нормальним  розподілом тобто кількість переходить у якість.

Приклад 15. Імовірність того, що верстат-автомат зробить якісну деталь дорівнює 8/9. За зміну він виготовляє 280 деталей. Визначити ймовірність того, що серед них 20 бракованих.

Розв’язок.   n=280, m=20, p=8/9, q=1/9. За формулою Бернуллі цю ймовірність обчислити важко, тому використаємо  локальну теорему Муавра-Лапласа:

           ,

де     ,         значення - визначено За таблицею  Додатка 1, φ(-2,11) =  φ (2,11) = 0,043.

Інтегральна  гранична теорема Муавра-Лапласа 

Нехай провадиться n незалежних випробувань. У кожному випробуванні можливі два результати: або наступить подія A , або . Якщо ймовірність наставання події постійна й дорівнює  р (0<p<1), то при  для будь-яких a і b:

                  ,

де   - функція Лапласа.

Ця теорема  застосовується при обчисленні ймовірностей  .

.                    (34)

Приклад 16.   У страховій компанії застраховано 10000 автомобілів. Імовірність поломки будь-якого автомобіля в результаті аварії дорівнює 0,006. Кожний власник застрахованої машини платить у рік 12 грн. страхових і у випадку її поломки в результаті аварії одержує від компанії 1000 грн. Знайти ймовірність того, що після закінчення року роботи компанія зазнає збитку.

Подія  A - компанія зазнає збитку, n = 10000, p(A) = 0,006,  q = 0,994.

Щорічно кампанія одержує від клієнтів  S= 10000*12=120000 грн.

Позначимо   m - число автомобілів, які зазнали  аварію.

Тоді компанія повинна виплатити суму, рівну

                             R =  m 1000 грн.

Потрібно знайти  Р(А) = P(R > S) = P(1000m > 120000) = P(m>120).

Перейдемо до протилежної події Ā – компанія не зазнає збитків,  і знайдемо ймовірність  

Застосуємо інтегральну теорему Муавра-Лапласа

Таким чином,  P(A) = 1-Р(A ) = 1 - 1=0, тобто ймовірність того, що компанія зазнає збитку дорівнює нулю.

                                                    Закон великих чисел

Закон великих чисел - це є цілий ряд теорем, які встановлюють умови збіжності середнього арифметичного випадкових величин до середніх арифметичних їхніх математичних сподівань.

Розглянемо послідовність випадкових величин .  

Послідовність збігається за ймовірностю до деякого числа b при n→ ∞, якщо

                               

Теорема Чебишева

Нехай  - послідовність незалежних випадкових величин, дисперсії яких обмежені деяким числом c :   c , i=1,2..,n Тоді при n → ∞   для будь-якого

                             

Це твердження можна записати інакше, в еквівалентній формі.

                           ,                                                                      (35)

яку використовують при розв’язанні прикладних завдань.

Зокрема, звідси випливає твердження ( теорема Хінчина):

Якщо   - послідовність попарно незалежних випадкових величин з однаковим математичним сподіванням  a   і дисперсією σ2, то при n → ∞   для будь-якого

                         ,

або в еквівалентній формі

                                                                                                         (36)

Теорема Бернуллі.

Застосуємо теорему Хінчина до випадкової величини  = m – число появ події  А в серії  n  незалежних випробувань. Представимо цю випадкову величину  у вигляді суми  попарно незалежних, однаково розподілених  випадкових величин   ,

                               і =                           (37)

                            = m =                                                                                                                                         

Імовірності  р(А) = р,   р( ) = 1 -  р = q ,  М( ) = р,  D( ) = pq.   Тоді при

n → ∞  і для будь-якого

                                    ,

або в еквівалентній формі

                                   .                                                                            (38)

Зміст цієї теореми полягає в тому, що відносна частота появи події за ймовірностю збігається до ймовірності цієї події.

Узагальненням теореми Бернуллі на випадок, коли випробування відбуваються при  неоднакових умовах, що викликає зміну ймовірності появи події  А, є  теорема Пуассона.

Теорема Пуассона.

Розглянемо послідовність n  незалежних випробувань , у кожному з яких подія  А  наступає з імовірністю  р ,  i=1,2,…n... Міркуючи так само,

як і в попередньому випадку, одержимо   М( ) = р ,  D( ) = р q . За теоремою Чебишева одержимо

                              ,   де  = , тобто відносна частота появи події  А  збігається по ймовірності до середньої арифметичної  ймовірностей цієї події в кожному  випробуванні.

Запишемо твердження теореми Пуассона в еквівалентній формі

                              ,                                                                           (39)

де   = m = ,    а   (i=1,2,..n )  визначені у (37).

Розглянемо  приклад на застосування закону великих чисел.

Приклад 17. з 100 виробів, що відправляють у складальний цех, було піддано обстеженню 200, відібраних випадковим образом. Серед них виявилося 25 бракованих. Прийнявши частку бракованих виробів серед відібраних, за ймовірність виготовлення бракованого виробу, оцінити ймовірність того, щоу всій партії бракованих виробів виявиться  в межах  від 15%  до 20%.

Для розв’язання задачі використаємо  нерівність (38). Ймовірність виготовлення бракованого виробу  умовно задачі   . Потрібно знайти ймовірність

Р( 0,10  0,15). Віднімемо  в кожній частині нерівності  р=0,125, одержимо

Р(0,10 – 0,125  0,15– 0,125) = Р(– 0,025  0,025)  або

                .

Перша нерівність Чебишева.

Якщо випадкова величина   має скінчений перший абсолютний момент

, то

                                          .                                                                             (40)

Зокрема, якщо   й існує , то

                                           .                                                                                 (41)

Друга нерівність Чебишева.          

Якщо існує ,  то   справедливо нерівність

                                                                                                                        (42)

або                          .                                                                               (43)

Приклад 18.  Для деякого автопарку середнє число автобусів, що відправляють  у ремонт після місяця експлуатації на міських лініях , дорівнює 5. Оцінити ймовірність того, що після закінчення місяця в даному автопарку буде відправлено в ремонт менше 15 автобусів, якщо інформація про дисперсію відсутня.

Застосуємо першу нерівність Чебишева , тому що   , а дисперсія невідома.    За умовою задачі = 5. Потрібно знайти ймовірність  . Перейдемо до протилежної події й обчислимо   ) за формулою (41)

                         ,

а шукана ймовірність  =1 -  = 1- 0,33 = 0,67.

Приклад 19. Число    сонячних днів у році  для даної місцевості  є випадковою величиною із середнім значенням 100 днів і середньоквадратичним відхиленням 20 днів. Оцінити ймовірність події  А = ( 150).

Оскільки тут відома дисперсія  D( ) = 20=400, застосуємо  другу нерівність Чебишева (43)

             .

Смисл теорем, що відносяться до  закону великих чисел полягає в тому, що середня арифметична великої кількості випадкових величин практично вже не є випадковою величиною, практично вона постійна, тобто вона має новий якісний стан. Прикладів нових якісних станів, як прояв закону великих чисел , можна привести дуже багато. Закон великих чисел лежить в основі різних видів страхування (страхування життя, майна й ін.). Чим більше застраховано об'єктів, тим надійніше можна встановити співвідношення між страховими внесками й виплатами. При плануванні асортиментів ряду товарів широкого вжитку враховується попит на них населення. У цьому попиті проявляється чинність закону великих чисел

Лекція 12                             МАТЕМАТИЧНА СТАТИСТИКА

Основні поняття математичної статистики.

Математична статистика  спрямована на одержання науково обґрунтованих висновків про масові явища й процеси за даними спостережень над ними. Нехай спостерігається  випадкова величина  в деякому випадковому експерименті. Генеральною сукупністю називається множина всіх можливих значень спостережуваної випадкової величини. Закон розподілу випадкової величини  називається розподілом генеральної сукупності. Повторимо експеримент  n  раз, припускаючи, що умови проведення експерименту, а отже, і розподіл спостережуваної випадкової величини  не змінюються від експерименту до експерименту. Числа   , одержувані на практиці при n- кратному  повторенні експерименту в незмінних умовах, називаються вибіркою  обсягу  n. Числові характеристики генеральної сукупності, називаються теоретичними, а вибіркові характеристики називаються емпіричними. Аналогічно визначається вибірка у випадку , коли випадковий експеримент  пов'язаний з декількома випадковими величинами. Наприклад, вибірка обсягу n із двовимірної  генеральної сукупності є послідовність   пар значень випадкових величин , прийнятих ними в n  незалежних повтореннях випадкового експерименту.

Основними  задачіми математичної статистики є:

  1) знаходження розподілу спостережуваної випадкової величини й, зокрема, оцінювання параметрів розподілу;

  2) перевірка статистичних гіпотез;

  3) вивчення залежності між ознаками;

Методи  статистичного опису результатів спостережень.

Результати спостережень    генеральної сукупності  , що записані в порядку їхньої реєстрації, звичайно важкі для огляду й незручні для подальшого аналізу. Задачім статистичного описання вибірки є одержання такого їїпредставлення, що  дозволяє виявити характерні риси сукупності вихідних даних.

Вибіркові значення, розташовані в неспадному порядку, називаються варіаційним рядом. Різниця між максимальним і мінімальним елементами вибірки w  називається  розмахом вибірки.

Приклад 20. Записати у вигляді варіаційного ряду вибірку 3,5,1,0,3,4,1,2,2,3,5,4,4,2 і  визначити розмах вибірки.

Варіаційний ряд:  0,1,1,2,2,2,3,3,3,4,4,4,5,5. Розмах вибірки w = 5 - 0 = 5, n=14

Статистичним рядом називається таблиця, у якій зазначені вибіркові  значення й частота їхніх появ у вибірці:

                    x  x…x

                   m m…m   ,                де    n =  .                

Для варіаційного ряду , розглянутого у Прикладі 20, одержимо статистичний ряд   

        

            0 1 2 3 4 5

            1 2 3 3 3 2    ,    n =  = 14 .                

При великому обсязі вибірки її елементи поєднуються в групи, представляючи результати експериментів у вигляді групованого статистичного ряду. Для цього інтервал, що містить всі елементи  вибірки, розбивається на  декілька інтервалів. Обчислення значно спрощуються,, якщо  ці інтервали мають однакову довжину . Рекомендації з кількості інтервалів (груп)  наведені в Таблиці 4. Після того як часткові інтервали обрані, визначають частоти – кількість m елементів вибірки, що потрапили в i – ий інтервал

(елемент, що збігається з верхньою границею інтервалу , відносять до наступного інтервалу).

                             Таблиця 4. Рекомендації з кількості груп в залежності від кількості даних

Кількість   

даних

Кількість

груп

25-40

5-6

40-60

6-8

60-100

7-10

100-200

8-12

200-500

і більше

10-15

Поряд із частотами, підраховуються накопичені частоти  , а також відносні частоти й накопичені відносні частоти  , де    i – номер інтервалу , i = 1,2,…k... Всі обчислення зводяться в таблицю, яка називається таблицею частот  згрупованої вибірки.

Приклад 21. Представити вибірку спостережень у вигляді таблиці частот. Вибірка:

  1.  60  41  51  33  42  45  21  53  60

68  52  47  46  49  49  14  57  54  59

77  47  28  48  58  32  42  58  61  30

61  35  47  72  41  45  44  55  30  40

67  65  39  48  43  60  54  42  59  50

У цьому  випадку  обсяг вибірки  n = 50, розмах  w = 77-14 = 63. Відповідно до Таблиці 4 число груп можна взяти від  6  до 8, тут зручно вибірку розбити на  7 груп, тоді довжина інтервалів буде 63/7 = 9. За перший інтервал приймемо інтервал 14 - 23. Результати групування зведені в Таблицю 5.

Таблиця 5. Таблиця частот групованої вибірки.

  Номер

інтервалу

     i

Границі

інтервалу

Середина

інтервалу

     z

Частота

   m

Накопичена

 частота

     

Відносна

частота

  m /n

Накопичена

відносна частота

 

    1

14 - 23

18,5

2

2

0,04

0,04

    2

23 - 32

27.5

3

5

0,06

0,10

    3

32 -41

31,5

6

11

0,12

0,22

    4

41 -50

45,5

17

28

0,34

0,56

    5

50 -59

54,5

10

38

0,20

0,76

    6

59 -68

63,5

9

47

0,18

0,94

    7

68 -77

72,5

3

50

0,06

1,00

 

Статистичні ряди можна представити  графічно. Для звичайного статистичного ряду графічне зображення називається полігоном. Полігон будується в такий спосіб: на осі Ox відкладається значення ознаки , а на Oy –  частота ), а потім отримані точки з'єднуються відрізками прямої лінії. Побудуємо полігон для варіаційного ряду, розглянутого в Прикладі 20 ( Рисунок  17).    

                                                                   Рисунок  17. Полігон

                          

Згрупована вибірка представляється у вигляді гістограми, що будується так: по осі Ох відкладаються інтервали, а потім на цих інтервалах будуються прямокутники з висотою, рівній частоті даного інтервалу. Побудуємо гістограму за результатами Таблиці 5.

                                                             Рисунок 18. Гістограма частот.

Нехай   -  вибірка з генеральної сукупності з функцією розподілу  F(x). Розподілом вибірки називається розподіл дискретної випадкової величини, що приймає значення   з ймовірностями 1/n. Відповідна функція розподілу називається  емпіричної (вибіркової) функцією розподілу й позначається  . Емпірична функція розподілу визначається за значеннями накопичених частот співвідношенням

                                                                 ,                                                           (44)

де підсумуються частоти тих елементів вибірки, для яких виконується нерівність  x < x.

Розподілом двовимірної вибірки називається розподіл двовимірного дискретного випадкового вектора ( ) , що приймає значення  ( , i=1,2,…,n, з ймовірностями, рівними  1/n.

Лекція 13.

Числові характеристики вибіркового розподілу.

       Нехай    - вибірка обсягу  n   з генеральної сукупності з функцією розподілу  F(x).  Розглянемо вибірковий розподіл, тобто розподіл дискретної випадкової величини , що приймає значення   з ймовірностями, рівними  1/n. Числові характеристики цього вибіркового розподілу називаються  вибірковими (емпіричними) характеристиками.

Слід зазначити ,що вибіркові числові характеристики є характеристиками даної вибірки, але не є  характеристиками розподілу генеральної сукупності. Щоб підкреслити це розходження, вибіркові характеристики  надалі будемо позначати зі значком *  нагорі. Тоді, використовуючи формули  параграфа «Числові характеристики випадкових величин» , одержимо

                                        m* = ,                                                                                           (45)

      D* = .                                             (46)

Для статистичних рядів формули (1) і (2) перетворяться відповідно

                                        m* = ,    ,                                                                  (47)

                                        D* = .                                                                   (48)

Обчислимо  m* і  D* для статистичного ряду, наведеного в Прикладі 20.

Всі обчислення зведемо в Таблицю 6.

                                     Таблиця 6. Допоміжні обчислення

 

   

 

 

 

0

1

0

0

1

2

2

2

2

3

6

12

3

3

9

27

4

3

12

48

5

2

10

50

14

39

139

Отримані дані підставимо у формули (47) і (48), одержимо

              m* =  ,     D* =

             

Вибірковою модою  Md*  унімодального ( одновершинного ) розподілу називається  елемент вибірки, що зустрічається з найбільшою частотою.                    

Вибірковою медіаною називається число Mn* , що ділить варіаційний ряд на дві частини, що містять рівне число елементів.

Вибіркові коефіцієнти  асиметрії й ексцесу обчислюються за формулами

                                                             А* =  ,                                                                          (49)                                                                                                     

                                                           Е* = .                                                                       (50)

Вибіркові  числові характеристики двовимірної вибірки  обчислюються як відповідні числові характеристики  двовимірного випадкового вектора ( ) дискретного типу, з огляду на те що значення ( , i=1,2,…,n, вектор  приймає  з ймовірностями, рівними  1/n. Вибіркові середні  й дисперсії    знаходяться за формулами (45) і (46), а вибірковий коефіцієнт кореляції  за формулою

                                                                                                                    (51)

Приклад 22. Обчислити вибіркові середні, дисперсії й коефіцієнт кореляції для вибірки , наведеної в Таблиці 7.

                                                    Таблиця 7. Двовимірного вибірка

x

1

2

3

4

5

y

1

1

5

3

4

Обчислення  зручно виконувати в наступній послідовності:

                       ,

потім обчислити  й   і, нарешті . Обчислення звичайно зводяться в Таблицю 8.

                                    Таблиця 8. Допоміжні обчислення

1

1

1

1

1

 

1

4

1

2

3

5

9

25

15

4

3

16

9

12

5

4

25

16

20

15

14

55

52

51

                                   

Підставляючи  знайдені суми у формули (1) і (2) одержимо:

                    

                               .

Вибіркова лінійна регресія   визначається рівнянням

                                .

Для нашого приклада   .

Аналогічно визначається вибіркова лінійна регресія

                                .

Для нашого приклада

                                .

Поле точок і прямі регресії зображені на Рисунку 19.

            

                                              Рисунок 19. Поле точок і прямі регресії

                                           

Лекція 14.                    Методи оцінювання параметрів

Точкові оцінки і їхні властивості. Метод підстановки.

Основне задачі математичної статистики полягає  в знаходженні розподілу спостережуваної випадкової величини   за даними вибірки. У багатьох випадках вид розподілу   можна вважати відомим, і задачі зводиться до одержання наближених значень невідомих параметрів цього розподілу. Нехай  - щільність розподілу  випадкової величини  , що містить  один невідомий параметр , а   - вибірка спостережень цієї випадкової величини. Точковою оцінкою  параметра   називається наближене значення цього параметра, отримане за вибіркою. Точкова оцінка виражається числом . Очевидно, що оцінка  є значення деякої функції елементів вибірки, тобто

                                                      = ( ).  

Будь-яку функцію елементів вибірки  називають статистикою. Якість оцінок характеризується наступними основними властивостями:

1) Незміщенність.   Оцінка  називається  незміщеною оцінкою  параметра , якщо її математичне сподівання  дорівнює оцінюваному параметру, тобто М( )= .

2) Ефективність.    Для оцінки параметра  може бути запропоновано кілька незміщених оцінок. Мірою точності незміщеної оцінки  вважають її дисперсію  D( ). Нехай -  різні незміщені оцінки параметра . Незміщена оцінка   параметра , дисперсія якої досягає свого найменшого значення, називається ефективною.

3) Спроможність.  Оцінка   = ( ) називається спроможною, якщо   збігається за ймовірностю до  при   тобто     .

Це означає, що при великій кількості спостережень оцінка збігається до дійсного  значення параметра.

          Найпростіший метод статистичного оцінювання – метод підстановки або аналогії – полягає в тому, що за оцінку тієї або іншої числової характеристики (середнього, дисперсії й ін.) генеральної сукупності приймають відповідну характеристику розподілу вибірки - вибіркову характеристику.

Нехай  - вибірка з генеральної сукупності з кінцевими математичним сподіванням  m  і дисперсією . По методу підстановки  одержимо оцінку  математичного сподівання   й  

                                           = m* =                                                                                 (52)

              =  D*  =                              (53)        

Оцінка  є незміщеною й спроможною, а у випадку нормального розподілу генеральної сукупності - ефективною. Оцінка  є зміщеною й спроможною  , а у випадку нормального розподілу генеральної сукупності – ефективною. Щоб  усунути зсув у формулі (53) величину n потрібно замінити на (n-1):

  = D*=                   (54)

Якщо обсяг вибірки n > 30, то можна застосовувати формулу (53) у силу . У випадку спроможності малої вибірки n  30, варто застосовувати формулу (54).

                                 

Інтервальне  оцінювання.

Розподіл , Стьюдента й Фішера.

  1.  Розподіл .

 Розглянемо послідовність випадкових величин    , причому  ξ~N(0,1). Розподілом  з n порядками волі   називається розподіл випадкової величини   (n)= . Графік щільності розподілу (n) наведений на  Рисунку 20. Математичне сподівання й дисперсія відповідно рівні:    ,  

Рисунок 20. Графік щільності розподілу (n)

При більших значеннях n >30  розподіл  збігається до нормального розподілу. Для розв’язання прикладних завдань використовуються квантилі , таблиця яких наведена в Додатку 3.

  1.  Розподіл Стьюдента.

Нехай   послідовність нормально розподілених випадкових величин, ~N(0,1) і випадкова величина  ξ~N(0,1). Розподілом  Стьюдента з n порядками волі називається розподіл випадкової величини

              ,    де чисельник і знаменник – незалежні випадкові величині  

Графік розподілу наведений на Рисунку21. Математичне сподівання й дисперсія відповідно рівні:

                                         M(t(n))=0 ,     D(t(n))=n/(n-2),   n>2.

Щільність розподілу Стьюдента симетрична відносно осі ординат, отже, для квантилей   має місце співвідношення

                                                    =- .                                                                         (55)

У Додатку 4 наведена таблиця квантилей розподілу Стьюдента.

При  n > 30 розподіл Стьюдента  також збігається до нормального розподілу.

Рисунок 21. Щільність розподілу Стьюдента

  1.  Розподіл Фішера.

Розподілом Фішера зі  порядками волі називається розподілом випадкової величини

                                  .

Математичне сподівання й дисперсія дорівнюють:

                                 M  ,       

                                 D  ,     

Графік щільності розподілу наведений на  Рисунку 22 .

Рисунок 22. Графік щільності розподілу Фішера.

Квантилі розподілу Фішера порядку  р  і  1-р    зв'язані співвідношенням

                                                       .                                                      (56)      

Таблиці квантилей наведені в Додатку 5.

       При малих вибірках (n < 30) точкова оцінка може виявитися ненадійною. У цьому випадку будується інтервал оцінок, що називається довірчим інтервалом.

Лекція 16,17                            Довірчий інтервал       

Довірчий інтервал ( ) це інтервал,  який із заданою ймовірністю p= 1- містить невідоме значення параметра , тобто

                                                Р( ) = 1- .

Число 1- називають довірчою ймовірністю, а значення  - рівнем значущості. Вибір довірчої ймовірності визначається конкретними умовами. Звичайно використовуються значення  p= 1- , рівні 0,90; 0,95; 0,99.

Один з методів побудови довірчих інтервалів полягає в наступному.

Припустимо ,що існує статистика z = z( ) така, що

1) закон  розподілу  z  відомий  і не залежить від ;

2)  Функція   z( )  неперервна й строго монотонна по ;

3) нехай p= 1- - задана ймовірність, а  - квантилі розподілу статистики z порядків . Тоді з імовірністю 1- виконується нерівність

                                           z( ) < .                                                                     (57)

Ров’язуючи нерівність (57) відносно , знайдемо границі  довірчого інтервалу для . Якщо щільність розподілу статистики z, симетричний відносно осі ординат, то довірчий інтервал має найменшу довжину, а якщо розподіл несиметричний, то довжину близьку до найменшої.

        Побудуємо  довірчий інтервал для математичного сподівання нормально розподіленої  генеральної сукупності .                                 

Нехай спостерігається ξ ~ N(a,σ), параметри а й  σ - невідомі. Розглянемо статистику

                                            

Ця статистика має розподіл Стьюдента з n-1 ступенем волі й, що не залежить від параметра  а. Крім того статистика  z  як функція від а неперервна й строго монотонна. Задамо довірчу ймовірність р =1-  . Тоді  відповідно до  (57) має місце нерівність

                                                                                                (58)

Ров’язуючи нерівність (58) відносно  а й з огляду на властивість (55) квантилей розподілу Стьюдента одержимо, що з імовірністю 1- виконується умова                   

                        ,                                                     (59)

де й  -точкові оцінки, отримані методом підстановки за формулами відповідно (52) і (53),  -квантиль розподілу  Стьюдента з n-1 ступенем волі.

        Знайдемо довірчий інтервал для параметра . Розглянемо статистику  

                                                     ,

вона має розподіл   з  (n-1) ступенем волі, не залежить від параметра ,  неперервна  й монотонна по    . Задамо довірчу ймовірність   р =1- , тоді відповідно до  (57) має місце нерівність

                                        .

Ров’язуючи цю нерівність відносно , одержимо довірчий інтервал для дисперсії при довірчій імовірності р =1-                               

                                 ,                                                          (60)

де   -оцінка параметра дисперсії, отримана за формулою (53), а - за формулою (52).

      Якщо розподіл генеральної сукупності не є нормальним, то за вибірками великого обсягу можна побудувати довірчі інтервали для невідомих параметрів  приблизно, використовуючи при цьому граничні теореми теорії ймовірностей та асимптотичні розподіли й оцінки, яки з них випливають. Розглянемо приклад.

       Нехай в  n  незалежних випробуваннях подія  А  наступила  m  раз . Знайти довірчий інтервал для ймовірності  р  настання події  А.   Ефективною оцінкою для  р  є відносна частота   . За теоремою  Муавра-Лапласа  відносна частота h має асимптотично нормальний розподіл      N(p, ),  де  q=1-p.

Розглянемо статистику   z =( h-p)/ ,  що має асимптотично нормальний розподіл N(0,1) незалежно  від значення  р. При великих значеннях  n  має місце наближена рівність

                                          P .

Звідси одержуємо , що з імовірністю   виконується нерівність

                             .                                                              (61)

Заміняючи значення  p і  q  у лівій і правій частинах нерівності (15) їхніми оцінками

, одержуємо , що довірчий інтервал  для ймовірності p приблизно  має вигляд

                      .                                                     (62)

Приклад 23. При перевірці 100 виробів з великої партії виявлено 10 бракованих деталей. Знайти  95% довірчий інтервал  для частки бракованих деталей  у всій партії.

Оцінка частки бракованих деталей у партії за вибіркою дорівнює  =10/100=0,1.

За таблицею Додатка 1 знайдемо  квантиль = 1,96. За формулою (16)  95%-довірчий інтервал для частки бракованих деталей у партії  приблизно має вигляд  

0,1- 1,96 < p < 0,1 +      і остаточно    0,041 <  p  <  0,159.

Наближений довірчий інтервал для  параметра  в розподілі Пуассона  має вигляд

                                                                             (63)

Приклад 24. На кожній з 36 АТС міста в період із двох до трьох годин було зафіксовано в середньому   2  виклика. Вважаючи, що число викликів для кожної АТС має розподіл Пуассона з тим  самим параметром  , приблизно знайти довірчий інтервал  для  з довірчою ймовірністю 0,9.

За умовами задачі    = 2,   = = 1,645 . За формулою (63) одержимо

                 2  -  1,645 <  <  2  +  1,645    або     

                                        1,61  <  <  2,39

                                   Перевірка статистичних гіпотез   

  

         Під статичною гіпотезою розуміють усяке припущення про генеральну сукупність, що перевіряється за вибіркою. Статистичні гіпотези класифікують на гіпотези про закони розподілу й гіпотези про параметри розподілу. Так, наприклад, гіпотеза про те, що продуктивність праці робітників, які виконують однакову роботу в однакових  організаційно-технічних умовах , має нормальний закон розподілу, є гіпотезою про закон розподілу. Гіпотеза про те, що середні розміри деталей, вироблених на однотипних , паралельно працюючих верстатах, не розрізняються між собою, є гіпотезою про параметри розподілу.

    Одну із гіпотез виділяють у якості основної й позначають Н0. Разом  з основною завжди розглядається альтернативна ( конкуруюча) гіпотеза, що позначається  Н1. Вибір альтернативної гіпотези визначається конкретним формулюванням задачі. На основі статистичних даних дуже важко, а іноді й неможливо зробити безпомилкові висновки. Помилки при перевірці гіпотез бувають 2-х видів :

  •  помилка 1-го роду полягає в тому, що відхиляється гіпотеза Н0 у той час як вона вірна;
  •  помилка 2-го роду  полягає в тому, що відхиляється альтернативна гіпотеза в той час як вона вірна;

   При перевірці статичних гіпотез на основі статистичних даних важливо знайти такий спосіб, щоб ймовірність помилок була мінімальна. Правило, за якім приймається рішення прийняти або відхилити гіпотезу  Н0 , називається  критерієм  К. Перевірка статичних гіпотез ґрунтується на принципі, відповідно до якого малоймовірна подія вважається неможливою, а подія, що має велику ймовірність – достовірною. Цей принцип реалізується в такий спосіб: фіксується деяка ймовірність ( з найпоширенішим рівнем значущості 0,05; 0,01; 0,25; 0,001, потім підбирається деяка статистика z, що формально відбиває зміст гіпотези й розподіл якої відомо. Нехай V – множина значень статистики  z. Всю множину значень статистики z  можна розбити на дві підмножини, таких, що:

-  гіпотеза, що перевіряється, повинна бути відкинута, якщо значення z попадає в одну з підмножин, яка  називається критичною областю V. За умови істинності гіпотези  Н0 ймовірність попадання статистики в V дорівнює  , тобто  .

- гіпотеза Н0 , що перевіряється,  повинна бути прийнята, якщо значення z попадає в підмножину V \ V . Ця підмножина називається областю припустимих значень.

     Позначимо через   вибіркове  значення статистики  z , що обчислене за вибіркою спостережень. Критерій формулюється наступним способом :

-  відхилити гіпотезу Н0 , якщо  ; 

-  прийняти гіпотезу Н0 , якщо   .

Критерій, заснований  на використанні заздалегідь заданого рівня значущості, називають критерієм значущості. Рівень значущості визначає «розмір» критичної області V .

     Основні задачі при перевірці статистичних гіпотез зводяться до відшукання критичної області й області припустимих значень із деякою заданою ймовірністю. Положення критичної області Vk на множині значень статистики zв залежить від альтернативної гіпотези Н1.

          Нехай f(z/ Н0) щільність розподілу статистики  z  критерію за умови, що вірна гіпотеза Н0. Перевіряється гіпотеза   , альтернативна  . Положення критичної області показано на  Рисунку  23.

Рисунок 23. Положення критичної області у випадку ,   

Границя критичної області   - квантиль розподілу статистики f(z/ Н0).

Тепер нехай альтернативна   . Розташування критичної  області в цьому випадку показано на Рисунку 24. У розглянутих випадках критерій називається однобічним. При альтернативі   критична область показана на  Рисунку 25. Критерій у цьому випадку називається двостороннім.   - квантилі розподілу статистики   f(z/ Н0).

Рисунок 24. Положення критичної області у випадку ,

Рисунок 25. Положення критичної області у випадку,.

Таким чином, перевірка статистичної гіпотези за допомогою критерію значущості може бути розбита на наступні етапи:

  1.  сформулювати гіпотезу Н0, що перевіряється і альтернативну  гіпотезу Н1;
  2.  вибрати рівень значущості  ;
  3.  вибрати статистику  z  критерію для перевірки гіпотези Н0;
  4.  визначити вибірковий розподіл статистики  z  за умови, що вірна гіпотеза Н0;
  5.  залежно від формулювання альтернативної  гіпотези визначити критичну область V одним з нерівностей    або сукупністю нерівностей  ;
  6.  отримати вибірку спостережень і обчислити статистики критерію;
  7.  прийняти статистичне рішення:

якщо , то відхилити гіпотезу Н0 як таку, що не узгоджується з результатами спостережень;

якщо   , то прийняти гіпотезу Н0 , тобто вважати, що гіпотеза Н0 не суперечить результатам спостережень.

Зауваження. Звичайно на етапах  4) - 7) використовують статистику , квантили якої табульовані  , тобто є таблиці квантилей.

Розглянемо кілька прикладів.

Нехай спостерігаються  випадкові величини, кожна з яких підкоряється нормальному розподілу

Нехай є  дві незалежні вибірки обсягами  n і  n :

                                і   

Перевіримо гіпотезу, яка полягає в тім , що математичні сподівання обох випадкових величин однакові в припущенні, що  - невідомі й рівні.

Отже,      

Альтернативною може бути одна з гіпотез:   

Розглянемо статистику     

                                    ,                                               (64 )

де - оцінки  математичного сподівання, обчислені за формулою (52),

- оцінки дисперсії, обчислені за формулою  (53). Ця статистика має розподіл  Стьюдента з   порядками волі. Задамо рівень значущості  й за вибірковим даними обчислимо значення статистику  за формулою (17). Визначимо область прийняття гіпотези Н0:

 при альтернативній  ;

  при альтернативній  ;

 при альтернативній . По властивості квантилей розподілу Стьюдента   , тоді нерівність прийме вид

,  тобто

                                            

Приклад 25.

При вимірі продуктивності двох агрегатів отримані наступні результати (Таблиця 9), у кг. речовини за годину роботи:

                   

                 Таблиця 9. Продуктивності двох агрегатів

Агрегат  А (x )

14,1     10,1      14,7       13,7       14,0

Агрегат  В (y )

14,0      14,5      13,7      12,7      14,1

Чи можна вважати, що продуктивність обох агрегатів однакова в припущенні, що обидві вибірки отримані з нормальних  сукупностей з однаковою дисперсією?

У цьому випадку  . Сформулюємо основну й альтернативну гіпотези, виходячи з умови задачі:

                                             

Обчислимо необхідні  величини  за формулами:    

          ,   , ,  .

Допоміжні розрахунки представимо в Таблиці 10 .

                 Таблиця  10 Допоміжні розрахунки                                                                  

x

   

  14,1    

0,78

0,61

14,0

0,2

0,04

  10,1

-3,22

10,37

14,5

0,7

0,49

  14,7

1,38

1,90

13,7

-0,1

0,01

  13,7

0,38

0,14

12,7

-1,1

1,21

  14,0

0,68

0,46

14,1

0,3

0,09

  66,6

  -

13,48

69,0

-

1,84

                                                                             

         

         

Підставляючи знайдені значення у формулу (64), одержимо                                                

                        

Задамо    й  за таблицею квантилей розподілу Стьюдента знаходимо:

                     ,

                                       0,55<  1,94

Звідси випливає, що  гіпотеза   приймається, тобто середня продуктивність обох агрегатів однакова.

Перевіримо гіпотезу, що полягає в тому , що дисперсії  обох випадкових величин однакові в припущенні, що  -  невідомі.

, альтернативної може бути одна з гіпотез:

                          

Розглянемо статистику

                                       z =                                                                                                  (65)

  - точкові оцінки , отримані за формулою  (53). 

Зазначимо, що завжди можна так ввести позначення, що виявиться   , таким чином,  z  повинне бути не менше одиниці. Статистика (65) має розподіл Фішера зі  порядками волі. Задамо рівень значущості  й за вибірковим даними обчислимо значення статистику  за формулою (18). Визначимо область прийняття гіпотези Н0:

 при альтернативній  ;

  при альтернативній  ;

 при альтернативній . За властивістю квантилей розподілу Фішера   , тоді нерівність набуває вигляду ,  що еквівалентно нерівності   .    

Гіпотеза про рівність дисперсій звичайно застосовується тоді, коли потрібно зрівняти точність або ризики.

Приклад 26. Біржовий маклер досліджує дві інвестиції – А и В від імені клієнта. Інвестиція  А  передбачається на строк  10 років з очікуваним  середнім щорічним прибутком 17,8% і середньоквадратичним відхиленням 3,21%.  Інвестиція  В розрахована на строк 8 років також з очікуваним прибутком  17,8% і середньоквадратичним відхиленням  7,14%. Чи можна вважати, що ризик інвестиції В більше, ніж інвестиції  А?  Передбачається, що розподіл щорічних прибутків на інвестиції підкоряється нормальному розподілу.

     Дисперсія щорічних прибутків може бути використана для визначення ризику. Тому задачі зводиться до перевірки гіпотези про рівність дисперсій за альтернативи   , тобто

                                                    

Обчислимо оцінки дисперсій за формулою (10)

                 

Приймемо рівень значущості =  0,05.

Вибіркова статистика     z = .  За таблицею  Додатка 5 знайдемо квантиль розподілу Фішера        

             = =  3,29

                                     5,09=  z  > =3,29.

Статистика  z   попадає в критичну область, отже, гіпотеза Н0  відхиляється, тобто є підстави вважати, що ризик інвестиції  В  більше, ніж  ризик  інвестиції  А.

Лекція 18.              Перевірка гіпотези про значущості коефіцієнта кореляції.

Нехай - вибірковий коефіцієнт кореляції, який обчислений за вибіркою обсягу n з генеральної сукупності, що має двовимірний нормальний розподіл. Перевіримо гіпотезу про те, що коефіцієнт кореляції дорівнює нулю, тобто не є значимим. Отже,       

  За статистику  візьмемо вибіркове значення коефіцієнта кореляції, що обчислене за формулою (51)

                                                  

На рівні значущості   критична область цього критерію визначається нерівностями

                                   

при альтернативній  гіпотезі ;

                                    

при альтернативній  гіпотезі ;

                                   

при альтернативній  гіпотезі ;

Перевіримо  на рівні значущості  =0,05 гіпотезу про рівність нулю коефіцієнта кореляції, обчисленого в Прикладі 22  при альтернативній  гіпотезі . Статистика   ,  n = 5,  За таблицею квантилей розподілу Стьюдента  знайдемо  = 3,18. Обчислимо величину  

                 = ,

одержуємо, що  < 0,89, тобто не попадає в критичну область, отже, немає підстав вважати коефіцієнт кореляції не значимим. Оскільки значення   близько до одиниці, то між випадковими величинами     досить тісний лінійний взаємозв'язок.

                          

Критерій  і його застосування

Перевірка гіпотези про вид розподілу  генеральної сукупності.

Розглянуті вище гіпотези відносились до окремих параметрів розподілу випадкової величини, причому закон її розподілу вважався відомим. Однак у багатьох практичних задачах точний закон розподілу досліджуваної випадкової величини невідомий тобто є гіпотезою, що вимагає статистичної перевірки.

         Нехай   - вибірка спостережень випадкової величини  . Перевіряється гіпотеза  , яка стверджує, що  має функцію щільності розподілу  f(x, ).

Перевірка гіпотези  за допомогою критерію  здійснюється за наступною схемою . За вибіркою спостережень знаходять оцінки невідомих параметрів  передбачуваного закону розподілу випадкової величини . Далі область можливих значень випадкової величини розбивається  на  k  множин . Наприклад, на k  інтервалів  у випадку, коли  - неперервна випадкова величина, або  k   груп, що складаються з окремих значень , для дискретної випадкової величини . Нехай  - число елементів вибірки, що належить  множині , i = 1,2,…,n .Очевидно, що   Використовуючи передбачуваний закон розподілу випадкової величини , знаходять ймовірність  того, що значення  належить множині , тобто = P( ),  i = 1,2,…,k... Очевидно. що  Вибіркове значення статистики  обчислюється за формулою

                                       .                                                                               (66)

Гіпотеза   погоджується  з результатами спостережень  на рівні значущості   , якщо

                                 ,

де - квантиль порядку  розподілу  з   k – r -1  порядками волі, k- число інтервалів, а   r – число невідомих параметрів розподілу, що оцінюються за вибіркою. Якщо ж  , то гіпотеза   відхиляється.

Зауваження.  При застосуванні критерію   необхідно, щоб для всіх інтервалів виконувалася умова    . Якщо  в деяких інтервалах  ця умова не виконується, то їх варто об'єднати із сусідніми.  

Приклад 27.  Перевіримо  на рівні значущості   = 0,1  гіпотезу про нормальний розподіл  вибірки із Приклада 20.

Обчислимо спочатку  оцінку математичного сподівання    й оцінку дисперсії , для цього складемо Таблицю 11.

                                                                                                           

Таблиця 11. Допоміжні обчислення, для  оцінки математичного сподівання  й оцінки дисперсії

  Номер

інтервалу

     i

Границі

інтервалу

Середина

інтервалу

     x

Частота

   m

  x m

 x m

    1

14 - 23

18,5

2

37,0

684,50

    2

23 - 32

27.5

3

82,5

2268,75

    3

32 -41

31,5

6

219,0

7993,50

    4

41 -50

45,5

17

773,5

35194,25

    5

50 -59

54,5

10

545,0

29702,50

    6

59 -68

63,5

9

571,5

36290,25

    7

68 -77

72,5

3

217,5

15768,75

     

-

-

50

2453,0

127902,50

      n = = 50 ,    k = 7 ,          =  = = 49,06                                                                                                  

   = =  

    =   = 12,30

Ймовірності   = P( ) обчислимо за формулою

              = P( )= ,    i=1,2,..,7,

де   - відповідно нижня й верхня границі інтервалів, а значення  беруться з таблиці Додатка 2.

Складемо нову Таблицю 12, розширивши перший і останній інтервали.

       Таблиця 12. Обчислення ймовірностей = P( )

Номер

інтер-           валу

i

Границі

інтервалу

Частота

   m

 

   

  

 

 

    1

- 23

2

-2,12

0

0,0170

0,0170

    2

23 - 32

3

-2,12

-1,39

0,017

0,0823

0,0653

    3

32 -41

6

-1,39

-0,66

0,0823

0,2546

0,1723

    4

41 -50

17

-0,66

0,08

0,2546

0,5319

0,2773

    5

50 -59

10

0,08

0,81

0,5319

0,7910

0,2591

    6

59 -68

9

0,81

1,54

0,7910

0,9382

0,1472

    7

68 -

3

1,54

0,9382

1

0,0618

 

Для  обчислення   за формулою  (20) складемо ще одну таблицю , об’єднуючи при цьому  перший інтервал із другим і  сьомий інтервалом із шостим.  

                  Таблиця 13.Обчислення

Номер

інтер-           валу

i

   

  n

    

    1

    2

0,0823

4,115 4

5

0,25

    3

0,1723

8,615 9

6

1,00

    4

0,2773

13,865 14

17

0,64

    5

0,2591

12,955 13

10

0,69

    6

    7

0,2090

10,450 10

12

0,40

Сума

2,98

Сума чисел остатнього стовпця є вибіркове значення критерію,   = 2,98. За таблицею квантилей розподілу  знайдемо     . Після об'єднання , число інтервалів  k=5, число параметрів нормального розподілу r=2, . Тоді   = = 4,61. Вибіркове значення статистики критерію дорівнює 2,98 і це значення менше, ніж   =0,64,  отже гіпотеза  про нормальний розподіл вибірки   приймається.

Список  літератури

1. Гнеденко Б.В. Курс теории вероятностей. –М.:Наука,1988.

2. Гмурман В.Е. Теория вероятностей и математическая статистика: Учеб.пособие для вузов.-                                          4-е изд.,доп.-М.:Высшая школа,1972.

3. Колемаев В.А.,Староверов О.В., Турундаевский В.В. Теория вероятностей и  математическая статистика.-М.Высшая школа,1991.

4. А.И. Третьяк, А.В. Усов, А.П. Коновалов, К.А.Дубров Вероятностно-статистическое моделирование технико-экономических систем. Часть первая и Часть вторая.-Одесса:Астропринт,2003.

5. Экономико-статистический анализ. Учебн. пособие/под ред. С. Ильенковой.-М.:Гардарика,2002.


Таблиця 14. Значення функції щільністі нормального розподілу ,                                                                       Додаток  1

x

0,00

0,01

0,02

0,03

0,04

0,05

0,06

0,07

0,08

0,09

0,0

0,3989

0,3989

0,3989

0,3988

0,3986

0,3984

0,3982

0,3980

0,3977

0,3973

0,1

0,3970

0,3965

0,3961

0,3959

0,3951

0,3945

0,3939

0,3932

0,3925

0,3918

0,2

0,3910

0,3902

0,3894

0,3885

0,3876

0,3867

0,3857

0,3847

0,3836

0,3825

0,3

0,3814

0,3802

0,3790

0,3778

0,3765

0,3752

0,3739

0,3725

0,3712

0,3697

0,4

0,3683

0,3668

0,3653

0,3637

0,3621

0,3605

0,3589

0,3572

0,3555

0,3538

0,5

0,3521

0,3503

0,3485

0,3467

0,3448

0,3429

0,3410

0,3391

0,3372

0,3352

0,6

0,3332

0,3312

0,3292

0,3271

0,3251

0,3230

0,3209

0,3187

0,3166

0,3144

0,7

0,3123

0,3101

0,3079

0,3056

0,3034

0,3011

0,2989

0,2966

0,2943

0,2920

0,8

0,2897

0,2874

0,2850

0,2827

0,2803

0,2780

0,2756

0,2732

0,2709

0,2685

0,9

0,2661

0,2637

0,2613

0,2589

0,2565

0,2541

0,2516

0,2492

0,2468

0,2444

1,0

0,2420

0,2369

0,2371

0,2347

0,2323

0,2299

0,2275

0,2251

0,2227

0,2203

1,1

0,2179

0,2155

0,2131

0,2107

0,2083

0,2059

0,2036

0,2012

0,1989

0,1965

1,2

0,1942

0,1919

0,1895

0,1872

0,1849

0,1826

0,1804

0,1781

0,1758

0,1736

1,3

0,1714

0,1691

0,1669

0,1647

0,1626

0,1604

0,1582

0,1561

0,1539

0,1518

1,4

0,1497

0,1476

0,1456

0,1435

0,1415

0,1394

0,1374

0,1354

0,1334

0,1315

1,5

0,1295

0,1276

0,1257

0,1238

0,1219

0,1200

0,1182

0,1163

0,1145

0,1127

1,6

0,1109

0,1092

0,1074

0,1057

0,1040

0,1023

0,1006

0,0989

0,0973

0,0957

1,7

0,0940

0,0925

0,0909

0,0893

0,0878

0,0863

0,0848

0,0833

0,0818

0,0804

1,8

0,0790

0,0775

0,0761

0,0748

0,0734

0,0721

0,0707

0,0694

0,0681

0,0669

1,9

0,0656

0,0644

0,0632

0,0620

0,0608

0,0596

0,0584

0,0573

0,0562

0,0551

2,0

0,0540

0,0529

0,0519

0,0508

0,0498

0,0488

0,0478

0,0468

0,0459

0,0449

2,1

0,0440

0,0431

0,0422

0,0413

0,0404

0,0396

0,0387

0,0379

0,0371

0,0363

2,2

0,0335

0,0347

0,0339

0,0332

0,0325

0,0317

0,0310

0,0303

0,0297

0,0290

2,3

0,0283

0,0277

0,0270

0,0264

0,0258

0,0252

0,0246

0,0241

0,0235

0,0229

2,4

0,0224

0,0219

0,0213

0,0208

0,0203

0,0198

0,0194

0,0189

0,0184

0,0180

2,5

0,0175

0,0171

0,0176

0,0163

0,0158

0,0154

0,0151

0,0147

0,0143

0,0139

2,6

0,0136

0,0132

0,0129

0,0126

0,01222

0,0119

0,0116

0,0113

0,0110

0,0107

2,7

0,0104

0,0101

0,0099

0,0096

0,0093

0,0091

0,0088

0,0086

0,0084

0,0081

2,8

0,0079

0,0077

0,0075

0,0073

0,0071

0,0069

0,0067

0,0065

0,0063

0,0061

2,9

0,0060

0,0058

0,0056

0,0055

0,0053

0,0051

0,0050

0,0048

0,0047

0,0046

3,0

0,0044

0,0043

0,0042

0,0040

0,0039

0,0038

0,0037

0,0036

0,0035

0,0034

3,1

0,0033

0,0032

0,0031

0,0030

0,0029

0,0028

0,0027

0,0026

0,0025

0,0025

3,2

0,0024

0,0023

0,0022

0,0022

0,0021

0,0020

0,0020

0,0019

0,0018

0,0018

3,3

0,0017

0,0017

0,0016

0,0016

0,0015

0,0015

0,0014

0,0014

0,0013

0,0013

3,4

0,0012

0,0012

0,0012

0,0011

0,0011

0,0010

0,0010

0,0010

0,0009

0,0009

3,5

0,0009

0,0008

0,0008

0,0008

0,0008

0,0007

0,0007

0,0007

0,0007

0,0006

3,6

0,0006

0,0006

0,0006

0,0005

0,0005

0,0005

0,0005

0,0005

0,0005

0,0004

3,7

0,0004

0,0004

0,0004

0,0004

0,0004

0,0004

0,0003

0,0003

0,0003

0,0003

3,8

0,0003

0,0003

0,0003

0,0003

0,0003

0,0002

0,0002

0,0002

0,0002

0,0002

3,9

0,0002

0,0002

0,0002

0,0002

0,0002

0,0002

0,0002

0,0002

0,0001

0,0001

4,0

0,0001

0,0001

0,0001

0,0001

0,0001

0,0001

0,0001

0,0001

0,0001

0,0001

x

0,00

0,01

0,02

0,03

0,04

0,05

0,06

0,07

0,08

0,09

Таблиця15. Функція розподілу   нормального закону ; ,                                            Додаток  2

x

0,00

0,01

0,02

0,03

0,04

0,05

0,06

0,07

0,08

0,09

0,0

0,5000

0,5040

0,5080

0,5120

0,5160

0,5199

0,5239

0,5279

0,5319

0,5359

0,1

0,5398

0,5438

0,5478

0,5517

0,5557

0,5596

0,5636

0,5675

0,5714

0,5753

0,2

0,5793

0,5832

0,5871

0,5910

0,5948

0,5987

0,6026

0,6064

0,6103

0,6141

0,3

0,6179

0,6217

0,6255

0,6293

0,6331

0,6368

0,6406

0,6443

0,6480

0,6517

0,4

0,6554

0,6591

0,6628

0,6664

0,6700

0,6736

0,6772

0,6808

0,6844

0,6879

0,5

0,6915

0,6950

0,6985

0,7019

0,7054

0,7088

0,7123

0,7157

0,7190

0,7224

0,6

0,7257

0,7291

0,7324

0,7357

0,7389

0,7422

0,7454

0,7486

0,7517

0,7549

0,7

0,7580

0,7611

0,7642

0,7673

0,7704

0,7734

0,7764

0,7794

0,7823

0,7852

0,8

0,7881

0,7910

0,7939

0,7967

0,7995

0,8023

0,8051

0,8078

0,8106

0,8133

0,9

0,8159

0,8186

0,8212

0,8238

0,8264

0,8289

0,8315

0,8340

0,8365

0,8389

1,0

0,8413

0,8438

0,8461

0,8485

0,8508

0,8531

0,8554

0,8577

0,8599

0,8621

1,1

0,8643

0,8665

0,8686

0,8708

0,8729

0,8749

0,8770

0,8790

0,8810

0,8830

1,2

0,8849

0,8869

0,8888

0,8907

0,8925

0,8944

0,8962

0,8980

0,8997

0,9015

1,3

0,9032

0,9049

0,9066

0,9082

0,9099

0,9115

0,9131

0,9147

0,9162

0,9177

1,4

0,9192

0,9207

0,9222

0,9236

0,9251

0,9265

0,9279

0,9292

0,9306

0,9319

1,5

0,9332

0,9345

0,9357

0,9370

0,9382

0,9394

0,9406

0,9418

0,9429

0,9441

1,6

0,9452

0,9463

0,9474

0,9484

0,9495

0,9505

0,9515

0,9525

0,9535

0,9545

1,7

0,9554

0,9564

0,9573

0,9582

0,9591

0,9599

0,9608

0,9616

0,9625

0,9633

1,8

0,9641

0,9649

0,9656

0,9664

0,9671

0,9678

0,9686

0,9693

0,9699

0,9706

1,9

0,9713

0,9719

0,9726

0,9732

0,9738

0,9744

0,9750

0,9756

0,9761

0,9767

2,0

0,9772

0,9778

0,9783

0,9788

0,9793

0,9798

0,9803

0,9808

0,9812

0,9817

2,1

0,9821

0,9826

0,9830

0,9834

0,9838

0,9842

0,9846

0,9850

0,9854

0,9857

2,2

0,9861

0,9864

0,9868

0,9871

0,9875

0,9878

0,9881

0,9884

0,9887

0,9890

2,3

0,9893

0,9896

0,9898

0,9901

0,9904

0,9906

0,9909

0,9911

0,9913

0,9916

2,4

0,9918

0,9920

0,9922

0,9925

0,9927

0,9929

0,9931

0,9932

0,9934

0,9936

2,5

0,9938

0,9940

0,9941

0,9943

0,9945

0,9946

0,9948

0,9949

0,9951

0,9952

2,6

0,9953

0,9955

0,9956

0,9957

0,9959

0,9960

0,9961

0,9962

0,9963

0,9964

2,7

0,9965

0,9966

0,9967

0,9968

0,9969

0,9970

0,9971

0,9972

0,9973

0,9974

2,8

0,9974

0,9975

0,9976

0,9977

0,9977

0,9978

0,9979

0,9979

0,9980

0,9981

2,9

0,9981

0,9982

0,9982

0,9983

0,9984

0,9984

0,9985

0,9985

0,9986

0,9986

3,0

0,9987

0,9987

0,9987

0,9988

0,9988

0,9989

0,9989

0,9989

0,9990

0,9990

3,1

0,9990

0,9991

0,9991

0,9991

0,9992

0,9992

0,9992

0,9992

0,9993

0,9993

3,2

0,9993

0,9993

0,9994

0,9994

0,9994

0,9994

0,9994

0,9995

0,9995

0,9995

3,3

0,9995

0,9995

0,9995

0,9996

0,9996

0,9996

0,9996

0,9996

0,9996

0,9997

3,4

0,9997

0,9997

0,9997

0,9997

0,9997

0,9997

0,9997

0,9997

0,9997

0,9998

x

0,00

0,01

0,02

0,03

0,04

0,05

0,06

0,07

0,08

0,09

Квантилі  нормального розподілу :

0,90

0,95

0,975

0,99

0,999

0,999

0,9995

1,282

1,645

1,960

2,326

2,576

3,090

3,291


Таблиця 16. Квантилі розподілу Стьюдента                                              Додаток 3                                            

        p                k

0,750

0,900

0,950

0,975

0,990

0,995

0,999

1

1,000

3,078

6,314

12,706

31,821

63,657

318

2

0,816

1,886

2,920

4,303

6,965

9,925

22,3

3

0,765

1,638

2,353

3,182

4,541

5,841

10,2

4

0,741

1,533

2,132

2,776

3,747

4,604

7,173

5

0,727

1,476

2,015

2,571

3,365

4,032

5,893

6

0,718

1,440

1,943

2,447

3,143

3,707

5,208

7

0,711

1,415

1,895

2,365

2,998

3,499

4,785

8

0,706

1,397

1,860

2,306

2,896

3,355

4,501

9

0,703

1,383

1,833

2,262

2,821

3,250

4,297

10

0,700

1,372

1,812

2,228

2,764

3,169

4,144

11

0,691

1,363

1,796

2,201

2,718

3,106

4,025

12

0,695

1,356

1,782

2,179

2,681

3,055

3,930

13

0,694

1,350

1,771

2,160

2,650

3,012

3,852

14

0,692

1,345

1,761

2,145

2,624

2,977

3,787

15

0,691

1,341

1,753

2,131

2,602

2,947

3,733

16

0,690

1,337

1,746

2,120

2,583

2,921

3,686

17

0,689

1,333

1,740

2,110

2,567

2,898

3,646

18

0,688

1,330

1,734

2,101

2,552

2,878

3,610

19

0,688

1,328

1,729

2,093

2,539

2,861

3,579

20

0,687

1,325

1,725

2,086

2,528

2,845

3,552

21

0,686

1,323

1,721

2,080

2,518

2,831

3,527

22

0,686

1,321

1,717

2,074

2,508

2,819

3,505

23

0,685

1,319

1,714

2,069

2,500

2,807

3,485

24

0,685

1,318

1,711

2,064

2,492

2,797

3,467

25

0,684

1,316

1,708

2,060

2,485

2,787

3,450

26

0,684

1,315

1,706

2,056

2,479

2,779

3,435

27

0,684

1,314

1,703

2,052

2,473

2,771

3,421

28

0,683

1,313

1,701

2,048

2,467

2,763

3,408

29

0,683

1,311

1,699

2,045

2,462

2,756

3,398

30

0,683

1,310

1,697

2,042

2,457

2,750

3,385

40

0,681

1,303

1,684

2,021

2,423

2,704

3,307

60

0,679

1,296

1,671

2,000

2,390

2,660

3,232

120

0,677

1,289

1,658

1,980

2,358

2,617

3,160

0,674

1,282

1,645

1,960

2,326

2,576

3,090


Таблиця 17. Квантилі  розподілу                                                                                                                                                         Додаток №4

      p

k

0,005

0,010

0,025

0,05

0,10

0,20

0,30

0,70

0,80

0,90

0,95

0,975

0,990

0,995

0,999

1

0,393

0,157

0,982

0,393

0,0158

0,0642

0,148

1,07

1,64

2,71

3,84

5,02

6,63

7,88

10,8

2

0,0100

0,0201

0,0506

0,103

0,211

0,446

0,713

2,41

3,22

4,61

5,99

7,38

9,21

10,6

13,8

3

0,0717

0,115

0,216

0,352

0,584

1,00

1,42

3,67

4,64

6,25

7,81

9,35

11,3

12,8

16,3

4

0,207

0,297

0,484

0,711

1,06

1,65

2,19

4,88

5,99

7,78

9,49

11,1

13,3

14,9

18,5

5

0,412

0,554

0,831

1,15

1,61

2,34

3,00

6,05

7,29

9,24

11,1

12,8

15,1

16,7

20,5

6

0,676

0,872

1,24

1,64

2,20

3,07

3,83

7,23

8,56

10,6

12,6

14,4

16,8

18,5

22,5

7

0,989

1,24

1,69

2,17

2,83

3,82

4,67

8,38

9,80

12,0

14,1

16,0

18,5

20,3

24,3

8

1,34

1,65

2,18

2,73

3,49

4,59

5,53

9,52

11,0

13,4

15,5

17,5

20,1

22,0

26,1

9

1,73

2,09

2,70

3,33

4,17

5,38

6,39

10,7

12,2

14,7

16,9

19,0

21,7

23,6

27,9

10

2,16

2,56

3,25

3,94

4,87

6,18

7,27

11,8

13,4

16,0

18,3

20,5

23,2

25,2

29,6

11

2,60

3,05

3,82

4,57

5,58

6,99

8,15

12,9

14,6

17,3

19,7

21,9

24,7

26,8

31,3

12

3,07

3,57

4,40

5,23

6,30

7,81

9,03

14,0

15,8

18,5

21,0

23,3

26,2

28,3

32,9

13

3,57

4,11

5,01

5,89

7,04

8,63

9,93

15,1

17,0

19,8

22,4

24,7

27,7

29,8

34,5

14

4,07

4,66

5,63

6,57

7,79

9,47

10,8

16,2

18,2

21,1

23,7

26,1

29,1

31,3

36,1

15

4,60

5,23

6,26

7,26

8,55

10,3

11,7

17,3

19,3

22,3

25,0

27,5

30,6

32,8

37,7

16

5,14

5,81

6,91

7,96

9,31

11,2

12,6

18,4

20,5

23,5

26,3

28,8

32,0

34,3

39,3

17

5,70

6,41

7,56

8,67

10,1

12,0

13,5

19,5

21,6

24,8

27,6