9199

ТЕОРІЯ ЙМОВІРНОСТЕЙ

Лекция

Математика и математический анализ

ТЕМА 19. ТЕОРІЯ ЙМОВІРНОСТЕЙ Теорія ймовірностей - математична наука, яка вивчає закономірності випадкових явищ. Фундаментальними поняттями теорії ймовірностей є випадкова подія та випадковий експеримент (випробування). Випробування (випадковий...

Русский

2013-02-26

325.36 KB

5 чел.

ТЕМА 19. ТЕОРІЯ ЙМОВІРНОСТЕЙ

Теорія ймовірностей – математична наука, яка вивчає закономірності

випадкових явищ.

Фундаментальними поняттями теорії ймовірностей є випадкова подія та

випадковий експеримент (випробування).

Випробування (випадковий експеримент) – це багатократне повторення

певного комплексу умов, в яких відбувається деяке явище, та фіксується той чи

інший результат, але цей результат не можна напевно передбачити.

Випадковою подією називається будь-який факт, що може відбутися в

результаті випробування чи ні.

Наприклад: поява Г або Р при підкиданні монети; вихід бракованої деталі

з конвеєру; виграшний білет в лотереї і т.п.

Вірогідною або достовірною називають подію, яка обов’язково

відбудеться у випадковому експерименті. Неможливою називається подія, яка

ні в якому разі не може відбутися в результаті випробування.

Нехай в результаті випробування відбувається одна і тільки одна з подій

1 ,  2 , ...,  n , ..., які є найпростішими результатами випробування і

називаються елементарними випадковими подіями. Множина всіх можливих

наслідків випробування називається простором елементарних подій і

позначаються ;   1 ,  2 , ...,  n , ....

Випадкові події позначаються: А, В, С, ...

Випадкова подія А є підмножина простору . Елементарні наслідки

випробування, які утворюють А, називаються сприятливими для А.

Операції над подіями аналогічні операціям над множинами, для

ілюстрації яких будемо користуватися діаграмами Ейлера-Венна.

Теоретико-множинна інтерпретація випадкових подій

Теорія множин

Теорія ймовірностей

Діаграми

1

 - універсальна  - простір елементарних

множина

подій, вірогідна подія

2

порожня  - неможлива подія

множина

A  , A

3

А – випадкова подія

підмножина 

А

A  B, A

4

Якщо відбудеться А, то

відбудеться і В

підмножина В

АВ 

5

6

A B

множин

переріз A  B . Відбудеться і А, і В;

тобто А і В відбудеться

одночасно

A  B   множини A  B   ; Події А і В

А

і

В

не несумісні, тобто не можуть

перетинаються

відбутися одночасно

1

А

A B

А

В 

В 


7

A B

об’єднання A  B – сума подій, коли а)

A B 

події

відбувається принаймні одна несумісні.

множин

з них

А

В

б) A  B   події сумісні

A B

А

8

9

A\ A

доповнення до А,

тобто різниця між 

та А

А\В різниця між А і

В

A    A – протилежна

подія, тобто А – не

відбувається

А – В різниця подій,

відбувається А, але не

відбувається В

В

A B

А

А

A

В

A B

Деякі властивості операцій над подіями

1) A    ;

2) A    A;

3) A    A;

4) A     ;

5)

A  A  ;

7) A  A  A;

8) A  A  A – це закони поглинання;

6) A  A   ;

9) A  B  B  A;

10) A  B  B  A;

11)  A  B   C  A  B  C ;

12)  A  B   C  A  B  C ;

13) A  B  C   A  B    A  C ;

14) A  B  C   A  B  A  C – це властивості операцій суми та добутку;

16) A  B  A  B – закони де Моргана для відшукання

15) A  B  A  B;

протилежних подій.

Основні правила і формули комбінаторики

Комбінаторика – розділ математики, який вивчає розташування об’єктів

у відповідності з певними правилами та методи підрахунку кількості таких

розташувань.

Правило суми. Нехай  i i  1,2,..., n  – елементи деякої скінченої множини  .

Якщо елемент 1 може бути обраний n1 способами, ...,  k – nk способами, то

вибір одного з елементів 1 ,  2 або wk здійснюється n1  n2  ...  nk

способами.

Основний принцип комбінаторики – правило добутку. Якщо елемент 1 може

бути обраний n1 способами, ... wk – nk способами, то вибір всіх елементів

1 ,  2 , ...,  k у вказаному порядку здійснюється n1  n2  ...  nk способами.

2


Розміщення. Нехай є множина  з п різних елементів. З цієї множини можуть

бути утворені підмножини з k елементів. Якщо ці підмножини відрізняються

або складом елементів, або порядком їх розташування (або тим і іншим), то такі

підмножини називаються розміщеннями з п елементів по k , тобто розміщення

це будь-яка впорядкована k - елементів підмножина множини з п елементів.

Число розміщень обчислюється за формулою

n!

k

(1)

An  n  n  1    n  k  1 

; n! 1  2    n.

n  k !

Комбінації (сполучення). Якщо підмножини з k елементів п - елементної

множини відрізняється тільки складом елементів, то їх називають сполученнями

з п елементів по k , тобто сполучення – це будь-яка невпорядкована множина з

k елементів п - елементної множини. Число сполучень обчислюється за

формулою

k

An

n  n  1    n  k  1

n!

k

k

.

(2)

Cn 

; тобто C n 

k!

k!

k!n  k !

0

 1.

За означенням 0! = 1, отже C n

Перестановки. Якщо множини з п елементів відрізняються лише порядком

розташування, то їх називають перестановками. Число перестановок

обчислюється за формулою

n

.

(3)

Pn  n! тобто Pn  An

Означення та властивості ймовірності

Імовірність події – це базове поняття теорії ймовірностей.

Імовірність події характеризує міру об’єктивної можливості появи події в

умовах випробування. Існує декілька означень імовірності, які застосовуються

в різних випадках (класичне, геометричне, статистичне та ін.). Всі ці означення

узгоджені між собою і ймовірності мають такі основні властивості:

1. P   1 – ймовірність вірогідної події дорівнює 1;

2. P   0 – ймовірність неможливої події дорівнює 0;

3. 0  P A  1 – ймовірність випадкової події невід’ємна і не перевищує 1.

Класичне означення ймовірності. Нехай простір елементарних подій

  1 ,  2 , ...,  n  є скінчена множина рівноможливих елементарних подій.

Подія A  . . Імовірність події А дорівнює відношенню числа т наслідків, які

сприяють події А до числа п наслідків, що складають простір  , тобто

m

P  A  .

(4)

n

Статистичне означення ймовірності. Припустимо, що проведено п

випробувань, в результаті яких k n разів відбулася подія А. Відносною

k

частотою події А називають відношення Wn  A  n і тоді границя

n

lim Wn  A  P A називається ймовірністю події А.

n

Геометричне означення ймовірності. Нехай  – область простору, А –

3


підобласть відповідного виміру. Випробування полягає в тому, що навмання

обирається точка, яка належить області  ; подія А полягає в тому, що ця точка

потрапляє в А. Імовірність події А визначається

  A

P  A 

,

  

де   A – є деякою з геометричних мір: довжина, площа, об’єм.

Теореми суми та добутку ймовірностей. Умовна ймовірність

Т.1. Якщо A  B   , то

P  A  B   P  A  P B  .

(5)

Наслідок 1. P A1  A2    An   P A1     P An , якщо Ai  A j   для

всіх i  j.



Наслідок 2. P A  P A  1.

Т.2.

(5´)

P  A  B   P  A   P  B   P  A  B ,

якщо А і В – сумісні.

Якщо ймовірність події А залежить від того, чи відбулася подія В, то така

ймовірність називається умовною і позначається P A / B  чи PB  A; а подія А та

В – залежними.

Т.3.

P  A  B   P B   P  A / B   P  A  P B / A .

(6)

P A  B 

P A  B 

Наслідок 1. P A / B  

, якщо PB   0 та PB / A 

, якщо

P B 

P  A

P A  0.

Наслідок

2.

P A1  A2    An   P A1   P A1   P A1 / A2     P An / A1  A2    An 1 .

Подія А називається незалежною від події В, якщо поява події В не

впливає на ймовірність події А, тобто P A / B   P A.

Т.4. Якщо події А і В незалежні, то

P A  B   P A  PB .

(7)

Події A1 , ..., An називаються незалежними в сукупності, якщо

P A1  ...  An   P A1   P A2     P An .

Т.5. Якщо A1 , ..., An є незалежними в сукупності, то ймовірність появи

принаймні однієї з них обчислюється за формулою

P A1  A2  ...  An   1  P A1   P A2     P An .

(8)

Події H1 , H 2 , ..., H n складають повну групу подій, якщо:

1) H i  H j   для всіх i  j , тобто вони попарно несумісні;

2) H1  H 2  ...  H n  , тобто в результаті випробування відбудеться одна з

них.

Як випливає з Т.1. PH1   PH 2     PH n   1.

Якщо подія А може відбутися тільки при умові, що відбудеться одна з подій

4


H1 , H 2 , ..., H n , які складають повну групу подій, то ймовірність події А

обчислюється за формулою повної ймовірності

n

P  A    P  H i   P  A / H i   P  H 1   P  A / H 1     P  H n   P  A / H n ,

(9)

i 1

Н1

Н2

Н5

Н

P  H i / A 

Н

а події H1 , H 2 , ..., H n називаються гіпотезами,

а їх ймовірності – апріорними. Проілюструємо

A, H1 , ..., H n на діаграмі: Для переоцінки

(уточнення)

ймовірностей

гіпотез

H i i  1,2, ..., n , якщо внаслідок випробування

відбулася подія А, застосовують формулу

Байєса

P  H i  A

P H i   P  A / H i 

.

 n

P  A

 PH i   P  A / H i 

(10)

i 1

Умовні ймовірності PH i / A називають апостеріорними.

Повторні незалежні випробування. Схема Бернулі

Нехай проводиться п незалежних однотипних випробувань, в кожному з

яких подія А може відбутися („успіх”) або не відбутися („невдача”). В кожному

випробуванні ймовірність події А постійна і не залежить від результатів

попередніх випробувань, P A  P, тоді P A  1  p  q. Така постанова задачі

називається схемою Бернуллі. Позначимо Pn k  ймовірність того, що подія А

відбудеться при п випробуваннях рівно k разів. k  n  , тоді вона обчислюється

за формулою Бернуллі

k

Pn k   C n

 pk  qnk .

(11)

Нехай Pn k1 , k 2  – це ймовірність того, що подія А в п випробуваннях

відбудеться від k1 до k 2 разів, тоді



Pn k1 , k 2  

k2

k2

k  k1

k  k1

 Pn k    Cnk  p k  q n  k .

(11´)

Значення m0 , при якому Pn k  набуває найбільшого значення,

називається найбільш ймовірним числом успіхів та знаходиться з нерівності

np  q  m0  np  p.

(12)

Якщо число випробувань досить велике, то застосування формули

Бернуллі стає дуже громіздким, і тоді користуються наближеними формулами,

які дають граничні теореми Муавра-Лапласа та Пуассона.

ЛОКАЛЬНА ТЕОРЕМА МУАВРА-ЛАПЛАСА

Pn k  

 k  np 

1

;



npq 

npq

(13)

5


x2

2

1

e

– це функція Гаусса, що подана в таблиці 1.

2

  x     x , та   x   0, при x  .

Інтегральна теорема Муавра-Лапласа

 k 2  np 

 k  np 

   1

Pn k1  k  k 2   

(14)

 npq 

 npq  ,

де   x  

x

u2

1

де  x  

e 2 du – функція Лапласа, подана в таблиці 2.

2

0

  x     x  та   x   0,5, при x  .

Найкращі наближення ці формули дають при npq  20 або при n  200 та

np  10.

Наслідок теореми Муавра-Лапласа

n 

m

P n  p     P  p     2

.

pq

 n

Формула Пуассона застосовується для так званих „рідких” подій, тобто

коли р дуже мале, а п дуже велике так, щоб np    10, і тоді

Pn k  

k  e 

(15)

k!

Pn k1 , k 2  

k2

k1

 Pn k   

k  k1

k  k1

k  e  

k!

.

Випадкові величини

Поняття випадкові величини є основним в теорії ймовірностей та її

застосуваннях.

Випадковою називають величину, яка в результаті випробування приймає

одне з можливих значень, яке наперед не можна передбачити. Випадкові

величини позначаються грецькими літерами  ,  , або великими латинськими

X , Y , Z , ...; значення, які приймають випадкові величини, позначають малими

латинськими літерами x1 , x2 , ..., y1 , y 2 , ..., z1 , z 2 , ... .

Випадкова величина – це є дійсна функція на просторі елементарних

подій, тобто X  X  .

Розглядатимемо дискретні і неперервні випадкові величини. Якщо

значення, які приймає випадкова величина, можна перелічити або

пронумерувати, - її називають дискретною. Можливі значення неперервної

випадкової величини заповнюють деякий числовий проміжок.

Законом розподілу дискретної випадкової величини називаються перелік

всіх її можливих значень і відповідних їм ймовірностей, з якими вона приймає

кожне з цих значень. Закон розподілу подають, як правило, в таблиці

х x1 x2 ... xn ...

6


р p1 p2 ... pn ...

де Pi  PX  xi  i  1, 2, ..., n, ... .

Очевидно, що p1  p2    pn    1.

Ламана лінія, що з’єднує точки  xi , pi  на координатній площині є

графічним зображенням закону розподілу і називається багатокутником

розподілу, або полігоном.

у

 x3 ,

p3

x1 , p1 

p3 

p1

 x2 , p 2 

p2

x 4 ,

p4

x1

0

x2

x3

x4

p4 

х

Приклади дискретних розподілів

Біноміальний розподіл. Нехай проводяться випробування за схемою Бернуллі,

випадкова величина Х – число появ „успіхів” серед п іспитів, тоді

k k

P X  k   Pn k   Cn

p  qnk ;

k  0, 1, 2, ..., n.

Розподіл Пуассона. Випадкова величина Х має розподіл Пуассона, з параметром

 , якщо

PX  k  

k  e 

;

(k  0, 1, 2, ...) ,

  0.

k!

Функцією розподілу F  x  випадкової величини Х називають таку, що для

кожного Х показує ймовірність того, що випадкова величина у випробуванні

прийме значення, менше за х, тобто F  x   PX  x.

Властивості функції розподілу:

1) 0  F  x   1;

2) F  x  – неспадна функція, неперервна зліва;

3) lim F  x   0; lim F  x   1.

x  

x  

Крім того, функція розподілу повністю характеризує будь-яку випадкову

величину (дискретну чи неперервну).

4)

Pa  X  b  F b   F a .

(16)

5) Для неперервної випадкової величини PX  b  0.

Графіком функції розподілу дискретної випадкової величини є

розривна ступінчата лінія, стрибки якої відбуваються в точках відповідних

можливих значень. Сума всіх стрибків дорівнює 1.

7


у

1

P

1  P2    Pn 1

P

1  P2

...

P

1

x1

x2

х

xn 1 xn

x3

Графіком функції розподілу неперервної випадкової величини є

неперервна лінія.

Кажуть, що випадкова величина має щільність розподілу f  x  , якщо

існує інтегровна функція f  x  така, що

F x  

x

 f u du, тобто F x   f x .

(17)



Властивості щільності розподілу

1) f  x   0;



2)

b

 f x dx  1;

3) Pa  X  b   f  x dx.



a

Графік щільності розподілу називається кривою розподілу. Як випливає з

властивості 1), крива розподілу завжди розташована вище осі ОХ.

Приклади неперервних розподілів

Рівномірний розподіл

0, x  a

0, x  a

 1

x  a

F x   

,

a xb

f x   

,

a xb

b

a

b

a

1

,

x

b

xb

0,

у

1

у

F x 

а

0

b

Показників розподіл.

0, x  0

F x   

 x

1  e , x  0

f x 

1

ba

х

0

0, x  0

f  x     x

e , x  0

8

а

b

х


у

у

F x 

1

f x 

F x  

x

1

2  



e

х

х

0

Нормальний розподіл.

 x  a 2

2

2

f x  

dx;

1

e

 2

 x  a 2

2

2

.

у

f x 

a 1

  0,25

a  5;   2

х

Якщо дослідити криву нормального розподілу f  x  , матимемо, що f  x 

досягає максимуму при x  a , а точки x  a   є точками перегину; вісь

абсцис ОХ - асимптота кривої.

Ймовірність того, що випадкова величина Х набуде значення з проміжку

x1 , x2  визначається за формулою

 x a

 x  a

P x1  X  x2    2

(18)

   1

,

  

  

де u  – функція Лапласу, значення якої знаходимо в таблиці 2. Зокрема,

 

P  X  a     2   .

(19)

 

У випадку   3 , отримаємо відоме правило 3 для нормального закону

Pa  3  X  a  3   0,997.

ЧИСЛОВІ ХАРАКТЕРИСТИКИ ЧИСЛОВИХ ВЕЛИЧИН

Закони розподілу є повними і вичерпними характеристиками випадкових

величин. Однак, для багатьох задач практики немає необхідності в повному

описі випадкових величин, достатньо лише вказати певні невипадкові числові

параметри, що характеризують суттєві риси розподілу: наприклад, середнє,

навколо розсіяні значення випадкової величини та величину цього розсіювання.

Математичним сподіванням дискретної випадкової величини Х

називається число

M  X    xi  pi .

(20)

i

Математичним

сподіванням

неперервної

9

випадкової

величини

Х


називається число

M X  



 xf x dx .

(21)



Математичне сподівання є середнім значенням випадкової величини.

Дисперсією випадкової величини називають математичне сподівання

випадкової величини  X  M  X 2 , тобто

D X   M  X  M  X 2 .

(22)

Середнім квадратичним відхиленням випадкової величини називається

число   X   D X  , яке характеризує розсіювання навколо середнього

значення.

Властивості математичного сподівання та дисперсії

1. DC   0;

1. M C   C  const;

2. Якщо X  0, то M  X   0;

2. D X   0 для будь-якої випадкової

величини;

3. DC  X   C 2 D X ;

3. M C  X   C  M  X ;

 

4. D X   M X  M  X 2 ;

4. M  X  Y   M  X   M Y ;

5. M  X  Y   M  X   M Y ; –

5. D X  Y   D X   DY ; –

якщо Х і Y – незалежні

якщо Х і Y – незалежні

випадкові величини.

випадкові величини.

Для дискретної та неперервної випадкових величин

обчислюється за формулою (відповідно)

2

D X     xi  M  X 2  pi   xi  pi  M  X 2 ;

2

D X  

i

i

 x  M  X  f x dx   x f x dx  M  X  .



2

2

2

дисперсія

(23)



Двовимірні випадкові величини

В багатьох випадках результат випробування характеризується не однією

випадковою величиною, а деякою системою випадкових величин X 1 , ..., X n ,

яку називають випадковим вектором X   X 1 , X 2 , ..., X n  .

x1 х2 ... хп ру

X

Y

р11 р21 ... рп1 ро1

y1

р12 р22 ... рп2 ро2

y2

...

... ... ... ...

р1т р2т ... рпт рот

ym

р1о р2о ... рпо 1

px

Нехай X   X , Y  – двовимірна випадкова величина, компоненти якої є

дискретні, тоді закон її розподілу можна представити у вигляді таблиці

10




розподілу в кожній клітинці якої pij  P  X  xi   Y  y j , причому

n

m

  pij  1

i 1 j 1

та

m

n

j 1

i 1

P X  xi   pio   pij ; PY  yi   poj   pij . (24)

Перший та останній рядок таблиці складають закон розподілу компоненти Х; а

перший та останній стовпці – розподіл компоненти У. Можна відповідно

обчислити числові характеристики M  X , D X , M Y , DY .

Якщо зафіксувати Y  y j , тоді отриманий закон розподілу

компоненти Х називається умовним і ймовірності обчислюються

 pij

 pij

Y  y j

 X  xi

(25)

P

; P

.

Y  yj p

X  xi 

 p

oj

io

Розглядаються також числові характеристики умовних розподілів.

Умовне математичне сподівання M Y / X  xi   M x Y   f  x  називається

регресією Y по Х, аналогічно M X / Y  y j  M y  X   g  y  регресією Х по Y .

Графіки функцій M x Y  та M y  X  називаються лініями регресії або кривими

регресії. Вони встановлюють форму зв’язку між випадковими величинами Х та

Y.

Функція F  x; y   P X  x; Y  y  називається функцією розподілу

двовимірного вектора; вона має властивості:

1. 0  F  x, y   1;

2. F  x;     F  ; y   F  ;     0;

3. F  ;     1, F  x; y  – неспадна по обох аргументах.

4. F  x;     F1  x  – функція розподілу компоненти Х.

F  ; y   F2  y  – функція розподілу компоненти Y .

Випадкові величини Х та Y незалежні тоді і тільки тоді, коли

F  x; y   F1  x   F2  y .

Для випадку неперервних компонент і коли F  x, y  – неперервно

диференційовна по кожній змінній, розглядають щільність розподілу

2

 F  x, y 

f  x, y  

і тоді

xy

y

x

1) F  x, y  

  f x, y dxdy;

 

3) f1  x  

 

2)

  f x, y dxdy  1;

 

 f x, y dy

– щільність розподілу Х;



f2 y 

 f x, y dx – щільність розподілу Y .



11


Якщо Х та Y – незалежні, то f  x, y   f1  x   f 2  y .

Кореляційним моментом (коваріацією) випадкових

називається величина

K xy  M  X  M  X   Y  M Y   M  X  Y   M  X   M Y 

і обчислюється за формулами

n

m

K xy    xi  y j  pij  M  X   M Y 

величин

(26)

i 1 j 1

для дискретного випадку;

та для неперервного випадку

K xy 

 

  xyf x, y dxdy  M  X   M Y .

 

Величина, яка характеризує силу (тісноту) зв’язку між Х та Y називають

коефіцієнтом кореляції і обчислюють за формулою

K xy

 xy 

(27)

D X   DY 

причому  xy  1.

Якщо Х та Y є незалежними, то K xy  0 та rxy  0.

Якщо rxy  0, то величини Х та Y називаються некорельованими.

Зразки розв’язування задач

Задача 1. В урні 10 кульок, серед яких 5 білих, 3 чорних, а решта червоні.

Навмання вийняли одну кульку. Знайти ймовірність того, що вона: 1) біла; 2)

червона.

Розв’язування. Позначимо події: А – вийнята біла кулька; В – вийнята

червона кулька. Кількість можливих наслідків випробування п = 10. Тоді за

формулою (4)

m

5 1

P A  1 ; де m1  5; тобто P A   ;

n

10 2

m

2 1

PB   2 ; де m2  10  5  3  2; PB    .

n

10 5

Задача 2. В урні 10 кульок, серед яких 5 білих, 3 чорних, решта червоні.

Навмання вийняли 3 кульки. Знайти ймовірність того, що вони: 1) всі білі; 2)

дві білі і одна чорна; 3) дві червоні і одна біла.

Розв’язування. Позначимо події: А – вийняли 3 білі кульки; В – вийняли

дві білі і одну чорну; С – вийняли 2 червоні і одну білу. Кількість можливих

наслідків випробування знайдемо за формулою (12)

10!

7!8  9  10

3

n  C10 

 4  3  10  120.

3!10  3! 1  2  3  7!

5!

3

m1  C5 

 10,

тоді

1) кількість сприятливих до А подій

3!2!

12


P  A 

m1 10

1

 .

n 120 12

2) кількість сприятливих до В подій

PB  

3)

2

1

m2  C5  C3 

5! 3!

 15,

2!3! 1!2!

тоді

2! 5!

 5,

2!0! 1!4!

тоді

m2 15

 0,125.

n 120

кількість

сприятливих

до

С

подій

2

1

m3  C 2  C5 

m3

5

1

 .

n 120 24

Задача 3. Двоє студентів складають іспит. Імовірність скласти іспит для

першого студента дорівнює 0,9, а для другого – 0,8. Знайти ймовірність того,

що іспит складуть: 1) обидва студенти; 2) один студент; 3) принаймні один

студент.

Розв’язування. Позначимо події: А – іспит складе перший студент; В –

іспит складе другий студент; С – іспит складуть обидва студенти; Д – іспит

складе тільки один; Е – іспит складе принаймні один студент; тоді E – іспит не

складе жоден. Тоді C  A  B; D  A  B  B  A; E    E ; E  A  B. Події

PC  

A, B, A, B – незалежні, тому для обчислення ймовірності події C , D, E

застосуємо

формули

(5´),

(7)

та

(8).

Маємо

PC   P  A  PB   0,9  0,8  0,72; P A  1  P A  1  0,9  0,1;

P B  1  PB   1  0,8  0,2; PD   P A  P B  PB   P A  0,9  0,2  0,8  0,1  0,26.





 





 

PE   1  P E  1  P A  P B  1  0,2  0,1  0,98.

Задача 4. Робота приладу обірвалася із-за виходу виходу з ладу одного з 5

уніфікованих блоків. Послідовно заміняють кожен блок новим доти, поки

прилад не почне працювати. Яка ймовірність того, що доведеться замінити 2

блоки?

Розв’язання. Позначимо випадкові події Ai  {і – тий блок працює}, і = 1,

2, 3, 4, 5. В – довелося замінити два блоки. З умови випливає, що B  A1  A2 ,

тоді PB   P A1  A2 . Тобто ми маємо скористатися формулою (6), де

4 1 1

1

P A2 / A1  . PB   P A1   P A2 / A1    , оскільки ймовірність події A2

5 4 5

4

залежить від того, чи відбулася подія A1.

Задача 5. У складальний цех поступають однакові деталі, котрі

виготовляють три автомати, продуктивність яких відноситься як 1:2:3. Перший

автомат дає 5 % браку, другий – 3 %, третій – 2 %. Знайти ймовірність того, що

деталь, яку навмання взяв складальник буде: 1) бракованою; 2) виготовленою

третім автоматом, якщо вона виявилася бракованою.

Розв’язання. Позначимо події: А – деталь бракована; H i – деталь

13


виготовлена і-тим автоматом, і = 1, 2, 3. H1 , H 2 , H 3 складають повну групу

1

1

3 1

2 1

 ; PH 2    ;

PH 3    . Відмітимо, що

подій, PH1  

1 2  3 6

6 2

6 3

1 1 1

5

PH1   PH 2   PH 3      1. З умови маємо, що P A / H1  

 0,05;

6 3 2

100

3

2

P A / H 2  

 0,03; P A / H 3  

 0,02. Тоді за формулами (9) та (10)

100

100

маємо:

17

1

1

1

1) P A   0,05   0,03   0,02 

 0,028.

600

2

3

6

PH 3   P A / H 3  1 / 2  0,02 6

2) PH 3 / A 

  0,353.

P  A

0,028

17

Задача 6. Імовірність попадання для стрільця дорівнює 0,8. По цілі було

зроблено 5 пострілів. Знайти ймовірність того, що: 1) було три попадання; 2)

було не більше двох промахів.

Розв’язування. Для обчислення використаємо формули Бернуллі (11) та

(11´).

1)

5!

3

3

2

n  5; k  3; p  0,8; q  1  0,8  0,2. P5 3  C5  p  q 

 0,83  0,2 2  0,2048.

3!2!

2)

n  5; k1  0; k 2  2; p  0,2; q  0,8. P5 0  k  2  P5 0  P5 1  P5 2  0,85  5 

 0,2  0,84  5  2  0,04  0,83  0,9421.

Задача 7. Посіяли 40 зерен деякого злаку. Знайти найбільш ймовірне

число зерен, які зійдуть, якщо сходжуваність таких зерен дорівнює 60%.

Розв’язування.

Застосуємо

формулу

(12),

де

n  40; p  0,6; q  1  0,6  0,4. Одержимо

40  0,6  0,4  m0  40  0,6  0,6, тобто 24  0,4  m0  24  0,6. Ціле число із

цього проміжку 23,6; 24,6 є m0  24.

Задача 8. Контрольну роботу з теорії ймовірностей успішно виконують в

середньому 50 % студентів. Знайти ймовірність того, що серед 400 студентів

виконають роботу успішно: 1) 180 студентів; 2) не менше 180 студентів.

Розв’язування. Тут застосовуватимемо формули (13) і (14). Оскільки

n  400; p  q  0,5 і тому n  p  200, а n  p  q  100  20 і краще скористатися

наближеними формулами Муавра-Лапласа. Значення функцій   x  та   x 

візьмемо з таблиць 1 і 2.

1

 180  200  1

1) P400 180  



   2   0,0054.

100 

100  10

14


 180  200 

 400  200 

2) P400 180  k  400   

   20    2 

  

100

100

 0,5  0,4772  0,9772.

Задача 9. Завод відправив на базу 10000 стандартних виробів. Середнє число

виробів, що пошкоджується при транспортуванні, складає 0,02 %. Знайти

ймовірність того, що серед відправлених виробів буде пошкоджено: 1) три; 2)

принаймні три.

0,02

Розв’язування. За умовами задачі n  10000 (досить велике). p 

 0,0002

100

(досить мала). Крім того, n  p  2 і тому слід використати формулу Пуассона

(15), де   n  p  2.

2

3

2 e

 0,1804;

1) P

10000 3 

3!

2) P

10000 k  3  1  P k  3  1  P

10000 0   P

10000 1  P

10000 2  

 1  0,1353  0,2709  0,2707   0,3233.

Задача 10. Серед 15 агрегатів, 6 необхідно додатково тестувати. Навмання

для перевірки відібрано 4 агрегати. Скласти закон розподілу числа агрегатів, які

необхідно додатково тестувати серед відібраних чотирьох. Знайти

M  X ,   X .

Розв’язування. Позначимо випадкову величину Х – число агрегатів, які

необхідно додатково тестувати. Тоді вона може приймати значення 0, 1, 2, 3, 4.

Ймовірності прийняття цих значень обчислимо за формулою Бернуллі, де

6

9

n  4, p   0,4; q   0,6; тоді

15

15

4

9

P1  P4 0 

 p  q  q     0,6  4  0,1296;

 15 

1

3

P2  P4 1  4  p  q  4  0,4  0,6 3  0,3456;

0

C4

0

4

4

2

P3  P4 2   C 4

 0,4 2  0,6 2  6  0,16  0,36  0,3456;

3

P4  P4 3  C 4

 0,4 3  0,6   0,1536.

P5  P4  p 4  0,4 4  0,0256, причому P

1  P2  P

3  P4  P

5  1.

Отримали закон розподілу

хі 0

1

2

3

4

рі 0,1296 0,3456 0,3456 0,1536 0,0256

Обчислимо M  X  за формулою (20).

M  X   0  0,1296  1  0,3456  2  0,3456  3  0,1536  4  0,0256  1,6.

За

формулою

(23)

D X   M X 2  M  X 2  0 2  0,1296  12  0,3456 

 

обчислимо

 2  0,3456  3  0,1536  4  0,0256  1,62  0,96; тоді   X   D X   0,98.

Задача 11. Випадкова величина Х задана функцією розподілу

2

2

2

15


x  1;

0,

F  x    x  12 , 1  x  4;

1,

x  4.

Знайти M  X ,   X , P1  X  2 . Побудувати графіки f  x  та F  x  .

Розв’язування. Знайдемо щільність розподілу f  x  за формулою (17)

x  1;

0,

2

f  x   F  x     x  1, 1  x  4;

9

x  4.

0,

4

3

2 4

2

2

x

x 

   3.

Тоді M  X    xf  x dx   x   x  1dx 

9

9 3

2 

1

1



4

4

3 4

x

x 

2

2

2 2

2

2

   9  0,5.

D X   M X  M  X    x   x  1dx  3 

 4

9

3

9

1

1

Тоді   X   0,5  0,707.

 

1

P1  X  2   F 2  F 1   x  12

9

2

1

1

1

 0 .

9

9

Побудуємо графіки функцій f  x  та F  x  .

F x 

1

f x 

1

2/9

х

0

4

4

0

х

Задача 12. Відоме математичне сподівання a  16 та середнє квадратичне

відхилення   5 нормально розподіленої випадкової величини Х. Обчислити

ймовірність того, що: 1) Х прийме значення з інтервалу (13; 22), 2) абсолютна

величина відхилення X  a буде менша за   10.

Розв’язування. 1) Для нормально розподіленої випадкової величини Х

скористаємося формулою (18)

 22  16 

 13  16 

P13  X  22   

  

   1,2    0,6   0,3849  0,2257  0,61.

 5 

 5 

Значення   x  візьмемо з таблиці 2.

2) За формулою (19), матимемо

 

P  X  a     2   ,

 

тобто

16


 10 

P X  16  10  2   2 2   2  0,4772  0,9544.

5

Задача 13. Закон розподілу дискретної двовимірної випадкової величини

 X , Y  задано таблицею. Знайти закон розподілу та числові характеристики

компонент, умовний закон розподілу Х при умові Y  2 та Y при умові X  1,

умовні математичні сподівання.

У -1

0

1

2

Рх

Х

1

0,10 0,25 0,30 0,15 0,8

2

0,10 0,05 0

0,05 0,2

Ру

0,2 0,3 0,3 0,2 1

Розв’язування. Розподіли компонент отримаємо з першого та останнього

стовпчиків, та першого і останнього рядків.

Х 1

2

У -1 0

1

2

Р 0,8 0,2

Р 0,2 0,3 0,3 0,2

Звідки

M  X   1  0,8  2  0,2  1,2; D X   12  0,8  2 2  0,2  1,2 2  0,16;   X   0,4.

Відповідно

M Y   1  0,2  0  0,3  1  0,3  2  0,2  0,5; DY   1  0,2  1  0,3  4  0,2 

 0,52  1,05;  Y   1,025. Знайдемо K xy за формулою (26)

K xy  1   1  0,1  0  1  0,25  1  1  0,3  1  2  0,15  2   1  0,1  0  2  0,05  1  2  0 

 2  2  0,05  1,2  0,5  0,1.

Обчислимо тепер коефіцієнт кореляції за формулою (27)

 0,1

rxy 

 0,244, який вказує, що Х та Y від’ємно корельовані.

0,4  1,025

Обчислимо умовні ймовірності:

0,15

0,05

 0,75;

 0,25;

P X 1

P X 2

Y  2 0,2

Y  2 0,2

0,1

0,25

 0,125;

 0,3125;

P Y  1

PY 0

X  1 0,8

X  1 0,8

0,3

0,15

PY 2

 0,375;

 0,1875.

P Y 1

X  1 0,8

X  1 0,8

Тоді умовні математичні сподівання

M X

 1  0,75  2  0,25  1,25; M Y

 1  0,125  0  0,31  25  1  0,375 

X 1

Y 2

 2  0,1815  0,625.

ЕЛЕМЕНТИ МАТЕМАТИЧНОЇ СТАТИСТИКИ

Математична статистика – це наука, що займається обробкою та

аналізом результатів випробувань, проведених над випадковими подіями.

17


Теоретичною основою математичної статистики є теорія ймовірностей.

Генеральна сукупність – це весь можливий набір однорідних даних, які

описують дане явище. Та частина об’єктів (даних), що відібрана для вивчення з

генеральної сукупності називається вибірка. Об’ємом сукупності називають

число об’єктів цієї сукупності.

Суть вибіркового методу полягає в тому, щоб по деякій частині

генеральної сукупності (вибірці) робити висновки про властивості і поведінку

сукупності в цілому. Теоретичною основою вибіркового методу служить закон

великих чисел, згідно якому при необмеженому зростанні об’єму вибірки,

вибіркові характеристики наближаються до параметрів генеральної сукупності.

Нехай з генеральної сукупності вилучена вибірка, причому значення x1

спостерігалося n1 разів, x2  n2 , ..., xk  nk разів. Об’єм вибірки складає

n1  n2    nk  n. Значення xi називають варіантами. Послідовність варіант,

записаних в порядку зростання, називають варіаційним рядом. Числа ni

n

називають частотами, а wi  i – відносними частотами.

n

Статистичним розподілом вибірки називають перелік варіант та відповідних

їм частот або відносних частот:

Варіанти

x1 x2 ... xk

Частоти ni

n1 n2 ... nk

Відносні частоти w1 w2 ... wk

,

причому

k

 wi  1.

i 1

Приклад 1. П’ятдесят абітурієнтів отримали на вступних іспитах такі бали: 12,

14, 19, 15, 14, 18, 13, 16, 17, 12, 20, 17, 15, 13, 17, 16, 20, 14, 14, 13, 17, 16, 15, 19,

16, 15, 18, 17, 15, 14, 16, 15, 15, 18, 15, 15, 19, 14, 16, 18, 18, 15, 15, 17, 15, 16, 16,

14, 14, 17.

Складемо варіаційний ряд: 12, 13, 14, 15, 16, 17, 18, 19, 20.

Найменше значення X min  12; найбільше значення X max  20.

Розмах вибірки R  X max  X min , R  20  12  8. Об’єм вибірки n  50. Для

знаходження частот, підрахуємо, скільки разів кожне значення варіанти

зустрічається у вибірці, для знаходження відносних частот, поділимо кожну

знайдену частоту на об’єм вибірки. Результати занесемо в таблицю і отримаємо

статистичний розподіл вибірки.

13

14

15

16

17

18

19

20

xi 12

 ni  50

i

3

8

12

8

7

5

3

2

ni 2

wi 2/50 3/50 8/50 12/50 8/50 7/50 5/50 3/50 2/50  wi  1

i

Статистичний розподіл можна задати також у вигляді послідовності інтервалів і

відповідних їм частот, тобто у вигляді інтервального варіаційного ряду.

Якщо А – деякий інтервал, то частотою n A називають кількість елементів

18


nA

. Згідно формули

n

Стерджеса рекомендують число інтервалів т: m  1  3,322  lg n і тоді довжина

 xmin

R x

. Для зручності іноді рекомендують брати хпочаткове

інтервалу h   max

m

m

h

h

= xmin  та хкінцеве = xmax  .

2

2

В розглядуваному прикладі 1 візьмемо m  6 і запишемо інтервальний

статистичний розподіл: h  1,5.

w Ai

Частота n Ai Відносна частота w Ai

№ інтервалу

Інтервал

n

1

(11,5 – 13)

2

2/50 = 0,04

0,02(6)

2

[13 –14,5)

11

11/50 = 0,22

0,14(6)

3

[14,5 – 16)

12

12/50 = 0,24

0,16

4

[16 – 17,5)

15

15/50 = 0,3

0,2

5

[17,5 – 19)

5

5/50 = 0,1

0,0(6)

6

[19 – 20,5)

5

5/50 = 0,1

0,0(6)

6

6

Всього:

 n Ai  50  wAi  1

вибірки, які попали в інтервал А; відносна частота w A 

i 1

i 1

Дискретний та інтервальний статистичний розподіл можна представити

графічно, використовуючи полігон – для дискретного, та гістограму – для

інтервального.

Полігон частот (або відносних частот) – це ламана, що з’єднує точки з

координатами  xi , ni  або  xi , wi  .

Гістограма – ступенева фігура, що складається з прямокутників з

w Ai

основою h і висотою

. Площа фігури дорівнює 1. Гістограма є аналог

h

кривої розподілу.

Побудуємо полігон та гістограму для прикладу

ni

w

12

полігон

h

частот

0,2

8

7

гістограма

0,14(6)

5

3

0,0(6)

2

0,027

12

14

16

20 0

0

18

xi 11, 1 14, 1617, 1 20,

х

Важливою характеристикою є емпірична функція розподілу. Позначимо

накопичені частоти n x  число xi  x, тоді емпірична функція розподілу

19


nx

, це є функція накопичених частот. Це є аналогія функції розподілу

n

для інтервального розподілу і за теоремою Бернуллі при n   наближається

до функції розподілу.

*

Побудуємо F  x  для прикладу 1.

x  11,5

0,

*

F x 

2 / 50  0,04, 11,5  x  13

1

13 / 50  0,26, 13  x  14,5

0,

0,8

*

F  x   25 / 50  0,5, 14,5  x  16

40 / 50  0,8, 16  x  17,5

0,

0,2

45 / 50  0,9, 17,5  x  19

0,0

50 / 50  1, 1, x  19

0 11, 1 14, 1 17, 1 20,

х

До числових характеристик вибірки відносяться:

вибіркове середнє значення

1 n

1 k

x   xi   xi  ni .

(1)

n i 1

n i 1

вибіркова дисперсія

2

2

2

1 n

1 n 2

1 k

Dв   xi  x   xi  x або Dв   ni  xi 2  x .

(2)

n i 1

n i 1

n i 1

вибіркове середнє квадратичне відхилення

 в  DB .

(3)

виправлена дисперсія

n

2

S 

 DB

(4)

n 1

та відповідне середнє квадратичне відхилення

F x  

*





S  S2.

(5)

Ці числові характеристики є оцінками відповідно математичного

сподівання та дисперсії генеральної сукупності.

Обчислимо числові характеристики вибірки прикладу 1. За дискретним

статистичним розподілом, маємо:

1

x  12  2  13  3  14  8  15  12  16  8  17  7  18  5  19  3  20  2   15,78.

50

1

2

2

2

2

2

2

2

2

2

DB 

12  2  13  3  14  8  15  12  16  8  17  7  18  5  19  3  20  2 

50

 15,782  3,7316;

 B  3,7316  1,9317.

50

2

 3,7316  3,808; S  3,808  1,9513.

Тоді S 

49

Для знаходження характеристик запишемо середини інтервалів і

відповідні частоти

20


хс

пі

12,25

2

13,75

11

15,25

12

16,75

15

18,75

5

19,75

5

1

12,25  2  13,75  11  15,25  12  16,75  15  18,75  5  19,75  5  16,05.

50

1

2

2

2

2

2

2

DB 

12,25  2  13,75  11  15,25  12  16,75  15  18,75  5  19,75  5  16,052 

50

 261,7425  257,6025  4,14, тоді  B  4,14  2,035. Відповідно

50

2

S 

 4,14  4,224, S  4,224  2,055.

49

Нехай для кожного об’єкта вибірки спостерігаються дві ознаки Х та У, які

є випадкові величини. Необхідно з’ясувати чи існує між ними статистична

залежність, тобто чи впливають зміни закону розподілу однієї ознаки на закон

розподілу іншої, і як саме. Це з’ясовує кореляційний та регресійний аналіз.

Нехай xi , i  1, n – значення ознаки Х, y j , i  1, m – ознаки У. Тоді, так

само, як для двовимірних випадкових величин, ми можемо розглядати умовні

закони розподілу (тобто їх статистичні аналоги). Замість M x Y  розглядають

x

y x – умовне середнє значень Y при відповідних значеннях Х.

Якщо y x  f  x , то залежність між Y та Х називається кореляційною, а

y  f  x  є рівняння регресії Y по Х. Аналогічно, замість M y  X  розглядають

x y  g  y .

Якщо функції f  x  та g  y  лінійні, тобто y x  ax  b; x y  cy  d , де

a, b, c, d – сталі, то залежність називається лінійною кореляцією.

Величину лінійної залежності значень Х та Y вибірки характеризує

вибірковий коефіцієнт кореляції, який обчислюється за формулою

n

 n xy xi y j  n  x  y

b 

i , j 1

n  x  y

,

(6)

де x, y – вибіркові середні ознак Х та Y ,

 x ,  y – вибіркові середні

квадратичні відхилення Х та Y , п – об’єм вибірки; n xy – частота значення

X  xi ,

Y  yj .

Вибірковий коефіцієнт кореляції є статистичною оцінкою теоретичного

коефіцієнту кореляції.

Вибіркове рівняння прямої лінії регресії Y по Х має вигляд:

yx  y b 

y

x  x ,

x

(7)

де х – змінна.

Вибіркове рівняння регресії дозволяє за значенням ознаки Х передбачити

значення ознаки Y .

Приклад 2. Нехай після спостережень за ознаками Х та Y маємо

21


кореляційну таблицю.

У

15

30

45

60

75

90

пх

Х

12

5

2

7

15

1

7

5

13

18

5

20

6

2

33

21

9

22

3

1

35

24

3

4

1

8

27

1

3

4

пу

6

13

34

31

10

5

п = 100

На перетині рядків та стовпчиків знаходяться частоти n xy пар значень

ознак, які спостерігаються. В останньому стовпчику – частоти ознаки Х, в

останньому рядку – частоти ознаки У. Складемо вибіркове рівняння прямої

регресії Y по Х. Скористаємося формулами (6) та (7). Для цього обчислимо всі

необхідні коефіцієнти.

Вибіркові середні обчислимо за формулою (1)

1

12  7  15  13  18  33  21  35  24  8  27  4  19,08.

x

100

1

15  6  30  13  45  34  60  31  75  10  90  5  50.

y

100

Знайдемо  x та  y , користуючись (2), (3).

DB  X    x 

2

1

(7  12  19,082  1315  19,082  3318  19,082  3521  19,082 

100

 8  24  19,082  427  19,082 )  11,794.

Отже  x  DB  x   3,434.

1

(615  50 2  1330  50 2  3415  50 2 

100

 75  50 2  10  590  502 )  307,5.  y  307,5  17,536.

Аналогічно

 3160  502

DB  y    y 

2

Далі, щоб обчислити  n xy  x  y, рухаємося послідовно по всім клітинам

таблиці і додаємо добутки частот на відповідні їм значення Х та У.

n xy xy  5  12  15  2  12  30  1  15  15  7  15  30  5  15  45  5  18  30  20  18  45 

 6  18  60  2  18  75  9  21  45  22  21  60  3  21  75  1  21  90  3  24  60 

 4  24  75  1  24  90  1  27  75  3  27  90  98685.

Підставимо отримані значення в формулу (6), отримаємо  B  0,546, і

тоді скористаємося формулою (7), матимемо:

17,536

x  19,08, отже, остаточно, рівняння регресії має

y x  50  0,546 

3,434

вигляд:

y x  2,786 x  3,151.

22



 

А также другие работы, которые могут Вас заинтересовать

26590. МЕТОДЫ ИССЛЕДОВАНИЯ МЯСА НА СВЕЖЕСТЬ 4.28 KB
  Состояние мышечной ткани – обращают внимание на корочку подсыхания цвет влажность консистенцию и запах; 2. состояние жира: цвет консистенция запах; 3. определение качества бульона – прозрачность и запах. Запах специфический приятный.
26591. МЕТОДЫ ОБЕЗВРЕЖИВАНИЯ УСЛОВНО ГОДНОГО МЯСА 5.46 KB
  Обезвреживание проваркой наиболее надежный способ его применяют во всех случаях при необходимости обезвредить условно годное мясо. При варке мяса и мясопродуктов их разделывают на куски массой не более 2 кг толщиной до 8 см проваривают в открытых котлах в течение 3 часов а в закрытых в течение 25 часов. Мясо считается обезвреженным если внутри куска температура достигла 80С и удерживалась на этом уровне в течение 10 минут. Цвет свинины на разрезе должен быть белосерым мясо других животных серым без признаков кровянистого...
26592. МЕТОДЫ ОПРЕДЕЛЕНИЯ ДОБРОКАЧЕСТВЕННОСТИ ЖИРА 22.16 KB
  МЕТОДЫ ОПРЕДЕЛЕНИЯ ДОБРОКАЧЕСТВЕННОСТИ ЖИРА. В средней пробе жира при температуре 20С определяют ЗАПАХ И ВКУС при установлении вкуса пробы не проглатывают. Эти показатели должны быть характерными для данного вида жира вытопленного из доброкачественного сырья. Она должна быть независимо от сорта для говяжьего и бараньего жира плотной или твердой для курдючного мазеобразной для свиного и конского жира мазеобразной или плотной для сборного и костного жира жидкой мазеобразной или плотной.
26593. МЕТОДЫ ОПРЕДЕЛЕНИЯ НАТУРАЛЬНОСТИ МЕДА 3.16 KB
  МЕТОДЫ ОПРЕДЕЛЕНИЯ НАТУРАЛЬНОСТИ МЕДА. Для определения натуральности и качества меда следует проанализировать три признака: питательность неизменность природного состава и возможность хранения. Питательность меда зависит в основном от содержания углеводов и его зрелости причем зрелость определяет не только пищевые и вкусовые но и лечебные качества. Созревание меда эго ряд биохимических превращений основу которых составляет ферментативный гидролиз сахарозы и удаление воды.
26594. МЕТОДЫ ОПРЕДЕЛЕНИЯ СВЕЖЕСТИ РЫБЫ 6.44 KB
  МЕТОДЫ ОПРЕДЕЛЕНИЯ СВЕЖЕСТИ РЫБЫ. Осмотру подлежит вся доставленная к реализации партия рыбы. Обращают внимание на внешний вид рыбы ее цвет состояние чешуи и слизи покрывающих тело рыбы а также на плавники цвет жабр состояние глаз брюшка поджато или вздуто консистенцию мышечной ткани запах слизи жабр и области анального отверстия. Вскрывают также рыбу со вздутым брюшком так как причиной такого состояния у свежей рыбы могут быть лигулез брюшная водянка и другие болезни.
26595. МИКРОФЛОРА МОЛОКА. ИСТОЧНИКИ МИКРОФЛОРЫ МОЛОКА. ИСТОЧНИКИ МИКРОБНОГО ОБСЕМЕНЕНИЯ МОЛОКА 6.71 KB
  МИКРОФЛОРА МОЛОКА. ИСТОЧНИКИ МИКРОФЛОРЫ МОЛОКА. ИСТОЧНИКИ МИКРОБНОГО ОБСЕМЕНЕНИЯ МОЛОКА Молоко хорошая питательная среда для микроорганизмов попадающих в него из различных источников. Вымя коровы основной источник микробного обсеменения молока.
26596. МИКРОФЛОРА, ВЫЗЫВАЮЩАЯ ГНИЛОСТНОЕ РАЗЛОЖЕНИЕ МЯСА 4.08 KB
  Одним из первоначальных продуктов гнилостного распада белка являются пептонысмеси пептидов вызывающие отравление при парентеральном введении. Органические основания образующиеся при гниении белка мяса называют птомаинами. В аэробных условиях процесс распада белка идет значительно глубже с образованием множества промежуточных и конечных продуктов гниения вплоть до воды и газа. Мясо в начальной стадии гниения когда накапливаются промежуточные продукты распада белка более опасно для человека.
26597. МОРФОЛОГИЧЕСКИЙ СОСТАВ МЯСА РАЗЛИЧНЫХ ЖИВОТНЫХ (ВИДОВ УБОЙНЫХ) 18.31 KB
  МОРФОЛОГИЧЕСКИЙ СОСТАВ МЯСА РАЗЛИЧНЫХ ЖИВОТНЫХ ВИДОВ УБОЙНЫХ. Цвет мышечной ткани красный но у различных видов убойных животных он отличается значительным разнообразием оттенков. Бледная окраска мускулатуры у откормленных и мало работающих животных связана с незначительным содержанием в ней миоглобина и свидетельствует о слабой интенсивности окислительных реакций. Так белесоватый цвет имеет мясо животных при беломышечной болезни а белое мясо возможно у свиней и даже у крупного рогатого скота при откорме их в промышленных комплексах в...
26598. СПОСОБЫ ДЕЗАКТИВАЦИИ ПРОДУКТОВ УБОЯ ЖИВОТНЫХ, СОДЕРЖАЩИХ РАДИОАКТИВНЫЕ ВЕЩЕСТВА 19.52 KB
  Основной задачей дезактивации мяса и мясопродуктов является снижение их радиоактивности до допустимых величин.56096: для мяса убойных животных без костей полуфабрикатов субпродуктов по цезию137 60 Бк кг стронцию90 50 Бк кг; для оленины без костей по цезию137 250 Бк кг стронцию90 80 Бк кг; для мяса диких животных без костей по цезию137 320 Бк кг стронцию90 100 Бк кг; для костей всех видов по цезию137 160 Бк кг стронцию90 200 Бк кг; для мяса домашней и промысловой птицы субпродуктов и полуфабрикатов из мяса птицы...