69641

Види ентропії та їх властивості. Безумовна ентропія та її властивості

Лекция

Коммуникация, связь, радиоэлектроника и цифровые приборы

Коли говорять про безумовну ентропію то слово безумовна опускають. Безумовна ентропія це питома кількість інформації на один елемент повідомлень складених з алфавітів між символами яких немає взаємозалежності. В цьому випаду ентропія джерела повідомлень і являє собою невизначеність...

Украинкский

2014-10-08

89.5 KB

5 чел.

PAGE  4

Лекція 6. Види ентропії та їх властивості.

Безумовна ентропія та її властивості

Коли говорять про безумовну ентропію, то слово ”безумовна” опускають. Оговорюють інші види ентропії як менш поширені.

Безумовна ентропія – це питома кількість інформації на один елемент повідомлень, складених з алфавітів, між символами яких немає взаємозалежності.

Розглянемо поняття ентропії як міри невизначеності деякого досліду, результат якого залежить від вибору одного елементу з множини вихідних. Множину вихідних елементів називають вибірковим простором. Імовірності знаходження елементів вихідної множини в тому чи іншому стані є додатними числами, а сума їх рівна 1 (в іншому випадку результат досліду не відносився б до повної групи подій).

Вибірковий простір та його імовірнісні характеристики являють собою ансамбль повідомлень. Для дискретного ансамблю імовірність події рівна сумі імовірностей елементів вибіркового простору, які містять в цій події.

Ансамбль повідомлень на виході джерела називається ансамблем джерела повідомлень і позначається буквою A. Абстрактний алфавіт, за допомогою якого представляється вихідна множини елементів, позначається . Імовірності появи букви на виході джерела повідомлень позначимо . В цьому випаду ентропія джерела повідомлень    і являє собою невизначеність появи на виході джерела повідомлень букви первинного алфавіту.

Ансамбль повідомлень на вході приймача називається ансамблем приймача повідомлень і позначати буквою B. Для того, щоб відрізняти передані та прийняті сигнали, абстрактний алфавіт, в якому представлений ансамбль приймача, позначається , а відповідні імовірності – . Тоді ентропія приймача повідомлень  являє собою невизначеність появи на вході приймача букви після її появи на виході джерела повідомлень.

Якщо в каналі зв’язку не відбувається втрата інформації, то завжди буква a1 відповідає букві b1, а2b2 і т.д. При цьому .

Розглянемо властивості безумовної ентропії.

  1.  Якщо відомо, що подія точно відбудеться (це еквівалентно передачі повідомлення з однією якісною ознакою), то його ентропія рівна нулю.
  2.  Якщо відомо, що подія точно не відбудеться (це еквівалентно відсутності i-ої якісної ознаки), то його ентропія рівна нулю.
  3.  Якщо дослід являє собою послідовність рівноімовірних подій (це еквівалентно передачі повідомлень з рівноімовірними взаємонезалежними символами), то ентропія є максимальною.
  4.  Якщо подія з рівною імовірністю може відбутися або не відбутися, то його ентропія максимальна.
  5.  Ентропія зі скінченою кількістю результатів завжди є додатною величиною.
  6.  Ентропія бінарного відношення володіє властивістю симетрії: збільшення або зменшення ймовірності будь-якого з елементів бінарного повідомлення на одну і ту ж величину приводить до однакової зміни ентропії.
  7.  Ентропія складного повідомлення, яке складається з деяких часткових повідомлень, рівна сумі ентропій складових повідомлення: .

Умовна ентропія

На практиці часто зустрічаються взаємозалежні символи та повідомлення. При передачі змістовних повідомлень одні букви зустрічаються частіше, інші рідше, одні букви і слова часто ідуть за іншими. Наприклад, в англійській мові найчастіше використовується буква е; у французькій після букви q завжди іде буква u,якщо q не стоїть в кінці слова. Щодо взаємодіючих систем, то переважно стан однієї з них впливає на стан іншої. В таких випадках ентропія не може визначатись лише на основі безумовних імовірностей.

При підрахунку середньої кількості інформації на символ повідомлення взаємозалежність враховують через умовні імовірності появи одних подій відносно інших. А отриману при цьому ентропію називають умовною ентропією.

Умовна ентропія використовується при визначенні взаємозалежності між символами первинного алфавіту, для визначення втрат при передачі інформації по каналах зв’язку, при обчисленні ентропії об’єднання.

Розглянемо текстове повідомлення. Якщо при передачі n повідомлень символ A з’явився m раз, символ B з’явився l раз, а символ A разом з символом Bk раз, то імовірність появи символу A ; імовірність появи символу B ; імовірність сумісної появи символів A та B .

Умовна імовірність появи символа A відносно символа B  і умовна імовірність появи символа B відносно символа A .

Якщо відомо умовну імовірність, то можна легко визначити й імовірність сумісної появи символів, використовуючи попередні формули:

.

Розглянемо формули умовної ентропії, використовуючи формулу Шеннона:

 ;    (1)

 ,    (2)

де індекс i вибрано для характеристики довільного стану джерела повідомлень A, індекс j вибрано для характеристики довільного стану адресату B.

Розрізняють поняття часткової та загальної умовної ентропії. Вирази (1) та (2) є частковими умовними ентропіями.

Загальна умовна ентропія повідомлення B відносно повідомлення A характеризує кількість інформації, яка міститься у будь-якому символі алфавіту, і визначається як сума імовірностей появи символів алфавіту помножена на невизначеність, яка залишається після того як адресат прийняв сигнал

.  (3)

Вираз (3) є загальним для визначення кількості інформації на один символ повідомлення для випадку нерівноімовірних та взаємозв’язаних символів.

Оскільки  являється імовірністю сумісної появи двох подій , то формулу (3) можна записати наступним чином:

   (4)

Розглянемо властивості умовної ентропії.

  1.  Якщо ансамблі повідомлень A та B взаємонезалежні, то умовна ентропія A відносно B рівна безумовній ентропії A і навпаки:

.

  1.  Якщо ансамблі повідомлень A та Bнастільки жорстко статично пов’язані, що поява одного з них означає обов’язкову появу іншого, то їх умовні ентропії рівні нулю:

.

Ентропія об’єднання

Ентропія об’єднання використовується для обчислення ентропії сумісної появи статично залежних повідомлень. Наприклад, передаючи сто раз цифру 5 по каналу зв’язку з завадами, зауважили, що цифра 5 була прийнята 90 раз, цифра 6 – 8 раз і цифра 4 – 2 рази. Невизначеність виникнення комбінацій виду 5-4, 5-5, 5-6 при передачі цифри 5 може бути описана за допомогою ентропії об’єднання.

Ентропія об’єднання  - це невизначеність того, що буде посилатись A, а прийматись B. Для ансамблів переданих повідомлень  та прийнятих повідомлень  ентропія об’єднання являє собою суму вигляду

   (5)

Ентропія об’єднання та умовна ентропія пов’язані між собою наступними співвідношеннями:

 

 

Властивості ентропії об’єднання:

  1.  Властивість симетрії:  .
  2.  При відсутності статичної залежності між елементами ансамблів A та B умовні імовірності перетворюються на безумовні, тоді

.

  1.  При повній статичній залежності між елементами ансамблів A та B (наприклад, коли результат однієї події однозначно визначає інформацію про другу подію) умовні ентропії рівні нулю, тому

.


 

А также другие работы, которые могут Вас заинтересовать

17809. МІЖНАРОДНА ЕКОНОМІЧНА ІНТЕГРАЦІЯ 666 KB
  Тема 8. міжнародна економічна інтеграція Поняття та основні риси міжнародної економічної інтеграції та глобалізації. Передумови й умови її становлення як якісно нового рівня МЕВ. Форми міжнародної інтеграції. Сучасні особливості процесів міжнародної економічної інте
17810. ГЛОБАЛІЗАЦІЯ ТА ЕКОНОМІЧНИЙ РОЗВИТОК 239 KB
  Тема 9. ГЛОБАЛІЗАЦІЯ ТА ЕКОНОМІЧНИЙ РОЗВИТОК Сутність глобалізації. Причини та основні ознаки глобалізації. Суперечливість глобалізаційного процесу. Фінансова глобалізація. Світові фінансові кризи. Глобальні проблеми та шляхи їх вирішення. Демографічний вибух та по...
17811. СУТЬ ТА ФУНКЦІЇ ГРОШЕЙ 82.5 KB
  ЛЕКЦІЇ ПО ДИСЦИПЛІНІ ГРОШІ ТА КРЕДИТ ТЕМА 1. СУТЬ ТА ФУНКЦІЇ ГРОШЕЙ ПЛАН 1.1. Раціоналістична та еволюційна концепції походження грошей. 1.2. Визначення поняття суті грошей. 1.3. Форми грошей причини та механізм їх еволюції. 1.4. Вартість грошей. 1.5. Функції гро
17812. КІЛЬКІСНА ТЕОРІЯ ГРОШЕЙ І СУЧАСНИЙ МОНЕТАРИЗМ 122 KB
  ЛЕКЦІЇ ПО ДИСЦИПЛІНІ ГРОШІ ТА КРЕДИТ ТЕМА 2. КІЛЬКІСНА ТЕОРІЯ ГРОШЕЙ І СУЧАСНИЙ МОНЕТАРИЗМ ПЛАН 2.1. Класична кількісна теорія грошей її основні постулати. 2.2. Неокласичний варіант розвитку класичної теорії грошей. 2.3. Вклад Дж. Кейнса у розвиток кількісної теорі...
17813. ГРОШОВИЙ ОБІГ І ГРОШОВІ ПОТОКИ 602.5 KB
  ЛЕКЦІЇ ПО ДИСЦИПЛІНІ ГРОШІ ТА КРЕДИТ ТЕМА 3. ГРОШОВИЙ ОБІГ І ГРОШОВІ ПОТОКИ ПЛАН 3.1. Поняття грошового обігу як процесу руху грошей. 3.2. Поняття грошового потоку. 3.3. Структура грошового обігу. 3.4. Маса грошей що обслуговує грошовий обіг. 3.5. Швидкість обігу грошей....
17814. ГРОШОВИЙ РИНОК 520.5 KB
  ЛЕКЦІЇ ПО ДИСЦИПЛІНІ ГРОШІ ТА КРЕДИТ ТЕМА 4. ГРОШОВИЙ РИНОК ПЛАН 4.1. Суть і структура грошового ринку. 4.2. Чинники що визначають параметри попиту на гроші. 4.3. Механізм формування пропозиції грошей. 4.4. Рівновага на грошовому ринку та відсоток. 4.5. Грошовий рино
17815. ГРОШОВІ СИСТЕМИ 89 KB
  ЛЕКЦІЇ ПО ДИСЦИПЛІНІ ГРОШІ ТА КРЕДИТ ТЕМА 5. ГРОШОВІ СИСТЕМИ ПЛАН 5.1. Суть грошової системи її призначення та місце в економічній системі країни. Елементи грошової системи. 5.2. Основні типи грошових систем їх еволюція. Системи металевого й кредитного обігу. 5.3.
17816. КРЕДИТ У РИНКОВІЙ ЕКОНОМІЦІ 72.5 KB
  ЛЕКЦІЇ ПО ДИСЦИПЛІНІ ГРОШІ ТА КРЕДИТ ТЕМА 6. КРЕДИТ У РИНКОВІЙ ЕКОНОМІЦІ ПЛАН 6.1. Кредит: необхідність сутність теорії формита види. 6.2. Процент за кредит. 6.3. Функції та роль кредиту. 6.1. Кредит: необхідність сутність теорії форми та види Необхідність к...
17817. ВАЛЮТНІ ВІДНОСИНИ І ВАЛЮТНІ СИСТЕМИ 151.5 KB
  ЛЕКЦІЇ ПО ДИСЦИПЛІНІ ГРОШІ ТА КРЕДИТ ТЕМА 7. ВАЛЮТНІ ВІДНОСИНИ І ВАЛЮТНІ СИСТЕМИ ПЛАН 7.1. Поняття валюти валютний курс та конвертованість валют. 7.2. Валютний ринок: суть та основи функціонування. 7.3. Суть та необхідність валютного регулювання. 7.4. Валютні системи...