69641

Види ентропії та їх властивості. Безумовна ентропія та її властивості

Лекция

Коммуникация, связь, радиоэлектроника и цифровые приборы

Коли говорять про безумовну ентропію то слово безумовна опускають. Безумовна ентропія це питома кількість інформації на один елемент повідомлень складених з алфавітів між символами яких немає взаємозалежності. В цьому випаду ентропія джерела повідомлень і являє собою невизначеність...

Украинкский

2014-10-08

89.5 KB

2 чел.

PAGE  4

Лекція 6. Види ентропії та їх властивості.

Безумовна ентропія та її властивості

Коли говорять про безумовну ентропію, то слово ”безумовна” опускають. Оговорюють інші види ентропії як менш поширені.

Безумовна ентропія – це питома кількість інформації на один елемент повідомлень, складених з алфавітів, між символами яких немає взаємозалежності.

Розглянемо поняття ентропії як міри невизначеності деякого досліду, результат якого залежить від вибору одного елементу з множини вихідних. Множину вихідних елементів називають вибірковим простором. Імовірності знаходження елементів вихідної множини в тому чи іншому стані є додатними числами, а сума їх рівна 1 (в іншому випадку результат досліду не відносився б до повної групи подій).

Вибірковий простір та його імовірнісні характеристики являють собою ансамбль повідомлень. Для дискретного ансамблю імовірність події рівна сумі імовірностей елементів вибіркового простору, які містять в цій події.

Ансамбль повідомлень на виході джерела називається ансамблем джерела повідомлень і позначається буквою A. Абстрактний алфавіт, за допомогою якого представляється вихідна множини елементів, позначається . Імовірності появи букви на виході джерела повідомлень позначимо . В цьому випаду ентропія джерела повідомлень    і являє собою невизначеність появи на виході джерела повідомлень букви первинного алфавіту.

Ансамбль повідомлень на вході приймача називається ансамблем приймача повідомлень і позначати буквою B. Для того, щоб відрізняти передані та прийняті сигнали, абстрактний алфавіт, в якому представлений ансамбль приймача, позначається , а відповідні імовірності – . Тоді ентропія приймача повідомлень  являє собою невизначеність появи на вході приймача букви після її появи на виході джерела повідомлень.

Якщо в каналі зв’язку не відбувається втрата інформації, то завжди буква a1 відповідає букві b1, а2b2 і т.д. При цьому .

Розглянемо властивості безумовної ентропії.

  1.  Якщо відомо, що подія точно відбудеться (це еквівалентно передачі повідомлення з однією якісною ознакою), то його ентропія рівна нулю.
  2.  Якщо відомо, що подія точно не відбудеться (це еквівалентно відсутності i-ої якісної ознаки), то його ентропія рівна нулю.
  3.  Якщо дослід являє собою послідовність рівноімовірних подій (це еквівалентно передачі повідомлень з рівноімовірними взаємонезалежними символами), то ентропія є максимальною.
  4.  Якщо подія з рівною імовірністю може відбутися або не відбутися, то його ентропія максимальна.
  5.  Ентропія зі скінченою кількістю результатів завжди є додатною величиною.
  6.  Ентропія бінарного відношення володіє властивістю симетрії: збільшення або зменшення ймовірності будь-якого з елементів бінарного повідомлення на одну і ту ж величину приводить до однакової зміни ентропії.
  7.  Ентропія складного повідомлення, яке складається з деяких часткових повідомлень, рівна сумі ентропій складових повідомлення: .

Умовна ентропія

На практиці часто зустрічаються взаємозалежні символи та повідомлення. При передачі змістовних повідомлень одні букви зустрічаються частіше, інші рідше, одні букви і слова часто ідуть за іншими. Наприклад, в англійській мові найчастіше використовується буква е; у французькій після букви q завжди іде буква u,якщо q не стоїть в кінці слова. Щодо взаємодіючих систем, то переважно стан однієї з них впливає на стан іншої. В таких випадках ентропія не може визначатись лише на основі безумовних імовірностей.

При підрахунку середньої кількості інформації на символ повідомлення взаємозалежність враховують через умовні імовірності появи одних подій відносно інших. А отриману при цьому ентропію називають умовною ентропією.

Умовна ентропія використовується при визначенні взаємозалежності між символами первинного алфавіту, для визначення втрат при передачі інформації по каналах зв’язку, при обчисленні ентропії об’єднання.

Розглянемо текстове повідомлення. Якщо при передачі n повідомлень символ A з’явився m раз, символ B з’явився l раз, а символ A разом з символом Bk раз, то імовірність появи символу A ; імовірність появи символу B ; імовірність сумісної появи символів A та B .

Умовна імовірність появи символа A відносно символа B  і умовна імовірність появи символа B відносно символа A .

Якщо відомо умовну імовірність, то можна легко визначити й імовірність сумісної появи символів, використовуючи попередні формули:

.

Розглянемо формули умовної ентропії, використовуючи формулу Шеннона:

 ;    (1)

 ,    (2)

де індекс i вибрано для характеристики довільного стану джерела повідомлень A, індекс j вибрано для характеристики довільного стану адресату B.

Розрізняють поняття часткової та загальної умовної ентропії. Вирази (1) та (2) є частковими умовними ентропіями.

Загальна умовна ентропія повідомлення B відносно повідомлення A характеризує кількість інформації, яка міститься у будь-якому символі алфавіту, і визначається як сума імовірностей появи символів алфавіту помножена на невизначеність, яка залишається після того як адресат прийняв сигнал

.  (3)

Вираз (3) є загальним для визначення кількості інформації на один символ повідомлення для випадку нерівноімовірних та взаємозв’язаних символів.

Оскільки  являється імовірністю сумісної появи двох подій , то формулу (3) можна записати наступним чином:

   (4)

Розглянемо властивості умовної ентропії.

  1.  Якщо ансамблі повідомлень A та B взаємонезалежні, то умовна ентропія A відносно B рівна безумовній ентропії A і навпаки:

.

  1.  Якщо ансамблі повідомлень A та Bнастільки жорстко статично пов’язані, що поява одного з них означає обов’язкову появу іншого, то їх умовні ентропії рівні нулю:

.

Ентропія об’єднання

Ентропія об’єднання використовується для обчислення ентропії сумісної появи статично залежних повідомлень. Наприклад, передаючи сто раз цифру 5 по каналу зв’язку з завадами, зауважили, що цифра 5 була прийнята 90 раз, цифра 6 – 8 раз і цифра 4 – 2 рази. Невизначеність виникнення комбінацій виду 5-4, 5-5, 5-6 при передачі цифри 5 може бути описана за допомогою ентропії об’єднання.

Ентропія об’єднання  - це невизначеність того, що буде посилатись A, а прийматись B. Для ансамблів переданих повідомлень  та прийнятих повідомлень  ентропія об’єднання являє собою суму вигляду

   (5)

Ентропія об’єднання та умовна ентропія пов’язані між собою наступними співвідношеннями:

 

 

Властивості ентропії об’єднання:

  1.  Властивість симетрії:  .
  2.  При відсутності статичної залежності між елементами ансамблів A та B умовні імовірності перетворюються на безумовні, тоді

.

  1.  При повній статичній залежності між елементами ансамблів A та B (наприклад, коли результат однієї події однозначно визначає інформацію про другу подію) умовні ентропії рівні нулю, тому

.


 

А также другие работы, которые могут Вас заинтересовать

59310. Інтонація та розділові знаки між простими реченнями в складносурядному 38.5 KB
  Які речення називається складносурядним 2. Які смислові зв’язки існують між простими реченнями у складносурядному 3. ЗАВДАННЯ: записити й виразно з інтонацією прочитати речення.
59311. ЕНЕРГІЯ ЗМІН: МОЛОДЬ ВИБИРАЄ ЗДОРОВЯ 59 KB
  Допомогти учням зрозуміти значення всіх складових і факторів здоров’я. Вчити усвідомлювати основну мету здорової людини повноцінне життя як громадянина; можливість кожної особи реалізувати свій творчий і фізичний потенціал успадкований від батьків...
59312. Святий Миколай-найяскравіший приклад добродійництва і милосердя 40.5 KB
  Трошки допоможи мамі бо святий Миколай все бачить і чує. Гануся: Мамо мамо а хто такий святий Миколай Мама: Ой діти то довга історія а я немаю часу розповідати. Жив в однім краю служив Господу Богу і людям єпископ Миколай.
59314. Кайдашева сімя – зразок реалістичної соціально-побутової повісті 45 KB
  Кайдашева сім’я зразок реалістичної соціальнопобутової повісті. Нечуя-Левицького Кайдашева сім’я€. ВИХОВНА: виховувати повагу до старшого покоління показати огидність сімейних конфліктів. Історія написання повісті €œКайдашева сім’я€.
59315. Дозвольте колядувати – дім звеселяти 56 KB
  Хід заняття: діти заходять до залу Вихователь: Діти нещодавно ми святкували Різдвяні свята. Діти а що це за свято Різдво Що це за день Діти Це день коли народився Ісус Христос. діти беруться за руки попарно Всі – Мирмиром пироги з сиром варенички в маслі Ми дружечки красні.
59316. Веселі старти 26.5 KB
  Естафета 1: Передай швидше м’яч†Естафета заключається в тому яка команда швидше передасть м’яч. Виграла та команда в якої командир найшвидше від всіх інших стане на своє попереднє місце. по команді марш†вся команда взявшись за руки біжить поміж прапорцями так щоб вони не впали. Команда біжить в кінець залу і вертається так само.
59317. Бал ввічливості. Свято ввічливості 38.5 KB
  Ведучий: Кожний бал діти розпочинається €œбальним танцем€. Ведучий: Шановні мушкетери Просимо вас прочитати лекцію будьласка мушкетери. Пан Коцький: вітає Привіт А я запізнився Про що ви тут розмовляєте Ведучий: Так ти запізнився А ми про ввічливість говоримо.