Лекція 6. Види ентропії та їх властивості.
Безумовна ентропія та її властивості
Коли говорять про безумовну ентропію, то слово ”безумовна” опускають. Оговорюють інші види ентропії як менш поширені.
Безумовна ентропія – це питома кількість інформації на один елемент повідомлень, складених з алфавітів, між символами яких немає взаємозалежності.
Розглянемо поняття ентропії як міри невизначеності деякого досліду, результат якого залежить від вибору одного елементу з множини вихідних. Множину вихідних елементів називають вибірковим простором. Імовірності знаходження елементів вихідної множини в тому чи іншому стані є додатними числами, а сума їх рівна 1 (в іншому випадку результат досліду не відносився б до повної групи подій).
Вибірковий простір та його імовірнісні характеристики являють собою ансамбль повідомлень. Для дискретного ансамблю імовірність події рівна сумі імовірностей елементів вибіркового простору, які містять в цій події.
Ансамбль повідомлень на виході джерела називається ансамблем джерела повідомлень і позначається буквою A. Абстрактний алфавіт, за допомогою якого представляється вихідна множини елементів, позначається . Імовірності появи букви на виході джерела повідомлень позначимо . В цьому випаду ентропія джерела повідомлень і являє собою невизначеність появи на виході джерела повідомлень букви первинного алфавіту.
Ансамбль повідомлень на вході приймача називається ансамблем приймача повідомлень і позначати буквою B. Для того, щоб відрізняти передані та прийняті сигнали, абстрактний алфавіт, в якому представлений ансамбль приймача, позначається , а відповідні імовірності – . Тоді ентропія приймача повідомлень являє собою невизначеність появи на вході приймача букви після її появи на виході джерела повідомлень.
Якщо в каналі зв’язку не відбувається втрата інформації, то завжди буква a1 відповідає букві b1, а2 – b2 і т.д. При цьому .
Розглянемо властивості безумовної ентропії.
Якщо відомо, що подія точно відбудеться (це еквівалентно передачі повідомлення з однією якісною ознакою), то його ентропія рівна нулю.
Якщо відомо, що подія точно не відбудеться (це еквівалентно відсутності i-ої якісної ознаки), то його ентропія рівна нулю.
Якщо дослід являє собою послідовність рівноімовірних подій (це еквівалентно передачі повідомлень з рівноімовірними взаємонезалежними символами), то ентропія є максимальною.
Якщо подія з рівною імовірністю може відбутися або не відбутися, то його ентропія максимальна.
Ентропія зі скінченою кількістю результатів завжди є додатною величиною.
Ентропія бінарного відношення володіє властивістю симетрії: збільшення або зменшення ймовірності будь-якого з елементів бінарного повідомлення на одну і ту ж величину приводить до однакової зміни ентропії.
Ентропія складного повідомлення, яке складається з деяких часткових повідомлень, рівна сумі ентропій складових повідомлення: .
Умовна ентропія
На практиці часто зустрічаються взаємозалежні символи та повідомлення. При передачі змістовних повідомлень одні букви зустрічаються частіше, інші рідше, одні букви і слова часто ідуть за іншими. Наприклад, в англійській мові найчастіше використовується буква е; у французькій після букви q завжди іде буква u,якщо q не стоїть в кінці слова. Щодо взаємодіючих систем, то переважно стан однієї з них впливає на стан іншої. В таких випадках ентропія не може визначатись лише на основі безумовних імовірностей.
При підрахунку середньої кількості інформації на символ повідомлення взаємозалежність враховують через умовні імовірності появи одних подій відносно інших. А отриману при цьому ентропію називають умовною ентропією.
Умовна ентропія використовується при визначенні взаємозалежності між символами первинного алфавіту, для визначення втрат при передачі інформації по каналах зв’язку, при обчисленні ентропії об’єднання.
Розглянемо текстове повідомлення. Якщо при передачі n повідомлень символ A з’явився m раз, символ B з’явився l раз, а символ A разом з символом B – k раз, то імовірність появи символу A ; імовірність появи символу B ; імовірність сумісної появи символів A та B .
Умовна імовірність появи символа A відносно символа B і умовна імовірність появи символа B відносно символа A .
Якщо відомо умовну імовірність, то можна легко визначити й імовірність сумісної появи символів, використовуючи попередні формули:
.
Розглянемо формули умовної ентропії, використовуючи формулу Шеннона:
; (1)
, (2)
де індекс i вибрано для характеристики довільного стану джерела повідомлень A, індекс j вибрано для характеристики довільного стану адресату B.
Розрізняють поняття часткової та загальної умовної ентропії. Вирази (1) та (2) є частковими умовними ентропіями.
Загальна умовна ентропія повідомлення B відносно повідомлення A характеризує кількість інформації, яка міститься у будь-якому символі алфавіту, і визначається як сума імовірностей появи символів алфавіту помножена на невизначеність, яка залишається після того як адресат прийняв сигнал
. (3)
Вираз (3) є загальним для визначення кількості інформації на один символ повідомлення для випадку нерівноімовірних та взаємозв’язаних символів.
Оскільки являється імовірністю сумісної появи двох подій , то формулу (3) можна записати наступним чином:
(4)
Розглянемо властивості умовної ентропії.
Якщо ансамблі повідомлень A та B взаємонезалежні, то умовна ентропія A відносно B рівна безумовній ентропії A і навпаки:
.
Якщо ансамблі повідомлень A та Bнастільки жорстко статично пов’язані, що поява одного з них означає обов’язкову появу іншого, то їх умовні ентропії рівні нулю:
.
Ентропія об’єднання
Ентропія об’єднання використовується для обчислення ентропії сумісної появи статично залежних повідомлень. Наприклад, передаючи сто раз цифру 5 по каналу зв’язку з завадами, зауважили, що цифра 5 була прийнята 90 раз, цифра 6 – 8 раз і цифра 4 – 2 рази. Невизначеність виникнення комбінацій виду 5-4, 5-5, 5-6 при передачі цифри 5 може бути описана за допомогою ентропії об’єднання.
Ентропія об’єднання - це невизначеність того, що буде посилатись A, а прийматись B. Для ансамблів переданих повідомлень та прийнятих повідомлень ентропія об’єднання являє собою суму вигляду
(5)
Ентропія об’єднання та умовна ентропія пов’язані між собою наступними співвідношеннями:


Властивості ентропії об’єднання:
Властивість симетрії: .
При відсутності статичної залежності між елементами ансамблів A та B умовні імовірності перетворюються на безумовні, тоді
.
При повній статичній залежності між елементами ансамблів A та B (наприклад, коли результат однієї події однозначно визначає інформацію про другу подію) умовні ентропії рівні нулю, тому
.