Теорія інформації та кодування в задачах
77


(3.19)

Маємо     p(y1) = 0,556;   p(y2) = 0,315;   p(y3) = 0,129;

H(Y)  =  1,377 біт.

Нарешті     = 100×(1,377 – 0,557)  =  82 біт/с .

Задача  3.2.2

Для каналу задачі 3.2.1 знайти середню кількість інформації, що переноситься одним символом, та швидкість передачі інформації по каналу, якщо до входу каналу підключене марковське стаціонарне дискретне джерело інформації задачі 1.2.6.

Розв’язання. Оскільки до входу каналу підключене марковське джерело, вихід каналу теж в загальному випадку буде являти собою марковське джерело, при цьому глибина пам’яті може бути більше одиниці. Це ускладнює застосування виразів  (3.6) та  (3.8), оскільки для розрахунків H(Y)  недостатньо знати тільки безумовні ймовірності  p(y) виникнення символів на виході каналу; треба знати також умовні ймовірності  p(y/s),  де s – стан джерела з алфавітом Y ( виходу каналу ), який визначається попередніми символами на виході каналу.

Для розрахунку середньої кількості інформації, що переноситься одним символом, доцільніше в цьому випадку користуватись виразом (3.5). Щоб знайти умовну  ентропію  H(X/Y),  треба знайти умовні ймовірності , для чого скористуємося виразом

Ймовірності  p(xi) та  p(y/xi) є відомими. Для розрахунку ймовірностей  p(yk) скористуємося виразом  (3.19). Маємо

p(x1) = 0,70037;  p(x2) = 0,16802;  p(x3) = 0,13161.