Теорія інформації та кодування в задачах
57


Відносна різниця між  lcep ( 2 )  та ентропією джерела

[(1,069 – 1,054) / 1,054] ´ 100%  = 1,4%,

що менше, ніж 2%, тобто такий код задовольняє вимогам.

Щоб закодувати послідовність, яку виробило джерело, поділяємо її на слова довжиною по 2 символи та застосовуємо для цих слів код  табл.2.8. В результаті маємо

1010000011001010011001001011110.

Довжина  двійкової  послідовності  дорівнює  31.

Задача  2.2.6

Розробити марковський алгоритм кодування для марковського джерела з алфавітом {A,B,C} та глибиною пам’яті  h = 1. Умовні ймовірності виникнення символів задаються матрицею

.

Знайти відносну різницю між середньою довжиною кодової комбінації ефективного коду та ентропією джерела. Закодувати послідовність довжиною у 30 символів

АСАСВАСВАСВАВАВВАСВВАССАСВАСВА,

яку згенерувало джерело.

Розв’язання. Оскільки глибина пам’яті  h = 1, кількість Q станів джерела дорівнює потужності його алфавіт, тобто  Q = 3. Для кожного стану, який визначається попереднім символом на виході джерела, будуємо нерівномірний код. Застосовуючи методику Хаффмена або Шеннона-Фано, легко отримати коди, що наведені в таблицях.

Після  символу  А :