Теорія інформації та кодування в задачах
31


Для визначення  та  розрахуємо ймовірності  сумісної появи символів  та  за виразом (1.14):

 .

Тепер неважко пересвідчитись (зробіть це самостійно), що

  H(X,Y) = I(X,Y) = H(X) = H(Y)= 1,28 біт .

1.3. Задачі 

1.3.1.  Отримати чисельні значення ентропії, продуктивності та надмірності немарковського дискретного джерела інформації з алфавітом  потужності  M =  4 . Значення ймовірностей  p(xi) виникнення символів та їх тривалостей  t i ( в мілісекундах,  мс ) для різних варіантів наведені у таблиці  1.3.1.

           Таблиця  1.3.1

варіанта

p(x1)

p(x2)

p(x3)

p(x4)

t1

t2

t3

t4

1

0,33

0,08

0,15

0,44

1,2

0,2

0,8

0,5

2

0,21

0,16

0,03

0,6

5,4

1,5

2,3

1,2

3

0,15

0,27

0,34

0,24

15

7

5

10

4

0,05

0,08

0,11

0,76

8,6

3,4

5,8

0,9

5

0,62

0,28

0,04

0,06

0,3

0,4

0,6

0,8

6

0,17

0,41

0,23

0,19

2,6

1,1

0,5

7,3

7

0,55

0,15

0,06

0,24

3,3

5,1

1,2

1,2

8

0,08

0,35

0,27

0,30

0,1

0,3

0,5

0,8

9

0,22

0,33

0,05

0,40

2,2

1,8

0,5

3,0

10

0,62

0,12

0,08

0,18

1,8

0,8

0,6

0,5

11

0,26

0,14

0,50

0,10

3,7

2,1

1,2

1,5

12

0,14

0,33

0,27

0,26

0,2

0,1

0,5

1,5