Теорія інформації та кодування в задачах
34


13

0,18

0,82

0,44

0,56

2,5

1,4

14

0,80

0,20

0,71

0,29

3,4

5,8

15

0,25

0,75

0,33

0,67

36

18

16

0,55

0,45

0,11

0,89

0,6

1,8

17

0,21

0,79

0,16

0,84

1,8

1,2

18

0,95

0,05

0,63

0,37

5

14

19

0,23

0,77

0,51

0,49

0,2

0,1

20

0,75

0,25

0,84

0,16

3,7

2,1

1.3.4.  Маємо два немарковських дискретних джерела інформації з алфавітами   X  = {x1x2,x3} та Y  = {y1,y2}. Чисельні значення безумовних  pyk) та умовних  py/xi)  ймовірностей виникнення символів на виході джерела з алфавітом  відомі та для різних варіантів наведені у таблиці  1.3.4. Отримати чисельні значення ентропії  H(X,Y)  системи цих двох джерел та повної взаємної інформації  I(X,Y). Яке з цих джерел має більшу надмірність?          

         Таблиця  1.3.4

варіанта

p(y1)

p(y2)

p(y3)

1

0,37

0,594

0,036

2

0,498

0,240

0,262

3

0,5

0,24

0,26

4

0,575

0,29

0,135

5

0,304

0,29

0,406

6

0,479

0,348

0,173