На рис. 3 показана условно собственная энтропия H(x) и H(y), условные энтропии H(x/y) иH(y/x) и совместная энтропия H(x, y). Из этого рисунка, в частности, следуют соотношения (17) и (18).

Часть рисунка, отмеченная штриховкой, называется взаимной информацией I(x, y). Она показывает, какое (в среднем) количество информации содержит сообщение x о сообщении y (или наоборот, сообщение y о сообщении x).

Как следует из рис. 3,

. (20)

Если сообщение x и y полностью независимы, то взаимная информация отсутствует и I(x, y)=0.

Если x и y полностью зависимы ( x и y - содержат одну и ту же информацию), то I(x, y)=H(x)=H(y).

Понятие взаимной информации очень широко используется в теории передачи информации. Требования к взаимной информации различны в зависимости от того, с какой информацией мы имеем дело. Например, если x и y - это сообщения, публикуемые различными газетами, то для получения возможно большей суммарной (совместной) информации взаимная (т.е. одинаковая в данном случае) информация должна быть минимальной. Если же x и y - это сообщения на входе и на выходе канала связи с помехами, то для получения возможно большей информации её получателем необходимо, чтобы взаимная информация была наибольшей. Тогда условная энтропия H(x/y) - это потери информации в канале связи (ненадежность канала), H(y/x) - это информация о помехах(энтропия источника помех - H(n)) , поступающая в канал извне или создаваемая внутренними помехами в канале (схематически этот процесс показан на рис.4).

Вопросы

  1. Что такое взаимная информация двух источников ( или двух сообщений), чему она равна?
  2. Что такое ненадежность канала передачи информации, как ее определить через условные вероятности?
  3. Как определить информацию о помехах в канале передачи информации, используя условные вероятности перехода p(yj/xi)?