На практике все сигналы, которые предназначены для передачи информации, носят случайный характер. Именно в случайности изменения сигналов заложена информация, которую необходимо передать получателю. Помимо этого, при передаче сигналов действуют помехи, которые также носят случайный характер.
В отличие от детерминированных сигналов значения случайного сигнала в некоторый момент времени невозможно предсказать точно. Вместе с тем, описание таких сигналов возможно в вероятностном смысле через усредненные (статистические) характеристики. Поэтому, прежде чем перейти к изучению случайных сигналов целесообразно рассмотреть основные положения теории вероятностей.
Подобно тому, как в алгебре основным понятием является число, а в геометрии – точка, линия, плоскость, в теории вероятностей основным понятием является случайное событие, которое при проведении эксперимента может произойти, а может и не произойти. Если, например, проводится эксперимент, включающий серию из n испытаний радиотехнического устройства, то результатом каждого испытания может быть либо рабочее состояние устройства, либо его отказ, которые представляют собой события. Но при каждом конкретном испытании отказ может произойти, а может и не произойти. В этом смысле отказ является случайным событием. Обозначим случайное событие буквой .
Центральным в теории вероятностей является определение частости (или частоты) наступления события
, (5.1)
где – число испытаний, соответствующих наступлению со бытия ,
– общее число все проведенных испытаний.
При достаточно большом числе всех проведенных испытаний (теоретически при ) частость наступления события отождествляется с вероятностью
. (5.2)
Из данного определения следует, что
, (5.3)
т.е. вероятность является неотрицательной величиной, принимающей значение в диапазоне чисел от 0 до 1.
Событие , для которого , называется невозможным, а событие для которого – достоверным.
Понятие вероятности можно распространить на совокупность событий. Если – множество всех случайных событий, то – вероятность наступления события . В рассмотренном примере , где – отказ устройства, – рабочее состояние.
Множество событий образуют полную группу, если в результате испытания одно из событий множества наступит обязательно. События рассмотренного выше примера образуют полную группу. Очевидно, для полной группы событий справедливо равенство
.
События и называются несовместными, если появление одного из них исключает появление другого. События и рассмотренного примера являются несовместными. Вероятность наступления одного из них, т.е. события или события , или …, события , …, или события равна сумме вероятностей этих событий
. (5.5)
Если в результате эксперимента возможно одновременное наступление событий, например, при включении радиоприемника он является исправным (событие ) и настроен на произвольную частоту (событие ), то такие события называются совместными. В этом случае говорят, что событие влечет за собой событие и такая ситуация обозначается . Вероятность наступления события , если произошло событие называется условной вероятностью . Очевидно, вероятность одновременного наступления совместных событий и определяется соотношением
. (5.6)
События и называются независимыми, если наступление одного из них не связано с наступлением другого. Вероятность наступления двух независимых совместных событий равна
. (5.7)
Отсюда следует, что для независимых совместных событий условная вероятность равна безусловной вероятности .
Вероятность события , которое может наступить с одним из событий , образующих полную группу несовместных событий, называемых гипотезами, определяется формулой полной вероятности
. (5.8)
Вероятность наступления гипотезы , после того как наступило событие , определяется формулой Байеса
, (5.9)
где вычисляется в соответствии с (5.8).
Случайные события характеризуют эксперимент с качественной стороны. На практике пользуются количественной оценкой результата. Если в результате эксперимента наступает или не наступает событие (в рассмотренном примере отказ радиотехнического устройства), этому случайному событию можно поставить в соответствие величину, принимающую только два значения: 1 или 0 в зависимости от того, произошло событие или нет. Так как событие случайно, случайной будет и величина (СВ), оценивающая результат эксперимента. Очевидно, вероятность наступления события в рассматриваемом примере совпадает с вероятностью того, что случайная величина принимает значение, равное 1.
Обозначим случайную величину через , а значения, которые она может принимать,− через . Если случайная величина принимает значения из множества , элементы которого можно перенумеровать, то такая случайная величина называется дискретной СВ. Если же множество значений непрерывно, т.е. перенумеровать значения невозможно, то такая величина называется непрерывной СВ.
Как дискретная, так и непрерывная СВ полностью характеризуются законами распределения. Функцией распределения (интегральным законом) дискретной СВ называется зависимость
, (5.10)
т.е. зависимость вероятности того, что случайная величина не превосходит значения , где принимает значения от до .
Рядом распределения дискретной СВ называется совокупность всех возможных значений и соответствующих им вероятностей
. (5.11)
Ряд распределения задается либо выражением (5.11), либо в виде таблицы. Очевидно
. (5.12)
Функция распределения непрерывной СВ представляет собой зависимость
, (5.13)
и является интегральным законом распределения непрерывной СВ.
Плотностью распределения непрерывной СВ называется зависимость
, (5.14)
где , и представляет собой отношение вероятности того, что непрерывная СВ будет находиться в пределах элементарного интервала к величине этого интервала. Если функция непрерывна и интервал значений СВ составляет ( ), то функция распределения и плотность распределения связаны между собой соотношениями
, (5.15)
. (5.16)
Из (5.16) следует, что плотность распределения представляет собой дифференциальный закон распределения вероятностей.
На рис. 5.1 изображены графики функции распределения и ряда распределения дискретной СВ (рис. 5.1а,б) и функции распределения и плотности распределения (рис. 5.1в,г) непрерывной СВ.
Основные свойства функции распределения:
− функция распределения (для дискретной СВ – ступенчатая, для непрерывной СВ – непрерывная) является монотонно-возрастающей неотрицательной функцией;
− при для дискретной СВ и для непрерывной СВ функция распределения равна нулю;
− при для дискретной СВ и для непрерывной СВ функция распределения ;
− вероятность попадания СВ в интервал (a,b) равна
. (5.16)
Основные свойства плотности распределения вероятностей непрерывной СВ:
− плотность вероятности величина неотрицательная, т.е.
, при ;
− вероятность попадания непрерывной СВ в интервал (a,b) равна
. (5.17)
Отсюда следует, что вероятность попадания СВ в интервал ( )
. (5.18)
Выражение (5.18) представляет собой условие нормировки. Это означает, что площадь под кривой равна единице.
Хотя законы распределения в полной мере характеризуют случайную величину, на практике более широко используются числовые характеристики, получаемые усреднением значений самой СВ. числовые характеристики СВ называют моментами. Различают начальные и центральные моменты СВ.
Начальным моментом n-го порядка являются величины:
− для дискретной СВ
, (5.19)
− для непрерывной СВ
. (5.20)
Начальный момент первого порядка (n=1) называется математическим ожиданием:
− для дискретной СВ
, (5.21)
− для непрерывной СВ
. (5.22)
Математическое ожидание является средним значением СВ.
Центральным моментом n-го порядка является:
− для дискретной СВ
, (5.23)
− для непрерывной СВ
. (5.24)
Центральный момент второго порядка называется дисперсией СВ.
Дисперсия:
− для дискретной СВ
, (5.25)
− для непрерывной СВ
. (5.26)
Если случайная величина физически является электрической величиной, то начальный момент второго порядка представляет собой среднюю мощность СВ, а дисперсия – отклонение мощности от ее среднего значения. Величина называется среднеквадратичным отклонением (СКО).
В практической радиотехнике наиболее широко используются следующие законы распределения, которые обычно описываются рядом распределения для дискретных СВ и плотностью вероятности – для непрерывных СВ.
Для дискретных СВ
− равномерный закон:
(5.27)
− биномиальный закон определяет вероятность числа k появления случайного события при n независимых испытаниях (например, вероятность появления k единиц в кодовой комбинации из n разрядов):
, (5.28)
Где − число сочетаний из n по k,
p – вероятность появления события (вероятность появления единицы в кодовой комбинации).
Для непрерывных СВ
− равномерный закон
, (5.29)
где (a,b) – область определения случайной величины;
− нормальный закон
, (5.30)
где – математическое ожидание,
– дисперсия случайной величины.
Для практических расчетов при решении задач радиотехники используют закон нормально распределенной СВ с нулевым математическим ожиданием и единичной дисперсией . Тогда плотность вероятности
,
а функция распределения
. (5.31)
Выражение (5.31) называется интегралом вероятности. Его значения рассчитаны и сведены в таблицу, которую можно найти в литературе;
− закон Рэлея определяет распределения модуля вектора на плоскости, составляющие которого по обеим осям независимы и распределены нормально с нулевым математическим ожиданием и дисперсией
. (5.32)
Понятия законов распределения можно распространить и на совокупность случайных величин. Так для двух случайных величин и функцией распределения называется вероятность того, что случайная величина не превзойдет значения
. (5.33)
Очевидно, функция (5.33) является двумерной.
Двумерная плотность распределения двух СВ
. (5.34)
На рис. 5.2 изображена двумерная плотность . Так же, как одномерная двумерная плотность неотрицательна
.
Условие нормировки
. (5.35)
Очевидно, из (5.35) вытекает, что объем под поверхностью равен единице.
По заданной двумерной плотности можно найти одномерные плотности и . Так
. (5.36)
Если случайные величины и независимы, то
. (5.37)
При наличии зависимости случайных величин
. (5.38)
Для зависимых случайных величин имеет место коэффициент корреляции
, (5.39)
характеризующий степень зависимости этих величин.