Взаимнокорреляционная функция. Взаимные корреляционные функции Пример расчета взаимно корреляционной функции

Взаимнокорреляционная функция - стандартный метод оценки степени корреляции двух последовательностей. Она часто используется для поиска в длинной последовательности более короткой заранее известной. Рассмотрим два ряда f и g. Взаимная корреляция определяется по формуле:

(f\star g)_i \ \stackrel{\mathrm{def}}{=}\ \sum_j f^*_j\,g_{i+j},

где i - сдвиг между последовательностями относительно друг друга, а верхний индекс в виде звёздочки означает комплексное сопряжение . В общем случае, для непрерывных функций f (t ) и g (t ) взаимная корреляция определяется как

(f \star g)(t)\ \stackrel{\mathrm{def}}{=} \int_{-\infty}^{\infty} f^*(\tau)\ g(t+\tau)\,d\tau,

Если X и Y - два независимых случайных числа с функциями распределения вероятностей соответственно f и g , тогда взаимная корреляция f \star g соответствует распределению вероятностей выражения -X + Y. Напротив, свёртка f * g соответствует распределению вероятностей суммы X + Y.

Свойства

Взаимная корреляция и свёртка взаимосвязанны:

f(t)\star g(t) = f^*(-t)*g(t)

поэтому, если функции f и g чётны, то

(f\star g) = f*g

Также: (f\star g)\star(f\star g)=(f\star f)\star (g\star g)

См. также.

Напишите отзыв о статье "Взаимнокорреляционная функция"

Ссылки

  • функция в MATLAB

Отрывок, характеризующий Взаимнокорреляционная функция

Анатоль был всегда доволен своим положением, собою и другими. Он был инстинктивно всем существом своим убежден в том, что ему нельзя было жить иначе, чем как он жил, и что он никогда в жизни не сделал ничего дурного. Он не был в состоянии обдумать ни того, как его поступки могут отозваться на других, ни того, что может выйти из такого или такого его поступка. Он был убежден, что как утка сотворена так, что она всегда должна жить в воде, так и он сотворен Богом так, что должен жить в тридцать тысяч дохода и занимать всегда высшее положение в обществе. Он так твердо верил в это, что, глядя на него, и другие были убеждены в этом и не отказывали ему ни в высшем положении в свете, ни в деньгах, которые он, очевидно, без отдачи занимал у встречного и поперечного.
Он не был игрок, по крайней мере никогда не желал выигрыша. Он не был тщеславен. Ему было совершенно всё равно, что бы об нем ни думали. Еще менее он мог быть повинен в честолюбии. Он несколько раз дразнил отца, портя свою карьеру, и смеялся над всеми почестями. Он был не скуп и не отказывал никому, кто просил у него. Одно, что он любил, это было веселье и женщины, и так как по его понятиям в этих вкусах не было ничего неблагородного, а обдумать то, что выходило для других людей из удовлетворения его вкусов, он не мог, то в душе своей он считал себя безукоризненным человеком, искренно презирал подлецов и дурных людей и с спокойной совестью высоко носил голову.
У кутил, у этих мужских магдалин, есть тайное чувство сознания невинности, такое же, как и у магдалин женщин, основанное на той же надежде прощения. «Ей всё простится, потому что она много любила, и ему всё простится, потому что он много веселился».
Долохов, в этом году появившийся опять в Москве после своего изгнания и персидских похождений, и ведший роскошную игорную и кутежную жизнь, сблизился с старым петербургским товарищем Курагиным и пользовался им для своих целей.
Анатоль искренно любил Долохова за его ум и удальство. Долохов, которому были нужны имя, знатность, связи Анатоля Курагина для приманки в свое игорное общество богатых молодых людей, не давая ему этого чувствовать, пользовался и забавлялся Курагиным. Кроме расчета, по которому ему был нужен Анатоль, самый процесс управления чужою волей был наслаждением, привычкой и потребностью для Долохова.

Свойства автокорреляционных функций

Автокорреляционные функции играют большую роль в представлении случайных процессов и при анализе систем, оперирующих со случайными входными сигналами. Поэтому приведем некоторые свойства автокорреляционных функций стационарных процессов.

1. R x (0) = M(X 2 (t)) = D x (t).

2. R x (t) = R x (-t). Автокорреляционная функция является четной функцией. Это свойство симметрии графика функции исключительно полезно при вычислении автокорреляционной функции, так оно означает, что вычисления можно производить только для положительных t, а для отрицательных t можно их определить, используя свойство симметрии.

3.½R x (t)½£ R x (0). Наибольшее значение автокорреляционной функции, как правило, принимает при t = 0.

Пример . В случайном процессе X(t) = A Coswt, где А – случайная величина с характеристиками: М(А) = 0, D(A) = s 2 , найти М(Х), D(Х) и R x (t 1 ,t 2).

Решение . Найдем математическое ожидание и дисперсию случайного процесса:

М(Х) = М(A Coswt) = Coswt × М(А) = 0,

D(Х) = М((A Coswt-0) 2) = М(А 2) Cos 2 wt = s 2 Cos 2 wt.

Теперь найдем автокорреляционную функцию

R x (t 1 ,t 2) = М(А Coswt 1 × А Coswt 2) =

М(А 2) Coswt 1 × Coswt 2 = s 2 Coswt 1 × Coswt 2 .

Входной Х(t) и выходной Y(t) случайные сигналы системы можно рассматривать как двумерный векторный случайный процесс Введем числовые характеристики этого процесса.

Математическое ожидание и дисперсия векторного случайного процесса определяется как математическое ожидание и дисперсия его компонент:

Корреляционную функцию векторного процесса введем с помощью матрицы второго порядка:

где R xy (t 1 , t 2) взаимная корреляционная функция случайных процессов X(t) иY(t), определяемая следующим образом

Из определения взаимной корреляционной функции вытекает, что

R xy (t 1 ,t 2) = R yx (t 2 ,t 1).

Нормированной взаимной корреляционной функцией двух случайных процессов X(t), Y(t) называется функция


Определение. Если взаимная корреляционная функция случайных процессов X(t) и Y(t) равна нулю:

то случайные процессы называются некоррелироваными.

Для суммы случайных процессов X(t) и Y(t) автокорреляционная функция равна

R x + y (t 1 ,t 2) = R x (t 1 ,t 2) + R xy (t 1 ,t 2) + R yx (t 1 ,t 2) + R y (t 1 ,t 2).

Для некоррелированных случайных процессов X(t) и Y(t) автокорреляционная функция суммы случайных процессов равна сумме автокорреляционных функций

R x+y (t 1 ,t 2) = R x (t 1 ,t 2) + R y (t 1 ,t 2),



а значит и дисперсия суммы случайных процессов равна сумме дисперсий:

D x+y (t) = D x (t) + D y (t).

Если где X 1 (t), ..., X n (t) – некоррелированные случайные процессы, то и

При выполнении различных преобразований со случайными процессами часто удобно записывать их в комплексном виде.

Комплексным случайным процессом называется случайный процесс вида

Z(t) = X(t) + i Y(t),

где X(t) , Y(t) - действительные случайные процессы.

Математическое ожидание, корреляционная функция и дисперсия комплексного случайного процесса определяются следующим образом:

M(Z) = M(X) + i M(Y),

где знак * обозначает комплексное сопряжение;

Пример . Пусть случайный процесс , где w - постоянная величина, Здесь А и j - независимые случайные величины, причем М(А) = m A , D(A) = s 2 , а j - равномерно распределенная случайная величина на интервале . Определить математическое ожидание, корреляционную функцию и дисперсию комплексного случайного процесса Z(t).

Решение . Найдем математическое ожидание:

Используя равномерное распределение случайной величины j на интервале , имеем

Автокорреляционная функция случайного процесса Z(t) равна

Отсюда имеем

D z (t 1) = R z (t 1, t 1) = s 2 + m A 2 .

Из полученных результатов следует, что случайный процесс Z(t) стационарный в широком смысле.

Корреляция – математическая операция, схожа со свёрткой, позволяет получить из двух сигналов третий. Бывает: автокорреляция (автокорреляционная функция), взаимная корреляция (взаимнокорреляционная функция, кросскорреляционная функция). Пример:

[Взаимная корреляционная функция]

[Автокорреляционная функция]

Корреляция - это техника обнаружения заранее известных сигналов на фоне шумов, ещё называют оптимальной фильтрацией. Хотя корреляция очень похожа на свёртку, но вычисляются они по-разному. Области применения их также различные (c(t)=a(t)*b(t) - свертка двух функций, d(t)=a(t)*b(-t) - взаимная корреляция).

Корреляция – это та же свёртка, только один из сигналов инвертируется слева направо. Автокорреляция (автокорреляционная функция) характеризует степень связи между сигналом и его сдвинутой на τ копией. Взаимнокорреляционная функция характеризует степень связи между 2-мя разными сигналами.

Свойства автокорреляционной функции:

  • 1) R(τ)=R(-τ). Функция R(τ) – является чётной.
  • 2) Если х(t) – синусоидальная функция времени, то её автокорреляционная функция – косинусоидальная той же частоты. Информация о начальной фазе теряется. Если x(t)=A*sin(ωt+φ), то R(τ)=A 2 /2 * cos(ωτ).
  • 3) Функция автокорреляции и спектра мощности связаны преобразованием Фурье.
  • 4) Если х(t) – любая периодическая функция, то R(τ) для неё может быть представлена в виде суммы автокорреляционных функций от постоянной составляющей и от синусоидально изменяющейся составляющей.
  • 5) Функция R(τ) не несёт никакой информации о начальных фазах гармонических составляющих сигнала.
  • 6) Для случайной функции времени R(τ) быстро уменьшается с увеличением τ. Интервал времени, после которого R(τ) становится равным 0 называется интервалом автокорреляции.
  • 7) Заданной x(t) соответствует вполне определённое R(τ), но для одной и той же R(τ) могут соответствовать различные функции x(t)

Исходный сигнал с шумами:

Автокорреляционная функция исходного сигнала:

Свойства взаимной корреляционной функции (ВКФ):

  • 1) ВКФ не является ни чётной ни нечётной функ¬цией, т.е. R ху (τ) не равно R ху (-τ).
  • 2) ВКФ остаётся неизменной при перемене чередования функций и изменений знака аргумента, т.е. R ху (τ)=R ху (-τ).
  • 3) Если случайные функции x(t) и y(t) не содержат постоянных составляющих и создаются независимыми источниками, то для них R ху (τ) стремится к 0. Такие функции называются некоррелированными.

Исходный сигнал с шумами:

Меандр той же частоты:

Корреляция исходного сигнала и меандра:



Внимание! Каждый электронный конспект лекций является интеллектуальной собственностью своего автора и опубликован на сайте исключительно в ознакомительных целях.

В системах передачи информации очень часто возникает необходимость в сигналах со специально выбранными свойствами. При этом выбор сигналов диктуется не технической простотой их генерирования и преобразования, а возможностью оптимального решения поставленной задачи. К таким задачам обычно относят синхронизацию, распознавание, измерения, повышение скрытности и помехозащищённости и т.п.

Точность решения этих задач определяется степенью отличия друг от друга сигнала s(t) и его «копии» s(t-x), смещенной во времени .

Для количественной оценки степени различия сигналов s(t) и s(t- т) применяют автокорреляционную функцию (АКФ) В(т) сигнала s(t). Ее определяют как скалярное произведение сигнала и его задержанной копии:

Если s(t) носит импульсный характер, то этот интеграл заведомо существует.

Основные свойства автокорреляционной функции:

1. - при т =0 АКФ равна энергии сигнала.

2. - т.е. АКФ является чётной функцией.

3. - при любом т модуль АКФ не превосходит энергии сигнала.

В качестве примера рассмотрим вид АКФ прямоугольного видеоимпульса с амплитудой U и длительностью т н (рис. 1.13).


Рис. 1.13. АКФ прямоугольного импульса На рис. 1.13 затененные области показывают наложение сигналов, при котором произведение s(t)s(t-i) отлично от нуля. Это будет при |т|

Таким образом, АКФ является симметричной кривой с центральным максимумом, который всегда положителен. В зависимости от вида сигнала s(t) АКФ убывает монотонно или колебательно.

АКФ сигнала тесно связана с распределением его энергии по спектру частот соотношением

Можно оценивать корреляционные свойства сигналов, исходя из распределения энергии по спектру. Чем шире полоса частот сигнала, тем уже по времени АКФ. Сигнал с узкой АКФ лучше с точки зрения возможности точного измерения момента совпадения двух одинаковых по форме сигналов x(t-ij) и x(t-x) при изменении задержки ij. При проектировании современных систем радиосвязи сигнал выбирают широкополосным.

В принципе можно решать задачу синтеза сигнала с заданными корреляционными свойствами. Примером сигналов с наилучшей структурой АКФ могут служить дискретные сигналы (коды) Баркера, комплементарные коды и другие сложные сигналы. Корреляционные свойства этих сигналов оптимальны применительно к решению задачи обнаружения сигнала и измерения его параметров в радиолокации, в радиосвязи и других областях.

Два сигнала x(t) и y(t) могут отличаться как по своей форме, так и взаимным расположением на оси времени. Для оценки этих различий применяют взаимно корреляционную функцию (ВКФ) В ху (х). ВКФ двух вещественных сигналов x(t) и y(t) определяется как скалярное произведение вида

Свойства взаимно корреляционной функции сигналов с ограниченной энергией:

1. В ху (0) не обязательно является максимальным значением

2. - энергии сигналов хиу.

3. При перемене порядка индексации в обозначении ВКФ и соблюдении формы записи, указанной в выражении (31), происходит инверсия графика ВКФ относительно оси ординат х = О

4. (как и для АКФ)

АКФ является частным случаем ВКФ.

Корреляционная функция сигнала с неограниченной энергией.

Для таких сигналов определение АКФ по формуле (1.31) невозможно в силу бесконечности их энергии. К таким сигналам можно отнести периодические сигналы. Энергетическую оценку моделей таких сигналов проводят вводя среднюю удельную мощность

где Т - произвольный временной интервал.

Для периодических сигналов, энергия которых бесконечно велика по определению, усреднение удобно проводить по периоду Т

Для гармонического сигнала x(t) = Ucoscoot средняя удельная мощность Р = U 2 /2. Применяя формулу (33) к периодическому сигналу x ncp (t), представленному в видеряда Фурье

и принимая во внимание условие ортогональности

и

для средней мощности Р такого сигнала получим

Полная средняя мощность периодического сигнала равна сумме средних мощностей составляющих сигнал гармоник, включая, естественно, мощность постоянной составляющей (нулевой гармоники).

Для непрерывного и периодического сигнала АКФ определяется по формуле

с усреднением по бесконечному интервалу Т.

Для гармонического сигнала АКФ имеет вид

В отличие от АКФ и ВКФ финитных сигналов, АКФ периодической функции сама является периодической функцией и имеет размерность мощности. Значения аргумента т, для которых В(т) = 0, Определяют временные сдвиги сигнала и его копии, при которых корреляция отсутствует. Значение В(0) периодического сигнала численно равно мощности сигнала; для гармонического сигнала В(0) = U 2 /2.

Взаимные корреляционные функции сигналов

Взаимная корреляционная функция (ВКФ) разных сигналов (cross-correlation function, CCF) описывает как степень сходства формы двух сигналов, так и их взаимное расположение друг относительно друга по координате (независимой переменной). Обобщая формулу (6.1) автокорреляционной функции на два различных сигнала s(t) и u(t), получаем следующее скалярное произведение сигналов:

B su (t) =s(t) u(t+t) dt. (6.14)

Взаимная корреляция сигналов характеризует определенную корреляцию явлений и физических процессов, отображаемых данными сигналами, и может служить мерой “устойчивости” данной взаимосвязи при раздельной обработке сигналов в различных устройствах. Для конечных по энергии сигналов ВКФ также конечна, при этом:

|B su (t)| £ ||s(t)||×||u(t)||,

что следует из неравенства Коши-Буняковского и независимости норм сигналов от сдвига по координатам.

При замене переменной t = t-t в формуле (6.2.1), получаем:

B su (t) =s(t-t) u(t) dt =u(t) s(t-t) dt = B us (-t).

Отсюда следует, что для ВКФ не выполняется условие четности, B su (t) ¹ B su (-t), и значения ВКФ не обязаны иметь максимум при t = 0.

Это можно наглядно видеть на рис. 6.6, где заданы два одинаковых сигнала с центрами на точках 0.5 и 1.5. Вычисление по формуле (6.14) с постепенным увеличением значений t означает последовательные сдвиги сигнала s2(t) влево по оси времени (для каждого значения s1(t) для подынтегрального умножения берутся значения s2(t+t)). При t=0 сигналы ортогональны и значение B 12 (t)=0. Максимум В 12 (t) будет наблюдаться при сдвиге сигнала s2(t) влево на значение t=1, при котором происходит полное совмещение сигналов s1(t) и s2(t+t).

Рис. 6.6. Сигналы и ВКФ

Одни и те же значения ВКФ по формулам (6.14) и (6.14") наблюдаются при одном и том же взаимном положении сигналов: при сдвиге на интервал t сигнала u(t) относительно s(t) вправо по оси ординат и сигнала s(t) относительно сигнала u(t) влево, т.е. B su (t) = B us (-t).

На рис. 6.7 приведены примеры ВКФ для прямоугольного сигнала s(t) и двух одинаковых треугольных сигналов u(t) и v(t). Все сигналы имеют одинаковую длительность Т, при этом сигнал v(t) сдвинут вперед на интервал Т/2.

Рис. 6.7. Взаимноковариационные функции сигналов

Сигналы s(t) и u(t) одинаковы по временному расположению и площадь "перекрытия" сигналов максимальна при t=0, что и фиксируется функцией B su . Вместе с тем функция B su резко асимметрична, так как при асимметричной форме сигнала u(t) для симметричной формы s(t) (относительно центра сигналов) площадь "перекрытия" сигналов изменяется по разному в зависимости от направления сдвига (знака t при увеличения значения t от нуля). При смещении исходного положения сигнала u(t) влево по оси ординат (на опережение сигнала s(t) - сигнал v(t)) форма ВКФ остается без изменения и сдвигается вправо на такое же значение величины сдвига – функция B sv на рис. 6.7. Если поменять местами выражения функций в (6.14), то новая функция B vs будет зеркально повернутой относительно t=0 функцией B sv .



С учетом этих особенностей полное ВКФ вычисляется, как правило, отдельно для положительных и отрицательных запаздываний:

B su (t) =s(t) u(t+t) dt. B us (t) =u(t) s(t+t) dt. (6.14")

Понравилась статья? Поделитесь ей
Наверх