Función de correlación cruzada. Representación de la señal mediante funciones ortogonales Función de correlación cruzada

Propiedades de las funciones de autocorrelación

Las funciones de autocorrelación juegan un papel importante en la representación de procesos aleatorios y en el análisis de sistemas que operan con señales de entrada aleatorias. Por tanto, presentamos algunas propiedades de las funciones de autocorrelación de procesos estacionarios.

1.R x (0) \u003d M (X 2 (t)) \u003d D x (t).

2.R x (t) \u003d R x (-t). La función de autocorrelación es una función par. Esta propiedad de simetría de la gráfica de una función es extremadamente útil cuando se calcula la función de autocorrelación, ya que significa que los cálculos se pueden realizar solo para t positivo, y para t negativo se pueden determinar usando la propiedad de simetría.

3.1R x (t) 1 £ R x (0). La función de autocorrelación, como regla, toma el valor más grande en t \u003d 0.

Ejemplo... En un proceso aleatorio X (t) \u003d A Coswt, donde A es una variable aleatoria con características: M (A) \u003d 0, D (A) \u003d s 2, encuentre M (X), D (X) y R x (t 1 , t 2).

Decisión... Encontremos la expectativa matemática y la varianza de un proceso aleatorio:

M (X) \u003d M (A Coswt) \u003d Coswt × M (A) \u003d 0,

D (X) \u003d M ((A Coswt-0) 2) \u003d M (A 2) Cos 2 wt \u003d s 2 Cos 2 wt.

Ahora encontraremos la función de autocorrelación

R x (t 1, t 2) \u003d M (A Coswt 1 × A Coswt 2) \u003d

M (A 2) Coswt 1 × Coswt 2 \u003d s 2 Coswt 1 × Coswt 2.

Las señales aleatorias de entrada X (t) y salida Y (t) del sistema se pueden considerar como un proceso aleatorio vectorial bidimensional Introduzcamos las características numéricas de este proceso.

La expectativa matemática y la varianza de un proceso aleatorio vectorial se define como la expectativa matemática y la varianza de sus componentes:

Introducimos la función de correlación del proceso vectorial utilizando una matriz de segundo orden:

donde R xy (t 1, t 2) es una función de correlación cruzada de los procesos aleatorios X (t) e Y (t), definidos de la siguiente manera

De la definición de la función de correlación cruzada se deduce que

R xy (t 1, t 2) \u003d R yx (t 2, t 1).

La función de correlación cruzada normalizada de dos procesos aleatorios X (t), Y (t) es la función


Definición. Si la función de correlación cruzada de los procesos aleatorios X (t) e Y (t) es cero:

entonces los procesos aleatorios se denominan no correlacionados.

Para la suma de los procesos aleatorios X (t) e Y (t), la función de autocorrelación es

R x + y (t 1, t 2) \u003d R x (t 1, t 2) + R xy (t 1, t 2) + R yx (t 1, t 2) + R y (t 1, t 2 ).

Para procesos aleatorios no correlacionados X (t) e Y (t), la función de autocorrelación de la suma de procesos aleatorios es igual a la suma de funciones de autocorrelación

R x + y (t 1, t 2) \u003d R x (t 1, t 2) + R y (t 1, t 2),



y por lo tanto, la varianza de la suma de procesos aleatorios es igual a la suma de varianzas:

D x + y (t) \u003d D x (t) + D y (t).

Si donde X 1 (t), ..., X n (t) son procesos aleatorios no correlacionados, entonces

Al realizar varias transformaciones con procesos aleatorios, a menudo es conveniente escribirlas de forma compleja.

Un proceso aleatorio complejo es un proceso aleatorio de la forma

Z (t) \u003d X (t) + yo Y (t),

donde X (t), Y (t) son procesos aleatorios reales.

La expectativa matemática, la función de correlación y la varianza de un proceso aleatorio complejo se determinan de la siguiente manera:

M (Z) \u003d M (X) + yo M (Y),

donde el signo * denota conjugación compleja;

Ejemplo... Sea un proceso aleatorio, donde w es una constante, Aquí A yj son variables aleatorias independientes, y M (A) \u003d m A, D (A) \u003d s 2, yj es una variable aleatoria distribuida uniformemente en el intervalo. Determine la expectativa matemática, la función de correlación y la varianza de un proceso aleatorio complejo Z (t).

Decisión... Encontremos la expectativa matemática:

Usando la distribución uniforme de la variable aleatoria j en el intervalo, tenemos

La función de autocorrelación del proceso aleatorio Z (t) es

Por lo tanto tenemos

D z (t 1) \u003d R z (t 1, t 1) \u003d s 2 + m A 2.

De los resultados obtenidos se deduce que el proceso aleatorio Z (t) es estacionario en sentido amplio.

Función de correlación cruzada es un método estándar para evaluar el grado de correlación entre dos secuencias. A menudo se utiliza para buscar en una secuencia larga que es más corta por adelantado. Considere dos filas f y g. La correlación cruzada está determinada por la fórmula:

(f \\ estrella g) _i \\ \\ stackrel (\\ mathrm (def)) (\u003d) \\ \\ sum_j f ^ * _ j \\, g_ (i + j),

dónde yo - el cambio entre las secuencias entre sí, y el superíndice en forma de asterisco significa conjugación compleja. En general, para funciones continuas f (t) y gramo (t) la correlación cruzada se define como

(f \\ star g) (t) \\ \\ stackrel (\\ mathrm (def)) (\u003d) \\ int _ (- \\ infty) ^ (\\ infty) f ^ * (\\ tau) \\ g (t + \\ tau) \\, d \\ tau,

Si X y Y - dos números aleatorios independientes con funciones de distribución de probabilidad, respectivamente f y gramo, luego correlación cruzada f \\ estrella gramo corresponde a la distribución de probabilidad de la expresión -X + Y... Por el contrario, convolución f * gramo corresponde a la distribución de probabilidad de la suma X + Y.

Propiedades

La correlación cruzada y la convolución están interrelacionadas:

f (t) \\ estrella g (t) \u003d f ^ * (- t) * g (t)

por lo tanto, si funciones f y gramo son parejos, entonces

(f \\ estrella g) \u003d f * g

También: (f \\ estrella g) \\ estrella (f \\ estrella g) \u003d (f \\ estrella f) \\ estrella (g \\ estrella g)

Ver también.

Escriba una reseña sobre el artículo "Función de correlación cruzada"

Enlaces

  • función en MATLAB

Un extracto que caracteriza la función de correlación cruzada

Anatole siempre estuvo satisfecho con su posición, él mismo y los demás. Instintivamente estaba convencido con todo su ser de que no podía vivir de manera diferente a como vivía, y que nunca había hecho nada malo en su vida. No podía considerar cómo sus acciones podrían responder a los demás, ni qué podría resultar de tal o cual acción. Estaba convencido de que como un pato fue creado para que viviera siempre en el agua, así fue creado por Dios para que viviera en treinta mil ingresos y ocupara siempre el puesto más alto en la sociedad. Creía tan firmemente en esto que, mirándolo, otros se convencieron de esto y no le negaron ni el puesto más alto del mundo, ni el dinero, que él, obviamente, sin devolución, tomó prestado del mostrador y transversal.
No era un jugador, al menos nunca quiso ganar. No era engreído. No le importaba lo que pensaran los demás de él. Menos aún podía ser culpable de ambición. Se burló de su padre varias veces, arruinó su carrera y se rió de todos los honores. No fue tacaño y no rechazó a nadie que le preguntara. Una cosa que amaba era la diversión y las mujeres, y como, según sus ideas, no había nada innoble en estos gustos, y no podía pensar en lo que le salía a otras personas para satisfacer sus gustos, entonces en su alma consideró él mismo una persona impecable, sinvergüenzas sinceramente despreciadas y malas personas, y con la conciencia tranquila lleva la cabeza en alto.
Los juerguistas, estos varones Magdalenas, tienen un secreto sentido de inocencia, al igual que las Magdalenas, basado en la misma esperanza de perdón. "Se le perdonará todo, porque amó mucho, y se le perdonará todo, porque se divirtió mucho".
Dolokhov, que este año apareció de nuevo en Moscú después de su exilio y aventuras persas, y llevó una vida de juego y juerga lujosa, se acercó al viejo camarada de Petersburgo Kuragin y lo utilizó para sus propios fines.
Anatol amaba sinceramente a Dolokhov por su inteligencia y valentía. Dolokhov, que necesitaba el nombre, la nobleza y las conexiones de Anatol Kuragin para atraer a los jóvenes ricos a su sociedad de juego, sin dejarle sentir esto, usó y divirtió a Kuragin. Además del cálculo, según el cual necesitaba a Anatole, el mismo proceso de controlar la voluntad de otra persona era un placer, un hábito y una necesidad para Dolokhov.

Funciones de correlación cruzada de señales

Función de correlación cruzada (CCF) de diferentes señales (función de correlación cruzada, CCF) describe tanto el grado de similitud de la forma de dos señales como su posición relativa entre sí a lo largo de la coordenada (variable independiente). Generalizando la fórmula (6.1) de la función de autocorrelación a dos señales diferentes s (t) yu (t), obtenemos el siguiente producto escalar de señales:

B su (t) \u003d s (t) u (t + t) dt. (6,14)

La correlación cruzada de señales caracteriza una cierta correlación de fenómenos y procesos físicos mostrados por estas señales, y puede servir como una medida de la "estabilidad" de esta relación cuando las señales se procesan por separado en diferentes dispositivos. Para señales de energía finita, el CCF también es finito, con:

| B su (t) | £ || s (t) || × || u (t) ||,

que se deriva de la desigualdad de Cauchy-Bunyakovsky y la independencia de las normas de la señal del desplazamiento a lo largo de las coordenadas.

Cambiando la variable t \u003d t-t en la fórmula (6.2.1), obtenemos:

B su (t) \u003d s (t-t) u (t) dt \u003d u (t) s (t-t) dt \u003d B us (-t).

De ello se deduce que la condición de uniformidad no se satisface para CCF, B su (t) ¹ B su (-t), y los valores de CCF no tienen que tener un máximo en t \u003d 0.

Esto se puede ver claramente en la Fig. 6.6, donde se dan dos señales idénticas con centros en los puntos 0.5 y 1.5. El cálculo mediante la fórmula (6.14) con un aumento gradual de los valores de t significa desplazamientos sucesivos de la señal s2 (t) hacia la izquierda a lo largo del eje del tiempo (para cada valor de s1 (t), se toman los valores de s2 (t + t) para el integrando). En t \u003d 0, las señales son ortogonales y el valor B 12 (t) \u003d 0. El máximo B 12 (t) se observará cuando la señal s2 (t) se desplace hacia la izquierda en el valor t \u003d 1, en el que las señales s1 (t) y s2 (t + t) se combinan completamente.

Figura: 6.6. Señales y CCF

Los mismos valores CCF según las fórmulas (6.14) y (6.14 ") se observan en la misma posición mutua de las señales: cuando la señal u (t) se desplaza en el intervalo t relativo as (t) a la derecha a lo largo del eje de ordenadas y la señal s (t ) con respecto a la señal u (t) a la izquierda, es decir, B su (t) \u003d B us (-t).

En la Fig. 6.7 muestra ejemplos de CCF para una señal rectangular s (t) y dos señales triangulares idénticas u (t) yv (t). Todas las señales tienen la misma duración T, con la señal v (t) desplazada hacia adelante en el intervalo T / 2.

Figura: 6.7. Funciones de covarianza mutua de señales

Las señales s (t) yu (t) son iguales en posición temporal y el área de "superposición" de las señales es máxima en t \u003d 0, que está fijada por la función B su. Al mismo tiempo, la función B su es marcadamente asimétrica, ya que con una forma de onda asimétrica u (t) para una forma de onda simétrica s (t) (relativa al centro de las señales), el área de superposición de las señales cambia de manera diferente según la dirección de desplazamiento (signo de t con valor creciente t desde cero). Cuando la posición inicial de la señal u (t) se desplaza hacia la izquierda a lo largo de la ordenada (por delante de la señal s (t) - señal v (t)), la forma CCF permanece sin cambios y se desplaza hacia la derecha por el mismo valor del valor de desplazamiento - la función B sv en la Fig. 6.7. Si intercambiamos las expresiones de las funciones en (6.14), entonces la nueva función B vs será la función rotada en espejo B sv con respecto a t \u003d 0.



Teniendo en cuenta estas características, el CCF total se calcula, por regla general, por separado para los retrasos positivos y negativos:

B su (t) \u003d s (t) u (t + t) dt. B us (t) \u003d u (t) s (t + t) dt. (6,14 ")

CCF continuo La secuencia de datos xn e yn se puede obtener como una muestra de funciones dependientes del tiempo x (t) e y (t), es decir, x (nT a) \u003d xn e y (nT a) \u003d yn Usando la covarianza y el coeficiente de correlación, se puede verificar la correlación valores muestreados al mismo tiempo. Luego puede verificar si es posible una relación entre la señal existente y la anterior. En consecuencia, la covarianza se calcula a partir de la muestra tomada en el momento nT a, en el momento (n-k) T a de la señal anterior. Para cada valor de kT a (k \u003d 1.2 ...) de ambas señales, en algunas circunstancias, surgen nuevos valores de covarianza, y de ahí la función que depende del tiempo de retardo kT a Tiene su propio nombre: función de correlación cruzada. Señales xey.

Sean los valores medios de xey de las funciones X (t), Y (t):

La varianza se define como

La covarianza entre las señales X (t), Y (t) se calcula como

Con valores alternos, los valores medios lineales \u003d 0 y solo

para obtener funciones de correlación, es necesario retrasar ambas señales dependientes del tiempo en t. Para señales sin un componente constante, la función de correlación cruzada se calcula como

Funciones discretas de correlación cruzada.:

El análisis de correlación se utiliza para determinar vínculos estáticos entre procesos aleatorios o vínculos estáticos entre fases del mismo proceso aleatorio. Hay 2 tipos de funciones de correlación: funciones de correlación cruzada, funciones de autocorrelación. La función de correlación cruzada caracteriza la relación entre dos procesos o secuencias aleatorios:

Para una función discreta, el intervalo t se mueve a un paso de muestreo a lo largo del eje t, obtenido en cada punto de muestreo es. x (t) y y (t-t) se multiplican, los productos se suman y se dividen por 2T

34. Análisis de correlación. Covarianza. Coeficiente de correlación.

Análisis de correlación. Covarianza:

CA se utiliza para determinar relaciones estadísticas entre procesos aleatorios o relaciones estadísticas entre fases del mismo proceso aleatorio. En este último caso, el análisis se denomina ortocorrelación. CA se utiliza para señales determinísticas y estocásticas.

Covarianza. Suponga que tenemos dos secuencias aleatorias Xn e Yn. Una secuencia aleatoria se puede caracterizar por diferentes niveles de aleatoriedad, es decir las muestras vecinas pueden ser completamente independientes o pueden tener cierto grado de dependencia. Supongamos que conocemos los valores medios de Xav y Yav:

La medida y la relación para ambas secuencias Xn e Yn es la covarianza sxy:

Si las secuencias aleatorias Xn e Yn están centradas (se resta la media), entonces:



Coeficiente de correlación:

Coef. Korel. r es la covarianza normalizada, y

1 £ r £ 1. La normalización se produce dividiendo la covarianza por el producto de las desviaciones estándar sх y sу:

La relación entre las secuencias de datos Xn e Yn, así como los valores del coeficiente de correlación, se pueden ilustrar trazando los pares de valores correspondientes (Xn e Yn) en el sistema de coordenadas X / Y. Si ambas secuencias de datos están ubicadas en la misma dirección, entonces son covariantes y el coeficiente de correlación será positivo, si está en la dirección opuesta, entonces negativo. Si el coeff. correl. \u003d 0 entonces no hay dependencia entre las cantidades. El valor absoluto del coeficiente de correlación será cuanto más cercano a 1, más ambas variables dependan una de la otra.


2. Aproximación. Aplicado por un polinomio lineal.

Interpolación - la curva pasa por todos los puntos.

Aproximación - Es posible que la curva no pase por los puntos en absoluto.

(1 / N) å | Dy i | donde i \u003d 1, N.

La suma resultante no depende de N. Polen de alto grado no es aproximado, por lo tanto, se limitan a un polinomio de 3er orden.

Si el punto A cae en una docena de puntos, el borde se desvía mucho, entonces puede excluirlo.

Hay dos métodos:

1) la suma de las diferencias absolutas | f (x n) -y n | debería acercarse a un mínimo.

2) la suma de los cuadrados de la diferencia debe estar cerca de un mínimo Este método de marco mínimo

En este capítulo, los conceptos introducidos en el cap. 5 y 6 (problema 1) se aplican al caso de un par de series de tiempo y procesos aleatorios. La primera generalización de este tipo dada en la Sec. 8.1, es la función de correlación cruzada de un proceso aleatorio estacionario bidimensional. Esta función caracteriza la correlación de dos procesos con diferentes retrasos. La segunda generalización es un proceso lineal bidimensional formado por operaciones lineales sobre dos fuentes de ruido blanco. El proceso de autorregresión bidimensional y el proceso de media móvil bidimensional son casos especiales importantes de dicho proceso.

En la secta. 8.2 discutiremos la cuestión de la estimación de la función de correlación cruzada. Demostraremos que si no aplicamos a ambas series de filtrado que las transforma en ruido blanco, entonces durante la estimación pueden ocurrir valores falsos sobreestimados de correlación cruzada. En la secta. 8.3 se introduce una tercera generalización: el espectro mutuo de un proceso bidimensional estacionario. El espectro recíproco contiene dos tipos diferentes de información que caracterizan la relación entre los dos procesos. La información del primer tipo está contenida en el espectro de coherencia, que es una medida eficaz de la correlación de dos procesos en cada una de las frecuencias. La información del segundo tipo viene dada por el espectro de fase que caracteriza la diferencia de fase de dos procesos en cada una de las frecuencias. En la secta. 8.4 Ambos tipos de información se ilustran con ejemplos sencillos.

8.1. FUNCIÓN DE CORRELACIÓN MUTUA

8.1.1. Introducción

En este capítulo, trataremos los problemas de describir un par de series de tiempo o series de tiempo bidimensionales. Los métodos utilizados son una generalización de los métodos utilizados en el cap. 5, 6 y, por lo tanto, todas las disposiciones generales relacionadas con las series de tiempo establecidas en la Sec. 5.1 son aplicables en este caso. En la secta. 5.1 bajo el título "Tiempo multidimensional

series ”mencionó brevemente que las series de tiempo individuales que forman una serie multidimensional pueden ser desiguales entre sí. Considere, por ejemplo, el sistema que se muestra en la Fig. 8.1, que tiene dos entradas y dos salidas

Figura: 8.1. Sistema físico con dos entradas y dos salidas.

Se pueden distinguir dos situaciones. En el primer caso, dos filas están en la misma posición entre sí, como, por ejemplo, dos entradas en la fig. 8.1.

Figura: 8.2. Corrientes en fase y con desfase en la salida del generador de turbina.

En este caso, puede haber dos variables de control correlacionadas, cuya interacción queremos estudiar. Un ejemplo de un par de series de tiempo que entran en esta categoría se muestra en la Fig. 8.2,

donde se dan los registros de las corrientes de entrada en fase y desfasadas del generador de turbina.

En el segundo caso, dos series de tiempo están relacionadas causalmente, por ejemplo, la entrada en la Fig. 8.1 y su salida dependiente. En tal situación, generalmente se requiere evaluar las propiedades del sistema de tal manera que sea conveniente predecir la salida de la entrada. Un ejemplo de un par de series de tiempo de este tipo se muestra en la Fig. 8.3, que muestra la velocidad de entrada del gas y la concentración de dióxido de carbono en la salida del horno de gas.

Figura: 8.3. Señales en la entrada y salida del horno a gas.

Se puede ver que la salida está retrasada con respecto a la entrada debido al hecho de que lleva algún tiempo entregar el gas al reactor.

Cargando ...Cargando ...