Sunteți pe pagina 1din 26

Eigenvalores y eigenvectores

Los dos problemas principales del lgebra lineal son: resolver sistemas lineales de la forma Ax = b y resolver el problema de eigenvalores. En general, una matriz acta sobre un vector cambiando tanto su magnitud como su direccin. Sin embargo, una matriz puede actuar sobre ciertos vectores cambiando solamente su magnitud. Una funcin vectorial A es lineal si: a) A(x + y) = Ax + Ay b) A(x) = Ax donde x y y son vectores y es escalar. Definicin.- Dada una transformacin lineal A, un vector e 0 es un eigenvector de A si satisface la ecuacin: Ae = e para algn escalar , llamado un eigenvalor de A correspondiente al eigenvector e.

Un eigenvalor y un eigenvector de una matriz cuadrada [A] satisfacen la ecuacin: A = o de forma equivalente: (A I) =

Cualquier mltiplo escalar, c, tambin satisface la ecuacin. En consecuencia, para definirlos con precisin es usual requerir que los eigenvectores tengan longitud unitaria: || || = [ek 2] = 1

En este caso, si satisface la ecuacin, entonces - tambin la satisface. Si adems [A] es simtrica entonces los eigenvectores son ortogonales. Por lo tanto, los eigenvectores sern ortonormales:

La multiplicidad algebraica (m.a.) es el nmero de veces que se repite un eigenvalor (o el nmero de veces que se repite una raz de la ecuacin caracterstica) y la multiplicidad geomtrica (m.g.) es el nmero de eigenvectores linealmente independientes asociados a un eigenvalor particular. Para cada eigenvalor distinto de una matriz n x n existe un eigenvector asociado a l, e.d., ambas multiplicidades son iguales a 1. Si la multiplicidad algebrica de un eigenvalor es r puede haber a lo ms r eigenvectores l.i. asociados a l. Los eigenvectores correspondientes a eigenvalores distintos son linealmente independientes y forman una base para Rn. Si A es una matriz de n x n simtrica, entonces sus eigenvalores son reales. Si A es una matriz de n x n simtrica y positiva definida, entonces sus eigenvalores son reales y mayores que cero. Una matriz A es ortogonal si es cuadrada con elementos reales y sus columnas y renglones son vectores ortogonales unitarios. Si A es ortogonal entonces su transpuesta es igual a su inversa.

Si A es una matriz de K x K y es no-singular, habr K parejas K, K con eigenvalores distintos de cero. Si A es singular al menos uno de sus eigenvalores ser cero y el eigenvector correspondiente ser arbitrario. Dada una matriz simtrica A, la matriz E cuyas columnas son los eigenvectores de A es ortogonal: ET = E-1 , EET = ETE = I La transformacin ortogonal ETx define una rotacin rgida de los ejes coordenados en el espacio K-dimensional de x, llamado un eigenespacio. Este espacio cubre el mismo territorio que las coordenadas originales pero usando un conjunto de ejes diferente. Las K parejas K, K contienen la misma informacin que la matriz [A] a partir de la cual fueron calculadas y por lo tanto pueden considerarse como una transformacin de [A]. Esta equivalencia puede expresarse como la descomposicin espectral (o descomposicin de Jordan) de [A], donde [A] es simtrica:

La matriz original [A] puede recuperarse mediante la suma pesada de estas matrices , donde los pesos son los eigenvalores correspondientes. La descomposicin espectral de una matriz es anloga a la descomposicin de Fourier de una funcin o serie de datos, con los eigenvalores jugando el papel de las amplitudes de Fourier y las matrices el de las funciones senoidales. f(x) = a0 + an cos(nx) + bn sen(nx)

La matriz de eigenvectores [E] tiene la propiedad de que diagonaliza la matriz simtrica original [A]: (tambin se cumple si A no es simtrica pero tiene K eigenvectores l.i.) Los eigenvectores de una matriz simtrica no-singular son iguales a los de su inversa, , y los eigenvalores correspondientes son recprocos: Por lo tanto, el eigenvector de [A] asociado con su eigenvalor ms grande es el mismo que el eigenvector de [A]-1 asociado con su eigenvalor ms pequeo y viceversa.

Descomposicin en Valores Singulares


La descomposicin espectral de una matriz cuadrada y simtrica puede ser extendida a cualquier matriz rectangular [A nxm] (con n m) usando la descomposicin en valores singulares (SVD): Las m columnas de L son llamadas vectores singulares izquierdos y las m columnas de R son los vectores singulares derechos. Ambos conjuntos de vectores son mutuamente ortogonales. La matriz es diagonal y sus elementos no-negativos son llamados los valores singulares de [A]. Si [A] es cuadrada y simtrica, la SVD se reduce a la descomposicin espectral con Los valores singulares de una matriz [A] de m x n son las races cuadradas de los eigenvalores de la matriz [A TA] de n x n.

An si [A] no es simtrica, existe una conexin entre la SVD y los eigenvalores y eigenvectores de ambas matrices , las cuales son cuadradas y simtricas (una es m x m y la otra n x n). Especficamente las columnas de [R] son los eigenvectores (m x 1) de , las columnas de [L] son los eigenvectores (n x 1) de los valores singulares respectivos son las races cuadradas de los eigenvalores correspondientes, y

Funciones Empricas Ortogonales (Empirical Orthogonal Functions)


El anlisis de FEOs busca estructuras que expliquen la mayor cantidad de la varianza contenida en un conjunto de datos bidimensional. Puede haber varios tipos de matrices o arreglos de datos bidimensionales: Arreglo espacio-tiempo: mediciones de una sola variable en M localidades tomadas en N tiempos diferentes. Arreglo parmetro-tiempo: Mediciones de M variables tomadas en una sola localidad en N tiempos diferentes. Arreglo parmetro-espacio: Mediciones de M variables tomadas en N localidades diferentes en un slo tiempo. Generalmente, al conjunto de estructuras obtenidas en la dimensin espacial se les conoce como las FEOs, mientras que al conjunto complementario de estructuras en la dimensin temporal se les conoce como Componentes Principales. Ambos conjuntos de estructuras son ortogonales en su propia dimensin. Objetivo: Proporcionar una descripcin compacta de la variabilidad espacial y temporal de series de datos usando un nmero ms pequeo de piezas de informacin independientes (en trminos de funciones ortogonales o modos estadsticos).

El anlisis mediante FEOs es un mtodo para particionar la varianza de un conjunto de series de tiempo distribuidas espacialmente. Son llamadas empricas para reflejar el hecho de que estn definidas mediante la covarianza del conjunto de datos que est siendo analizado. Usualmente, la mayor parte de la varianza de las series detiempo distribuidas espacialmente est representada por las primeras funciones ortogonales cuyos patrones pueden estar vinculados con posibles mecanismos dinmicos. No necesariamente existe una relacin fsica directa entre las FEOs (puramente estadsticas) y cualquier proceso dinmico con el que se les relacione.

El mtodo de FEOs o CP utiliza el concepto de eigenvalores (valores propios o caractersticos) y eigenvectores (vectores propios o caractersticos). Hay dos formas de calcular FEOs: 1) Se construye la matriz de covarianzas de las series de datos y despus se descompone en eigenvalores y eigenvectores. 2) Se utiliza la descomposicin en valores singulares (SVD) de la matriz de datos para obtener los eigenvalores, eigenvectores y amplitudes de variacin temporal (componentes principales) sin calcular la matriz de covarianzas. Las FEOs obtenidas por ambos mtodos son idnticas. La diferencia est dada por el mayor grado de sofisticacin, rapidez computacional y estabilidad de la SVD.

Procedimiento
Consideremos un conjunto de N mapas en los tiempos t = 1...N, donde cada mapa contiene mediciones del campo en los sitios m = 1 M. Por lo tanto, tenemos M series de tiempo todas de longitud N, con N>M. El primer paso es remover el promedio de cada una de las series de tiempo para obtener las anomalas. Se puede trabajar con las anomalas o con las anomalas estandarizadas. La estandarizacin es especialmente relevante cuando se analizan dos o ms campos de manera conjunta para asegurar que no domina un campo sobre los otros.

Se construye la matriz de datos FM x N

Clculo de FEOs usando la matriz de covarianzas

La matriz R es simtrica y cuadrada, an si F no es cuadrada. Si las series de datos en F estn normalizadas entonces R ser la matriz de correlacin en lugar de la matriz de covarianzas. Una vez calculada R se resuelve su problema de eigenvaloreseigenvectores:

Generalmente los eigenvalores en la matriz estn acomodados en orden decreciente. Como la matriz de datos F es real, la matriz de covarianzas R es positiva definida, lo que significa que todos sus eigenvalores son mayores o iguales a cero. Aunque la dimensin de es M x M, tpicamente solo los primeros K eigenvalores son distintos de cero, donde Entonces la dimensin efectiva de es de hecho K x K y por lo tanto solamente se pueden determinar K modos o FEOs. Cada eigenvalor distinto de cero est asociado con un eigenvector columna en la matriz E. Por lo tanto, solamente se usan K eigenvectores en la descomposicin y la dimensin efectiva de la matriz E ser M x K. Los eigenvectores no estn correlacionados y cada uno representa el patrn espacial o FEO de modo k.

Cada eigenvalor es proporcional al porcentaje de la varianza del campo observado F que es descrito por el modo k.

La evolucin temporal del k-simo modo o FEO se obtiene proyectando los datos originales sobre los eigenvectores, con lo que se obtienen las Componentes Principales:

es K x M, F es M x N y A es K x N, en donde se ha utilizado la matriz E reducida. Los renglones de la matriz A son series de tiempo de longitud N. El campo original F puede reconstruirse en su totalidad multiplicando cada eigenvector por su correspondiente CP y sumando los productos: Sin embargo, el objetivo de la descomposicin en FEOs es la reconstruccin aproximada, compacta y menos ruidosa, del campo original F usando solamente los H primeros modos, con H < K:

E = 0.8479 -0.5302 0.5302 0.8479


Avg.

= 254.7571 0 0 8.2902

Generalmente se tienen observaciones de una variable particular en K sitios para n tiempos distintos, donde K >> n. La matriz de covarianzas (KxK) es demasiado grande. Como K > n la matriz de covarianzas es singular, lo cual implica que los ltimos K n eigenvalores son cero. Intercambiando el papel de los puntos en espacio y tiempo, se calcula la matriz de covarianzas de n x n Los eigenvalores de ambas matrices de covarianzas son los mismos. Los eigenvectores de S*nxn son diferentes a los de SkxK pero pueden obtenerse a partir de los de S* mediante:

Estadstica multivariada
Un conjunto de datos univariado consiste de una coleccin de n observaciones escalares: Un conjunto de datos multivariado puede acomodarse en un arreglo rectangular de nmeros (o matriz) con n renglones y K columnas. Cada elemento corresponde a la i-sima observacin de la j-sima variable, donde i = 1, , n y j = 1, ..., K. (Geomtricamente se puede ver como un espacio K-dimensional en donde cada rengln define un punto en dicho espacio).

Promedio muestral multivariado: vector cuyas componentes son los K promedios muestrales individuales

La extensin multivariada de la varianza muestral es la coleccin de covarianzas entre todas las posibles parejas de las K variables

si k = l entonces la ecuacin define la varianza muestral Matriz de covarianzas o matriz de dispersin:

S-ar putea să vă placă și