Sunteți pe pagina 1din 11

MARCO TEÓRICO

1. VECTORES Y VALORES PROPIOS

Los valores propios son las medidas básicas de tamaño de una matriz, que no se ven
alteradas si hacemos un cambio de coordenadas que equivale a una rotación de los ejes.
Se demuestra que las medidas globales de tamaño de la matriz, como la traza o el
determinante, son sólo función de los valores propios y, en consecuencia, serán también
invariantes ante las transformaciones que preservan los valores propios.
Los vectores propios representan las direcciones características de la matriz y no son
invariantes. Al aplicar una matriz cuadrada de orden “n” a un vector de dimensión n este
se transforma en dirección y magnitud. Sin embargo, para cada matriz cuadrada existen
ciertos vectores que al transformarlos por la matriz sólo se modifica su longitud (norma)
y no su posición en el espacio. Estos vectores se denominan vectores propios de la matriz.

1.1. DEFINICIÓN:

Los vectores propios de las transformaciones lineales son vectores que, no se ven
afectados por la transformación o se ven multiplicados por un escalar, y por tanto no
varían su dirección.

El valor propio de un vector propio es el factor de escala por el que ha sido


multiplicado.

Llamaremos vectores propios de una matriz cuadrada de orden “n” a aquellos vectores
cuya dirección no se modifica al transformarlos mediante la matriz. Por tanto u es un
vector propio de la matriz A si verifica que:

Au=λu …….(1)

Donde λ es un escalar, que se denomina valor propio de la matriz. En esta relación


suponemos u ≠ 0, ya que si no es trivialmente cierta. Si u es un vector propio de A y
multiplicamos (1) por cualquier a ≠ 0, resulta que au será también un vector propio de
A. Para evitar esta indeterminación suponemos que los vectores propios están
normalizados de manera que ||u||= 1. Sin embargo, el signo queda indeterminado: si u
es un vector propio también lo es −u.

Para calcular el vector propio podemos escribir la ecuación anterior como:

(A-λI)u=0

Y este es un sistema homogéneo de ecuaciones que tendrá solución no nula si y solo


si la matriz del sistema, (A−λI), es singular. En efecto, si esta matriz fuese invertible
multiplicando por la inversa tendríamos que la única solución es u = 0. Por tanto, este
sistema tiene solución no nula si se verifica que:

|A − λI| = 0.
Esta ecuación se denomina la ecuación característica de la matriz. Es una ecuación
polinómica en λ de orden n y sus n raíces se denominan valores propios de la matriz.
Es inmediato de la definición que si una matriz es diagonal los valores propios son los
elementos de la diagonal principal. En efecto, tendremos:

𝑎1 … 0 𝜆 … 0 𝑎1 − 𝜆 … 0
|𝐴 − 𝜆𝐼| = |[ ∶ 𝑎2 ∶ ] − [∶ 𝜆 ∶ ]| = | ∶ 𝑎2 − 𝜆 ∶ |
0 … 𝑎𝑛 0 … 𝜆 0 … 𝑎𝑛 − 𝜆

|A−λI| = (a1 − λ) ... (an − λ),

Y las soluciones de esta ecuación polinómica son a1, ..., an.

1.2.CÁLCULO DE AUTOVALORES Y AUTOVECTORES:

Si se quiere calcular los valores propios de una matriz dada y ésta es pequeña, se puede
calcular simbólicamente usando el polinomio característico. Sin embargo, a menudo
resulta imposible para matrices extensas, caso en el que se debe usar un método
numérico.

1.3.Cálculo Simbólico:

1.3.1. Cálculo de los valores propios:

Una herramienta importante para encontrar valores propios de matrices


cuadradas es el polinomio característico: decir que λ es un valor propio
de A es equivalente a decir que el sistema de ecuaciones
lineales A v = λ v → A v - λ v = 0 (factorizando por v queda) (A - λI) v = 0
(donde I es la matriz identidad) tiene una solución no nula v (un vector
propio), y de esta forma es equivalente al determinante:

La función p(λ) = det(A - λI) es un polinomio de λ pues los determinantes se


definen como sumas de productos. Éste es el polinomio característico de A:
los valores propios de una matriz son los ceros de su polinomio característico.

Todos los valores propios de una matriz A pueden calcularse resolviendo la


ecuación . Si A es una matriz n×n, entonces tiene
grado n y A tiene como máximo n valores propios.

El teorema fundamental del álgebra dice que esta ecuación tiene


exactamente n raíces (ceros), teniendo en cuenta su multiplicidad. Todos los
polinomios reales de grado impar tienen un número real como raíz, así que
para n impar toda matriz real tiene al menos valor propio real. En el caso de
las matrices reales, para n par e impar, los valores propios no reales son pares
conjugados.
1.3.2. Cálculo de los vectores propios

Una vez que se conocen los valores propios λ, los vectores propios se pueden
hallar resolviendo el sistema de ecuaciones homogéneo:

Una forma más sencilla de obtener vectores propios sin resolver un sistema
de ecuaciones lineales se basa en el teorema de Cayley-Hamilton que
establece que cada matriz cuadrada satisface su propio polinomio
característico. Así, si son los valores propios de A se cumple
que

por lo que los vectores columna de son vectores


propios de .

1.4.Cálculo Numérico;

En la práctica, los valores propios de las matrices extensas no se calculan usando


el polinomio característico. El teorema de Abel-Ruffini implica que las raíces de
los polinomios de grado alto (5 o superior) no pueden expresarse usándose
simplemente raíces enésimas. Existen algoritmos eficientes para aproximar raíces
de polinomios, pero pequeños errores en la estimación de los valores propios
pueden dar lugar a errores grandes en los vectores propios. En consecuencia, los
algoritmos generales para encontrar vectores propios y valores propios son
iterativos. La manera más fácil es el método de las potencias: se escoge un
vector aleatorio y se calcula una secuencia de vectores unitarios:

, ,

Esta sucesión casi siempre convergerá a un vector propio correspondiente al


mayor valor propio. Este algoritmo es sencillo, pero no demasiado útil
aisladamente. Sin embargo, hay métodos más populares, como
la descomposición QR, que se basan en él.

1.3. GRÁFICAS:

Una gráfica es un conjunto de puntos llamados vértices o nodos conectados por líneas
llamadas aristas o ramas.

Dos nodos A y B conectados por una arista “a” se llaman adyacentes o vecinos, y en
tal caso, los nodos A y B se denominan incidentes a la arista “a”.
Una rama que parte de un nodo y regresa al mismo nodo se denomina lazo o bucle.
La matriz de una gráfica es una matriz G cuadrada de orden n cuyo elemento gij indica
la cantidad de aristas que unen al i-ésimo con el j-ésimo nodo. La matriz de adyacencia
de una gráfica es una matriz A cuadrada cuyo elemento aij es 1 si los nodos i y j son
adyacentes y 0 si no lo son.

Los valores propios de una matriz simétrica representan las magnitudes de los ejes del
elipsoide con centro el origen y determinado por los extremos de los vectores. Los
vectores propios indican las direcciones de estos ejes principales.

2. MATRICES

Una matriz de orden m x n es un conjunto de m x n números ordenados en una tabla.


𝑎11 𝑎12 … 𝑎1𝑛
( ⋮ ⋮ ⋮ ⋮ )
𝑎𝑚1 𝑎𝑚2 … 𝑎𝑚𝑛

De lo anterior podemos decir que tenemos m filas y n columnas

Casos particulares

Por tanto, una matriz de orden (m n) tiene m filas y n columnas. En caso de que el
número de filas y el de columnas sea el mismo se habla de matriz cuadrada.

Las matrices cuadradas tienen dos diagonales, de las cuales sobre un ejemplo vemos la
que se llama "diagonal principal" de la matriz
𝑎11 ⋯ 𝑎1𝑛
( ⋮ ⋱ ⋮ )
𝑎𝑛1 ⋯ 𝑎𝑛𝑛

2.1. OPERACIONES DE MATRICES:

2.1.1. Adición de matrices:


Sean A y B son dos matrices del mismo orden, entonces la matriz suma S = A
+ B es:

𝑎11 ⋯ 𝑎1𝑛 𝑏11 ⋯ 𝑏1𝑛 𝑎11 + 𝑏11 ⋯ 𝑎1𝑛 + 𝑏1𝑛


( ⋮ ⋱ ⋮ )+( ⋮ ⋱ ⋮ )=( ⋮ ⋱ ⋮ )
𝑎𝑛1 ⋯ 𝑎𝑛𝑛 𝑏𝑛1 ⋯ 𝑏𝑛𝑛 𝑎𝑛1 + 𝑏𝑛1 ⋯ 𝑎𝑛𝑛 + 𝑏𝑛𝑛

2.2.2. Productos de matrices

Sea A una matriz de orden (m  n), m=n y B una matriz de orden (n  r) r=1,
entonces la matriz producto, es una matriz P = A*B de orden (m  r):

𝑎11 ⋯ 𝑎1𝑛 𝑏11 𝑎11 ∗ 𝑏11 + ⋯ + 𝑎1𝑛 ∗ 𝑏𝑚𝑟


( ⋮ ⋱ ⋮ )∗( ⋮ )=( ⋮ )
𝑎𝑛1 ⋯ 𝑎𝑛𝑛 𝑏𝑚𝑟 𝑎𝑛1 ∗ 𝑏11 + ⋯ + 𝑎𝑛𝑛 ∗ 𝑏𝑚𝑟

Aplicación de ecuaciones diferenciales

1. Sistemas de ecuaciones diferenciales de primer orden


1.1.Teoría preliminar: sistemas lineales
1.2.Sistemas lineales homogéneos
 Eingevalores reales distintos
 Eingevalores reales repetidos
 Eingevalores complejos
1.3.Sistemas lineales no homogéneos
 Coeficientes indeterminados
 Variación de parámetros
Como sabemos podemos desarrollar estos sistemas mediante la eliminación sistemática
o con la transformada de Laplace. En este capítulo nos vamos a dedicar solo a sistemas
de ecuaciones lineales diferenciales de primer orden. Aunque la mayor parte de los
sistemas que se consideran se podrían resolver usando eliminación o la transformada de
Laplace, vamos a desarrollar una teoría general para estos tipos de sistemas y en el
caso de sistemas con coeficientes constantes, un método de solución que utiliza algunos
conceptos básicos del algebra de matrices. Este material es fundamental para analizar
ecuaciones no lineales de primer orden.
SISTEMAS LINEALES HOMOGÉNEOS

Introducción:

1 𝟑
Como se sabe, la solución general del sistema homogéneo 𝑿´ = ( ) 𝑿 es
𝟓 𝟑
𝟏 𝟑
𝑿 = 𝑐𝟏 𝑿𝟏 + 𝑐𝟐 𝑿𝟏 = 𝑐𝟏 ( ) 𝒆−𝟐𝒕 + 𝑐𝟐 ( ) 𝒆𝟔𝒕
−𝟏 𝟓
Ya que los vectores solución 𝑿𝟏 y 𝑿𝟐 tienen la forma

𝑘
𝑿𝟏 = ( 1 ) 𝒆𝝀𝒊 𝒕 , 𝑖 = 1,2
k2

Donde 𝑘1 , 𝑘2 , 𝜆1 𝑦 𝜆2 son constantes, nos inquieta saber si siempre es posible hallar una
solución de la forma

𝑘1
k2
.
𝑿 = . 𝒆𝝀𝒕 = 𝑲𝒆𝝀𝒕
.
(k 𝑛 )

Para la solución del sistema lineal homogéneo general de primer orden

𝑿´ = 𝑨𝑿

Donde 𝑨 es una matriz 𝒏 ∗ 𝒏 de constantes.

EIGENVALORES Y EIGENVECTORES

Si (1) es un vector solución del sistema homogéneo lineal (2), entonces 𝑿´= 𝑲𝒆𝝀𝒕 , por
lo que el sistema se convierte en 𝑲𝝀𝒆𝝀𝒕 = 𝑨𝑲𝒆𝝀𝒕 . Después de dividir entre 𝒆𝝀𝒕 y
reacomodando, obtenemos 𝑨𝑲 = 𝝀𝑲 o 𝑨𝑲 − 𝝀𝑲 = 𝟎. Ya que 𝑲 = 𝑰𝑲 , la última
ecuación es igual a

(𝑲 − 𝝀𝑰)𝑲 = 𝟎 (3)

La ecuación matricial (3) es equivalente a las ecuaciones algebraicas simultáneas


Por lo que para encontrar soluciones 𝑿 de (2), necesitamos primero encontrar una
solución no trivial del sistema anterior; en otras palabras, debemos encontrar un vector
no trivial 𝑲 que satisfaga a (3). Pero para que (3) tenga soluciones que no sean la
solución obvia 𝑘1 = 𝑘1 = ⋯ = 𝑘𝑛 = 0, se debe tener

𝑑𝑒𝑡(𝑨 − 𝝀𝑰) = 𝟎

Esta ecuación polinomial en 𝝀 se llama ecuación característica de la matriz 𝑨. Sus


soluciones son los eigenvalores de 𝑨. Una solución 𝑲 ≠ 𝟎 de (3) correspondiente a un
eigevalor 𝜆 se llama eigenvector de 𝑨. Entonces una solución del sistema homogéneo
(2) es 𝑿 = 𝑲𝒆𝝀𝒕 .

En el siguiente análisis se examina tres casos: eigenvalores reales y distintos (es decir,
los eigenvalores no son iguales), iegenvalores repetidos y, por último, Eigenvalores
complejos.

EIGEVALORES REPETIDOS

Por supuesto, no todos los eigenvalores 𝝀𝟏 , 𝝀𝟐 , … 𝝀𝒏 de una matriz 𝑨 de 𝒏 ∗ 𝒏 deben


ser distintos, es decir, algunos de los iegevalores podrían ser repetidos. Por ejemplo, la
ecuación característica de la matriz de coeficientes en el sistema.

3 −𝟏𝟖
𝑿´ = ( )𝑿
𝟐 −𝟗
Se demuestra fácilmente que es ((𝝀 + 𝟑)𝟐 = 𝟎, y por lo tanto, 𝝀𝟏 = 𝝀𝟐 = −𝟑 es una
raíz de multiplicidad dos. Para este valor se encuentra el único eingevector

3 3
𝑲𝟏 = ( ), por lo que 𝑿𝟏 = ( ) 𝒆−𝟑𝒕 (11)
1 1
Es una solución de (10). Pero como es obvio que tenemos interes en formar la solución
general del sistema, se necesita continuar con la pregunta de encontrar una segunda
solución.

En general, si m es un entero positivo y (𝝀 − 𝝀𝟏 )𝒎 es un factor de la ecuación


característica, mientras que (𝝀 − 𝝀𝟏 )𝒎+𝟏no es un factor, entonces se dice que 𝝀𝟏 es un
eigenvalor de multiplicidad m. en los tres ejemplos que se da a continuación se ilustra
los casos siguientes:

 Para algunas matrices 𝑨 de 𝒏 ∗ 𝒏 sería posible encontrar eigenvectores


linealmente independientes 𝑲𝟏 , 𝑲𝟐 , … , 𝑲𝒏 , correspondientes a un eigenvalor
𝝀𝟏 , de multiplicidad
𝑚 ≤ 𝑛. En este cado la solución general del sistema contiene la combinación
lineal

𝑐𝟏 𝑲𝟏 𝒆𝝀𝟏 𝒕 + 𝑐𝟐 𝑲𝟐 𝒆𝝀𝟏 𝒕 + ⋯ + 𝑐𝒎 𝑲𝒎 𝒆𝝀𝟏 𝒕


 Si solo hay un eigenvector propio que corresponde al eingenvector 𝝀𝟏 de
multiplicidad m, entonces siempre se pueden encontrar m soluciones
linealmente independientes de la forma
𝑿𝟏 = 𝑲𝟏𝟏 𝒆𝝀𝟏 𝒕
𝑿𝟐 = 𝑲𝟐𝟏 𝒕𝒆𝝀𝟏 𝒕 + 𝑲𝟐𝟐 𝒆𝝀𝟏 𝒕
.
.
.
𝒎−𝟏
𝒕 𝒕𝒎−𝟐
𝑿𝒎 = 𝑲𝒎𝟏 𝒆𝝀𝟏 𝒕 + 𝑲𝟐𝒎 𝒆𝝀𝟏 𝒕 + ⋯ + 𝑲𝒎𝒎 𝒆𝝀𝟏 𝒕
(𝒎 − 𝟏)! (𝒎 − 𝟐)!

Donde las 𝑲𝒊𝒋 son vectores columna.


EIGENVALORES DE MILTIPLICIDAD DOS se comienza por considerar
eigenvalores de multiplicidad dos. En el primer ejemplo se ilustra una matriz
para la que podemos encontrar dos eigenvectores distintos que corresponden a
un doble eigenvalor.

Segunda solución:
Suponga que 𝝀𝟏 es un valor propio de multiplicidad dos y que solo hay un
eigenvector asociado con este valor. Se puede encontrar una segunda solución
de la forma.

𝑿𝟐 = 𝑲𝒕𝒆𝝀𝟏 𝒕 + 𝑷𝒆𝝀𝟏 𝒕

𝑘1 𝑝1
k2 p2
. .
𝑲= . Y 𝑷= . .
. .
(k 𝑛 ) (p𝑛 )

Para ver esto sustituya el en sistema 𝑿´ = 𝑨𝑿 y simplifique:


𝑿𝟐 = (𝑨𝑲 − 𝝀𝑲)𝒕𝒆𝝀𝟏 𝒕 + (𝑨𝑷 − 𝝀𝟏 𝑷 − 𝑲)𝒆𝝀𝟏 𝒕 = 𝟎
Puesto que la última ecuación es válida para todos los valores de t, debemos
tener
(𝑨 − 𝝀𝟏 𝑰)𝑲 = 𝟎
Y
(𝑨 − 𝝀𝟏 𝑰)𝑷 = 𝑲
La ecuación (13) simplemente establece que 𝑲 debe ser un vector característico
de 𝑨 asociado a con 𝝀𝟏 . Al resolver (13), se encuentra una solución 𝑿𝟏 =
𝑲𝒆𝝀𝟏 𝒕 . Para encontrar la segunda solución 𝑿𝟐 solo se necesita resolver el
sistema adicional (14) para obtener el vector 𝑷.

EJERCICIOS DE APLICACIÓN

EJERCICOS DE EIGEVALORES REPETIDOS

EJERCICO 1

2 1 6
𝑌 = (0 2 5) ∗ 𝑋
0 0 2
SOLUCIÓN:

Plantearemos la siguiente ecuación, para todo 𝛾 = 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒

𝑦𝑢 = 𝑢𝛾

Donde u≠ 0 es un vector cualquiera

𝑦𝑢 − 𝑢𝛾 = 0

(𝑦 − 𝛾𝐼) ∗ 𝑢 = 0

Como u≠ 0 , entonces,

(𝑦 − 𝛾𝐼) ∗ 𝑢 = 0

|𝑌 − 𝐼𝛾| = 0

|𝑌| − |𝛾𝐼| = 0

|𝑌| − 𝛾|𝐼| = 0

2 1 6 1 0 0
|0 2 5| − 𝛾 |0 1 0| = 0
0 0 2 0 0 1
2 1 6 𝛾 0 0
|0 2 5| − |0 𝛾 0| = 0
0 0 2 0 0 𝛾

2−𝛾 1 6
| 0 2−𝛾 5 |=0
0 0 2−𝛾
2−𝛾 5
(2 − 𝛾) ∗ | |=0
0 2−𝛾

(2 − 𝛾) ∗ (2 − 𝛾) ∗ (2 − 𝛾) = 0 , →𝛾=2

Hallando los valores eigevalores de multiplicidad tres. Al resolver para 𝛾 = 2

2−2 1 6 𝑥
( 0 2−2 5 ) (𝑦) = 0
0 0 2−2 𝑧
0 1 6 𝑥 0
(0 0 5) (𝑦 ) = ( 0)
0 0 0 𝑧 0
0 1 6 0
(0 0 5 0)
0 0 0 0

𝑦 + 6𝑧 = 0 → 𝑦 = 0

5𝑧 = 0 → 𝑧 = 0

𝑥=𝑡

Por lo tanto el vector eigevector

𝑡 1 1
𝑘 = (0) → 𝑡 (0) → (0)
0 0 0
A continuación el sistema se resuelve primero el sistema (𝑨 − 𝟐𝑰)𝑷 = 𝑲 yy después el
sistema (𝑨 − 𝟐𝑰)𝑸 = 𝑷 y se encuentra que

1 0
𝑷 = (0) y 𝑸 = ( −6/5)
1 1/5

Luego usando 12 y 15, vemos que la solución general del sistema es

1 1 0 1 𝑡2 0 0
𝑿 = 𝑐1 (0) 𝒆 + 𝑐2 [(0) 𝑡𝒆 + (1) 𝒆 ] + 𝑐3 [(0) 𝒆 + (1) 𝑡𝒆 + (−6/5) 𝒆2𝑡 ]
2𝑡 2𝑡 2𝑡 2𝑡 2𝑡
2 1/5
0 0 0 0 0

EJERCICIO 2

Solución

3
De (11) se sabe que λ1 = -3 y que la solución es 𝑋1 = ( ) 𝑒 −3𝑡
1
3 𝑝1
Identificando 𝐾 = ( ) 𝑦 𝑃 = ( ), encontramos de (14) que ahora debemos resolver
1 𝑝2

(A + 3I)P = K o 6p1 – 18p2 = 3

2p1 – 6p2 =1

Puesto que resulta obvio que este sistema es equivalente a una ecuación, se tiene un
número infinito de elecciones de p1 y p2. Por ejemplo al elegir p1 = 1 se encuentra que
p2 = 1/6. Sin embargo, por simplicidad elegimos p1 = ½ por lo que p2 = 0. Entonces 𝑃 =
1 1
3
( 2 ). Así de (12) se encuentra que 𝑋2 = ( ) 𝑡𝑒 −3𝑡 + ( 2 ) 𝑒 −3𝑡 . La solución general
0 1 0
1
3 −3𝑡 3 −3𝑡
de (10) es 𝑋 = 𝐶1 𝑋1 + 𝐶2 𝑋2, 0 𝑋 = 𝑐1 ( ) 𝑒 + 𝑐2 [( ) 𝑡𝑒 + ( 2 ) 𝑒 −3𝑡 ]
1 1 0
Al asignar diversos valores c1 y c2 en la solución del ejemplo 4, se pueden trazar las
trayectorias del sistema en (10). En la figura 8.2.3 se presenta un diagrama fase de (10).
Las soluciones X1 Y -X1 determinan dos semirrectas Y = 1/3x, x>0 y Y = 1/3X, X<0
respetivamente.

EIGENVALOR DE MULTIPLO TRES

Cuando la matriz de coeficientes A tiene solo un eigenvector asociado con un


eigenvalor λ1 de multiplicidad tres, podemos encontrar una segunda solución de la
forma (12) y una tercera solución de la forma

𝑡 2 𝜆1𝑡
𝑋3 = 𝑘 𝑒 + 𝑃𝑡𝑒 𝜆1𝑡 + 𝑄𝑒 𝜆1𝑡
2
𝑘1 𝑝1 𝑞
Donde 𝑘 = ( ⋮ ), 𝑃=( ⋮) y 𝑄=(⋮ )
𝑘𝑛 𝑝𝑛 𝑞𝑛

Al sustituir (15) en el sistema 𝑋′ = 𝐴𝑋 , se encuentra que los vectores columna K, P Y


Q deben satisfacer

( 𝐴 − 𝜆1 𝐼 )𝐾 = 0 (16)

( 𝐴 − 𝜆1 𝐼)𝑃 = 0 (17)

( 𝐴 − 𝜆1 𝐼)𝑄 = 0 (18)

Y por supuesto, las soluciones (16) y (17) se pueden usar para formar las soluciones X1
Y X2

S-ar putea să vă placă și