Documente Academic
Documente Profesional
Documente Cultură
pdf
Apuntes de la Asignatura
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su
totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Apuntes de Matemáticas II
Grado Ingeniería Mecánica
Parte I: Álgebra Lineal
Mª Cruz Parra
Dpto. de Matemática Aplicada
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
Álgebra lineal
Previos 3
Matrices 5
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Determinantes 7
Espacios vectoriales 19
Aplicaciones lineales 25
Diagonalización 29
1
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
Previos
§1 Aplicaciones.
Dados dos conjuntos A y B, una aplicación f de A en B es una ley o criterio que asocia a
cada elemento de A uno y sólo uno de B.
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Si f : A → B, es una aplicación y a 7→ b = f (a), se dice que b es la imagen por f de a y que a
es una antiimagen de b, o un original de b, por f .
Se dice que una aplicación es inyectiva si elementos de A distintos tienen imágenes distintas,
es decir: a1 , a2 ∈ A, a1 6= a2 ⇒ f (a1 ) 6= f (a2 )
o, equivalentemente, ∀a1 , a2 ∈ A tales que f (a1 ) = f (a2 ) ⇒ a1 = a2 .
Se dice que una aplicación es suprayectiva si cada elemento de B tiene por lo menos una
antiimagen, es decir: ∀b ∈ B, ∃a ∈ A, b = f (a).
Una aplicación se dice biyectiva si es inyectiva y suprayectiva.
§2 Relaciones binarias.
Dados dos conjuntos A y B, una relación binaria < entre A y B es una ley que permite decir,
para todo par (a, b) ∈ A × B, si a está relacionado con b o no, mediante <.
Sea < una relación binaria sobre un mismo conjunto A. Diremos que < verifica la propiedad
Reflexiva si ∀a ∈ A, a<a.
Simétrica si a, b ∈ A 3 a<b ⇒ b<a.
Antisimétrica si a, b ∈ A 3 a<b ∧ b<a ⇒ a = b.
Transitiva si a, b, c ∈ A 3 a<b ∧ b<c ⇒ a<c.
La relación se dice de equivalencia si se cumplen las propiedades reflexiva, simétrica y transitiva
y se dice que la relación es de orden cuando es reflexiva, antisimétrica y transitiva.
§3 Leyes de composición.
Sea A un conjunto. Una Ley de Composición Interna, abreviadamente LCI, sobre A es una
operación ∗ que a cada par ordenado de elementos de A le asocia otro elemento de A. Es decir,
es una aplicación de A × A en A.
∗ : A × A → A, (a, b) 7→ a ∗ b.
Sean A y K dos conjuntos distintos. Una Ley de composición externa, abreviadamente LCE,
sobre A con dominio de operadores K es una operación ∗ que a cada par de elementos, uno de A
y otro de K, le asocia un elemento de A. Es decir, es una aplicación de K × A en A.
∗ : K × A → A, (k, a) 7→ k ∗ a.
3
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
§4 Estucturas algebraicas.
Grupo. Sea G un conjunto sobre el que está definida una LCI, ∗. Se dice que (G, ∗) tiene
estructura de grupo si se verifica
• ∗ es asociativa, ∀a, b, c ∈ G, a ∗ (b ∗ c) = (a ∗ b) ∗ c.
• Existe elemento neutro, ∃ e ∈ G 3 ∀a ∈ G, a ∗ e = e ∗ a = a.
• Todo elemento posee simétrico, para cada a ∈ G ∃ ã ∈ G, a ∗ ã = ã ∗ a = e.
Si además la operación ∗ es conmutativa, ∀a, b ∈ G, a ∗ b = b ∗ a, se dice que (G, ∗) es un grupo
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
abeliano o conmutativo.
Cuando la operación ∗ sea una suma, se denota por el sı́mbolo habitual +, el grupo (G, +)
se dice aditivo, el elemento neutro se denota por 0 y se le dice nulo o cero y al simétrico de un
elemento a lo llamaremos opuesto de a y lo denotaremos por −a, es decir, a+(−a) = (−a)+a = 0.
Si la operación ∗ es un producto, se suele denotar por el sı́mbolo ·, el grupo (G, ·) se dice multi-
plicativo, el elemento neutro se denota por 1 y se le dice unidad o identidad y al simétrico de un
elemento a lo llamaremos inverso de a y lo denotaremos por a−1 , ası́, a.a−1 = a−1 .a = 1.
En un grupo (G, ∗) se puede establecer la siguiente aplicación ∗ : G×G −→ G, (a, b) 7→ x = b̃∗a,
donde b̃ es el simétrico de b, que define una LCI sobre G a la que llamamos operación inversa de
∗. Si el grupo es aditivo, la operación inversa se dice sustracción o diferencia − : G × G −→ G,
(a, b) 7→ x = −b + a
(a, b) 7→ x = b−1 · a
Anillo. Sea A un conjunto sobre el que están definidas dos operaciones + y ·, ambas LCI sobre
A. Se dice que (A, +, ·) tiene estructura de anillo si se verifica
• (A, +) es grupo abeliano.
• La operación · es asociativa, ∀a, b, c ∈ A, a · (b · c) = (a · b) · c.
• La operación · es doblemente distributiva respecto de +,
½
a · (b + c) = (a · b) + (a · c),
∀a, b, c ∈ A,
(a + b) · c = (a · c) + (b · c).
∃ e ∈ A 3 ∀a ∈ A, a · e = e · a = a.
∃ a, b ∈ A, a 6= 0, b 6= 0 3 a · b = 0,
Matrices
SUMA
Definición 1. Dadas A = (aij ), B = (bij ) ∈ Mm×n (IK). La matriz (aij + bij ) ∈ Mm×n (IK) se dice
suma de A con B y se denota por A + B.
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Propiedades
(Mm×n (IK), +) es grupo abeliano. La matriz O = (0) ∈ Mm×n (IK) es el elemento neutro y se dice
matriz nula de dimensiones m × n. Para cada A = (aij ) ∈ Mm×n (IK) la matriz −A = (−aij ) ∈
Mm×n (IK) es su opuesta.
PRODUCTO
Definición 2. Sean A = (aij ) ∈ Mm×n (IK)Py B = (bij ) ∈ Mn×p (IK). Se llama matriz producto
de A por B, y se escribe A.B, a la matriz ( nk=1 aik bkj ) ∈ Mm×p (IK)
c11 . . . c1j . . . c1p
a11 a12 . . . a1n . .. .. .. ..
. . . . b 11 . . . b 1j . . . b 1p .. . . . .
. .
. .
. b n
21 . . . b 2j . . . b 2p X
ai1 ai2 . . . ain .. .. .. .. .. =
c i1 . . . a ik b kj . . . c ip .
. ..
.. . . . . .
.. k=1
. . bn1 . . . bnj . . . bnp ... .. .. .. ..
am1 am2 . . . amn . . . .
cm1 . . . cmj . . . cmp
Propiedades
Sean A ∈ Mm×n (IK), B ∈ Mn×p (IK) y C ∈ Mp×q (IK) entonces, (AB)C = A(BC).
Sean A, B ∈ Mm×n (IK) y C ∈ Mn×p (IK) entonces, (A + B)C = AC + BC.
Sean A ∈ Mm×n (IK) y B, C ∈ Mn×p (IK) entonces, A(B + C) = AB + AC.
(Mn (IK), +, ·) es anillo unitario. Para n = 1 conmutativo sin divisores de cero y para n > 1 no
conmutativo y con divisores de cero. La matriz
1 0 ... 0
0 1 ... 0
In = .. .. . . ..
. . . .
0 0 ... 1
verifica AIn = In A = A, para toda A ∈ Mn (IK). In se dice matriz unidad o matriz identidad de
orden n.
Elementos inversibles
5
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
Definición 4. Sean A = (aij ) ∈ Mm×n (IK) y α ∈ IK. A la matriz (αaij ) ∈ Mm×n (IK) la
llamaremos matriz producto de la matriz A por el elemento α y se escribe αA.
Propiedades
Distributiva respecto a la suma matricial.
∀α ∈ IK, ∀A, B ∈ Mm×n (IK), α(A + B) = αA + αB.
Distributiva respecto a la suma de elementos y a la suma de matrices.
∀α, β ∈ IK, ∀A ∈ Mm×n (IK), (α + β)A = αA + βA.
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Asociativa respecto al producto de elementos.
∀α, β ∈ IK, ∀A ∈ Mm×n (IK), α(βA) = (αβ)A
Para toda A ∈ Mm×n (IK) se verifica que 1A = A.
Propiedades
(AT )T = A.
∀A, B ∈ Mm×n (IK), (A + B)T = AT + B T .
∀A ∈ Mm×n (IK), ∀B ∈ Mn×p (IK), (AB)T = B T AT .
Sea A ∈ Mn (IK) inversible entonces, (A−1 )T = (AT )−1 .
Determinantes
PERMUTACIONES
Permutación de orden n es cada una de las aplicaciones biyectivas de los elementos del conjunto
An = {1, 2, . . . , n} en sı́ mismo. Se observa que cualquier aplicación de An en An que sea inyectiva
o suprayectiva es también biyectiva. Designaremos por Sn al conjunto de todas las permutaciones
de orden n. Una permutación α ∈ Sn se representa por el cuadro siguiente
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
µ ¶
1 2 3 ... n
α(1) α(2) α(3) . . . α(n)
aunque podemos referirnos y utilizar una permutación sustituyéndola por su correspondiente or-
denación α(1)α(2) . . . α(n). El número de permutaciones de orden n es n!.
Clase de una permutación. Dada una permutación α diremos que los elementos α(i), α(j)
forman una inversión si α(i) − α(j) tiene distinto signo que i − j. Observando el cuadro con el
que representamos una permutación se comprueba que los elementos de la primera fila aparecen
en orden creciente por lo que la diferencia i − j entre uno de ellos i y cada j de los que tiene a su
derecha es siempre negativa, de este modo, el par α(i), α(j) formará una inversión si α(i) − α(j)
es positivo. Entonces, para contar el número total de inversiones que hay en una permutación,
basta contar en la ordenación correspondiente el número de pares de elementos que no están en
orden natural.
Se llama signatura de α, y lo escribiremos σ(α), al número σ(α) = (−1)I(α) , donde I(α) denota
el número total de inversiones que forman los diferentes pares de elementos de α. Se dice que la
permutación α es de clase par si σ(α) = 1 y de clase impar cuando ésta sea −1. Para n ≥ 2, la
mitad de las permutaciones de orden n son de clase par y la otra mitad de clase impar.
Los n! términos de la suma (1) se dicen términos del determinante, según que la permutación
α sea par o impar el término correspondiente se dice positivo o negativo, respectivamente. Ası́,
para n ≥ 2, la mitad de los términos son positivos y la otra mitad negativos.
Orden, elementos, filas, columnas, lı́neas de |A| son, respectivamente, el orden, los elementos,
las filas, las columnas y las lı́neas de A.
Desarrollo de los determinantes de orden n ≤ 3 Sea A ∈ Mn (IK).
Si n = 1, A = (a11 ) y S1 = {1}. La única permutación existente es par, y (1) queda |A| = a11 .
µ ¶
a11 a12
Si n = 2, A = , las permutaciones de orden 2 son S2 = {12, 21} de las que P2 = {12}
a21 a22
es par e I2 = {21} impar. Entonces, de (1) se obtiene |A| = a11 a22 − a12 a21 . Lo que se recuerda
fácilmente con el siguiente esquema
7
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
(1) se obtiene ahora
|A| = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 ,
Para n > 3, la expresión (1) no resulta cómoda para calcular el determinante y tampoco hay
una regla fácil de memorizar que nos permita obtenerlo, inconveniente que aumenta conforme lo
hace n. Para reducir el cálculo de determinantes de orden superior a 3 al cálculo de determinantes
de orden inferior, daremos algunas propiedades de los determinantes.
PROPIEDADES
Como consecuencia del Teorema 10 resulta que cualquier propiedad que se enuncie para las
filas de un determinante es igualmente válida para columnas. Ası́, por brevedad, en lo que sigue
se enunciarán únicamente las propiedades correspondientes a filas.
Teorema 11. Si se cambian entre sı́ dos filas de un determinante, el determinante obtenido toma
el valor opuesto al dado.
Teorema 13. Si en un determinante multiplicamos todos los elementos de una fila por un mismo
elemento, el determinante queda multiplicado por ese elemento.
Teorema 15. Si los elementos de una fila son binomios, se puede descomponer el determinante en
suma de dos determinantes que tienen las restantes filas iguales y en lugar de aquella la formada
por los primeros, segundos términos del binomio, respectivamente.
Corolario 16. Si los elementos de una fila son polinomios de r sumandos, se puede descomponer
el determinante en suma de r determinantes que tienen las restantes filas iguales y en lugar de
aquella la formada por los primeros, segundos, . . . , r-ésimos sumandos, respectivamente.
Corolario 17. Un determinante no varı́a al sumar a los elementos de una fila los correspondientes
de otra multiplicados por un mismo elemento.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
Definición 19. Dado un determinante de orden n > 1, |A| = |aij |, si suprimimos en la matriz A
la fila que ocupa el lugar h y la columna que ocupa el lugar k, se obtiene una matriz de orden
n − 1 a cuyo determinante, αhk , llamamos menor complementario del elemento ahk en |A|.
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
DESARROLLO DE UN DETERMINANTE por los elementos de una lı́nea
Teorema 22. El desarrollo de un determinante es igual a la suma de los productos de los elementos
de una cualquiera de sus lı́neas por sus respectivos adjuntos.
Teorema 23. La suma de los productos de los elementos de una lı́nea cualquiera de un determi-
nante por los adjuntos de los elementos correspondientes de otra paralela a ella es igual a cero.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
10
Matemáticas II, MECÁNICA
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
PRIMERAS DEFINICIONES
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
cualesquiera de la misma.
Definición 25. Rango o caracterı́stica de una matriz no nula es el orden máximo de sus menores
no nulos.
Puede asegurarse que el rango de una matriz es h si existe un menor de orden h no nulo y son
nulos todos los menores de orden h + 1 que pueden formarse.
Por convenio, el rango de la matriz nula es cero. El rango de una matriz A lo denotaremos
por rgA.
De las definiciones anteriores se deduce trivialmente que:
A ∈ Mm×n (IK), rgA = 0 ⇔ A = O.
∀A ∈ Mm×n (IK), rgA = rgAT .
A ∈ Mn (IK), rgA = n ⇔| A |6= 0.
OPERACIONES ELEMENTALES
Son operaciones elementales por filas (columnas, respectivamente) en una matriz cada una de
las siguientes:
Teorema 26. El rango de una matriz no se altera al efectuar en ella cualquier operación elemental.
Definición 27. Se dice que una matriz tiene forma escalonada por filas si se verifica:
• La columna que contiene al primer elemento no nulo de cada fila no nula tiene nulos todos
los elementos siguientes a éste.
• El primer elemento no nulo de cada fila no nula está a la derecha de los elementos iniciales
no nulos de las filas anteriores.
• Las filas que sólo tienen ceros aparecen después de todas las filas con algún elemento no nulo.
Teorema 28. Toda matriz no nula puede transformarse en una matriz que tiene forma escalonada
por filas efectuando en ella operaciones elementales por filas.
11
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
Sea A ∈ Mm×n (IK). Para pasar a una matriz escalonada por filas basta seguir el siguiente
proceso: Sea j1 la primera columna de A no formada por todo ceros. Intercambiando filas, si
fuese necesario, podrı́amos conseguir que el primer elemento de esa columna, a1 , sea no nulo. Los
restantes elementos de la columna j1 se hacen cero sin más que sumar sucesivamente un múltiplo
apropiado de la primera fila a cada una de las restantes filas. Procedemos de igual forma con la
matriz resultante de prescindir en la anterior de su primera fila. Continuando con este proceso,
hasta agotar las filas u obtener una matriz nula, se obtiene una matriz que tiene forma escalonada
por filas.
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Teorema 29. El rango de una matriz que tiene forma escalonada por filas es igual al número de
filas no nulas que posee.
MATRICES ELEMENTALES
Asociaremos a continuación una matriz a cada una de las operaciones elementales señaladas
anteriormente.
Matriz elemental de primer género y orden n. Sea i ∈ {1, . . . , n} y sea 0 6= λ ∈ IK. Denota-
mos por Pi (λ) la matriz obtenida al efectuar en In la siguiente operación elemental: multiplicar
la fila i por λ, es decir,
1 0 ... 0 ... 0
0 1 ... 0 ... 0
. . ..
. . . . . ..
. . . .
Pi (λ) = .
0 0 ... λ ... 0
. . .. . . ..
.. .. . . .
0 0 ... 0 ... 1
Esta misma matriz se hubiera obtenido igualmente si la operación elemental efectuada en In
hubiera sido multiplicar por λ la columna i.
½ ¾
f ila
In → multiplicar la i por λ → Pi (λ).
columna
3. Si A ∈ Mn×m (IK), la matriz Pi (λ)A tiene sus filas iguales a las de A salvo la i–ésima que ha
quedado multiplicada por λ.
4. Si A ∈ Mm×n (IK), la matriz APi (λ) tiene sus columnas iguales a las de A salvo la i–ésima
que ha quedado multiplicada por λ.
5. Si A ∈ Mn (IK),
|Pi (λ)A| = λ|A| = |Pi (λ)||A|,
6. Es inversible pues Pi (λ)Pi (1/λ) = Pi (1/λ)Pi (λ) = In y ası́, su inversa es Pi (λ)−1 = Pi (1/λ).
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
13
Matriz elemental de segundo género y orden n. Sean i, j ∈ {1, . . . , n}, i 6= j. Denotamos por
Pij la matriz obtenida al efectuar en In la siguiente operación elemental: cambiar entre sı́ las filas
i y j, es decir,
1 0 ... 0 ... 0 ... 0
0 1 ... 0 ... 0 ... 0
.. .. . . .. .. ..
. . . . . .
0 0 ... 0 ... 1 ... 0
Pij = ... ... .. . . .. .. .
. . . .
0 0 ... 1 ... 0 ... 0
. . . . . .
.. .. .. .. . . ..
0 0 ... 0 ... 0 ... 1
Esta misma matriz se hubiera obtenido igualmente si la operación elemental efectuada en In
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
hubiera sido cambiar entre sı́ las columnas i y j.
½ ¾
f ilas
In → intercambiar las i y j → Pij .
columnas
Esta matriz cumple las siguientes propiedades:
1. Es simétrica, es decir, PijT = Pij .
2. Su determinante es no nulo, pues |Pij | = −|In | = −1.
3. Si A ∈ Mn×m (IK), la matriz Pij A tiene sus filas iguales a las de A salvo la i–ésima y la
j–ésima que han cambiado entre sı́.
4. Si A ∈ Mm×n (IK), la matriz APij tiene sus columnas iguales a las de A salvo la i–ésima y
la j–ésima que han cambiado entre sı́.
5. Si A ∈ Mn (IK),
|Pij A| = −1|A| = |Pij ||A|,
|APij | = −1|A| = |A|(−1) = |A||Pij |.
6. Es inversible pues Pij Pij = In y ası́, su inversa es ella misma, Pij−1 = Pij .
Matriz elemental de tercer género y orden n. Sean i, j ∈ {1, . . . , n}, i 6= j y sea λ ∈ IK. Deno-
tamos por Pij (λ) la matriz obtenida al efectuar en In la siguiente operación elemental: sumar a
la fila i la j multiplicada por λ, es decir,
1 0 ... 0 ... 0 ... 0
0 1 ... 0 ... 0 ... 0
.. .. . . .. .. ..
. . . . . .
0 0 ... 1 ... λ ... 0
Pij (λ) = .. .. .. . . .. .. .
. . . . . .
0 0 ... 0 ... 1 ... 0
. . .. .. . . ..
.. .. . . . .
0 0 ... 0 ... 0 ... 1
Esta misma matriz se hubiera obtenido igualmente si la operación elemental efectuada en In
hubiera sido sumar a la columna j la columna i multiplicada por λ.
½ ¾ ½ ¾
f ila i f ila j
In → sumar a la la multiplicada por λ → Pij (λ).
columna j columna i
Esta matriz cumple las siguientes propiedades:
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
1. Su traspuesta es otra matriz elemental del mismo género, Pij (λ)T = Pji (λ).
3. Si A ∈ Mn×m (IK), la matriz Pij (λ)A tiene sus filas iguales a las de A salvo la i–ésima a la
que se le ha sumado la j–ésima multiplicada por λ.
4. Si A ∈ Mm×n (IK), la matriz APij (λ) tiene sus columnas iguales a las de A salvo la j–ésima
a la que se le ha sumado la i–ésima multiplicada por λ.
5. Si A ∈ Mn (IK),
|Pij (λ)A| = |A| = |Pij (λ)||A|,
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
6. Es inversible pues Pij (λ)Pij (−λ) = Pij (−λ)Pij (λ) = In , es decir, Pij (λ)−1 = Pij (−λ).
En resumen, las matrices elementales verifican las siguientes propiedades: La traspuesta es también
una matriz elemental y del mismo género. Tienen determinante distinto de 0. Multiplicar a la
izquierda/derecha de una matriz A por una matriz elemental equivale a efectuar en A una opera-
ción elemental por filas/columnas (la misma que haya sido necesario hacer en las filas/columnas de
la identidad para pasar a esa matriz elemental) y, por ello, no se altera el rango de A. El determi-
nante del producto de una matriz cuadrada por una elemental es el producto de los determinantes.
Es inversible siendo su inversa otra matriz elemental del mismo género.
Teorema 31. De toda matriz no nula se puede pasar, efectuando operaciones elementales, a la
matriz canónica de las mismas dimensiones y el mismo rango.
Teorema 32. Toda matriz cuadrada, con determinante distinto de 0 puede ponerse como producto
de matrices elementales.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
15
Teorema 33. Sean A ∈ Mm×n (IK), B ∈ Mn×p (IK). Entonces, rg(AB) ≤ rgA y rg(AB) ≤ rgB.
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
MATRICES INVERSIBLES
Teorema 35. La condición necesaria y suficiente para que una matriz cuadrada sea inversible es
que su determinante sea distinto de cero.
Teorema 36. Elementos de la matriz inversa. Si A = (aij ) ∈ Mn (IK) es una matriz inversible,
A−1 = (Aji /|A|).
MATRICES ORTOGONALES
Proposición 37. Una condición necesaria para una matriz A sea ortogonal es que |A| = ±1.
(2) A ∈ Mn (IR), AT A = In
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Siendo (2) y (3) condiciones equivalentes, también lo son las condiciones (4) y (5).
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
(6) a1 x1 + a2 x2 + . . . + an xn = b,
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
en la que a1 , a2 , . . . , an , b son elementos determinados de IK y x1 , . . . , xn , son variables (incógnitas
o indeterminadas). Los elementos a1 , a2 , . . . , an reciben el nombre de coeficientes de las incógnitas
y b el de término independiente de las mismas. La ecuación (6) se dice homogénea si b = 0.
Definición 40. Sistema de ecuaciones lineales es todo conjunto no vacı́o de ecuaciones lineales.
Solución de un sistema de ecuaciones lineales es toda solución común a todas las ecuaciones que
lo forman. Un sistema de ecuaciones se dice homogéneo si los términos independientes de todas
las ecuaciones que lo forman son nulos.
Designaremos por S al conjunto formado por todas las soluciones del sistema E. Entonces,
el sistema E se dice incompatible si carece de solución, es decir, si S = ∅. Cuando S 6= ∅ el
sistema se dice compatible y, en este caso, según que el cardinal de S sea 1 o mayor que 1, se dirá
determinado o indeterminado.
Definición 41. Estudiar un sistema es resolverlo, es decir, hallar todas sus soluciones.
en la que X es una matriz indeterminada, es decir, sus elementos son variables. Entonces,
(c1 , c2 , . . . , cn ) es solución de (7) si y sólo si la matriz C = (ci ) ∈ Mn×1 (IK) es solución de (8). En
consecuencia, estudiar el sistema E es equivalente a estudiar la ecuación matricial asociada.
17
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
La matriz A = (aij ) ∈ Mm×n (IK), se dice matriz de coeficientes y B = (bi ) ∈ Mm×1 (IK) matriz
de términos independientes. La matriz de coeficientes y la matriz IB ∈ Mm×n+1 (IK), que resulta
de ampliar la anterior con la columna que forman los términos independientes de las incógnitas,
a11 a12 . . . a1n b1
a21 a22 . . . a2n b2
IB = (A|B) = .. .. .. ..
. . . .
am1 am2 . . . amn bm
reciben el nombre de matrices asociadas a E.
SISTEMAS EQUIVALENTES
Definición 42. Se dice que el sistema de ecuaciones E2 es equivalente al E1 si E2 tiene las mismas
soluciones que E1 .
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Se consideran operaciones elementales con las ecuaciones de un sistema las siguientes:
1- Multiplicar por un elemento no nulo los dos miembros de una ecuación,
2- Intercambiar dos ecuaciones,
3- Sumar miembro a miembro a una ecuación otra previamente multiplicada por un elemento.
Se observa que efectuar operaciones elementales con las ecuaciones de E es equivalente a realizar
la correspondiente operación elemental en las filas de las matrices A y B, es decir, en IB.
Teorema 43. Al efectuar operaciones elementales con las ecuaciones de un sistema se obtiene
otro equivalente al dado.
Teorema 44. Si en un sistema hay una ecuación que es combinación lineal de otras al suprimirla
obtenemos un sistema equivalente.
TEOREMA DE ROUCHÈ–FRÖBENIUS
Teorema 45. La condición necesaria y suficiente para que un sistema de ecuaciones lineales
sea compatible es que sus matrices asociadas tengan igual rango y, en este caso, según que el
rango común de las matrices sea igual o menor que el número de incógnitas será determinado o
indeterminado, respectivamente.
En resumen, este teorema clasifica los sistemas, según los rangos de sus matrices asociadas:
rgA 6= rgIB, S. Incompatible
h<n S. Compatible Indeterminado
rgA = rgIB =
h=n S. Compatible Determinado
donde n es el número de incógnitas del sistema. En el caso de sistema compatible indeterminado,
se obtiene la solución de h variables, llamadas principales, en función de las n − h restantes que
hacen el papel de parámetros.
Sistemas homogéneos. En el caso particular en el que el sistema sea homogéneo, es decir con
B = 0, siempre es rgA = rgIB y por tanto compatible. La solución trivial es (0, 0, . . . 0), pudiendo
tener otras o no según sea indeterminado o determinado.
REGLA DE CRAMER
Teorema 46. Un sistema formado por tantas ecuaciones lineales como incógnitas tenga, en el caso
de ser no nulo el determinante de la matriz de coeficientes, es compatible determinado. El valor
de la incógnita i–ésima se obtiene dividiendo por ese determinante el que se obtiene al sustituir
en él la columna i-ésima por la que forman los términos independientes de las incógnitas.
Para la Factorización LU ver la Práctica 2 y para Métodos iterativos la Práctica 3.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
Espacios vectoriales
Definición 47. Se dice que un conjunto E, a cuyos elementos llamaremos vectores, es un espacio
vectorial sobre el cuerpo (IK, +, ·), cuyos elementos llamaremos escalares, si sobre E están definidas
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
dos operaciones tales que
I) Una de ellas es una LCI sobre E, llamada suma de vectores y denotada por el signo +, de
modo que (E, +) es un grupo abeliano, es decir, que verifica las propiedades:
II) La otra operación es una LCE sobre E con el dominio de operadores IK, llamada producto
de un vector por un escalar y denotada por el signo ·, que verifica las siguientes propiedades:
La estructura algebraica de espacio vectorial (en adelante E .V .) se representa por (E, +, ·IK ).
19
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Definición 49. Se dice que un vector a es combinación lineal de los vectores del sistema A =
{a1 , a2 , . . . , an } si existen unos escalares α1 , α2 , . . . , αn ∈ IK tales que
a = α1 a1 + α2 a2 + . . . + αn an .
α1 a1 + α2 a2 + . . . + αn an = 0.
Es decir, si se puede formar una combinación lineal nula con los vectores de A sin ser nulos todos
los coeficientes.
Proposición 53. Todo sistema que contiene al vector nulo es ligado.
Proposición 54. Toda ampliación de un sistema ligado es también un sistema ligado.
Proposición 55. La condición necesaria y suficiente para que un sistema de orden mayor que
uno sea ligado es que, al menos, uno de sus vectores sea combinación lineal de los demás.
Proposición 56. La condición necesaria y suficiente para que un sistema de orden 1 sea ligado
es que el único vector que lo forma sea el nulo.
21
Proposición 61. Si al ampliar un sistema libre con un nuevo vector se obtiene un sistema ligado,
el vector añadido es combinación lineal de los restantes.
Definición 62. Se dice que un E .V . es de tipo finito si existe en él un sistema finito de vectores
tal que cada vector del espacio es una combinación lineal de los vectores de ese sistema. Todo
sistema que verifique esta condición se dice sistema generador del E .V .
De esta definición se sigue que, decir que A es un sistema generador de E, equivale a decir que
E es el conjunto formado por todas las combinaciones lineales de los vectores de A.
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Proposición 63. Toda ampliación con vectores de E de un sistema generador del espacio vectorial
E es también un sistema generador de E.
Proposición 64. Si en un sistema generador hay un vector que es combinación lineal de los
demás, al suprimirlo se obtiene otro sistema generador.
Proposición 65. Si en un sistema generador sustituimos uno de sus vectores por una combinación
lineal de todos los del sistema tal que el coeficiente que acompaña al vector sustituido sea no nulo,
entonces se obtiene otro sistema generador.
Definición 67. Base de un espacio vectorial es, si existe, un sistema de vectores de ese espacio
que sea generador, libre y esté ordenado.
En lo que sigue, cuando supongamos que un sistema de vectores A = {a1 , . . . , an } está ordenado
lo denotaremos por A = (a1 , . . . , an ).
Si un espacio vectorial se reduce al vector nulo, E = {0}, el único sistema posible es ligado
por lo que no existe base.
Teorema 68. De un sistema generador de un E .V . de tipo finito no nulo siempre se puede extraer
una base.
Teorema 69. Todas las bases de un mismo E .V . E 6= {0} tienen el mismo orden.
Definición 70. Dimensión de un espacio vectorial de tipo finito, no nulo, es el orden de una
cualquiera de sus bases. Se conviene en decir que un E .V . nulo tiene dimensión 0.
Definición 71. Rango de un sistema de vectores que no se reduce únicamente al vector nulo es
el orden máximo de sus subsistemas libres. Se conviene en que el sistema {0} tenga rango 0.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
De esta definición resulta obvio que para {0} 6= A = {a1 , a2 , . . . , an } es 1 ≤ rgA ≤ n ası́ como
que rgA = 0 si y sólo si A = {0}.
Proposición 72. La dimensión de un E .V . coincide con su rango.
Corolario 73. En un E .V . de dimensión n 6= 0, todo sistema libre de orden n, ordenado, es una
base.
Corolario 74. En un E .V . de dimensión n 6= 0, todo sistema generador de orden n, ordenado,
es una base.
Teorema 75. Teorema de la base incompleta. En un espacio vectorial de dimensión n 6= 0, todo
sistema libre de orden inferior a n es parte de una base.
Coordenadas Sea En un espacio vectorial y sea BE = (u1 , . . . , un ) una base de E. Por ser BE
sistema generador de E, cada vector x ∈ E se puede poner como combinación lineal de los vectores
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
de BE , es decir, existen x1 , . . . , xn ∈ IK tales que
x = x 1 u1 + . . . + x n u n .
Si también fuera x = y1 u1 + . . . + yn un , para algunos y1 , . . . , yn ∈ IK, se verificarı́a que
x = x 1 u1 + . . . + x n u n = y 1 u1 + . . . + y n un
de donde
(x1 − y1 )u1 + . . . + (xn − yn )un = 0
y, por ser BE libre, necesariamente xi = yi , i = 1, . . . , n. De lo anterior resulta que cada vector
de E se puede poner de forma única como combinación lineal de los vectores de la base BE . Los
coeficientes (x1 , . . . , xn ) de esta única combinación se dicen coordenadas de x en BE .
Si a cada vector de E le asociamos la n–tupla formada por sus coordenadas respecto de BE
queda definida una aplicación ϕ : E −→ IK n , x 7→ (x1 , . . . , xn ) que es biyectiva. Ası́, para
referirnos a un vector de E podemos referirnos a sus correspondientes coordenadas respecto de la
base fijada en E.
Cambio de base Sea En un espacio vectorial y sean BE = (u1 , . . . , un ) y BE∗ = (u∗1 , . . . , u∗n ) dos
bases de E, siendo
u∗1 = α11 u1 + α21 u2 + . . . + αn1 un
u∗2 = α12 u1 + α22 u2 + . . . + αn2 un
(9) .
.....................................................
u∗n = α1n u1 + α2n u2 + . . . + αnn un
Si x ∈ E tiene por coordenadas (x1 , . . . , xn ) en BE y (x∗1 , . . . , x∗n ) respecto de BE∗ se verificará
x = x1 u1 + . . . + xn un = x∗1 u∗1 + . . . + x∗n u∗n =
y por (9)
= x∗1 (α11 u1 + α21 u2 + . . . + αn1 un ) + x∗2 (α12 u1 + α22 u2 + . . . + αn2 un ) + . . . + x∗n (α1n u1 + α2n u2 +
. . . + αnn un ) = (α11 x∗1 + α12 x∗2 + . . . + α1n x∗n )u1 + (α21 x∗1 + α22 x∗2 + . . . + α2n x∗n )u2 + . . . + (αn1 x∗1 +
αn2 x∗2 + . . . + αnn x∗n )un .
De donde, por la unicidad de coordenadas respecto de una base, queda
x1 = α11 x∗1 + α12 x∗2 + . . . + α1n x∗n
x2 = α21 x∗1 + α22 x∗2 + . . . + α2n x∗n
(10)
.....................................................
xn = αn1 x∗1 + αn2 x∗2 + . . . + αnn x∗n
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
23
y denotando por X = (xi ) ∈ Mn×1 (IK), X ∗ = (x∗i ) ∈ Mn×1 (IK) y A = (αij ) ∈ Mn (IK) queda
X = AX ∗ .
Se observa que la columna i–ésima de la matriz de cambio de base A está formada por las coorde-
nadas respecto de BE del i–ésimo vector de BE∗ . Análogamente se puede obtener X ∗ = BX, donde
la matriz B tiene la columna i–ésima formada por las coordenadas respecto de BE∗ del i–ésimo
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
vector de BE . ½ ¾ ½ ¾
X = AX ∗ = A(BX) = (AB)X In X = (AB)X
Según hemos visto de donde se obtiene
½ ¾ X ∗ = BX = B(AX ∗ ) = (BA)X ½
∗
¾ In X ∗ = (BA)X ∗
X AB = In
para todo ∈ Mn×1 (IK), lo que implica que . Es decir, B = A−1 .
X∗ BA = In
Subespacios vectoriales Sea (E, +, ·IK ) un espacio vectorial.
equivalentes a la condición
Por lo anterior, la condición necesaria y suficiente para que un conjunto ∅ 6= S ⊂ E, sea subespacio
vectorial es que toda combinación lineal de vectores de S pertenezca a S.
Lo que hemos visto hasta ahora de subespacios es independiente de si E es de tipo finito o
no. Si además E es de tipo finito, el subespacio S también y dim S ≤ dim E, dándose la igualdad
únicamente si E y S coinciden.
Clausura lineal de un sistema Sea E un E .V . y sea A un sistema de vectores de E.
Definición 77. Llamamos clausura lineal de A al conjunto formado por todas las combinaciones
lineales de vectores de A. Lo designaremos por K[A] ó L [A].
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
conjuntos, denotándose también por S1 ∩ S2 , es decir,
S1 ∩ S2 = {v ∈ E | v ∈ S1 , v ∈ S2 }.
Proposición 82. S1 + S2 y S1 ∩ S2 son subespacios vectoriales de E.
Teorema 83. dim(S1 + S2 ) = dim S1 + dim S2 − dim(S1 ∩ S2 ).
La unión de un sistema generador de S1 con uno de S2 nos proporciona un sistema generador
de S1 + S2 . Si S1 ∩ S2 = {0} la suma de S1 y S2 se dice suma directa y se denota por S1 ⊕ S2 . En
este caso, obviamente, dim(S1 ⊕ S2 ) = dim S1 + dim S2 y la unión de una base de S1 con una base
de S2 es base de S1 ⊕ S2 .
Rango de una matriz por filas y columnas Sea A = (aij ) ∈ Mm×n (IK).
Sea En un E .V . sobre IK y sea BE = (u1 , u2 , . . . , un ) una base cualquiera de E. Consideramos
el sistema de vectores de E, Af = {af1 , . . . , afm } en el que
af1 = a11 u1 + a12 u2 + . . . + a1n un ,
af2 = a21 u1 + a22 u2 + . . . + a2n un ,
...................................................
afm = am1 u1 + am2 u2 + . . . + amn un .
Entonces, se define el rango por filas de A, se denota por rgf A, como el rango del sistema Af .
Sea F un E .V . sobre IK de dimensión m y sea BF = (v1 , v2 , . . . , vm ) una base de F. Conside-
ramos los vectores de F
ac1 = a11 v1 + a21 v2 + . . . + am1 vm ,
ac2 = a12 v1 + a22 v2 + . . . + am2 vm ,
...................................................
acn = a1n v1 + a2n v2 + . . . + amn vm .
Entonces, se define el rango por columnas de A, se denota por rgc A, como el rango del sistema de
vectores Ac = {ac1 , . . . , acn }.
Proposición 84. rgf A = rgA = rgc A.
Observación Sea BE = (u1 , . . . , un ) una base de En , espacio vectorial sobre IK, y sea P ∈
Mn (IK) una matriz regular. Entonces, existe un base de E, BE∗ , tal que la ecuación del cambio de
base es X = P X ∗ .
En efecto pues, recordando que en tal caso la columna i–ésima de P estará formada por las
coordenadas respecto de BE del i–ésimo vector de BE∗ , si consideramos los vectores de E
u∗1 = p11 u1 + p21 u2 + . . . + pn1 un
u∗2 = p12 u1 + p22 u2 + . . . + pn2 un
(14)
.....................................................
u∗n = p1n u1 + p2n u2 + . . . + pnn un
y el sistema BE∗ = (u∗1 , . . . , u∗n ), de la definición de rango por columnas, resulta que
rgBE∗ = rgc P = rgP = n
con lo que BE∗ es libre y, por ello, una base de E.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
Aplicaciones lineales
DEFINICIÓN. PRIMERAS PROPIEDADES
Sean E y F dos espacios vectoriales sobre el mismo cuerpo IK.
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
∀a, b ∈ E, f (a + b) = f (a) + f (b) ,
∀λ ∈ IK, ∀a ∈ E, f (λa) = λf (a) .
Teorema 86. Caracterización de una aplicación lineal. La condición necesaria y suficiente para
que una aplicación f : E −→ F sea lineal es que verifique la siguiente propiedad
Denotaremos por LIK (E, F ) el conjunto de todas las aplicaciones lineales de E en F y por
LIK (E) el de las aplicaciones lineales de E en E.
Primeras propiedades Sea f ∈ LIK (E, F ), entonces se verifica:
1. f (0E ) = 0F .
2. ∀a ∈ E, f (−a) = −f (a).
25
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Originales de un elemento. Dado b ∈ F , denotamos por f −1 ({b}) el conjunto formado por sus
originales. Obviamente, si b ∈Imf
/ se tendrá que f −1 ({b}) = ∅. Supongamos pues que b ∈ Imf y
ası́, existe a ∈ E tal que f (a) = b, entonces, f −1 (b) = {a + c | c ∈ Kerf }.
27
y denotando por Y = (yi ) ∈ Mm×1 (IK), X = (xi ) ∈ Mn×1 (IK), A = (αij ) ∈ Mm×n (IK), escribire-
mos
Y = AX
que es la llamada expresión coordenada def respecto de las bases BE y BF . La matriz A recibe
el nombre de matriz coordenada de f respecto de las bases BE y BF . Se observa que la matriz
coordenada tiene dimensiones m × n = dim F × dim E y, recordando las igualdades (15), que la
columna i–ésima de A está formada por las coordenadas en BF de la imagen por f del i–ésimo
vector de BE .
Si se suponen fijas las bases BE y BF , puede probarse que la correspondencia que a cada
elemento de LIK (En , Fm ) le asocia en Mm×n (IK) su matriz coordenada respecto de BE y BF es
una aplicación biyectiva.
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Sean f, g ∈ LIK (E, F ) y sea h la correspondencia de E en F dada por ∀a ∈ E, h(a) =
f (a) + g(a) es, evidentemente una aplicación y puede probarse fácilmente que es lineal. Esta
aplicación se dice suma de f y g y se denota por f + g, es decir,
Ası́, resulta que la suma de aplicaciones lineales es una LCI sobre LIK (E, F ) y puede probarse
que (LIK (E, F ), +) es un grupo abeliano. Si A1 , A2 son las matrices coordenadas de f, g, respec-
tivamente, respecto de las bases BE y BF . Entonces, la matriz coordenada de f + g, respecto de
BE y BF , es A1 + A2 .
Ası́, el producto de una aplicación lineal por un elemento es una LCE sobre LIK (E, F ) con dominio
de operadores IK y puede probarse que (LIK (E, F ), +, ·IK ) es un espacio vectorial de dimensión
m × n. Si A es la matriz coordenada de f , respecto de las bases BE y BF . Entonces, la matriz
coordenada de αf, respecto de BE y BF , es αA.
En el caso particular E = F = G, el producto de aplicaciones lineales es una LCI sobre LIK (E)
y puede probarse que (LIK (E, F ), +, ◦) es un anillo unitario. Si A ∈ Mm×n (IK), B ∈ Mp×m (IK)
son las matrices coordenadas de f y g, respecto de las bases BE , BF y BF , BG , respectivamente,
la matriz coordenada de g ◦ f, respecto de BE y BG , es BA.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
CAMBIO DE BASES Según hemos dicho, cada aplicación lineal tiene una única matriz coorde-
nada respecto de dos bases dadas pero al cambiar las bases de los espacios vectoriales la matriz
puede variar. En esta sección se verá la relación existente entre las distintas matrices coordenadas
de la misma aplicación lineal.
Sea f ∈ LIK (En , Fm ) la aplicación lineal cuya matriz coordenada respecto de las bases BE =
(u1 , u2 , . . . , un ) y BF = (v1 , v2 , . . . , vm ) es A = (aij ) ∈ Mm×n (IK). Como ya sabemos, esto significa
que para x = x1 u1 + x2 u2 + . . . + xn un ∈ E, y = f (x) = y1 v1 + y2 v2 + . . . + ym vm ∈ F, se verifica
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Y = AX.
Supongamos ahora que se toman dos nuevas bases de los espacios vectoriales En y Fm , BE∗ =
(u∗1 , u∗2 , . . . , u∗n ) y BF∗ = (v1∗ , v2∗ , . . . , vm
∗
), respectivamente. En este caso, siendo x, y de la forma
x = x1 u1 + x2 u2 + . . . + xn un y = y1 v1 + y2∗ v2∗ + . . . + ym
∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗
vm y escribiendo Y ∗ = (yi∗ ) ∈ Mm×1 (IK)
∗ ∗
∗ ∗
y X = (xi ) ∈ Mn×1 (IK), se tendrá que la expresión coordenada de f respecto de estas bases es
Y ∗ = BX ∗
con B ∈ Mm×n (IK). Por ser BE y BE∗ bases del mismo E .V . existe una matriz P ∈ Mn (IK),
regular, tal que X = P X ∗ es la ecuación del cambio de base en E. Análogamente será Y ∗ = QY
con Q ∈ Mm (IK) regular. Entonces,
Y ∗ = QY = Q(AX) = QA(P X ∗ ) = (QAP )X ∗
y, por la unicidad de la expresión coordenada respecto de dos bases dadas, resulta que
B = QAP
por lo que, cualquier otra matriz coordenada de f es de la forma QAP con P y Q matrices
regulares. Recı́procamente, si P ∈ Mn (IK) y Q ∈ Mm (IK) son matrices regulares, la matriz QAP
es matriz coordenada de f respecto de algunas bases. Efectivamente, basta tomar en E la base
BE∗ tal que la ecuación del cambio sea X = P X ∗ y en F la base BF∗ cuya ecuación de cambio es
Y ∗ = QY y entonces, repitiendo el razonamiento anterior, resulta que QAP es matriz coordenada
de f de respecto de BE∗ y BF∗ .
De lo anterior se deduce que el conjunto formado por todas las matrices coordenadas de f es
{QAP | P ∈ Mn (IK), |P | 6= 0, Q ∈ Mm (IK), |Q| 6= 0}.
Una vez que hemos visto cómo son las distintas matrices coordenadas de una misma aplicación,
pasaremos a dar algunas de sus propiedades.
Matrices equivalentes
Definición 91. Sean A, B ∈ Mm×n (IK). Se dice que A es equivalente a B si existen P1 ∈
Mm (IK), P2 ∈ Mn (IK), regulares, tales que A = P1 BP2 .
Según hemos visto con el cambio de bases, dos matrices son equivalentes si y sólo si son matrices
coordenadas de una misma aplicación lineal.
Teorema 92. Dos matrices son equivalentes si y sólo si se puede pasar de una a otra mediante
operaciones elementales.
Teorema 93. Una condición necesaria y suficiente para que dos matrices sean equivalentes es
que tengan las mismas dimensiones y el mismo rango.
Propiedades del rango de una aplicación lineal
Teorema 94. El rango de una aplicación lineal coincide con el rango por columnas de su matriz
coordenada.
Teorema 95. Sea f ∈ LIK (En , Fm ). Entonces, dim Kerf + dim Imf = dim E.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
Diagonalización
PRIMERAS DEFINICIONES
Sea (E, +, ·IK ) un espacio vectorial de dimensión n. Endomorfismo sobre E es toda aplicación
lineal de E en E. En todo lo que sigue, cuando convenga el uso de coordenadas fijaremos una base
BE de E y tanto las coordenadas del vector x ∈ E como las de su imagen por el endomorfismo
f , y = f (x) ∈ E, serán las relativas a esa base. Denotamos por End(E) el conjunto de todos los
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
endomorfismos sobre E.
Definición 96. Sea f ∈ End(E). Se dice que el elemento λ ∈ IK es un valor propio de f , si existe
un vector no nulo x ∈ E tal que f (x) = λx. En este caso, decimos que x es un vector propio
asociado al valor propio λ.
Definición 97. Sea A ∈ Mn (IK). Se dice que el elemento λ ∈ IK es un valor propio de A, si existe
un vector no nulo (x1 , . . . , xn ) ∈ IK n tal que AX = λX, donde X = (x1 . . . xn )T ∈ Mn×1 (IK). En
este caso, decimos que x es un vector propio asociado al valor propio λ.
29
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
resulta que V (λ) es un subespacio vectorial, de dimensión n − rg(A − λIn ), que está formado por
los vectores de En cuyas coordenadas en BE son solución de (18). Si este subespacio es el nulo, el
sistema (18) sólo tiene la solución trivial y λ no es valor propio de f. En cambio, si el subespacio
no es el nulo, el sistema (18) tiene solución distinta de la trivial y λ sı́ es valor propio de f.
En consecuencia, el elemento λ ∈ IK es valor propio de f si y sólo si rg(A − λIn ) < n, es decir,
si y sólo si |A − λIn | = 0 o, lo que es lo mismo, si y sólo si λ es raı́z del polinomio |A − xIn | que
recibe el nombre de polinomio caracterı́stico de f (respecto de BE .
Definición 100. Si λ es raı́z del polinomio caracterı́stico de multiplicidad h se dice que el valor
propio de f tiene multiplicidad algebraica h (respecto de BE )
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
La multiplicidad geométrica de un valor propio es siempre ≥ 1. Según hemos dicho en la sección
anterior, los valores propios de un endomorfismo coinciden con los valores propios de cualquiera
de sus matrices coordenadas. Además, también coinciden sus multiplicidades geométricas. Por
tanto, las matrices coordenadas de un mismo endomorfismo tienen los mismos valores propios y
con las mismas multiplicidades geométricas. Los vectores propios de f asociados al valor propio
λ son los vectores no nulos del subespacio V (λ). En el caso particular en el que la matriz sea
diagonal, es inmediato verificar que los valores propios coinciden con los elementos diagonales.
III Vectores propios asociados a valores propios diferentes entre sı́ son linealmente indepen-
dientes.
Y ∗ = P −1 Y = P −1 (AX) = P −1 A(P X ∗ ) = (P −1 AP )X ∗
con lo que la matriz coordenada de f respecto de BE∗ es B = P −1 AP. Ası́, el conjunto formado
por todas las matrices coordenadas de f es
{P −1 AP | P ∈ Mn (IK), |P | 6= 0}.
Matrices semejantes
31
Corolario 104. Dos matrices semejantes tienen los mismos valores propios con idénticas multi-
plicidades.
Corolario 106. Un endomorfismo tiene los mismos valores propios y con idénticas multiplicidades
(algebraica y geométrica) que una cualquiera de sus matrices coordenadas.
DIAGONALIZACIÓN
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Definición 108. Se dice que un endomorfismo f ∈ End(En ) es diagonalizable si existe una base
de En en la que la matriz coordenada de f es diagonal.
Definición 109. Se dice que una matriz A ∈ Mn (IK) es diagonalizable si es semejante a una
matriz diagonal.
Teorema 110. Una CN y S para que f sea diagonalizable es que exista una base de E formada
por vectores propios de f .
Teorema 111. Una CN y S para que f sea diagonalizable es que su polinomio caracterı́stico tenga
en IK n raı́ces (contando cada una según su correspondiente multiplicidad) y, para cada una de
ellas, coincidan sus multiplicidades algebraica y geométrica.
La CN y S dada en el Teorema 110 es de escasa utilidad práctica pues no nos dice cuándo
existe la base de vectores propios ni, en su caso, cómo obtenerla. La CN y S enunciada mediante
el Teorema 111 nos resuelve ambas cuestiones. La base existirá si el polinomio caracterı́stico de
f tiene en IK n raı́ces (no necesariamente diferentes) y, para cada una de ellas, coinciden sus
multiplicidades. Suponiendo que somos capaces de hallar las raı́ces del polinomio caracterı́stico,
es fácil comprobar si estas condiciones se cumplen, en ese caso, tomamos de cada uno de los
subespacios fundamentales una base y su unión es la base de E formada por vectores propios.
En esa base, la matriz coordenada de f será diagonal, los elementos diagonales serán los valores
propios de f y, cada uno de ellos, figura tantas veces como indique su multiplicidad.
Teorema 112. Una condición suficiente para que f sea diagonalizable es que su polinomio carac-
terı́stico tenga en IK n raı́ces simples.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
D = P −1 AP
donde, recordemos que P es la matriz cuadrada de orden n, regular, cuya columna i–ésima está
formada por las coordenadas en BE del i–ésimo vector de BE∗ .
Una vez obtenidas las matrices P y D, tenemos la matriz diagonal semejante a A y la matriz
regular que nos permite el paso de A a D, siendo indiferentes el espacio E y la base BE conside-
rados. Por ello, lo habitual es tomar E = IK n y como base la canónica de este espacio, no siendo
necesario especificarlo.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
∀λ, µ ∈ IR, ∀u1 , u2 , v ∈ E f (λu1 + µu2 , v) = λf (u1 , v) + µf (u2 , v) ,
∀λ, µ ∈ IR, ∀u, v1 , v2 ∈ E f (u, λv1 + µv2 ) = λf (u, v1 ) + µf (u, v2 ) .
Xh k
X h X
X k
De la definición se sigue que f ( λ k uk , µl vl ) = λk µl f (uk , vl ).
k=1 l=1 k=1 l=1
Expresión matricial asociada
Sea BE = (u1 , u2 , . . . , un ) una base de E. Dados u = x1 u1 + . . . + xn un , v = y1 u1 + . . . + yn un ∈ E,
f (u1 , u1 ) f (u1 , u2 ) . . . f (u1 , un ) y1
Xn X n f (u2 , u1 ) f (u2 , u2 ) . . . f (u2 , un ) y2
f (u, v) = xk yl f (uk , ul ) = (x1 . . . xn ) .. .. .. ..
k=1 l=1
. . ... . .
f (un , u1 ) f (un , u2 ) . . . f (un , un ) yn
f (u, v) = X T AY.
FORMAS CUADRÁTICAS
Sea f una forma bilineal sobre E, se dice que f es simétrica si
33
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
Si ahora se toma una nueva base de E, BE∗ = (u∗1 , u∗2 , . . . , u∗n ), existe una matriz P ∈ Mn (IR),
regular, tal que X = P X ∗ es la ecuación del cambio de base. Entonces,
fc (u) = f (u, u) = X T AX = (P X ∗ )T AP X ∗ = X ∗ T (P T AP )X ∗ ,
B = P T AP ∈ Mn (IR),
las matrices A, B para las que existe una matriz regular P verificando que B = P T AP se dicen
congruentes. Tomando determinantes resulta |B| = |P |2 |A| y, por ser |P | 6= 0, si |A| = 0 también
será |B| = 0 y si |A| 6= 0 también |B| 6= 0. Cuando el determinante de sus matrices asociadas es 0
la forma cuadrática se dice degenerada y en otro caso se dice ordinaria. Según acabamos de ver,
esto es independiente de la base considerada. Además, por ser P regular, A y B tienen el mismo
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
rango, este valor se dice rango de la forma cuadrática.
Si denotamos por p el número de elementos λi que son positivos y por q el número de ellos que son
negativos, se dice signatura de la forma cuadrática al par (p, q). La forma cuadrática fc se dice
X ∗ = P X,
resulta que la matriz asociada a la forma cuadrática es la diagonal con diagonal principal
35
Diagonalización ortogonal
Toda matriz simétrica sobre IR puede diagonalizarse y sabemos que, si A es diagonalizable, existe
una matriz regular P tal que P −1 AP es diagonal. Nuestro cambio ahora tiene que ser de la forma
P T AP por lo que tendremos el problema resuelto si conseguimos que P sea ortogonal, es decir,
que las columnas de P verifiquen las condiciones (4). En este caso, la matriz diagonal estará
formada por los valores propios de A.
Vamos a ver, con un ejemplo, cómo se pueden obtener matrices, P ortogonal y D diagonal, tales
que P T AP = D. Sea fc la forma cuadrática sobre IR3 cuya matriz asociada respecto de la base
canónica es
3 1 1
A = 1 3 1 .
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
1 1 3
Se obtienen los valores propios de A y los subespacios fundamentales. El polinomio caracterı́stico
es |A − xI3 | = −x3 + 9x2
− 24x + 20 = −(x −2)2 (x − 5).
−2 1 1 0 µ ¶
1 1 −2 0
Vλ=5 (A − 5I3 )X = 0 1 −2 1 0 x1 = x2 = x3
0 1 −1 0
1 1 −2 0
1 1 1 0 ¡ ¢
Vλ=2 (A − 2I3 )X = 0 1 1 1 0 1 1 1 0 x1 = −x2 − x3
1 1 1 0
5 0 0
Si tomamos la matriz diagonal D = 0 2 0 , el primer vector de la base deberá ser de V5 ,
0 0 2
por tanto de la forma (x, x, x), y sus coordenadas nos proporcionarán la primera columna de P.
Por las condiciones (4) se sabe que deberán cumplir x2 + x2 + x2 = 1 con lo que x2 = 1/3. Si
tomamos, por ejemplo, x = √13 se obtiene
1 1 1
u1 = ( √ , √ , √ )
3 3 3
Los otros dos vectores, serán de V2 , por tanto de la forma (−y − z, y, z). Vamos a fijar el primero
de esos vectores, cuyas coordenadas nos proporcionarán la segunda columna de P. De (4) se sigue
que ¾
(−y − z)2 + y 2 + z 2 = 1
√1 (−y − z) + √1 y + √1 z = 0
3 3 3
y siendo la segunda expresión una identidad, el sistema queda reducido a la condición
2yz + 2y 2 + 2z 2 = 1
1 √1
en la que si tomamos, por ejemplo, y = 0 se obtiene z 2 = 2
y podemos tomar z = 2
con lo que
1 1
u2 = (− √ , 0, √ ).
2 2
Para la tercera columna, el vector de la forma (−y − z, y, z) debe verificar
(−y − z)2 + y 2 + z 2 = 1
√1 (−y − z) + √1 y + √1 z = 0
3 3 3
− √12 (−y − z) + √12 z = 0
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
1 −2 1
u3 = ( √ , √ , √ ).
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
6 6 6
Ası́, √ √ √
1/√3 −1/ 2 1/√6
P = 1/√3 0√ −2/√6
1/ 3 1/ 2 1/ 6
y P T AP = D.
Las condiciones dadas en (4) sobre el producto de elementos de dos columnas distintas,
n
X
∀i, j = 1, . . . , n, i 6= j, pki pkj = 0,
k=1
se reducen a una identidad cuando esas columnas corresponden a vectores de distintos subespacios
fundamentales. Ası́ pues, aunque aquı́ las hemos escrito, no es necesario plantearlas. Es decir,
para fijar los vectores de cada subespacio fundamental no es necesario tener en cuenta los vectores
que corresponden a otros subespacios fundamentales. Por el modo en el que hemos resuelto el
problema, queda claro que no hay unicidad, pudiendo elegir el orden de aparición de los elementos
en la diagonal de D ası́ como distintas bases de los subespacios fundamentales, para las columnas
de P .
con lo que
fc ((x, y, z)) = x2 + 2xy + 2xz + 2y 2 + 6yz + 5z 2 .
Se trata de escribir esta expresión como sumas o diferencias de cuadrados. Para ello, agruparemos
en un primer cuadrado todos los términos en los que aparece x
con lo que
procediendo del mismo modo, agrupamos ahora todos los términos en los que aparece y, excep-
tuando el que ya hemos arreglado como un cuadrado,
y 2 + 4yz = (y + 2z)2 − 4z 2
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764
37
y ası́,
o lo que es lo mismo
fc ((x, y, z)) = (x + y + z)2 + (y + 2z)2 + 0z 2
∗
x∗ = x + y + z x 1 1 1 x
∗
Entonces, escribiendo y = y + 2z , es decir, y ∗
= 0 1 2 y resulta que
∗ ∗
z =z z 0 0 1 z
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
1 0 0
B = 0 1 0 .
0 0 0
El cambio de base que se ha hecho es X ∗ = QX y según hemos visto antes necesitamos el cambio
inverso, ası́ calculamos P = Q−1 obteniendo
1 −1 1
P = 0 1 −2
0 0 1
que es la matriz regular tal que P T AP = B. Es obvio que la matriz obtenida ahora no es ortogonal.
Vamos a considerar una forma cuadrática sobre IR3 en cuya expresión no aparece ningún término
de segundo grado. Para ello, la matriz asociada debe tener nulos todos sus elementos diagonales
0 1 1
A = 1 0 1 ,
1 1 0
con lo que
fc ((x, y, z)) = 2xy + 2xz + 2yz
para escribir esta expresión como sumas o diferencias de cuadrados, haremos dos cambios de
variable, el primero para introducir cuadrados en la expresión y el otro similar al realizado en el
x = x̄ + ȳ
ejemplo anterior. Escribiendo y = x̄ − ȳ resulta fc ((x, y, z)) = 2(x̄ + ȳ)(x̄ − ȳ) + 2(x̄ + ȳ)z̄ +
z = z̄
√
2(x̄ − ȳ)z̄ = 2x̄ − 2ȳ + 2x̄z̄ + 2ȳz̄ + 2x̄z̄ − 2ȳz̄ = 2x̄2 + 4x̄z̄ − 2ȳ 2 = ( 2x̄ + √22 z̄)2 − 2z̄ 2 − 2ȳ 2
2 2
√ √
x̄¯ = √ 2x̄ + 2z̄
con lo que escribiendo ȳ¯ = √2ȳ queda
¯
z̄ = 2z̄
con lo que
√ √ −1 √ √
1 1 0 2 √0 2 1 1 0 1/ 2 0√ −1/ 2
P = 1 −1 0 0 2 √0 = 1 −1 0 0 1/ 2 0√ =
0 0 1 0 0 2 0 0 1 0 0 1/ 2
√ √ √
1/√2 1/√2 −1/√2
1/ 2 −1/ 2 −1/ 2
√
0 0 1/ 2
1 0 0
y P T AP = 0 −1 0 .
0 0 −1
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.