Sunteți pe pagina 1din 40

GMAlgebra.

pdf
Apuntes de la Asignatura

1º Matemáticas para la telecomunicación

Grado en Ingeniería de Tecnologías y Servicios de Telecomunicación

Escuela de Ingeniería y Arquitectura


UNIZAR - Universidad de Zaragoza

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su
totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Apuntes de Matemáticas II
Grado Ingeniería Mecánica
Parte I: Álgebra Lineal

Mª Cruz Parra
Dpto. de Matemática Aplicada
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

Álgebra lineal

Previos 3

Matrices 5

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Determinantes 7

Rango de una matriz 11

Sistemas de ecuaciones lineales 17

Espacios vectoriales 19

Aplicaciones lineales 25

Diagonalización 29

Formas bilineales y formas cuadráticas 33

1
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

Previos

§1 Aplicaciones.

Dados dos conjuntos A y B, una aplicación f de A en B es una ley o criterio que asocia a
cada elemento de A uno y sólo uno de B.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Si f : A → B, es una aplicación y a 7→ b = f (a), se dice que b es la imagen por f de a y que a
es una antiimagen de b, o un original de b, por f .
Se dice que una aplicación es inyectiva si elementos de A distintos tienen imágenes distintas,
es decir: a1 , a2 ∈ A, a1 6= a2 ⇒ f (a1 ) 6= f (a2 )
o, equivalentemente, ∀a1 , a2 ∈ A tales que f (a1 ) = f (a2 ) ⇒ a1 = a2 .
Se dice que una aplicación es suprayectiva si cada elemento de B tiene por lo menos una
antiimagen, es decir: ∀b ∈ B, ∃a ∈ A, b = f (a).
Una aplicación se dice biyectiva si es inyectiva y suprayectiva.

§2 Relaciones binarias.

Dados dos conjuntos A y B, una relación binaria < entre A y B es una ley que permite decir,
para todo par (a, b) ∈ A × B, si a está relacionado con b o no, mediante <.
Sea < una relación binaria sobre un mismo conjunto A. Diremos que < verifica la propiedad
Reflexiva si ∀a ∈ A, a<a.
Simétrica si a, b ∈ A 3 a<b ⇒ b<a.
Antisimétrica si a, b ∈ A 3 a<b ∧ b<a ⇒ a = b.
Transitiva si a, b, c ∈ A 3 a<b ∧ b<c ⇒ a<c.
La relación se dice de equivalencia si se cumplen las propiedades reflexiva, simétrica y transitiva
y se dice que la relación es de orden cuando es reflexiva, antisimétrica y transitiva.

§3 Leyes de composición.

Sea A un conjunto. Una Ley de Composición Interna, abreviadamente LCI, sobre A es una
operación ∗ que a cada par ordenado de elementos de A le asocia otro elemento de A. Es decir,
es una aplicación de A × A en A.

∗ : A × A → A, (a, b) 7→ a ∗ b.

Sean A y K dos conjuntos distintos. Una Ley de composición externa, abreviadamente LCE,
sobre A con dominio de operadores K es una operación ∗ que a cada par de elementos, uno de A
y otro de K, le asocia un elemento de A. Es decir, es una aplicación de K × A en A.

∗ : K × A → A, (k, a) 7→ k ∗ a.

3
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

4 Matemáticas II, MECÁNICA

§4 Estucturas algebraicas.

Grupo. Sea G un conjunto sobre el que está definida una LCI, ∗. Se dice que (G, ∗) tiene
estructura de grupo si se verifica
• ∗ es asociativa, ∀a, b, c ∈ G, a ∗ (b ∗ c) = (a ∗ b) ∗ c.
• Existe elemento neutro, ∃ e ∈ G 3 ∀a ∈ G, a ∗ e = e ∗ a = a.
• Todo elemento posee simétrico, para cada a ∈ G ∃ ã ∈ G, a ∗ ã = ã ∗ a = e.
Si además la operación ∗ es conmutativa, ∀a, b ∈ G, a ∗ b = b ∗ a, se dice que (G, ∗) es un grupo

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
abeliano o conmutativo.
Cuando la operación ∗ sea una suma, se denota por el sı́mbolo habitual +, el grupo (G, +)
se dice aditivo, el elemento neutro se denota por 0 y se le dice nulo o cero y al simétrico de un
elemento a lo llamaremos opuesto de a y lo denotaremos por −a, es decir, a+(−a) = (−a)+a = 0.
Si la operación ∗ es un producto, se suele denotar por el sı́mbolo ·, el grupo (G, ·) se dice multi-
plicativo, el elemento neutro se denota por 1 y se le dice unidad o identidad y al simétrico de un
elemento a lo llamaremos inverso de a y lo denotaremos por a−1 , ası́, a.a−1 = a−1 .a = 1.
En un grupo (G, ∗) se puede establecer la siguiente aplicación ∗ : G×G −→ G, (a, b) 7→ x = b̃∗a,
donde b̃ es el simétrico de b, que define una LCI sobre G a la que llamamos operación inversa de
∗. Si el grupo es aditivo, la operación inversa se dice sustracción o diferencia − : G × G −→ G,

(a, b) 7→ x = −b + a

y, si el grupo es multiplicativo, cociente / : G × G −→ G,

(a, b) 7→ x = b−1 · a

Anillo. Sea A un conjunto sobre el que están definidas dos operaciones + y ·, ambas LCI sobre
A. Se dice que (A, +, ·) tiene estructura de anillo si se verifica
• (A, +) es grupo abeliano.
• La operación · es asociativa, ∀a, b, c ∈ A, a · (b · c) = (a · b) · c.
• La operación · es doblemente distributiva respecto de +,
½
a · (b + c) = (a · b) + (a · c),
∀a, b, c ∈ A,
(a + b) · c = (a · c) + (b · c).

Si además la operación · es conmutativa, ∀a, b ∈ A, a · b = b · a, se dice que (A, +, ·) es un anillo


conmutativo.
El anillo se dice unitario si existe elemento neutro para la operación ·

∃ e ∈ A 3 ∀a ∈ A, a · e = e · a = a.

El anillo tiene divisores de cero si

∃ a, b ∈ A, a 6= 0, b 6= 0 3 a · b = 0,

donde 0 representa el elemento neutro para la +. Dos elementos a y b verificando la condición


anterior, se dicen divisores de cero.
Sea (A, +, ·) un anillo. Entonces, para todo a ∈ A, a · 0 = 0 · a = 0, donde 0 representa el
neutro de +.
Cuerpo. Llamaremos cuerpo a un anillo (IK, +, ·) conmutativo, unitario y en el que todo ele-
mento, excepto el neutro de + es simetrizable respecto de la operación producto.
Teorema Un cuerpo no posee divisores de cero.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

Matrices

SUMA

Definición 1. Dadas A = (aij ), B = (bij ) ∈ Mm×n (IK). La matriz (aij + bij ) ∈ Mm×n (IK) se dice
suma de A con B y se denota por A + B.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Propiedades
(Mm×n (IK), +) es grupo abeliano. La matriz O = (0) ∈ Mm×n (IK) es el elemento neutro y se dice
matriz nula de dimensiones m × n. Para cada A = (aij ) ∈ Mm×n (IK) la matriz −A = (−aij ) ∈
Mm×n (IK) es su opuesta.

PRODUCTO

Definición 2. Sean A = (aij ) ∈ Mm×n (IK)Py B = (bij ) ∈ Mn×p (IK). Se llama matriz producto
de A por B, y se escribe A.B, a la matriz ( nk=1 aik bkj ) ∈ Mm×p (IK)
 
  c11 . . . c1j . . . c1p
a11 a12 . . . a1n    . .. .. .. .. 
 . . . .  b 11 . . . b 1j . . . b 1p  .. . . . . 
 . .
. .
.  b   n 
   21 . . . b 2j . . . b 2p   X 
 ai1 ai2 . . . ain   .. .. .. .. ..  = 
 c i1 . . . a ik b kj . . . c ip .

 . .. 
..   . . . . .   
 ..  k=1
. . bn1 . . . bnj . . . bnp  ... .. .. .. .. 
am1 am2 . . . amn . . . . 
cm1 . . . cmj . . . cmp

Propiedades
Sean A ∈ Mm×n (IK), B ∈ Mn×p (IK) y C ∈ Mp×q (IK) entonces, (AB)C = A(BC).
Sean A, B ∈ Mm×n (IK) y C ∈ Mn×p (IK) entonces, (A + B)C = AC + BC.
Sean A ∈ Mm×n (IK) y B, C ∈ Mn×p (IK) entonces, A(B + C) = AB + AC.
(Mn (IK), +, ·) es anillo unitario. Para n = 1 conmutativo sin divisores de cero y para n > 1 no
conmutativo y con divisores de cero. La matriz
 
1 0 ... 0
 0 1 ... 0 
 
In =  .. .. . . .. 
 . . . . 
0 0 ... 1

verifica AIn = In A = A, para toda A ∈ Mn (IK). In se dice matriz unidad o matriz identidad de
orden n.
Elementos inversibles

Definición 3. A ∈ Mn (IK) se dice inversible o regular si existe B ∈ Mn (IK) tal que AB = BA =


In . En este caso, la matriz B se dice inversa de A y se denota por A−1 .

5
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

6 Matemáticas II, MECÁNICA

Si A y B son dos matrices de Mn (IK) inversibles, entonces la matriz AB también es inversible


y (AB)−1 = B −1 A−1 .

PRODUCTO DE UNA MATRIZ POR UN ELEMENTO

Definición 4. Sean A = (aij ) ∈ Mm×n (IK) y α ∈ IK. A la matriz (αaij ) ∈ Mm×n (IK) la
llamaremos matriz producto de la matriz A por el elemento α y se escribe αA.

Propiedades
Distributiva respecto a la suma matricial.
∀α ∈ IK, ∀A, B ∈ Mm×n (IK), α(A + B) = αA + αB.
Distributiva respecto a la suma de elementos y a la suma de matrices.
∀α, β ∈ IK, ∀A ∈ Mm×n (IK), (α + β)A = αA + βA.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Asociativa respecto al producto de elementos.
∀α, β ∈ IK, ∀A ∈ Mm×n (IK), α(βA) = (αβ)A
Para toda A ∈ Mm×n (IK) se verifica que 1A = A.

TRASPUESTA DE UNA MATRIZ

Definición 5. Sea A = (aij ) ∈ Mm×n (IK). A la matriz


 
a11 . . . ai1 . . . am1
 a12 . . . ai2 . . . am2 
 
 a13 . . . ai3 . . . am3 
  ∈ Mn×m (IK)
 .. .. .. 
 . . . 
a1n . . . ain . . . amn

se le dice traspuesta de A y se representa por AT .

Propiedades
(AT )T = A.
∀A, B ∈ Mm×n (IK), (A + B)T = AT + B T .
∀A ∈ Mm×n (IK), ∀B ∈ Mn×p (IK), (AB)T = B T AT .
Sea A ∈ Mn (IK) inversible entonces, (A−1 )T = (AT )−1 .

Definición 6. Una matriz A se dice simétrica si cumple AT = A.

Definición 7. Una matriz A se dice antisimétrica si verifica AT = −A.

Definición 8. Se dice que una matriz A ∈ Mn (IR) es ortogonal si AT A = AAT = In .


a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

Determinantes
PERMUTACIONES
Permutación de orden n es cada una de las aplicaciones biyectivas de los elementos del conjunto
An = {1, 2, . . . , n} en sı́ mismo. Se observa que cualquier aplicación de An en An que sea inyectiva
o suprayectiva es también biyectiva. Designaremos por Sn al conjunto de todas las permutaciones
de orden n. Una permutación α ∈ Sn se representa por el cuadro siguiente

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
µ ¶
1 2 3 ... n
α(1) α(2) α(3) . . . α(n)
aunque podemos referirnos y utilizar una permutación sustituyéndola por su correspondiente or-
denación α(1)α(2) . . . α(n). El número de permutaciones de orden n es n!.
Clase de una permutación. Dada una permutación α diremos que los elementos α(i), α(j)
forman una inversión si α(i) − α(j) tiene distinto signo que i − j. Observando el cuadro con el
que representamos una permutación se comprueba que los elementos de la primera fila aparecen
en orden creciente por lo que la diferencia i − j entre uno de ellos i y cada j de los que tiene a su
derecha es siempre negativa, de este modo, el par α(i), α(j) formará una inversión si α(i) − α(j)
es positivo. Entonces, para contar el número total de inversiones que hay en una permutación,
basta contar en la ordenación correspondiente el número de pares de elementos que no están en
orden natural.
Se llama signatura de α, y lo escribiremos σ(α), al número σ(α) = (−1)I(α) , donde I(α) denota
el número total de inversiones que forman los diferentes pares de elementos de α. Se dice que la
permutación α es de clase par si σ(α) = 1 y de clase impar cuando ésta sea −1. Para n ≥ 2, la
mitad de las permutaciones de orden n son de clase par y la otra mitad de clase impar.

DETERMINANTE DE UNA MATRIZ CUADRADA


Definición 9. Sea A ∈ Mn (IK), se dice determinante de A, y se denota por |A| al elemento de
IK dado por
X
(1) |A| = σ(α)a1α(1) a2α(2) . . . anα(n) .
α∈Sn

Los n! términos de la suma (1) se dicen términos del determinante, según que la permutación
α sea par o impar el término correspondiente se dice positivo o negativo, respectivamente. Ası́,
para n ≥ 2, la mitad de los términos son positivos y la otra mitad negativos.
Orden, elementos, filas, columnas, lı́neas de |A| son, respectivamente, el orden, los elementos,
las filas, las columnas y las lı́neas de A.
Desarrollo de los determinantes de orden n ≤ 3 Sea A ∈ Mn (IK).
Si n = 1, A = (a11 ) y S1 = {1}. La única permutación existente es par, y (1) queda |A| = a11 .
µ ¶
a11 a12
Si n = 2, A = , las permutaciones de orden 2 son S2 = {12, 21} de las que P2 = {12}
a21 a22
es par e I2 = {21} impar. Entonces, de (1) se obtiene |A| = a11 a22 − a12 a21 . Lo que se recuerda
fácilmente con el siguiente esquema

7
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

8 Matemáticas II, MECÁNICA

a11 a12 a11 a12 Término negativo


@ ¡
@ ¡
a21 @a22 Término positivo a¡
21 a22
 
a11 a12 a13
Si n = 3, A =  a21 a22 a23  , las permutaciones de orden 3 son S3 = {123, 132, 213, 231,
a31 a32 a33
312, 321} de las que P3 = {123, 231, 312} son pares e I3 = {132, 213, 321} impares. Entonces, de

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
(1) se obtiene ahora

|A| = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 ,

resultado que se recuerda con el siguiente esquema (Regla nemotécnica de Sarrus)

a11 a12 a13 aH a12 a13


¢@©©¢
11
@ A H¡A ¡
@¢©©@¢ A¡HHA¡
© H
a21 ¢@a22 ¢@
© a23 Términos positivos ¡
aH A a¡ A Ha23 Términos negativos
¢ ©
21 22
@¢ @© HA¡ A¡
¢@©©¢@
H
¡A H¡ HA
©@¢ @
a¢©
31 a32 a33 a¡31
Aa¡
32
HAa33

Para n > 3, la expresión (1) no resulta cómoda para calcular el determinante y tampoco hay
una regla fácil de memorizar que nos permita obtenerlo, inconveniente que aumenta conforme lo
hace n. Para reducir el cálculo de determinantes de orden superior a 3 al cálculo de determinantes
de orden inferior, daremos algunas propiedades de los determinantes.

PROPIEDADES

Teorema 10. |A| = |AT |.

Como consecuencia del Teorema 10 resulta que cualquier propiedad que se enuncie para las
filas de un determinante es igualmente válida para columnas. Ası́, por brevedad, en lo que sigue
se enunciarán únicamente las propiedades correspondientes a filas.

Teorema 11. Si se cambian entre sı́ dos filas de un determinante, el determinante obtenido toma
el valor opuesto al dado.

Corolario 12. Un determinante con dos filas iguales es nulo.

Teorema 13. Si en un determinante multiplicamos todos los elementos de una fila por un mismo
elemento, el determinante queda multiplicado por ese elemento.

Corolario 14. Un determinante con dos filas proporcionales es nulo.

Teorema 15. Si los elementos de una fila son binomios, se puede descomponer el determinante en
suma de dos determinantes que tienen las restantes filas iguales y en lugar de aquella la formada
por los primeros, segundos términos del binomio, respectivamente.

Corolario 16. Si los elementos de una fila son polinomios de r sumandos, se puede descomponer
el determinante en suma de r determinantes que tienen las restantes filas iguales y en lugar de
aquella la formada por los primeros, segundos, . . . , r-ésimos sumandos, respectivamente.

Corolario 17. Un determinante no varı́a al sumar a los elementos de una fila los correspondientes
de otra multiplicados por un mismo elemento.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

Corolario 18. Si una fila de un determinante es combinación lineal de otras el determinante es


nulo.

MENOR COMPLEMENTARIO Y ADJUNTO DE UN ELEMENTO

Definición 19. Dado un determinante de orden n > 1, |A| = |aij |, si suprimimos en la matriz A
la fila que ocupa el lugar h y la columna que ocupa el lugar k, se obtiene una matriz de orden
n − 1 a cuyo determinante, αhk , llamamos menor complementario del elemento ahk en |A|.

Definición 20. Si en el desarrollo de un determinante sacamos factor común el elemento ahk en


todos los términos en los que figura, aparece ese elemento multiplicado por un polinomio que se
llama adjunto de ahk y que se representa por Ahk .

Teorema 21. Ahk = (−1)h+k αhk .

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
DESARROLLO DE UN DETERMINANTE por los elementos de una lı́nea

Teorema 22. El desarrollo de un determinante es igual a la suma de los productos de los elementos
de una cualquiera de sus lı́neas por sus respectivos adjuntos.

Teorema 23. La suma de los productos de los elementos de una lı́nea cualquiera de un determi-
nante por los adjuntos de los elementos correspondientes de otra paralela a ella es igual a cero.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

10
Matemáticas II, MECÁNICA

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

Rango de una matriz

PRIMERAS DEFINICIONES

Definición 24. Llamamos menor de orden h de una matriz A al determinante de la matriz


cuadrada de orden h formada por los elementos de A pertenecientes a h filas y h columnas

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
cualesquiera de la misma.

Definición 25. Rango o caracterı́stica de una matriz no nula es el orden máximo de sus menores
no nulos.

Puede asegurarse que el rango de una matriz es h si existe un menor de orden h no nulo y son
nulos todos los menores de orden h + 1 que pueden formarse.
Por convenio, el rango de la matriz nula es cero. El rango de una matriz A lo denotaremos
por rgA.
De las definiciones anteriores se deduce trivialmente que:
A ∈ Mm×n (IK), rgA = 0 ⇔ A = O.
∀A ∈ Mm×n (IK), rgA = rgAT .
A ∈ Mn (IK), rgA = n ⇔| A |6= 0.

OPERACIONES ELEMENTALES
Son operaciones elementales por filas (columnas, respectivamente) en una matriz cada una de
las siguientes:

1. Multiplicar una fila (columna) por un elemento constante no nulo.

2. Cambiar entre sı́ dos filas (columnas).

3. Sumar a una fila (columna) cualquier múltiplo de otra.

Teorema 26. El rango de una matriz no se altera al efectuar en ella cualquier operación elemental.

Definición 27. Se dice que una matriz tiene forma escalonada por filas si se verifica:
• La columna que contiene al primer elemento no nulo de cada fila no nula tiene nulos todos
los elementos siguientes a éste.
• El primer elemento no nulo de cada fila no nula está a la derecha de los elementos iniciales
no nulos de las filas anteriores.
• Las filas que sólo tienen ceros aparecen después de todas las filas con algún elemento no nulo.

Teorema 28. Toda matriz no nula puede transformarse en una matriz que tiene forma escalonada
por filas efectuando en ella operaciones elementales por filas.

11
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

12 Matemáticas II, MECÁNICA

Sea A ∈ Mm×n (IK). Para pasar a una matriz escalonada por filas basta seguir el siguiente
proceso: Sea j1 la primera columna de A no formada por todo ceros. Intercambiando filas, si
fuese necesario, podrı́amos conseguir que el primer elemento de esa columna, a1 , sea no nulo. Los
restantes elementos de la columna j1 se hacen cero sin más que sumar sucesivamente un múltiplo
apropiado de la primera fila a cada una de las restantes filas. Procedemos de igual forma con la
matriz resultante de prescindir en la anterior de su primera fila. Continuando con este proceso,
hasta agotar las filas u obtener una matriz nula, se obtiene una matriz que tiene forma escalonada
por filas.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Teorema 29. El rango de una matriz que tiene forma escalonada por filas es igual al número de
filas no nulas que posee.

MATRICES ELEMENTALES
Asociaremos a continuación una matriz a cada una de las operaciones elementales señaladas
anteriormente.
Matriz elemental de primer género y orden n. Sea i ∈ {1, . . . , n} y sea 0 6= λ ∈ IK. Denota-
mos por Pi (λ) la matriz obtenida al efectuar en In la siguiente operación elemental: multiplicar
la fila i por λ, es decir,
 
1 0 ... 0 ... 0
 0 1 ... 0 ... 0 
 . . .. 
 . . . . . .. 
 . . . . 
Pi (λ) =  .
 0 0 ... λ ... 0 
 . . .. . . .. 
 .. .. . . . 
0 0 ... 0 ... 1
Esta misma matriz se hubiera obtenido igualmente si la operación elemental efectuada en In
hubiera sido multiplicar por λ la columna i.
½ ¾
f ila
In → multiplicar la i por λ → Pi (λ).
columna

Esta matriz cumple las siguientes propiedades:

1. Es simétrica pues PiT (λ) = Pi (λ).

2. Su determinante es no nulo ya que |Pi (λ)| = λ|In | = λ.

3. Si A ∈ Mn×m (IK), la matriz Pi (λ)A tiene sus filas iguales a las de A salvo la i–ésima que ha
quedado multiplicada por λ.

4. Si A ∈ Mm×n (IK), la matriz APi (λ) tiene sus columnas iguales a las de A salvo la i–ésima
que ha quedado multiplicada por λ.

5. Si A ∈ Mn (IK),
|Pi (λ)A| = λ|A| = |Pi (λ)||A|,

|APi (λ)| = λ|A| = |A|λ = |A||P i(λ)|.

6. Es inversible pues Pi (λ)Pi (1/λ) = Pi (1/λ)Pi (λ) = In y ası́, su inversa es Pi (λ)−1 = Pi (1/λ).
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

13

Matriz elemental de segundo género y orden n. Sean i, j ∈ {1, . . . , n}, i 6= j. Denotamos por
Pij la matriz obtenida al efectuar en In la siguiente operación elemental: cambiar entre sı́ las filas
i y j, es decir,  
1 0 ... 0 ... 0 ... 0
 0 1 ... 0 ... 0 ... 0 
 
 .. .. . . .. .. .. 
 . . . . . . 
 
 0 0 ... 0 ... 1 ... 0 
Pij =  ... ... .. . . .. ..  .
 . . . . 

 0 0 ... 1 ... 0 ... 0 
 
 . . . . . . 
 .. .. .. .. . . .. 
0 0 ... 0 ... 0 ... 1
Esta misma matriz se hubiera obtenido igualmente si la operación elemental efectuada en In

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
hubiera sido cambiar entre sı́ las columnas i y j.
½ ¾
f ilas
In → intercambiar las i y j → Pij .
columnas
Esta matriz cumple las siguientes propiedades:
1. Es simétrica, es decir, PijT = Pij .
2. Su determinante es no nulo, pues |Pij | = −|In | = −1.
3. Si A ∈ Mn×m (IK), la matriz Pij A tiene sus filas iguales a las de A salvo la i–ésima y la
j–ésima que han cambiado entre sı́.
4. Si A ∈ Mm×n (IK), la matriz APij tiene sus columnas iguales a las de A salvo la i–ésima y
la j–ésima que han cambiado entre sı́.
5. Si A ∈ Mn (IK),
|Pij A| = −1|A| = |Pij ||A|,
|APij | = −1|A| = |A|(−1) = |A||Pij |.
6. Es inversible pues Pij Pij = In y ası́, su inversa es ella misma, Pij−1 = Pij .
Matriz elemental de tercer género y orden n. Sean i, j ∈ {1, . . . , n}, i 6= j y sea λ ∈ IK. Deno-
tamos por Pij (λ) la matriz obtenida al efectuar en In la siguiente operación elemental: sumar a
la fila i la j multiplicada por λ, es decir,
 
1 0 ... 0 ... 0 ... 0
 0 1 ... 0 ... 0 ... 0 
 
 .. .. . . .. .. .. 
 . . . . . . 
 
 0 0 ... 1 ... λ ... 0 

Pij (λ) =  .. .. .. . . .. ..  .
 . . . . . . 

 0 0 ... 0 ... 1 ... 0 
 
 . . .. .. . . .. 
 .. .. . . . . 
0 0 ... 0 ... 0 ... 1
Esta misma matriz se hubiera obtenido igualmente si la operación elemental efectuada en In
hubiera sido sumar a la columna j la columna i multiplicada por λ.
½ ¾ ½ ¾
f ila i f ila j
In → sumar a la la multiplicada por λ → Pij (λ).
columna j columna i
Esta matriz cumple las siguientes propiedades:
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

14 Matemáticas II, MECÁNICA

1. Su traspuesta es otra matriz elemental del mismo género, Pij (λ)T = Pji (λ).

2. Su determinante es no nulo, pues |Pij (λ)| = |In | = 1.

3. Si A ∈ Mn×m (IK), la matriz Pij (λ)A tiene sus filas iguales a las de A salvo la i–ésima a la
que se le ha sumado la j–ésima multiplicada por λ.

4. Si A ∈ Mm×n (IK), la matriz APij (λ) tiene sus columnas iguales a las de A salvo la j–ésima
a la que se le ha sumado la i–ésima multiplicada por λ.

5. Si A ∈ Mn (IK),
|Pij (λ)A| = |A| = |Pij (λ)||A|,

|APij (λ)| = |A| = |A||Pij (λ)|.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
6. Es inversible pues Pij (λ)Pij (−λ) = Pij (−λ)Pij (λ) = In , es decir, Pij (λ)−1 = Pij (−λ).

En resumen, las matrices elementales verifican las siguientes propiedades: La traspuesta es también
una matriz elemental y del mismo género. Tienen determinante distinto de 0. Multiplicar a la
izquierda/derecha de una matriz A por una matriz elemental equivale a efectuar en A una opera-
ción elemental por filas/columnas (la misma que haya sido necesario hacer en las filas/columnas de
la identidad para pasar a esa matriz elemental) y, por ello, no se altera el rango de A. El determi-
nante del producto de una matriz cuadrada por una elemental es el producto de los determinantes.
Es inversible siendo su inversa otra matriz elemental del mismo género.

MATRIZ CANÓNICA de dimensiones m × n y rango h

Definición 30. Se dice matriz canónica de dimensiones m × n y rango h a la matriz


µ ¶
Ih 0
∈ Mm×n (IK).
0 0

Se observa que si h = m = n la matriz anterior es In .

Teorema 31. De toda matriz no nula se puede pasar, efectuando operaciones elementales, a la
matriz canónica de las mismas dimensiones y el mismo rango.

La matriz canónica resulta de efectuar un producto de la forma Pr . . . P2 P1 AQ1 Q2 . . . Qs donde Pi


son matrices elementales de orden m y Qi son matrices elementales de orden n. De aquı́ resulta
que,
µ ¶
−1 −1 Ih 0
A = P1 . . . Pr Q−1 −1
s . . . Q1 .
0 0
En el caso particular en el que A es cuadrada de orden n y rango n, se obtendrá que

A = P1−1 . . . Pr−1 In Q−1 −1


s . . . Q1 ,

por lo que A es producto de matrices elementales, es decir:

Teorema 32. Toda matriz cuadrada, con determinante distinto de 0 puede ponerse como producto
de matrices elementales.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

15

Además, teniendo en cuenta que Q1 . . . Qs Pr . . . P1 A = In , se observa que en este caso, se


puede pasar de A a su canónica efectuando únicamente operaciones elementales por filas. En la
práctica, el método más sencillo y breve para pasar de A a In es el siguiente: En primer lugar,
operando con filas, presentaremos ceros en todos los elementos de cada columna que están por
debajo de la diagonal principal, comenzando por la primera columna. Luego (operando siempre
con filas) presentaremos ceros por encima de la diagonal principal comenzando por la última
columna. Finalmente en la matriz diagonal obtenida, multiplicando cada fila por un elemento
adecuado, haremos 1 los elementos diagonales.

Rango y Determinante del producto

Teorema 33. Sean A ∈ Mm×n (IK), B ∈ Mn×p (IK). Entonces, rg(AB) ≤ rgA y rg(AB) ≤ rgB.

Teorema 34. Sean A, B ∈ Mn (IK). Entonces, |AB| = |A||B| .

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
MATRICES INVERSIBLES

Teorema 35. La condición necesaria y suficiente para que una matriz cuadrada sea inversible es
que su determinante sea distinto de cero.

Además, si A es inversible, |A−1 | = |A|−1 .


Sabemos ya que si A es inversible, existen matrices elementales P1 , . . . , Ps , tales que Ps . . . P1 A = In
por lo que la matriz Ps . . . P1 In es la inversa de A. Es decir, la sucesión de operaciones elementales
por filas que transforman la matriz A en la matriz In es la misma sucesión que transforma la matriz
In en A−1 . Este es el fundamento para el cálculo de la inversa por el método de Gauss–Jordan.

Teorema 36. Elementos de la matriz inversa. Si A = (aij ) ∈ Mn (IK) es una matriz inversible,
A−1 = (Aji /|A|).

MATRICES ORTOGONALES

Proposición 37. Una condición necesaria para una matriz A sea ortogonal es que |A| = ±1.

Como consecuencia de la Definición 8 y del Teorema 35 se verifica trivialmente que

A es ortogonal ⇔ A ∈ Mn (IR), AT A = AAT = In ⇔

(2) A ∈ Mn (IR), AT A = In

(3) A ∈ Mn (IR), AAT = In .

Por otra parte, la condición 


(2) equivale a

 ∀i, j = 1, . . . , n, aij ∈ IR,

 Xn


 ∀i, j = 1, . . . , n, i 6= j, aki akj = 0,
(4) k=1

 Xn

 ∀i = 1, . . . , n,

 a2ki = 1.

k=1
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

16 Matemáticas II, MECÁNICA

mientras que la condición (3) equivale a




 ∀i, j = 1, . . . , n, aij ∈ IR,

 Xn


 ∀i, j = 1, . . . , n, i 6= j, aik ajk = 0,
(5) k=1

 Xn


 a2ik = 1.
 ∀i = 1, . . . , n,

k=1

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Siendo (2) y (3) condiciones equivalentes, también lo son las condiciones (4) y (5).
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

Sistemas de ecuaciones lineales


PRIMERAS DEFINICIONES

Definición 38. Se llama ecuación lineal en IK a toda ecuación del tipo

(6) a1 x1 + a2 x2 + . . . + an xn = b,

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
en la que a1 , a2 , . . . , an , b son elementos determinados de IK y x1 , . . . , xn , son variables (incógnitas
o indeterminadas). Los elementos a1 , a2 , . . . , an reciben el nombre de coeficientes de las incógnitas
y b el de término independiente de las mismas. La ecuación (6) se dice homogénea si b = 0.

Definición 39. Si al reemplazar en la igualdad formal (6) las variables x1 , x2 , . . . , xn , respecti-


vamente, por los elementos de IK, c1 , c2 , . . . , cn , resulta cierta la igualdad, esto es, a1 c1 + a2 c2 +
. . . + an cn = b, diremos que (c1 , c2 , . . . , cn ) es solución de (6).

Definición 40. Sistema de ecuaciones lineales es todo conjunto no vacı́o de ecuaciones lineales.
Solución de un sistema de ecuaciones lineales es toda solución común a todas las ecuaciones que
lo forman. Un sistema de ecuaciones se dice homogéneo si los términos independientes de todas
las ecuaciones que lo forman son nulos.

Designaremos por S al conjunto formado por todas las soluciones del sistema E. Entonces,
el sistema E se dice incompatible si carece de solución, es decir, si S = ∅. Cuando S 6= ∅ el
sistema se dice compatible y, en este caso, según que el cardinal de S sea 1 o mayor que 1, se dirá
determinado o indeterminado.

Definición 41. Estudiar un sistema es resolverlo, es decir, hallar todas sus soluciones.

ECUACIÓN MATRICIAL ASOCIADA


Dado un sistema E, formado por m ecuaciones lineales con n incógnitas

a11 x1 + a12 x2 + . . . + a1n xn = b1  

a21 x1 + a22 x2 + . . . + a2n xn = b2
(7) ,
....................................................................... 


am1 x1 + am2 x2 + . . . + amn xn = bm

le asociamos la ecuación matricial


    
a11 a12 . . . a1n x1 b1
 a21 a22 . . . a2n  x2   b2 
    
(8)  .. .. ..  .. = .. 
 . . .  .   . 
am1 am2 . . . amn xn bm

en la que X es una matriz indeterminada, es decir, sus elementos son variables. Entonces,
(c1 , c2 , . . . , cn ) es solución de (7) si y sólo si la matriz C = (ci ) ∈ Mn×1 (IK) es solución de (8). En
consecuencia, estudiar el sistema E es equivalente a estudiar la ecuación matricial asociada.

17
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

18 Matemáticas II, MECÁNICA

La matriz A = (aij ) ∈ Mm×n (IK), se dice matriz de coeficientes y B = (bi ) ∈ Mm×1 (IK) matriz
de términos independientes. La matriz de coeficientes y la matriz IB ∈ Mm×n+1 (IK), que resulta
de ampliar la anterior con la columna que forman los términos independientes de las incógnitas,
 
a11 a12 . . . a1n b1
 a21 a22 . . . a2n b2 
 
IB = (A|B) =  .. .. .. .. 
 . . . . 
am1 am2 . . . amn bm
reciben el nombre de matrices asociadas a E.
SISTEMAS EQUIVALENTES
Definición 42. Se dice que el sistema de ecuaciones E2 es equivalente al E1 si E2 tiene las mismas
soluciones que E1 .

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Se consideran operaciones elementales con las ecuaciones de un sistema las siguientes:
1- Multiplicar por un elemento no nulo los dos miembros de una ecuación,
2- Intercambiar dos ecuaciones,
3- Sumar miembro a miembro a una ecuación otra previamente multiplicada por un elemento.
Se observa que efectuar operaciones elementales con las ecuaciones de E es equivalente a realizar
la correspondiente operación elemental en las filas de las matrices A y B, es decir, en IB.
Teorema 43. Al efectuar operaciones elementales con las ecuaciones de un sistema se obtiene
otro equivalente al dado.
Teorema 44. Si en un sistema hay una ecuación que es combinación lineal de otras al suprimirla
obtenemos un sistema equivalente.

TEOREMA DE ROUCHÈ–FRÖBENIUS
Teorema 45. La condición necesaria y suficiente para que un sistema de ecuaciones lineales
sea compatible es que sus matrices asociadas tengan igual rango y, en este caso, según que el
rango común de las matrices sea igual o menor que el número de incógnitas será determinado o
indeterminado, respectivamente.
En resumen, este teorema clasifica los sistemas, según los rangos de sus matrices asociadas:


 rgA 6= rgIB, S. Incompatible


 
 h<n S. Compatible Indeterminado



 rgA = rgIB =
 
h=n S. Compatible Determinado
donde n es el número de incógnitas del sistema. En el caso de sistema compatible indeterminado,
se obtiene la solución de h variables, llamadas principales, en función de las n − h restantes que
hacen el papel de parámetros.
Sistemas homogéneos. En el caso particular en el que el sistema sea homogéneo, es decir con
B = 0, siempre es rgA = rgIB y por tanto compatible. La solución trivial es (0, 0, . . . 0), pudiendo
tener otras o no según sea indeterminado o determinado.

REGLA DE CRAMER
Teorema 46. Un sistema formado por tantas ecuaciones lineales como incógnitas tenga, en el caso
de ser no nulo el determinante de la matriz de coeficientes, es compatible determinado. El valor
de la incógnita i–ésima se obtiene dividiendo por ese determinante el que se obtiene al sustituir
en él la columna i-ésima por la que forman los términos independientes de las incógnitas.
Para la Factorización LU ver la Práctica 2 y para Métodos iterativos la Práctica 3.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

Espacios vectoriales

DEFINICIÓN. PRIMERAS PROPIEDADES

Definición 47. Se dice que un conjunto E, a cuyos elementos llamaremos vectores, es un espacio
vectorial sobre el cuerpo (IK, +, ·), cuyos elementos llamaremos escalares, si sobre E están definidas

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
dos operaciones tales que

I) Una de ellas es una LCI sobre E, llamada suma de vectores y denotada por el signo +, de
modo que (E, +) es un grupo abeliano, es decir, que verifica las propiedades:

I-a) Asociativa, ∀a, b, c ∈ E, a + (b + c) = (a + b) + c.


I-b) Conmutativa, ∀a, b ∈ E, a + b = b + a.
I-c) Existe elemento neutro, ∃0 ∈ E, ∀a ∈ E, a + 0 = 0 + a = a. El elemento neutro recibe
el nombre de vector nulo.
I-d) Todo vector tiene opuesto, para cada a ∈ E, ∃b ∈ E, a + b = b + a = 0. El elemento b
se dice opuesto de a y se denota por −a.

II) La otra operación es una LCE sobre E con el dominio de operadores IK, llamada producto
de un vector por un escalar y denotada por el signo ·, que verifica las siguientes propiedades:

II-a) Asociativa respecto del producto de escalares,


∀a ∈ E, ∀α, β ∈ IK, (αβ) · a = α · (β · a).
II-b) Distributiva respecto de la suma de vectores,
∀a, b ∈ E, ∀α ∈ IK, α · (a + b) = α · a + α · b.
II-c) Distributiva respecto de la suma de escalares y la suma de vectores,
∀a ∈ E, ∀α, β ∈ IK, (α + β) · a = α · a + β · a.
II-d) Para todo a ∈ E, 1 · a = a.

La estructura algebraica de espacio vectorial (en adelante E .V .) se representa por (E, +, ·IK ).

Primeras propiedades. Dado un E .V . (E, +, ·IK ), se verifica:


1 ∀a ∈ E, 0 · a = 0.
2 ∀α ∈ IK, α · 0 = 0.
3 ∀α ∈ IK, a ∈ E, −(α · a) = (−α) · a = α · (−a).
4 ∀a ∈ E, −a = (−1) · a.
5 ∀α ∈ IK, ∀a, b ∈ E, α · a − α · b = α · (a − b).
6 ∀α, β ∈ IK, ∀a ∈ E, α · a − β · a = (α − β) · a.
7 α ∈ IK, a ∈ E tales que α · a = 0, entonces α = 0 ó a = 0.
8 0 6= α ∈ IK, a, b ∈ E tales que α · a = α · b, entonces a = b.
9 α, β ∈ IK, 0 6= a ∈ E tales que α · a = β · a, entonces α = β.

19
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

20 Matemáticas II, MECÁNICA

SISTEMAS DE VECTORES. COMBINACIONES LINEALES


Definición 48. Sistema de vectores de un E .V . E es todo subconjunto no vacı́o de E.
Si A es un sistema de vectores de E, todo subconjunto ∅ 6= B ⊂ A se dice subsistema de A y
todo conjunto C ⊂ E tal que A ⊂ C, decimos que es una ampliación de A.
Llamaremos orden de un sistema finito al número de vectores que lo forman y, cuando éste no
sea finito, diremos que es de orden infinito.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Definición 49. Se dice que un vector a es combinación lineal de los vectores del sistema A =
{a1 , a2 , . . . , an } si existen unos escalares α1 , α2 , . . . , αn ∈ IK tales que

a = α1 a1 + α2 a2 + . . . + αn an .

Los escalares α1 , α2 , . . . , αn reciben el nombre de coeficientes de la combinación.


Proposición 50. Si un vector es combinación lineal de los vectores de un sistema A, también es
combinación lineal de los vectores de cualquier ampliación de A.
Proposición 51. Si un vector a es combinación lineal de los vectores de un sistema A y, a su vez,
cada vector de A es combinación lineal de los vectores un sistema B entonces, a es combinación
lineal de los vectores de B.

VECTORES LINEALMENTE DEPENDIENTES


Definición 52. Se dice que el sistema A = {a1 , a2 , . . . , an } es ligado o que sus vectores son
linealmente dependientes si existen unos escalares no todos nulos α1 , α2 , . . . , αn , tales que

α1 a1 + α2 a2 + . . . + αn an = 0.

Es decir, si se puede formar una combinación lineal nula con los vectores de A sin ser nulos todos
los coeficientes.
Proposición 53. Todo sistema que contiene al vector nulo es ligado.
Proposición 54. Toda ampliación de un sistema ligado es también un sistema ligado.
Proposición 55. La condición necesaria y suficiente para que un sistema de orden mayor que
uno sea ligado es que, al menos, uno de sus vectores sea combinación lineal de los demás.
Proposición 56. La condición necesaria y suficiente para que un sistema de orden 1 sea ligado
es que el único vector que lo forma sea el nulo.

VECTORES LINEALMENTE INDEPENDIENTES


Definición 57. Se dice que el sistema A = {a1 , a2 , . . . , an } es libre o que sus vectores son lineal-
mente independientes si A no es ligado o, equivalentemente, si los vectores de A no son linealmente
dependientes. Es decir, la única combinación lineal nula que puede formarse con los vectores de
este sistema es la que tiene nulos todos sus coeficientes.
Proposición 58. Si a 6= 0, A = {a} es libre.
Proposición 59. Todo vector perteneciente a un sistema libre es no nulo.
Proposición 60. Todo subsistema de uno libre es también libre.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

21

Proposición 61. Si al ampliar un sistema libre con un nuevo vector se obtiene un sistema ligado,
el vector añadido es combinación lineal de los restantes.

ESPACIOS VECTORIALES DE TIPO FINITO


Sistemas generadores

Definición 62. Se dice que un E .V . es de tipo finito si existe en él un sistema finito de vectores
tal que cada vector del espacio es una combinación lineal de los vectores de ese sistema. Todo
sistema que verifique esta condición se dice sistema generador del E .V .

De esta definición se sigue que, decir que A es un sistema generador de E, equivale a decir que
E es el conjunto formado por todas las combinaciones lineales de los vectores de A.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Proposición 63. Toda ampliación con vectores de E de un sistema generador del espacio vectorial
E es también un sistema generador de E.

Proposición 64. Si en un sistema generador hay un vector que es combinación lineal de los
demás, al suprimirlo se obtiene otro sistema generador.

Proposición 65. Si en un sistema generador sustituimos uno de sus vectores por una combinación
lineal de todos los del sistema tal que el coeficiente que acompaña al vector sustituido sea no nulo,
entonces se obtiene otro sistema generador.

Proposición 66. El orden de un sistema libre no supera al de un sistema generador.

Base de un espacio vectorial

Definición 67. Base de un espacio vectorial es, si existe, un sistema de vectores de ese espacio
que sea generador, libre y esté ordenado.

En lo que sigue, cuando supongamos que un sistema de vectores A = {a1 , . . . , an } está ordenado
lo denotaremos por A = (a1 , . . . , an ).
Si un espacio vectorial se reduce al vector nulo, E = {0}, el único sistema posible es ligado
por lo que no existe base.

Teorema 68. De un sistema generador de un E .V . de tipo finito no nulo siempre se puede extraer
una base.

Al limitar nuestro estudio a un E .V . de tipo finito si E 6= {0}, siempre existe un sistema


generador finito y, por la proposición anterior, de él podemos extraer una base por lo que siempre
existe una base.

Teorema 69. Todas las bases de un mismo E .V . E 6= {0} tienen el mismo orden.

Definición 70. Dimensión de un espacio vectorial de tipo finito, no nulo, es el orden de una
cualquiera de sus bases. Se conviene en decir que un E .V . nulo tiene dimensión 0.

En lo que sigue, escribiremos En para indicar que el E .V . E tiene dimensión n.


Rango de un sistema de vectores

Definición 71. Rango de un sistema de vectores que no se reduce únicamente al vector nulo es
el orden máximo de sus subsistemas libres. Se conviene en que el sistema {0} tenga rango 0.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

22 Matemáticas II, MECÁNICA

De esta definición resulta obvio que para {0} 6= A = {a1 , a2 , . . . , an } es 1 ≤ rgA ≤ n ası́ como
que rgA = 0 si y sólo si A = {0}.
Proposición 72. La dimensión de un E .V . coincide con su rango.
Corolario 73. En un E .V . de dimensión n 6= 0, todo sistema libre de orden n, ordenado, es una
base.
Corolario 74. En un E .V . de dimensión n 6= 0, todo sistema generador de orden n, ordenado,
es una base.
Teorema 75. Teorema de la base incompleta. En un espacio vectorial de dimensión n 6= 0, todo
sistema libre de orden inferior a n es parte de una base.

Coordenadas Sea En un espacio vectorial y sea BE = (u1 , . . . , un ) una base de E. Por ser BE
sistema generador de E, cada vector x ∈ E se puede poner como combinación lineal de los vectores

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
de BE , es decir, existen x1 , . . . , xn ∈ IK tales que
x = x 1 u1 + . . . + x n u n .
Si también fuera x = y1 u1 + . . . + yn un , para algunos y1 , . . . , yn ∈ IK, se verificarı́a que
x = x 1 u1 + . . . + x n u n = y 1 u1 + . . . + y n un
de donde
(x1 − y1 )u1 + . . . + (xn − yn )un = 0
y, por ser BE libre, necesariamente xi = yi , i = 1, . . . , n. De lo anterior resulta que cada vector
de E se puede poner de forma única como combinación lineal de los vectores de la base BE . Los
coeficientes (x1 , . . . , xn ) de esta única combinación se dicen coordenadas de x en BE .
Si a cada vector de E le asociamos la n–tupla formada por sus coordenadas respecto de BE
queda definida una aplicación ϕ : E −→ IK n , x 7→ (x1 , . . . , xn ) que es biyectiva. Ası́, para
referirnos a un vector de E podemos referirnos a sus correspondientes coordenadas respecto de la
base fijada en E.
Cambio de base Sea En un espacio vectorial y sean BE = (u1 , . . . , un ) y BE∗ = (u∗1 , . . . , u∗n ) dos
bases de E, siendo

u∗1 = α11 u1 + α21 u2 + . . . + αn1 un  

u∗2 = α12 u1 + α22 u2 + . . . + αn2 un
(9) .
..................................................... 


u∗n = α1n u1 + α2n u2 + . . . + αnn un
Si x ∈ E tiene por coordenadas (x1 , . . . , xn ) en BE y (x∗1 , . . . , x∗n ) respecto de BE∗ se verificará
x = x1 u1 + . . . + xn un = x∗1 u∗1 + . . . + x∗n u∗n =
y por (9)
= x∗1 (α11 u1 + α21 u2 + . . . + αn1 un ) + x∗2 (α12 u1 + α22 u2 + . . . + αn2 un ) + . . . + x∗n (α1n u1 + α2n u2 +
. . . + αnn un ) = (α11 x∗1 + α12 x∗2 + . . . + α1n x∗n )u1 + (α21 x∗1 + α22 x∗2 + . . . + α2n x∗n )u2 + . . . + (αn1 x∗1 +
αn2 x∗2 + . . . + αnn x∗n )un .
De donde, por la unicidad de coordenadas respecto de una base, queda

x1 = α11 x∗1 + α12 x∗2 + . . . + α1n x∗n  

x2 = α21 x∗1 + α22 x∗2 + . . . + α2n x∗n
(10)
..................................................... 


xn = αn1 x∗1 + αn2 x∗2 + . . . + αnn x∗n
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

23

que en forma matricial puede escribirse


    
x1 α11 α12 . . . α1n x∗1
 x2   α21 α22 . . . α2n  x∗2 
    
(11)  ..  =  .. .. .  .. 
 .   . . . . . ..  . 
xn αn1 αn2 . . . αnn x∗n

y denotando por X = (xi ) ∈ Mn×1 (IK), X ∗ = (x∗i ) ∈ Mn×1 (IK) y A = (αij ) ∈ Mn (IK) queda

X = AX ∗ .

Se observa que la columna i–ésima de la matriz de cambio de base A está formada por las coorde-
nadas respecto de BE del i–ésimo vector de BE∗ . Análogamente se puede obtener X ∗ = BX, donde
la matriz B tiene la columna i–ésima formada por las coordenadas respecto de BE∗ del i–ésimo

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
vector de BE . ½ ¾ ½ ¾
X = AX ∗ = A(BX) = (AB)X In X = (AB)X
Según hemos visto de donde se obtiene
½ ¾ X ∗ = BX = B(AX ∗ ) = (BA)X ½

¾ In X ∗ = (BA)X ∗
X AB = In
para todo ∈ Mn×1 (IK), lo que implica que . Es decir, B = A−1 .
X∗ BA = In
Subespacios vectoriales Sea (E, +, ·IK ) un espacio vectorial.

Definición 76. Se dice que un subconjunto no vacı́o de E, S es un subespacio vectorial si es


estable respecto de las operaciones de E y con las restricciones de esas operaciones es también un
espacio vectorial.

Aunque por definición, se exige que se verifiquen las propiedades:


[i] ∅ 6= S ⊂ E,
[ii] ∀a1 , a2 ∈ S, a1 + a2 ∈ S,
[iii] ∀α ∈ IK, ∀a ∈ S, αa ∈ S,
[iv] (S, +, ·IK ) es un E .V .
la cuarta es consecuencia de las tres anteriores y ası́, la condición necesaria y suficiente para que
un conjunto ∅ 6= S ⊂ E, sea subespacio vectorial es que verifique las condiciones
¯
¯ 1. ∀a1 , a2 ∈ S, a1 + a2 ∈ S,
(12) ¯
¯ 2. ∀α ∈ IK, ∀a ∈ S, αa ∈ S,

equivalentes a la condición

(13) ∀α1 , α2 ∈ IK, ∀a1 , a2 ∈ S, α1 a1 + α2 a2 ∈ S.

Por lo anterior, la condición necesaria y suficiente para que un conjunto ∅ 6= S ⊂ E, sea subespacio
vectorial es que toda combinación lineal de vectores de S pertenezca a S.
Lo que hemos visto hasta ahora de subespacios es independiente de si E es de tipo finito o
no. Si además E es de tipo finito, el subespacio S también y dim S ≤ dim E, dándose la igualdad
únicamente si E y S coinciden.
Clausura lineal de un sistema Sea E un E .V . y sea A un sistema de vectores de E.

Definición 77. Llamamos clausura lineal de A al conjunto formado por todas las combinaciones
lineales de vectores de A. Lo designaremos por K[A] ó L [A].

Proposición 78. L [A] es un subespacio vectorial de E y A es un sistema generador de L [A].


a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

24 Matemáticas II, MECÁNICA

Teorema 79. dim L [A] = rgA.

Suma e intersección de subespacios Sean S1 , S2 subespacios vectoriales de E.


Definición 80. Llamaremos suma de S1 y S2 al conjunto de todas las posibles sumas de un vector
de S1 con uno de S2 , denotándose por S1 + S2 , es decir,
S1 + S2 = {v = a + b | a ∈ S1 , b ∈ S2 }.
Definición 81. Llamaremos intersección de los subespacios S1 y S2 a la intersección de estos dos

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
conjuntos, denotándose también por S1 ∩ S2 , es decir,
S1 ∩ S2 = {v ∈ E | v ∈ S1 , v ∈ S2 }.
Proposición 82. S1 + S2 y S1 ∩ S2 son subespacios vectoriales de E.
Teorema 83. dim(S1 + S2 ) = dim S1 + dim S2 − dim(S1 ∩ S2 ).
La unión de un sistema generador de S1 con uno de S2 nos proporciona un sistema generador
de S1 + S2 . Si S1 ∩ S2 = {0} la suma de S1 y S2 se dice suma directa y se denota por S1 ⊕ S2 . En
este caso, obviamente, dim(S1 ⊕ S2 ) = dim S1 + dim S2 y la unión de una base de S1 con una base
de S2 es base de S1 ⊕ S2 .
Rango de una matriz por filas y columnas Sea A = (aij ) ∈ Mm×n (IK).
Sea En un E .V . sobre IK y sea BE = (u1 , u2 , . . . , un ) una base cualquiera de E. Consideramos
el sistema de vectores de E, Af = {af1 , . . . , afm } en el que
af1 = a11 u1 + a12 u2 + . . . + a1n un ,
af2 = a21 u1 + a22 u2 + . . . + a2n un ,
...................................................
afm = am1 u1 + am2 u2 + . . . + amn un .
Entonces, se define el rango por filas de A, se denota por rgf A, como el rango del sistema Af .
Sea F un E .V . sobre IK de dimensión m y sea BF = (v1 , v2 , . . . , vm ) una base de F. Conside-
ramos los vectores de F
ac1 = a11 v1 + a21 v2 + . . . + am1 vm ,
ac2 = a12 v1 + a22 v2 + . . . + am2 vm ,
...................................................
acn = a1n v1 + a2n v2 + . . . + amn vm .
Entonces, se define el rango por columnas de A, se denota por rgc A, como el rango del sistema de
vectores Ac = {ac1 , . . . , acn }.
Proposición 84. rgf A = rgA = rgc A.
Observación Sea BE = (u1 , . . . , un ) una base de En , espacio vectorial sobre IK, y sea P ∈
Mn (IK) una matriz regular. Entonces, existe un base de E, BE∗ , tal que la ecuación del cambio de
base es X = P X ∗ .
En efecto pues, recordando que en tal caso la columna i–ésima de P estará formada por las
coordenadas respecto de BE del i–ésimo vector de BE∗ , si consideramos los vectores de E

u∗1 = p11 u1 + p21 u2 + . . . + pn1 un  

u∗2 = p12 u1 + p22 u2 + . . . + pn2 un
(14)
..................................................... 


u∗n = p1n u1 + p2n u2 + . . . + pnn un
y el sistema BE∗ = (u∗1 , . . . , u∗n ), de la definición de rango por columnas, resulta que
rgBE∗ = rgc P = rgP = n
con lo que BE∗ es libre y, por ello, una base de E.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

Aplicaciones lineales
DEFINICIÓN. PRIMERAS PROPIEDADES
Sean E y F dos espacios vectoriales sobre el mismo cuerpo IK.

Definición 85. Aplicación lineal de E en F es toda aplicación f : E −→ F que verifique las


propiedades:

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
∀a, b ∈ E, f (a + b) = f (a) + f (b) ,
∀λ ∈ IK, ∀a ∈ E, f (λa) = λf (a) .

Teorema 86. Caracterización de una aplicación lineal. La condición necesaria y suficiente para
que una aplicación f : E −→ F sea lineal es que verifique la siguiente propiedad

∀λ, µ ∈ IK, ∀a1 , a2 ∈ E, f (λa1 + µa2 ) = λf (a1 ) + µf (a2 ) .

Denotaremos por LIK (E, F ) el conjunto de todas las aplicaciones lineales de E en F y por
LIK (E) el de las aplicaciones lineales de E en E.
Primeras propiedades Sea f ∈ LIK (E, F ), entonces se verifica:

1. f (0E ) = 0F .

2. ∀a ∈ E, f (−a) = −f (a).

3. ∀a1 , a2 ∈ E, f (a1 − a2 ) = f (a1 ) − f (a2 ).

4. ∀λ1 , λ2 ∈ IK, ∀a1 , a2 , ∈ E, f (λ1 a1 − λ2 a2 ) = λ1 f (a1 ) − λ2 f (a2 )

5. Si el sistema {a1 , a2 , . . . , ap } ⊂ E es ligado también lo es {f (a1 ), f (a2 ), . . . , f (ap )} ⊂ F .

6. Si {f (a1 ), f (a2 ), . . . , f (ap )} ⊂ F es libre también lo es el sistema {a1 , a2 , . . . , ap } ⊂ E.

IMAGEN DE UN SUBESPACIO. RANGO DE UNA APLICACIÓN LINEAL


Sea f ∈ LIK (E, F ) y sea S es un subespacio vectorial de E. Denotamos por f (S) el conjunto
formado por todos los vectores de F que son imagen por f de algún vector de S.

Teorema 87. f (S) es un subespacio vectorial de F .

Teorema 88. Si A = {a1 , a2 , . . . , an } es un sistema generador de S entonces, el sistema f (A) =


{f (a1 ), f (a2 ), . . . , f (an )} es un sistema generador de f (S).

Observemos que, en particular, para todo sistema A de vectores de E se verifica f (L (A)) =


L (f (A)).
Imagen de una aplicación lineal. El Teorema 87 en el caso particular S = E dice que f (E) es
un subespacio vectorial de F . Este subespacio recibe el nombre de imagen de la aplicación lineal
y se denota por Imf . A su dimensión la llamamos rango de f y, evidentemente, se cumple que
rgf = dim Imf ≤ dim F .

25
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

26 Matemáticas II, MECÁNICA

IMAGEN RECÍPROCA. NÚCLEO DE UNA APLICACIÓN LINEAL


Sea f ∈ LIK (E, F ) y sea T es un subespacio vectorial de F . Denotamos por f −1 (T ) el conjunto
formado por todos los vectores de E que son origen por f de algún vector de T , es decir, a la
imagen recı́proca de T por f .
Teorema 89. f −1 (T ) es un subespacio vectorial de E.
Núcleo de una aplicación lineal. La aplicación del Teorema 89 al caso particular T = {0} dice
que f −1 ({0}) es un subespacio vectorial de E. Este subespacio, formado por todos los vectores
de E cuya imagen por f es el vector nulo de F , recibe el nombre de núcleo de la aplicación lineal
y se denota por Kerf . A su dimensión la llamamos nulidad de f y, evidentemente, N ulf =
dim Kerf ≤ dim E.
Teorema 90. Una condición necesaria y suficiente para que la aplicación lineal f sea inyectiva
es que Kerf = {0}.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Originales de un elemento. Dado b ∈ F , denotamos por f −1 ({b}) el conjunto formado por sus
originales. Obviamente, si b ∈Imf
/ se tendrá que f −1 ({b}) = ∅. Supongamos pues que b ∈ Imf y
ası́, existe a ∈ E tal que f (a) = b, entonces, f −1 (b) = {a + c | c ∈ Kerf }.

ECUACIONES DE UNA APLICACIÓN LINEAL


Sea f ∈ LIK (En , Fm ) y sean BE = (u1 , u2 , . . . , un ) y BF = (v1 , v2 , . . . , vm ) bases de E y F ,
respectivamente. Supongamos además que

f (u1 ) = α11 v1 + α21 v2 + . . . + αm1 vm  

f (u2 ) = α12 v1 + α22 v2 + . . . + αm2 vm
(15)
........................................................... 


f (un ) = α1n v1 + α2n v2 + . . . + αmn vm
Sea x = x1 u1 + x2 u2 + . . . + xn un ∈ E y sea y = f (x) = y1 v1 + y2 v2 + . . . + ym vm ∈ F. Entonces,
y = f (x) = f (x1 u1 + x2 u2 + . . . + xn un ) = x1 f (u1 ) + x2 f (u2 ) + . . . + xn f (un )
y teniendo en cuenta las igualdades (15)
y = x1 (α11 v1 + . . . + αm1 vm ) + x2 (α12 v1 + . . . + αm2 vm ) + . . . + xn (α1n v1 + . . . + αmn vm )
lo que, sin más que operar, puede escribirse como
y = (α11 x1 + . . . + α1n xn )v1 + (α21 x1 + . . . + α2n xn )v2 + . . . + (αm1 x1 + . . . + αmn xn )vm .
Finalmente, recordando la unicidad de coordenadas de un vector respecto de una determinada
base, resulta


 y1 = α11 x1 + α12 x2 + . . . + α1n xn

y2 = α21 x1 + α22 x2 + . . . + α2n xn
(16)

 .....................................................

ym = αm1 x1 + αm2 x2 + . . . + αmn xn
que son las llamadas ecuaciones coordenadas de la aplicación lineal f respecto de las bases BE y
BF . En forma matricial, (16) puede escribirse
    
y1 α11 α12 . . . α1n x1
 y2   α21 α22 . . . α2n  x2 
    
(17)  ..  =  .. .. ..  .. 
 .   . . ... .  . 
ym αm1 αm2 . . . αmn xn
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

27

y denotando por Y = (yi ) ∈ Mm×1 (IK), X = (xi ) ∈ Mn×1 (IK), A = (αij ) ∈ Mm×n (IK), escribire-
mos
Y = AX
que es la llamada expresión coordenada def respecto de las bases BE y BF . La matriz A recibe
el nombre de matriz coordenada de f respecto de las bases BE y BF . Se observa que la matriz
coordenada tiene dimensiones m × n = dim F × dim E y, recordando las igualdades (15), que la
columna i–ésima de A está formada por las coordenadas en BF de la imagen por f del i–ésimo
vector de BE .
Si se suponen fijas las bases BE y BF , puede probarse que la correspondencia que a cada
elemento de LIK (En , Fm ) le asocia en Mm×n (IK) su matriz coordenada respecto de BE y BF es
una aplicación biyectiva.

SUMA DE APLICACIONES LINEALES

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Sean f, g ∈ LIK (E, F ) y sea h la correspondencia de E en F dada por ∀a ∈ E, h(a) =
f (a) + g(a) es, evidentemente una aplicación y puede probarse fácilmente que es lineal. Esta
aplicación se dice suma de f y g y se denota por f + g, es decir,

∀a ∈ E, (f + g)(a) = f (a) + g(a).

Ası́, resulta que la suma de aplicaciones lineales es una LCI sobre LIK (E, F ) y puede probarse
que (LIK (E, F ), +) es un grupo abeliano. Si A1 , A2 son las matrices coordenadas de f, g, respec-
tivamente, respecto de las bases BE y BF . Entonces, la matriz coordenada de f + g, respecto de
BE y BF , es A1 + A2 .

PRODUCTO DE UNA APLICACIÓN LINEAL POR UN ELEMENTO


Sean α ∈ IK, f ∈ LIK (E, F ) y sea h la correspondencia de E en F dada por ∀a ∈ E, h(a) =
αf (a) es, evidentemente una aplicación y puede probarse fácilmente que es lineal. Esta aplicación
se dice producto de f por el elemento α y se denota por αf, es decir,

∀a ∈ E, (αf )(a) = αf (a).

Ası́, el producto de una aplicación lineal por un elemento es una LCE sobre LIK (E, F ) con dominio
de operadores IK y puede probarse que (LIK (E, F ), +, ·IK ) es un espacio vectorial de dimensión
m × n. Si A es la matriz coordenada de f , respecto de las bases BE y BF . Entonces, la matriz
coordenada de αf, respecto de BE y BF , es αA.

APLICACIÓN COMPUESTA O PRODUCTO


Sean En , Fm y Gp tres espacios vectoriales sobre IK y sean f ∈ LIK (En , Fm ), g ∈ LIK (Fm , Gp ).
Para cada x ∈ En , f (x) = y ∈ F por lo que z = g(y) = g(f (x)) está bien definido. Consideramos
la correspondencia h de E en G dada por ∀a ∈ E, h(a) = g(f (a)) que es, evidentemente, una
aplicación y puede probarse fácilmente que es lineal. Esta aplicación se dice composición o producto
de f y g y se denota por g ◦ f, es decir,

∀a ∈ E, (g ◦ f )(a) = g(f (a)).

En el caso particular E = F = G, el producto de aplicaciones lineales es una LCI sobre LIK (E)
y puede probarse que (LIK (E, F ), +, ◦) es un anillo unitario. Si A ∈ Mm×n (IK), B ∈ Mp×m (IK)
son las matrices coordenadas de f y g, respecto de las bases BE , BF y BF , BG , respectivamente,
la matriz coordenada de g ◦ f, respecto de BE y BG , es BA.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

28 Matemáticas II, MECÁNICA

CAMBIO DE BASES Según hemos dicho, cada aplicación lineal tiene una única matriz coorde-
nada respecto de dos bases dadas pero al cambiar las bases de los espacios vectoriales la matriz
puede variar. En esta sección se verá la relación existente entre las distintas matrices coordenadas
de la misma aplicación lineal.
Sea f ∈ LIK (En , Fm ) la aplicación lineal cuya matriz coordenada respecto de las bases BE =
(u1 , u2 , . . . , un ) y BF = (v1 , v2 , . . . , vm ) es A = (aij ) ∈ Mm×n (IK). Como ya sabemos, esto significa
que para x = x1 u1 + x2 u2 + . . . + xn un ∈ E, y = f (x) = y1 v1 + y2 v2 + . . . + ym vm ∈ F, se verifica

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Y = AX.
Supongamos ahora que se toman dos nuevas bases de los espacios vectoriales En y Fm , BE∗ =
(u∗1 , u∗2 , . . . , u∗n ) y BF∗ = (v1∗ , v2∗ , . . . , vm

), respectivamente. En este caso, siendo x, y de la forma
x = x1 u1 + x2 u2 + . . . + xn un y = y1 v1 + y2∗ v2∗ + . . . + ym
∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗
vm y escribiendo Y ∗ = (yi∗ ) ∈ Mm×1 (IK)
∗ ∗
∗ ∗
y X = (xi ) ∈ Mn×1 (IK), se tendrá que la expresión coordenada de f respecto de estas bases es
Y ∗ = BX ∗
con B ∈ Mm×n (IK). Por ser BE y BE∗ bases del mismo E .V . existe una matriz P ∈ Mn (IK),
regular, tal que X = P X ∗ es la ecuación del cambio de base en E. Análogamente será Y ∗ = QY
con Q ∈ Mm (IK) regular. Entonces,
Y ∗ = QY = Q(AX) = QA(P X ∗ ) = (QAP )X ∗
y, por la unicidad de la expresión coordenada respecto de dos bases dadas, resulta que
B = QAP
por lo que, cualquier otra matriz coordenada de f es de la forma QAP con P y Q matrices
regulares. Recı́procamente, si P ∈ Mn (IK) y Q ∈ Mm (IK) son matrices regulares, la matriz QAP
es matriz coordenada de f respecto de algunas bases. Efectivamente, basta tomar en E la base
BE∗ tal que la ecuación del cambio sea X = P X ∗ y en F la base BF∗ cuya ecuación de cambio es
Y ∗ = QY y entonces, repitiendo el razonamiento anterior, resulta que QAP es matriz coordenada
de f de respecto de BE∗ y BF∗ .
De lo anterior se deduce que el conjunto formado por todas las matrices coordenadas de f es
{QAP | P ∈ Mn (IK), |P | 6= 0, Q ∈ Mm (IK), |Q| 6= 0}.
Una vez que hemos visto cómo son las distintas matrices coordenadas de una misma aplicación,
pasaremos a dar algunas de sus propiedades.
Matrices equivalentes
Definición 91. Sean A, B ∈ Mm×n (IK). Se dice que A es equivalente a B si existen P1 ∈
Mm (IK), P2 ∈ Mn (IK), regulares, tales que A = P1 BP2 .
Según hemos visto con el cambio de bases, dos matrices son equivalentes si y sólo si son matrices
coordenadas de una misma aplicación lineal.
Teorema 92. Dos matrices son equivalentes si y sólo si se puede pasar de una a otra mediante
operaciones elementales.
Teorema 93. Una condición necesaria y suficiente para que dos matrices sean equivalentes es
que tengan las mismas dimensiones y el mismo rango.
Propiedades del rango de una aplicación lineal
Teorema 94. El rango de una aplicación lineal coincide con el rango por columnas de su matriz
coordenada.
Teorema 95. Sea f ∈ LIK (En , Fm ). Entonces, dim Kerf + dim Imf = dim E.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

Diagonalización
PRIMERAS DEFINICIONES
Sea (E, +, ·IK ) un espacio vectorial de dimensión n. Endomorfismo sobre E es toda aplicación
lineal de E en E. En todo lo que sigue, cuando convenga el uso de coordenadas fijaremos una base
BE de E y tanto las coordenadas del vector x ∈ E como las de su imagen por el endomorfismo
f , y = f (x) ∈ E, serán las relativas a esa base. Denotamos por End(E) el conjunto de todos los

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
endomorfismos sobre E.
Definición 96. Sea f ∈ End(E). Se dice que el elemento λ ∈ IK es un valor propio de f , si existe
un vector no nulo x ∈ E tal que f (x) = λx. En este caso, decimos que x es un vector propio
asociado al valor propio λ.
Definición 97. Sea A ∈ Mn (IK). Se dice que el elemento λ ∈ IK es un valor propio de A, si existe
un vector no nulo (x1 , . . . , xn ) ∈ IK n tal que AX = λX, donde X = (x1 . . . xn )T ∈ Mn×1 (IK). En
este caso, decimos que x es un vector propio asociado al valor propio λ.

EQUIVALENCIA DEL PROBLEMA CON ENDOMORFISMOS Y MATRICES


Sea f ∈ End(En ). Fijamos una base cualquiera BE = (u1 , u2 , . . . , un ) de E y sea A ∈ Mn (IK)
la matriz coordenada de f respecto de BE . Si el vector de x ∈ E de coordenadas (x1 , x2 , . . . , xn )
en BE es un vector propio de f asociado al valor propio λ, entonces el vector (x1 , x2 , . . . , xn ) ∈ IK n
es un vector propio de A asociado también al valor propio λ.
Sea A ∈ Mn (IK). Consideramos un espacio vectorial sobre IK, E, de dimensión n y fijamos
una base BE = (u1 , u2 , . . . , un ) de E. Sea f ∈ End(E) el endomorfismo cuya matriz coordenada
respecto de BE es A ∈ Mn (IK). Si el vector (x1 , x2 , . . . , xn ) ∈ IK n es un vector propio de A
asociado al valor propio λ, entonces el vector de E que tiene en BE coordenadas (x1 , x2 , . . . , xn )
es un vector propio de f asociado también al valor propio λ.
De lo anterior se deduce que
Proposición 98. Los valores propios de un endomorfismo coinciden con los valores propios de
su matriz coordenada, respecto de cualquier base.
Proposición 99. Todas las matrices coordenadas de un endomorfismo tienen los mismos valores
propios.

PROPIEDADES DE VALORES Y VECTORES PROPIOS


I Condición Necesaria y Suficiente para que un elemento sea valor propio. Poli-
nomio caracterı́stico. Subespacios fundamentales
Sea f ∈ End(En ) y sea A ∈ Mn (IK) su matriz coordenada en BE = (u1 , . . . , un ) Para cada λ ∈ IK
se define V (λ) = {x ∈ E | f (x) = λx}. Teniendo en cuenta las equivalencias x ∈ V (λ) ⇔ f (x) =
λx ⇔ AX = λX ⇔ AX − λX = 0 ⇔ AX − λIn X = 0 ⇔ (A − λIn )X = 0 ⇔
  
a11 − λ a12 ... a1n x1
 a21 a22 − λ . . . a2n   
   x2 
(18)  .. .. .. ..   ..  = 0
 . . . .  . 
an1 an2 . . . ann − λ xn

29
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

30 Matemáticas II, MECÁNICA

resulta que V (λ) es un subespacio vectorial, de dimensión n − rg(A − λIn ), que está formado por
los vectores de En cuyas coordenadas en BE son solución de (18). Si este subespacio es el nulo, el
sistema (18) sólo tiene la solución trivial y λ no es valor propio de f. En cambio, si el subespacio
no es el nulo, el sistema (18) tiene solución distinta de la trivial y λ sı́ es valor propio de f.
En consecuencia, el elemento λ ∈ IK es valor propio de f si y sólo si rg(A − λIn ) < n, es decir,
si y sólo si |A − λIn | = 0 o, lo que es lo mismo, si y sólo si λ es raı́z del polinomio |A − xIn | que
recibe el nombre de polinomio caracterı́stico de f (respecto de BE .

Definición 100. Si λ es raı́z del polinomio caracterı́stico de multiplicidad h se dice que el valor
propio de f tiene multiplicidad algebraica h (respecto de BE )

Definición 101. Cuando λ es un valor propio de f, el subespacio V (λ) de E recibe el nombre de


subespacio fundamental. La dimensión de este subespacio se dice multiplicidad geométrica de λ.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
La multiplicidad geométrica de un valor propio es siempre ≥ 1. Según hemos dicho en la sección
anterior, los valores propios de un endomorfismo coinciden con los valores propios de cualquiera
de sus matrices coordenadas. Además, también coinciden sus multiplicidades geométricas. Por
tanto, las matrices coordenadas de un mismo endomorfismo tienen los mismos valores propios y
con las mismas multiplicidades geométricas. Los vectores propios de f asociados al valor propio
λ son los vectores no nulos del subespacio V (λ). En el caso particular en el que la matriz sea
diagonal, es inmediato verificar que los valores propios coinciden con los elementos diagonales.

II Si λ1 6= λ2 ⇒ V (λ1 ) ∩ V (λ2 ) = {0}.

III Vectores propios asociados a valores propios diferentes entre sı́ son linealmente indepen-
dientes.

IV Si B1 , B2 , . . . , Bm son bases de los subespacios fundamentales V (λ1 ), V (λ2 ), . . . , V (λm ),


respectivamente, correspondientes a valores propios diferentes entre sı́, λ1 , λ2 , . . . , λm , entonces
B1 ∪ B2 ∪ . . . ∪ Bm es base de V (λ1 ) + V (λ2 ) + . . . + V (λm ).
CAMBIO DE BASE Sea f ∈ End(En ) y sea A ∈ Mn (IK) su matriz coordenada respecto de la
base BE . Sea BE∗ una nueva base de En . El cambio de base en endomorfismos es un caso particular
del ya visto en Aplicaciones Lineales, basta tomar en el caso anterior: F = E, BF = BE y
BF∗ = BE∗ . Ası́, por ser BE y BE∗ bases del mismo E .V . existe una matriz P ∈ Mn (IK), regular,
tal que X = P X ∗ es la ecuación del cambio de base, con lo que también será Y = P Y ∗ . Entonces,

Y ∗ = P −1 Y = P −1 (AX) = P −1 A(P X ∗ ) = (P −1 AP )X ∗

con lo que la matriz coordenada de f respecto de BE∗ es B = P −1 AP. Ası́, el conjunto formado
por todas las matrices coordenadas de f es

{P −1 AP | P ∈ Mn (IK), |P | 6= 0}.

Matrices semejantes

Definición 102. Sean A, B ∈ Mn (IK). Se dice que B es semejante a A si existe P ∈ Mn (IK)


regular tal que B = P −1 AP.

Se comprueba trivialmente que la relación definida es una relación binaria de equivalencia


lógica sobre Mn (IK). Además, dos matrices son semejantes si y sólo si son matrices coordenadas
de un mismo endomorfismo.

Teorema 103. Dos matrices semejantes tienen el mismo polinomio caracterı́stico.


a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

31

Corolario 104. Dos matrices semejantes tienen los mismos valores propios con idénticas multi-
plicidades.

Corolario 105. El polinomio caracterı́stico y la multiplicidad algebraica de los valores propios de


un endomorfismo no dependen de la base que se considere.

Corolario 106. Un endomorfismo tiene los mismos valores propios y con idénticas multiplicidades
(algebraica y geométrica) que una cualquiera de sus matrices coordenadas.

Relación entre las multiplicidades

Teorema 107. La multiplicidad geométrica de un valor propio nunca supera a la algebraica.

DIAGONALIZACIÓN

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Definición 108. Se dice que un endomorfismo f ∈ End(En ) es diagonalizable si existe una base
de En en la que la matriz coordenada de f es diagonal.

Definición 109. Se dice que una matriz A ∈ Mn (IK) es diagonalizable si es semejante a una
matriz diagonal.

Sea f ∈ End(En ) y sea A ∈ Mn (IK) su matriz coordenada respecto de cierta base de En .


Entonces, de las definiciones anteriores resulta que f es diagonalizable si y sólo si alguna de sus
matrices coordenadas es diagonal, es decir, si y sólo si alguna de las matrices semejantes a A
es diagonal, esto es, si y sólo si A es diagonalizable. Es decir, un endomorfismo es diagonali-
zable si y sólo si su matriz coordenada es diagonalizable y, análogamente, una matriz cuadrada
es diagonalizable si y sólo si es diagonalizable cualquier endomorfismo que la tenga por matriz
coordenada.
Dada la equivalencia entre el problema de diagonalización de matrices y el de endomorfis-
mos, daremos únicamente condiciones de diagonalización para endomorfismos. Posteriormente, se
indicará lo correspondiente para matrices.
Condiciones necesarias y suficientes Sea f ∈ End(En ).

Teorema 110. Una CN y S para que f sea diagonalizable es que exista una base de E formada
por vectores propios de f .

Teorema 111. Una CN y S para que f sea diagonalizable es que su polinomio caracterı́stico tenga
en IK n raı́ces (contando cada una según su correspondiente multiplicidad) y, para cada una de
ellas, coincidan sus multiplicidades algebraica y geométrica.

La CN y S dada en el Teorema 110 es de escasa utilidad práctica pues no nos dice cuándo
existe la base de vectores propios ni, en su caso, cómo obtenerla. La CN y S enunciada mediante
el Teorema 111 nos resuelve ambas cuestiones. La base existirá si el polinomio caracterı́stico de
f tiene en IK n raı́ces (no necesariamente diferentes) y, para cada una de ellas, coinciden sus
multiplicidades. Suponiendo que somos capaces de hallar las raı́ces del polinomio caracterı́stico,
es fácil comprobar si estas condiciones se cumplen, en ese caso, tomamos de cada uno de los
subespacios fundamentales una base y su unión es la base de E formada por vectores propios.
En esa base, la matriz coordenada de f será diagonal, los elementos diagonales serán los valores
propios de f y, cada uno de ellos, figura tantas veces como indique su multiplicidad.

Teorema 112. Una condición suficiente para que f sea diagonalizable es que su polinomio carac-
terı́stico tenga en IK n raı́ces simples.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

32 Matemáticas II, MECÁNICA

Diagonalización de matrices Sea A ∈ Mn (IK). Se toma un IK–E .V . cualquiera de dimensión n,


En , se fija una base de En , BE , y se considera el endomorfismo f ∈ End(En ) cuya matriz coorde-
nada respecto de BE sea A. Sabemos que A es diagonalizable si y sólo si lo es f . Estudiamos las
condiciones de diagonalización dadas para endomorfismos en la subsección anterior y, si determi-
namos que f es diagonalizable, obtenemos una base de E, BE∗ , formada por vectores propios de
f . Respecto de BE∗ la matriz coordenada de f es una diagonal D. Entonces, si la ecuación del
cambio de base en E es X = P X ∗ , quedará que

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
D = P −1 AP

donde, recordemos que P es la matriz cuadrada de orden n, regular, cuya columna i–ésima está
formada por las coordenadas en BE del i–ésimo vector de BE∗ .
Una vez obtenidas las matrices P y D, tenemos la matriz diagonal semejante a A y la matriz
regular que nos permite el paso de A a D, siendo indiferentes el espacio E y la base BE conside-
rados. Por ello, lo habitual es tomar E = IK n y como base la canónica de este espacio, no siendo
necesario especificarlo.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

Formas bilineales y formas cuadráticas

FORMAS BILINEALES Sea En un E .V . sobre IR.


Definición 113. Se dice forma bilineal sobre E a toda aplicación de E × E en IR que verifique
las propiedades:

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
∀λ, µ ∈ IR, ∀u1 , u2 , v ∈ E f (λu1 + µu2 , v) = λf (u1 , v) + µf (u2 , v) ,
∀λ, µ ∈ IR, ∀u, v1 , v2 ∈ E f (u, λv1 + µv2 ) = λf (u, v1 ) + µf (u, v2 ) .
Xh k
X h X
X k
De la definición se sigue que f ( λ k uk , µl vl ) = λk µl f (uk , vl ).
k=1 l=1 k=1 l=1
Expresión matricial asociada
Sea BE = (u1 , u2 , . . . , un ) una base de E. Dados u = x1 u1 + . . . + xn un , v = y1 u1 + . . . + yn un ∈ E,
  
f (u1 , u1 ) f (u1 , u2 ) . . . f (u1 , un ) y1
Xn X n  f (u2 , u1 ) f (u2 , u2 ) . . . f (u2 , un )   y2 
  
f (u, v) = xk yl f (uk , ul ) = (x1 . . . xn )  .. .. ..   .. 
k=1 l=1
 . . ... .   . 
f (un , u1 ) f (un , u2 ) . . . f (un , un ) yn

y denotando por X = (xi ), Y = (yi ) ∈ Mn×1 (IR) y A = (f (ui , uj )) ∈ Mn (IR), escribiremos

f (u, v) = X T AY.

A se dice matriz de la forma bilineal f respecto de BE .

FORMAS CUADRÁTICAS
Sea f una forma bilineal sobre E, se dice que f es simétrica si

∀u, v ∈ E, f (u, v) = f (v, u).

Si f es simétrica, su matriz asociada respecto de cualquier base será simétrica.


Dada una forma bilineal simétrica sobre E, le podemos asociar la siguiente aplicación fc de E
en IK
fc (u) = f (u, u)
que se dice forma cuadrática. La forma bilineal f se dice forma polar de la forma cuadrática fc .
Dada la forma cuadrática, la forma polar asociada queda unı́vocamente determinada por
1
f (u, v) = (fc (u + v) − fc (u) − fc (v)) .
2
Sea BE = (u1 , u2 , . . . , un ) una base de E y sea A la matriz asociada a f en esta base. Para
u = x1 u1 + . . . + xn un ∈ E se tiene que

fc (u) = f (u, u) = X T AX.

33
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

34 Matemáticas II, MECÁNICA

Si ahora se toma una nueva base de E, BE∗ = (u∗1 , u∗2 , . . . , u∗n ), existe una matriz P ∈ Mn (IR),
regular, tal que X = P X ∗ es la ecuación del cambio de base. Entonces,

fc (u) = f (u, u) = X T AX = (P X ∗ )T AP X ∗ = X ∗ T (P T AP )X ∗ ,

ası́, la matriz asociada a fc respecto de la nueva base es

B = P T AP ∈ Mn (IR),

las matrices A, B para las que existe una matriz regular P verificando que B = P T AP se dicen
congruentes. Tomando determinantes resulta |B| = |P |2 |A| y, por ser |P | 6= 0, si |A| = 0 también
será |B| = 0 y si |A| 6= 0 también |B| 6= 0. Cuando el determinante de sus matrices asociadas es 0
la forma cuadrática se dice degenerada y en otro caso se dice ordinaria. Según acabamos de ver,
esto es independiente de la base considerada. Además, por ser P regular, A y B tienen el mismo

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
rango, este valor se dice rango de la forma cuadrática.

DIAGONALIZACIÓN DE FORMAS CUADRÁTICAS


Diagonalizar una forma cuadrática consiste en encontrar una base en la que la matriz asociada
sea diagonal. La expresión asociada cuando la matriz es diagonal será del tipo

fc (u) = λ1 x21 + λ2 x22 + . . . + λn x2n .

Si denotamos por p el número de elementos λi que son positivos y por q el número de ellos que son
negativos, se dice signatura de la forma cuadrática al par (p, q). La forma cuadrática fc se dice

1. definida positiva cuando signaturafc = (n, 0),

2. semidefinida positiva cuando signaturafc = (p, 0) con p < n,

3. definida negativa cuando signaturafc = (0, n),

4. semidefinida negativa cuando signaturafc = (0, q) con q < n,

en cualquier otro caso se dice no definida.


Supongamos que, en cierta base de E, la matriz asociada es la diagonal cuya diagonal principal es

(λ1 , . . . , λp , λp+1 , . . . , λp+q , 0, . . . , 0)

con λ1 , . . . , λp > 0 y λp+1 , . . . , λp+q < 0. Entonces, considerando el cambio de coordenadas

X ∗ = P X,

con P la matriz diagonal cuya diagonal principal es


p p p p
( λ1 , . . . , λp , −λp+1 , . . . , −λp+q , 1, . . . , 1)

resulta que la matriz asociada a la forma cuadrática es la diagonal con diagonal principal

(1, . . . , 1, −1, . . . , −1, 0, . . . , 0)

por lo que, la expresión de la forma cuadrática queda

fc = λ1 x21 + . . . + λp x2p + λp+1 x2p+1 + . . . + λp+q x2p+q = x∗ 21 + . . . + x∗ 2p − x∗ 2p+1 − . . . − x∗ 2p+q


a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

35

esta expresión se dice ecuación reducida.

Diagonalización ortogonal
Toda matriz simétrica sobre IR puede diagonalizarse y sabemos que, si A es diagonalizable, existe
una matriz regular P tal que P −1 AP es diagonal. Nuestro cambio ahora tiene que ser de la forma
P T AP por lo que tendremos el problema resuelto si conseguimos que P sea ortogonal, es decir,
que las columnas de P verifiquen las condiciones (4). En este caso, la matriz diagonal estará
formada por los valores propios de A.
Vamos a ver, con un ejemplo, cómo se pueden obtener matrices, P ortogonal y D diagonal, tales
que P T AP = D. Sea fc la forma cuadrática sobre IR3 cuya matriz asociada respecto de la base
canónica es  
3 1 1
A =  1 3 1 .

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
1 1 3
Se obtienen los valores propios de A y los subespacios fundamentales. El polinomio caracterı́stico
es |A − xI3 | = −x3 + 9x2 
− 24x + 20 = −(x −2)2 (x − 5).
−2 1 1 0 µ ¶
1 1 −2 0
Vλ=5 (A − 5I3 )X = 0  1 −2 1 0  x1 = x2 = x3
0 1 −1 0
 1 1 −2  0
1 1 1 0 ¡ ¢
Vλ=2 (A − 2I3 )X = 0  1 1 1 0  1 1 1 0 x1 = −x2 − x3
1 1 1  0 
5 0 0
Si tomamos la matriz diagonal D =  0 2 0  , el primer vector de la base deberá ser de V5 ,
0 0 2
por tanto de la forma (x, x, x), y sus coordenadas nos proporcionarán la primera columna de P.
Por las condiciones (4) se sabe que deberán cumplir x2 + x2 + x2 = 1 con lo que x2 = 1/3. Si
tomamos, por ejemplo, x = √13 se obtiene
1 1 1
u1 = ( √ , √ , √ )
3 3 3
Los otros dos vectores, serán de V2 , por tanto de la forma (−y − z, y, z). Vamos a fijar el primero
de esos vectores, cuyas coordenadas nos proporcionarán la segunda columna de P. De (4) se sigue
que ¾
(−y − z)2 + y 2 + z 2 = 1
√1 (−y − z) + √1 y + √1 z = 0
3 3 3
y siendo la segunda expresión una identidad, el sistema queda reducido a la condición
2yz + 2y 2 + 2z 2 = 1
1 √1
en la que si tomamos, por ejemplo, y = 0 se obtiene z 2 = 2
y podemos tomar z = 2
con lo que
1 1
u2 = (− √ , 0, √ ).
2 2
Para la tercera columna, el vector de la forma (−y − z, y, z) debe verificar

(−y − z)2 + y 2 + z 2 = 1 
√1 (−y − z) + √1 y + √1 z = 0
3 3 3

− √12 (−y − z) + √12 z = 0
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

36 Matemáticas II, MECÁNICA

de estas condiciones, la segunda es una identidad. Por lo que resulta


¾ ¾
2y 2 + 2z 2 + 2yz = 1 y = −2z 1
z2 =
y + 2z = 0 8z 2 + 2z 2 − 4z 2 = 1 6

ası́, podemos tomar z = √1 con lo que y = −2


√ , x = −y − z = √1 y
6 6 6

1 −2 1
u3 = ( √ , √ , √ ).

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
6 6 6
Ası́,  √ √ √ 
1/√3 −1/ 2 1/√6
P =  1/√3 0√ −2/√6 
1/ 3 1/ 2 1/ 6
y P T AP = D.

Las condiciones dadas en (4) sobre el producto de elementos de dos columnas distintas,
n
X
∀i, j = 1, . . . , n, i 6= j, pki pkj = 0,
k=1

se reducen a una identidad cuando esas columnas corresponden a vectores de distintos subespacios
fundamentales. Ası́ pues, aunque aquı́ las hemos escrito, no es necesario plantearlas. Es decir,
para fijar los vectores de cada subespacio fundamental no es necesario tener en cuenta los vectores
que corresponden a otros subespacios fundamentales. Por el modo en el que hemos resuelto el
problema, queda claro que no hay unicidad, pudiendo elegir el orden de aparición de los elementos
en la diagonal de D ası́ como distintas bases de los subespacios fundamentales, para las columnas
de P .

Diagonalización completando cuadrados


Sea fc la forma cuadrática sobre IR3 cuya matriz asociada respecto de la base canónica es
 
1 1 1
A= 1 2 3 ,
1 3 5

con lo que
fc ((x, y, z)) = x2 + 2xy + 2xz + 2y 2 + 6yz + 5z 2 .
Se trata de escribir esta expresión como sumas o diferencias de cuadrados. Para ello, agruparemos
en un primer cuadrado todos los términos en los que aparece x

x2 + 2xy + 2xz = (x + y + z)2 − y 2 − z 2 − 2yz

con lo que

fc ((x, y, z)) = (x + y + z)2 − y 2 − z 2 − 2yz + 2y 2 + 6yz + 5z 2 = (x + y + z)2 + y 2 + 4yz + 4z 2

procediendo del mismo modo, agrupamos ahora todos los términos en los que aparece y, excep-
tuando el que ya hemos arreglado como un cuadrado,

y 2 + 4yz = (y + 2z)2 − 4z 2
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

37

y ası́,

fc ((x, y, z)) = (x + y + z)2 + (y + 2z)2 − 4z 2 + 4z 2 = (x + y + z)2 + (y + 2z)2

o lo que es lo mismo
fc ((x, y, z)) = (x + y + z)2 + (y + 2z)2 + 0z 2
  ∗    
x∗ = x + y + z  x 1 1 1 x

Entonces, escribiendo y = y + 2z , es decir,  y ∗ 
=  0 1 2   y  resulta que
∗  ∗
z =z z 0 0 1 z

fc ((x, y, z)) = (x∗ )2 + (y ∗ )2

y, en esa base, la matriz asociada es


 

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
1 0 0
B =  0 1 0 .
0 0 0

El cambio de base que se ha hecho es X ∗ = QX y según hemos visto antes necesitamos el cambio
inverso, ası́ calculamos P = Q−1 obteniendo
 
1 −1 1
P = 0 1 −2 
0 0 1

que es la matriz regular tal que P T AP = B. Es obvio que la matriz obtenida ahora no es ortogonal.

Vamos a considerar una forma cuadrática sobre IR3 en cuya expresión no aparece ningún término
de segundo grado. Para ello, la matriz asociada debe tener nulos todos sus elementos diagonales
 
0 1 1
A =  1 0 1 ,
1 1 0

con lo que
fc ((x, y, z)) = 2xy + 2xz + 2yz
para escribir esta expresión como sumas o diferencias de cuadrados, haremos dos cambios de
variable, el primero para introducir cuadrados  en la expresión y el otro similar al realizado en el
x = x̄ + ȳ 
ejemplo anterior. Escribiendo y = x̄ − ȳ resulta fc ((x, y, z)) = 2(x̄ + ȳ)(x̄ − ȳ) + 2(x̄ + ȳ)z̄ +

z = z̄

2(x̄ − ȳ)z̄ = 2x̄ − 2ȳ + 2x̄z̄ + 2ȳz̄ + 2x̄z̄ − 2ȳz̄ = 2x̄2 + 4x̄z̄ − 2ȳ 2 = ( 2x̄ + √22 z̄)2 − 2z̄ 2 − 2ȳ 2
2 2
√ √ 
x̄¯ = √ 2x̄ + 2z̄ 
con lo que escribiendo ȳ¯ = √2ȳ queda

¯
z̄ = 2z̄

fc ((x̄¯, ȳ¯, z̄¯)) = x̄¯2 − ȳ¯2 − z̄¯2


¯ = RX̄ con lo que
Los cambios de variable han sido X = QX̄ y X̄
¯
X = QX̄ = QR−1 X̄
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-207764

38 Matemáticas II, MECÁNICA

con lo que
  √ √ −1   √ √ 
1 1 0 2 √0 2 1 1 0 1/ 2 0√ −1/ 2
P =  1 −1 0   0 2 √0  =  1 −1 0   0 1/ 2 0√  =
0 0 1 0 0 2 0 0 1 0 0 1/ 2
 √ √ √ 
1/√2 1/√2 −1/√2
 1/ 2 −1/ 2 −1/ 2 

0 0 1/ 2
 
1 0 0
y P T AP =  0 −1 0 .
0 0 −1

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.

S-ar putea să vă placă și