Sunteți pe pagina 1din 201

Álgebra matricial

Vicent Estruch Fuster


Valentín Gregori Gregori
Bernardino Roig Sala

EDITORIAL
UNIVERSITAT POLITÈCNICA DE VALÈNCIA
Subido por:

Libros de Ingeniería Química y más

https://www.facebook.com/pages/Interfase-
IQ/146073555478947?ref=bookmarks

Si te gusta este libro y tienes la posibilidad,


cómpralo para apoyar al autor.
9LFHQW(VWUXFK)XVWHU 
9DOHQWtQ*UHJRUL*UHJRUL 
%HUQDUGLQR5RLJ6DOD 










Álgebra matricial

EDITORIAL
UNIVERSITAT POLITÈCNICA DE VALÈNCIA
Colección Académica

/RVFRQWHQLGRVGHHVWDSXEOLFDFLyQKDQVLGRUHYLVDGRVSRUHO'HSDUWDPHQWRGH0DWHPjWLFD
$SOLFDGDGHOD8QLYHUVLWDW3ROLWqFQLFDGH9DOqQFLD

3DUDUHIHUHQFLDUHVWDSXEOLFDFLyQXWLOLFHODVLJXLHQWHFLWD
(VWUXFK)XVWHU9*UHJRUL*UHJRUL95RLJ6DOD% ). Álgebra matricial 9DOHQFLD8QLYHUVLWDW
3ROLWqFQLFDGH9DOqQFLD

3ULPHUDHGLFLyQ YHUVLyQLPSUHVD
3ULPHUDHGLFLyQ YHUVLyQHOHFWUyQLFD

‹9LFHQW(VWUXFK)XVWHU
9DOHQWtQ*UHJRUL*UHJRUL
%HUQDUGLQR5RLJ6DOD

‹(GLWRULDO8QLYHUVLWDW3ROLWqFQLFDGH9DOqQFLD
distribución:ZZZODOLEUHULDXSYHV5HIBBB

,6%1 YHUVLyQLPSUHVD 
,6%1 YHUVLyQHOHFWUyQLFD

/D (GLWRULDO 839 DXWRUL]D OD UHSURGXFFLyQ WUDGXFFLyQ \ GLIXVLyQ SDUFLDO GH OD SUHVHQWH SXEOLFDFLyQ FRQ
ILQHV FLHQWtILFRV HGXFDWLYRV \ GH LQYHVWLJDFLyQ TXH QR VHDQ FRPHUFLDOHV QL GH OXFUR VLHPSUH TXH VH
LGHQWLILTXH\VHUHFRQR]FDGHELGDPHQWHDOD(GLWRULDO839ODSXEOLFDFLyQ\ORVDXWRUHV/DDXWRUL]DFLyQ
SDUDUHSURGXFLUGLIXQGLURWUDGXFLUHOSUHVHQWHHVWXGLRRFRPSLODURFUHDUREUDVGHULYDGDVGHOPLVPRHQ
FXDOTXLHUIRUPDFRQILQHVFRPHUFLDOHVOXFUDWLYRVRVLQiQLPRGHOXFURGHEHUiVROLFLWDUVHSRUHVFULWRDO
FRUUHRHGLFLRQ#HGLWRULDOXSYHV
Presentación

El presente libro contiene la parte de álgebra que los autores han redactado
para la asignatura Álgebra matricial y geometrı́a, del Grado en Tecnologı́as Interac-
tivas, que se imparte en la Escuela Politécnica Superior de Gandia, por primera vez
en el curso 2017-2018.
El libro, como es usual en textos matemáticos, expone los resultados con una
continuada argumentación, pero en este caso sin apenas demostraciones. No obstante,
en letra pequeña se presentan pruebas abreviadas o extensiones de la teorı́a que el
lector puede obviar en una primera lectura.
El libro se ha estructurado en capı́tulos que contienen varias secciones, y en
cada uno de ellos los resultados se ilustran con ejemplos apropiados. Al final de
cada capı́tulo aparece una lista de ejercicios resueltos que podrán poner a prueba la
comprensión y adquisición de conocimientos por parte del lector. Estos ejercicios, en
ocasiones, complementan la teorı́a.
Los capı́tulos que conforman la obra son, en este orden: Teorı́a de conjuntos,
Funciones e interpolación, Sistemas de Numeración, Espacios vectoriales, Matrices,
Aplicaciones lineales, Determinantes, Sistemas de ecuaciones lineales y Diagonaliza-
ción de matrices.
Para la comprensión del texto se requieren conocimientos de álgebra elemental.
Los autores agradecerán cualquier sugerencia tendente a mejorar el presente texto en
ediciones posteriores.

Los autores
NOTACIÓN
En este texto se ha evitado un lenguaje excesivamente simbólico.
No obstante, el lector debe conocer la siguiente terminologı́a básica que se
usa en matemáticas y ciencias tecnológicas:
∀ Cuantificador universal. Se lee “para todo” o “para cada”
∃ Cuantificador existencial. Se lee “existe”
⇐⇒ Equivalencia proposicional. Se lee “si y sólo si”
sii Abreviatura de “si y sólo si”
⇒ Implicación proposicional. La proposición de la izquierda
implica la de la derecha. Se lee “implica”
| Se lee “tal (tales) que”
: Se lee “tal (tales) que”
i.e. En latı́n id est y se lee “es decir”
∈ Sı́mbolo de pertenencia
⊂ Sı́mbolo de inclusión
∪ Sı́mbolo de unión
∩ Sı́mbolo de intersección
N Conjunto de los números naturales (incluye al cero)
N∗ El conjunto N sin el cero
Z El anillo de los números enteros
Q El cuerpo de los números racionales
R El cuerpo de los números reales
C El cuerpo de los números complejos
Índice

1 TEORÍA DE CONJUNTOS 13
1.1 EL ÁLGEBRA DE BOOLE DE LA TEORÍA DE CONJUNTOS . . . . . . . 13
1.1.1 Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.3 Representaciones gráficas . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.4 Unión, intersección y complementación de conjuntos . . . . . . . . . . 15
1.1.5 Conjunto complementario y diferencia de conjuntos . . . . . . . . . . . 16
1.1.6 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.1.7 El álgebra de Boole de la teorı́a de conjuntos . . . . . . . . . . . . . . 17
1.2 CARDINALIDAD DE CONJUNTOS . . . . . . . . . . . . . . . . . . . . . . 17
1.2.1 Partición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.2 Cardinal de un conjunto . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.3 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.2.4 Producto cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.2.5 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.6 Variaciones con repetición . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.7 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3 COMBINATORIA ELEMENTAL . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.1 Variaciones ordinarias . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.2 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.3 Permutaciones ordinarias . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.4 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.5 Combinaciones ordinarias. Números combinatorios . . . . . . . . . . . 21
1.3.6 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4 UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.5 EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2 FUNCIONES E INTERPOLACIÓN 27
2.1 APLICACIONES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.1 Aplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
6 Índice

2.1.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.1.3 Clases de aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.1.4 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.1.5 Composición de aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1.6 La aplicación identidad I . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1.7 Correspondencia inversa . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.1.8 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.1.9 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.1.10 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.1.11 Caracterización de la aplicación inversa . . . . . . . . . . . . . . . . . 31
2.2 FUNCIONES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.1 Función . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.2 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.3 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.4 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.5 Dominio o campo de existencia de una función . . . . . . . . . . . . . 32
2.2.6 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.7 Función inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.8 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.9 Composición n-ésima de funciones . . . . . . . . . . . . . . . . . . . . 34
2.3 REPRESENTACIÓN DE FUNCIONES . . . . . . . . . . . . . . . . . . . . . 34
2.3.1 Gráfica de funciones continuas . . . . . . . . . . . . . . . . . . . . . . 34
2.3.2 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3.3 Función definida a trozos . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3.4 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3.5 Funciones discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3.6 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.4 INTERPOLACIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4.1 Discretización e interpolación . . . . . . . . . . . . . . . . . . . . . . . 37
2.4.2 Interpolación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4.3 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.4.4 Interpolación polinómica . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.4.5 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.5 REGRESIÓN Y CORRELACIÓN . . . . . . . . . . . . . . . . . . . . . . . . 39
2.5.1 Nube de puntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.5.2 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.5.3 Lı́neas de regresión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.5.4 Recta de regresión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.5.5 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5.6 Cálculo de las rectas de regresión con conceptos estadı́sticos . . . . . . 43
2.5.7 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Índice 7

2.5.8 El coeficiente de correlación lineal . . . . . . . . . . . . . . . . . . . . 45


2.5.9 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.5.10 Regresión parabólica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.5.11 Regresión exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.6 UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.7 EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

3 SISTEMAS DE NUMERACIÓN 57
3.1 SISTEMA DE NUMERACIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.1.1 Teorema fundamental de la numeración . . . . . . . . . . . . . . . . . 58
3.1.2 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.1.3 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.1.4 Algoritmo para escribir un número en base b . . . . . . . . . . . . . . 59
3.1.5 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.1.6 Aritmética con números en base b . . . . . . . . . . . . . . . . . . . . 59
3.1.7 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.1.8 Regla del producto por la unidad seguida de ceros . . . . . . . . . . . 60
3.1.9 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.1.10 Expresión de números racionales en base b . . . . . . . . . . . . . . . . 60
3.1.11 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.1.12 Productos con el factor bk en el sistema base b . . . . . . . . . . . . . 61
3.1.13 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2 SISTEMAS DE NUMERACIÓN USADOS EN COMPUTACIÓN . . . . . . . 61
3.2.1 El sistema binario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2.2 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.2.3 Escritura de un decimal en el sistema binario con k cifras exactas . . . 62
3.2.4 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.2.5 Escritura de un decimal en sistema binario . . . . . . . . . . . . . . . 63
3.2.6 Los sistemas octal y hexadecimal . . . . . . . . . . . . . . . . . . . . . 64
3.2.7 Conversión de un número binario a los sistemas octal o hexadecimal . 64
3.2.8 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.3 UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.4 EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

4 ESPACIOS VECTORIALES 71
4.1 ESPACIOS VECTORIALES . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.1.1 El espacio vectorial Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.1.2 Representaciones geométricas . . . . . . . . . . . . . . . . . . . . . . . 72
4.1.3 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.1.4 Subespacios de R2 y R3 . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.1.5 Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
8 Índice

4.1.6 Rectas vectoriales en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . 74


4.1.7 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.1.8 Interpretaciones geométricas . . . . . . . . . . . . . . . . . . . . . . . 75
4.1.9 Dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.1.10 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.1.11 Consecuencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.2 BASE DE UN ESPACIO VECTORIAL . . . . . . . . . . . . . . . . . . . . . 77
4.2.1 Base de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . 77
4.2.2 Teorema de la dimensión . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.2.3 Bases canónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.2.4 Teorema de la base incompleta . . . . . . . . . . . . . . . . . . . . . . 78
4.3 PROCESO DE REDUCCIÓN DE GAUSS . . . . . . . . . . . . . . . . . . . . 78
4.3.1 Lema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.3.2 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.3.3 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.3.4 Proceso de reducción de Gauss . . . . . . . . . . . . . . . . . . . . . . 80
4.3.5 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.3.6 Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.3.7 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.3.8 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.4 UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.5 EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

5 MATRICES 87
5.1 EL ESPACIO VECTORIAL DE LAS MATRICES . . . . . . . . . . . . . . . 87
5.1.1 Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.1.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.1.3 El grupo abeliano (Mm×n , +) . . . . . . . . . . . . . . . . . . . . . . . 88
5.1.4 El espacio vectorial Mm×n . . . . . . . . . . . . . . . . . . . . . . . . 89
5.1.5 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.1.6 Base de Mm×n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.1.7 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.2 EL ANILLO DE LAS MATRICES CUADRADAS . . . . . . . . . . . . . . . 90
5.2.1 El producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.2.2 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.2.3 El anillo de las matrices cuadradas (Mn , +, ·) . . . . . . . . . . . . . . 91
5.3 TIPOS ESPECIALES DE MATRICES . . . . . . . . . . . . . . . . . . . . . . 91
5.3.1 Matriz inversible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.3.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.3.3 Matrices triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.3.4 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Índice 9

5.3.5 Traspuesta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . 93


5.3.6 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.3.7 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.3.8 Propiedades de la matriz traspuesta . . . . . . . . . . . . . . . . . . . 94
5.3.9 Otros tipos de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.4 RANGO DE UNA MATRIZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.4.1 Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.4.2 Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.4.3 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.5 MATRICES ELEMENTALES . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.5.1 Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.5.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.5.3 Cálculo de la inversa de una matriz mediante matrices elementales . . 96
5.5.4 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.5.5 Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.5.6 Inversas de matrices triangulares . . . . . . . . . . . . . . . . . . . . . 97
5.5.7 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.5.8 Descomposición LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.5.9 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.5.10 Matrices escalonadas. Descomposición LS . . . . . . . . . . . . . . . 98
5.5.11 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.6 MATRICES POR BLOQUES . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.6.1 Matrices por bloques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.6.2 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.7 UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5.8 EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

6 APLICACIONES LINEALES 109


6.1 APLICACIONES LINEALES . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.1.1 Aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.1.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.1.3 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.1.4 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.1.5 Núcleo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.1.6 Teorema (caracterización de aplicaciones inyectivas) . . . . . . . . . . 111
6.1.7 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.1.8 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.1.9 Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.1.10 Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.1.11 Teorema de la dimensión (de aplicaciones lineales) . . . . . . . . . . . 112
6.1.12 Corolario (idoneidad de las aplicaciones lineales) . . . . . . . . . . . . 112
10 Índice

6.2 MATRICES Y APLICACIONES LINEALES . . . . . . . . . . . . . . . . . . 112


6.2.1 Matriz asociada a una aplicación lineal . . . . . . . . . . . . . . . . . . 112
6.2.2 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.2.3 Rango de una aplicación lineal . . . . . . . . . . . . . . . . . . . . . . 114
6.2.4 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.2.5 Matriz de la aplicación identidad I . . . . . . . . . . . . . . . . . . . . 116
6.2.6 Isomorfismo entre aplicaciones lineales y matrices . . . . . . . . . . . . 116
6.2.7 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.2.8 Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.3 APLICACIONES LINEALES Y MATRICES INVERSIBLES . . . . . . . . . 117
6.3.1 Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.3.2 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.3.3 Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.3.4 Composición de aplicaciones lineales . . . . . . . . . . . . . . . . . . . 118
6.3.5 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.3.6 Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.3.7 Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.3.8 Corolario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.4 CAMBIOS DE BASE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.4.1 Expresión matricial del cambio de base en un espacio vectorial . . . . 119
6.4.2 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.4.3 Matrices asociadas a una aplicación lineal . . . . . . . . . . . . . . . . 121
6.4.4 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
6.5 UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.6 EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

7 DETERMINANTES 129
7.1 DETERMINANTE DE ORDEN n . . . . . . . . . . . . . . . . . . . . . . . . 129
7.1.1 Signatura de una permutación . . . . . . . . . . . . . . . . . . . . . . 129
7.1.2 Determinante de orden n . . . . . . . . . . . . . . . . . . . . . . . . . 130
7.1.3 Determinante de orden 3 y de orden 2 . . . . . . . . . . . . . . . . . . 131
7.1.4 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.1.5 Propiedades de los determinantes de orden n . . . . . . . . . . . . . . 132
7.1.6 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
7.2 DESARROLLO DE UN DETERMINANTE . . . . . . . . . . . . . . . . . . . 134
7.2.1 Menor complementario y adjunto . . . . . . . . . . . . . . . . . . . . . 134
7.2.2 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
7.2.3 Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
7.2.4 Proposición (desarrollo de un determinante) . . . . . . . . . . . . . . . 135
7.2.5 Proposición (determinante de una matriz triangular) . . . . . . . . . . 136
7.2.6 Cálculo práctico de determinantes . . . . . . . . . . . . . . . . . . . . 136
Índice 11

7.2.7 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136


7.3 MATRIZ INVERSIBLE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7.3.1 Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7.3.2 Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7.3.3 Corolario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
7.3.4 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
7.3.5 Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
7.3.6 Cálculo de la matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . 138
7.3.7 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
7.3.8 Aplicación al cálculo del rango de una matriz . . . . . . . . . . . . . . 139
7.3.9 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
7.4 UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
7.5 EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

8 SISTEMAS DE ECUACIONES LINEALES 147


8.1 SISTEMAS DE ECUACIONES LINEALES . . . . . . . . . . . . . . . . . . . 147
8.1.1 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . 147
8.1.2 Solución de un sistema de ecuaciones lineales . . . . . . . . . . . . . . 148
8.1.3 Matriz ampliada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
8.1.4 Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
8.1.5 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
8.1.6 Clasificación de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . 150
8.1.7 Teorema de Rouché-Fröbenius . . . . . . . . . . . . . . . . . . . . . . 150
8.1.8 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
8.2 RESOLUCIÓN DE SISTEMAS DE ECUACIONES LINEALES . . . . . . . 153
8.2.1 Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
8.2.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
8.2.3 Método de reducción de Gauss . . . . . . . . . . . . . . . . . . . . . . 155
8.2.4 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
8.2.5 Sistema homogéneo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
8.2.6 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
8.2.7 Resolución de un sistema de Cramer por descomposición LU . . . . . 158
8.2.8 Resolución de un sistema por descomposción LS . . . . . . . . . . . . 158
8.2.9 Interpolación polinómica . . . . . . . . . . . . . . . . . . . . . . . . . . 159
8.2.10 Sistemas sobredeterminados . . . . . . . . . . . . . . . . . . . . . . . . 160
8.3 ECUACIONES DE LOS SUBESPACIOS DE Rn . . . . . . . . . . . . . . . . . 161
8.3.1 Ecuaciones vectorial y paramétricas de un subespacio vectorial . . . . 161
8.3.2 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
8.3.3 Ecuaciones de un subespacio vectorial (Eliminación de parámetros) . . 162
8.3.4 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
8.4 RESOLUCIÓN NUMÉRICA DE SISTEMAS DE ECUACIONES LINEALES 164
12 Índice

8.4.1 Aproximaciones sucesivas . . . . . . . . . . . . . . . . . . . . . . . . . 164


8.4.2 Métodos iterativos. Convergencia . . . . . . . . . . . . . . . . . . . . . 164
8.4.3 Método de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
8.4.4 Método de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . 166
8.4.5 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
8.5 UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
8.6 EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

9 DIAGONALIZACIÓN DE MATRICES 179


9.1 SUBESPACIOS PROPIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
9.1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
9.1.2 Vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
9.1.3 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
9.1.4 Subespacio propio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
9.1.5 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
9.1.6 El polinomio caracterı́stico . . . . . . . . . . . . . . . . . . . . . . . . 180
9.1.7 Unicidad del polinomio caracterı́stico . . . . . . . . . . . . . . . . . . . 181
9.1.8 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
9.2 DIAGONALIZACIÓN DE MATRICES . . . . . . . . . . . . . . . . . . . . . 182
9.2.1 Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
9.2.2 Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
9.2.3 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
9.2.4 Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
9.2.5 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
9.2.6 Teorema (caracterización de los endomorfismos diagonalizables) . . . . 184
9.2.7 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
9.2.8 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
9.2.9 Matriz de paso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
9.2.10 Potencia de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 184
9.2.11 Matrices simétricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
9.2.12 Nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
9.3 UN POCO DE HISTORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
9.4 EJERCICIOS RESUELTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
BIBLIOGRAFÍA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
ÍNDICE DE TÉRMINOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
13

Capı́tulo 1

TEORÍA DE CONJUNTOS

En este capı́tulo se ofrece una (ingenua) introducción a la teorı́a de


conjuntos que es suficiente para establecer y estudiar los conceptos que se
definen a lo largo del texto.

1.1 EL ÁLGEBRA DE BOOLE DE LA TEORÍA


DE CONJUNTOS
1.1.1 Conjuntos
Un conjunto es una colección de elementos. Los conjuntos suelen de-
notarse con letras mayúsculas. Cuando se explicitan sus elementos, éstos, sin
repetirse, se encierran entre llaves separados por comas. En ciertos contex-
tos se utilizan los términos sistema, colección y familia como sinónimos
de conjunto. Ası́ se habla de “familia de conjuntos” en vez de “conjunto de
conjuntos” y sistema de vectores en vez de conjunto de vectores.
Designaremos por N, Z, Q, R y C a los conjuntos de los números natu-
rales, enteros, racionales, reales y complejos, respectivamente. Por ejemplo:

N = {0, 1, 2, . . . } y Z = {. . . , −2, −1, 0, 1, 2, . . . }.

Un conjunto unitario es aquél que posee un único elemento. Esta


terminologı́a se extiende a conjuntos de dos o más elementos, de manera
obvia. Para expresar que un elemento a pertenece a un conjunto S (o que
está en S) se escribe a ∈ S. Si a no está en S se escribe a
∈ S. Para expresar
que un conjunto A está contenido (o incluido) en otro B (i.e., todo elemento
de A está en B) se escribe A ⊂ B (o B ⊃ A), en tal caso se dice que A es un
subconjunto de B. Si A no está incluido en B se escribe A
⊂ B.
14 1. TEORÍA DE CONJUNTOS

Se designa por ∅ al conjunto, denominado vacı́o, que no posee elemen-


tos. Todo subconjunto no vacı́o S posee dos subconjuntos impropios: ∅ y S.
Los demás subconjuntos de S se llaman propios.
Dos conjuntos A y B son iguales, y se escribe A = B, cuando poseen
los mismos elementos, lo cual sucede sii A ⊂ B y B ⊂ A.
Un conjunto también se describe a través de una expresión caracteri-
zadora de sus elementos dentro de un contexto (conjunto referencial). Ası́, el
conjunto {0, 1, 2, 3, 4} también se puede escribir de las dos formas siguientes:

{x ∈ N : x < 5} o {x ∈ Z : 0 ≤ x ≤ 4}.

1.1.2 Ejemplos

(a) El conjunto V de las vocales es V = {a, e, i, o, u} (o también


V = {e, i, a, o, u} pues el orden de aparición de los elementos es irre-
levante).
Se tiene que {a, e, o} ⊂ V pero {a, m}
⊂ V pues m ∈
/ V.

(b) −2 ∈ Z pero −2
∈ N.

(c) Se tienen las inclusiones numéricas N ⊂ Z, Z ⊂ Q, Q ⊂ R y R ⊂ C. Sin


embargo las inclusiones contrarias no se verifican.

(d) El conjunto binario {−1, 1} se puede escribir {x ∈ Z : 1 ≤ x2 ≤ 2}.

(e) Se tiene que


{x ∈ R : x2 = −1} = ∅.
Obsérvese que el conjunto ∅ viene determinado por una condición im-
posible de cumplir.

(f) El conjunto {0, 2, 4, . . . } que contiene el 0 y los pares es el conjunto {2n :


n ∈ N} por lo que habitualmente se representa por 2N. Análogamente
si p ∈ N y es mayor que 0, pN representa los naturales múltiples de p,
que también suelen denotarse ṗ.

1.1.3 Representaciones gráficas


En ocasiones los conjuntos se describen (definen) mediante gráficos. Ası́,
un diagrama de Venn es una representación gráfica plana de un conjunto,
en la que sus elementos quedan encerrados por una lı́nea, como se muestra en
la figura siguiente en la que se representa el conjunto de vocales.
1.1. EL ÁLGEBRA DE BOOLE DE LA TEORÍA DE CONJUNTOS 15

En un diagrama lineal los elementos del conjunto son los que resaltan
sobre el segmento o la recta donde se representan. Este tipo de representación
es interesante cuando se desea entrever un orden entre los elementos. En la
figura inferior se representa en R el conjunto I que es el intervalo [1, 2[.

0 1 2 3

El gráfico siguiente muestra que A ⊂ B.

A B

1.1.4 Unión, intersección y complementación de conjuntos


Sean A y B dos conjuntos. Se define la unión de los conjuntos A y B,
y se denota A ∪ B (se lee A unión B), como el conjunto

A ∪ B = {x : x ∈ A ó x ∈ B}.

A ∪ B es el conjunto rayado.

De esta manera , A∪B contiene los elementos de A o de B (recordar que


la “o” lógica no es excluyente). Este concepto se extiende de forma natural
a una familia cualquiera de conjuntos de manera que la unión de éstos está
formada por los elementos que pertenecen a alguno de los conjuntos de la
familia.
Se define la intersección de los conjuntos A y B, que se denota A ∩ B
(se lee A intersección B), como el conjunto

A ∩ B = {x : x ∈ A y x ∈ B}.

A ∩ B es el conjunto rayado.
16 1. TEORÍA DE CONJUNTOS

De esta manera, A ∩ B contiene los elementos comunes a A y a B. Si


A y B no tienen elementos comunes se dice que son disjuntos. Al igual que
antes este concepto se generaliza a una familia cualquiera de conjuntos.
De las definiciones se desprenden las siguientes propiedades inmediatas:
A ⊂ A ∪ B,
A ∩ B ⊂ A,
A ⊂B ⇔A∪B = B ⇔A∩B = A

1.1.5 Conjunto complementario y diferencia de conjuntos


Si A y B son conjuntos dentro de un referencial E, se define el comple-
mentario de A (respecto E), y se denota por Ac (se lee A complementario),
como el conjunto formado por los elementos de E que no están en A. De
manera más general se define el conjunto B − A (diferencia de B y A), como
el conjunto de los elementos de B que no están en A. Al hablar de Ac se
omite la alusión a E si está implı́cito en el contexto. Es fácil observar que
B − A = B ∩ Ac . En la siguiente figura B − A es el conjunto rayado.

E A B Ac E
A A
c

B-A

Se define la diferencia simétrica de dos conjuntos A y B, y se denota AB como


AB = (A ∪ B) − (A ∩ B). Este concepto se corresponde con la interpretación de la “o”
exclusiva, en lógica. Es obvio que AB = (A − B) ∪ (B − A).

AB es la zona sombreada.

Las siguientes propiedades son inmediatas:

E c = ∅, Ac = B c ⇔ A = B, (Ac )c = A,
∅c = E, A ⊂ B ⇔ B c ⊂ Ac .

1.1.6 Ejemplo
Sea el referencial E = {1, 2, 3, 4, 5, 6}. Sean los conjuntos A = {1, 2, 3},
B = {3, 4, 5} (ver gráfico adjunto).
Entonces: A ∪ B = {1, 2, 3, 4, 5}, A ∩ B = {3}, Ac = {4, 5, 6},
B = {1, 2, 6}, B − A = {4, 5} (= B ∩ Ac ), A − B = {1, 2} (= A ∩ B c ).
c
1.2. CARDINALIDAD DE CONJUNTOS 17

1.1.7 El álgebra de Boole de la teorı́a de conjuntos


Supongamos que los siguientes conjuntos están definidos en un referencial E.
Se verifican las siguientes propiedades (de carácter dual):

Asociativas:
(A ∪ B) ∪ C = A ∪ (B ∪ C), (A ∩ B) ∩ C = A ∩ (B ∩ C).
Conmutativas:
A ∪ B = B ∪ A, A ∩ B = B ∩ A.
Distributivas
(A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C), (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C).
Existencia de neutros:
A ∪ ∅ = A, A ∩ E = A.
Existencia de complementario:
A ∪ Ac = E, A ∩ Ac = ∅.

Por cumplirse las anteriores propiedades, los conjuntos con las leyes de
la unión, intersección y complementación constituyen un álgebra de Boole.
En un álgebra de Boole se verifican las leyes de De Morgan o del
complementario:
(A ∪ B)c = Ac ∩ B c , (A ∩ B)c = Ac ∪ B c .

Puesto que la unión de conjuntos verifica la asociatividad, el uso de


paréntesis es innecesario cuando aparece sólo esta operación. Esto mismo
ocurre con la intersección.

1.2 CARDINALIDAD DE CONJUNTOS


1.2.1 Partición
Una familia de conjuntos A1 , A2 , . . . , An constituyen una partición
del conjunto E si dos a dos son disjuntos y, además, A1 ∪ A2 ∪ · · · ∪ An = E.

1.2.2 Cardinal de un conjunto


Se denomina cardinal del conjunto finito A, y se escribe Cd A, el
número de elementos que contiene A.
18 1. TEORÍA DE CONJUNTOS

Para conjuntos A y B finitos se verifica que

Cd (A ∪ B) = Cd A + Cd B − Cd (A ∩ B) .

Por tanto, Cd (A ∪ B) = Cd A + Cd B si y sólo si A y B son disjuntos. En


particular, si A1 , A2 , . . . , An son una partición de E, entonces

Cd E = Cd A1 + Cd A2 + · · · + Cd An .

Si B ⊂ A, entonces, Cd (A − B) = Cd A − Cd B.

1.2.3 Ejemplo
Sean los conjuntos A = {a, b, c, d}, B = {c, d, e, f, g}, C = {f, g}. Se
tiene que Cd A = 4, Cd B = 5, Cd C = 2.
Con la ayuda de los diagramas de Venn adjuntos se puede deducir que
Cd(A∩B) = 2, Cd(A∪B) = 7 (= Cd A+ Cd B− Cd(A∩B)), Cd(B−A) = 3,
Cd(A − B) = 2.

Como A y C son disjuntos se tiene Cd(A ∪ C) = 4 + 2 = 6.


Como C ⊂ B, se tiene que Cd(B − C) = 5 − 2 = 3.

1.2.4 Producto cartesiano


Sean A y B conjuntos no vacı́os y sean a ∈ A y b ∈ B. El elemento
(a, b) se llama par ordenado y diremos que (a, b) = (c, d) sii a = c y b = d.
Se define el producto cartesiano de A por B, y se escribe A×B, como el
conjunto
A×B = {(a, b) : a ∈ A, b ∈ B}.

Si A y B son finitos es fácil observar que Cd(A × B) = Cd A · Cd B.


Si A1 , A2 , . . . , An son n conjuntos no vacı́os se define el producto carte-
siano A1 × A2 × · · · × An como A1 × A2 × · · · × An = {(a1 , a2 , . . . , an ) :
a1 ∈ A1 , a2 ∈ A2 , . . . , an ∈ An }
Para tres y cuatro conjuntos, los elementos del producto cartesiano se
denominan ternas y cuaternas, respectivamente. Si A1 , A2 , . . . , An son finitos,
entonces

Cd (A1 × A2 × . . . × An ) = Cd A1 · Cd A2 · . . . · Cd An
1.2. CARDINALIDAD DE CONJUNTOS 19

Se suele denotar An el producto A × A × · · · × A, n veces. En particular,


R2 y R3 denotan el plano y el espacio (cartesianos), respectivamente. La
representación geométrica más usual de A × B suele ser la cartesiana.

1.2.5 Ejemplos

(a) Sean A = {a, b, c} y B = {1, 2}. Entonces

A×B = {(a, 1), (a, 2), (b, 1), (b, 2), (c, 1), (c, 2)}

El producto A×B se puede representar gráficamente 2 · · ·


mediante un diagrama cartesiano en donde se ob- 1 · · ·
serva que A × B tiene 6 elementos. a b c

(b) Si A = [3, 5[ y B = [1, 2] son intervalos de R entonces A × B viene


representado en R2 por el rectángulo 2

[3, 5[×[1, 2] sombreado de la figura adjunta 1


que no incluye el lado de la derecha.
1 2 3 4 5

(c) El conjunto ]−∞, 0]×[0, +∞[ es el segundo cuadrante de R2 incluyendo


los semiejes, que también podemos escribir {x, y) : x ≤
0, y ≥ 0} o bien {(x, y) : x ≤ 0} ∩ {(x, y) : y ≥ 0}, y
que se representa, en parte, gráficamente en la figura
adjunta.

1.2.6 Variaciones con repetición


Sea A un conjunto finito con m elementos. Variaciones con repe-
tición de m elementos de orden n es el cardinal del conjunto formado por
todas las agrupaciones de n elementos de entre los m elementos de A, y se
denota RVmn . Obviamente, estas agrupaciones son los elementos de An , y por
la sección 1.2.4 se tiene
RVmn = mn .
La representación gráfica más usual de An es el diagrama de árbol.

1.2.7 Ejemplo
(a) Vamos a representar mediante un diagrama de árbol el conjunto A3
donde A = {a, b}.
Cada rama representa una terna de A3 .
20 1. TEORÍA DE CONJUNTOS

Viendo el diagrama, éstas son (de arriba a abajo): aaa, aab, aba, abb,
baa, bab, bba y bbb. Obsérvese que el número de ramas es RV23 = 23 = 8.

(b ) El número de bytes (de 8 bits) que se pueden hacer con los dı́gitos
{0, 1} son RV28 = 28 (el lector puede corroborarlo con el correspondiente
diagrama de árbol).

1.3 COMBINATORIA ELEMENTAL


1.3.1 Variaciones ordinarias
Se denominan variaciones ordinarias de m elementos de orden n, y
se escribe Vmn , al número de agrupaciones ordenadas de n elementos, que no se
repiten, que pueden realizarse con los m elementos de un conjunto. Se tiene
Vmn = m · (m − 1) · · · (m − n + 1) .

Obsérvese que hay n factores decrecientes. En efecto, la primera posición de una


agrupación cuenta con m elementos posibles. La segunda con m − 1,. . . y la n-ésima con
m − n + 1.

1.3.2 Ejemplo
La cantidad de números de tres cifras, sin repetir, que pueden hacerse
con las cifras 1, 2, 3, 4 y 5 son V54 = 5 · 4 · 3 = 60.

1.3.3 Permutaciones ordinarias


Se denomina permutación de un conjunto, con n elementos, a cada
una de las expresiones ordenadas de los elementos del conjunto. El número
de estas permutaciones se escribe Pn . Por la sección 1.3.1 se tiene
Pn = Vnn = n · (n − 1) · · · 2 · 1 = n!

La expresión n! se lee factorial de n. Se conviene que 0! = 1.


1.4. UN POCO DE HISTORIA 21

1.3.4 Ejemplo
Veamos cuántas permutaciones pueden hacerse utilizando el conjunto
A = {a, b, c}. Como Cd A = 3, entonces P3 = 3 · 2 · 1 = 6 (éstas son: abc, acb,
bac, bca, cab, cba).

1.3.5 Combinaciones ordinarias. Números combinatorios


Como consecuencia de las secciones 1.3.1 y 1.3.3, el número de subcon-
juntos de n elementos que se pueden hallar en un conjunto de m elementos,
denominado combinación de m elementos de orden n, es

n Vmn m · (m − 1) · · · (m − n + 1)
Cm = =
Pn n!
Es fácil obtener que Ç å
n m m!
Cm = =
n n! · (m − n)!
m
La expresión n se conoce como número combinatorio, y se lee m
sobre n.
m m m m

Se verifica que: 0
= m
= 1, y n
= m−n
.
En esencia, las variaciones difieren de las combinaciones en que en estas
últimas el orden es irrelevante.

1.3.6 Ejemplo
Veamos el número de subconjuntos con 3 cifras que pueden hacerse
con el conjunto A = {1, 2, 3, 4, 5}. Como Cd A = 5, entonces este número es
5!
C53 = = 10 (estos subconjntos son: {1, 2, 3}, {1, 2, 4}, {1, 2, 5}, {1, 3, 4},
3! · 2!
{1, 3, 5}, {1, 4, 5}, {2, 3, 4}, {2, 3, 5}, {2, 4, 5} y {3, 4, 5}).

1.4 UN POCO DE HISTORIA


Sin duda, el padre de la moderna teorı́a de conjuntos fue el matemático alemán
nacido en San Petersburgo Georg Cantor (1845-1918). La teorı́a de conjuntos de Cantor
se basa en considerar que un conjunto es, simplemente, una colección de objetos. Dicha
teorı́a cobra interés al plantear problemas de cardinalidad sobre conjuntos infinitos. En
el caso finito, es evidente que si se tienen dos conjuntos, A y B de forma que A ⊂ B
(estrictamente), entonces Cd A < Cd B. Pero, por ejemplo, si A es el conjunto de números
enteros pares positivos, A = {2, 4, 6, . . . } y B el conjunto de números enteros positivos,
22 1. TEORÍA DE CONJUNTOS

B = {1, 2, 3, . . . }, se tiene que A ⊂ B. Pero en este caso tanto Cd A como Cd B son


infinitos. Cabrı́a pensar que dichos infinitos tienen diferente nivel de magnitud ya que el
conjunto A sólo es una parte de B. Pero el caso es que se pueden emparejar todos los
elementos de B con los de A de forma que el 1 es emparejado con el 2, el 2 es emparejado
con el 4, el 3 con el 6,. . . y ası́ sucesivamente. Este hecho indicarı́a que Cd A = Cd B
es decir que hay tantos enteros positivos como enteros positivos pares; simplemente habrı́a
infinitos elementos en ambos conjuntos. Lo que se acaba de describir es el proceso usual de
contar (emparejar) que utilizó Cantor para demostrar que el cardinal de todos los enteros
positivos es también igual al cardinal de todos los enteros, que a su vez es igual al cardinal
de todos los números racionales. En tiempos anteriores a Cantor se suponı́a que todos los
conjuntos de cardinal infinito tenı́an el mismo tamaño, es decir infinito. Cantor demostró
que eso no es ası́. Por ejemplo el conjunto de números reales del intervalo ]0, 1[ no se puede
poner en correspondencia uno a uno (emparejar) con el conjunto de los números enteros
positivos. De hecho, en ]0, 1[ hay una cantidad infinita de números que no se pueden poner
en relación uno a uno con los enteros positivos, lo cual indicarı́a que el cardinal de ]0, 1[
serı́a un infinito mayor que el infinito correspondiente al cardinal de los números enteros
positivos. Cantor llegó aún más lejos, demostró que hay infinitos niveles de infinitos.

1.5 EJERCICIOS RESUELTOS


R1.1 En el referencial E = {1, 2, 3, 4, 5, 6} se consideran los conjuntos A = {1, 2, 3},
B = {2, 3, 4}, C = {3, 4, 5}. Hállese:
(i) A ∪ B ∪ C (ii) A ∩ B ∩ C (iii) Ac , B c y C c .
Verifı́quese además que se cumple (generalización de las leyes de Morgan):
c c
(iv) (A ∪ B ∪ C) = Ac ∩ B c ∩ C c (v) (A ∩ B ∩ C) = Ac ∪ B c ∪ C c
Solución:

(i) A ∪ B ∪ C = {1, 2, 3} ∪ {2, 3, 4} ∪ {3, 4, 5} = {1, 2, 3, 4, 5}


(ii) A ∩ B ∩ C = {1, 2, 3} ∩ {2, 3, 4} ∩ {3, 4, 5} = {3}
(iii) Ac = {4, 5, 6}, B c = {1, 5, 6} y C c = {1, 2, 6}
(iv) De (i) se deduce que (A ∪ B ∪ C)c = {6}. Por otra parte, de (iii) se deduce
que
Ac ∩ B c ∩ C c = {4, 5, 6} ∩ {1, 5, 6} ∩ {1, 2, 6} = {6}.

(v) De (ii) se deduce que (A ∩ B ∩ C)c = {1, 2, 4, 5, 6}. Por otra parte, de (iii) se
deduce que

Ac ∪ B c ∪ C c = {4, 5, 6} ∪ {1, 5, 6} ∪ {1, 2, 6} = {1, 2, 4, 5, 6}.

R1.2 Sean los conjuntos A y B de R siguientes: A = {x : x ≥ 2}, B{ x : |x| < 5}.


(i) Represéntese A y B sobre R y escrı́base en forma de intervalo.
Hállense, además:
(ii) A ∩ B (iii) A ∪ B (iv) Ac (v) B − A
1.5. EJERCICIOS RESUELTOS 23

Solución:
(i) De los gráficos se infiere que A = [2, +∞[ y B =] − 5, 5[, y también los siguientes
apartados.

(ii) A ∩ B = {x : 2 ≤ x < 5} = [2, 5[


(iii) A ∪ B = {x : −5 < x} =] − 5, +∞[
(iv) Ac = {x : x < 2} =] − ∞, 2[
(v) B − A = B ∩ Ac = [−5, 2[

R1.3 (i) Demostrar la Ley de Morgan (A ∪ B)c = Ac ∩ B c .


(ii) Simplificar la expresión (A ∪ B c )c ∩ B c .
Solución:

(i) (A ∪ B)c = {x : x ∈ A ∪ B} = {x : x ∈ A, x ∈ B} = {x : x ∈ Ac , x ∈
B c } = {x : x ∈ Ac ∩ B c } = Ac ∩ B c
(ii) Aplicando la ley de Morgan y, después, la asociatividad, se tiene:

(A∪B c )c ∩B c = (Ac ∩(B c )c )∩B c = (Ac ∩B)∩B c = Ac ∩(B ∩B c ) = Ac ∩∅ = ∅

R1.4 (i) Explicı́tense los elementos de los conjuntos A = {x ∈ N : x2 − 1 ≤ 8},


B = {x ∈ Z : 2x2 ≤ 8}.
(ii) Determı́nese (el intervalo de la recta)

C = {x ∈ R : −2x ≤ −5, x2 < 100}.

(iii) Hállese A ∩ C y B ∩ C.
Solución:

(i) Resulta inmediato que

A = {x ∈ N : x2 ≤ 9} = {0, 1, 2, 3}
B = {x ∈ Z : x2 ≤ 4} = {−2, −1, 0, 1, 2}

(ii) C viene dado por 2 condiciones que han de cumplirse simultáneamente:


ß
−2x ≤ −5
x2 < 100

La primera condición, −2x ≤ −5, equivale a x ≥ 52 , que da lugar al intervalo


[ 52 , +∞[. La segunda condición equivale a |x| < 10, que da lugar al intervalo
] − 10, 10[. Por tanto, C = [ 52 , +∞[ ∩ ] − 10, 10[= [ 52 , 10[ .
(iii)
5
A∩C = {0, 1, 2, 3} ∩ [{ , 10[= {3}
2
5
B∩C = {−2, −1, 0, 1, 2} ∩ [ , 10[= ∅
2
24 1. TEORÍA DE CONJUNTOS

R1.5 Represéntese gráficamente A ∩ B, siendo A = {(x, y) ∈ R2 : y ≥ x2 } y


B = {(x, y) ∈ R2 : y < x}.
Solución: El conjunto A lo constituyen los puntos de la parábola y = x2 , y los que
están por encima. El conjunto B lo constituyen los puntos del semiplano que están
por debajo de la recta = 2x.
La intersección A ∩ B son los puntos comprendidos entre la recta y = x, sin contar
con ellos, y la parábola y = x2 , que muestra la zona sombreada de la figura de la
derecha. (obsérvese
ß que recta y parábola se cortan en (0, 0) y (1, 1), que es la solución
y = x2
del sistema .
y=x

R1.6 Represéntese gráficamente en R2 , Ac ∩ B, siendo


x2 y2
A = {(x, y) ∈ R2 : x2 + y 2 ≥ 16} y B = {(x, y) ∈ R2 : + ≥ 1}.
9 4
Solución: Se tiene que Ac = {(x, y) ∈ R2 : x2 + y 2 < 16}. Dado que los puntos
de R2 que satisfacen x2 + y 2 = 16 son los de una circunferencia de radio 4 centrada
en el origen, entonces Ac son los puntos del cı́rculo interiores a la circunferencia,
exceptuando ésta.
x2 y2
Dado que + = 1 define una elipse centrada en el origen de semiejes 3 y 2,
9 4
entonces B son los puntos de esta elipse y los exteriores a ella. En consecuencia,
Ac ∩ B son los puntos de la zona sombreada de la figura de la derecha, comprendidos
entre la elipse y la circunferencia, sin contar con los de la circunferencia.

R1.7 Disponemos de 41 sintonizadores. En 26 de ellos se sintoniza FM y en 21 se


sintoniza AM.
(i) ¿Cuántos de ellos sintonizan AM y FM?
(ii) ¿Cuántos sintonizan FM pero no sintonizan AM? Mostrar el diagrama
de Venn correspondiente.
1.5. EJERCICIOS RESUELTOS 25

Solución: Denotamos por F y A los conjuntos de sintonizadores FM y AM,


respectivamente. Se tiene:
(i) Cd(F ∪ A) = 41 = Cd F + Cd A − Cd(F ∩ A) = 26 + 21 − Cd(F ∩ A). Por
tanto Cd(F ∩ A) = 47 − 41 = 6. Ver diagrama de Venn:

(ii) En el diagrama de Venn se observa que 26 − 6 = 20. Son los que sintonizan
FM pero no AM.

Formalmente, Cd(F − A) = Cd(F − (F ∩ A)) = Cd F − Cd(F ∩ A), ya que


F ∩ A ⊂ F . Ası́ pues, de nuevo, Cd(F − A) = 26 − 6 = 20.

R1.8 Se dispone de 4 resistencias distintas (en cuanto a su valor en ohmios se re-


fiere) para diseñar circuitos con 3 resitencias en serie (como muestra la figura).
¿Cuántos circuitos distintos pueden diseñarse?

Solución: Sean A, B, C y D las resistencias cuyos valores (en ohmios) son a, b,


c y d, respectivamente con a < b < c < d. La resistencia del sistema (obviando
otros aspectos) es la suma de las 3 resistencias, sin que dependa el orden. Ası́, las
posibles situaciones son C43 = 43 = 4, que se corresponden, esquemáticamente con
ABC, ABD, ACD y BCD. Veamos que en cada una de las 4 situaciones posibles la
resistencia total es distinta. En efecto, el valor de la resistencia total en los 4 casos
señalados verifica a + b + c < a + b + d < a + c + d < b + c + d y, por tanto, los 4
posibles circuitos esquematizados son distintos.
R1.9 ¿Cuántos bytes (de 8 bits) existen que tengan: (i) A lo sumo dos ceros.
(ii) Al menos 3 ceros.
Solución:
(i) Sólo existe un byte sin ceros, es: 11111111. Existen 8 bytes con un solo
cero: 01111111, 10111111, 11011111, 11101111, 11110111, 11111011, 11111101
y 11111110. Para saber cuántos bytes tienen dos ceros (sólamente), nombramos
por ABCDEFGH las 8 posiciones de un byte. El número buscado se corres-
ponde con el número posible de pares de letras distintas, sin importar el orden,
y éste es Ç å
2 8 8!
C8 = = = 28.
2 2! · 6!
En consecuencia, el número de bytes con a lo sumo dos ceros es 1 + 8 + 28 = 37.
26 1. TEORÍA DE CONJUNTOS

(ii) Hemos de calcualar los bytes que tienen sólamente 3 ceros, 4 ceros, . . . y 8
ceros, y sumarlos. En base al argumento del apartado (i), el número total de
dichos bytes será:
Ç å Ç å Ç å Ç å Ç å Ç å
8 8 8 8 8 8
+ + + + + .
3 4 5 6 7 8

Veamos una solución alternativa. Los casos descritos en (i) y (ii) son el contrario
uno del otro. Sabemos que RV28 = 28 es el número total de bytes. Entonces el
número pedido, atendiendo al apartado (i) es: 28 − 37.
27

Capı́tulo 2

FUNCIONES E
INTERPOLACIÓN

El concepto de función surgió de la necesidad de establecer relaciones


entre magnitudes en fı́sica. La idea de función es, en esencia, muy sencilla.
Una función real de variable real serı́a como un “mecanismo matemático”, f ,
en el que se introduce un valor real, x, y devuelve otro valor real (único), y, que
también suele designarse f (x). La sencillez conceptual de las funciones motiva
que las mismas sean elementos muy utilizados para modelar matemáticamente
multitud de fenómenos y problemas reales.

2.1 APLICACIONES

2.1.1 Aplicación

Una correspondencia entre un conjunto inicial A y un conjunto final B,


se denomina aplicación, si cada elemento de A posee una sola imagen en B.
Una aplicación se puede reconocer a través de un diagrama sagital, una
gráfica, una expresión matemática, etc. Es usual denotar una aplicación en
la forma f : A → B. Al escribir f (a) = b estamos afirmando que al elemento
a, de A, se le hace corresponder el elemento b, de B. Se suele decir que b es
la imagen de a, o también que a es una antiimagen de b. Ésto último se
representa como la correspondencia inversa de f , que se denota f −1 , y se
escribe f −1 (b) = a. El conjunto de todas las imágenes de A, por medio de f ,
se denomina conjunto imagen de f , y se escribe Im(f ).
Aunque no toda correspondencia es aplicación, la teminologı́a utilizada para aplica-
ciones se extiende a correspondencias.
28 2. FUNCIONES E INTERPOLACIÓN

2.1.2 Ejemplos

(a) Sea A = {1, 2, 3}, B = {a, b, c, d}. El diagrama sagital adjunto re-
presenta una aplicación, digamos f , definida por f (1) = a, f (2) = b,
f (3) = c. En este caso, Im(f ) = {a, b, c}. La correspondencia inversa es
f −1 : B → A que viene definida por f −1 (a) = 1, f −1 (b) = 2, f −1 (c) = 3.
Obviamente, Im f −1 = {1, 2, 3} = A.

(b) Sea A = {1, 2, 3, 4}, B = {a, b, c}. El diagrama cartesiano adjunto


representa una aplicación, digamos g, definida por g(1) = g(2) = a,
g(3) = b, g(4) = c. En este caso Im(g) = {g(1), g(2), g(3), g(4)} = B.
La correspondencia inversa es g −1 : B → A que viene definida por
g−1 (a) = {1, 2}, g −1 (b) = 3 y g −1 (c) = 4. Obviamente, g −1 no es
aplicación pues a posee dos imágenes por medio de g−1 .

2.1.3 Clases de aplicaciones

Sea f : A → B una aplicación. Se dice que f es inyectiva si


a
= c ⇒ f (a)
= f (c). Se dice que es suprayectiva si para cualquier b ∈ B,
existe antiimagen (por medio de f −1 ) en A, o lo que es lo mismo Im(f ) = B.
Si f es inyectiva y suprayectiva, se dice que es biyectiva. Las aplicaciones
suprayectivas también se denominan exhaustivas o sobreyectivas.

2.1.4 Ejemplos

El diagrama adjunto representa una aplicación


(a)
que no es inyectiva ni suprayectiva.
2.1. APLICACIONES 29

(b) Los diagramas adjuntos representan una aplicación inyectiva (i), supra-
yectiva (ii) y biyectiva (iii).

Si f : A → B es una aplicación biyectiva, y A y B, son conjuntos finitos, es obvio que A y


B han de tener el mismo número de elementos.

2.1.5 Composición de aplicaciones


Sean f : A → B y g : B → C, dos aplicaciones. Se define la aplicación
compuesta de f y g, y se escribe g ◦ f , como la aplicación (g ◦ f ) : A → C
de manera que (g ◦ f ) (a) = g (f (a)).

La composición de aplicaciones es asociativa, esto es, si tenemos además


h : C → D, entonces, (h ◦ g) ◦ f = h ◦ (g ◦ f ). Por esta razón se escribe
sencillamente h ◦ g ◦ f .
Sin embargo, la composición de aplicaciones, aunque tenga sentido, no
es, en general, conmutativa, esto es g ◦ f
= f ◦ g. Veremos un ejemplo de esto
en la sección 2.2.4.

2.1.6 La aplicación identidad I


Se denomina aplicación identidad, denotada I, a la aplicación
I : A → A, de manera que I(a) = a, para cualquier a ∈ A. En otras palabras,
la identidad deja invariante a cada elemento cuando calcula su imagen.

Obviamente si f : A → A es una aplicación cualquiera, entonces se tiene


que f ◦ I = I ◦ f = f .
30 2. FUNCIONES E INTERPOLACIÓN

2.1.7 Correspondencia inversa


Sea f : A → B una aplicación. La correspondencia inversa f −1 es
aplicación si y sólo si f es biyectiva, y en tal caso f −1 también es biyectiva
(obviamente, en tal caso, la inversa de f −1 es f ).

2.1.8 Ejemplo
En referencia al apartado (b) del Ejemplo 2.1.4, en el diagrama (i), la
correspondencia f −1 no es aplicación pues f −1 (4) no existe. En (ii) f −1 no
es aplicación pues f −1 (2) = {b, c} (posee dos imágenes). Obviamente en (iii),
f −1 es aplicación, y además biyectiva.

2.1.9 Nota
En un diagrama sagital, es fácil identificar la inversa, si existe, de una
aplicación.

2.1.10 Ejemplo
Sea A = {a, b}, B = {1, 2}, y sea f la aplicación biyectiva adjunta.
Entonces f −1 : B → A viene definida por f −1 (1) = b, f −1 (2) = a.

Obsérvese que si hacemos gráficamente las composiciones f ◦ f −1 y f −1 ◦ f


se tienen los diagramas

Obsérvese también se tiene que (f −1 ◦ f ) (a) = a, (f −1 ◦ f ) (b) = b. Además


(f ◦ f −1 ) (1) = 1 y (f ◦ f −1 ) (2) = 2. En otras alabras, f −1 ◦ f es la identidad
IA sobre A, mientras que f ◦ f −1 es la identidad IB sobre B.
Este ejemplo no es más que un caso particular del siguiente resultado.
2.2. FUNCIONES 31

2.1.11 Caracterización de la aplicación inversa


Sean f : A → B y g : B → A aplicaciones biyectivas. Entonces f y g
son la inversa una de otra (i.e. f −1 = g, g −1 = f ) si y sólo si g ◦ f = IA y
f ◦ g = IB .

2.2 FUNCIONES
2.2.1 Función
Las aplicaciones entre conjuntos numéricos se denominan funciones.
Ası́, una aplicación f : R → C se dice que es una función compleja de
variable real. También se dice que es una función definida sobre los reales que
toma valores en los complejos, o función de R en C.
Una aplicación f : R → R se denomina función real de variable real.
Es bastante usual que las funciones vengan dadas mediante expresiones mate-
máticas, escritas f (x) o, en ocasiones, y(x). Para representar la imagen, y, de
un elemento x, suele escribirse y = f (x), y a x se le llama variable mientras
que a y se la denomina función.
En un diagrama de ejes cartesianos, suele representarse la variable x
sobre el eje horizontal, denominado eje X, o bien eje OX (eje de abcisas),
mientras que la imagen y se representa en el eje vertical, eje Y o bien eje OY
(eje de ordenadas).
Por tanto (x, f (x)) ó bien (x, y) es un punto de R2 donde x es la abcisa e
y la imagen de x (por medio de f ). El conjunto de dichos puntos se denomina
gráfica de la función f .

2.2.2 Ejemplo
(a) La función f : R → C dada por f (x) = x + i es una función compleja
de variable real.

(b) La función f : R → [0, +∞[ dada por f (x) = x2 es una función real de
variable real. Su gráfica es la parábola que se presenta seguidamente.

-x x
32 2. FUNCIONES E INTERPOLACIÓN

Esta función es suprayectiva pues cualquier y ∈ [0, +∞[ posee una an-
tiimagen x (en realidad dos antiimágenes), como muestra la figura. Sin
embargo, no es inyectiva pues elementos distintos de R poseen igual
imagen (en efecto, f (2) = f (−2) = 4, por ejemplo).

2.2.3 Nota

La mayorı́a de funciones que conoce el lector son en realidad com-


posición de funciones, digamos, elementales. Veamos, como anuciábamos en
la sección 2.1, que la composición de funciones no es conmutativa.

2.2.4 Ejemplo

(a) Sean f y g las funciones definidas de R en R por f (x) = x+1 y g(x) = x3 ,


entonces por un lado se tiene que

(g ◦ f )(x) = g(f (x)) = g(x + 1) = (x + 1)3 ,

mientras que por otro lado

(f ◦ g)(x) = f (g(x)) = f (x3 ) = x3 + 1,

por lo que f ◦ g
= g ◦ f .

(b) Atendiendo a la sección 3.1.10, las aplicaciones f y g definidas por



f (x) = x2 , y g(x) = x definidas de [0, +∞[ a [0, +∞[ son la inversa
una de la otra pues

(g ◦ f )(x) = g (f (x)) = g(x2 ) = x2 = x,

y también,
√ Ä√ ä2
(f ◦ g)(x) = f (g(x)) = f ( x) = x = x.

2.2.5 Dominio o campo de existencia de una función

En la práctica se suele dar una función y = f (x) sin precisar el conjunto


inicial sobre el que se define (ni tampoco el conjunto final). Se entiende en
tal caso que la función está definida en el mayor conjunto numérico posible,
el cual constituye su dominio o campo de existencia.
2.2. FUNCIONES 33

2.2.6 Ejemplo
Supongamos que trabajamos sólo con números reales.

(a) El dominio de la función f (x) = x2 es R.


x2 + 1
(b) El dominio de la función g(x) = es R − {2}.
x−2
(c) El dominio de la función log10 (x) es ]0, +∞[.

2.2.7 Función inversa


Supongamos que y = f (x) es una función biyectiva. El cálculo de su
inversa, cuando el método lo permite, consiste en despejar x en función de y
(para obtener x = g(y)), y g es la inversa de f .
Para representar g de manera que la variable y esté en el eje de abcisas,
basta con reemplazar x por y. Por esta razón, al representar f y g en los
mismos ejes coordenados, resulta que sus gráficas (si existen) son simétricas
respecto a la bisectriz del primer y tercer cuadrante.

2.2.8 Ejemplo
(a) Sea la función f (x) = x2 definida sobre [0, +∞[. Obviamente esta

función es biyectiva. Como y = f (x) = x2 , su inversa es x = + y.

Al cambiar x por y obtenemos y = x. Obsérvese la simetrı́a, arriba

comentada, de la gráfica de y = x2 y la de su inversa y = x.
y 4
y
y=x 2
2
y=x
3

y=\/ x
1

x x
1 2 3 4

(b) En la práctica se habla de la inversa de y = x2 sin precisar el dominio



apropiado de esta función, y se concluye que su inversa es x = ± y,

que al reemplazar x por y se escribe y = ± x. Esto pone de manifiesto
que la aplicación inicial no era biyectiva y por tal razón su inversa no es
una función, sino una correspondencia que define un par de funciones
√ √
(y = x, e y = − x). Este detalle formal tiene interés en el estudio
teórico de funciones, el cual no se trata en este libro.
34 2. FUNCIONES E INTERPOLACIÓN

4 y
y=x 2

y= +\/x
2

1
x
-2 2 4
-1
y= -\/x

2.2.9 Composición n-ésima de funciones


Sea la función f : R → R. por inducción se define f ◦ f ◦(n veces) · · · ◦ f ,
lo cual se escribe f n) , de manera que f n)(x) = (f n−1) ◦ f )(x), n = 2, 3, 4 . . . .

2.3 REPRESENTACIÓN DE FUNCIONES


2.3.1 Gráfica de funciones continuas
Las funciones más habituales que conoce el lector son funciones con-
tinuas en sus dominios. Nos referimos a la función polinómica, exponencial,
logarı́tmica, funciones circulares, . . . , y sus inversas. También son continuas
sus composiciones en sus dominios. Las gráficas de estas funciones (cuando
existen) se pueden, pues, dibujar con un trazo continuo, sin levantar el lápiz
del papel. Para representarlas con precisión de manera local, harı́a falta
conocimientos de cálculo diferencial. No obstante, con un poco menos de pre-
cisión, las podemos representar si atendemos algunos aspectos como los que
siguen.
Una función f (x) corta el eje OX en aquellos puntos que verifican
f (x) = 0, y que constituyen sus raı́ces. El punto de corte con el eje OY
es f (0), si existe, y se denomina ordenada en el origen. Cuando una función
f verifica que f (−x) = f (x), para cualquier x ∈ R, se denomina simétrica
repecto del eje OY , o también función par. Si se verifica que f (x) = −f (−x),
entonces se denomina impar, o simétrica respecto al origen. La gráfica de
|f (x)| difiere de la de f (x) en los puntos del dominio donde f (x) < 0, en
donde sólo hay que trasladar sus imágenes de manera simétrica respecto al
eje OX sobre el semiplano positivo. Una función f se dice peródica de periodo
T (T > 0) si f (x + T ) = f (x), para cada x ∈ R.
Con todo ello, y el conocimiento de las gráficas de las funciones elemen-
tales, el lector puede representar de manera aproximada un buen número de
funciones. El uso de una tabla con valores puede ser de ayuda para corroborar
la gráfica, pero, en general, es innecesaria.
2.3. REPRESENTACIÓN DE FUNCIONES 35

2.3.2 Ejemplo
Consideremos la función f (x) = x2 − 4.
Sus raı́ces se deducen de f (x) = x2 − 4 = 0, y son 2 y −2.
La ordenada en el origen es f (0) = −4.
La gráfica de f es simétrica respecto al eje OY pues f (−x) = (−x)2 −4 =
x2 − 4 = f (x), para cualquier x ∈ R. La gráfica de f (x) se muestra abajo a
la izquierda.
y
y
4
4 | f(x)|
f(x)

2
2

x x

-2 2 -2 2

-2 -2


x2 − 4, x ≤ −2


La función |f (x)| está definida por |f (x)| = −(x2 − 4), x ∈] − 2, 2[

⎩ x2 − 4, x ≥ 2
La gráfica de |f (x)| se muestra a la derecha. Obsérvese que |f (x)| es de nuevo
una función simétrica respecto el eje OY .

2.3.3 Función definida a trozos


Se suele denominar función definida a trozos, a aquélla que, de manera
explı́cita, utiliza diversas funciones elementales en intervalos contiguos. En
tales casos, el estudio de la función en los puntos frontera de los intervalos es
imprescindible para conocer su gráfica y, por tanto, su continuidad.

2.3.4 Ejemplo
Consideremos la función f definida en toda la recta real de manera que
f (x) = 2x si x ≤ 0, f (x) = x2 + 1 si x ∈]0, 2[, y f (x) = 6 si x ≥ 2. Esta
función se escribe como sigue:


⎨ 2x , x ≤ 0
f (x) = x2 + 1, 0 < x < 2

⎩ 6, x ≥ 2
La gráfica es la siguiente:
36 2. FUNCIONES E INTERPOLACIÓN

5
f(x)

x
-2 -1 1 2 3

Obsérvese que la continuidad de f en ] − ∞, 0[, ]0, 2[ y ]2, +∞[ está


garantizada porqué 2x , x2 + 1 y la función constante f (x) = 6, son todas
ellas continuas. En el punto frontera 0, las funciones a izquierda y derecha
han hecho posible su coincidencia. Sin embargo f (2) = 6, pero la función
x2 + 1 se acerca a 5 por la izquierda de 2. Se dice que f tiene un salto de
discontinuidad, en el el punto 2, de 1 unidad. Ası́ pues f es continua en
R − {2}.

2.3.5 Funciones discretas


Una función f : A → B se dice discreta si el conjunto de las imágenes de
f es un conjunto numerable (que puede ser infinito). Si A es finito, obviamente
f es discreta.

2.3.6 Ejemplo
(a) A partir de las 0 horas de cierto dı́a, y cada 4 horas, se ha medido la
temperatura en cierto punto de una ciudad. Los datos se muestran en
la siguiente tabla:

T (◦ C) 3 1 7 13 14 6 4
t (horas) 0 4 8 12 16 20 24

La gráfica de esta función discreta es

14 T (ºC)

12

10

2
t (horas)
5 10 15 20 25
2.4. INTERPOLACIÓN 37

(b) Consideremos la función f : N → N definida por f (n) = 2 · n, para cada


n ∈ N. El conjunto de imágenes es {0, 2, 4, 6, . . . }, infinito numerable.
Por lo tanto, f es discreta.

(c) Se define en R la función parte entera de x, se escribe E[x], de manera


que E[x] es el mayor número entero n que verifica que n ≤ x. Es
inmediato, pues, que para x no negativo escrito con decimales, E[x] es
su parte entera (prescindiendo de los decimales). Ver gráfica adjunta.

2 y

1.5

0.5
-3 -2 -1 1 2 3

x
-0.5

-1

-1.5

-2

-2.5

-3

2.4 INTERPOLACIÓN

2.4.1 Discretización e interpolación

Para conocer la función y = f (x) que sigue un determinado proceso


de la ciencia o de la ingenierı́a, el experto procede a tomar un número finito
de mediciones apropiadas (xi , yi ). Con ello se ha procedido a discretizar la
variable. Acto seguido, el experto trata de encontrar, bajo ciertas condiciones,
una función f que modeliza el proceso estudiado. Esto es, tratará de encontrar
una función, f , que nos de una estimación, f (x), para cada x que no ha sido
obtenido experimentalmente. Esto se puede hacer de varias maneras, y la
función encontrada se denomina función (polinomio) de interpolación, recta
de regresión, etc. Veamos algunas de ellas.

2.4.2 Interpolación lineal

Supongamos hechas n pares de mediciones (xi , yi ) con xi distintos (que


supondremos ordenados) y que podemos representar en un diagrama carte-
siano.
38 2. FUNCIONES E INTERPOLACIÓN

La lı́nea poligonal f (x) que une puntos contiguos constituye la función


de interpolación lineal. Obsérvese que, en este caso, f es continua y que
los valores f (xi ) coinciden con las mediciones yi , i.e., f (xi ) = yi . La función
f está definida a trozos en el intervalo [x1 , xn ], y si el objeto es encontrar un
sólo valor f (x) para cierto x ∈ [x1 , xn ], éste se obtiene mediante una simple
proporción (regla de 3), como muestra el Ejemplo 2.4.3.

2.4.3 Ejemplo
Situémonos en el Ejemplo 2.3.6 (a). La temperatura a las 8 h era 7◦ C
y a las 12 h era 13◦ C. Nuestros dos datos son T (8) = 7 y T (12) = 13. Por
interpolación lineal vamos a estimar la temperatura a las 11h, (o sea 3 horas
después de la medición de las 8h).
Puesto que en 4 h la temperatura T se ha incrementado en 6◦ C, entonces
en tres hora se habrá incrementado en
6
T = · 3 = 4.5 ◦ C
4
En consecuencia la temperatura a las 11h será 7 + 4.5, o sea T (11) = 11.5.

T
También se puede interpretar utilizando el teorema de Tales, 6
4
= 3
; T = 6
4
· 3 = 4.5◦ C.

2.4.4 Interpolación polinómica


La interpolación polinómica consiste en determinar una función poli-
nómica P (x) de grado n − 1 que pase por los n puntos (xi , yi ) de R2 (con
xi distintos), esto es, que satisfaga P (xi ) = yi , i = 1, 2, . . . , n. Esta función
polinómica existe y es única como se demuestra en la sección 8.2.9. En esa
2.5. REGRESIÓN Y CORRELACIÓN 39

misma sección se da un método para obtener y = P (x) por medio de un


determinante.
La fórmula de Lagrange es otro método para obtener el polinomio interpolador P (x).
En este caso y = P (x) = P0 (x) + P1 (x) + · · · + Pn−1 (x), donde cada Pi (x) es un polinomio
de grado n que verifica que Pi (xi ) = yi y Pi (xj ) = 0 para xj = xi .
Los polinomios interpoladores de grado pequeño se pueden obtener de
manera sencilla resolviendo el sistema a que se obtiene al imponer P (xi ) = yi
i = 1, . . . , n, como muestra el siguiente ejemplo.

2.4.5 Ejemplo

Vamos a hallar el polinomio interpolador de grado 3, y = a0 + a1 x +


a2 x2 + a3 x3 , que se verifique para los puntos: (0, 1), (1, −1), (2, −5), (−1, 7).
De los datos se obtiene, por sustitución, el sistema:



⎪ 1 = a0

⎨ −1 = a0 + a1 + a2 + a3



−5 = a0 + 2a1 + 4a2 + 8a3

7 = a0 − a1 + a2 − a3

La solución de este sistema, que el lector verificará, es: a0 = 1, a1 = −3, a2 = 2


y a3 = −1. Por tanto, y = 1 − 3x + 2x2 − x3 .

2.5 REGRESIÓN Y CORRELACIÓN

2.5.1 Nube de puntos

Vamos a estudiar, gráficamente, el caso en que en la serie de pares


(xi , yi ), i = 1, 2, . . . , n, obtenidos por experimentación, se haya podido repetir
xi (o incluso (xi , yi )), como es frecuente en grandes series estadı́sticas. En tal
caso, el referirse a los pares (xi , yi ) se le denomina distribución bidimen-
sional (X, Y ).
En estos casos se deja entrever la relación que puedan tener X e Y
mediante una representación gráfica en ejes cartesianos de los pares (xi , yi ),
que se denomina diagrama de dispersión o nube de puntos. De la simple
observación de esta gráfica se obtiene una idea bastante precisa de la relación
(correlación) entre las variables X e Y .
40 2. FUNCIONES E INTERPOLACIÓN

2.5.2 Ejemplo
Supongamos que las siguientes nubes de puntos corresponden a diversas
distribuciones bidimensionales.

De su observación podemos sacar las siguientes conclusiones para el par


de variables estadı́sticas que cada caso representa:

(a) Dependencia funcional (parabólica).

(b) Dependencia funcional (lineal).

(c) Existe correlación lineal fuerte.

(d) Existe correlación lineal débil.

(e) Son variables independientes.


2.5. REGRESIÓN Y CORRELACIÓN 41

2.5.3 Lı́neas de regresión

Como ya hemos indicado anteriormente, observando la nube de puntos


de una distribución bidimensional se puede intuir la existencia, o no existen-
cia, de relación entre las dos variables. En caso afirmativo, puede intentarse
expresar dicha relación mediante alguna función cuya gráfica se aproxime a
la forma de la nube de puntos, denominada lı́nea de regresión. Ası́ pues,
puede hablarse de regresión lineal, parabólica, etc., según sea la lı́nea que
represente la distribución.
No existe razón lingüı́stica para el término regresión. El motivo es
histórico. En 1886, Galton, primo de Darwin, publicó un trabajo en el que se
ponı́a de manifiesto la dependencia de la talla entre padres e hijos: de padres
altos (bajos) nacen hijos altos (bajos). No obstante, observó además que la
estatura media de los hijos tiende a “regresar” hacia la media de la raza.
Nosotros abordaremos fundamentalmente el problema de la regresión
lineal, es decir, aquellas distribuciones bidimensionales que pueden ser repre-
sentadas por una recta, y aportaremos algunas nociones acerca de la regresión,
más general, de tipo polinómico y de otras regresiones de uso común.

2.5.4 Recta de regresión

Supongamos que la nube de N puntos que representa una distribución


bidimensional se puede “aproximar” por una recta. De entre todas las rectas
posibles optaremos por elegir la que nos da el método de ajuste por mı́nimos
cuadrados. Este método consiste en elegir la recta y = ax + b de modo que
la suma de cuadrados de las desviaciones entre los N puntos representados
(xi , yi ), i = 1, 2, . . . , N , (puede que se repitan) y la recta, sea lo menor posible.
Formalmente, si escribimos di = yi − (axi + b), deseamos encontrar los
valores de a y b que hagan que d21 + d22 + · · · + d2N sea mı́nimo.
Se demuestra, con los métodos usuales del Análisis Matemático, que
los valores a y b son las soluciones del siguiente sistema que constituyen las
denominadas ecuaciones normales de la recta de regresión de y sobre x:

N b + a xi = y i
(2.1)
b xi + a x2i = xi yi

Del mismo modo, si deseamos hallar la recta de regresión de x sobre


y, utilizando el método de los mı́nimos cuadrados, las desviaciones que habrán
de ser mı́nimas son las distancias entre las abcisas xi y las correspondientes a
la recta buscada que escribiremos x = a y + b , y de manera análoga se llega
42 2. FUNCIONES E INTERPOLACIÓN

al sistema de ecuaciones


N b + a yi = xi

b y i + a yi2 = xi y i

Ambas rectas son, en general, distintas y no hay razón alguna para que
a priori prevalezca una de ellas sobre la otra para ser usada como polinomio
interpolador. No obstante, el contexto puede inducirnos a la elección de una
de ellas (ver ejercicio R2.15).

2.5.5 Ejemplo

Consideremos las notas x e y de Matemáticas y de Fı́sica, respectiva-


mente, que han obtenido 10 alumnos, como muestra la siguiente tabla de
frecuencias:

x 3 4 6 8 8 6 4 5 4 7
y 3 4 4 7 8 7 3 5 3 6

En primer lugar observemos, a continuación, el correspondiente dia-


grama de dispersión que ya nos sugiere la existencia de alguna relación entre
ambas variables.

Vamos a hallar las restas de regresión correspondientes.


Dispongamos los cálculos como muestra la tabla adjunta.
2.5. REGRESIÓN Y CORRELACIÓN 43

xi yi x2i yi2 x i yi
3 3 9 9 9
4 4 16 16 16
6 4 36 16 24
8 7 64 49 56
8 8 64 64 64
6 7 36 49 42
4 3 16 9 12
5 5 25 25 25
4 3 16 9 12
7 6 49 36 42
= 55 50 331 282 302

Atendiendo al estudio previo, para obtener la recta de regresión de y


sobre x hemos de resolver el sistema:

10 b + 55 a = 50
55 b + 331 a = 302

27
cuya solución es a = 28.5 = 0.947, b = (50−55a)
10 ≈ −0.211, por lo que la
ecuación de la recta de regresión de y sobre x es y = 0.947 x − 0.211.
Para obtener la recta de regresión de x sobre y hemos de resolver el
sistema 
10 b + 50 a = 55
50 b + 282 a = 302
cuya solución es a = 27
32 = 0.844, b ≈ 1.281, por lo que la ecuación de la recta
de regresión de x sobre y es x = 0.844 y + 1.281, es decir y = 1.185 x − 1.518.

2.5.6 Cálculo de las rectas de regresión con conceptos es-


tadı́sticos
La ecuación de la recta de regresión de y sobre x, de la forma que
habitualmente se usa en estadı́stica, es:
σxy
y−y = (x − x) (2.2)
σx2

Por otra parte la ecuación de la recta de regresión de x sobre y es


σxy
x−x= (y − y) (2.3)
σy2

Como se observa, ambas rectas se cortan en (x̄, ȳ), que viene a repre-
sentar el centro de gravedad de la nube.
44 2. FUNCIONES E INTERPOLACIÓN

Si todos los puntos de la nube estuvieran sobre una recta, es obvio, por
simple interpretación geométrica, que ambas rectas de regresión coincidirı́an
con dicha recta.
Dada una distribución de frecuencias bidimensional correspondiente a una variable
(X, Y ) que ha tomado los N valores
(x1 , y1 ), (x2 , y2 ), . . . , (xN , yN )
(puede que se repitan) sabemos calcular la media, la varianza y la desviación tı́pica de
cada una de las dos variables:

N
N
xi yi
x1 + x2 + · · · + xN i=1 y1 + y 2 + · · · + y N i=1
x= = , y= = ,
N N N N

N
N
(xi − x)2
(yi − y)2

σx2 σy2
i=1 i=1
= , σx = =σx2 , , σy = σy2 .
N N
Se denomina covarianza de la distribución bidimensional al número real

N
(xi − x)(yi − y)
i=1
σxy = (2.4)
N
y es fácil demostrar que

N
x i yi
i=1
σxy = − x y. (2.5)
N

2.5.7 Ejemplo
Volvamos al Ejemplo 2.5.5. Para hallar las rectas de regresión, determi-
namos previamente los estadı́sticos que necesitamos. Para ello dispondremos
los cálculos en la siguiente tabla con las columnas apropiadas a tales efectos,
depués de obtener x̄ = 55 50
10 = 5.5, e ȳ = 10 = 5.
xi yi xi − x yi − y (xi − x)(yi − y) (xi − x)2 (yi − y)2
3 3 −2.5 −2 5 6.25 4
4 4 −1.5 −1 1.5 2.25 1
6 4 0.5 −1 −0.5 0.25 1
8 7 2.5 2 5 6.25 4
8 8 2.5 3 7.5 6.25 9
6 7 0.5 2 1 0.25 4
4 3 −1.5 −2 3 2.25 4
5 5 −0.5 0 0 0.25 0
4 3 −1.5 −2 3 2.25 4
7 6 1.5 1 1.5 2.25 1
55 50 27 28.5 32
=
En consecuencia, se tiene que:
28.5 32 27
σx2 = = 2.85, σy2 = = 3.2, σxy = = 2.7.
10 10 10
2.5. REGRESIÓN Y CORRELACIÓN 45

Por tanto, la ecuación de la recta de regresión de y sobre x según (2.2)


2.7
viene dada por y − 5 = 2.85 (x − 5.5) de lo que se deduce que

y = 0.947 x − 0.211.

La ecuación de la recta de regresión de x sobre y según (2.3) viene dada


por x − 5.5 = 2.7
3.2 (y − 5) de lo que se deduce

y = 1.185 x − 1.518.

2.5.8 El coeficiente de correlación lineal

Galton propuso el siguiente coeficiente de correlación entre las variables


x e y:
σxy
r= (2.6)
σx σy

Vamos a interpretarlo analizando el comportamiento de r.


Supongamos que r = ±1. En este caso se puede demostrar que todos los
puntos del diagrama de dispersión se encuentran sobre la recta de regresión.
En el caso de que r = 1 la recta tiene pendiente positiva por lo que se dice
que hay correlación directa máxima, y si r = −1, la recta es de pendiente
negativa y se dice que hay correlación inversa máxima.
Si r = 0, entonces hay independencia absoluta entre las dos rectas de
regresión, o sea, la correlación entre las variables x e y es nula. Por lo tanto
cuanto más próximo sea r a 1 ó -1, tanto mayor es la correlación entre las
variables x e y. Se puede demostrar que r sólo puede tomar valores en el
intervalo [−1, 1].
Si la correlación entre dos variables es alta, i.e. |r| se acerca a 1, ello
permite afirmar una alta fiabilidad de la aproximación obtenida mediante la
interpolación utilizando una de las rectas de regresión, cuando el dato es cer-
cano al rango de la variable correspondiente. Si |r| < 0.5 puede considerarse
que la correlación es débil y la conjetura tiene tanta menos fiabilidad conforme
|r| se va haciendo más pequeño.
El valor r 2 (que usualmente se escribe R2 ) se denomina coeficiente de
determinación. El valor 100 · R2 es un porcentaje que se interpreta como el
tanto por ciento de la variablidad (información) de los datos que es explicada
por la recta de regresión.
46 2. FUNCIONES E INTERPOLACIÓN

2.5.9 Ejemplo

Continuando con el Ejemplo 2.5.5 donde σx2 = 2.85, σy2 = 3.2, σxy = 2.7,
se tiene que
σxy 2.7 2.7
r= =√ ≈ = 0.894
σx σy 2.85 · 3.2 3.019933

Si no se dispone de calculadora podemos realizar la siguiente acotación:


   
2.7 2.7 2.7 2.72 7.29 √
r=√ =√ >√ = = = 0.729 > 0.8
2.85 · 3.2 9.12 10 10 10

lo que nos indica que hay una fuerte correlación directa entre las notas de
Matemáticas y las de Fı́sica.
Si un alumno obtiene una calificación de 6.5 en Matemáticas pode-
mos recurrir a la recta de regresión de y sobre x para conjeturar qué cali-
ficación obtendrá en Fı́sica. Entonces, sustituyendo x = 6.5 en la ecuación
y = 0.947x − 0.211 se obtiene que y ≈ 5.9. El lector comprobará que usando
la recta de regresión de x sobre y se obtiene que la calificación y de Fı́sica
es aproximadamente 6.1. Ambos resultados son bastante fiables porque el
coeficiente de correlación r se acerca a 1.
En el caso del párrafo anterior si el alumno hubiera obtenido un 0 en
Matemáticas no procede conjeturar nada acerca de la nota de Fı́sica pues 0
es un valor alejado del mı́nimo 3, teniendo en cuenta que el rango en que se
mueven las notas x de Matemáticas es 8 − 3 = 5.

2.5.10 Regresión parabólica


Cuando la nube de puntos no se ajusta de manera satisfactoria a una recta, sino que
parece condensarse a lo largo de otro tipo de curva, en vez de regresión lineal, se habla de
regresión no lineal . Como caso particular de la regresión no lineal empezaremos estudiando
la regresión parabólica.
Resolver este tipo de regresión consiste en determinar la parábola

y = b0 + b1 x + b2 x 2 , (b2 = 0)

con la condición, análoga al caso de la regresión lineal, de que la suma de los cuadrados de
las desviaciones d21 + d22 + · · · + d2N sea mı́nima, donde di = yi − (b0 + b1 xi + b2 x2i ).
Modificando ligeramente la terminologı́a hasta ahora utilizada, supondremos que
tenemos un total de N puntos que toman los siguientes m valores distintos

(x1 , y1 ), (x2 , y2 ), (x3 , y3 ), . . . , (xm , ym ),

con las frecuencias f1 , f2 , . . . , fm , respectivamente. El sistema de ecuaciones normales que


2.6. UN POCO DE HISTORIA 47

se obtiene en este caso es


⎧ m

m

m

m

⎪ fi yi = b0 fi + b1 fi xi + b2 fi x2i




⎪ i=1
⎨ m
i=1

m
i=1
m

i=1

m

fi xi yi = b0 fi xi + b1 fi x2i + b2 fi x3i (2.7)





⎪ i=1 i=1 i=1 i=1

⎪ m
m
m
m

⎪ fi x2i yi = b0 fi x2i + b1 fi x3i + b2 fi x4i

i=1 i=1 i=1 i=1

2.5.11 Regresión exponencial


Supongamos que la nube de puntos (xi , yi ) se asemeja a una función
exponencial y = eαx+β . En tal caso es fácil observar que la nube de puntos
(xi , ln yi ) se asemeja a una recta. Si llamamos Yi = ln yi (o equivalentemente
yi = eYi ), podemos hallar la recta de regresión de Y sobre x, correspondiente
a la nube de puntos (xi , Yi ), que adopta la forma Y = ax + b. A partir de
aquı́ se tiene que la lı́nea de regresión (función de interpolación) buscada es
y = eax+b .

2.6 UN POCO DE HISTORIA


El concepto de función se desarrolló de forma que su significado, y también la forma
en que se definı́a, fue cambiando, y ganando precisión, con el paso del tiempo. Los orı́genes
de las funciones son remotos. En las matemáticas babilónicas ya encontramos tablas con los
cuadrados, los cubos y los inversos de los números naturales, que no son más que funciones
de N en N o de N en R. No obstante no parece que los babilonios conocieran el concepto de
función, aunque conocı́an y manejaban funciones especı́ficas. En el antiguo Egipto también
se utilizaban funciones particulares. En la Grecia clásica también se manejaron funciones
particulares, en este caso en un sentido moderno de establecer relaciones entre los elementos
de dos conjuntos. Sin embargo, tampoco en este caso parece que se comprendiese el con-
cepto abstracto función. Algunos historiadores atribuyen a Nicole Oresme (1323-1382) la
primera aproximación al concepto de función, cuando éste describió leyes de la naturaleza
mediante relaciones de dependencia entre dos magnitudes. Oresme fue el primero en usar,
sistemáticamente, diagramas para representar magnitudes variables en un plano. El primero
en construir una función fue Galileo (1564-1642). Al estudiar la caı́da de los cuerpos, com-
probó que el espacio recorrido depende del cuadrado del tiempo, escribiendo la primera
función de la historia. René Descartes (1596-1650), Isaac Newton (1643-1727) y Gottfried
Leibniz (1646-1716) establecieron la idea de función como dependencia entre dos cantidades
variables. No obstante, la primera definición formal de función se debe a Leonhard Euler
(1707-1783): “Una función de una cantidad variable es una expresión analı́tica compuesta
48 2. FUNCIONES E INTERPOLACIÓN

de cualquier manera a partir de la cantidad variable y de números o cantidades constantes”.


Debemos a Leibniz el uso de los términos función, variable, constante y parámetro. La
notación f (x) fue utilizada por primera vez por Alexis C. Clairaut (1713-1765).

2.7 EJERCICIOS RESUELTOS


R2.1 Sean los conjuntos A = {a, b, c, d} y B = {1, 2, 3, 4, 5}. Se considera la corres-
pondencia f de A en B (se puede denotar f : A → B ) definida por
f (a) = {1, 2}, y f (c) = f (d) = 3.

(i) Dibújese su diagrama sagital, y también su representación cartesiana.


(ii) ¿Es f una aplicación?
(iii) Hállese la correspondencia inversa f −1 , ası́ como Im(f −1 ).
Solución:

(i)

Diagrama sagital de f . Diagrama cartesiano de f .


(ii) f no es aplicación pues su dominio es {a, c, d}, que no coincide con A. (Por
otra parte f no es aplicación pues a tiene dos imágenes distintas.
(iii) f −1 (1) = f −1 (2) = a, f −1 (3) = {c, d}. Dom (f −1 ) = {1, 2, 3}, Im(f −1 ) =
{a, c, d}. Como se comprueba en su diagrama sagital.

R2.2 (Permutaciones de un conjunto)


Consideremos el conjunto A = {1, 2, 3} y dos apllicaciones biyectivas f : A → A
y g : A → A (que por motivos obvios se denominan permutaciones de A)
definidas por los diagramas sagitales adjuntos
2.7. EJERCICIOS RESUELTOS 49

(i) Hállese g ◦ f . (ii) Hállese f ◦ g, y obsérvese que g ◦ f


= f ◦ g.
Solución:

(i) Por definición de composición, g ◦ f , y de la definición de f y g se tiene:

(g ◦ f )(1) = g(f (1)) = g(2) = 3


(g ◦ f )(2) = g(f (2)) = g(1) = 1
(g ◦ f )(3) = g(f (3)) = g(3) = 2
Por tanto, en forma de diagrama sagital se tiene que
g ◦ f es la permutación de A del diagrama.
(ii) Hacemos un razonamiento alternativo al de (i) usando diagramas sagitales

Por lo tanto,

(f ◦ g)(1) = 2
(f ◦ g)(2) = 3
(f ◦ g)(3) = 1

Véase el diagrama sagital adjunto.


R2.3 Sea f : R → R la recta y = f (x) = 3x + 2.
(i) Halla f −1 .
(ii) Representa f −1 en los mismos ejes que f y observa la simetrı́a de ambas
gráficas.
Solución:

(i) De y = 3x + 2 se tiene que 3x = y − 2, es decir x = y


3
− 23 , o sea x = f −1 (y) =
y
3
− 23 .
x 2
(ii) Para representar f −1 se intercambia x por y, y tenemos y = f −1 (x) = − .
3 3
4 y
y=3x+2
3 y=x

1 y=x/3-2/3
x
-2 2 4
-1

-2

1
R2.4 (i) Pruébese que la inversa de y = f (x) = es ella misma.
x
50 2. FUNCIONES E INTERPOLACIÓN

(ii) Hállese f n) .
Solución:

1 1
(i) (f ◦ f )(x) = f (f (x)) = f = 1
= x, luego f ◦ f = I, y por tanto f = f −1 .
x x

(ii) Hemos visto que f 2) = f ◦ f = I. Por tanto

f 3) = f 2) ◦ f = I ◦ f = f
f 4) = f 2) ◦ f 2) = I ◦ I = I
..
.

Ası́ pues, f n) = I, si n es par, y f n) = f si n es impar. (Es más elegante decir


f 2n) = I y f 2n+1) = f , n = 1, 2, . . . .)

R2.5 (i) Hállese la inversa, f −1 de la función y = f (x) = ex .


(ii) Dibújese f −1 , y hállese su dominio e imágen, comparándola con y = ex .
Solución:

(i) De y = ex se tiene ln y = x ln e = x, es decir x = f −1 (y) = ln y. Cambiando x


por y se tiene que y = ln x conocida como la inversa de ex .

5 y
y=e x
4
y=x
3
2 y=ln x
1
x
-3 -2 1 2 3 4 5
(ii) -1
-2
-3
Las gráficas de y = ex , e y = ln x son simétricas respecto a la recta y = x,
cuando se las representa en los mismos ejes.
El dominio de ln x es la imagen de ex ó sea, ]0, +∞[.
La imagen de ln x es el dominio de ex , o sea R.

R2.6 Haz las gráficas y estudia la simetrı́a y periodicidad de las siguientes funciones.

(i) y = f (x) = sen(x)


(ii) y = g(x) = | sen(x)|
(iii) y = h(x) = 1 + sen(x)

Solución:

y y=sen x
1
x
-3 -5 /2 -2 -3 /2 - - /2 /2 3 /2 2 5 /2 3
-1
2.7. EJERCICIOS RESUELTOS 51

y y=|sen x|
1
x
-3 -5 /2 -2 -3 /2 - - /2 /2 3 /2 2 5 /2 3
-1

2
y
y=1+sen x
1
x
-3 -5 /2 -2 -3 /2 - - /2 /2 3 /2 2 5 /2 3

(i) f es simétrica respecto al origen, y periódica de periodo 2 π.


(ii) g es simétrica respecto al eje OY , y periódica de periodo π.
(iii) h es periódica de periodo 2 π.

R2.7 Haz la gráfica y estudia la simetrı́a y periodicidad de las siguientes funciones:

(i) y = f (x) = cos(x).


(ii) y = g(x) = cos(2x).
(iii) y = h(x) = cos(x + π2 ).

Solución:
y
1 y=cos x
x
-3 -5 /2 -2 -3 /2 - - /2 /2 3 /2 2 5 /2 3
-1
y
1 y=cos 2x
x
-3 -5 /2 -2 -3 /2 - - /2 /2 3 /2 2 5 /2 3
-1
y
1 y=cos 2x
x
-3 -5 /2 -2 -3 /2 - - /2 /2 3 /2 2 5 /2 3
-1

(i) f es simétrica respecto al eje OY , y periódica de periodo 2 π.


(ii) g es simétrica respecto al eje OY , y periódica de periodo π.
(iii) h es simétrica respecto al eje OY , y periódica de periodo 2 π.

R2.8 (i) Dibuja la gráfica de la función definida a trozos, f dada por



⎨ 4, x ≤ 2
f (x) = x2 , x ∈] − 2, 0]
⎩ 1
x, x > 0

(ii) Estudia su continuidad.


52 2. FUNCIONES E INTERPOLACIÓN

Solución:
(i)

(ii) La función f es continua en ] − ∞, −2[ por ser constante. Es continua en ] − 2, 0[


por ser polinómica (una parábola). Es continua en ]0, +∞[ porque no se anula el
denominador en dicho intervalo.
En el punto -2, la función toma el valor f (−2) = 4, que coincide con el acercamiento
de la parábola, por la derecha de −2. Ası́ pues, la función es continua en x = −2.
Obviamente, f no es continua en x = 0 por presentar un salto infinito. Ası́ pues, f
es continua en R − {0}.
x
R2.9 Representa la gráfica de la función E 2 y da su definición por intervalos.
Solución:

El lector puede valerse de una sencilla tabla para llegar a la conclusión


 x  de que para
valores reales de x no negativos, si x ∈ [2n, 2n + 2[, entonces,
x E 2
= n y para
valores
  de x negativos, si x ∈ [−2n, −2n + 2[, entonces, E 2
= −n. Obsérvese que
E x2 es una función que presenta discontinuidades, de salto finito de una unidad,
en todos los números pares.
R2.10 Por cierto servicio de Internet, una empresa cobra al usuario 3 euros por
conexión y después un euro cada 2 minutos. Haz un gráfico del coste, y, en
euros en función del tiempo, t, que está conectado el usuario. Utiliza el ejercicio
anterior para expresar y utilizando la parte entera de x.
Solución: La gráfica que representa y en función de t es la siguiente

Se observa que la gráfica de y en función de t es la del ejercicio


  anterior, en la recta
no negativa, subida en 3 unidades. Por lo tanto, y = 3 + E 2t
2.7. EJERCICIOS RESUELTOS 53
ß
x2 , x ∈ [1, 0]
R2.11 Sea f (x) la función definida por f (x) = .
1, x ∈ ]1, 2[
Sea g(x) la función que resulta de extender f a toda la recta real no negativa
de forma periódica, con periodo 2.
(i) Dibujar g(x). (ii) Hallar g(8.5).
Solución:
(i) La gráfica de f (x) es

Por tanto, la gráfica de g(x) es

(ii) Como 8.5 = 4 · 2 + 0.5 entonces g(8.5) = g(0.5) = 0.52 = 0.25.

R2.12 La función y = f (x) = sen x toma los valores sen(0) = 0, sen( π6 ) = 1


2,
sen( π2 ) = 1. Halla, por interpolación lineal:

(i) sen(15◦ )
(ii) sen(45◦ )

Solución: Recordemos que 15◦ son 12


π
radianes, 30◦ son π6 radianes, 45◦ son π4
◦ π
radianes y 90 son 2 radianes. Representamos los 3 datos conocidos y la poligonal
que une los puntos correspondientes.

1/2
(i) La función poligonal definida en [0, π6 ] obviamente es y = f (x) = π/6
· x, es
decir y = π3 · x. Por tanto sen 12
π
se puede aproximar por
Äπä 3 π 3 1
f = · = = = 0.25.
12 π 12 12 4
54 2. FUNCIONES E INTERPOLACIÓN

π
(ii) Para hallar sen de manera aproximada se puede hallar la recta f (x) del
4
intervalo [ π6 , π2 ], pero en esta ocasión, procedemos por proporciones.
Para un incremento de x de π2 − π6 la ordenada de la función se incrementa en
1
2
. Entonces, para el incremento de la variable de π6 a π4 se tiene la proporción

1/2 y
π π = π π,
− −
2 6 4 6
es decir,
1/2 y
= π
2
·π 12
6
o bien, 32 = 12 · y, y por lo tanto y = 18 = 0.125. Por tanto sen(45◦ ) ≈
1
2
+ 0.125 = 0.625.

R2.13 En el Ejemplo 2.3.6 (a) se tenı́an las mediciones de temperatura, T (t), en


función del tiempo t (horas), siguientes: T (0) = 3◦ C, T (4) = 1◦ C, T (8) = 7◦ C.
Hállese el polinomio interpolador P de segundo grado que cumple con dichas
mediciones, y dı́gase cuál serı́a la temperatura (estimada con dicho polinomio)
a las 5 horas.
Solución: El polinomio es P (t) = a0 + a1 t + a2 t2 . Habrá que verificar el sistema

3 = a0
1 = a0 + a1 · 4 + a2 · 42
7 = a0 + a1 · 8 + a2 · 82

La solución del sistema es a0 = 3, a1 = − 32 , a2 = 14 . Por tanto el polinomio


interpolador es P (t) = 3 − 32 t + 14 t2 . La temperatura a la 5 horas se puede estimar
mediante P (5) = 3 − 32 · 5 + 14 · 52 = 3 − 7.5 + 6.25 = 1.75◦ C

R2.14 Se han realizado 4 pares de mediciones experimentales (xi , yi ), (i = 1, . . . , 4)


cuyos valores son (0, 1), (1, 0), (2, 5), (−1, −4). Determı́nese el valor f (1.5) a
partir del polinomio de grado 3 que definen las cuatro mediciones.
Solución: La función y = c0 + c1 x + c2 x2 + c3 x3 que pasa por los cuatro puntos
(xi , yi ) del enunciado ha de satisfacer, respectivamente, las ecuaciones

1 = c0
0 = c0 + c1 + c2 + c3
5 = c0 + 2c1 + 4c2 + 8c3
−4 = c0 − c1 + c2 − c3

El sistema que constituyen las 4 ecuaciones anteriores tiene por solución, que el lector
verificará, c0 = 1, c1 = 0, c2 = −3, c3 = 2.
Ası́ pues, f (x) = 1 − 3x2 + 2x3 .
Finalmente, f (1.5) = 1 − 3 · 1.52 + 2 · 1.53 = 1.

R2.15 En la tabla siguiente, la variable X muestra el número de fotones lanzados


a un objetivo, e Y muestra los fotones capturados. Utilı́cense las rectas de
regresión de y sobre x y de x sobre y para calcular el número de fotones que se
2.7. EJERCICIOS RESUELTOS 55

espera capturar al lanzar 11 fotones sobre el objetivo. Razónese si son fiables


los resultados.
xi 9 10 9 12 10
yi 4 5 6 6 4
Solución: Dispondremos los datos necesarios en una tabla.
xi yi xi − x (xi − x)2 yi − y (yi − y)2 (xi − x)(yi − y)
9 4 −1 1 −1 1 1
10 5 0 0 0 0 0
9 6 −1 1 1 1 −1
12 6 2 4 1 1 2
10 4 0 0 −1 1 0

= 50 25 6 4 2

De los datos de la tabla se tiene que


50 25 6 4
x= = 10, y= = 5, σx2 = , σy2 = ,
5√ 5 5 5
6 2 2
σx = √ , σy = √ , σxy = .
5 5 5

2/5
En consecuencia la recta de regresión de y sobre x es y − 5 = (x − 10) que en su
6/5
forma explı́cita resulta
x 5
y= + .
3 3
2/5
Por otra parte, la recta de regresión de x sobre y es x − 10 = (y − 5) que en su
4/5
forma explı́cita resulta
y = 2x − 15.
Para calcular el número de fotones que se espera capturar al lanzar 11, se obtiene
para la recta de regresión de y sobre x
11 5 16
y= + = ≈ 5.33
3 3 3
y para la recta de regresión de x sobre y se obtiene
y = 2 · 11 − 15 = 7.

Como en este caso se conoce el valor de X (fotones lanzados) y se quiere minimizar el


error en Y (fotones capturados), se prefiere la recta de regresión de y sobre x puesto
que minimiza el error en Y .
El razonamiento de la fiabilidad de los resultados tendrá en cuenta el valor del coe-
ficiente de correlación lineal r que vale
2 2
σxy 5 5 1
r= = √ = √ = √ ≈ 0.41
σx σy √6 √2 2 6 6
5 5 5

por lo que las estimaciones realizadas resultan poco fiables, pues 0.41 está lejos de 1.
Si no se dispone de calculadora podemos realizar la siguiente acotación:
1 1 1
r = √ ≤ √ = = 0.5
6 4 2
56 2. FUNCIONES E INTERPOLACIÓN

R2.16 Los siguientes datos se han obtenido en una experiencia para estudiar la relación
entre la cantidad de horas X dedicadas a la producción de ciertos componentes
electrónicos de precisión y el número de componentes producidos Y .

X 0 1 1 3 4 5
Y 2 3 4 7 12 22

Realı́cese un estudio de regresión parabólica.


Solución:
Dispondremos los cálculos en la siguiente tabla.

xi yi x2i x3i x4i x i yi x2i yi


0 2 0 0 0 0 0
1 3 1 1 1 3 3
2 4 4 8 16 8 16
3 7 9 27 81 21 63
4 12 16 64 256 48 192
5 22 25 125 625 110 550

= 15 50 45 225 979 190 824

El sistema de ecuaciones normales es



50 = 6 b0 + 15 b1 + 45 b2
190 = 15 b0 + 45 b1 + 225 b2
824 = 45 b0 + 225 b1 + 979 b2

Resolviendo el anterior sistema se obtiene

b0 ≈ 1.75 b1 ≈ 1.12 b2 ≈ 0.5

y, en consecuencia, la ecuación de la parábola será

y = 1.75 + 1.12x − 0.5x2 .


57

Capı́tulo 3

SISTEMAS DE
NUMERACIÓN

La mejora de la comunicación humana exigı́a, entre otras cosas, que el


hombre acordara una forma de contabilizar las cosas. Con el nacimiento del
comercio, los sistemas de numeración pasan a tener una importancia funda-
mental.
Claramente, la importancia del sistema decimal radica en que su uti-
lización se ha universalizado para representar cantidades. Pero, por otra
parte, el sistema binario es fundamental para entendernos con los ordenadores
(o con cualquier sistema digital). Esto motiva que muchas veces los valores
decimales tengan que convenirse en valores binarios para comunicarnos con el
ordenador y que en otras ocasiones los valores binarios del ordenador tienen
que pasarse a valores decimales para una mejor comprensión.
Hay otros dos sistemas de numeración que encuentran amplias apli-
caciones en sistemas digitales: El sistema octal o de base 8 y el sistema
hexadecimal o de base 16. Dichos sistemas (que como veremos pueden con-
vertirse fácilmente al binario y recı́procamente) se usan para optimizar la
representación de números binarios grandes.

3.1 SISTEMA DE NUMERACIÓN

Sistema de numeración es cualquier conjunto de reglas que permite la


representación de todos los números (naturales) mediante signos. Nuestro
sistema habitual, el decimal, utiliza los números (dı́gitos) 0, 1, 2, . . . , 9 y lo
hace de manera que el valor de cada dı́gito depende de su posición en una
secuencia ordenada. Ası́, si representamos m por as as−1 . . . a1 a0 en el sistema
58 3. SISTEMAS DE NUMERACIÓN

decimal, entonces

m = as 10s + as−1 10s−1 + · · · + a1 10 + a0

y esta escritura es única si suponemos que todas las cifras son significati-
vas, esto es, as
= 0. Esta última afirmación no es exclusiva del sistema
de numeración decimal; en efecto, se puede demostrar, utilizando la división
euclı́dea, el siguiente teorema

3.1.1 Teorema fundamental de la numeración


Sea b un número (natural) distinto de cero. Todo número m se puede
escribir como combinación lineal de potencias de b en la forma única

m = as bs + as−1 bs−1 + · · · + a1 b + a0 , (3.1)

siendo as , as−1 , . . . , a1 , a0 números menores que b, con as


= 0. En tal caso
la representación de m en base b es

as as−1 . . . a1 a0 (b

En la sección 3.1.4 ofrecemos un algoritmo para encontrar los coeficientes ai .


En casos sencillos, estos coeficientes se determinan de izquierda a derecha,
eligiendo el mayor valor posible para ai entre 0, 1, 2, . . . , b − 1.

3.1.2 Ejemplo
(a) Deseamos escribir 65 en base 3.
En base 3, cada unidad tiene el valor que muestra el siguiente esquema

34 33 32 31 30

En nuestro caso, es sencillo observar que sólo nos interesan las 4 casillas
de la derecha cuyos valores son

27 9 3 1

Los posibles coeficientes a utilizar vienen dados por: 0, 1, 2. Se tiene


que 65 = 2 · 27 + 1 · 9 + 0 · 3 + 2 · 1. Por tanto

65 = 2102(3

(b) Deseamos conocer qué número (decimal) m es el número 21002(3 .


Según (3.1) se tiene

m = 2 · 34 + 1 · 33 + 0 · 32 + 0 · 31 + 2 · 30 = 2 · 81 + 27 + 2 = 191.
3.1. SISTEMA DE NUMERACIÓN 59

3.1.3 Nota
Obsérvese que la escritura de bs en base b es 10 · · · 0 con s dı́gitos que
son ceros. De ello se desprende que si m verifica bs−1 ≤ m < bs , entonces
m posee s dı́gitos significativos al escribirse en base b. No obstante m se
puede escribir con más dı́gitos pues de (3.1) se desprende que as . . . a1 a0(b =
0 . . . 0 as . . . a1 a0(b . Obviamente as . . . a1 a0(b
= as . . . a1 a0 0(b , pues este
último número es as · bs+1 + · · · + a0 · b + 0, que no coincide con (3.1).

3.1.4 Algoritmo para escribir un número en base b


Escribimos (3.1) en la forma
Ä ä
m = b · as bs−1 + · · · + a2 b + a1 + a0

Es obvio que a0 es el resto de la división euclı́dea de m entre b. Llamemos


m1 al cociente de dicha división, i.e. m1 = as bs−1 + · · · + a2 b + a1 . Es obvio
que a1 es el resto de dividir m1 entre b. De esta forma se van obteniendo
a2 , . . . , as−1 hasta llegar a obtener as que, en este caso, es el primer cociente
menor que b obtenido.

3.1.5 Ejemplo
Apliquemos el algoritmo anterior para escribir 903 en base 5.

903 5
40 180 5
3 30 36 5
0 1 7 5
2 1

En consecuencia 903 = 12103(5

3.1.6 Aritmética con números en base b


Se pueden hacer operaciones con números en base b con tal de reescribir-
los en el sistema decimal, hacer el cálculo propuesto en dicho sistema y después
se reescribe el resultado en la base b. No obstante el lector puede idear sencillos
algoritmos o reglas prácticas para hacer operaciones con números en base b
(que se denoten como en el caso decimal) imitando las reglas decimales. Las
dos secciones siguientes son sólo un ejemplo. Se recomienda al lector verificar
la coincidencia de resultados si se traslada el cálculo al campo decimal.
60 3. SISTEMAS DE NUMERACIÓN

3.1.7 Ejemplo
Efectuemos 31021(4 + 22331(4 . Por imitación del caso decimal (y que el
lector argumentará) se tiene

3 1 0 2 1(4
+ 2 2 3 3 1(4
1 2 0 0 1 2(4

3.1.8 Regla del producto por la unidad seguida de ceros


Sean as as−1 · · · a1 a0 (b y 1 0 · · · 0(b , con r ceros, en el sistema de base
b. Se tiene

as as−1 · · · a1 a0 (b · 1 · · · 0(b = as as−1 · · · a1 a0 0 · · · 0 0 0(b

con r ceros a la derecha.


 
En efecto, as · bs + as−1 · bs−1 + · · · a1 ·b +a0 · br = as · bs+r + as−1 · bs+r−1 + · · ·
+ a0 · br = as as−1 . . . a0 0 . . . 0b) con r ceros.

3.1.9 Ejemplo
Deseamos hacer el producto 1211(3 × 34 . Como 34 = 10000(3 , entonces

1211(3 × 34 = 1211(3 × 10000(3 = 12110000(3

3.1.10 Expresión de números racionales en base b


Por analogı́a al caso decimal, la notación 0.c1 c2 c3 . . .(b simboliza el
número decimal c1 · 1b + c2 · b12 + c3 · b13 + · · · o si se desea

c1 · b−1 + c2 · b−2 + c3 · b−3 + · · ·

con ci menores que b. Por lo tanto b−k , si k es positivo se representa por


0.0 . . . 0 1(b con k ceros.
La división por bk equivale a la multiplicación por b−k .

3.1.11 Ejemplo
Veamos a qué número decimal corresponde 204.201(5 .
De una parte, 204(5 = 2·52 +4 = 54. Por otra parte, 0.201(5 = 2·5−1 +1·5−3 =
0.408. Por tanto, 204.201(5 = 54.408.
3.2. SISTEMAS DE NUMERACIÓN USADOS EN COMPUTACIÓN 61

3.1.12 Productos con el factor bk en el sistema base b


Recordemos que bk es de la forma 1 0 . . . 0(b ó 0.0 0 . . . 1(b , según sea k
positivo o negativo, respectivamente. El producto o cociente de un número en
base b por la unidad seguida (o antecedida) de ceros sigue las mismas reglas
que en el sistema decimal.
Vamos a probar nuestra última afirmación en un caso particular. Deseamos
ejecutar en el sistema base b la división m(b : 1 0 . . . 0(b con k ceros.
Supongamos m(b = as . . . ak . . . a1 a0 .c1 c2 c3 (b , y supongamos, para más sencilez que
1 ≤ k < s. El número m(b en el sitema decimal es

m(b = as · bs + · · · + ak · bk + · · · + a1 · b + a0 + c1 · b−1 + c2 · b−2 + c3 · b−3

Al efectuar m(b : 1 0 0 · · · 0(b estamos multiplicando m(b por b−k y por tanto se tiene:

as ·bs−k +· · ·+ak +ak−1 ·b−1 +· · · a1 ·b1−k +a0 ·b−k +c1 ·b−(k+1) +c2 ·b−(k+2) +c3 ·b−(k+3)

es decir, se ha obtenido as as−1 · · · ak . ak−1 · · · a1 a0 c1 c2 c3 (b .


Vulgarmente se dice que la coma ha corrido k lugares hacia la izquierda.

3.1.13 Ejemplo

102.1(3 · 100(3 = 10210(3


0.24(5 : 100(5 = 0.0024(5

3.2 SISTEMAS DE NUMERACIÓN USADOS EN


COMPUTACIÓN
Los sistemas de numeración usados en computación son los de base 2
(binario), base 8 (octal) y base 16 (hexadecimal o, abreviado, hexa).

3.2.1 El sistema binario


El hardware de las computadoras utiliza el sistema binario . Sus
dı́gitos, 0 y 1, se denominan bits y representan los dos niveles de voltaje (0
“apagado” , 1 “encendido”).
El bit es la unidad binaria de información, y es la más pequeña que se
puede procesar o almacenar. Para medir la cantidad de información repre-
sentada en binario se utilizan los siguientes múltiplos del bit: Byte son 8 bits
(generalmente, pero su tamaño puede depender del código de caracteres):
62 3. SISTEMAS DE NUMERACIÓN

1024 Bytes = 1 KB (Kilobyte). Por ejemplo un archivo de texto plano


(.txt) ocupa del orden de 20 KB.
1024 KB =1 MB (Megabyte). Por ejemplo un archivo de música (.mp3)
ocupa del orden de 3 MB.
1024 MB = 1 GB (Gigabyte). Por ejemplo una pelı́cula DivX ocupa
del orden de 1 GB.
1024 GB = 1 TB (Terabyte). Por ejemplo, aproximadamente 800
pelı́culas ocupan del orden de 1 TB.
1024 TB = 1 PB (Petabyte). Por ejemplo, toda la información de
Google ocupa entre 1-2 PB.
1024 PB = 1 EB (Exabyte). Por ejemplo, todo Internet ocupa del orden de 200-300
EB
1024 EB=1 ZB (Zettabyte). No hay un ejemplo real para 1 ZB.
1024 ZB=1 YB (Yottabyte).
Como se desprende de las secciones 3.1.1 y 3.1.10, el valor posicional de
cada unidad en el sistema binario antes y después del punto es:

24 23 22 21 20 . 2−1 2−2 2−3

Las operaciones en sistema binario son sencillas y ofrecen curiosidades


como el siguiente ejemplo.

3.2.2 Ejemplo
Efectuemos la suma de los números 31 y 1, en sistema binario.
No recurrimos al algoritmo de la sección 3.1.4 dado que es inmediato
que 31 = 16 + 8 + 4 + 2 + 1, es decir 31 = 11111(2 . También 1 = 1(2 . Ası́ pues:

1 1 1 1 1(2
+ 1(2
1 0 0 0 0 0(2
El lector observará que 100000(2 se corresponde con el número decimal 32.

3.2.3 Escritura de un decimal en el sistema binario con k cifras


exactas
Sea un número real m, con 0 < m < 1. Para escribir m en binario con
k cifras exactas, k ≥ 1, proponemos el siguiente método.
î ó
Calculamos la parte entera de m · 2k , denotada E m · 2k . Hacemos
î ó
la división E m · 2k (2 : 1 0 . . . 0(2 con k ceros, en binario. Según la sección
3.2. SISTEMAS DE NUMERACIÓN USADOS EN COMPUTACIÓN 63

3.1.12, el punto se desplaza k lugares a la izquierda poniendo de manifiesto los


k primeros dı́gitos de m. En el caso de que m · 2k sea entero, la representación
final en binario es exacta.
Justificación del método: como m · 2k < 2k , entonces la parte entera de m · 2k
tiene a lo sumo k dı́gitos no nulos. Supongamos que E m · 2k (2 = ak−1 . . . a1 a0 (2 .
Entonces
m · 2k (2 = ak−1 . . . a1 a0 d(2 (3.2)

donde d es su parte no entera, que ignoramos. Al dividir (3.2) por 2k (es decir
1 0 . . . 0(2 con k ceros) se obtiene m que en binario, según la sección 3.1.12, es
0.ak−1 . . . a0 . . . con los k primeros dı́gitos exactos.
En el caso de que m·2k fuera entero, la expresión final binaria es exacta puesto
que d no existe.

3.2.4 Ejemplo

(a) Vamos a escribir 14.5627 en binario con 4 dı́gitos exactos.


Sabemos que 14 = 1110(2 . Veamos ahora cómo se escribe en binario
0.5627.
Efectuamos 0.5627 · 24 = 9.0032. Se tiene E [9.0032] = 9. Obviamente
9 = 1001(2 . Efectuamos 1001(2 : 10000(2 = 0.1001(2 . En consecuencia
0.5627 = 0.1001 . . . (los siguientes dı́gitos se desconocen). Finalmente,
14.5627 = 1110.1001 . . . (2 .

(b) Escribamos 14.375 en binario con 3 dı́gitos exactos.


Veamos cómo se escribe 0.375 en binario.
Efectuamos 0.375 · 23 = 3. Se tiene E [3] = 3 (por lo que la ex-
presión que se obtendrá será exacta). Obviamente 3 = 11(2 . Efectuamos
11(2 : 1000(2 = 0.011(2 . En consecuencia 14.375 = 1110.011(2 .

3.2.5 Escritura de un decimal en sistema binario

Con una argumentación que omitimos se puede sistematizar la con-


versión de un decimal menor que uno a un número binario como se describe a
continuación. Si x es un número decimal menor que 1, entonces x admite la
escritura obvia x = 0.d donde d es la parte decimal de x. Se halla el producto
(decimal) 2x cuyo resultado se puede escribir como 2x = 2·0.d = a1 .d1 , donde
a1 es entero y d1 la parte decimal del producto obtenido. Se halla ahora el
producto 2 · 0.d1 que se podrá escribir, al igual que antes, como a2 .d2 donde
a2 es un entero y d2 la parte decimal del producto obtenido. Se halla ahora
64 3. SISTEMAS DE NUMERACIÓN

el producto 2 · 0.d2 que se escribirá como a3 .d3 como antes y ası́ se va repi-
tiendo el proceso. La expresión de x en binario es entonces 0.a1 a2 a3 . . . . Esta
expresión se termina obteniendo una representación finita cuando aparece un
di nulo o cuando se alcanza el máximo número de dı́gitos representables.

3.2.6 Los sistemas octal y hexadecimal


Los sistemas octal y hexadecimal se utilizan en el entorno de los
ordenadores por su facilidad de conversión al sistema binario y también por
el ahorro que se obtiene en la representación de números grandes.
Para el sistema octal se utilizan los dı́gitos 0, 1, 2, 3, 4, 5, 6 y 7. Para el
sistema hexadecimal se utilizan los dı́gitos 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C,
D, E y F , donde A = 10, B = 11, C = 12, D = 13, E = 14 y F = 15.
Como ejemplo, el valor posicional de cada unidad en el sistema octal es
84 83 82 81 80 . 8−1 8−2 8−3 8−4

3.2.7 Conversión de un número binario a los sistemas octal o


hexadecimal
Para convertir un número entero binario en octal, basta separar los
dı́gitos en bloques de 3, empezando por la derecha (el último se completa, si
es necesario, con ceros). Al escribir el valor decimal de cada bloque (que no
puede exceder de 7) de manera ordenada, se obtiene el número en base 8. Si
el número binario posee parte no entera se procede igual, empezando por el
punto, de izquierda a derecha.
Para pasar un número del sistema octal al binario se procede al revés,
esto es, cada dı́gito del octal se expresa en forma de terna del binario.
Para la conversión de un número binario en hexadecimal (y viceversa)
se procede como en el caso octal, pero ahora los bloques son de 4 dı́gitos.
Vamos a justificar la conversión dada de un número binario al pasar al sistema
octal, cuando es entero, en un caso sencillo. Sea el número binario
a8 a7 a6 . . . a1 a0(2 (3.3)
en donde a7 y a8 podrı́an ser ceros. La expresión (3.3) se puede escribir como sigue:
     
a8 · 22 + a7 · 2 + a6 · 26 + a5 · 22 + a4 · 2 + a3 · 23 + a2 · 22 + a1 · 2 + a0 (3.4)
 2
Ahora bien, como 26 = 23 = 82 y 23 = 8, entonces (3.4) se escribe en octal con
tres dı́gitos como
(a8 · 22 + a7 · 2 + a6 ) (a5 · 22 + a4 · 2 + a3 ) (a2 · 22 + a1 · 2 + a0 )(8 .
3.3. UN POCO DE HISTORIA 65

3.2.8 Ejemplo
Vamos a escribir el número binario 10111101.1011(2 en octal y después
en hexadecimal. Los bloques con 3 dı́gitos del número dado son

010 111 101 . 101 100 (2


↓ ↓ ↓ ↓ ↓
2 7 5 5 4

Si reemplazamos cada bloque por su valor octal (o decimal) se obtiene su


expresión octal: 275.54(8 .
De manera análoga, los bloques con 4 dı́gitos son

1011 1101 . 1011 (2


↓ ↓ ↓
11 13 11

Se obtienen los valores 11, 13 y 11 para los bloques, que corresponden a


B D B(16 .

3.3 UN POCO DE HISTORIA


Hace alrededor de 5000 años, en la antigua Babilonia, la hora ya se dividı́a en 60
minutos y cada minuto en 60 segundos. Se trata del sistema sexagesimal que los babilonios
empleaban también para representar números. Eran números en base 60 que necesitaban
de 59 signos para su representación, algunos de los cuales se construyen a partir de otros
más simples, siguiendo una lógica posicional. De hecho se considera un sistema mixto de
las bases 10 y 60 (ver figura adjunta).
66 3. SISTEMAS DE NUMERACIÓN

No existı́a signo para el 0, que se representaba mediante un espacio vacı́o, lo cual supuso
una dificultad para los arqueólogos a la hora de interpretar los numeros babilónicos. La
notación posicional puso de manifiesto la necesidad de establecer el concepto de cero, que
nació mucho más tarde, en la India, en el siglo VII a.C. Otro tipo de sistemas numéricos no
posicionales, como el de los números romanos, pueden parecer inicialmente más fáciles de
interpretar, pero complican operaciones aritméticas sencillas y la representación de números
grandes. La adopción de sistemas numéricos posicionales facilitó el avance de la aritmética
y el álgebra. El valor de los sistemas posicionales se aprecia también a la hora de manejar
numeros grandes. De hecho, los escribas de Babilonia podı́an expresar todos los números
inferiores a 216000 = 603 con sólo, a lo sumo, dos sı́mbolos y uno o dos espacios. El sistema
más extendido, el de base 10, debe su general implantación a razones biológicas. El hecho
de que el hombre tenga 10 dedos, que le sirven de ayuda en los cálculos sencillos, lleva de
forma natural a utilizar el sistema en base 10.

3.4 EJERCICIOS RESUELTOS


R3.1 (i) Escribe 10 y 11 en base 2. (ii) Escribe 10 y 11 en base 3.
Solución:
(i) Las potencias de 2 son: 1, 2, 4, 8, . . . , y los dı́gitos a utilizar son: 0 y 1.
10 = 8 + 2. Por tanto 10 = 1010(2 .
11 = 8 + 2 + 1. Por tanto 11 = 1011(2 .
(ii) Las potencias de 3 son: 1, 3, 9, 27, . . . , y los dı́gitos a utilizar son: 0, 1, y 2.
10 = 9 + 1. Por tanto 10 = 101(3 .
11 = 9 + 2. Por tanto 11 = 102(3 .

R3.2 Escribe el número 1101011(2 en base 8.


Solución: Convirtamos el número dado en decimal:

1101011(2 = 1 · 26 + 1 · 25 + 0 · 24 + 1 · 23 + 0 · 22 + 1 · 2 + 1 = 107

Escribamos 107 en base 8. Las potencias de 8 son: 1, 8, 64, 512, . . . , y los dı́gitos a
utilizar son: 0, 1, 2, 3, . . . , 6 y 7. Se tiene 107 = 64 + 5 · 8 + 3. Por tanto 107 = 153(8 .
(Para la conversión de 107 a base 8, el lector puede utilizar el algoritmo de la sección
3.1.4 o, alternativamente, el de la sección 3.2.7)

R3.3 Escribe 4231 en base 8.


Solución: Usamos el algoritmo de la sección 3.1.4.

4231 8
23 528 8
71 48 66 8
7 0 2 8 8
0 1

En consecuencia, 4231 = 10207(8 .


3.4. EJERCICIOS RESUELTOS 67

R3.4 Idea un algoritmo para que, en base 4, efectúe la suma


31021(4 + 22331(4.

Solución: Por analogı́a al caso decimal:


3 1 0 2 1(4
+ 2 2 3 3 1(4
1 2 0 0 1 2(4

R3.5 Idea un algoritmo para que realice el producto 1101(2 · 11(2 , en base 2.
Solución: Por analogı́a al caso decimal:
1 1 0 1(2
× 1 1(2
1 1 0 1
1 1 0 1
1 0 0 1 1 1(2

R3.6 Demuestra que, para k ≥ 1 se tiene


2k + 2k−1 + · · · + 2 + 1 = 2k+1 − 1.

Solución: El enunciado se puede escribir (2k + 2k−1 + · · · + 2 + 1) + 1 = 2k+1 , y esto


es obvio si escribimos dicha expresión en sistema binario, pues 2k +2k−1 +· · ·+2+1 =
1 1 . . . 1(2 con k + 1 unos y, por tanto:
1 1 ... 1(2
+ 1(2
1 0 0 ... 0(2

con k + 1 ceros en el resultado de la suma, que es el número 2k+1 .


R3.7 Representa en el sistema binario, con 4 dı́gitos después del punto, los números
reales: (i) 14.375 (ii) 14.5627, utilizando el algoritmo de la sección 3.2.5 (com-
para con el Ejemplo 3.2.4).
Solución: (i) Primero se obtiene la expresión binaria del entero 14 como 1110. Su
parte decimal 0.375 se convierte en binario como sigue:
2 · 0.375 = 0.75 por lo que a1 = 0, d1 = 75,
2 · 0.75 = 1.5 por lo que a2 = 1, d2 = 5,
2 · 0.5 = 1 por lo que a3 = 1, d3 = 0.
Por tanto 0.375 se representa de forma exacta en binario como 0.011. En consecuen-
cia, el número decimal 14.375 en binario se escribe como 1110.011.
(ii) La parte decimal 0.5627 del segundo número se convierte en binario como sigue:
2 · 0.5627 = 1.1254 por lo que a1 = 1, d1 = 1254,
2 · 0.1254 = 0.2508 por lo que a2 = 0, d2 = 2508,
2 · 0.2508 = 0.5016 por lo que a3 = 0, d3 = 5016,
2 · 0.5016 = 1.0032 por lo que a4 = 1, d4 = 0032
y ası́ sucesivamente. Por tanto, 0.5627 es 0.1001 . . . en binario. En consecuencia el
número decimal 14.5627 se escribe en binario como 1110.1001 . . .
68 3. SISTEMAS DE NUMERACIÓN

R3.8 Representa en binario los números reales 5.75 y 10.82 con 3 y 4 dı́gitos exactos
detrás del punto, respectivamente.
Solución: Aplicamos el algoritmo de la sección 3.2.3.
Se tiene 0.75 · 23 = 6, que es entero. Obviamente 6 = 110(2 . Calculemos 110(2 :
1000(2 = 0.110(2 . Por tanto 0.75 = 0.11(2 exacto.
Ası́ pues, como 5 = 101(2 , se tiene que 5.75 = 101.11(2 .
Por otra parte, 0.82 · 24 = 13.1, E [13.1] = 13. Obviamente 13 = 1101(2 . Calculemos
1101(2 : 10000 = 0.1101. Por tanto 0.82 = 0.1101(2 .
Ası́ pues, como 10 = 1010(2 , se tiene que 10.82 = 1010.1101 . . .(2 , con 4 dı́gitos
exactos detrás del punto.

R3.9 Escribe el número 4231 en binario a través de su representación octal (ejercicio


R3.3). De la representación binaria, deduce la representación hexadecimal de
4231.
Solución: 4231 = 10207(8 . Consideremos cada dı́gito del número en el sistema
octal como un número decimal y lo escribimos en binario en bloques de 3:

1 0 2 0 7
↓ ↓ ↓ ↓ ↓
001 000 010 000 111

Ası́ pues, 1207(8 = 1000010000111(2 .


Ahora, para obtener la expresión de 4231 en hexadecimal, a partir de la binaria
procedemos a la inversa. Escogemos bloques de 4 dı́gitos de derecha a izquierda y
traducimos su expresión binaria a hexadecimal en cada bloque, como se indica a
continuación:
0001 0000 1000 0111
↓ ↓ ↓ ↓
1 0 8 7
Por tanto, 4231 = 1087(16

R3.10 (i) Escribe 538 en base hexadecimal.


(ii) Deduce de (i) la expresión de 538 en binario.
(iii) Deduce de (ii) la expresión de 538 en octal.
Solución: Utilizaremos el algoritmo de la sección 3.1.4 para (i)

(i)
538 16
058 33 16
10 1 2
Por tanto, 538 = 21A(16 , dado que 10 = A en hexadecimal.
(ii) Consideremos cada dı́gito de la expresión octal como un número decimal y lo
escribimos en binario en bloques de 4 como sigue:

2 1 A
↓ ↓ ↓
0010 0001 1010

Por tanto, 538 = 1000011010(2 .


3.4. EJERCICIOS RESUELTOS 69

(iii) Para obtener la expresión octal haremos bloques de 3 en la expresión binaria,


de derecha a izquierda y escribiremos en decimal el valor del número binario
de cada bloque, como se muestra a continuación

001 000 011 010


↓ ↓ ↓ ↓
1 0 3 2

Por tanto, 538 = 1032(8 .


71

Capı́tulo 4

ESPACIOS VECTORIALES

La estructura de espacio vectorial es frecuente en matemáticas. A partir


de ella se crea la llamada Álgebra Lineal. Su conocimiento facilita el desarrollo
de la teorı́a de matrices y sistemas de ecuaciones lineales, tan necesaria en
todos los campos de la ciencia.
Un ejemplo fı́sico-geométrico sencillo de la estructura de espacio vecto-
rial lo encontramos en la teorı́a de vectores libres en el plano o espacio.
El lector deberá prestar especial atención a la notación en el Álgebra
Lineal. Ası́, la ecuación x − y = 0 en R2 define, sin ambiegüedad, la recta
r = {(x, y) ∈ R2 : x − y = 0}. Sin embargo la ecuación x − y = 0 sin contexto
determinado, carece de sentido. En efecto, puede ser, por ejemplo, el plano
π = {(x, y, z) ∈ R3 : x − y = 0}, que se puede denotar π ≡ x − y = 0.

4.1 ESPACIOS VECTORIALES


4.1.1 El espacio vectorial Rn
Sean a = (a1 , a2 , . . . , an ) y b = (b1 , b2 , . . . , bn ) elementos de Rn y sea
λ ∈ R. Definimos la siguiente ley interna, +, denominada suma, en Rn

a + b = (a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn ) = (a1 + b1 , a2 + b2 , . . . , an + bn ).

Esta ley es asociativa y conmutativa. Además (0, 0, , . . . , 0), denominado ele-


mento nulo, y denotado 0, es el neutro de la suma (es decir a+ 0 = 0 + a = a,
para cualquier a ∈ Rn ). Todo elemento a tiene su opuesto, se escribe −a, que
es (−a1 , −a2 , . . . , −an ). Por todo ello (Rn , +) es un grupo conmutativo.
Definimos ahora una ley externa · : R × Rn → Rn como sigue:

λ · (a1 , a2 , . . . , an ) = (λ · a1 , λ · a2 , . . . , λ · an ).
72 4. ESPACIOS VECTORIALES

Esta ley cumple las siguientes propiedades

1. α · (β · a) = (α · β) · a

2. (α + β) · a = α · a + β · a

3. α · (a + b) = α · a + α · b

4. 1 · a = a

donde α, β, denotan, como es usual, a números reales, mientras que las letras
latinas a, b denotan elementos de Rn .
Cuando se dispone de un grupo conmutativo (V, +) y de una ley externa
que cumple las propiedades 1-4, se dice que (V, +) es un espacio vectorial
sobre el cuerpo de los reales, o simplemente que V es un espacio vectorial
real. La estructura de espacio vectorial se presenta con mucha frecuencia
en Fı́sica y Matemáticas. Por esta razón, los conceptos y propiedades que
se establecerán en este capı́tulo no se remitirán sólo a Rn sino a un espacio
vectorial V cualquiera.
Como es usual, a los números reales los representaremos mediante letras
griegas, y suelen denominarse escalares. A los elementos de V se les llama
vectores y se les representa por letras latinas; algunos autores les superponen
flechas, pero nosotros los escribiremos con negrita. Es también usual llamar
a los elementos de Rn puntos.
Denominaremos plano y espacio (cartesianos) a los espacios vectoriales
R2 y R3 , respectivamente.

4.1.2 Representaciones geométricas

La suma algebraica antes definida en el caso particular del plano tiene


la siguiente interpretación geométrica:
Representemos el vector (a, b) ∈ R2 por un segmento orientado
(flecha) que parte del origen (0, 0) y tiene su extremo en (a, b). Entonces,
si u, v ∈ R2 , el vector u + v se corresponde con la diagonal del paralelogramo
que puede construirse con u y v. Por otra parte, para λ
= 0, λ u es un vector
de longitud |λ| veces la de u, de igual dirección que u y que, además, tiene el
mismo sentido que u si λ > 0. Véase la figura siguiente en donde se muestra
la suma de vectores en R2 a la izquierda, y el producto de escalar por vector
a la derecha.
4.1. ESPACIOS VECTORIALES 73

u = (4, 1), v = (2, 3), u = (4, 2), 12 u = (2, 1),


u + v = (6, 4). −u = (−4, −2).

Las interpretaciones geométricas en el espacio son similares.


En lo que sigue de este capı́tulo, (V, +) es un espacio vectorial real y 0
su elemento nulo.

4.1.3 Subespacios vectoriales


Sea H un subconjunto no vacı́o de V . Si (H, +) es un espacio vec-
torial, entonces se dice que H es un subespacio vectorial (o simplemente
subespacio si no hay posibilidad de confusión) de V .
Si G y H son subespacios de V , entonces G ∩ H también es subespacio
de V .
{0} también es un subespacio de V , denominado subespacio impro-
pio (sólo tiene interés teórico). Los demás subespacios de V (excluyendo el
{0} y el propio V ) son los subespacios propios.
Los subespacios de Rn se pueden definir mediante ecuaciones homogé-
neas de primer grado o por sistemas de estas ecuaciones.

4.1.4 Subespacios de R2 y R3
Los únicos subespacios propios de R2 son las rectas que pasan por el
origen (rectas vectoriales). En R3 son las rectas y planos que pasan por el
origen. Se invita al lector a que verifique geométricamente los axiomas de
espacio vectorial recordando cómo se efectúa en Fı́sica la suma de vectores de
igual dirección.
Si r es una recta del plano que no pasa por el origen (0, 0), entonces r no es subespacio
dado que el elemento nulo 0 = (0, 0) no pertenece a r.

4.1.5 Combinaciones lineales


Sean v 1 , . . . , vn vectores de V y α1 , . . . , αn escalares de R. Al vector
v obtenido en la ecuación vectorial v = α1 v 1 + · · · + αn v n se le denomina
74 4. ESPACIOS VECTORIALES

combinación lineal de v 1 , . . . , v n , y a los escalares α1 , . . . , αn se les llama


coordenadas de v respecto (referidas a) v 1 , . . . , v n (en el orden precisado).
Es fácil demostrar que el conjunto v 1 , . . . , v n  formado por todas las
combinaciones lineales posibles de v 1 , . . . , v n , constituye un subespacio vec-
torial de V que obviamente contiene al vector nulo y a v i , i = 1, 2, . . . , n.
Si v 1 , . . . , v n  = V se dice que v 1 , . . . , v n constituye un sistema ge-
nerador de V , o que engendran V . También se dice que V es de dimensión
finita.
Evidentemente 0 = {0}.
Se dice que dos sistemas o conjuntos de vectores son equivalentes
si engendran el mismo espacio vectorial.

4.1.6 Rectas vectoriales en Rn

Si v es un vector no nulo de Rn , el subespacio v = {λ · v : λ ∈ R}


se le denomina recta vectorial. Si v = (v1 , v2 , . . . , vn ), entonces un vector
x = (x1 , x2 , . . . , xn ) de Rn pertenece a v si para algún λ ∈ R se verifica:

(x1 , x2 , . . . , xn ) = λ · (v1 , v2 , . . . , vn ) (ecuación vectorial de v) (4.1)

que equivale a escribir




⎪ x1 = λ v1


⎨ x2 = λ v2
.. (ecuaciones paramétricas de v) (4.2)

⎪ .



x n = λ vn

y que admite la siguiente expresión formal (pues carece de sentido si algún vi


es cero)
x1 x2 xn
= = ··· = (ecuación continua de v). (4.3)
v1 v2 vn

En el caso de R2 o R3 , a través de (4.3) y por consideraciones elementales de


geometrı́a, se concluye que los puntos de v se caracterizan porque tienen la
misma dirección. Suele decirse que v es un vector director de la recta r = v.
Es obvio que cualquier vector no nulo de v (y por tanto proporcional a v)
es también vector director. Por otra parte λ · v tiene igual sentido que v si
λ > 0, y sentido contrario si λ < 0.
4.1. ESPACIOS VECTORIALES 75

4.1.7 Ejemplo
(a) La ecuación vectorial de la recta r del plano R2 que tiene vector director
v = (2, 1) es (x, y) = λ · (2, 1). Las ecuaciones paramétricas de r son
®
x = 2·λ
r≡
y = λ
x y
y la ecuación continua es r ≡ = , de la cual deducimos su ecuación
2 1
x
explı́cita y = .
2
El punto (vector) dado (6, 3) pertenece a r y tiene el sentido de v pues
6 3
(6, 3) = 3 · (2, 1), ó también porque = (= 3). Sin embargo (4, 3)
∈ r
2 1
pues no verifica la ecuación continua de r. (En efecto, 42
= 31 ).

(b) La ecuación vectorial de la recta s del espacio R3 que tiene vector direc-
tor v = (−2, 0, 1) es (x, y, z) = λ·(−2, 0, 1). Las ecuaciones paramétricas
de s son ⎧

⎨ x = −2 · λ
s≡ y = 0

⎩ z = λ

x y z
y la ecuación continua es s ≡ = = (que en este caso tiene
−2 0 1
sentido como reinterpretación de sus dos ecuaciones anteriores).
El punto (vector) (6, 0, −3) pertenece a s y tiene sentido contrario a
6
v pues (6, 0, −3) = −3 · (−2, 0, 1) (o también −2 = 00 = −3 1 = −3,
0
si obviamos el cociente 0 que carece de sentido). Como (6, 1, −3)
=
λ · (−2, 0, 1), cualquiera que sea λ ∈ R, se tiene que (6, 1, −3)
∈ s.

(c) Los vectores (1, 1, 1, 1), (−2, −2, −2, −2), (4, 4, 4, 4) están en una misma
recta de R4 , por ejemplo en la engendrada por b = (1, 1, 1, 1). Sin em-
bargo (1, 2, 2, 2) no pertenece a dicha recta pues, por ejemplo,
1 2 2 2
1
= 1 = 1 = 1 .

4.1.8 Interpretaciones geométricas


Sencillos razonamientos geométricos nos llevarı́an a observar que, si u y
v son de distinta dirección en R2 , entonces u, v = R2 . Si u y v son vectores
de distinta dirección en R3 , entonces u, v es un plano vectorial, esto es, un
plano que pasa por el origen.
En el caso en que u, v sea un plano vectorial de R3 , entonces si
w∈ / u, v se concluye fácilmente que u, v, w = R3 .
76 4. ESPACIOS VECTORIALES

En las figuras siguientes, de izquierda a derecha se muestra la recta


vectorial engendrada por el vector u; la recta vectorial engendrada por los
vectores proporcionales u y v; el plano vectorial engendrado por los vectores
de distinta dirección u y v; y el espacio R3 engendrado por los vectores u, v
y w.

u
v u <u,v>
u
<u> v w
<u,v> <u,v,w>=R3
u v

4.1.9 Dependencia lineal

Sean v 1 , v 2 , . . . , v n vectores de V . A α1 v1 + · · · + αn vn = 0 se le llama


combinación lineal nula. En particular 0 · v 1 + · · · + 0 · v n = 0 se la
denomina trivial nula.
Se dice que el sistema v 1 , v 2 , . . . , v n es ligado o linealmente depen-
diente si podemos encontrar una combinación lineal no trivial nula entre ellos
o, equivalentemente, si algún vi es combinación lineal de los restantes. En
caso contrario el sistema se denomina libre o linealmente independiente.
De la definición se desprende que {0} es siempre ligado. Además {v}
es libre si y sólo si v es no nulo.
En el caso de dos vectores u, v no nulos es obvio que {u, v} es ligado
si y sólo si v = αu. En particular en Rn dos vectores u, v constituyen un
sistema ligado si y sólo si u y v son proporcionales.
En la figura siguiente se muestran un sistema ligado (a la izquierda) y
otro libre en R2 (a la derecha).

3
2
1 1

1 2 1 2

Salvo casos particulares, saber si un sistema con tres o más vectores


es o no ligado puede ser laborioso y se aconseja utilizar el método de Gauss
(sección 4.3).
4.2. BASE DE UN ESPACIO VECTORIAL 77

4.1.10 Ejemplos
2 1 −3
(a) {(2, 1, −3), (4, 2, −6)} es un sistema ligado de R3 pues = = .
4 2 −6
Obsérvese que si llamamos u = (2, 1, −3) y v = (4, 2, −6) se tiene v = 2u o equiva-
lentemente 2u − v = 0.

2 1
(b) {(2, 1), (1, 3)} es un sistema libre de R2 pues
= .
1 3

(c) {(1, 2, 0, 0), (0, −1, 0, 1), (0, 1, 1, 1)} es un sistema libre de R4 pues la
única solución de α(1, 2, 0, 0) + β(0, −1, 0, 1) + γ(0, 1, 1, 1) = (0, 0, 0, 0)
es α = β = γ = 0.

⎧ efecto: De α(1, 2, 0, 0) + β(0, −1, 0, 1) + γ(0, 1, 1, 1) = (0, 0, 0, 0) se tiene


En


α = 0
2α − β + γ = 0
, cuya única solución es α = β = γ = 0.

⎩ γ = 0
β + γ = 0

4.1.11 Consecuencias

De las definiciones anteriores se deduce sin dificultad que:

(a) Cualquier sistema de vectores que contiene un sistema ligado, es ligado.

(b) Cualquier subconjunto de un sistema libre, es libre.

4.2 BASE DE UN ESPACIO VECTORIAL


4.2.1 Base de un espacio vectorial

Sea B = {v1 , v2 , . . . , vn } un conjunto de vectores de V .


Se dice que el conjunto B = {v1 , v2 , . . . , vn } de vectores de V es una
base de V si cumple alguna de las siguientes dos propiedades (que son equi-
valentes).

(a) B es libre y genera V

(b) Cualquier vector de V se expresa, de manera única, como combinación


lineal de los elementos de B.
78 4. ESPACIOS VECTORIALES

4.2.2 Teorema de la dimensión


El teorema de la dimensión, en espacios vectoriales, establece que todas
las bases de un espacio vectorial (de dimensión finita) tienen el mismo número
de elementos. Este número se denomina dimensión del espacio vectorial
V , y se escibe dim V .
Como consecuencia, si dim V = n y disponemos de un conjunto de n
vectores que es libre o generador, necesariamente constituyen una base de V .

4.2.3 Bases canónicas


Cualquier vector (x1 , . . . , xn ) de Rn se puede escribir de forma única
como (x1 , . . . , xn ) = x1 (1, 0, . . . , 0) + · · · + xn (0, . . . , 0, 1) por lo que
u1 = (1, 0, . . . , 0),. . . ,un = (0, . . . , 0, 1) es una base de Rn (n ≥ 2) denom-
inada base canónica porque las componentes del vector coinciden con sus
coordenadas respecto de dicha base. En consecuencia dim Rn = n.
La base canónica de R2 es {u1 , u2 } donde u1 = (1, 0), u2 = (0, 1). Por
ejemplo, el vector (4, 3) se escribe 4u1 + 3u2 .

La base canónica de R3 la forman los vectores u1 = (1, 0, 0),


u2 = (0, 1, 0), u3 = (0, 0, 1) que se denominan, en ocasiones, i, j, k respecti-
vamente. Ası́, el vector (3, 5, 7) de R3 se puede escribir 3u1 +5u2 +7u3 , o bien,
3i + 5j + 7k.

4.2.4 Teorema de la base incompleta


Sea V de dimensión finita. Todo sistema libre de vectores de V se puede
ampliar hasta conseguir una base de V .
Como corolario se tiene que si H es un subespacio vectorial de V y
dim H = dim V , entonces H = V .

4.3 PROCESO DE REDUCCIÓN DE GAUSS


El proceso de reducción de Gauss es un sencillo algoritmo para obtener
sistemas equivalentes, de forma que el último de ellos se sabe por simple
inspección si es o no libre. El siguiente lema es fácil de demostrar.
4.3. PROCESO DE REDUCCIÓN DE GAUSS 79

4.3.1 Lema

El conjunto de r vectores {(a11 , . . . , a1n ), (0, a22 , . . . , a2n ), . . . , (0, . . . , 0,


arr , . . . , arn )} en Rn , con aii
= 0 (i = 1, . . . , r), es un sistema libre en Rn .

4.3.2 Nota

Si tenemos r vectores en Rn que satisfacen el lema anterior y los es-


cribimos uno debajo de otro en forma de tabla (o matriz), observaremos que
los ceros están dispuestos en cascada por debajo de la diagonal a11 , . . . , arr :

a11 a12 . . . a1r . . . a1n


0 a22 . . . a2r . . . a2n
.. .. .. .. ..
. . . . .
0 ... 0 arr . . . arn

Nótese que si a los vectores anteriores añadimos componentes hacia la


derecha considerándolos vectores de un espacio vectorial de dimensión supe-
rior, entonces continuarı́an siendo linealmente independientes.
Observación: Según (b) de la sección 4.1.11, si falta algún vector fila el
sistema continúa siendo libre, pero la cascada se trunca para dar lugar a lo
que se denomina matriz escalonada.
Ası́, por ejemplo, {(1, 1, 1, 1, 1), (0, 0, 2, 1, 1), (0, 0, 0, 3, 1)} es un con-
junto (de tres vectores) libre en R5 .

1 1 1 1 1
0 0 2 1 1
0 0 0 3 1

Un argumento similar nos llevarı́a a demostrar que si la cascada de ceros aparece en


sentido inverso y por encima de la diagonal, también el conjunto de vectores es libre. La
afirmación se mantiene si reemplazamos diagonal por “diagonal secundaria”.

4.3.3 Ejemplo

El conjunto de vectores B = {(2, 3, 4, 1), (0, 3, 1, 0), (0, 0, 2, 1), (0, 0, 0, 3)}
es libre y, por la sección 4.2.2 es base de R4 .
Por el apartado (b) de las Consecuencias 4.1.11 también es libre cual-
quier subconjunto propio de B, pero no puede constituir base de R4 .
80 4. ESPACIOS VECTORIALES

4.3.4 Proceso de reducción de Gauss


En la práctica el proceso de reducción de Gauss consiste en escribir
r vectores dados de Rn en forma de tabla y obtener sistemas equivalentes de
forma metódica hasta concluir con una cascada de ceros con las limitaciones
que impone la Observación al final de la Nota 4.3.2.
Para la consecución de los sistemas equivalentes, se aplican las tres
operaciones elementales siguientes sobre los vectores fila:

(a) Intercambio de vectores.

(b) Producto de un vector por un escalar no nulo.

(c) Suma a un vector el proporcional de otro vector.

El sistema inicial es ligado sii durante el proceso de Gauss o al finalizar


éste, aparece algún vector nulo.
El método, en la práctica, admite variantes que se usan sin mención
(véase el último paso del Ejemplo 4.3.5). Resulta de utilidad (aunque no es
imprescindible) anotar a la izquierda de los vectores cuantas tranformaciones
realicemos. En particular, ello permite obtener una combinación lineal nula
(no trivial) de los vectores dados cuando el sistema es ligado, o bien conocer
los vectores que pertenecen a la intersección de dos subespacios.

4.3.5 Ejemplo
Nos preguntamos si el conjunto C = {e1 , e2 , e3 , e4 } es una base de R4 ,
donde e1 = (2, 4, −4, 2), e2 = (2, 5, 1, 0), e3 = (3, 8, −3, 2), e4 = (8, 22, 0, 2).
Para ello se realizan los siguientes pasos del proceso de Gauss:
1
e1 = 2 e1 = (1, 2, −2, 1) e1 = (1, 2, −2, 1)
e2 = (2, 5, 1, 0) e2 = e2 −2e1 = (0, 1, 5, −2)
e3 = (3, 8, −3, 2) e3 = e3 −3e1 = (0, 2, 3, −1)
e4 = (8, 22, 0, 2) e4 = e4 −8e1 = (0, 6, 16, −6)

e1 = (1, 2, −2, 1) e1 = (1, 2, −2, 1)


e2 = (0, 1, 5, −2) e2 = (0, −1, −5, 2)
e3 = e3 −2e2 = (0, 0, −7, 3) e3 = (0, 0, 7, −3)
e4 = e4 −6e2 = (0, 0, −14, 6) e
4 = 2e3 −e4 = (0, 0, 0, 0)

El conjunto C  = {e1 , e2 , e3 , e


4 } obtenido es equivalente a C. Como
C es ligado (puesto que contiene al vector nulo), podemos afirmar que C es
ligado y, por tanto, no es base de R4 .
4.3. PROCESO DE REDUCCIÓN DE GAUSS 81

Ahora bien, observando los ceros en cascada se tiene que


B  = {e1 , e2 , e3 } es libre y, en consecuencia, también lo es {e1 , e2 , e3 }. Aten-
diendo al Teorema de la base incompleta 4.2.4, sabemos que podemos añadir
a B  un vector e para conseguir una base de R4 . Este vector puede ser, por
ejemplo, e = (0, 0, 0, 1) dado que {e1 , e2 , e3 , e} es libre por tener una cascada
de ceros. En consecuencia, {e1 , e2 , e3 , e} es base de R4 .
Finalmente, se puede deducir una combinación lineal nula, no trivial,
de los vectores de C a partir de e
4 = 0:

e      
4 = 2e3 − e4 = 2(e3 − 2e2 ) − (e4 − 6e2 )

= 2e2 + 2e3 − e4 = 2(e2 − 2e1 ) + 2(e3 − 3e1 ) − (e4 − 8e1 )

= −2e1 + 2e2 + 2e3 − e4 = −e1 + 2e2 + 2e3 − e4 = 0

4.3.6 Suma de subespacios


Supongamos que G = v 1 , v 2 , . . . , v r  y H = e1 , e2 , . . . , es  son dos
subespacios vectoriales de V . Se denomina suma de G y H al subespacio

G + H = v 1 , v 2 , . . . , v r , e1 , e2 , . . . , es .

Es fácil observar que G + H lo forman vectores que son suma de un vector de


G y otro de H.
Se verifica que dim(G + H) = dim G + dim H − dim(G ∩ H).

4.3.7 Nota
Si dim(G + H) = dim G + dim H, entonces se dice que la suma es directa, y se
escribe G ⊕ H. Ello sucede si y sólo si G ∩ H = {0}.

4.3.8 Ejemplo
Sean los subespacios G y H de R4 dados por G = {(x, y, x, 0) : x, y ∈ R}
y H = {(0, 2y, 0, z) : y, z ∈ R}. Se tiene que G = {x(1, 0, 1, 0) + y(0, 1, 0, 0) :
x, y ∈ R} = (1, 0, 1, 0), (0, 1, 0, 0) y H = {y(0, 2, 0, 0) + z(0, 0, 0, 1) : y, z ∈
R} = (0, 2, 0, 0), (0, 0, 0, 1). Obviamente, dim G = dim H = 2.
Sabemos que G + H = (1, 0, 1, 0), (0, 1, 0, 0), (0, 2, 0, 0), (0, 0, 0, 1). Sin
necesidad de utilizar el proceso de Gauss se observa que dim(G + H) = 3. Ası́
pues, del resultado expuesto en la sección 4.3.6 se tiene 3 = 2+2−dim(G∩H)
y por tanto dim(G ∩ H) = 1.
82 4. ESPACIOS VECTORIALES

4.4 UN POCO DE HISTORIA


Podemos situar el nacimiento del concepto de vector en el año 1843, cuando el
matemático, fı́sico y astrónomo irlandés William Hamilton (1805-1865) planteó un nuevo
sistema de números que extendı́a el sistema de los números complejos. Se trataba de los
cuaternios. Mientras que un número complejo es de la forma a+bi, donde i es un objeto que
satisface que que i2 = −1, un cuaternio es una expresión de la forma a + bi + cj + dk con a,
b, c, y d números reales, y donde i, j y k son objetos que satisfacen ciertas reglas. Pronto se
encontraron aplicaciones de los cuaternios, fundamentalmente en el campo de la Fı́sica. Sin
embargo los cuaternios eran elementos matemáticos difı́ciles de manejar algebraicamente.
A finales del siglo XIX, Josiah W. Gibbs (1839-1903) y Oliver Heaviside (1850-1925), fı́sicos
nortemericano e inglés, respectivamente, hicieron más accesible la manipulación de los cua-
ternios de Hamilton, tomando de ellos sólo la parte no real, bi + cj + dk. A estos objetos
Gibbs los llamó vectores. Por otra parte, la primera formulación moderna (axiomática) de
espacio vectorial la planteó, a finales del siglo XIX, el matemático italiano Giuseppe Peano
(1858-1932).

4.5 EJERCICIOS RESUELTOS


R4.1 Sean los vectores u = (2, 0) y v = (1, 1) de R2 .
(i) Halla los vectores 3 · u, 2 · v, −2 · v, y represéntalos gráficamente.
(ii) Halla w = 3 · u − 2 · v.
(iii) Construye geométricamente w y verifica que coincide con el resultado
algebraico.
Solución:

3·u = 3 · (2, 0) = (6, 0)


(i) 2·v = 2 · (1, 1) = (2, 2)
−2 · v = −2 · (1, 1) = (−2, −2)

(ii) w = 3 · (2, 0) − 2 · (1, 1)) = (6, 0) − (2, 2) = (4, −2)

(iii)

R4.2 Aplica la definición para probar que B = {(−1, 1), (1, 3)} es un sistema libre
(linealmente independiente) en R2 (y por lo tanto es una base de R2 ).
Solución: Escribiremos la combinación lineal nula α · (−1, 1) + β · (1, 3) = (0, 0).
De ella se desprende
(−α, α) + (β, 3 β) = (0, 0), es decir, (−α, +β, α + 3 β) = (0, 0).
4.5. EJERCICIOS RESUELTOS 83
ß
−α + β = 0
Por tanto, , cuya única solución es α = 0, β = 0.
α +3β = 0

R4.3 Sea B = {e1 , e2 } una base de R2 , donde e1 = (−1, 1), e2 = (1, 3). Halla
las coordenadas del vector w = (5, 7) respecto la base B y respecto la base
canónica.
Solución: Hemos de escribir la combinación lineal, w = α · e1 + β · e2 para conocer
las coordenadas α y β de w respecto B. Se tiene (5, 7) = α · (−1, 1) + β · (1, 3). Por
tanto, (5, 7) = (−α, α) + (β, 3 β) = (−α + β, α + 3 β).
ß
5 = −α + β
Se tiene pues , cuya solución es α = −2 y β = 3.
7 = α +3β
Sin necesidad de hacer cálculos, las coordenadas de w respecto la base canónica son
5 y 7 (en efecto, (5, 7) = 5 · (1, 0) + 7 · (0, 1)).
R4.4 (Problema del cambio de base)
Se dispone de dos bases B y C del plano, R2 , donde B = {e1 , e2 } y
C = {v1 , v 2 }. Se sabe que v 1 = 2 · e1 − e2 y v 2 = e1 + 3 · e2 . Si un vector w
de R2 tiene por coordenadas (2, −3) respecto C, entonces ¿qué coordenadas
tiene w respecto B?
Solución: Del enunciado se desprende que w = 2 · v 1 − 3 · v 2 . Por tanto,

w = 2·v 1 −3·v 2 = 2·(2·e1 −e2 )−3·(e1 +3·e2 ) = 4·e1 −e2 −3·e1 −9·e2 = e1 −10·e2

Las coordenadas de w respecto B son (1, −10).


R4.5 Razona cuáles de los siguientes sistemas de vectores de R3 son libres, y qué
engendra cada uno de ellos:
(i) S1 = {(1, 1, −2)}, S2 = {(−2, −2, 4)}, S3 = {( 12 , 12 , −1)}, S4 = {(1, 1, −2),
(−2, −2, 4)}.
(ii) S5 = {(1, 1, −2), (1, 3, 5)}, S6 = {(1, 1, −2), (−2, −2, 4) (1, 3, 5)}.
(iii) S7 = {(1, 0, 0), (0, 1, 0), (1, 1, 1)}, S8 = {(1, 0, 0), (0, 1, 0), (1, 1, 1), (1, 2, 3)}.

Solución:

(i) S1 , S2 y S3 son sistemas libres (están formados por un vector no nulo). S4


es un sistema ligado pues los dos vectores que lo forman son proporcionales
1 1
−2
= −2 = −2
4
.
S1 engendra la recta vectorial con vector director (1, 1, −2) que se escribe
(1, 1, −2).
S2 y S3 engendran rectas vectoriales, que coinciden con (1, 1, −2) pues sus
vectores directores son, como es fácil observar, proporcionales a (1, 1, −2).
La ecuación vectorial de (1, 1, −2) es (x, y, z) = λ · (1, 1, −2), λ ∈ R, y su
ecuación continua es x1 = y1 = −2
z
.
(ii) Los vectores de S5 no son proporcionales, por lo que S5 es un sistema libre y
engendra un plano de ecuación vectorial

(x, y, z) = α · (1, 1, −2) + β · (1, 3, 5), α, β ∈ R.

S6 es ligado (linealmente dependiente) pues contiene dos vectores propor-


cionales, por lo que podemos prescindir de (−2, −2, 4), y S6 engendra el mismo
plano que S5 .
84 4. ESPACIOS VECTORIALES

(iii) Como (1, 1, 1) no se encuentra en el plano que engendran (1, 0, 0) y (0, 1, 0) (es
decir (1, 1, 1) no es combinación lineal de ambos), entonces S7 es libre y, por lo
tanto, base de R3 .
S8 engendra también R3 pero necesariamente (1, 2, 3) es combinación lineal de
los restantes vectores. Es decir, S8 es ligado.

R4.6 Halla una base de cada uno de los siguientes subespacios vectoriales de R3 .
Encuentra una ecuación (o dos, según proceda) que defina dicho subespacio
(lo cual puede utilizarse para reescribir el subespacio):

(i) {(x, 0, 0) : x ∈ R} (ii) {(0, y, 0) : y ∈ R}


(iii) {(x, y, 0) : x, y ∈ R} (iv) {(x, x, z) : x, z ∈ R}
(v) {(2y, y, 0) : y ∈ R} (vi) {(y + 2z, y, z) : y, z ∈ R}

Solución: (i) Cada vector del conjunto considerado se escribe de forma única como
(x, 0, 0) = x(1, 0, 0), por lo que {(1, 0, 0)} es una base de dicho subespacio.
Es fácil observar que todos los vectores del conjunto anterior tienen nulas la segunda
y tercera componentes, en cambio, la primera componente puede tomar cualquier
valor. En consecuencia, este conjunto puede escribirse de la forma {(x, y, z) ∈ R3 :
y = 0, z = 0}. Las ecuaciones que definen este subespacio son y = 0, z = 0.
Las respuestas a los demás apartados son análogas y las daremos de manera abre-
viada.
(ii) (0, y, 0) = y(0, 1, 0). Una base es {(0, 1, 0)}. Las ecuaciones que definen este
subespacio son x = 0, z = 0.
(iii) (x, y, 0) = x(1, 0, 0) + y(0, 1, 0). Una base es {(1, 0, 0), (0, 1, 0)}. Una ecuación
que lo define es z = 0.
(iv) (x, x, z) = x(1, 1, 0) + z(0, 0, 1). Una base es {(1, 1, 0), (0, 0, 1)}. Una ecuación
que lo define es x − y = 0 (o, x = y).
(v) (2y, y, 0) = y(2, 1, 0). Una base es {(2, 1, 0)}. Ecuaciones de este subespacio son
x = 2y (o, x − 2y = 0), z = 0.
(vi) (y + 2z, y, z) = y(1, 1, 0) + z(2, 0, 1). Una base es {(1, 1, 0), (2, 0, 1)}. Una
ecuación que lo define es x = y + 2z (o, x − y − 2z = 0).
R4.7 Determina si el conjunto dado por B = {e1 , e2 , e3 } es una base de R3 , donde
e1 = {(0, 2, 1)}, e2 = {(1, −1, 0)} y e3 = {(−2, 5, 1)}.
Solución: Aplicaremos el algoritmo de Gauss al sistema {e1 , e2 , e3 }, pero inter-
cambiando e1 por e2 por razones obvias.

e2 = 1 −1 0 e2 = 1 −1 0
e1 = 0 2 1 e1 = 0 2 1

e3 = −2 5 1 e3 = e3 + 2 · e2 = 0 3 1

e2 = 1 −1 0
e1 = 0 2 1
 
e3 = 2 · e3 − 3 · e1 = 0 0 −1

En consecuencia, B es base de R3 (no hacı́a falta el último paso dado que los vectores

e1 y e3 no eran proporcionales, y por tanto en el siguiente paso del algoritmo no podı́a
aparecer el vector nulo).
4.5. EJERCICIOS RESUELTOS 85

R4.8 Sean E, F y G los siguientes subespacios vectoriales de R3 : E = {(x, 0, 0) :


x ∈ R}, F = {(0, y, 0) : y ∈ R}, G = {(x, y, 0) : x, y, ∈ R}.
(i) Reconoce geométricamente E, F y G.
(ii) Reconoce geométricamente E + F .
Solución: (i) E y F son las rectas vectoriales que definen los ejes cartesianos OX
y OY respectivamente. G es el plano vectorial que definen ambas rectas.
(ii) Al sumar los vectores (x, 0, 0) de E con los vectores (0, y, 0) de F se obtienen
los vectores (x, y, 0) de E + F , que es el plano vectorial G. Como {(1, 0, 0)} y
{(0, 1, 0)} son bases de E y F respectivamente (véase el ejercicio R4.6), entonces
E +F = (1, 0, 0), (0, 1, 0). Como {(1, 0, 0), (0, 1, 0)} es libre, entonces dim(E +F ) =
2 = dim E + dim F por lo que, según la Nota 4.3.7 se tiene la suma directa E ⊕ F .
(También se puede argumentar mediante el hecho de que E ∩ F = {0}.)
R4.9 Sea H = (1, 1, 1), (0, 1, 2), (1, a, 0). Determinar el valor de a para que el
subespacio vectorial H de R3 sea de dimensión 2.
Solución: Por aplicación del proceso de Gauss se tiene que

e1 = ( 1, 1, 1) e1 = ( 1, 1, 1)
e2 = ( 0, 1, 2) e2 = ( 0, 1, 2)
e3 = ( 1, a, 0) e3 = e3 − e1 = ( 0, a − 1, −1)

e1 = ( 1, 1, 1)
e2 = ( 0, 1, 2)
e3 = e3 − (a − 1)e2 = ( 0, 0, 1 − 2a)
Para que dim H = 2 debe suceder que e3 = 0 y, recı́procamente, si e3 = 0 entonces
dim H = 2. Ello equivale a que 1 − 2a = 0, es decir, a que a = 1/2. (A la misma
conclusión se llega si imponemos que los vectores e2 = (0, 1, 2) y e3 = (0, a − 1, 1)
1 2 1
sean proporcionales. En efecto, de = se llega a que a = ).
a−1 −1 2
R4.10 Sean G y H los subespacios de R4 determinados por G = (2, 4, −4, 2),
(2, 5, 1, 0) y H = (3, 8, −3, 2), (8, 22, 0, 2). Hallar una base de G ∩ H.
Solución: El Ejemplo 4.3.5 puso de manifiesto que dim(G + H) = 3. Ası́ pues,
como dim G = dim H = 2, por el resultado expuesto en la sección 4.3.6, deducimos
que dim(G ∩ H) = 1.
En el citado ejemplo se llegó a la ecuación e1 − 2e2 − 2e3 + e4 = 0, la cual indica
que un vector no nulo de G ∩ H es e1 − 2e2 = 2e3 − e4 dado que e1 − 2e2 ∈ G, y
2e3 − e4 ∈ H. Como e1 − 2e2 = (2, 4, −4, 2) − 2(2, 5, 1, 0) = (−2, −6, −6, 2), entonces
una base de G ∩ H es {(−1, −3, −3, 1)}.
R4.11 Sean G = (1, 0, 1), (1, 3, 2), (2, 3, 3), y H = {(x, x, z) : x, z ∈ R} dos subes-
pacios vectoriales de R3 . Hallar
(i) una base de G.
(ii) una base de G ∩ H.
Solución: (i) Nombremos e1 = (1, 0, 1), e2 = (1, 3, 2), e3 = (2, 3, 3). Aplicando
Gauss o por simple inspección se observa que e3 = e1 +e2 y que e1 , e2 son linealmente
independientes. Por tanto, se tiene que {e1 , e2 } es una base de G.
86 4. ESPACIOS VECTORIALES

(ii) Según el ejercicio R4.6 , una base de H está constituida por {v 1 , v 2 } donde
v 1 = (1, 1, 0), y v 2 = (0, 0, 1). Trataremos primero de conocer dim(G + H), para
determinar dim(G∩H), aplicando el proceso de Gauss (con pequeñas modificaciones)
al conjunto {e1 , e2 , v 1 , v 2 }.

e1 = 1 0 1 e1 = 1 0 1 e1 = 1 0 1
e2 = 1 3 2 e2 = e2 −e1 = 0 3 1 e2 = 0 3 1
v2 = 0 0 1 v2 = 0 0 1 v2 = 0 0 1
v1 = 1 1 0 v 1 = v 1 −e1 = 0 1 −1 v 1 = e2 −3v 1 = 0 0 4

Es innecesario proseguir dado que se observa que el sistema formado por los tres
primeros vectores es libre. Ası́ pues, dim(G + H) = 3 por lo que, según la sección
4.3.6, dim(G ∩ H) = 1, dado que dim G = dim H = 2.
Para obtener un vector no nulo de la intersección es innecesario recurrir a una
combinación lineal no trivial nula, pues observemos que v 1 = 4v 2 y, por tanto,
e2 − 3v 1 = 4v 2 , es decir, e2 − e1 − 3(v 1 − e1 ) = 4v 2 . De aquı́ se deduce que
2e1 + e2 = 3v 1 + 4v 2 ∈ G ∩ H puesto que los vectores de la izquierda de la igualdad
son de G y los de la derecha de H.
Ası́ pues, 2e1 + e2 = 2(1, 0, 1) + (1, 3, 2) = (3, 3, 4) es un vector de la intersección no
nulo y, en consecuencia, {(3, 3, 4)} es una base de G ∩ H.
87

Capı́tulo 5

MATRICES

El cálculo matricial es de suma importancia en el Álgebra Lineal dada


la frecuencia con que se presentan las matrices (“tablas”) en los diversos
aspectos del campo socio-económico, o en la formulación de problemas del
ámbito cientı́fico.
No obstante, aquı́ nos ocuparemos del estudio abstracto de las opera-
ciones con matrices que es fundamental para los profesionales de la informati-
zación (que manejan grandes bases de datos), y que nos resultará básico para
los restantes capı́tulos.
Principalmente se trabaja con números reales, pero los resultados que
se dan para coeficientes reales también son válidos para números complejos.

5.1 EL ESPACIO VECTORIAL DE LAS MATRI-


CES
5.1.1 Matriz
Una matriz A es un conjunto de números (elementos o coeficientes)
(aij )1≤i≤m dispuestos en filas y columnas en forma de rectángulo como
1≤j≤n

Ö è
a11 ··· a1n
A= .. ..
. .
am1 · · · amn

Si A = (aij ) es una matriz de m filas y n columnas se dice que es


de dimensión m×n y se denota Am×n . El elemento akl es el que ocupa la
posición (k, l) en la matriz, esto es, está situado en la fila k-ésima y columna
88 5. MATRICES

l-ésima. Cuando no sea imprescindible omitiremos cualquier mención a la


dimensión de la matriz.
Una matriz de la forma Am×1 se denomina matriz (vector) fila, y si es
de la forma A1×n , matriz (vector) columna. Una matriz de la forma An×n
se denomina matriz cuadrada de orden n y se denota An . Los elementos
que ocupan la posición (i, i) constituyen la diagonal (principal) de An . La
matriz cuyos elementos son todos ceros se le denomina matriz nula y se
escribe 0. Es frecuente también representar por 0 una zona de una matriz
cuyos coeficientes son todos cero.
Dada una matriz Am×n se denomina submatriz de A a una matriz de
dimensión p×q formada por las filas y columnas consecutivas que quedan en
A al eliminar las m − p y n − q restantes (p ≤ m, q ≤ n).

5.1.2 Ejemplos
Ç å
1 3 2
(a) A = es una matriz de dimensión 2×3.
0 1 2
Ç å
2 i
(b) B = es una matriz cuadrada de orden 2 con coeficientes en
1 1
el cuerpo de los complejos.

(c) C = (−1, 3, 0, 5) es una matriz (vector) fila cuyos elementos se han


separado por comas para una mayor distinción.
Ç å
2
(d) D = es una matriz (vector) columna.
1

(e) Es interesante, a efectos formales, notar que (α) donde α ∈ R es una


matriz de dimensión 1 × 1 que suele identificarse con α.

5.1.3 El grupo abeliano (Mm×n , +)

Al conjunto de todas las matrices de dimensión m×n se le denota por


Mm×n y sobre él definimos la suma (+) como sigue:

(aij ) + (bij ) = (cij ) donde cij = aij + bij , i = 1, . . . , m, j = 1, . . . , n

Es evidente que (Mm×n , +) es un grupo abeliano, donde la matriz


−A = (−aij ) es la opuesta de la matriz A = (aij ), y 0 es el elemento neutro.
5.1. EL ESPACIO VECTORIAL DE LAS MATRICES 89

5.1.4 El espacio vectorial Mm×n


Se define la ley externa · : R × Mm×n → Mm×n de la siguiente forma:
λ · (aij ) = (λaij ). Habitualmente se omite la escritura del punto (·). Es fácil
verificar que Mm×n es un espacio vectorial real.

5.1.5 Ejemplos
Ç å Ç å Ç å
1 3 −5 0 1 1 1 4 −4
(a) + =
2 4 0 −1 0 1 1 4 1
Ç å Ç å
1 3 −2 −2 −6 4
(b) −2· =
0 1 1 0 −2 −2

5.1.6 Base de Mm×n


Los espacios vectoriales Mm×n y Rm·n son, en cierta forma el mismo,
pues sólo cambia la disposición
Ö ègeométrica de los elementos (ver Nota 6.3.2).
1 2
En efecto, la matriz 0 1 de M3×2 se puede identificar con el vector
3 4
(1, 2, 0, 1, 3, 4) ∈ R6 si se escriben las filas de la matriz de manera sucesiva
formando un vector fila.
Resulta evidente que las matrices Uij que son nulas salvo en la posición
(i, j) que tienen un uno, constituyen la base natural de Mm×n , puesto que
toda matriz (aij ) puede escribirse de forma única como
à í à í
Ö è 1 0 ··· 0 0 ··· 0 0
a11 · · · a1m .. .. ..
.. .. 0 0 ··· 0
= a11 +· · ·+amn . . .
. . .. .. ..
. . . 0 ··· 0 0
am1 · · · amn
0 0 ··· 0 0 ··· 0 1

= a11 U11 +· · ·+a1n U1n +· · ·+am1 Um1 +· · ·+amn Umn

con lo que se obtiene que dim Mm×n = m·n.

5.1.7 Ejemplo
® Ç å Ç å Ç å
1 0 0 1 0 0
El conjunto U11 = , U12 = , U21 = ,
0 0 0 0 1 0
Ç å´
0 0
U22 = es una base de M2×2 .
0 1
90 5. MATRICES

5.2 EL ANILLO DE LAS MATRICES CUADRA-


DAS

5.2.1 El producto de matrices

Dada la matriz A = (aij ) de dimensión m×n y la matriz B = (bjk )


de dimensión n×r, se define el producto (·) de A por B como la matriz
C = (cik ) = A·B de dimensión m×r donde cik = ai1 b1k + · · · + ain bnk para
i = 1, . . . , m, k = 1, . . . , r. Se observa que la posición (i, k) de A·B se escribe
como el sumatorio de los productos de los elementos de la fila i-ésima de A
(de izquierda a derecha) por los homólogos de la columna k-ésima de B (de
arriba a abajo).
Obsérvese que el producto A·B sólo es posible si el número de colum-
nas de A coincide con el número de filas de B. A partir de ahora, cuando
indiquemos alguna operación matricial supondremos que las dimensiones de
las matrices son adecuadas.
Es obvio que (α·A) · (β·B) = αβ(A · B) para α, β ∈ R.
Se tienen las siguientes propiedades:

(a) Asociatividad: A · (B·C) = (A·B)·C.

(b) Distributiva respecto la suma a la izquierda y derecha: A · (B + C) =


A·B + A·C, (A + B)·C = A·C + B·C.

Aclaremos que por el orden jerárquico habitual entre la suma y el pro-


ducto, el producto es el primero en realizarse cuando aparecen juntos.
Nota: En el caso de productos con vectores fila y columna, se denomina pro-
ducto interno a (a1 , . . . , anÖ ) · (b1 , . . . , bn )t = a1 b1è
+ · · · + an bn , y producto externo a
a 1 b1 · · · a 1 bn
(a1 , . . . , an )t · (b1 , · · · , bn ) = .. .. (At es la traspuesta de A, ver 5.3.5).
. .
a n b1 · · · a n bn

5.2.2 Ejemplo
Ö è
Ç å1 1 3 −1 Ç å
3 1 4 11 9 26 −2
· 0 2 1 1 =
1 3 −2 −3 5 −2 2
2 1 4 0
Se detalla, a modo de ejemplo, el cálculo del elemento obtenido en la
posición (2, 3): c23 = a21 b13 + a22 b23 + a23 b33 = 1 · 3 + 3·1 − 2·4 = −2.
5.3. TIPOS ESPECIALES DE MATRICES 91

5.2.3 El anillo de las matrices cuadradas (Mn , +, ·)

Designemos por Mn al conjunto de las matrices cuadradas de orden n,


y denominemos matriz identidad In la matriz de Mn que tiene unos en la
diagonal y ceros fuera de ella. Cuando por el contexto se sobreentienda la
dimensión de la matriz identidad, ésta simplemente se denotará como I.
Atendiendo a las secciones 5.1.3 y 5.2.1, (Mn , +, ·) es un anillo y además
unitario, pues se verifica que A·In = In · A = A para toda matriz A de Mn .
Este anillo
Ç no
å es conmutativo
Ç åcomo se muestra en el siguiente
Ç åejemplo:
1 1 0 1 1 3
Sean A = y B = . Se tiene que AB = , y que
2 1 1 2 1 4
Ç å
2 1
BA = .
5 3
Tampoco es un Ç anillo
å ı́ntegro,
Ç åpuesÇ existen
å matrices nulas con producto
0 0 1 0 0 0
nulo; por ejemplo: · = .
0 1 0 0 0 0
Si A es una matriz cuadrada se define An = A· (n.veces
. . ·A, por inducción.
Si A
= 0 y An = 0 para algún n ∈ N∗ , se dice que A es nilpotente.

5.3 TIPOS ESPECIALES DE MATRICES

5.3.1 Matriz inversible

La matriz cuadrada A se dice inversible (regular o no singular) si


existe otra matriz B de manera que AB = BA = I. En tal caso se dice que B
es la inversa de A y se escribe B = A−1 , o equivalentemente, A es la inversa
de B y se escribe A = B −1 .
Si dos matrices A y B son inversibles y de igual dimensión, se verifica
−1
que (A · B)−1 = B −1 · A−1 , y de manera general, (A1 · · · An )−1 = A−1
n · · · A1
si las matrices Ai , i = 1, . . . , n, son inversibles.
No toda matriz es inversible. En particular, una matriz que tenga una
fila nula no puede poseer inversa. Para encontrar la inversa de una matriz
cuadrada A = (aij ) de orden dos basta con resolver, según el Teorema 5.5.5,
la ecuación matricial

Ç åÇ å Ç å
a11 a12 x y 1 0
=
a21 a22 z t 0 1
92 5. MATRICES

que conduce al siguiente sistema de ecuaciones lineales




⎪ a11 x +a12 z=1

⎨ a11 y +a12 t = 0

⎪ a21 x +a22 z =0


a21 y +a22 t = 1

El método es aplicable a matrices escasas, es decir, con relativamente


pocos coeficientes distintos de cero dentro de la matriz. También se puede
utilizar en cualquier matriz cuadrada, pero resulta poco práctico por el gran
número de ecuaciones a que da lugar, por lo que se suelen elegir métodos
alternativos como los que veremos en la sección 5.5.3, y en 7.3.6.

5.3.2 Ejemplos
Ç å Ç1 å
2 0 0 1
(a) Si A = = 2I es obvio que A−1 = 2
1 = I, puesto que
0 2 0 2 2
1
2I · I = I.
2
Ç å
1 1
(b) La matriz C = no posee inversa pues la ecuación matricial
2 2
Ç åÇ å Ç å
1 1 x y 1 0
=
2 2 z t 0 1

conduce al sistema de ecuaciones lineales




⎪ x =1 +z

⎨ y
+t =0

⎪ 2x +2z =0


2y +2t = 1

que, como se observa, no tiene solución.

5.3.3 Matrices triangulares


Una matriz cuadrada A = (aij ) se llama triangular superior si los
elementos por debajo de la diagonal son ceros (aij = 0 si i > j); triangular
inferior si son ceros los de encima de la diagonal (aij = 0 si i < j); y matriz
diagonal si los elementos de fuera de la diagonal son ceros (aij = 0 si i
= j).
Los conjuntos de las matrices triangulares superiores (o inferiores) y
diagonales son subespacios vectoriales y subanillos de Mn .
5.3. TIPOS ESPECIALES DE MATRICES 93

5.3.4 Ejemplo
Las matrices siguientes A, B y C son triangular superior, triangular inferior
y diagonal, respectivamente.
á ë á ë á ë
2 1 1 −1 1 0 0 0 1 0 0 0
0 1 2 1 1 −2 0 0 0 2 0 0
A= , B= , C= .
0 0 3 1 1 3 1 0 0 0 0 0
0 0 0 0 0 2 1 1 0 0 0 3

5.3.5 Traspuesta de una matriz


Se llama traspuesta de la matriz A = (aij ) a la matriz denotada
At = (bij ) donde bij = aji (i = 1, . . . , m, j = 1, . . . , n), es decir, las filas de At
son, en el mismo orden, las columnas de A.
Una matriz cuadrada A se dice simétrica si A = At (i.e. A es simétrica
respecto la diagonal) y antisimétrica si A = −At .
Si A es cuadrada, entonces AAt , y At A son matrices simétricas.

5.3.6 Ejemplos
Ö è
1 2 Ç å
1 0 5
(a) La transpuesta de A = 0 3 es At = .
2 3 4
5 4
(b) Las siguientes matrices A y B son simétrica y antisimétrica, respectiva-
mente: Ö è Ö è
1 2 3 0 1 2
A= 2 0 4 , B= −1 0 −3 .
3 4 1 −2 3 0
Ö è Ö è
5 0 0 5 1 0
(c) La matriz C = 1 0 0 es triangular inferior y C t = 0 0 2
0 2 2 0 0 2
es triangular superior.

5.3.7 Nota
Los conjuntos S y T de todas las matrices simétricas y antisimétricas, respectiva-
mente, de orden n son subespacios vectoriales de Mn . Se verifica que M = S ⊕ T , o
dicho de otra forma, toda matriz cuadrada A se puede descomponer como suma de una
matriz simétrica y otra antisimétrica, de manera única. Esta descomposición es de la forma
A = 21 (A + At ) + 12 (A − At ).
94 5. MATRICES

5.3.8 Propiedades de la matriz traspuesta


(a) (A + B)t = At + B t
(b) (αA)t = α At
(c) (At )t = A
(d) (A B)t = B t At

Demostración: (a), (b) y (c) son obvios. Veamos (d): Sean Am×n = (aij ), Bn×r = (bjk ), y
AB = (cik ). Si (AB)t = (eik ) entonces eik = cki = ak1 b1i + · · · + akn bni , y si B t At = (dik )
entonces dik = b1i ak1 + · · · + bni akn = eik .

5.3.9 Otros tipos de matrices


Una matriz inversible A se dice ortogonal si At = A−1 .
Dos matrices A y D de igual dimensión m×n se dicen equivalentes si existen dos
matrices inversibles Pn y Qm tales que D = Q−1 AP . Si A y D son cuadradas de igual
dimensión n, entonces se dice que son semejantes si existe una matriz (inversible) P tal
que D = P −1 AP . Estas dos relaciones definidas entre matrices resultan ser de equivalencia
en Mm×n y Mn , respectivamente.

5.4 RANGO DE UNA MATRIZ


5.4.1 Definición
El rango de una matriz A, denotado rang A, es el mayor número r
de vectores filas que constituyen un conjunto linealmente independiente. En
esta definición se puede sustituir filas por columnas pues se posee el siguiente
teorema del cual omitimos su laboriosa prueba.

5.4.2 Teorema
rang A = rang At .

5.4.3 Ejemplo
Ö è
1 2 −2 1
2 5 1 0
En el Ejemplo 4.3.5 se ha comprobado que A = 3 8 −3 2
tiene
8 22 0 2
rango 3 mediante el método de Gauss. El lector puede verificar con el mismo
método que el rango de At coincide con el rango de A.
5.5. MATRICES ELEMENTALES 95

5.5 MATRICES ELEMENTALES


5.5.1 Matrices elementales
Variados procesos del álgebra lineal se realizan mediante las tres opera-
ciones elementales del proceso de Gauss (sección 4.3.4). Dichas operaciones
puede considerarse que se realizan sobre las filas de una matriz A. Veremos
que el efecto que produce cada operación elemental sobre A se puede repro-
ducir haciendo el producto E · A, donde E es una matriz inversible única
de dimensión adecuada, denominada matriz elemental . Ası́, la expresión
“efectuar o aplicar una operación elemental sobre A” será equivalente a mul-
tiplicar A por una matriz elemental por la izquierda. Evidentemente hay
tres tipos de matrices elementales, que se corresponden con los apartados (a),
(b), (c) de la Sección 4.3.4, que nosotros, para distinguirlas llegado el caso,
denotamos de manera distinta como ilustra el siguiente ejemplo.

5.5.2 Ejemplos
En los siguientes ejemplos la matriz de la derecha del producto se trans-
forma en la del segundo miembro de la igualdad, después de sufrir una modi-
ficación de sus filas que se explica abajo, tras ser multiplicada por una matriz
elemental (que aparece en negrita) y que denotamos después en negrita.
á ë á ë á ë
0 0 0 1 1 2 1 4 4 0
0 1 0 0 3 1 1 3 1 1
(a) · =
0 0 1 0 0 1 2 0 1 2
1 0 0 0 4 4 0 1 2 1
Se han intercambiado las filas primera y cuarta al multiplicar por E1,4 .
Ç å Ç å Ç å
−2 0 2 1 −1 4 −4 −2 2 −8
(b) · =
0 1 0 1 0 2 0 1 0 2
La primera fila se ha multiplicado por −2 al multiplicar por E1 (−2).
Ö è Ö è Ö è
1 0 0 1 1 1 2 1 1 1 2
(c) 0 1 0 · 0 1 0 0 = 0 1 0 0
2 0 1 1 0 2 1 3 2 4 5
A la tercera fila se le ha sumado el doble de la primera al multiplicar
por E3,1 (2).

Las matrices elementales son modificaciones de la matriz identidad, como sigue. Eij ,
la matriz cuyo objetivo es intercambiar la fila i-ésima y j-ésima, tiene 0 en las posiciones
(i, i), (j, j) y 1 en la posiciones (i, j), (j, i). Ei (α), que reemplaza Ai por α Ai , tiene α en
96 5. MATRICES

la posición (i, i). Eij (α), la que reemplaza Ai por Ai + α Aj , tiene α en la posición (i, j).
Por su propia estructura es fácil concluir que estas matrices son inversibles y sus inversas
son matrices elementales del mismo tipo.

5.5.3 Cálculo de la inversa de una matriz mediante matrices


elementales
Sea A una matriz cuadrada. El método para obtener A−1 , cuando
existe, consiste en efectuar operaciones elementales sucesivas E1 , E2 , . . . , Es
sobre A hasta transformarla en la identidad. Supongamos logrado esto. En-
tonces
Es · Es−1 · · · · · E2 · E1 · A = I (5.1)
Al ejecutar las mismas operaciones elementales, y en el mismo orden sobre I,
se obtiene A−1 , pues
Es · Es−1 · · · · · E2 · E1 · I = A−1 , (5.2)

como se deduce de (5.1)-(5.2).

5.5.4 Ejemplo
Ö è
1 0 0
Tratemos de hallar por el método descrito la inversa de A = 0 2 2 .
3 1 2
Escribiremos la matriz I al lado de la matriz A y ejecutaremos las mismas
operaciones elementales sobre ambas matrices transformando paso a paso la
matriz A hasta obtener la matriz I. De esta forma, la matriz I se transformará
al final en A−1 según el punto anterior.
e1 = (1 0 0 1 0 0) e1 = (1 0 0 1 0 0)
e2 = (0 2 2 0 1 0) e2 = (0 2 2 0 1 0)
e3 = (3 1 2 0 0 1) 
e3 = e3 −3e1 = (0 1 2 −3 0 1)

e1 = (1 0 0 1 0 0) e1 = (1 0 0 1 0 0)
e2 = (0 2 2 0 1 0) e2 = e2 −2e3 = (0 2 0 6 2 −2)
e3 = e3 −2 e2 = (0 0 1 −3 −1
  1
2 1) e3 = (0 0 1 −3 −1
2 1)
e1 = (1 0 0 1 0 0)
1 
e2 = 2 e2 = (0 1 0 3 1 −1)
−1
e3 = (0 0 1 −3 2 1)
Ö è
1 0 0
Por tanto, A−1 = 3 1 −1 .
−1
−3 2 1
5.5. MATRICES ELEMENTALES 97

Dado que el producto de matrices no es conmutativo, el siguiente teo-


rema es de gran interés práctico.

5.5.5 Teorema
Si A y B son matrices cuadradas y AB = I, entonces BA = I (es decir,
A es la inversa de B).

5.5.6 Inversas de matrices triangulares


Es fácil demostrar que la inversa de una matriz triangular A existe si
y sólo si los elementos aii de la diagonal de A son distintos de cero. En tal
caso A−1 es triangular del mismo tipo que A, y los elementos de la diagonal
1
de A−1 son , (i = 1, . . . , n). En particular, si la matriz A = (aij ) es
a ii Ö è
1/a11 0
diagonal y aii
= 0, i = 1, . . . , n, se tiene que A−1 = ..
.
0 1/ann
es diagonal.

5.5.7 Ejemplo
Consideremos las matrices triangulares siguientes
Ö è Ö è Ö è
3 2 7 2 0 0 2 0 0
1
A= 0 0 4 , B= 1 −3 0 , C= 0 5 0 .
1
0 0 2 2 0 6 0 0 −3

Entonces A no posee inversa y B y C poseen inversa, siendo


Ö è Ö è
1 1
20 0 2 0 0
B −1 = 1
− 13 0
6 , C −1 = 0 5 0 .
−6 0 6 0 0 − 13

5.5.8 Descomposición LU
Con alguna pequeña restricción y ligera modificación que ilustramos
en el Ejemplo 5.5.9 y de forma similar a la sección 5.5.3 se puede obtener
el siguiente resultado que es de interés para resolver sistemas de ecuaciones
lineales.
Si A es una matriz inversible admite, al menos, una reordenación de
sus filas de modo que la nueva matriz B obtenida puede descomponerse en
98 5. MATRICES

forma de producto como B = L·U donde L es una matriz triangular inferior


(“Lower”) con unos en la diagonal, y U es una matriz triangular superior
(“Upper”) sin ceros en su diagonal.
Prueba abreviada. Supongamos que sin necesidad de intercambiar filas obtenemos
Es ·· · · ·E1 ·A = U . Entonces A = L·U , donde L = (Es ·· · · ·E1 )−1 , que es triangular inferior
por serlo cada Ei , i = 1, 2, . . . , s. Obsérvese que si efectuamos Es · · · · · E1 · I, entonces L es
la inversa de la matriz que finalmente se obtiene.

5.5.9 Ejemplo
Ö è
1 1 2
Vamos a efectuar la descomposición LU de la matriz A = 2 1 1 .
0 1 1
Para ello, efectuamos operaciones elementales sobre A hasta obtener U ,
y repetimos las mismas sobre I, como sigue:
e1 = (1 1 2 1 0 0) e1 = (1 1 2 1 0 0)

e2 = (2 1 1 0 1 0) e2 = e2 − 2 e1 = (0 −1 −3 −2 1 0)
e3 = (0 1 1 0 0 1) e3 = (0 1 1 0 0 1)
e1 = (1 1 2 1 0 0)

e2 = (0 −1 −3 −2 1 0)
 
e3 = e3 + e2 = (0 0 −2 −2 1 1)
Según la prueba de la sección 5.5.8, las dos matrices últimas son U y L−1 .
Por tanto Ö è−1 Ö è
1 0 0 1 0 0
L= −2 1 0 = 2 1 0
−2 1 1 0 −1 1
Ası́ pues Ö è Ö è
1 0 0 1 1 2
A= 2 1 0 · 0 −1 −3
0 −1 1 0 0 −2

5.5.10 Matrices escalonadas. Descomposición LS


Dada la matriz A = (aij ) llamamos elemento distinguido al primer coeficiente, desde
la izquierda, de cada fila que no sea cero.
Se dice que A es una matriz escalonada si el elemento distinguido de cada fila
está a la derecha de los distinguidos en filas anteriores, y si existen filas nulas, éstas son las
últimas.
La matriz escalonada A se dice reducida si los elementos distinguidos son unos y
además son los únicos coeficientes distintos de cero en sus columnas respectivas. La matriz
nula es una matriz escalonada reducida.
5.5. MATRICES ELEMENTALES 99

Dada una matriz A podemos obtener, mediante operaciones elementales sobre A, una
matriz escalonada cuyos elementos distinguidos son unos que recibe el nombre de forma
escalonada de A. Más todavı́a, se puede demostrar que toda matriz tiene una forma
(escalonada) reducida, que es única.
Se denomina descomposición LS de la matriz A a una factorización A = L · S
donde L es una matriz inversible triangular inferior y S es una matriz escalonada cuyos
elementos distinguidos son unos. En el caso de que la forma escalonada S de A se obtenga
sin intercambio de filas (i.e. sin usar la primera operación elemental), dicha descomposición
es siempre posible y L = (Es , Es−1 , . . . , E1 )−1 siendo E1 , . . . , Es las matrices elementales,
del tipo (b) o (c), que en ese orden actúan sobre A para obtener S. De ello se desprende el
método para obtener la descomposición LS como ilustra el Ejemplo 5.5.11.
Una matriz A puede no admitir descomposición LS, y en el caso de que tenga puede
que no sea única. No obstante si A es de dimensión m × n y su forma escalonada puede
obtenerse sin intercambio de filas, entonces A tiene una única factorización A = L · S si y
solamente si rang A = m.

5.5.11 Ejemplo
Ö è Ö è
3 0 2 5 0 1 0 6 0 0
0 0 1 2 4 0 1 6 0 4
(a) Matriz escalonada: . Matriz reducida: .
0 0 0 3 0 0 0 0 1 0
0 0 0 0 0 0 0 0 0 0
 
1 1 −1 1 4
(b) Dada la matriz A = 2 −1 3 2 −1 , vamos a hallar una descomposición
−4 5 −11 4 11
LS. Para ello obtendremos la forma escalonada S de A transformando A en las siguientes
matrices sucesivamente
Ñ é
e1 = 1 1 −1 1 4 1 0 0
e2 = 2 −1 3 2 −1 0 1 0 ,
e3 = −4 5 −11 −4 11 0 0 1
Ñ é
e1 = 1 1 −1 1 4 1 0 0

e2 = e2 − 2e1 = 0 −3 5 0 −9 −2 1 0 ,
e3 = −4 5 −11 −4 11 0 0 1
Ñ é
e1 = 1 1 −1 1 4 1 0 0

e2 = 0 −3 5 0 −9 −2 1 0 ,

e3 = e3 + 4e1 = 0 9 −15 0 27 4 0 1
Ñ é
e1 = 1 1 −1 1 4 1 0 0

e2 = 0 −3 5 0 −9 −2 1 0 ,
  
e3 = e3 + 3e2 = 0 0 0 0 0 −2 3 1
Ñ é
e1 = 1 1 −1 1 4 1 0 0
 
e2 = − 31 e2 = 0 1 − 53 0 3 2
3 − 31 0 .

e3 = 0 0 0 0 0 −2 3 1
100 5. MATRICES

Las dos últimas matrices son S y L−1 . Por lo tanto


 −1  
1 0 0 1 0 0
2
L= 3
− 13 0 = 2 −3 0 .
−2 3 1 −4 9 1
En consecuencia,
   
1 0 0 1 1 −1 1 4
A=L·S = 2 −3 0 · 0 1 − 53 0 3 .
−4 9 1 0 0 0 0 0

5.6 MATRICES POR BLOQUES


5.6.1 Matrices por bloques
Si la representación gráfica de una matriz se fracciona en bloques (ca-
jas), eventualmente desiguales, por medio de dos segmentos perpendiculares,
obtenemos gráficamente cuatro submatrices X, Y , Z y T de A.
Supongamos ahora otra matriz B dividida en bloques X  , Y  , Z  y T 
de iguales dimensiones que X, Y , Z y T , respectivamente. Entonces, es obvio
que A + B se puede representar por:
Ç å Ç å Ç å
X Y X Y  X + X Y + Y 
+ =
Z T Z T  Z + Z T + T 

El lector que conoce los problemas computacionales, que surgen al tra-


bajar con matrices de grandes dimensiones, valorará las posibilidades del
método que se propone (observando el gráfico) cuando se hace una suma de
matrices (o cualquier otra operación permisible), por el ahorro de memoria y
tiempo que supone. La formulación más precisa, para la suma, del método es
la siguiente:
Sea la matriz A = (Aij ) dada (gráficamente) por:
Ö è
A11 ··· A1n
A= .. ..
. .
Am1 · · · Amn
donde Aij son a su vez matrices, de manera que el número mi de filas de
Aij para j = 1, . . . , n es el mismo, y el número de columnas nj de Aij para
i = 1, . . . , m es también el mismo.
Sea a su vez la matriz B = (Bij ) en donde cada Bij es una matriz de
igual dimensión que Aij . Entonces:
A + B = (Aij + Bij )
5.6. MATRICES POR BLOQUES 101

Es obvio que también se tiene:

(i) α·A = (α·Aij ).

(ii) At = (Aij )t = (Cij ) donde Cij = Aji


t .

Imaginemos que dos matrices A y B han sido descompuestas por blo-


ques, no necesariamente de iguales dimensiones; si es posible el producto AB
entonces se verifica que AB = (Cij ) siendo Cij = Ai1 B1j + · · · + Ain Bnj
(i = 1, . . . , m, j = 1, . . . , n) el bloque que ocupa el lugar (i, j) en la ma-
triz por bloques AB siempre que todos los productos Aik Bkj (i = 1, . . . , m,
j = 1, . . . , n, k = n1 , . . . , nn ) sean posibles.
Si la matriz Am×n se divide en bloques en la forma
Ö è
A11 · · · A1s
A= .. ..
. .
Ar1 · · · Ars

siendo Aij la correspondiente submatriz de dimensión mi ×nj , podemos in-


dicar la división por bloques diciendo que A es de tamaño (m1 + · · · + mr ) ×
(n1 + · · · + ns ). Evidentemente se ha de cumplir que m1 + · · · + mr = m y
n1 + · · · + ns = n.

5.6.2 Ejemplo
á ë
0 1 0 0
0 0 0 1
Sea A la matriz A = . Vamos a descomponerla por
0 0 0 1
0 0 0 0
bloques y verificar que A4 = 0 (i.e., A esnilpotente).
Ç å Ç å Ç å
0 1 0 0 0 0
Llamemos X = ,Y = ,0= . De este modo la
0 0 0 1 0 0
Ç å
X Y
matriz A se puede escribir por bloques como A = y se tiene que
0 X
Ç åÇ å Ç å
X Y X Y X 2 XY + Y X
A2 = AA = =
0 á
X 0 X ë 0 X2
Ç å 0 0 1 0
0 I 0 0 0 1
= =
0 0 0 0 0 0
0 0 0 0
102 5. MATRICES

Ç åÇ å Ç åÇ å
0 1 0 0 0 0 0 1
puesto que X2 = 0 y XY + Y X = + =
0 0 0 1 0 1 0 0
Ç å
1 0
= I. En consecuencia,
0 1
á ë
Ç åÇ å Ç å 0 0 0 0
0 I 0 I 0 0 0 0 0 0
A4 = A2 A2 = = =
0 0 0 0 0 0 0 0 0 0
0 0 0 0

5.7 UN POCO DE HISTORIA


La organización de los números en “cajas” es un procedimiento bastante antiguo (y
lógico). Se encontró un cuadrado mágico, que no es más que una matriz cuadrada tal que la
suma de los números por columnas, filas o diagonales principales es la misma, en un texto
 
4 9 2
chino del siglo VII a. de C. Un ejemplo de cuadrado mágico 3 × 3 serı́a 3 5 7 ,
8 1 6
donde se comprueba que la suma de filas, columnas y diagonales principales es 15. Fue el
matemático inglés James J. Sylvester (1814-1897) quién utilizó por primera vez el término
“matriz” en 1850. El matemático británico Arthur Cayley (1821-1895) fue el primero en
desarrollar de modo independiente el concepto de matriz en un artı́culo publicado en 1855:
A memoir on the theory of matrices. Pero será en el siglo XX cuando se extienda el uso
de la teorı́a de matrices a la mayorı́a de las ramas de las matemáticas, a la fı́sica y a la
ingenierı́a. En 1925, el fı́sico alemán Werner Heisenberg (1901-1976) recurre a la potencia
del cálculo matricial para fundamentar una teorı́a innovadora en Fı́sica. Se trataba de un
sistema de mecánica cuántica, que fue denominado “mecánica cuántica matricial” por lo
que recibió el Premio Nóbel de Fı́sica en 1932.

5.8 EJERCICIOS RESUELTOS


R5.1 Efectúa las operaciones: 2 · A, 12 · B y 2 · A − 12 · B, siendo
Å ã Å ã
1 2 1 0 0 4
A= , B=
3 −1 1 −6 2 2
Solución: De las definiciones se deduce
Å ã Å ã
1 2 1 2 4 2
2·A = 2· = .
Å3 −1 1 ã Å 6 −2 2 ã
1 1 0 0 4 0 0 2
·B = · = .
2 2
Å −6 2 2
ã Å −3 1 ã1 Å ã
1 2 4 2 0 0 2 2 4 0
2·A− ·B = − = .
2 6 −2 2 −3 1 1 9 −3 1
5.8. EJERCICIOS RESUELTOS 103
Å ã
1 2
R5.2 Sea la matriz A = . Probar que:
0 −3
(i) A + At es simétrica.
(ii) A − At es antisimétrica.
Solución:
Å ã Å ã Å ã
1 2 1 0 2 2
(i) A + At = + = .
0 −3 2 −3 2 −6
Å ã Å ã Å ã
1 2 1 0 0 2
(ii) A − At = − =
0 −3 2 −3 −2 0

R5.3 Sean las matrices


Ü ê
Å ã 1 0 0
1 2 3 4 1 −1 1
A= , B= .
1 0 0 1 2 0 0
−1 1 0

Verifica que (A · B)t = B t · At .


Ö è
Å ã 1 0 0 Å ã
1 2 3 4 1 −1 1 5 −2 2
Solución: A·B = · = .
1 0 0 1 2 0 0 0 1 0
−1 1 0
Ö è
  1 1  
1 1 2 −1 5 0
2 0
B ·A =
t t
1 −1 0 1 · = −2 1 . Obviamente,
3 0
0 1 0 0 2 0
4 1
(A · B)t = B t · At .
R5.4 Resuelve la ecuación matricial (i) y el sistema de ecuaciones matriciales (ii).
Ñ é Ñ é Ñ é
−1 0 2β
(i) α 3 − −2 = 4
α 2 6
⎧ Å ã

⎪ 1 −1
⎨ 2·X −5·Y =
(ii) Å 2 1ã

⎪ 2 1
⎩ −X + 2 · Y =
4 1
Solución:
       
−α 2β 0 2β
(i) Se tiene que 3α = 4 + 2 = 6 de donde se deduce el sistema
α2 6 −2 4

−α = 2β
de ecuaciones 3α = 6
α2 = 4
De la tercera ecuación se obtiene α = ±2, pero atendiendo a la segunda
ecuación ha de ser necesariamente α = 2. Sustituyendo finalmente este valor
en la primera se tiene β = −1.
104 5. MATRICES

Å ã
2 1
(ii) De la segunda ecuación se tiene X = 2Y − . Sustituyendo en la
4 1
primera: Å Å ãã Å ã
2 1 1 −1
2 2Y − − 5Y =
4 1 2 1
Por tanto: Å ã Å ã
4 2 1 −1
−Y − =
8 2 2 1
Å ã
−5 −1
y ası́ Y = . Finalmente:
−10 −3
Å ã Å ã Å ã
−5 −1 2 1 −12 −3
X=2 − =
−10 −3 4 1 −24 −7
.
Å ã
0 −1
R5.5 (i) Hállese la inversa de M = .
1 0
Å ã
0 −2i
(ii) Hállese la inversa de A = utilizando el apartado anterior.
2i 0
Solución:

(i) Hallemos M −1 por el método de las matrices elementales


Å ã Å ã
e1 0 −1 1 0 e1 = e2 1 0 0 1
e2 1 0 0 1 e2 = e1 0 −1 1 0
Å ã
e1 1 0 0 1
e2 = −e2 0 1 −1 0
Å ã
−1 0 1
Ası́ pues, M = .
−1 0
Å ã
0 −1
(ii) Obsérvese que A = 2i . Con ello A = 2iM y, por tanto,
1 0
Å ã Å ã Å ã
1 −1 1 0 1 i 0 1 0 − 2i
A−1 = M = · =− · =
2i 2i −1 0 2 −1 0 i
2
0
.
Å ã
2 −3
R5.6 Sea A = .
1 −2
(i) Hállese An . (ii) Dedúzcase A−1 de (i).
Solución: (i) Es inmediato que A · A = I. En consecuencia A4 = (A2 )2 = I 2 = I,
A6 = A8 = · · · = I. Por inducción se prueba que An = I si n es par.
Para n impar, n = 2k + 1, k ∈ N, se tiene An = A2k+1 = A2k · A = (A2 )k · A =
I k · A = I · A = A. Por tanto, para n impar se demuestra que An = A.
(ii) Como A · A = I, entonces A−1 = A por la sección 5.3.1.
Ñ é
Å ã 1 1 1
0 −1
R5.7 Estúdiense las potencias de A = yB= 1 1 1
1 0
1 1 1
5.8. EJERCICIOS RESUELTOS 105
Å ã
−1 0
Solución: Veamos las potencias de A. Se tiene que A2 = A·A = = −I,
0 −1
A3 = ⎧
A2 ·A = −I·A = −A, A4 = (−I)·(−I) = I, y, por inducción, se deduce que


I n = 4p
A n = 4p + 1
n
A = , p ∈ N.
⎩ −I
⎪ n = 4p + 2
−A n = 4p + 3
Veamos las potencias de B. Se tiene que
      
1 1 1 1 1 1 3 3 3 1 1 1
2
B = 1 1 1 1 1 1 = 3 3 3 =3 1 1 1 = 3B.
1 1 1 1 1 1 3 3 3 1 1 1

B 3 = B 2 · B = 3 · B · B = 3 · B 2 = 3 · 3 · B = 32 · B. Por inducción se puede demostrar


que B n = 3n−1 · B.
Ñ é
2
R5.8 Sean las matrices A = (−1 2 0) y B = 3 . Hallar
4

(i) A · B
(ii) At · B t
Solución:
 
2
(i) A · B = (−1 2 0) · 3 = −2 + 6 + 0 = 4.
4
   
−1 −2 −3 −4
(ii) A · B =
t t
2 · (2 3 4) = 4 6 8 .
0 0 0 0
Å ã
0 1
R5.9 Probar que la matriz regular A = no admite descomposición LU .
1 1
Solución:
Å ã Å Si ã
pudiese
Å descomponerse A en un producto LU serı́a de la forma
ã
0 1 1 0 b c
= , lo que obliga a que se satisfaga el sistema
1 1 a 1 0 d



0=b
1=c

⎩ 1 = ab
1 = ac + d

que claramente es incompatible.


Å ã
1 1
Finalmente obsérvese que al permutar las filas de A se tiene la matriz que
0 1
obviamente admite la descomposición
Å ã Å ãÅ ã
1 1 1 0 1 1
=
0 1 0 1 0 1

que es del tipo LU .


106 5. MATRICES

Ü ê
1 2 0 1
0 1 0 3
R5.10 Obtener la factorización LU de la matriz A = .
0 1 −1 4
2 4 0 3
Solución: El siguiente método para obtener la descomposición LU de una matriz es
válido si durante el proceso no se obtienen ceros en la diagonal (ver final sección 5.5.8).
El método consiste en aplicar el proceso de Gauss mediante matrices elementales del
tipo Eij (α), hasta obtener una matriz U triangular superior. Con un sencillo cálculo
se desprende la descomposición LU como vemos a continuación
e1 = (1 2 0 1 1 0 0 0) e1 = (1 2 0 1 1 0 0 0)
e2 = (0 1 0 3 0 1 0 0) e2 = (0 1 0 3 0 1 0 0)
e3 = (0 1 −1 4 0 0 1 0) e3 = (0 1 −1 4 0 0 1 0)

e4 = (2 4 0 3 0 0 0 1) e4 = e4 − 2e1 = (0 0 0 1 −2 0 0 1)
e1 = (1 2 0 1 1 0 0 0)
e2 = (0 1 0 3 0 1 0 0)

e3 = e3 − e2 = (0 0 −1 1 0 −1 1 0)

e4 = (0 0 0 1 −2 0 0 1)
Del método se deduce que hemos obtenido
Ö è Ö è
1 2 0 1 1 0 0 0
0 1 0 3 0 1 0 0
U= , L−1 = .
0 0 −1 1 0 −1 1 0
0 0 0 1 −2 0 0 1
Ö è
1 0 0 0
0 1 0 0
El lector obtendrá L = , y por tanto
0 1 1 0
2 0 0 1
Ö è Ö è
1 0 0 0 1 2 0 1
0 1 0 0 0 1 0 3
A= · .
0 1 1 0 0 0 −1 1
2 0 0 1 0 0 0 1

R5.11 Calcular A·B considerando en A la división por bloques (2 + 1 + 2)× (2 + 1 + 2)


y en B la división (2 + 1 + 2) × (2), siendo:
à í à í
1 0 0 0 0 2 −3
0 1 0 0 0 4 7
A= 0 −1 2 0 0 , y B= 3 5 .
1 0 0 1 0 −2 0
2 1 0 0 1 −3 −2

Solución: (Omitimos la escritura de la dimensión de cada submatriz. El lector


debe verificar que todos los productos son posibles y diferenciar las distintas matrices
nulas).
    
I 0 0 B11 B11
A·B = A21 2 0 B21 = A21 ·B11 + 2B21 =
A31 0 I B31 A31 ·B11 + B31
5.8. EJERCICIOS RESUELTOS 107
á Å ã ë á Å ã ë á ë
2 −3 2 −3 2 −3
 4  7  4 7 4 7
= Å −4 −7ã Å+ 6 10 ã = Å 2 3 ã = 2 3
2 −3 −2 0 0 −3 0 −3
+
8 1 −3 −2 5 −1 5 −1
⎛ ⎞
1 0 0 1 1 1
⎜0
⎜ 1 0 1 1 1⎟

⎜0 0 1 1 1 1⎟
⎟.
R5.12 Calcular An , n ∈ N, siendo A = ⎜
⎜0
⎜ 0 0 1 0 0⎟

⎝0 0 0 0 1 0⎠
0 0 0 0 0 1
Solución: Sean I y 0 las matrices cuadradas identidad y nula de orden 3, respec-
  Å ã
1 1 1
I B
tivamente, y B = 1 1 1 . Entonces se tiene que A = ,
0 I
1 1 1
Å ãÅ ã Å ã Å ãÅ ã Å ã
2 I B I B I 2B 3 I 2B I B I 3B
A = = ,A = = .
0 I 0 I 0 I 0 I 0 I 0 I
Å ã
I nB
Por inducción se puede demostrar que An = , es decir,
0 I
â ì
1 0 0 n n n
0 1 0 n n n
0 0 1 n n n
An = .
0 0 0 1 0 0
0 0 0 0 1 0
0 0 0 0 0 1
109

Capı́tulo 6

APLICACIONES LINEALES

Vamos a ver que matriz y aplicación lineal son, en cierta manera, dos
formas distintas de describir un mismo concepto. Probaremos además que las
aplicaciones lineales biyectivas (isomorfismos) se corresponden con las matri-
ces inversibles que, como mostraremos en el próximo capı́tulo, tienen deter-
minante no nulo. Un aspecto interesante de los isomorfismos es que permiten
identificar espacios vectoriales de igual dimensión.
Añadamos que el presente capı́tulo, con ayuda de los determinantes,
será de importancia primordial en nuestro tratamiento de los sistemas de
ecuaciones lineales y de la diagonalización de endomorfismos.
En lo que sigue, (V, +) y (V  , +) son espacios vectoriales sobre el mismo
cuerpo (K, +, ·) que, como en el resto del texto, supondremos el cuerpo de los
reales aunque los resultados que se dan también son válidos para otros cuer-
pos. A los vectores nulos de ambos espacios, les denotaremos indistintamente
por 0.

6.1 APLICACIONES LINEALES


6.1.1 Aplicaciones lineales
Se dice que una aplicación f : V → V  es lineal si para cualesquiera
x, y ∈ V , y α, β ∈ K se verifica:

L1: f (x + y) = f (x) + f (y)

L2: f (αx) = αf (x)

o, equivalentemente,
110 6. APLICACIONES LINEALES

LI: f (αx + βy) = αf (x) + βf (y)

Si f es lineal se tienen las siguientes propiedades inmediatas.

6.1.2 Propiedades
(a) f (α1 x1 + · · · + αn xn ) = α1 f (x1 ) + · · · + αn f (xn ), αi ∈ K, xi ∈ V .

(b) f (0) = 0

(c) f (−x) = −f (x), x ∈ V .

6.1.3 Ejemplos
Es inmediato que la aplicación identidad I : V → V definida por
I(x) = x para x ∈ V , y la aplicación nula 0 : V → V  definida por
0 (x) = 0 para x ∈ V , son lineales.
Las funciones circulares no son lineales. Por ejemplo, la función circular
sen : R → R no verifica, en general, sen(x + y) = sen x + sen y.
Diremos que una aplicación lineal f : Rn → Rm está dada de manera
explı́cita si la expresión de f (x) muestra el valor de las m componentes del
vector imagen referidas a las n componentes de x.

6.1.4 Ejemplo
Sea la aplicación f : R3 → R2 dada de manera explı́cita por f (x, y, z) =
(2x, y − z). Veamos que es lineal. En primer lugar probaremos que se
cumple L1: Sean x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ) vectores de R3 . Entonces
f (x + y) = f (x1 + y1 , x2 + y2 , x3 + y3 ) = (2(x1 + y1 ), (x2 + y2 ) − (x3 + y3 )).
Por otra parte, f (x)+f (y) = (2x1 , x2 − x3 ) + (2y1 , y2 − y3 ) = (2x1 +
2y1 , x2 − x3 + y2 − y3 ) de donde es fácil observar que f (x + y) = f (x) + f (y).
Veamos ahora que se cumple L2: Sea α ∈ R, se tiene que
f (αx) = f (αx1 , αx2 , αx3 ) = (2αx1 , αx2 − αx3 ) = α(2x1 , x2 − x3 ) = αf (x).

En lo que sigue, salvo que se indique lo contrario, f será una aplicación


lineal de V en V  .

6.1.5 Núcleo
Se denomina núcleo (“kernel”) de la aplicación lineal f al conjunto

Ker f = {v ∈ V : f (v) = 0}
6.1. APLICACIONES LINEALES 111

Es sencillo demostrar que Ker f e Im f son subespacios vectoriales de V


y V  , respectivamente, que jugarán un papel importante en nuestro contexto.
Las aplicaciones lineales tienen propiedades que las hacen sencillas de
estudiar. Empecemos con la primera de ellas.

6.1.6 Teorema (caracterización de aplicaciones inyectivas)


La aplicación f es inyectiva si y sólo si Ker f = {0} (i.e. dim Ker f = 0).
Demostración. El directo es obvio por la propiedad (b) de 6.1.2.
Veamos el recı́proco: Supongamos Ker f = {0}. Si f (x) = f (y) entonces f (x) − f (y) = 0
y como f es lineal se tiene que f (x − y) = 0, lo cual indica que x − y ∈ Ker f . Utilizando
la hipótesis se tiene que x − y = 0 y, en consecuencia, x = y. 

6.1.7 Nota
Es fácil observar que f es suprayectiva si y sólo si dim Im f = dim V  .
Ello es debido a que como Im f ⊂ V  , entonces Im f = V  si y sólo si sus
dimensiones coinciden.

6.1.8 Ejemplo
Consideremos la aplicación f del Ejemplo 6.1.4 y hallemos el núcleo de
f . Se tiene que
¶ ©
Ker f = (x, y, z) ∈ R3 : f (x, y, z) = (0, 0)
Por tanto, se ha de verificar que (2x, y − z) = (0, 0) lo que conduce al sistema
®
2x = 0
de solución x = 0, y = z. Ası́ pues,
y−z =0
Ker f = {(0, z, z) : z ∈ R} ≡ z(0, 1, 1) = (0, 1, 1)
con lo que dim Ker f = 1. Según el Teorema 6.1.6, f no es inyectiva.
Hallemos ahora las antiimágenes del punto (2, 3). Se tiene que
¶ ©
f −1 (2, 3) = (x, y, z) ∈ R3 : f (x, y, z) = (2, 3)
Ha de verificarse, pues, que (2x, y − z) = (2, 3) lo que conduce al sistema
®
2x = 2
de solución x = 1, y = 3 + z. Ası́ pues,
y−z =3
f −1 (2, 3) = {(1, 3 + z, z) : z ∈ R} ≡ (1, 3, 0) + (0, z, z) ≡ (1, 3, 0) + Ker f

Obsérvese que f (1, 3, 0) = (2, 3). Este resultado no es casual, puesto


que se verifica la siguiente proposición que no demostraremos.
112 6. APLICACIONES LINEALES

6.1.9 Proposición
Sea f (x) = y. Entonces, f −1 (y) = x + Ker f .
La siguiente proposición tiene una prueba inmediata.

6.1.10 Proposición
Si {e1 , . . . , en } es un sistema generador de V entonces {f (e1 ), . . . ,
f (en )} es un sistema generador de Im f .

6.1.11 Teorema de la dimensión (de aplicaciones lineales)

dim V = dim Ker f + dim Im f

Demostración. Podemos suponer (lo que no implica restricción alguna) que {e1 , . . . ,
er } es una base de Ker f , y que {e1 , . . . , er , . . . , en } es una base de V . Teniendo en cuenta
la proposición anterior, resulta sencillo demostrar que {f (er+1 ), . . . , f (en )} es una base de
Im f de donde se concluye el teorema. 

6.1.12 Corolario (idoneidad de las aplicaciones lineales)


Si f : V → V  es lineal y dim V = dim V  , entonces

f es inyectiva sii f es suprayectiva sii f es biyectiva

6.2 MATRICES Y APLICACIONES LINEALES


6.2.1 Matriz asociada a una aplicación lineal
Sea la aplicación lineal f : V → V  , y sean B = {e1 , . . . , en } y
B = {e1 , . . . , em } bases de V y V  , respectivamente. Supongamos cono-
cidas las imágenes de e1 , . . . , en por medio de f , referidas a la base B  dadas
por ⎧
⎪  
⎨ f (e1 ) = α11 e1 + · · · + α1m em

.. (6.1)
⎪ .

⎩ f (e ) = α e + · · · + α e
n n1 1 nm m

donde αij son escalares.


Sea x = μ1 e1 + · · · + μn en un vector de V , y sea y = f (x). Si su imagen
es f (x) = μ1 e1 + · · · + μm em se concluye que se verifica el siguiente sistema
6.2. MATRICES Y APLICACIONES LINEALES 113

de ecuaciones paramétricas de la aplicación lineal f referidas a las bases


B y B : ⎧
⎪ 
⎨ α11 μ1 + · · · + αn1 μn = μ1

.. (6.2)
⎪ .

⎩ α μ + ··· + α μ 
1m 1 nm n = μm

lo que nos dice, si tenemos en cuenta (6.1), que f viene totalmente definida a
través del conocimiento de f (e1 ), . . . , f (en ).
El sistema (6.2) es equivalente a la siguiente ecuación matricial de f
Ö èÖ è Ö è
α11 ··· αn1 μ1 μ1
.. .. .. = .. (6.3)
. . . .
α1m · · · αnm μn μm
que abreviamos de la forma
A · μ = μ
donde la matriz A = (αij ) de dimensión m×n es la matriz asociada (única)
a la aplicación lineal f respecto las bases B y B  . Sus columnas ordenadas,
según (6.3) y (6.1), están formadas por las coordenadas de f (e1 ), . . . , f (en )
referidas a la base B  , mientras que μ y μ son dos vectores columnas consti-
tuidos por las coordenadas de x e y referidas a sus bases B y B  , respectiva-
mente.
Supongamos en particular que f : Rn → Rm y que B y B  son las bases
canónicas. Entonces, si x = (x1 , . . . , xn ) e y = (y1 , . . . , ym ) el sistema (6.2)
adquiere la forma


⎪ α11 x1 + · · · + αn1 xn = y1

.. (6.4)
⎪ .

⎩ α x + ··· + α x
1m 1 nm n = ym
y la expresión matricial (6.3) adquiere la forma
Ö èÖ è Ö è
α11 ··· αn1 x1 y1
.. .. .. = .. (6.5)
. . . .
α1m · · · αnm xn ym
que, abreviadamente, representaremos por
A x = y.
Esta última expresión, incluso en el caso de que las bases elegidas no sean las
canónicas, se usa simbólicamente de forma equivalente a f (x) = y.
Nota: La definición explı́cita de f y las expresiones (6.4) y (6.5) son
equivalentes. Por simple inspección de una de ellas se reconocen las restantes
(véase el Ejemplo 6.2.2).
114 6. APLICACIONES LINEALES

6.2.2 Ejemplo
Denotemos f (x1 , x2 , x3 ) = (2x1 , x2 −x3) la aplicación lineal del Ejemplo
6.1.4. Si escribimos f (x1 , x2 , x3 ) = (y1 , y2 ) entonces las ecuaciones paramé-
tricas respecto a las bases canónicas son
®
2x1 = y1
x2 − x3 = y 2

y la ecuación matricial es
Ö è
Ç å x1 Ç å
2 0 0 y1
x2 = .
0 1 −1 y2
x3

6.2.3 Rango de una aplicación lineal


Se define rango de una aplicación lineal f , y se denota rang f , a la
dimensión de Im f . Si tenemos en cuenta la interpretación de las columnas
de una matriz A asociada a f , y a la Proposición 6.1.10, se puede llegar a la
conclusión de que rang f = dim Im f = rang A.
En consecuencia, si rang A = r entonces r columnas de A linealmente
independientes determinan una base de Im f .

6.2.4 Ejemplo
Consideremos la aplicación lineal f del Ejemplo 6.1.4. Sean B = {e1 ,
e2 , e3 } y B  = {e1 , e2 } bases de R3 y R2 , respectivamente, donde se tiene que
e1 = ( 21 , 0, 0), e2 = (0, −1, 0), e3 = (0, 0, 2), e1 = (−1, 0), e2 = (1, −1).
Para conocer las columnas de la matriz A asociada a f respecto a dichas
bases, hallaremos las coordenadas de f (ei ) respecto a la base B  como sigue:

f (e1 ) = f ( 12 , 0, 0) = (1, 0) = −e1


f (e2 ) = f (0, −1, 0) = (0, −1) = e1 + e2
f (e3 ) = f (0, 0, 2) = (0, −2) = 2e1 + 2e2


(Obsérvese que las expresiones de f (ei ) respecto B son inmediatas.
Cuando no lo son se recurre a la resolución de una ecuación vectorial. Como
ejemplo, en el último caso se escribirı́a (0, −2) = α31 e1 +α32 e2 lo que conduce
a (0, −2) = α31®(−1, 0) + α32 (1, −1) = (−α31 + α32 , −α32 ). Por tanto ha de
0 = −α31 + α32
verificarse que de solución α31 = 2 y α32 = 2).
−2 = −α31
6.2. MATRICES Y APLICACIONES LINEALES 115
Ç å
−1 1 2
Ası́ pues, A = .
0 1 2
En consecuencia, la ecuación matricial de f es
Ö è
Ç å μ1 Ç å
−1 1 2 μ1
μ2 = (6.6)
0 1 2 μ2
μ3

y las ecuaciones paramétricas son


®
−μ1 + μ2 + 2μ3 = μ1
(6.7)
μ2 + 2μ3 = μ2

Puesto que rang A = 2, entonces dim Im f = 2, por lo que f es


suprayectiva. Por el Teorema (de la dimensión) 6.1.11 se tiene que dim Ker(f )
= 1, y por tanto, según el Teorema 6.1.6, f no es inyectiva.
Trataremos de hallar la imagen de x = (2, 1, 2) de varias maneras. En
primer lugar, de la definición se sigue que f (2, 1, 2) = (4, −1).
Para usar las expresiones (6.6) o (6.7) hemos de referir x a la base B.
Obviamente (2, 1, 2) = 4e1 − e2 + e3 , y de (6.6), teniendo en cuenta que
μ1 , μ2 , μ3 son 4, -1, 1, respectivamente, se obtienen las coordenadas μ1 , μ2
de la imagen f (x), referida a la base B  :
Ö è
Ç å 4 Ç å
−1 1 2 −3
−1 = .
0 1 2 1
1

Utilizando (6.7) se obtienen los mismos valores: μ1 = −3, μ2 = 1.


Ası́ pues, f (x) = −3e1 + e2 , es decir, f (x) = −3(−1, 0) + (1, −1) =
(4, −1).
El cálculo de la matriz D de f respecto las bases canónicas es más
sencillo, pues se tiene:

f (1, 0, 0) = (2, 0), f (0, 1, 0) = (0, 1), f (0, 0, 1) = (0, −1)


Ç å
2 0 0
y por tanto, D = .
0 1 −1
La ecuación matricial es ahora
Ö è
Ç å x1 Ç å
2 0 0 y1
x2 =
0 1 −1 y2
x3
116 6. APLICACIONES LINEALES

y las ecuaciones paramétricas (compárese con el Ejemplo 6.2.2) son:


®
2x1 = y1
x2 − x3 = y 2
de las que se desprende f (x1 , x2 , x3 ) = (2x1 , x2 − x3 ) que es la definición
explı́cita de f .
Recurriendo a estas dos últimas ecuaciones, con (x1 , x2 , x3 ) = (2, 1, 2),
se obtiene y1 = 4, y2 = −1, es decir, f (2, 1, 2) = (4, −1).

6.2.5 Matriz de la aplicación identidad I


Sea B = {e1 , . . . , en } una base del espacio vectorial V , y hallemos la
matriz asociada a la aplicación identidad I : V → V respecto B. Para ello
calculamos
f (e1 ) = 1e1 + 0e2 + · · · + 0en
f (e2 ) = 0e1 + 1e2 + · · · + 0en
..
.
f (en ) = 0e1 + 0e2 + · · · + 1en
Ası́ pues, la matriz asociada a I respecto a una base cualquiera B es,
precisamente, la matriz identidad I:
⎛ ⎞
1 0 0 ··· 0
⎜0 1 0 ··· 0⎟
⎜ ⎟
⎜. . .. .. .. ⎟
I=⎜
⎜ .. .. . . .⎟⎟
⎜ ⎟
⎝0 · · · 0 1 0⎠
0 ··· 0 0 1

El próximo punto explica porqué denotamos por la misma letra I a dos


conceptos (aparentemente) distintos.

6.2.6 Isomorfismo entre aplicaciones lineales y matrices


Las aplicaciones lineales también se llaman homomorfismos. Se llama
endomorfismo a una aplicación lineal de V en sı́ mismo. Si f : V → V  es
una aplicación lineal biyectiva se llama isomorfismo, y en tal caso se dice
que V y V  son isomorfos y se escribe V ≈ V  . Si V ≈ V  podemos confundir
los elementos de V con sus imágenes en V  , y tratar la estructura de V  en
vez de la de V o viceversa.
Es posible establecer un isomorfismo el cual permite afirmar que, en
cierto modo, matriz y aplicación lineal son dos maneras distintas de referirnos
a un mismo concepto.
6.3. APLICACIONES LINEALES Y MATRICES INVERSIBLES 117

6.2.7 Nota

Cuando se habla de la matriz asociada a un endomorfismo respecto a


una base B = {e1 , . . . , en }, hemos de suponer que ésta (manteniendo el orden
de los vectores) es la única que consideramos en los espacios inicial y final, a
fin de asociar la matriz al endomorfismo.
La siguiente proposición tiene una prueba inmediata que omitimos.

6.2.8 Proposición

Sea A una matriz cuadrada de orden n con coeficientes reales. Si se


tiene A x = x para cualquier x = (x1 , . . . , xn )t con xi ∈ R, entonces A = I.
El resultado anterior también se obtiene cuando se impone la igualdad A x = x
solamente para los vectores x de una base cualquiera de Rn (o Cn ).

6.3 APLICACIONES LINEALES Y MATRICES


INVERSIBLES
Empezaremos la sección con una sencilla proposición que no demostra-
remos.

6.3.1 Proposición

dim V = dim V  si y sólo si V ≈ V 

6.3.2 Nota

Según este resultado cualquier espacio vectorial real de dimensión n es


isomorfo a Rn . En particular, según la sección 5.1.6, el espacio vectorial de
las matrices Mm×n con coeficientes reales es isomorfo a Rm·n , lo que permite
identificar ambos espacios.
La siguiente proposición es una consecuencia inmediata de las secciones
6.1.6 y 6.1.10, y de la Nota 6.1.7.

6.3.3 Proposición

La aplicación lineal f : V → V  es biyectiva si y sólo si f transforma


las bases (una base) de V en bases (base) de V  .
118 6. APLICACIONES LINEALES

6.3.4 Composición de aplicaciones lineales

Supongamos que f : V → V  y g : V  → W son aplicaciones lineales. Es


fácil probar que la aplicación compuesta g ◦ f : V → W es lineal, y que si F
y G son las matrices respectivas de f y g respecto a ciertas bases B, B  y B 
fijadas en V , V  y W , respectivamente, entonces G·F es la matriz asociada a
g ◦ f respecto a las bases B y B  .
El resultado anterior y el isomorfismo entre aplicaciones lineales y matri-
ces permite obtener identificaciones útiles como muestra el siguiente ejemplo.

6.3.5 Ejemplo

Sean f y g dos endomorfismos de V , y supongamos que F y G son


sus matrices asociadas respecto a cierta base. Entonces la matriz H de la
aplicación lineal h = 3 I − 2 f + 3 g ◦ f + 5 f ◦ f + 7 f n) es H = 3 I − 2 F +
3 G·F + 5 F 2 + 7 F n .
La siguiente proposición es de prueba sencilla.

6.3.6 Proposición

Sea f : V → V  lineal y biyectiva. Entonces,

(i) f −1 : V  → V es lineal (y, por supuesto, biyectiva)

(ii) Si A y B son las matrices asociadas a f y f −1 , respectivamente, respecto


ciertas bases fijadas en V y V  , entonces B = A−1 .

Con los resultados anteriores se concluye el siguiente teorema.

6.3.7 Teorema

Sea A una matriz cuadrada de orden n asociada a la aplicación lineal


f : V → V  . Entonces, son equivalentes:

(i) f es biyectiva.

(ii) A es inversible.

(iii) rang A = n.

Como consecuencia de este teorema se obtiene el siguiente corolario.


6.4. CAMBIOS DE BASE 119

6.3.8 Corolario
Sean A y B matrices cuadradas de dimensión n. Entonces rang(AB) = n si y sólo
si rang A = rang B = n.

6.4 CAMBIOS DE BASE


6.4.1 Expresión matricial del cambio de base en un espacio
vectorial
Sean B = {e1 , . . . , en } y B  = {v 1 , . . . , v n } bases del espacio vectorial
V . Supongamos que el vector x tiene las siguientes expresiones respecto B y
B  , respectivamente:

x = α1 e1 + · · · + αn en
(6.8)
x = β1 v 1 + · · · + βn v n
Supongamos conocidas las coordenadas de los vectores de la nueva base
B referidas a la antigua B:


⎨ v1 =
⎪ p11 e1 + · · · + p1n en
.. (6.9)
⎪ .

⎩ v = p e + ··· + p e
n n1 1 nn n

Sustituyendo los valores de (6.9) en (6.8), y reescribiendo matricial-


mente el resultado, se llega a la expresión
Ö è Ö è Ö è
α1 p11 · · · pn1 β1
.. = .. .. · .. (6.10)
. . . .
αn p1n · · · pnn βn
que representaremos de la siguiente forma de interpretación obvia:

α = Pβ (6.11)

A P se le llama matriz de cambio de base o matriz de paso de B


a B  . Obsérvese en (6.10) que las columnas de P son las coordenadas de los
vectores de B  referidos a la base B, mientras que α y β son las coordenadas
de x en columna referidas a B y B  , respectivamente.
Con un razonamiento similar se obtiene la existencia de la matriz cua-
drada T que verifica β = T α donde las columnas de T son las coordenadas
de los vectores de B referidos a la base B  . A partir de las dos igualdades
120 6. APLICACIONES LINEALES

anteriores se tiene que α = P β = P T α para cualquier vector columna α.


En consecuencia, según la Proposición 6.2.8, P T = I, de lo que se desprende
que P y T son inversibles y que T = P −1 . Por tanto se tiene que β = P −1 α,
siendo esta ecuación equivalente a (6.11).
En particular, si B es la base canónica de Rn , las columnas ordenadas
de P son las coordenadas de los vectores v 1 , . . . , v n .

6.4.2 Ejemplo
Sean las bases B = {e1 , e2 } y B  = {v 1 , v 2 } de R2 , donde
e1 = (1, 1), e2 = (1, 2), v1 = (3, 4), v2 = (2, 5). Para obtener la matriz
de paso P de B a B  resolveremos las ecuaciones vectoriales

(3, 4) = v 1 = p11 e1 + p12 e2 =


= p11 (1, 1) + p12 (1, 2) =
= (p11 + p12 , p11 + 2p12 )

(2, 5) = v 2 = p21 e1 + p22 e2 =


= p21 (1, 1) + p22 (1, 2) =
= (p21 + p22 , p21 + 2p22 )

que conducen a los dos sistemas equivalentes


®
3 = p11 + p12
4 = p11 + 2p12
®
2 = p21 + p22
5 = p21 + 2p22
cuyas soluciones son p11 = 2, p12 = 1, p21 = −1, p22 = 3, es decir

v 1 = 2e1 + e2
v 2 = −e1 + 3e2

Ası́ pues Ç å
2 −1
P =
1 3

Las coordenadas βi del vector x = (1, 6) respecto a la base B  se deducen


de la ecuación vectorial

(1, 6) = β1 v 1 + β2 v 2 = β1 (3, 4) + β2 (2, 5) = (3β1 + 2β2 , 4β1 + 5β2 )


6.4. CAMBIOS DE BASE 121

que conducen al sistema


®
1 = 3β1 + 2β2
6 = 4β1 + 5β2

cuya solución es β1 = −1, β2 = 2.


Si deseamos hallar las coordenadas αi de x respecto a la base B podemos
proceder de manera análoga a como hemos obtenido βi , o bien resolver la
ecuación matricial formal (6.10) que en nuestro caso se traduce en
Ç å Ç å Ç å
α1 2 −1 −1
= ·
α2 1 3 2

cuya solución es α1 = −4, α2 = 5.


Ası́ pues x = −4e1 + 5e2 .
Para finalizar observemos que la matriz P −1 (de paso de B  a B) de la
ecuación matricial P −1 α = β, equivalente a la anterior, es
Ñ é
3 1
7 7
P −1 =
− 17 2
7

de la cual concluimos por interpretación de sus columnas:

3
e1 = 7 v1 − 17 v 2
1
e2 = 7 v1 + 27 v 2

lo cual el lector puede verificar con los datos iniciales.

6.4.3 Matrices asociadas a una aplicación lineal

Sea A la matriz asociada a la aplicación lineal f : V → W respecto


las bases B y C de V y W , respectivamente; y sea D la matriz asociada a f
respecto las bases B  y C  de V y W , respectivamente. Entonces, si P y Q
son las matrices de paso de B a B  y de C a C  , respectivamente, teniendo en
cuenta la relación (6.11), se llega fácilmente a que

D = Q−1 AP. (6.12)

La figura siguiente esquematiza las condiciones del párrafo anterior para


que se verifique D = Q−1 AP .
122 6. APLICACIONES LINEALES

Cuando A y D son matrices de Mm×n que verifican una relación del


tipo (6.12) se dice que son equivalentes.
Ésta es una relación de equivalencia en Mm×n . Se concluye fácilmente que dos ma-
trices son equivalentes si y sólo si son representaciones matriciales (i.e. matrices asociadas)
de una misma aplicación lineal. En consecuencia, si A y D son equivalentes, tendrán el
mismo rango.
Como un caso particular de la equivalencia de matrices se tiene la
relación de semejanza en el conjunto de las matrices cuadradas Mn : A es
semejante a D si existe una matriz inversible P tal que

D = P −1 AP. (6.13)

De nuevo se tiene que A y D son semejantes si y sólo si A y D son


representaciones matriciales de un mismo endomorfismo, la primera referida
a una base B y la segunda a una base B  . En tal caso, P es la matriz de
paso de B a B  . La figura siguiente esquematiza las condiciones para que se
de D = P −1 AP .

6.4.4 Nota
La ecuación (6.12) es equivalente a

A = QDP −1 (6.14)

lo cual no es más que otra forma de interpretar la relación entre A y D.


6.5. UN POCO DE HISTORIA 123

En efecto, si T es la matriz de paso de B  a B y S la matriz de paso de C  a C,


entonces sabemos que se verifica T = P −1 y S = Q−1 , y acorde con (6.12) ha de verificarse
A = S −1 DT , y como S −1 = Q y T = P −1 , entonces se tiene A = QDP −1 .
Análogamente, la ecuación (6.13) también equivale a

A = P DP −1 . (6.15)

6.5 UN POCO DE HISTORIA


El concepto de aplicación lineal, tal y como se ha introducido en este capı́tulo, se debe
a Giuseppe Peano (1858-1932), que fue quien introdujo los axiomas que definen un espacio
vectorial. Sin embargo, previamente, Jean Bernouilli (1667–1748) en una carta enviada a
Gottfried Leibniz (16146-1716) en 1715, introdujo los planos coordenados en R3 tal como
los conocemos hoy en dı́a. Fue el punto de partida para el estudio de las ecuaciones de
las principales transformaciones geométricas en el espacio (proyecciones, simetrı́as y giros).
Se producen importantes avances de la mano de Leonhard Euler (1707-1783) y Joseph-
Louis Lagrange (1736-183). El primero al realizar traslaciones para facilitar su estudio de la
ecuación general de segundo grado y el segundo fue quien proporcionó la forma general de
los movimientos que conservan distancias. Por otra parte, se debe a Arthur Cayley (1821-
1895) la descripción matricial de las ecuaciones de los diferentes tipos de transformaciones
geométricas.

6.6 EJERCICIOS RESUELTOS


R6.1 Sea la función f : R → R dada por f (x) = a x + b, con a, b ∈ R y b
= 0. Probar
que f no es lineal.
Solución: f (0) = a · 0 + b = b = 0, por lo que según la propiedad (b) de 6.1.2, f
no es lineal.
R6.2 sea la aplicación f : R2 → R3 dada por f (x, y) = (x, 0, 0)
(i) Probar que f es lineal.
(ii) Hallar Ker(f ) y una base de Ker(f ). Dedúzcase dim Im(f ).
(iii) Hállese una base de Im(f ).
(iv) Clasifica f .
Solución:
(i) Sea α ∈ R, (x1 , y1 ), (x2 , y2 ) ∈ R2 . Se verifica L1. En efecto:

f ((x1 , y1 ) + (x2 , y2 )) = f (x1 + x2 , y − 1 + y2 ) = (x1 + x2 , 0, 0).


Por otra parte,
f (x1 , y1 ) + f (x2 , y2 ) = (x1 , 0, 0) + (x2 , 0, 0) = (x1 + x2 , 0, 0)
124 6. APLICACIONES LINEALES

Se verifica también L2. En efecto:

f (α (x1 , y1 )) = f (α x1 , α x2 ) = (α x1 , 0, 0) = α (x1 , 0, 0) = α f (x1 , y1 )


 
(ii) Ker(f ) = (x, y) ∈ R2 : f (x, y) = (0, 0, 0) . Por tanto se ha de verificar
(x, 0, 0) = (0, 0, 0), es decir x = 0, sin restricciones para y ∈ R. Ası́ pues,
Ker(f ) = {(0, y) : y ∈ R} = (0, 1).
Una base de Ker(f ) es {(0, 1)}. Como dim Ker(f ) = 1, entonces por el Teo-
rema de la dimensión se tiene 2 = 1 + dim Im(f ). Por tanto, dim Im(f ) = 1.
(iii) Si {u1 , u2 } es la base canónica de R2 , entonces f (u1 ), f (u2 ) = Im(f ). Se
tiene f (u1 ) = f (1, 0) = (1, 0, 0), f (u2 ) = f (0, 1) = (0, 0, 0). Por tanto
(1, 0, 0), (0, 0, 0) = (1, 0, 0) = Im(f ). Obviamente, {(1, 0, 0)} es base de
Im(f ).
(iv) Como Ker(f ) = {0} entonces f no es inyectiva. Como dim Im(f ) = 1 < 3
= dim R3 entonces f no es suprayectiva.

R6.3 Sea la aplicación lineal f : R3 → R3 dada por f (x, y, z) = (x + y, 0, z).

(i) Hállese una base de Ker(f ). Dedúzcase dim Im(f )


(ii) Hállese una base de Im(f ).
(iii) Clasifica f .

Solución:

(i) Ker(f ) = {(x, y, z) ∈ R3 : f (x, y, z) = (0, 0, 0)}. Por tanto, de (x + y, 0, z) =


(0, 0, 0) se concluye

x+y = 0
0 = 0 ,
z = 0
cuya solución es y = −x, z = 0. Ası́ pues:

Ker(f ) = {(x, −x, 0) : x ∈ R} = (1, −1, 0).

Una base de Ker(f ) es {(1, −1, 0)}. Como dim Ker(f ) = 1, entonces del Teo-
rema de la dimensión se tiene: 3 = 1 + dim Im(f ), es decir dim Im(f ) = 2.
(ii) Si {u1 , u2 , u3 } es base canónica de R3 , entonces Im(f ) = f (u1 ), f (u2 ), f (u3 ).
Se tiene
f (u1 ) = f (1, 0, 0) = (1, 0, 0)
f (u2 ) = f (0, 1, 0) = (1, 0, 0)
f (u3 ) = f (0, 0, 1) = (0, 0, 1)
Ası́ pues, Im(f ) = (1, 0, 0), (0, 0, 1). Una base de Im(f ) es {(1, 0, 0), (0, 0, 1)}.
(iii) Como Ker(f ) = {0}, entonces f no es inyectiva. Como dim Im(f ) = 2 < 3
(= dim R3 ), entonces f no es suprayectiva.

R6.4 (i) Halla la matriz A de la aplicación lineal del Ejercicio R6.3 (f (x, y, z) =
(x + y, 0, z)) respecto de la base canónica
(ii) Hállese la ecuación matricial y las ecuaciones paramétricas.
6.6. EJERCICIOS RESUELTOS 125

(iii) Hállese f (2, 1, −3) usando la ecuación matricial.


Solución:  
1 1 0
(i) Por simple inspección de f se tiene A = 0 0 0 .
0 0 1
(A la misma conclusión se llega escribiendo en columnas f (u1 ), f (u2 ), f (u3 ). En
efecto, f (1, 0, 0) = (1, 0, 0), f (0, 1, 0) = (1, 0, 0), f (0, 0, 1) = (0, 0, 1)).
      
1 1 0 x1 y1 x1 +x2 = y1
(ii) 0 0 0 · x2 = y2 , 0 = y2
0 0 1 x3 y3 x 3 = y3
(iii) Es obvio que f (2, 1, −3) = (3, 0, −3).
Si usamos la ecuación matricial, también se tiene:
     
1 1 0 2 3
0 0 0 · 1 = 0
0 0 1 −3 −3

R6.5 (i) Hállese la matriz D de la aplicación lineal, f , del Ejercicio R6.3, respecto

de la base B = {e1 , e2 , e3 } en ambos espacios, siendo e1 = (1, 0, 0),
e2 = (1, 1, 1) , e3 = (0, 0, −1).
(ii) Hállense las ecuaciones maricial y paramétrica de f .
(iii) Utilı́cese (ii) para hallar f (2, 1, −3)
Solución:
(ii) Se tiene
f (e1 ) = f (1, 0, 0) = e1 ,
f (e2 ) = f (1, 1, 1) = (2, 0, 1) = 2 e1 − e3 ,
f (e3 ) = f (0, 0, −1) = e3 .
 
1 2 0
Ası́ pues D = 0 0 0 .
0 −1 1
(ii) La ecuación matricial de f es:
     
1 2 0 λ1 μ1
0 0 0 · λ2 = μ2 .
0 −1 1 λ3 μ3
Las ecuaciones paramétricas son:

λ1 +2 λ2 = μ1
0 = μ2
−λ2 +λ3 = μ3
(iii) Como (2, 1, −3) = e1 + e2 + 4e3 , entonces usando la expresión matricial obte-
nemos su imagen
     
1 2 0 1 3
0 0 0 · 1 = 0 .
0 −1 1 4 0
Ası́ que f (e1 + e − 2 + 4e3 ) = 3e1 + 3e3 .
(Obsérvese que 3e1 + 3e3 = 3 (1, 0, 0) + 3 (0, 0, −1) = (3, 0, −3) que coincide
con el Ejercicio R6.4 (iii).
126 6. APLICACIONES LINEALES

R6.6 Hállese la matriz D de la aplicación lineal f del Ejercicio R6.5 usando la matriz

A del Ejercicio R7.4 y la matriz de paso P de la base canónica a B .
Solución: De e1 = (1, 0, 0), e2 = (1, 1, 1) y e3 = (0, 0, −1), deducimos la matriz

de paso P de la base canónica a B :
 
1 1 0
P = 0 1 0
0 1 −1
 
1 −1 0
Sabemos que D = P −1 · A · P . Como P −1 = 0 1 0 , entonces
0 −1 −1
       
1 −1 0 1 1 0 1 1 0 1 2 0
D= 0 1 0 · 0 0 0 · 0 1 0 = 0 0 0 .
0 −1 −1 0 0 1 0 1 −1 0 −1 1

R3 → R2 una
R6.7 Sea f : Å ã aplicación lineal cuya matriz respecto a la base canónica
1 1 0
es A = . Hállese la matriz D de f respecto a la base canónica de
0 2 2

R3 y a la base C = {e1 , e2 } de R2 , donde e1 = (1, 2) y e2 = (3, 5).
Solución: De e1 = (1, 2) Åy e2 = (3,
ã 5) deducimos que la matriz de paso, Q, de la
 1 3
base canónica a C es Q = . La matriz de paso P de la base canónica de
2 5
R3 a la base canónica
Å
3
de Rã es I. Ası́ pues D = Q−1 · A · P = Q−1 · A · I = Q−1 · A .
−1 −5 3
Como Q = , entonces
2 −1
Å ã Å ã Å ã
−5 3 1 1 0 −5 1 6
D= · =
2 −1 0 2 2 2 0 −2

R6.8 Sea f : ÅR2 → R2 ã


una aplicación lineal cuya matriz respecto la base canónica
1 2
es A = .
1 −1
(i) Hállese la definición explı́cita de f .

(ii) Hállese la matriz D de f respecto la base B = {e1 , e2 } en ambos espa-
cios, siendo e1 = (1, 1) y e2 = (0, −1)

(iii) Hállese la matriz P de paso de la base canónica a B
(iv) Hállese D utilizando el apartado (iii).
Solución:
(i) Por simple inspección de A se tiene f (x1 , x2 ) = (x1 + 2x2 , x1 − x2 )
(ii) Se tiene
f (e1 ) = f (1, 1) = (3, 0) = 3e1 + 3e2
f (e2 ) = f (0, −1) = (−2, 1) = −2e1 − 3e2
Å ã
3 −2
Por tanto D = .
3 −3
6.6. EJERCICIOS RESUELTOS 127

(iii) Sean u1 = (1, 0) y u2 = (0, 1). los vectores de la baseÅcanónica.ã Como


1 0
e1 = (1, 1) = u1 + u2 y e2 = (0, −1) = −u2 , entonces P = .
1 −1
Å ã−1 Å ã
1 0 1 0
(iv) Se sabe que D = P −1 · A · P . Como P −1 = = ,
1 −1 1 −1
entonces
Å ã Å ã Å ã Å ã
1 0 1 2 1 0 3 −2
D= · · =
1 −1 1 −1 1 −1 3 −3

R6.9 Sea f : R3 → R2 una aplicación lineal cuya matriz A respecto a las bases
B = {e1 , e2 , e3 } y C = {v 1 , v 2 } es
Å ã
2 0 −1
A= ,
−1 1 0

siendo e1 = (1, 0, 0), e2 = (0, 1, 1), e3 = (0, 0, −1), v 1 = (1, 1) y v 2 = (0, 1).

(i) Hállese la matriz de paso P de B a la base canónica de R3 , y la matriz


de paso Q de C a la base canónica de R2 .
(ii) Hállese la matriz D de f respecto las bases canónicas.
Solución:

(i)
u1 = (1, 0, 0) = e1 ,
u2 = (0, 1, 0) = e2 + e3 ,
u3 = (0, 0, 1) = −e3 .
 
1 0 0
Por tanto P = 0 1 0 .
0 1 −1
Por otra parte,
u1 = (1, 0) = v 1 − v 2 ,
u2 = (0, 1) = v 2 .
Å ã
1 0
Por tanto Q = .
−1 1
Å ã
−1 −1 1 0
(ii) Sabemos que D = Q · A · Q. Como Q = , entonces
1 1

Å ã Å ã  1 0 0
 Å ã
1 0 2 0 −1 2 −1 1
D= · · 0 1 0 = .
1 1 −1 1 0 1 0 1
0 1 −1

R6.10 Respecto a ciertas bases, las aplicaciones lineales: f : R2 → R3 , g : R3 → R2


y h : R3 → R3 tienen por matrices asociadas, respectivamente, a
Ñ é Ñ é
1 1 Å ã 1 1 1
1 2 1
F = 1 0 , G= yH= 0 2 1 .
3 1 0
2 3 0 0 3
128 6. APLICACIONES LINEALES

Clasificar dichas aplicaciones lineales.


Solución: dim Im(f ) = rang F = 2 < 3 = dim R3 (espacio final). Ası́ pues, f no
es suprayectiva.
Por el teorema de la dimensión de aplicaciones lineales, se tiene 2 = dim Ker(f ) + 2.
por tanto dim Ker(f ) = 0, y en consecuencia, f es inyectiva.
dim Im(g) = rang G = 2 = dim R2 (espacio final). Por tanto, g es suprayectiva.
Por el teorema de la dimensión de aplicaciones lineales, se tiene 3 = dim Ker(g) + 2.
Por tanto, dim Ker(g) = 1, y en consecuencia g no es inyectiva.
H es una matriz cuadrada y rang H = 3. En consecuencia H es inversible y por
tanto h es biyectiva. (El lector puede argumentar como los casos anteriores prara
concluir que h es suprayectiva e inyectiva).
129

Capı́tulo 7

DETERMINANTES

La teorı́a de determinantes es importante en matemáticas porque sim-


plifica en ocasiones la manera de exponer un problema y también la resolución
de éste. Por otra parte, el cálculo de determinantes de grandes dimensiones
no es obstáculo para los ordenadores.
En este capı́tulo, los determinantes nos ofrecerán un nuevo método para
obtener el rango de una matriz, y una manera sencilla de representar la inversa
de una matriz cuando exista.
En próximos capı́tulos, nos simplificará la descripción de las raı́ces de
un sistema de ecuaciones lineales, y nos conducirá a la ecuación caracterı́stica
de un endomorfismo.

7.1 DETERMINANTE DE ORDEN n


7.1.1 Signatura de una permutación

Sea el conjunto de n naturales In = {1, 2, . . . , n} con n ≥ 2.


El número de reordenaciones (permutaciones) distintas posibles con los
elementos de In es n!, y se identifica con las n! posibles aplicaciones biyectivas
que pueden establecerse de In en In .
Si i : In → In es una aplicación biyectiva, sus imágenes ordenadas
i(1), . . . , i(n), que escribiremos i1 , . . . , in , constituyen una permutación de In .
La permutación 1, 2, . . . , n se dice que está escrita en su orden natu-
ral. Si i1 , . . . , ik , . . . , ir , . . . , in es otra permutación cualquiera de In , dado
ik ∈ In diremos que ik constituye una inversión con ir si ir está a la derecha
de ik e ik > ir .
El número de inversiones de una permutación será la suma de las
130 7. DETERMINANTES

inversiones de cada elemento de la permutación con los que le siguen a la


derecha. Si dicho número es cero o par se dice que la permutación es (de
ı́ndice) par, y en caso contrario impar.
A la permutación i1 , . . . , in le atribuiremos el valor 1 ó -1 (signos +
ó -, respectivamente), que llamaremos signatura de la permutación, y se
escribirá sg(i1 , . . . , in ), según que la permutación sea par o impar.
Se verifica que la mitad de las permutaciones de In son pares.
A modo de ejemplo recogeremos en la siguiente tabla los conceptos
descritos para el conjunto {1, 2, 3}.

Permutación No de inversiones Índice sg


123 0 par +
132 1 impar −
213 1 impar −
231 2 par +
312 2 par +
321 3 impar −

7.1.2 Determinante de orden n


En cuanto sigue, supondremos que A = (aij ) es una matriz cuadrada
de dimensión n ≥ 2 con coeficientes aij en el cuerpo R (salvo que se explicite
su pertenencia a C). La fila y columna i-ésima de A se denotarán Ai y Ai ,
respectivamente.
Vamos a asignar a la matriz A el siguiente escalar, que denotaremos
|A|, y llamaremos determinante de A:
 
 a11 a12 ··· a1n 
 
 a a22 ··· a2n 
 21 
|A| =  . .. .. =
 sg(i1 , . . . , in ) a1i1 a2i2 · · · anin (7.1)
 .. . .  P
 
 an1 an2 · · · ann 

donde el sumatorio se extiende al conjunto P de todas las permutaciones


i1 , . . . , in del conjunto {1, 2, . . . , n}.
Cada sumando de (7.1) está constituido por un producto de n factores
a1i1 a2i2 · · · anin que pertenecen ordenadamente a la primera fila, segunda,. . . ,
de la matriz A, sin que pueda haber dos factores de una misma columna de
A, dado que los segundos subı́ndices constituyen una permutación i1 , . . . , in
de In , cuya signatura define el signo algebraico del sumando.
Al hablar de fila (columna) i-ésima de |A|, nos referiremos al vector
fila Ai (columna Ai ) de la matriz A.
7.1. DETERMINANTE DE ORDEN n 131

Para n = 1, definimos el determinante |a11 | = a11 . El lector comprobará


que ello extiende la validez de los próximos resultados, cuando se requiere el
concepto de determinante de orden 1.

7.1.3 Determinante de orden 3 y de orden 2


Atendiendo a la signatura de las permutaciones de {1, 2, 3}, se tiene:
 
 a a12 a13 
 11 
 
 a21 a22 a23  = a11 a22 a33 − a11 a23 a32 − a12 a21 a33
 
 a31 a32 a33 
+ a12 a23 a31 + a13 a21 a32 − a13 a22 a31
La anterior expresión, cuando se esquematiza, conduce a la conocida
regla de Sarrus que se puede representar como la suma de los productos de
los elementos que aparecen indicados en la figura inferior izquierda, menos la
suma de los productos de los que aparecen en la figura inferior derecha.

Otra sencilla regla para el cálculo del determinante de orden 3, se ob-


serva en el siguiente diagrama.
- - -
a11 a12 a13 a11 a12
a21 a22 a23 a21 a22
a31 a32 a33 a31 a32
+ + +

El cálculo de un determinante de orden 2 es sencillo pues


 
 a a12 
 11 
  = a11 a22 − a12 a21
 a21 a22 

según la Definición (7.1).

7.1.4 Ejemplos
 
 1 2 1 
 
 
(a) Para hallar  5 2 1  usamos el diagrama anterior que resulta
 
 1 2 4 
 
 1 2 1 
 
 
 5 2 1  = 1 · 2 · 4 + 2 · 1 · 1 + 1 · 5 · 2 − 1 · 2 · 1 − 2 · 1 · 1 − 4 · 5 · 2 = −24
 
 1 2 4 
132 7. DETERMINANTES

 
 −i −1 
 
(b)   = (−i) · i − (−1) · 1 = −i2 + 1 = 2
 1 i 

7.1.5 Propiedades de los determinantes de orden n


(a) Si la matriz A tiene una fila nula, entonces |A| = 0.
La prueba es obvia por (7.1).

(b) Si una fila de A se multiplica por el escalar k, la nueva matriz B verifica


|B| = k·|A|.
La prueba es obvia por (7.1).

(c) Si la matriz B se deduce de A al intercambiar dos filas contiguas, se


tiene |B| = −|A|.
La prueba es laboriosa y se omite.

(d) Si la matriz B se deduce de A al intercambiar dos filas (paralelas y


distintas), se tiene |B| = −|A|.
Con un razonamiento sencillo se prueba que mediante un número impar de intercam-
bios contiguos de filas, se convierte A en B y, por tanto, según la propiedad (c) se
tiene que |B| = −|A|.

(e) Si dos filas de A son iguales, entonces |A| = 0.


En efecto, al intercambiar las dos filas iguales de A, se verifica según (d) que
|A| = −|A| y, por tanto, |A| = 0.

(f) Si dos filas de A son proporcionales, entonces |A| = 0.


En efecto, aplicando la propiedad (b) se tiene:
 a11 ··· a1n   a11 ··· a1n 
 . ..   . .. 
 .  .
 . .   . . 
 ai1 ··· ain   ai1 ··· ain 
 .   
 . ..  = k  .. ..  = k·0 = 0, según (e).
 . .   . . 
 kai1 ··· kain   ai1 ··· ain 
 .   . 
 . ..   . .. 
 . .   . . 
an1 ··· ann an1 ··· ann

(g) Si B = (bij ) y C = (cij ) son matrices idénticas a la matriz A = (aij )


salvo la fila k-ésima, entonces:
   
 a11 ··· a1n   a11 ··· a1n 
   
 . ..   . .. 
 .. .   .. . 
   
   
|B| + |C| =  bk1 ··· bkn  +  ck1 ··· ckn =
   
 .. ..   .. .. 
 . .   . . 
   
 a ··· ann   a ··· ann 
n1 n1
7.1. DETERMINANTE DE ORDEN n 133
 
 a11 ··· a1n 
 
 .. .. 
 . . 
 
 
=  bk1 + ck1 ··· bkn + ckn 
 
 .. .. 
 . . 
 
 an1 ··· ann 

En efecto, cada sumando del determinante del último miembro según (7.1) se con-
vierte en una suma de dos sumandos que son precisamente los “correspondientes” de
|A| y |B|, respectivamente.

(h) Si la matriz B se deduce de A al sustituir la fila Ai de A por Ai + k·Aj


con k ∈ K, i
= j, entonces |B| = |A|.
En efecto, según la propiedad (g) se tiene:
 a11 ··· 
 a1n

 .. .. 
 . . 
 ai1 +ka ain +kajn 
 j1 ··· 
 .. .. 
 =
 a. . 
 j1 ··· ajn 
 . .. 
 
 a .. ··· ann
. 
n1
 a11   a11 
 ··· a1n   ··· a1n

 . ..   .. .. 
 .. .   . . 
 ai1
 ··· ain   kaj1 ··· kajn

 ..  +  . ..  = |A|
=  ... .   ..
 aj1 . 
 ··· ajn   aj1 ··· ajn 
 . ..   .. .. 
 ..
a ··· a
.   .
a
. 
··· ann
n1 nn n1

según la propiedad (f).


Por aplicación reiterada de la anterior propiedad, se tiene:
(i) |A| no varı́a si a una fila se la suma una combinación lineal de otras
paralelas.
(j) |A| = |At |.
La prueba es laboriosa y se omite.

De la última propiedad se obtiene que todas las propiedades antes men-


cionadas para filas, también se verifican por columnas.

7.1.6 Ejemplos
Por las propiedades (a), (e) y (f) se tiene
     
 0   1   1 −3 
 0   2   
  = 0,   = 0,  =0
 1 2   1 2   −2 6 
134 7. DETERMINANTES

Recordando el valor del determinante de (b) de los Ejemplos 7.1.4 y por


las propiedades (b) y (c) se tiene, respectivamente,

     
 −i −1   −i −1   1 
     i 
  = (−3)   = (−3) · 2 = −6,   = −2.
 −3 −3i   1 i   −i −1 

Recordando el valor del determinante de (a) de los Ejemplos 7.1.4 y por


las propiedades (d), (g) y (j), respectivamente, se tiene

   
 1 2 1   1 2 4 
  
   
− 5 2 1  =  5 2 1  = 24
   
 1 2 4   1 2 1 
     
 1 2 1   1 2 1   1 2 1 
  
     
 3 1 0 + 2 1 1  =  5 2 1  = −24
     
 1 2 4   1 2 4   1 2 4 
 
 1 5 1 

 
 2 2 2  = −24
 
 1 1 4 

7.2 DESARROLLO DE UN DETERMINANTE

7.2.1 Menor complementario y adjunto

Dada la matriz A = (aij ), i, j = 1, 2, . . . , n se llama matriz menor


complementaria del elemento aij en A a la matriz cuadrada Mij de di-
mensión n − 1 resultante al suprimir en A la fila i-ésima y la columna j-ésima.
Al determinante |Mij | se le denomina menor complementario de aij . Al
real (−1)i+j |Mij | se le llama adjunto del elemento aij y se escribe Aij .
A la matriz (Aij ) la denominaremos matriz de adjuntos de A. La
traspuesta (Aij )t es la traspuesta de la matriz de adjuntos de At . La asig-
nación de signos (−1)i+j se corresponde con el siguiente diagrama

à í
+ − + − ···
− + − + ···
+ − + − ···
.. .. .. . . . .
. . . . .
7.2. DESARROLLO DE UN DETERMINANTE 135

7.2.2 Ejemplo
Ö è
1 0 0
A = (aij ) = 3 2 0 . Entonces los coeficientes Aij de la
−1 2 −3
matriz de adjuntos (Aij ) de A son:    
 2 0   3 0   3 2 
   
A11 =   = −6, A12 = −   = 9, A13 =   = 8,
 2 −3   −1 −3   −1 2 
     
 0 0   1 0   1 0 
   
A21 = −  = 0, A22 =   = −3, A23 = −  = −2,
 2 −3   −1 −3   −1 2 
     
 0 0   1 0   1 0 
     
A31 =   = 0, A32 = −   = 0, A33 =   = 2.
 2 0   3 0   3 2 
Ö è
−6 9 8
Por tanto, Aij = 0 −3 −2 .
0 0 2
Ö è
−6 0 0
Ası́, (Aij )t = Aji = 9 −3 0 .
8 −2 2
El lector verificará que (Aij )t es la matriz de adjuntos de At .
Omitiremos la prueba de la siguiente proposición.

7.2.3 Proposición

Si en la fila (columna) k-ésima de A los elementos distintos del elemento


aks son ceros, entonces |A| = aks · |Aks |.

7.2.4 Proposición (desarrollo de un determinante)

El determinante de A es igual a la suma de los elementos de una fila


(columna) multiplicados por sus respectivos adjuntos.
Demostración. Podemos escribir por aplicación reiterada de la propiedad (g) de
7.1.5:
   
 a11 a12 ··· a1n−1 a1n   a11 a12 ··· a1n−1 a1n 
   
 .. .. .. ..   .. .. .. .. 
 . . . .   . . . . 
   
|A| =  ak1 0 ··· 0 0 + 0
  ak2 ··· 0 0 

 .. .. .. ..   .. .. .. .. 
 . . . .   . . . . 
   
 an1 an2 ··· ann−1 ann   an1 an2 ··· ann−1 ann 
136 7. DETERMINANTES

 
 a11 a12 ··· a1n−1 a1n 
 
 .. .. .. .. 
 . . . . 
 
+ · · · +  0 0 ··· 0 akn 

 .. .. .. .. 
 . . . . 
 
 an1 an2 ··· ann−1 ann 
en donde los determinantes del segundo miembro coinciden con |A| salvo en la fila k-ésima
en la que los elementos de ak1 , . . . , akn son ceros en los respectivos determinantes.
Entonces, por la Proposición 7.2.3 se tiene: |A| = ak1 · Ak1 + ak2 ·Ak2 + · · · + akn ·Akn ,
expresión que se conoce como desarrollo de un determinante por la fila k-ésima.
La prueba para columnas es una consecuencia de (j) de 7.1.5. 

7.2.5 Proposición (determinante de una matriz triangular)


Si A = (aij ) es una matriz triangular, su determinante es el producto
de los elementos de la diagonal.

7.2.6 Cálculo práctico de determinantes


La utilización sucesiva de la propiedad (i) de 7.1.5, nos da un procedimiento para
“triangularizar” un determinante, de manera muy similar al proceso de reducción de Gauss
que usamos para hallar rangos de matrices, lo que proporciona un nuevo método para
calcular determinantes, por aplicación de la Proposición 7.2.5.
En la práctica, para el cálculo de un determinante, se usan los diversos métodos
conjuntamente, que se consideran más apropiados.

7.2.7 Ejemplo
 
 2 0 0 
 
(a)  1 −3 0  = 2 · (−3) · 5 = −30

 2 1 5 
 
 1 1 2 1 
 
 2 3 0 0 
(b) Vamos a calcular el determinante D =  .
 3 5 2 1 
 4 1 2 4 
Observando los ceros de la segunda fila, optamos por un desarrollo de D por dicha
fila:
     
 1 2 1   1 2 1   1 1 1 
     
D = −2  5 2 1  +3 3 2
  1  = −2D1 + 3 · 2  3 1
  1 

 1 2 4   4 2 4   4 1 4 
= −2 D1 + 6 D2

según la propiedad (b) de 7.1.5, aplicada a la segunda columna.


En el Ejemplo 7.1.6 se ha obtenido D1 = −24.
7.3. MATRIZ INVERSIBLE 137

El cálculo del segundo determinante D2 lo haremos de dos maneras distintas por


“triangularización”, teniendo en cuenta la propiedad (b) de 7.1.5, anotando a la
derecha los cálculos realizados, por filas.
 
 1 1 1  1 1 1
 
D2 =  3 1 1 = 0
 −2 −2 (2a ) − 3(1a )
 4 1 4  0 −3 0 (3a ) − 4(1a )

siguiendo el proceso,

1 1 1 1 1 1
0 −2 −2 = 0 −2 −2
3 a
0 −3 0 0 0 3 (3a ) − (1 )
2
Ası́ pues, como D2 es el determinante de una matriz triangular, se tiene por la
Proposición 7.2.5 que D2 = 1 · (−2)·3 = −6.
El valor del segundo determinante también se puede obtener como sigue:

1 1 1 1 1 1
1
0 −2 −2 = 0 −2 −2
2
0 −3 0 0 0 6 2(3a ) − 3(2a )

1
Obsérvese el factor que ha aparecido en la última expresión, atendiendo a (b) de
2
7.1.5. Éste es un detalle que el principiante acostumbra a omitir erróneamente, por
su similitud con el cálculo del rango de una matriz por el proceso de Gauss. Ası́ pues,
1
D2 = ·1·(−2)·6 = −6.
2
En consecuencia, D = −2 D1 + 6 D2 = −2·(−24) + 6 · (−6) = 12.

7.3 MATRIZ INVERSIBLE


7.3.1 Proposición

Si rang(A) < n entonces |A| = 0.


Demostración. Si rang(A) < n, podemos encontrar matrices elementales E1 , . . . , Er
de manera que Er · · · E1 ·A = C, siendo C una matriz con una fila nula.
Entonces, A = E1−1 · · · Er−1 ·C, donde E1−1 , . . . , Er−1 son matrices elementales y es
fácil probar que:
|A| = |E1−1 · · · Er−1 ·C| = |E1−1 | · · · |Er−1 |·|C| = 0 ya que |C| = 0. 

Omitimos la demostración del siguiente teorema.

7.3.2 Teorema

Sean A y B matrices cuadradas de dimensión n. Se verifica la igualdad


|A·B| = |A|·|B|.
138 7. DETERMINANTES

7.3.3 Corolario

A es inversible si y sólo si |A| es distinto de 0. En tal caso, |A−1 | = |A|−1 .


Demostración. Si A tiene inversa A−1 se verifica A·A−1 = I, con lo que |A|·|A−1 | =
|I| = 1, y por tanto, |A| = |A−1 |−1 es distinto de 0.
Recı́procamente, si A no es inversible, se tiene, según el Teorema 6.3.7, que rang(A)
< n, y por la Proposición 7.3.1 se concluye que |A| = 0. 

7.3.4 Nota

Si una matriz triangular inferior (Aij ) (superior) es inversible, entonces A−1 es


1
también triangular inferior (superior) y además los elementos de su diagonal son .
aii
−1
Si A es una matriz simétrica inversible entonces A es también simétrica (ver ejer-
cicio R7.11)

7.3.5 Proposición

La suma de los productos de los elementos de la fila k-ésima de |A| por


los correspondientes adjuntos de una fila r-ésima distinta, es nula.
Demostración. Consideremos la matriz A = (aij ) que tiene iguales las filas k-ésima
y r-ésima. Entonces sabemos que |A| = 0 y haciendo un desarrollo de |A| por la fila r-ésima
se tiene: |A| = ar1 Ar1 + · · · + arn Arn = ak1 Ar1 + · · · + akn Arn = 0. 

7.3.6 Cálculo de la matriz inversa

Sea la matriz inversible A = (aij ). Teniendo en cuenta que |A|


= 0
podemos realizar el siguiente producto matricial, donde Aij es el adjunto de
aij en la matriz A:
⎛ ⎞
a11 · · · a1n
⎜ . .. ⎟ Ö è
⎜ ..
⎜ . ⎟ ⎟ 1 A11 · · · Aj1 · · · Ann
⎜ ⎟ .. .. ..
⎜ ai1 ··· ain ⎟· · . . . = (cij ) ,
⎜ ⎟ |A|
⎜ .. .. ⎟ A1n · · · Ajn · · · Ann
⎝ . . ⎠
an1 · · · ann

1
en donde cij = (ai1 Aj1 + · · · + ain Ajn ). Entonces, si i = j, se tiene:
|A|

ai1 Ai1 + · · · + ain Ain |A|


cii = = =1
|A| |A|
7.3. MATRIZ INVERSIBLE 139

mientras que si i
= j entonces, por la Proposición 7.3.5, se tiene cij = 0 con
lo que (cij ) = I.
En consecuencia, según el Teorema 5.5.5, la inversa de A es
Ö è
A11 ··· An1
1 .. ..
A−1 = · . . ,
|A|
A1n · · · Ann

es decir, si existe, la inversa de A es la traspuesta de su matriz de adjuntos,


(Aji ), dividida por el determinante de A.

7.3.7 Ejemplo
Ö è
1 0 0
La matriz triangular inferior A = 3 2 0 es inversible pues
−1 2 −3
|A| = 1 · 2 · (−3) = −6.
Según Ö
el Ejemplo 7.2.2
è la traspuesta de la matriz Ö de adjuntos è de A
−6 0 0 −6 0 0
1
es (Aji ) = 9 −3 0 . Por tanto A−1 = − 9 −3 0 =
6
8 −2 2 8 −2 2
Ö è
1 0 0
− 32 21 0 que es de nuevo triangular inferior (ver Nota 7.3.4).
− 34 31 − 13

7.3.8 Aplicación al cálculo del rango de una matriz

Según el Corolario 7.3.3, el cálculo de determinantes nos ofrece el si-


guiente método alternativo al proceso de Gauss para hallar el rango de una
matriz:
Si C es una matriz de dimensión r × s, el rango de C es la dimensión n
de la “submatriz” A cuadrada de mayor dimensión con |A| distinto de 0, es
decir, el máximo orden posible de un menor no nulo.
Demostración. En efecto, si rang C = n, significa que existen n filas y n columnas
linealmente independientes, con las que podemos formar una submatriz cuadrada A de C,
de manera que rang A = n, y por tanto |A| es distinto de 0.
Por otra parte, no puede existir una submatriz cuadrada B de C de dimensión m
con m > n y |B| distinto de 0, pues entonces rang B = m y en tal caso es fácil verificar
rang C = m, en contra de lo supuesto. 
140 7. DETERMINANTES

7.3.9 Ejemplo
Ö è
2 1 2 1
La matriz A = 2 5 2 1 tiene rango 3, pues el determinante
2 1 2 4
formado por las tres últimas columnas, según (a) del Ejemplo 7.1.4, es distinto
de cero.

7.4 UN POCO DE HISTORIA


Aunque, teniendo en cuenta lo expuesto en este libro, los determinantes aparecen
despues de ser definidas las matrices y van asociados a matrices cuadradas; en realidad
los determinantes son anteriores en el tiempo a las matrices. Los determinantes surgieron
cuando se abordó la resolución de sistemas de ecuaciones lineales. La palabra ‘determinante”
fue usada por primera vez por Carl Friedrich Gauss (1777-1855), y la aplicó Agustin Cauchy
(1789–1857) a los determinantes ya aparecidos en el siglo XVIII, debiéndose a Cauchy la
ordenación de los elementos en estructura de tabla y la notación de subı́ndices dobles para
sus elementos. Anteriormente, en 1693, Gottfried Leibniz (1646–1716), al formalizar y
resolver un sistema de tres ecuaciones lineales con tres incógnitas, obtuvo un valor que
correspondı́a a un determinante. Gabriel Cramer (1704–1752) publicó en 1750 un libro,
titulado Introduction à l’analyse des lignes courbes algébriques donde aparecı́a la regla para
obtener los coeficientes de una cónica general que pasaba por 5 puntos dados, utilizando
determinantes. Pero fue Alexandre T. Vandermonde (1735–1796) el primero en exponer
de forma coherente y lógica la teorı́a de los determinantes, aplicándolos a los sistemas de
ecuaciones lineales.

7.5 EJERCICIOS RESUELTOS


R7.1 Calcula los determinantes de las siguientes matrices:
Å ã Å ã
1 3 1 0
A= ,B = .
2 5 −1 1

Solución: |A| = 1 · 5 − 2 · 3 = −1. Por otra parte |B| = 1 − 0 = 1.


R7.2 Calcula los determinantes de las siguientes matrices.
Å ã Å ã
1 i 1 2+3i
A= ,B = .
−i i 2−3i 0
 
 1 1 
Solución: |A| = i − (−i2 ) = i − 1 (otra forma: |A| = i   = i · (1 + i) =

−i 1
i + i2 = i − 1).
Por otra parte, |B| = −(2 + 3 i) · (2 − 3 i) = −(22 + 32 ) = −13.
7.5. EJERCICIOS RESUELTOS 141

R7.3 Calcula el determinante de las siguientes matrices:


Ñ é Ñ é
1 2 −1 1 2 2
A= 5 2 1 ,B = 1 2 1
−3 2 4 2 4 3

Solución: Recordemos, para calcular el determinante de A, la regla gráfica equi-


valente a la de Sarrus.

Por tanto, |A| = 8 − 6 − 10 − 6 − 2 − 40 = −56.


Para obtener |B| = 0 es suficiente con observar que la tercera fila de B es suma de
las dos primeras.

R7.4 Hállese el determiante de las siguientes matrices:


Ñ é Ñ é Ñ é
2 0 0 2 1 3 1 0 0
A= 0 3 0 , B= 0 2 1 yC= 0 2 0
0 0 4 0 0 −4 3 4 0

Solución: Como A, B y C son triangulares, sus determinantes son el producto de


los elementos de la diagonal principal. Por tanto:

|A| = 2 · 3 · 4 = 24, |B| = 2 · 2 · (−4) = −16, y |C| = 0

R7.5 Hállese el determinante de las siguientes matrices:


Ñ é Ñ é Ñ é
2 1 3 0 5 0 −2 0 −3
A= 1 −3 1 , B= 1 −2 1 yC= 1 1 2
0 0 4 −3 1 2 1 2 3

Solución: Desarrollamos |A| por la tercera fila, |B| por la primera fila y |C| por
la segunda columna.
 
 2 1 
|A| = 4 ·   = 4 · (−6 − 1) = −28 .
1 −3 
 1 1 
|B| = −5 ·   = −5 · (2 + 3) = −25 .
 3 2   
 −2 −3   −2 −3 

|C| = 1 ·   −2·   = (−6 + 3) − 2 · (−4 + 3) = −3 + 2 = −1 .
1 3  1 2 
142 7. DETERMINANTES

 
 1
 1 1 
R7.6 Hállese el valor del determinante D =  a b c .
b + c a+c a + b
Solución: Sumando a la segunda fila la tercera y usando (b) del punto 7.1.5 se
tiene  
 1 1 1 
 
D = a + b + c a + b + c a + b + c

 b+c a+c a+b 
Por tanto |D| = 0 pues las filas primera y segunda son proporcionales.
 
 1 1 ··· 1 
 
 a1 a2 ··· an 
 2 
 a22 ··· a2n 
R7.7 Calcúlese el determinante Vn =  a1  de orden n (n ≥ 2)
 .. .. .. 
 . . . 
 
an−1 an−1 ··· a n−1 
1 2 n
denominado de Vandermonde.
Solución: Si a cada fila de Vn , empezando por la última, le restamos a1 veces la
anterior, se tendrı́a el determinante siguiente
 
1 1 ··· 1 
0 
 a2 − a1 ··· an − a1 
 a2 (a2 − a1 ) ··· an (an − a1 ) 
Vn = 0 
 .. .. .. 
. . . 
0 a2 (a2 − a1 )
n−2
··· an−2 (a − a )

n n 1

Haciendo un desarrollo por la primera columna se tiene


 
 a2 − a1 ··· an − a1 
 a (a − a ) ···

an (an − a1 ) 
 2 2 1
Vn =  .. .. 

 . . 
an−2 (a − a ) ··· an (an − a1 )
n−2 
2 2 1

Utilizando (b) de 7.1.5, para cada una de las columnas se llega a


 
 1 1 ··· 1 
 a 
 2 a3 ··· an 
 2 a23 ··· a2n 
Vn = (a2 − a1 ) · · · (an − a1 )  a2
 .. .. .. 
 . . . 
an−2 an−2 ··· an−2

2 3 n
= (a2 − a1 ) · · · (an − a1 ) Vn−1
donde Vn−1 es un determinante de Vandermonde de dimensión n − 1.
Con un proceso recurrente se tiene,
Vn = (a2 − a1 ) · · · (an − a1 ) Vn−1
= (a2 − a1 ) · · · (an − a1 ) (a3 − a2 ) · · · (an − a2 ) Vn−2 .
Teniendo en cuenta que, durante larecurrencia, estamos suprimiendo la columna de
 1 1 
la izquierda, y que V2 =  , se tendrá:
an−1 an 
Vn = (a2 − a1 ) · · · (an − a1 ) (a3 − a2 ) · · · (an − a2 ) Vn−2 = . . .
= (a2 − a1 ) · · · (an − a1 ) (a3 − a2 ) · · · (an − a2 ) · · · (an − an−1 )
7.5. EJERCICIOS RESUELTOS 143

que se puede escribir en forma de producto como



Vn = (ai − aj ).
i = 2, . . . , n.
j = 1, . . . , i − 1.

 
1 1 1 1 1 

2 3 4 7 8 

R7.8 Hallar D = 22 32 42 72 82 
2 3 33 43 73 83 

2 4 34 44 74 84 
Solución: D es un determinante de Vandermonde. Aplicando el ejercicio R7.7 se
tiene

D = (3−2)·(4−3)·(4−2)·(7−4)·(7−3)·(7−2)·(8−7)·(8−4)·(8−3)·(8−2) = 14400

R7.9 Calcúlese las inversas de las matrices


Ñ é
2 2 2 Å ã
cos a − sen a
A= 3 2 2 , B=
sen a cos a
5 1 0

con a ∈ R.
Solución: A es inversible pues |A| = 2 = 0.
Los adjuntos Aij de A son: a11 = −2, A12 = 10, A13 = −7, A21 = 2, A22 = −10,
A23 = 8, A31 = 0, A32 = 2, A33 = −2. A modo de ejemplo, la matriz
Å menor
ã de a23 ,
2 2
tras suprimir la segunda fila y tercera columna de A es M23 = . Por tanto,
5 1
 
2 2
el adjunto A23 de a3 es A23 = (−1)2+3 · |M23 | = −   = −(2 − 10) = 8.
5 1
   
−2 2 0 −1 1 0
−1 1
Por tanto, A = 2
10 −10 2 = 5 −5 1 .
−7 8 −2 − 27 4 −1
B es inversible para todo a ∈ R pues, por el teorema fundamental de trigonometrı́a,
|B| = cos2 a + sen 2 a = 1 = 0.
Como BÅ11 = cos a, B12 ã= − sen a, B21 = sen a, B22 = cos a, entonces se tiene que
−1 cos a sen a
B = .
− sen a cos a
R7.10 Hállese las inversas de las siguientes matrices:
Ñ é
1 0 0 Å ã
0 −2i
A= 0 2 2 , B= .
2i 0
3 1 2

Solución: (Ver Ejemplo 5.5.4 y el ejercicio R5.5 (ii)).


La matriz A es inversible puesto que |A| = 2 = 0. Los adjuntos Aij de A son:
144 7. DETERMINANTES

A11 = 2, A12 = 6, A13 = −6, A21 = 0, A22 = 2, A23 = −1, A31 = 0, A32 = −2,
A33 = 2.
   
2 0 0 1 0 0
−1 1
Ası́ pues, A = 2 6 2 −2 = 3 1 −1 .
−6 −1 2 −3 − 12 1
La matriz B es inversible pues |B| = −4 = 0. Los adjuntos Bij de B son: B11 = 0,
B12 = −2i, B21 = 2i, B22 = 0.
Å ã Å ã
0 2i 0 − 2i
En consecuencia, B −1 = 1
= .
−4 −2i 0 i
2
0
R7.11 Hállese la inversa de las siguentes matrices
Ñ é Ñ é
Å ã Å ã 0 −2 3 1 −2 3
2 0 2 1
A= , B= , C= 0 3 4 , D= 0 3 4 .
0 −3 1 0
0 0 1 0 0 1
Å 1
ã
0
Solución: A es una matriz diagonal, y por tanto A−1 = 2 .
0 − 13
B es una matriz simétrica,
Å y |B| =ã−1 = 0, luego es inversible. La matriz de adjuntos
0 −1
traspuestas es Bji = . Por tanto
−1 2
Å ã Å ã
0 −1 0 1
B −1 = −1 · = (que también es simétrica).
−1 2 1 −2

C es una matriz triangular superior no inversible pues |C| = 0.


D es una matriz triangular superior inversible pues |D| = 3 = 0. La matriz de
 
3 2 −17
adjuntos traspuesta es Dji = 0 1 −4 . Por tanto
0 0 3
 
3 2 −17
−1 1
D = · 0 1 −4 (que también es triangular superior).
3
0 0 3

R7.12 Hállese el rango de las matrices siguientes:


Ñ é Ñ é
1 2 −1 1 1 1 1
A= 5 2 1 1 , B= 1 2 3
3 2 4 1 4 3 2

Solución: rang A ≤ 3, pues A tiene sólo 3 filas. A tiene una submatriz cuadrada
cuadrada
 de orden
 3 con determinante no nulo. En efecto, según el ejercicio R7.3 se
1 2 −1
 
tiene 5 2 1  = −32 = 0. Por tanto rang A = 3.
3 2 4 
Con |B| = 0, entoncesÅ B no
ã puede ser derango 3. Obviamente rang B = 2. (En
1 1 1 1 
efecto, la submatriz verifica   = 1 = 0).
1 2 1 2
7.5. EJERCICIOS RESUELTOS 145
Ñ é
2 0 1
R7.13 Sea A = 1 1 1 . Discute el rang A según los valores del parámetro
1 3 a
real a.
Solución: Puesto que existen submatrices, de orden 2, de A con determinante
no nulo, obviamente, rang A ≥ 2, es decir rang A = 2 ó rang A = 3. Se tiene que
|A| = 2 a − 4. Por tanto si 2 a − 4 = 0, es decir si a = 2, entonces rang A = 2. Si
a = 2 entonces rang A = 3.
147

Capı́tulo 8

SISTEMAS DE
ECUACIONES LINEALES

Los sistemas de ecuaciones lineales se presentan en casi todas las ramas


de la matemática aplicada, como formulación inicial de un problema o como
parte de ataque para la solución a otro problema.
Las teorı́as que aparecen en el capı́tulo admiten sencillos algoritmos
computacionales para la resolución de grandes sistemas de Cramer.

8.1 SISTEMAS DE ECUACIONES LINEALES


8.1.1 Sistemas de ecuaciones lineales
Se denomina sistema lineal de m ecuaciones con n incógnitas al si-
guiente conjunto de ecuaciones lineales con incógnitas x1 , . . . , xn y con co-
eficientes aij (1 ≤ i ≤ m, 1 ≤ j ≤ n) y términos independientes bj
(j = 1, . . . , m) que supondremos reales (salvo que se explicite su pertenencia
al cuerpo (C, +, ·) ),


⎪ a11 x1 + a12 x2 + ··· + a1n xn = b1


⎨ a21 x1 + a22 x2 + ··· + a2n xn = b2
.. (8.1)

⎪ .



am1 x1 + am2 x2 + · · · + amn xn = bm

Cuando no haya posibilidad de confusión, lo abreviamos llamándolo “sis-


tema”. Si al sustituir en (8.1), xi por ci ∈ R, i = 1, . . . , n , se tienen m
igualdades (i.e., se “satisface” (8.1) ), se dice que (c1 , . . . , cn ) en una solución
del sistema. Si dos sistemas tienen las mismas soluciones, entonces se llamarán
148 8. SISTEMAS DE ECUACIONES LINEALES

equivalentes. “Resolver un sistema” es sinónimo de hallar las soluciones del


sistema.

8.1.2 Solución de un sistema de ecuaciones lineales


El anterior sistema (8.1) admite la siguiente expresión matricial en
forma de producto:
à í à í à í
a11 a12 ··· a1n x1 b1
a21 a22 ··· a2n x2 b2
.. .. .. · .. = .. (8.2)
. . . . .
am1 am2 · · · amn xn bm
lo cual abreviamos por A x = b, de interpretación obvia.
Llamaremos a A matriz de los coeficientes, x vector solución y b vector
de términos independientes. Otra forma matricial de escribir (8.1) es:
à í à í à í à í
a11 a12 a1n b1
a21 a22 a2n b2
x1 .. + x2 .. + · · · + xn .. = .. (8.3)
. . . .
am1 am2 amn bm
Nos vamos a servir de (8.2) y (8.3) para dar sendas interpretaciones de las
soluciones de un sistema.
Teniendo en cuenta que toda matriz A de dimensión m×n define unı́vo-
camente una aplicación lineal f : Rn → Rm (respecto las bases canónicas de
Rn y Rm ), entonces de la expresión A x = b de (8.2) concluı́mos que x ∈ Rn
es una solución de (8.1) si y sólo si el vector x es una antiimagen de b ∈ Rn
por medio de f .

Rn f Rm
x b

Por otra parte, si llamamos Ai (i = 1, . . . , n) a la columna i-ésima de


la matriz de coeficientes A, tenemos que (8.3) se puede representar como la
siguiente combinación lineal de vectores en Rm :

x1 A1 + x2 A2 + · · · + xn An = b

En consecuencia, x = (x1 , . . . , xn ) ∈ Rn es solución de (8.1) si y sólo si


b se puede escribir como combinación lineal de A1 , . . . , An siendo x1 , . . . , xn
sus coordenadas.
8.1. SISTEMAS DE ECUACIONES LINEALES 149

8.1.3 Matriz ampliada


Si a la matriz de los coeficientes A del sistema (8.1) se le añade la
columna b de términos independientes, obtenemos una matriz de dimensión
m×(n + 1) que suele llamarse matriz ampliada (u orlada) del sistema y se
la representa por A∗ .
En ocasiones se acostumbra a diferenciar en A∗ la columna b separán-
dola de las restantes columnas de A o interponiendo una barra vertical:
à í
a11 a12 ··· a1n b1
a21 a22 ··· a2n b2
A∗ = .. .. .. .. (8.4)
. . . .
am1 am2 · · · amn bm

Supuestas ordenadas las variables x1 , . . . , xn como aparecen en (8.1),


observamos que (8.4) es una representación del sistema (8.1). De hecho esta
representación del sistema (8.1) permite extender los conceptos de dependen-
cia e independencia lineal de las filas de A∗ , a las ecuaciones de (8.1), lo que
se utilizará en adelante.
Se tiene la siguiente proposición de la que omitimos su prueba.

8.1.4 Proposición
Si a un sistema de ecuaciones lineales se le añade un número finito
de ecuaciones lineales que son combinaciones lineales de las dadas, el nuevo
sistema es equivalente al inicial.

8.1.5 Ejemplo
Sea el sistema ®
x + y = 2
.
2x − y = 1
Su única solución es x = 1, y = 1. Este sistema equivale a los siguientes
⎧ ⎧

⎨ x + y = 2 ⎪
⎨ x + y = 2
2x − y = 1 2x − y = 1

⎩ 4x + y = 5 ⎪
⎩ 0x + 0y = 0

Obsérvese que    
1 1 2 1 1 2
  
   
2 −1 1 = 2 −1 1 = 0
   
4 1 5 0 0 0
pues en ambos casos la tercera fila es combinación lineal de las dos primeras.
150 8. SISTEMAS DE ECUACIONES LINEALES

8.1.6 Clasificación de sistemas


Si un sistema de ecuaciones lineales admite alguna solución se le llama
compatible , y de lo contrario incompatible. Si el sistema admite solución
única se le llama además determinado (o también sistema de Cramer),
y si admite más de una solución se le llama indeterminado.
Ası́ pues, en un sistema compatible e indeterminado cabe hablar de una
solución particular o de la solución general del sistema que dependerá
de uno o varios parámetros (incógnitas).

8.1.7 Teorema de Rouché-Fröbenius


Sea el sistema de m ecuaciones lineales con n incógnitas anterior (8.1).
Supongamos que el rango de la matriz A de los coeficientes del sistema es
r = rang(A) y sea A∗ la matriz ampliada. Entonces

(i) Si rang A = rang A∗ el sistema es compatible, y si rang A < rang A∗ el


sistema es incompatible.
(ii) Además, en el caso de que el sistema sea compatible, se tiene que si
r = n entonces el sistema es determinado, y si r < n entonces el sistema
admite soluciones que dependen de n − r incógnitas.
Demostración. (i) Según vimos al final del punto 8.1.2, existe solución del sistema
(8.1) sii el vector columna b de términos independientes se puede escribir como combinación
lineal de los n vectores columnas A1 , . . . , An de la matriz A, lo cual sucede si y sólo si
rang A = rang A∗ .
(ii) Supongamos pues, que (8.1) es compatible y que rang A = rang A∗ = n. En
tal caso, el número m de filas de la matriz A∗ (es decir, el número de ecuaciones) ha de
ser m ≥ n. En el caso en que m > n sabemos que existen m − n vectores filas que son
combinaciones lineales de n vectores filas que constituyen un sistema libre. Dicho de otra
forma, hay m − n ecuaciones que son combinaciones lineales de las n restantes y, por tanto,
según la Proposición 8.1.4 podemos suprimirlas para obtener un sistema equivalente de n
ecuaciones con n incógnitas con matriz de coeficientes A de rango n. Ası́ pues, A es
la matriz de una aplicación lineal biyectiva f : Rn → Rn y, por ello, para cada b ∈ Rn
existe una única antiimagen x ∈ Rn . O sea, según el punto 8.1.2, el último sistema y, en
consecuencia el inicial, admite una única solución.
Supongamos ahora que rang A = rang A∗ = r < n. Con un proceso análogo al
anterior, si m < n podemos suprimir m − r ecuaciones y quedarnos con r ecuaciones cuya
matriz A de coeficientes sea de rango r. Supongamos que son las r primeras (ello no supone
ninguna restricción pues bastarı́a con reordenar el sistema), y sea pues, el siguiente sistema
equivalente al inicial:

⎪ a11 x1 + a12 x2 + ··· + a1n xn = b1

⎨ a21 x1 + a22 x2 + ··· + a2n xn = b2
.. (8.5)

⎪ .

ar1 x1 + ar2 x2 + ··· + arn xn = br
8.1. SISTEMAS DE ECUACIONES LINEALES 151

que se abrevia como A x = b de interpretación inmediata.


Podemos suponer ahora que las r primeras columnas de la matriz A son linealmente
independientes (si no es ası́, se reordenan variables y coeficientes) y escribimos (8.5) en la
forma ⎧

⎨ a11 x1 + · · · + a1r xr = b1 − a1,r+1 xr+1 − · · · −a1n xn
.. (8.6)
⎪ .
⎩ ar1 x1 + · · · + arn xn = br − ar,r+1 xr+1 − · · · − arn xn
Ö è
a11 ··· a1r
que tiene como matriz de coeficientes A = .. .. .
. .
a11 ··· a1r
Ahora bien, por la anterior suposición, la matriz A de los coeficientes del sistema
(8.6) admite solución (única) y, en consecuencia, el sistema (8.6) y por tanto, el inicial,
admite infinitas soluciones que se obtienen cuando xr+1 , . . . , xn tomen valores cualesquiera
del cuerpo R. 

8.1.8 Ejemplos


x+ y+ z = 3

(a) Resolvamos el sistema x+ y− z = 5

⎩ 3x + 3y + z = 11
Ö è Ö è
1 1 1 1 1 1 3
Se tiene que rang 1 1 −1 = rang 1 1 −1 5 = 2.
3 3 1 3 3 1 11
Ası́ pues, el sistema es compatible e indeterminado y puesto que tiene tres in-
cógnitas, existirán infinitas soluciones que dependerán de una incógnita. Para
hallarlas, en primer lugar dejaremos el sistema, siguiendo la teorı́a, con las
dos siguientes ecuaciones que constituyen un sistema equivalente al dado:
®
x+ y+ z = 3
(8.7)
x+ y− z = 5
Ç å
1 1 1
(Obsérvese que rang = 2). Este último sistema lo podemos
1 1 −1
escribir, por ejemplo, en las formas
® ®
x+ y = 3− z x+ z = 3− y
, ó
x+ y = 5+ z x− z = 5− y
Pero en el sistema de la izquierda el rango de la matriz de los coeficientes no
es dos, por lo que las soluciones no van a depender de z y, siguiendo la teorı́a,
dejamos el sistema escrito en la forma
®
x+ z = 3− y
(8.8)
x− z = 5− y
152 8. SISTEMAS DE ECUACIONES LINEALES

Para resolverlo, procedemos a sustituir el valor x = 5 − y + z, que


obtenemos de la segunda ecuación, en la primera ecuación: (5 − y + z) + z =
3 − y, de donde se tiene z = −1, y sustituyendo en x = 5 − y + z, se concluye
x = 4 − y. (El lector se ejercitará resolviendo el sistema por reducción o
igualación). La solución (general) del sistema es pues,

{(4 − y, y, −1) : y ∈ R} .

Recordando que éstas son soluciones de (8.8), podemos interpretarlas


diciendo que son las antiimágenes de Ç (3, 5) por å
medio de la aplicación lineal
1 1 1
f : R3 → R2 asociada a la matriz en las bases canónicas. O
1 1 −1
bien, observando el sistema inicial, son las antiimágenes de (3,
Ö 5, 11) por medio
è
1 1 1
de la aplicación lineal g : R3 → R3 asociada a la matriz 1 1 −1 en
3 3 1
las bases canónicas.
Finalmente, recordaremos la Proposición 6.1.9 que nos indica que las
antiimágenes de un punto, por medio de una aplicación lineal f , se obtienen
sumando el núcleo de la aplicación f a una antiimagen de dicho punto. Ası́,
en nuestro caso se tiene, (4 − y, y, −1) = (4, 0, −1) + (−y, y, 0) con lo que
Ker f = {(−y, y, 0) : y ∈ R} = (−1, 1, 0).
Obviamente f (ó g) no es inyectiva.


⎨ x+ y = 2
(b) Hallemos el valor de a para que el sistema 2x − y = 1 tenga

⎩ ax + y = 5
solución. Ö è
1 1
Puesto que rang 2 −1 = 2 para cualquier a ∈ R, deberá veri-
a 1
ficarse que el rango de la matriz ampliada sea también dos. Por tanto, las
columnas de la matriz
 ampliada
 no constituirán un sistema libre, por lo que
 1 1 2 
 
 
ha de suceder que  2 −1 1  = 0, de donde se concluye que a = 4.
 
 a 1 5 

Un razonamiento alternativo es el siguiente:


Si existe solución del sistema, ésta debe ser única, pues el rango de la matriz
del sistema®es dos, igual al número de incógnitas. Con lo que resolviendo
x+ y = 2
el sistema obtenemos que la solución ha de ser x = 1,
2x − y = 1
8.2. RESOLUCIÓN DE SISTEMAS DE ECUACIONES LINEALES 153

y = 1. Finalmente, sustituyendo estos valores en la tercera ecuación se tiene


a·1 + 1 = 5, y por tanto, a = 4.

(c) Eventualmente
® podemos obtener en la formulación de un problema,
x + y + 0z = 2
el siguiente sistema
2x − y + 0z = 1
®
x+ y = 2
En tal caso se resuelve el sistema del ejemplo (c) anterior
2x− y = 1
que no es equivalente al de este apartado por carecer de una incógnita. Ahora
bien, cualquier z ∈ R con x = 1, y = 1 verifica el sistema inicial, y por tanto,
las soluciones son {(1, 1, z) : z ∈ R}.


⎨ x+ y =2
(e) El sistema 2x − y = 1 no es compatible, pues

⎩ 4x + y = 0

Ö è Ö è
1 1 1 1 2
rang 2 −1 = 2 < 3 = rang 2 −1 1
4 1 4 1 0

El resultado se puede interpretar diciendo que el punto (2, 1, 0) no


está
Ö en Imèf , siendo f : R2 → R3 la aplicación lineal asociada a la matriz
1 1
2 −1 en las bases canónicas.
4 1

8.2 RESOLUCIÓN DE SISTEMAS DE ECUA-


CIONES LINEALES
El lector conoce los métodos de igualación, reducción y sustitución para
la resolución de sistemas. Veamos a continuación otros métodos.

8.2.1 Regla de Cramer

Si suponemos que el siguiente sistema es de Cramer:




⎪ a11 x1 + a12 x2 + · · · + a1n xn = b1


⎨ a21 x1 + a22 x2 + · · · + a2n xn = b2
.. (8.9)

⎪ .



an1 x1 + an2 x2 + · · · + ann xn = bn
154 8. SISTEMAS DE ECUACIONES LINEALES

entonces de su expresión matricial A x = b obtenemos que x = A−1 b. Ası́


pues:
⎛ ⎞ ⎛ ⎞⎛ ⎞
x1 A11 ··· An1 b1
⎜ . ⎟ ⎜ . .. ⎟ ⎜ . ⎟
⎜ .. ⎟ ⎜ .. . ⎟ ⎜ . ⎟
⎜ ⎟ 1 ⎜ ⎟⎜ . ⎟
⎜ ⎟ ⎜ ⎟⎜ ⎟
⎜ xi ⎟ = ⎜ A1i ··· Ani ⎟ ⎜ bi ⎟
⎜ ⎟ ⎜
⎜ .. ⎟ |A| ⎜ .. .. ⎟ ⎜
⎟⎜ .


⎝ . ⎠ ⎝ . . ⎠ ⎝ .. ⎠
xn A1n ··· Ann bn
donde Aij son los adjuntos de los elementos aij (1 ≤ i, j ≤ n), de la matriz
A. En consecuencia:
1
xi = (A1i b1 + A2i b2 + . . . + Ani bn )
|A|

para i = 1, . . . , n que, por simple comprobación (desarrollando el siguiente


determinante por la columna i-ésima donde está la columna (b1 , . . . , bn ) ), es:
 
 a11 ··· a1,i−1 b1 a1,i+1 · · · a1n 
 
 a ··· a2,i−1 b2 a2,i+1 · · · a2n 
 21 
 . .. .. .. .. 
 . 
 . . . . . 
 
 an1 ··· an,i−1 bn an,i+1 · · · ann 
xi =
|A|

en donde el numerador es el determinante de la matriz que se deduce de A al


sustituir su columna i-ésima por la columna de términos independientes.
Al proceso descrito para la obtención de la solución se le conoce como
regla de Cramer que también se aplica a los sistemas indeterminados cuando
éstos se escriben adecuadamente.
Aparte de la posibilidad computacional del método, la regla de Cramer
permite el cálculo de una variable xi , con independencia de las restantes.

8.2.2 Ejemplos
(a)
® Por aplicación de la regla de Cramer al sistema del ejemplo (c) de
x+ y = 2
8.1.8, , tenemos:
2x − y = 1
   
2 1  1 2
 
   
1 −1 2 1
x =   = 1, y =   = 1.
1 1  
1 1 
   
2 −1 2 −1
8.2. RESOLUCIÓN DE SISTEMAS DE ECUACIONES LINEALES 155

(b) Resolvamos el sistema del ejemplo (a) de 8.1.8.


Teniendo en cuenta el siguiente sistema equivalente (escrito en forma
adecuada para que el determinante de la matriz de coeficientes no sea nulo):
®
x+ z = 3− y
x− z = 5− y
 
1 1 
 
se tiene (utilizando que   = −2):
1 −1
   
3 − y 1  1 3 − y 
  
   
5 − y −1 1 5 − y 
x= = 4 − y, z= = −1.
−2 −2

8.2.3 Método de reducción de Gauss


Supongamos que tenemos un sistema de dos ecuaciones con incógnitas
que denotamos de la forma ®
p1 = b1
p2 = b2

Si consideramos la ecuación p2 = α1 p1 + α2 p2 = α1 b1 + α2 b2 = b2 con


α1 , α2 ∈ R y α2
= 0, entonces el sistema inicial equivale, según la Proposición
8.1.4, a ®
p1 = b1
p2 = b2
Cuando el proceso descrito se aplica de manera reiterativa al sistema (8.9) de
m ecuaciones con n incógnitas para obtener el sistema escalonado equivalente


⎪ c11 x1 + c12 x2 + ··· + c1n xn = d1


⎨ c21 x1 + c22 x2 + ··· + c2n xn = d2
.. (8.10)

⎪ .



cm1 x1 + cm2 x2 + · · · + cmn xn = dm

de modo que cij = 0 para i > j (i, j = 1, . . . , n), se le conoce como proceso
(de reducción) de Gauss. Un sencillo argumento nos llevarı́a a concluir que
este proceso es el mismo que realizamos en la sección 4.3, para la obtención
de sistemas equivalentes de vectores.
En el último sistema, se eliminan cuantas ecuaciones triviales de la
forma 0x1 + · · · + 0xn = 0 aparezcan. Finalmente, en el caso de que no
aparezca ninguna ecuación de la forma 0x1 + · · · + 0xn = d con d
= 0, que
156 8. SISTEMAS DE ECUACIONES LINEALES

haga incompatible el sistema, éste se resuelve por sustitución regresiva


empezando por la última ecuación como ilustraremos en el siguiente ejemplo.
Según la sección 5.5.10 el proceso puede continuar de manera que a
partir de la matriz ampliada A∗ del sistema de ecuaciones obtengamos su
forma reducida que da lugar a un sistema equivalente más sencillo.

8.2.4 Ejemplo
(a) Apliquemos el proceso de Gauss para resolver el sistema


⎨ x+ y+ z = 6
x + 2y − z = 6

⎩ 2x − y+ z = 5

Empezamos representando el sistema dado por su matriz ampliada A∗ ,


Ö è
1 1 1 6
1 2 −1 6 .
2 −1 1 5

Aplicando el proceso de Gauss sobre las filas de A∗ obtenemos sucesi-


vamente los siguientes sistemas equivalentes:
Ö è Ö è
1 1 1 6 1 1 1 6
0 −1 2 0 , 0 −1 2 0 .
0 3 1 7 0 0 7 7

El último sistema obtenido, por interpretación de la última matriz, es


pues: ⎧

⎨ x+ y+ z = 6
− y + 2z = 0

⎩ 7z = 7
que resolvemos por sustitución regresiva. De la tercera ecuación tenemos
z = 1, que sustituida en la segunda nos da y = 2, y finalmente, sustituyendo
ambos valores en la primera ecuación, deducimos x = 3.
(b) Prosiguiendo con la transformación por filas mediante operaciones elemen-
tales por filas, a partir de la última matriz se obtiene sucesivamente
Ö è Ö è
1 0 3 6 1 0 0 3
0 1 −2 0 , 0 1 0 2 .
0 0 1 1 0 0 1 1
8.2. RESOLUCIÓN DE SISTEMAS DE ECUACIONES LINEALES 157

La última matriz es la forma reducida de A∗ que da lugar al sistema




⎨ x = 3
y = 2

⎩ z = 1

de solución inmediata.

8.2.5 Sistema homogéneo

Si en el sistema inicial (8.9), todos los términos independientes bi son


ceros, se dice que el sistema es homogéneo. Según el teorema de Rouché-
Fröbenius, como en este caso siempre rang(A) = rang(A∗ ), los sistemas ho-
mogéneos son compatibles. Obsérvese que x1 = · · · = xn = 0 es solución
(nula o trivial) de cualquier sistema homogéneo.
Si suponemos escrito el sistema homogéneo con n ecuaciones y n incóg-
nitas (lo que siempre es posible), entonces el sistema admite solución única
(la nula) si y sólo si rang(A) = n ⇔ |A|
= 0, siendo A la matriz de los
coeficientes. Cuando rang(A) = r < n existirán infinitas soluciones (pues
dependen de n − r incógnitas) lo cual sucede, según el Teorema 8.1.7, si y
sólo si |A| = 0. Si disponemos de un sistema homogéneo de r ecuaciones line-
almente independiente y n incógnitas con r ≤ n, sabemos que sus soluciones
son las antiimágenes de (0, . . . , 0) por medio de la aplicación lineal asociada
f : Rn → Rr a la matriz de coeficientes A, y por tanto constituyen un conocido
subespacio vectorial de Rn , el núcleo Ker f de f , que tiene dimensión n − r,
ya que rang(A) = dim( Im f ) = r. Completaremos el recı́proco de nuestra
aseveración en la sección 8.3.3.

8.2.6 Ejemplo

Resolvamos el sistema homogéneo




⎪ x+ y + z = 0



⎨ 2x + 2y + 2z = 0
x+ y − z = 0



⎪ 3x + 3y + z = 0


0x + 0y + 0z = 0

En primer lugar eliminamos la segunda ecuación porque es proporcional


a la primera, y la última que es cierta para todo (x, y, z) ∈ R3 . Entonces, el
determinante de la matriz A de los coeficientes del nuevo sistema equivalente
158 8. SISTEMAS DE ECUACIONES LINEALES

 
 1 1 1 

 
es |A| =  1 1 −1  = 0, con lo que rang(A) < 3.
 
 3 3 1 
Obviamente rang(A) = 2, por lo que suprimiendo la última ecuación,
por ejemplo, se tiene el sistema equivalente:
®
x+ y+ z = 0
x+ y− z = 0

que el lector verificará que tiene como solución general {(x, −x, 0) : x ∈ R} y
que coindice con el Ker f del ejemplo (a) de 8.1.8, lo cual el lector justificará
observando la ecuación (8.7).

8.2.7 Resolución de un sistema de Cramer por descomposi-


ción LU
Supongamos que tenemos el sistema de Cramer (8.1) con m = n y que
representamos por A x = b según (5.5.8). Entonces, como A es regular, por la
sección 5.5.8, podemos suponer, reordenando el sistema (8.1) si es necesario,
que A admite descomposición A = L U .
Por tanto, el sistema (8.2) se escribirá L U x = b, cuyas soluciones con
el “cambio de variable” U x = y, son las de:
®
Ux=y
Ly = b

Ası́ pues (8.1) se resuelve hallando primero la solución y del sistema


triangular L y = b, y después, hallando x en el sistema triangular U x = y.
Computacionalmente la resolución de ambos sistemas es sencilla por
tratarse de sistemas triangulares y requiere menos operaciones que resolver
x = A−1 b.
La factorización LU resulta interesante ante el frecuente problema de
resolver una sucesión de ecuaciones de la forma A x = b1 , A x = b2 , . . . ,
A x = bp , pues la factorización A = LU es común a todos los sistemas. Éste
es el caso de los problemas de redes de flujo.

8.2.8 Resolución de un sistema por descomposción LS


Supongamos que tenemos un sistema de ecuaciones lineales que repre-
sentamos por Ax = b, no necesariamente de Cramer, y supongamos que
S es la forma escalonada de A que se obtiene con las matrices elementales
E1 , E2 , . . . , Es , aplicadas sucesivamente sobre A (véase sección 5.5.10). Si
8.2. RESOLUCIÓN DE SISTEMAS DE ECUACIONES LINEALES 159

escribimos T = Es · · · E2 · E1 se tiene entonces T · A = S, y por tanto el


sistema Ax = b se puede escribir T Ax = T b, es decir, Sx = T b que es un
sencillo sistema dado que S es escalonada y sus elementos distinguidos son
unos.
Obsérvese que si “almacenamos” la matriz T que transforma A en S,
esta misma es la que actúa sobre b en el segundo miembro de la última
ecuación, por lo que el método descrito también resulta eficiente para resolver
sistemas de ecuaciones de la forma Ax = bi , en donde sólo cambie bi .
En el caso particular de que la forma escalonada S de A se obtenga sin
intercambio de filas, i.e. usando sólo matrices elementales de la forma (b) o
(c) de 5.5.1, entonces T es una matriz triangular inferior.

8.2.9 Interpolación polinómica


Una función polinómica y = f (x), de grado n − 1, que escribimos c0 +
c1 x + c2 x2 + · · · + cn−1 xn−1 , donde los coeficientes ci ∈ R, viene definida por n
condiciones, digamos independientes, que permiten calcular de forma unı́voca
c0 , c1 , . . . , cn−1 .
En la ciencia es frecuente encontrarse con el problema de la interpo-
lación polinómica que consiste en determinar una función polinómica de
grado n − 1 que pase por n puntos (xi , yi ) del plano, que suelen ser pares de
mediciones experimentales en algún contexto de trabajo. Como veremos a
continuación este problema es de inmediata solución cuando los n valores xi
son distintos. (Ésta es una exigencia necesaria pues la función buscada f (x)
ha de poseer imagen única para cada x).
La función polinómica y = c0 + c1 x + c2 x2 + · · · + cn−1 xn−1 de grado
n − 1 a la cual pertenecen los puntos (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) con xi
distintos ha de verificar el sistema lineal de n ecuaciones, en las n incógnitas
c0 , c1 , . . . , cn−1 , siguiente:


⎪ c0 + c1 x1 + · · · + cn−1 xn−1
1 = y1


⎨ c0 + c1 x2 + · · · + cn−1 xn−1 = y2
2
⎪ ..

⎪ .


c0 + c1 xn + · · · + cn−1 xn−1
n = yn
El sistema anterior tiene solución única para las incógnitas c0 , c1 , . . . ,
cn−1 . En efecto, el determinante de los coeficientes es distinto de cero, pues
 

 1 x1 x21 · · · xn−1
1


 1 x2 x22 · · · xn−1  
 2 
 .. .. .. .. = (xi − xj )
= 0
 
 . . . .  i=2,3,...,n
 
 1 xn x2n · · · xn−1  j=1,2,...,i−1
n
160 8. SISTEMAS DE ECUACIONES LINEALES

ya que se trata del determinante (traspuesto) de Vandermonde.


El polinomio interpolador y = c0 + c1 x + c2 x2 + · · · + cn xn−1 ha de
satisfacer el anterior sistema de ecuaciones, y por tanto para que el sistema
ampliado con esta nueva ecuación sea compatible, ha de suceder que el rango
de la matriz ampliada no aumente y, en consecuencia,

 

 1 x x2 ··· xn−1 y 

 1 x1 x21 ··· x1n−1 y1 
 
 
 1 x2 x22 ··· xn−1
2 y2  = 0,
 
 .. .. .. .. .. .. 
 . . . . . . 
 
 1 xn x2n · · · xnn−1 yn 

que es la ecuación implı́cita del polinomio interpolador de grado n − 1.


El problema de la interpolación recibe su nombre del hecho de que una vez halla-
da f (x), esta función se utiliza para conocer valores de f (x) que no han sido obtenidos
experimentalmente (ver sección 2.4).
En la ciencia experimental la función f buscada no es necesariamente
polinómica, y en cuanto a los datos experimentales, éstos suelen exceder de
los necesarios para que la solución exista, por lo que se obtiene un sistema in-
compatible. En este supuesto no se deben eliminar datos (ello supone eliminar
información acerca del problema) y optamos por dar una solución aproximada
óptima (en un sentido que excede el nivel de conocimientos de este curso) y
que vemos en el siguiente punto.

8.2.10 Sistemas sobredeterminados

A un sistema de ecuaciones A x = b incompatible con n incógnitas


y rang A = n también se le llama sobredeterminado y sabemos que no
tiene solución. No obstante, se le puede aplicar una “resolución” mediante
el método conocido como “mı́nimos cuadrados” con el cual se obtiene una
“solución aproximada” x del sistema, en el sentido de que “la solución” en-

contrada minimiza el error cuadrático dado por ni=1 (bi − Ai ·x)2 donde Ai es
la fila i de A. Ese valor es un indicador de la longitud del vector error b − A x.
Dicha solución se obtiene resolviendo el sistema At A x = At b que es
un sistema de Cramer y que admite la solución x = (At A)−1 At b.
8.3. ECUACIONES DE LOS SUBESPACIOS DE Rn 161

8.3 ECUACIONES DE LOS SUBESPACIOS DE Rn


8.3.1 Ecuaciones vectorial y paramétricas de un subespacio
vectorial
Sea {v 1 , . . . , v r } una base del subespacio vectorial H de Rn . Suponga-
mos que v i = (vi1 , . . . , vin ), para i = 1, . . . , r. Entonces, si designamos por
x = (x1 , . . . , xn ) ∈ Rn , se tiene que x ∈ H si y sólo si existen μ1 , μ2 , . . . , μr ∈
R tales que x = μ1 v1 + μ2 v2 + · · · + μr vr y, por tanto, se tiene la siguiente
ecuación vectorial de H:
(x1 , . . . , xn ) = μ1 (v11 , . . . , v1n ) + · · · + μr (vr1 , . . . , vrn ) (8.11)
de la que se deduce la siguiente expresión equivalente, que constituyen las
ecuaciones paramétricas de H:


⎪ x1 = v11 μ1 + · · · + vr1 μr



⎪ ..

⎨ .
xr = v1r μ1 + · · · + vrr μr (8.12)



⎪ ..

⎪ .


xn = v1n μ1 + · · · + vrn μr
Obsérvese que el rango de la matriz de los coeficientes del sistema (8.12)
con incógnitas μ1 , . . . , μr , es r = dim H, por hipótesis.
Tanto en (8.11) como en (8.12), los vectores x ∈ H se obtienen a través
de los posibles valores reales que tienen los parámetros μ1 , . . . , μr . (Vulgar-
mente se dice que el vector x de H se obtiene dando valores a μ1 , . . . , μr ).
En el planteamiento realizado, no podemos asignar ecuaciones paramé-
tricas a H si H = {0}, pero sı́ cuando H = Rn aunque ello carece de interés
en la práctica.

8.3.2 Nota
Observemos que si w es un vector combinación lineal de v 1 , . . . , v r
entonces H = v 1 , . . . , v r , w, con lo que:
x ∈ H sii existen α1 , . . . , αr , α ∈ R tales que
x = α1 v 1 + · · · + αr v r + α w

Ası́ pues, las ecuaciones (8.11) y (8.12) contarı́an con un parámetro


más que antes, sin dar lugar por ello a nuevos vectores, motivo por el cual
nosotros prescindirı́amos de w y, por tanto, del parámetro α al considerar las
ecuaciones vectorial y paramétricas respectivamente, de H.
162 8. SISTEMAS DE ECUACIONES LINEALES

8.3.3 Ecuaciones de un subespacio vectorial (Eliminación de


parámetros)
Supongamos, lo que en realidad no es restricción alguna pues se podrı́a
conseguir reordenando las filas, que
Ö è
v11 . . . vr1
rang .. .. = r.
. .
v1n . . . vrn

Un determinado vector x = (x1 , . . . , xn ) está en H sii x verifica (8.12)


con lo que, en particular, (x1 , . . . , xr ) verifica para algunos μ1 , . . . , μr (únicos),
el siguiente sistema que es de Cramer:

⎪ = v11 μ1 + · · · + vr1 μr
⎨ x1

.. (8.13)
⎪ .

⎩ x
r = v1r μ1 + · · · + vrr μr

Por lo tanto, si x ∈ H, la solución (μ1 , . . . , μr ) de (8.13) es la única que


hace compatible el sistema (8.12), para lo cual cada una de las ecuaciones
que siguen a la r-ésima en (8.12) han de ser combinaciones lineales de las r
ecuaciones primeras (de lo contrario el rango de la matriz ampliada del sistema
(8.12), será r + 1) y por ello, los n − r posibles determinantes siguientes de
las correspondientes matrices ampliadas, han de ser nulos:
 
 x1 v11 . . . vr1 

 .. .. .. 
 . . .  = 0, s = r + 1, . . . , n.
 (8.14)
 
 xr v1r . . . vrr 

 xs v1s . . . vrs 

Recı́procamente, si un vector (x1 , . . . , xn ) verifica el sistema homogéneo


(8.14), entonces existen reales (únicos) μ1 , . . . , μn que satisfacen (8.12).
Ası́, H viene dado por las soluciones del sistema linealmente indepen-
diente homogéneo (8.14) que constituye las ecuaciones (implı́citas) de H,
o ecuaciones no paramétricas de H. Obsérvese que estas ecuaciones, al
igual que la vectorial o paramétricas de H, no son únicas.
Estamos pues en condiciones de completar el final del punto 8.2.5 y
afirmar que un sistema homogéneo de r ecuaciones independientes con n
incógnitas define un subespacio vectorial H de Rn de dimensión n − r, y
recı́procamente, un subespacio vectorial H de Rn de dimensión r viene dado
por un sistema homogéneo de n−r ecuaciones independientes con n incógnitas.
8.3. ECUACIONES DE LOS SUBESPACIOS DE Rn 163

Notemos que si H = {0} ⊂ Rn , entonces H viene dado por cualquier


sistema homogéneo de rango n; mientras que si H = Rn , entonces H no puede
expresarse como un sistema “propio” de ecuaciones implı́citas, pero admite
sin embargo la siguiente ecuación trivial única: 0x1 + · · · + 0xn = 0.

8.3.4 Ejemplo

Vamos a hallar las ecuaciones (implı́citas) del subespacio vectorial H


dado por H = v 1 , v 2 , v 3  de R5 donde v 1 = (1, 1, 3, 4, −1), v 2 = (1, 2, 0, 1, −2),
v 3 = (2, 3, 3, 5, −3).
En primer lugar observaremos que v 3 = v 1 + v 2 , con lo que {v 1 , v 2 } es
una base de H. Por lo tanto, tenemos la siguiente ecuación vectorial de H:

(x1 , x2 , x3 , x4 , x5 ) = μ1 (1, 1, 3, 4, −1) + μ2 (1, 2, 0, 1, −2),

con μ1 , μ2 ∈ R, de donde deducimos las siguientes ecuaciones paramétricas


de H:


⎪ x1 = μ1 + μ2


⎪ x
⎨ 2 = μ 1 + 2 μ2
x3 = 3 μ 1



⎪ x4 = 4 μ 1 + μ2


x5 = −μ1 − 2μ2

Finalmente, como la matriz de coeficientes respecto a los parámetros


®1 2 es de rango dos, y puesto que la matriz
μ , μ Ç Aå de coeficientes del sistema
x1 = μ 1 + μ 2 1 1
verifica rang A = rang = 2, entonces obtenemos
x2 = μ1 + 2μ2 1 2
el siguiente sistema de tres ecuaciones (no paramétricas) de H al “pivotar”
sobre las dos primeras filas:

⎧  
⎪ x 1 1

⎪  1

⎪  

⎪  x2 1 2 = −6 x1 + 3 x2 + x3 = 0

⎪  

⎪  x3 3 0

⎪  

⎪ x

⎨  1 1 1
 
 x2 1 2 = − 7 x1 + 3 x2 + x4 = 0

⎪  

⎪  x4 4 1

⎪  

⎪ x


⎪  1 1 1 

⎪  

⎪  x2 1 2  = x2 + x5 = 0

⎩  
 x5 −1 −2
164 8. SISTEMAS DE ECUACIONES LINEALES

8.4 RESOLUCIÓN NUMÉRICA DE SISTEMAS


DE ECUACIONES LINEALES
8.4.1 Aproximaciones sucesivas
Se considera un sistema de Cramer de la forma

⎪ + a12 x2 + · · ·
⎨ a11 x1
⎪ + a1n xn = b1
.. (8.15)
⎪ .

⎩ a x
n1 1 + an2 x2 + · · · + ann xn = bn
que denotamos por, A x = b y el cual supondremos escrito (lo cual es siempre
posible) de forma que aii
= 0 (i = 1, . . . , n).
Los procedimientos algebraicos para la resolución de un sistema de
Cramer (8.15), si no fuera por las limitaciones de los ordenadores, debiera
darnos la solución exacta. Pero en la práctica, el redondeo conduce a “solu-
ciones” erróneas en sistemas con gran número de ecuaciones, coeficientes muy
cercanos a cero,. . . En tales casos, el cálculo numérico ofrece otros procedi-
mientos de tipo iterativo que se van aproximando sucesivamente a la solución
del sistema. A continuación veremos dos de ellos.

8.4.2 Métodos iterativos. Convergencia


Continuando con el punto anterior, el sistema A x = b, (8.15), se puede
reescribir de muchas maneras como x = M x + v donde M se denomina
matriz de iteración. A partir de aquı́ se define el esquema iterativo
xk+1) = M xk) + v para k ≥ 0. (8.16)

Si se toma un valor inicial cualquiera x0) ∈ Rn y se aplica el esquema


iterativo anterior se obtiene una sucesión de puntos x0) , x1) , x2) , x3) , x4) , . . .
en Rn que, en caso de converger lo hace hacia la solución del sistema A x = b
que llamaremos x̄. Es decir, si hay convergencia en el proceso anterior se
verifica que lı́m xn) = x̄ que es la solución buscada.
n→∞
Existe un resultado general que determina la convergencia: el método
iterativo (8.16) es convergente si y sólo si todos los valores propios (concepto
que se estudiará en el próximo capı́tulo) de la matriz M son más pequeños
en módulo que la unidad.
El esquema iterativo (8.16) se debe detener cuando ya se ha obtenido
suficiente precisión. Aunque existen métodos matemáticos para determinarla,
ésta es fácilmente observable por la repetición de dı́gitos significativos en los
puntos x1) , x2) ,. . .
8.4. RESOLUCIÓN NUMÉRICA DE SISTEMAS DE ECUACIONES LINEALES 165

Como norma general, si se quieren n cifras correctas basta con tomar


como solución del sistema el primer término de la sucesión xk a partir del
cual las n primeras cifras permanecen inalterables.
Hay veces que es muy costoso comprobar los resultados de convergencia
del método iterativo. En dichos casos se suelen realizar unas cuantas itera-
ciones y se observa si alguna componente de xk tiende hacia infinito según k
va creciendo. En caso afirmativo el método no converge.
Para la definición de la matriz de iteración M en los dos casos que
vamos a estudiar, la matriz A se descompone como

A=L+D+U

donde L es la parte triangular inferior de la matriz A con ceros en la diago-


nal, D es la diagonal de A, y U es la parte triangular superior de la matriz
A conÖ ceros en la diagonal.
è Por ejemplo, en el caso de una matriz, 3×3,
a11 a12 a13
A = a21 a22 a23 se tiene
a31 a32 a33
Ö è Ö è Ö è
0 0 0 a11 0 0 0 a12 a13
A= a21 0 0 + 0 a22 0 + 0 0 a23
a31 a32 0 0 0 a33 0 0 0
        
L D U

8.4.3 Método de Jacobi


En este método se toma la descomposición A = D − (−L − U ) =
D − (D − A). Con esta descomposición se obtiene que

A x = b ⇔ D x = (D − A) x + b ⇔ x = D −1 (D − A) x + D −1 b

El esquema iterativo definido mediante la última ecuación es el método de


Jacobi:

xk+1) = MJ xk) + v J con MJ = D −1 (D − A), y vJ = D −1 b. (8.17)

Además del criterio necesario y suficiente de convergencia sobre la ma-


triz MJ existe una condición suficiente de convergencia: si la matriz inicial
del sistema A es diagonal dominante, entonces el método de Jacobi es conver-
gente. Se dice que una matriz es diagonal dominante si el valor absoluto
de cada elemento de la diagonal es mayor que la suma de los valores absolutos
de los demás elementos de la misma fila.
166 8. SISTEMAS DE ECUACIONES LINEALES

Las iteraciones de este método son fáciles de realizar dado que para
calcular la inversa de una matriz diagonal, que no tiene ceros en su diagonal,
sólo se requiere calcular los inversos de la diagonal. Ası́ pues, si D es una
Ö è
a11
matriz diagonal definida por D = .. , entonces se verifica que
.
ann
Ü 1
ê
a11
D −1 = .. .
.
1
ann

8.4.4 Método de Gauss-Seidel


En este método se descompone la matriz A como A = L + D − (−U ).
Con esta descomposición se tiene que

A x = b ⇔ (L + D) x = −U x + b ⇔ x = −(L + D)−1 U x + (L + D)−1 b

El esquema iterativo definido mediante la última ecuación es el método de


Gauss-Seidel:

xk+1) = MGS xk) + v GS con MGS = −(L + D)−1 U, y v GS = (L + D)−1 b


(8.18)
Además del criterio necesario y suficiente de convergencia sobre la ma-
triz MGS existe la misma condición suficiente de convergencia que en el
método de Jacobi: Si la matriz inicial del sistema A es diagonal dominante
entonces el método de Gauss-Seidel es convergente.

8.4.5 Nota
Para calcular las componentes del vector xk+1) con el método de Jacobi
k) k) k) k)
se utilizan los valores de xi , es decir, x1 , x2 , . . . , xn por lo que la expresión
de xk+1) se adapta al cálculo en paralelo y ofrece una reducción notable del
tiempo de cálculo. En cambio, en el método de Gauss-Seidel siempre se
utilizan los n últimos valores calculados. Más concretamente, para calcular
k+1) k+1) k+1) k) k)
xi se utilizan los valores x1 , . . . , xi−1 , xi , . . . , xn .
Aunque un paso iterativo de Gauss-Seidel es más costoso en sentido
computacional que un paso de Jacobi se tiene que, en general, en caso de
convergencia de ambos métodos, el método de Gauss-Seidel converge más
rápido que el de Jacobi.
Los programas informáticos de cálculo numérico incluyen habitualmente
los métodos de Jacobi y de Gauss-Seidel. En general, permiten programar la
8.5. UN POCO DE HISTORIA 167

tolerancia o cota del error que se acepta en la solución y el número máximo de


iteraciones que se desea. Habitualmente el proceso iterativo se suele terminar
cuando el incremento de un valor iterativo a otro es menor en módulo que
k+1) k)
una tolerancia ε deseada, es decir, cuando |xi − xi | < ε (i = 1, . . . , n).

8.5 UN POCO DE HISTORIA


Las primeras referencias de lo que hoy conocemos como Álgebra Lineal tienen que ver
con las ecuaciones y los sistemas de ecuaciones, y aparecen en un documento matemático, del
año 1650 a.C., el papiro Rhind, cuyo autor fue el sacerdote egipcio Ahmás. Este documento
contiene 85 problemas redactados en escritura hierática y fue concebido como un manual
para agrimensura. Según el propio autor, el documento es copia de uno más antiguo. Por
otra parte, se sabe que en la antigua Babilonia sabı́an cómo resolver problemas concretos
que involucraban ecuaciones, de primer y segundo grado, ecuaciones cúbicas, bicuadradas,
y sistemas de ecuaciones lineales y no lineales. Los matemáticos chinos (durante los siglos
III y IV a.C.), proporcionaron los primeros métodos del Álgebra Lineal. Por ejemplo, en el
tratado Nueve capı́tulos sobre el Arte Matemático (206 a.C.-220 d.C.), aparece un sistema
lineal de 3 ecuaciones con 3 incógnitas, ası́ como un método para su resolución, conocido
como la regla fan-chen, que es similar al método de eliminación gaussiana que conocemos.
Curiosamente no hay demasiadas aportaciones de los matemáticos de la Grecia clásica a
la resolución de problemas lineales. Los sistemas de ecuaciones lineales comenzaron a ser
estudiados sistemáticamente por Gottfried Leibniz (1646-1716) y Gabriel Cramer (1704-
1752). Este último, expuso lo que hoy conocemos como regla de Cramer para los sistemas
de ecuaciones lineales de orden 3. La solución de ecuaciones lineales de dos, tres y cuatro
incógnitas fue obtenida por Colin Maclaurin (1698–1746) y publicada en 1748 en su obra
Treatise of algebra. A mediados del siglo XIX, Arthur Cayley (1821-1895), al estudiar las
matrices, dedujo la formula general de la regla de Cramer, y expuso la condición necesaria
y suficiente para que un sistema de n ecuaciones lineales con n incógnitas tenga solución
única: que la matriz de los coeficientes del sistema sea invertible. Ferdinand G. Frobenius
(1849-1917) introdujo la noción de rango de una matriz en 1879, en base a su relación con
los determinantes. Esta definición permitió generalizar el teorema que hoy conocemos como
teorema de Rouché-Frobenius. Carl F.Gauss (1777-1855) dedujo a principios del siglo XIX
un método que permite resolver cualquier sistema de ecuaciones lineales. Dicho método
cayó en el olvido, pues es menos “elegante” que la presentación matricial de Cayley y de
Frobenius. Camille Jordan (1838-1922) dedujo un algoritmo alternativo a la fórmula de
Cayley para calcular la inversa de una matriz. Se conoce este método como el algoritmo de
Gauss-Jordan. A medida que diversas disciplinas cientı́ficas podı́an expresar sus problemas
mediante sistemas de ecuaciones lineales, los matemáticos empezaron a abordar aspectos
como el del número de operaciones que exige realizar un algoritmo que resuelve un sistema
de ecuaciones lineales. Pronto se demostró la eficiencia del olvidado método de Gauss
frente a obtener las soluciones mediante determinantes. En 1948, el matemático inglés Alan
168 8. SISTEMAS DE ECUACIONES LINEALES

Turing (1912-1954) desarrolló la factorización LU . Actualmente, para resolver sistemas de


ecuaciones lineales, son de uso común diversas variantes del método de Gauss que son más
eficientes, tanto desde un punto de vista computacional como a la hora de generar menos
errores parciales y totales.

8.6 EJERCICIOS RESUELTOS


R8.1 Resolver matricialmente el sistema

⎨ x = 2
2y + 2z = 0

3x + y + 2z = 5
Solución: Matricialmente el sistema se escribe
    
1 0 0 x 2
0 2 2 y = 0
3 1 2 z 5
   
1 0 0 1 0 0
Si llamamos A = 0 2 2 , entonces A−1 = 3 1 −1 según el Ejemplo
3 1 2 −3 − 12 1
5.5.4. Por tanto,
        
x 2 1 0 0 2 2
−1
y =A 0 = 3 1 −1 0 = 1
z 5 −3 − 21 1 5 −1
con lo que la solución es x = 2, y = 1, z = −1.
R8.2 Resolver por el método de Gauss el sistema

⎨ x+ y− z+ t = 4
2x − y + 3z + 2t = −1

−4x + 5y − 11z − 4t = 11
Solución: Escribimos a continuación la representación del sistema, a través de su
matriz ampliada A∗ , y la matriz resultante equivalente tras el proceso de Gauss:
   
1 1 −1 1 4 1 1 −1 1 4
A∗ = 2 −1 3 2 −1 ≡ 0 3 −5 0 9
−4 5 −11 −4 11 0 0 0 0 0
El sistema es compatible e indeterminado con infinitas soluciones que dependerán de
dos incógnitas, ya que rang A = rang A∗ = 2.
El sistema equivalente es
ß
x+ y− z+ t = 4
3y − 5z = 9

De la segunda ecuación tenemos que y = 3+ 53 z, y sustituyendo en la primera ecuación


se llega a x = 1 − 23 z − t, siendo z, t ∈ R. Podemos expresar las soluciones en la
siguiente forma: !
2 5
(1 − z − t, 3 + z, z, t) : z, t ∈ R
3 3
8.6. EJERCICIOS RESUELTOS 169

⎨ 2x − y = 1
R8.3 Estudiar el sistema x + 3y = −2 e interpretar los resultados obtenidos

5x − 4y = 7
desde el punto de vista de las aplicaciones lineales.
Solución: Si representamos el sistema por su matriz ampliada A∗ y le aplicamos
el método de Gauss, obtenemos:
   
2 −1 1 1 3 −2

A = 1 3 −2 ≡ 0 7 −5
5 −4 7 0 0 24

Se tiene que rang A = 2 < 3 = rang A∗ , con lo que el sistema es incompatible. (La
última ecuación resultante, imposible de satisfacer, es 0 x + 0 y = 24).
También llegamos al mismo resultado observando que |A∗ | = 0, con lo que se obtiene
que rang A∗ = 3, y puesto que obviamente rang A = 2, el sistema es incompatible.
Finalmente se puede llegar al mismo resultado resolviendo el sistema
ß
2x − y = 1
x + 3y = −2
1
que tiene solución x = 7
, y = − 57 , pero que obviamente no satisface la última
ecuación.
Desde el punto de vista de las aplicaciones lineales, A es la matriz de una aplicación
lineal f : R2 → R3 dada por f (x, y) = (2x − y, x + 3y, 5x − 4y) que tiene dim Im f =
rang A = 2, con lo que dim Ker f = 0. Ası́ pues, f es inyectiva, pero no suprayectiva,
y precisamente (1, −2, 7) no es un punto de Im f pues el sistema inicial no tiene
solución, es decir, (1, −2, 7) no posee antiimagen.

R8.4 Discutir según los valores del parámetro k ∈ R, el sistema con tres incógnitas

⎨ x1 + 5x3 = 2 − 3x2
4x2 + 2x1 − 1 = −2x3

5x1 + 11x2 + 9x3 = k

Solución: Empezamos por reescribir el sistema y mostrar la matriz A de coefi-


cientes,
  
x1 + 3x2 + 5x3 = 2 1 3 5
2x1 + 4x2 + 2x3 = 1 , A= 2 4 2 .
5x1 + 11x2 + 9x3 = k 5 11 9
Se tiene que |A| = 0, por lo que rang A < 3 y obviamente, rang A = 2.
Para que el sistema sea compatible ha de suceder que rang A∗ = 2, y puesto que
las dos primeras columnas de A son linealmente independientes, ello sucederá sii la
columna de términos
 independientes
 es combinación lineal de ellas, para lo cual se
1 3 2 
 
debe verificar que 2 4 1 = −2(k − 4) = 0.
5 11 k
Por lo tanto, el sistema es compatible (e indeterminado) sii k = 4. Si k = 4 el sistema
es incompatible, pues rang A = 2 < 3 = rang A∗ .
(El lector hará un razonamiento alternativo mediante el proceso de Gauss).
170 8. SISTEMAS DE ECUACIONES LINEALES


⎨ x + 2z + t = 1
R8.5 Estudiar el sistema 3x − y + t = a y resolverlo cuando pro-

2x − y − 2z = 6
ceda según los valores del parámetro a ∈ R.
Solución: La correspondiente matriz ampliada es
 
1 0 2 1 1

A = 3 −1 0 1 a
2 −1 −2 0 6

que equivale, intercambiando las filas segunda y tercera y aplicando Gauss, a


 
1 0 2 1 1

A ≡ 0 1 6 2 −4 .
0 0 0 0 7−a

Ası́ pues, rang A = rang A∗ = 2 sii a = 7.


En consecuencia, para a = 7, como rang A = 2 < 3 = rang A∗ , entonces el sistema
es incompatible, y para a = 7 es compatible e indeterminado con infinitas soluciones
que dependerán de dos incógnitas. En este caso, el sistema dado equivale a:
ß
x+ + 2z + t= 1
y+ 6z + 2t = −4

del cual obtenemos las soluciones dependientes de z, t:


ß
x = 1 − 2z − t
y = −4 − 6z − 2t

que también podemos escribir como

{(1 − 2z − t, −4 − 6z − 2t, z, t) : z, t ∈ R} .

R8.6 Hallar Ker(g) de la aplicación lineal g : R3 → R2 dada por g(x, y, z) = (ax,


x − y) según los valores de a ∈ R.
Solución:
Ker g = {(x, y, z) ∈ R3 | g(x, y, z) = (0, 0)}, lo que nos conduce a la resolución del
sistema ß
ax = 0
x− y = 0
 
 a 0 
en donde |A| =   = −a que de nuevo tiene solución única sii a = 0.

1 −1
Ahora bien, el lector meditará que en este caso las soluciones del sistema nos ayudan
a hallar Ker g, pero no constituyen Ker g, ya que en la búsqueda de Ker g nos ha
conducido a “ligaduras” (las dos ecuaciones del sistema) entre las variables x e y
independientemente de los valores de z ∈ R.
Ası́ pues, para a = 0 tenemos que Ker g = {(0, 0, z) : z ∈ R}, es decir, se trata de
un subespacio vectorial de dimensión uno.
Para a = 0 el sistema equivale a x − y = 0 o x = y, por lo que Ker g = {(x, x, z) :
x, z ∈ R}, que es un subespacio de dimensión dos.
8.6. EJERCICIOS RESUELTOS 171

R8.7 Resolver el ejercicio R8.2 por descomposición LS.


 
1 1 −1 1
Solución: Llamamos A = 2 −1 3 2 a la matriz de coeficientes
−4 5 −11 −4
Ö è
  x
4
y
del sistema, b al vector columna −1 y x = . Hemos de resolver el
z
11
t
sistema Ax = b.
Del Ejemplo 5.5.11 se deduce que si sobre la matriz A aplicamos sucesivamente las
operaciones elementales E2,1 (−2), E3,1 (4), E3,2 (3) y finalmente E2 (− 31 ) obtenemos
 
1 1 −1 1
5
su forma escalonada S = 0 1 −3 0 .
0 0 0 0
Además
1
T = E2 (− ) · E3,2 (3) · E3,1 (4) · E2,1 (−2)
3
Ası́ pues el sistema inicial es equivalente al sistema Sx = T b, donde T = E2 (− 31 ) ·
E3,2 (3) · E3,1 (4) · E2,1 (−2). En consecuencia T b es la última columna de S en el
Ejemplo 5.5.11. Por tanto S x = T b es:
Ö è
  x  
1 1 −1 1 4
y
0 1 − 35 0 = 3
z
0 0 0 0 0
t

Ası́, el sistema queda ß


x +y −z +t =4
y − 53 z =3
cuya solución es y = 3 + 53 z, y sustituyendo este valor en la primera ecuación se
obtiene x = 1 − 23 z − t, con z, t ∈ R.
R8.8 (Ver ejercicio R2.14) Se han realizado 4 pares de mediciones experimentales
(xi , yi ), (i = 1, . . . , 4) cuyos valores son (0, 1), (1, 0), (2, 5), (−1, −4). De-
termı́nese el valor f (1.5) a partir del polinomio y = f (x) de grado 3 que
definen las cuatro mediciones.
Solución: La función y = f (x) = c0 + c1 x + c2 x2 + c3 x3 , ha de satisfacer, según
la sección 8.2.9
 
 1 x x2 x3 y 
 
 1 0 0 0 1 
 
 1 1 1 1 0  = 24x3 − 36x2 + 12 − 12y = 0,
 
 1 2 4 8 5 
 1 −1 1 −1 −4 

es decir, y = 1 − 3x2 + 2x3 que coincide con lo obtenido en el ejercicio R2.14. Ası́
pues, f (1.5) = 1 − 3 · 1.52 + 2 · 1.53 = 1

⎨ 2x − y = 1
R8.9 Clasificar el sistema x + 3y = −2 y en el caso en que sea sobredeterminado

5x − 4y = 7
dese la “solución” por mı́nimos cuadrados.
172 8. SISTEMAS DE ECUACIONES LINEALES

 
2 −1 1
Solución: La matriz ampliada de coeficientes del sistema es A∗= 1 3 −2
5 −4 7
que verifica que |A∗ | = 11 = 0. Por tanto, como obviamente rang A = 2 se tiene
que rang A = 2 < 3 = rang A∗ . En consecuencia es un sistema incompatible. Como
rang A = 2 y el número de incógnitas también es dos, es un sistema sobredetermi-
nado.
La “solución” por mı́nimos cuadrados (la que da menor error en sentido “cuadrático”)
es la solución del sistema At Ax = At b, es decir, la solución de
Å ãÅ ã Å ã
27 −18 x 34
=
−18 26 y −35

que, como |At A| = 378, aplicando la regla de Cramer es


   
 34 −18  27 34 
  
−35 26  254 −18 −35 −333
x= = , y= = .
378 378 378 378

R8.10 Se sabe que en el circuito de la figura inferior se cumple la ley I R + V0 = VT .


Se realizan distintas mediciones sobre dicho circuito y se obtienen los valores
de la tabla adjunta.

I 1 2 3 4
VT 6.26 7.14 8.03 8.50

Cuando se impone que todos los valores de la tabla anterior cumplan la ley del
circuito se obtiene un sistema sobredeterminado:


⎪ R + V0 = 6.26

2 R + V0 = 7.14

⎪ 3 R + V0 = 8.03

4 R + V0 = 8.50

A partir de la resolución de dicho sistema por mı́nimos cuadrados obtened una


estimación de los valores de R y V0 .
Solución: La matriz Ö
A de coeficientes
è è b de términos independientes son,
y el vector
Ö
1 1 6.26
2 1 7.14
respectivamente, A = , b= . Como es un sistema sobredeter-
3 1 8.03
4 1 8.50
minado (el lector verificará dicha aseveración) Åla “solución”
ã al sistema por mı́nimos
R
cuadrados viene dada por la solución de A At
= A b, es decir, de
t
V0
Å ãÅ ã Å ã
30 10 R 78.63
= .
10 4 V0 29.93
8.6. EJERCICIOS RESUELTOS 173

La solución matricial, en este caso, es


Å ã Å ã−1 Å ã
R 30 10 78.63
=
V0 10 4 29.93

La anterior matriz inversa se calcula fácilmente mediante los adjuntos:


Å ã Å ã
1 4 −10 0.2 −0.5
(At A)−1 = = .
20 −10 30 −0.5 1.5
Å ã Å ãÅ ã Å ã
R 0.2 −0.5 78.63 0.7610
Ası́ pues, = = . Por tanto, los valores
V0 −0.5 1.5 29.93 5.5800
aproximados de R (resistencia) y V0 (voltaje) son R = 0.761, y V0 = 5.580.

R8.11 Hallar una ecuación vectorial del subespacio r de R3 engendrado por v =


(1, 0, 2). Deducir las ecuaciones paramétricas y no para métricas de r. (El
lector observará que r es una “recta” de R3 que finalmente vendrá dada por la
intersección de dos “planos”).
Solución: r ≡ (x, y, z) = μ(1, 0, 2), μ ∈ R, es una ecuación vectorial de r.

x=μ
Las ecuaciones paramétricas de r son y = 0 , μ ∈ R.
z = 2μ
 
1
Como rang 0 = 1, deduciremos dos ecuaciones implı́citas de r:
2
   
x 1 x 1 
 = 0,  
y 0 z 2 = 0;

es decir, ß
y=0
r≡
2x − z = 0

Obsérvese que no podrı́amos haber “pivotado” con la ecuación y = 0.


x y z
(El lector recordará la ecuación (formal) continua = = de r, de la cual se
1 0 2
y
obtenı́a también dos ecuaciones implı́citas siempre que no se “pivote” sobre ; ¿por
0
qué?).

R8.12 Hállense las “ecuaciones” del subconjunto S de R3 dado por las ecuaciones
paramétricas ⎧
⎨ x = 1+ α− β
S≡ y = 2+ α− 2β − μ

z = α+ 2β + 3μ
(i.e., eliminar los parámetros reales α, β, μ del sistema de ecuaciones S).
Solución: Escribiremos el sistema dado en la forma

x−1 =α− β
y−2 = α − 2β − μ
z = α + 2β + 3μ
174 8. SISTEMAS DE ECUACIONES LINEALES

Sea A la matriz
 de coeficientes
 del segundo miembro, respecto de los parámetros.
1 −1 0 

Como |A| = 1 −2 −1 = 0, rang A < 3, y obviamente rang A = 2.
1 2 3
Ası́, S vendrá dado, prescindiendo de  la última columna
 y por tanto de μ según la
x − 1 1 −1

Nota 8.3.2, por una única ecuación,  y − 2 1 −2 = 0 que el lector explicitará.
 z 1 2

R8.13 Sea H = {(x, y, z) ∈ R3 : x − y = 0, y − z = 0}, y sea F = (1, 2, 3), (0, 1, 2),


(2, 5, 8). Hallar una base del espacio vectorial F ∩ H.
 
1 2 3
 
Solución: De 0 1 2 = 0 deducimos que sólo dos de los tres vectores dados
2 5 8
constituyen un sistema libre y, por tanto, F = (1, 2, 3), (0, 1, 2). En consecuencia,
F vendrá dado por una sola “ecuación”:
 
x 1 0

y 2 1 = 0, es decir, x − 2y + z = 0.

z 3 2

El espacio F ∩ H es la solución del sistema



x− y = 0
y− z = 0
x− 2y + z = 0

Podemos suprimir la tercera ecuación que es la diferencia de las dos primeras y


obtener sin demora la solución y = z, x = z. Es decir, F ∩ H = {(z, z, z) : z ∈ R},
y una base de F ∩ H es {(1, 1, 1)}.
Å ãÅ ã Å ã
4 1 x 9
R8.14 Dado el sistema = . Indicad cuál de los siguientes tres
1 4 y 6
métodos (a)-(c) converge y cuál no. En caso de convergencia indicad para Ja-
cobi y Gauss-Seidel el número de iteraciones necesarias para calcular la solución
con una tolerancia de una milésima (I es la matriz identidad).

(a) xk+1) = (I − A)xk) + b (b) Jacobi. (c) Gauss-Seidel.

Solución: (Para la realización de este ejercicio se recomienda el uso de una calcu-


ladora programable o un programa de cálculo matemático).
Å ã
−3 −1
(a) La matriz de iteración en este caso es M = I − A = . Los va-
−1 −3
lores
 propios son (ver sección 9.1.6) las raı́ces del polinomio p(λ) = |A − λ I| =
−3 − λ −1 
 = λ2 + 6λ + 8 que son λ = −4, λ = −2. Obviamente ambos
 −1 −3 − λ
valores propios son mayores que uno en módulo, en consecuencia, el método iterativo
definido en (a) divergirá.
(b) Como los elementos de la diagonal de A son en módulo mayores que la suma de
los valores absolutos del resto de elementos de la fila (4 > 1), se tiene que la matriz
A es diagonal dominante. En consecuencia, el método de Jacobi es convergente.
8.6. EJERCICIOS RESUELTOS 175

En este
Å casoã la matriz
Å delãsistemaÅ se descompone
ã como A = L + D + U en donde
0 0 4 0 0 1
L= ,D= ,U = ; y el sistema inicial se reescribe, teniendo
1 0 0 4 0 0
en cuenta la ecuación (8.17), como
Å ã Å ãÅ ã Å ã
xk+1) 0 −0.25 xk) 2.25
= +
y k+1) −0.25 0 y k) 1.5
Å ã Å ã
x0) 0
Se toma un vector inicial arbitrario, por ejemplo = , y se aplica el proceso
y 0) 0
iterativo para k = 0, 1, 2, . . . obteniendo la siguiente tabla:

k= 1 2 3 4 5 6
xk) = 1.87500 2.01563 1.99219 2.00098 1.99951 2.00006
y k) = 0.93750 1.03125 0.99609 1.00195 0.99975 1.00012

Obsérvese que la quinta iteración es la primera iteración en la que el cambio que


afecta a los valores iterados es menor que una milésima puesto que |x6) − x5) | ≈
0.00055 = 5.5·10−4 , y |y 6) − y 5) | ≈ 0.00037 = 3.7·10−4 . Por tanto, se puede
Å afirmar ã
2.00006
que la solución del sistema inicial es el último vector iterado calculado ,
1.00012
con un error del orden de la tolerancia en cada componente.
(El lector verificará que la solución del sistema es x = 2, y = 1).
(c) Al igual que en el método de Jacobi, como la matriz del sistema A es diagonal
dominante, el método de Gauss-Seidel también converge.
En este caso el sistema se reescribe, teniendo en cuenta la ecuación (8.18), como
Å ã Å ãÅ ã Å ã
xk+1) 0 −0.25 xk) 2.25
= +
y k+1) 0 0.0625 y k) 0.9375
Å ã Å ã
x0) 0
Se toma un vector inicial arbitrario, por ejemplo = , y se aplica el proceso
y 0) 0
iterativo para k = 0, 1, 2, . . . obteniendo la siguiente tabla:

k= 1 2 3
xk) = 2.01563 2.00098 2.00006
y k) = 0.99609 0.99976 0.99998

Obsérvese que la tercera iteración es la primera iteración en la que el cambio que


afecta a los valores iterados es menor que una milésima puesto que |x3) − x2) | ≈
0.00092 = 9.2·10−4 , y |y 3) − y 2) | ≈ 0.00023 = 2.3·10−4 . Por tanto, se puede
Å afirmar ã
2.00006
que la solución del sistema inicial es el último vector iterado calculado ,
0.99998
con un error del orden de la tolerancia en cada componente.
Nótese que el método de Gauss-Seidel ha convergido a la solución con una tolerancia
de una milésima con tres iteraciones, mientras que el método de Jacobi ha necesitado
seis iteraciones.
R8.15 Resolved por Jacobi y Gauss-Seidel los sistemas de los apartados siguientes con
una tolerancia de 10−4 . Observad si convergen y en caso afirmativo comparad
la velocidad de convergencia entre los distintos sistemas y métodos. ( Nota: La
176 8. SISTEMAS DE ECUACIONES LINEALES

velocidad de convergencia está relacionada con el mayor módulo de los valores


propios de la matriz de iteración).
⎧ ⎧
⎨ 5x + y + z = 7 ⎨ 3x + 2y = 6
(a) x + 5y + z = 7 (b) 2x + 4y − z = 5
⎩ ⎩
x + y + 5z = 7 3x + y + z = 2

Solución: (Para la realización de este ejercicio se recomienda el uso de una calcu-


ladora programable o un programa de cálculo matemático).
 
5 1 1
(a) La matriz y término independiente del sistema considerado son A = 1 5 1
1 1 5
 
7
y b = 7 , por tanto, en este caso la matriz de iteración MJ y el vector v J que
7
 
0 −0.2 −0.2
definen el método de Jacobi en la ecuación (8.17) son MJ = −0.2 0 −0.2 y
−0.2 −0.2 0
 
1.4
v J = 1.4 ; mientras que los que definen el método de Gauss-Seidel en la ecuación
1.4
   
0 −0.2 −0.2 1.4
(8.18) son MGS = 0 0.04 −0.16 y v GS = 1.12 . Se observa que la
0 0.032 0.072 0.8960
matriz A que define el sistema es diagonal dominante (en las tres filas se tiene que
|5| > |1| + |1|) y, en consecuencia, ambos métodos
Ñ convergerán.
é Se
Ñdefineéel vector
  k) k)
0 xJ xGS
inicial x0) = 0 y los vectores iterados xJ = yJk)
k) k)
y xGS = yGS k)
para los
0 k) k)
zJ zGS
métodos de Jacobi y Gauss-Seidel, respectivamente, y se ejecuta el proceso iterativo
obteniendo los resultados de las tablas siguientes:

k = 1 2 ... 10 11
k)
xJ = 0.84000 1.06400 ... 1.00004 0.99998
k)
yJ = 0.84000 1.06400 ... 1.00004 0.99998
k)
zJ = 0.84000 1.06400 ... 1.00004 0.99998
k = 1 2 3 4 5
k)
xGS = 0.99680 0.99644 0.99963 0.99998 1.00000
k)
yGS = 1.02144 1.00144 0.99999 0.99999 1.00000
k)
zGS = 0.99635 1.00042 1.00007 1.00000 1.00000

Al igual que en el apartado (a) del ejercicio anterior se calculan los valores propios
de MJ y MGS obteniendo que el módulo máximo para MJ es 0.4, mientras que para
MGS es 0.0894. En este caso se observa que el método de Gauss-Seidel tiene el de
módulo máximo menor que Jacobi y que converge a la solución x = y = z = 1 con
una tolerancia de 10−4 con la mitad de iteraciones que lo hace el método de Jacobi.

(b) El lector puede proceder igual que en el apartado anterior obteniendo los resul-
tados de las tablas siguientes:
8.6. EJERCICIOS RESUELTOS 177

k = 1 2 ... 49 50
k)
xJ = 1.16666 1.50000 ... 3.19979 3.19983
k)
yJ = 0.75000 -0.64583 ... -1.79974 -1.79978
k)
zJ = -5.25000 -2.25000 ... -5.79956 -5.79962
k = 1 2 ... 32 33
k)
xGS = 1.83333 2.48611 ... 3.19984 3.19988
k)
yGS = -0.72917 -0.68576 ... -1.79982 -1.79987
k)
zGS = -2.77083 -4.77257 ... -5.79971 -5.79978

Al igual que en (a) se calculan los valores propios de MJ y MGS obteniendo que el
módulo máximo para MJ es 0.8287, mientras que para MGS es 0.75. En este caso
se observa que el método de Gauss-Seidel continua teniendo módulo máximo inferior
a Jacobi pero, aunque son inferiores a la unidad, ambos están cercanos a uno. Ello
hace que el proceso de convergencia sea más lento y necesiten más iteraciones que
en el apartado anterior para converger a la solución x = 3.2, y = −1.8, z = −5.8 con
una misma tolerancia prefijada (10−4 ).
Aunque en este caso la matriz no es diagonal dominante, se observa que ha habido
convergencia en el proceso iterativo. Al calcular a posteriori los valores propios de
las matrices de iteración, se ha observado que todos ellos son inferiores a la unidad
y, por tanto, los métodos son convergentes como ya se habı́a observado.
179

Capı́tulo 9

DIAGONALIZACIÓN DE
MATRICES

La sencillez de los cálculos relativos a las matrices diagonales, justifica


por sı́ mismo la búsqueda de una matriz “reducida diagonal” para un endo-
morfismo. No obstante, la teorı́a de vectores propios, en la que se soportarán
nuestros resultados, tiene interés en distintos campos de la Matemática como
es el caso de la resolución de sistemas lineales de ecuaciones diferenciales con
coeficientes constantes.

9.1 SUBESPACIOS PROPIOS

9.1.1 Introducción

En todo lo que sigue V representa un espacio vectorial de dimensión


finita n sobre el cuerpo K (que será R, aunque los resultados que se obtendrán
valen para C), y f : V → V un endomorfismo. Supondremos que la matriz
cuadrada asociada a f , respecto una base B de V , es A = (aij ) 1≤i≤n .
1≤j≤n
Nos proponemos estudiar bajo qué condiciones es posible encontrar una
base B  de V , en la que el endomorfismo f tenga por representación matricial,
una matriz diagonal D con coeficientes en K. En el caso de que exista tal
base el problema a estudiar, equivale al de encontrar una matriz diagonal D,
semejante a A.
180 9. DIAGONALIZACIÓN DE MATRICES

9.1.2 Vectores propios

Un escalar λ ∈ K se dice que es un valor propio de f si se verifica


f (x) = λx, para algún x
= 0.
Si A es una matriz asociada a f ello equivale a escribir Ax = λx para
algún x
= 0.
Si λ es un valor propio de f , cualquier vector x ∈ V que verifique
f (x) = λx, se llama vector propio asociado a λ. Es obvio que 0 es un
vector propio de f , para cualquier valor propio λ de f .

9.1.3 Nota
Si x es un vector propio no nulo de f , sólo puede tener un valor propio λ asociado
pues si f (x) = μx, entonces de λx − μx = f (x) − f (x) = 0 se tiene (λ − μ)x = 0 y, por
tanto, λ = μ pues x = 0.

9.1.4 Subespacio propio

Llamaremos subespacio propio Eλ de f correspondiente al valor pro-


pio λ, al conjunto de vectores propios asociados a λ. Ası́ pues Eλ = {x ∈ V :
f (x) = λx}.
Ahora bien, f (x) = λx se puede escribir f (x) = λI(x) o también
(f − λI)(x) = 0, por lo que Eλ = Ker(f − λI) y, por tanto, Eλ es un
subespacio vectorial de V .
Como caso particular, si λ = 0, entonces Eλ = Ker f .

9.1.5 Ejemplo

Sea f : R2 → R2 el endomorfismo definido por f (x, y) = (2x, 2y).


Entonces λ = 2 es un valor propio de f y además, como para todo
(x, y) ∈ R2 , se tiene que f (x, y) = 2(x, y), obtenemos que el subespacio propio
E2 = Ker(f − 2I) = R2 .

9.1.6 El polinomio caracterı́stico

La condición (f − λI)(x) = 0, que expresa que x es un vector propio


asociado a λ, se puede escribir matricialmente (según 6.2.1, 6.2.5 y 6.2.6):

(A − λI)·x = 0 (9.1)
9.1. SUBESPACIOS PROPIOS 181

La ecuación (9.1) indica que Eλ = Ker(f − λI), que es el subespacio de


vectores propios de valor propio λ, verifica el sistema homogéneo:


⎪ (a11 − λ)x1 + a12 x2 + · · · + a1n xn =0


⎨ a21 x1 + (a22 − λ)x2 + · · · + a2n xn =0
.. (9.2)

⎪ .


⎩ an1 x1 + an2 x2 + · · · + (ann − λ)xn = 0
que sabemos por el punto 8.3.3, tendrá soluciones distintas de la trivial si y
sólo si rang(A − λI) = r < n, lo que equivale a que
|A − λI| = 0. (9.3)

Obsérvese que |A − λI| es un polinomio en λ de grado n con coeficientes


en K,  
 
 a11 − λ a12 ··· a1n 
 
 .. .. 
 a21 a22 − λ . . 
 
|A − λI| =  .. 
 .. .. 
 . . . an−1,n 

 
 an1 ··· an,n−1 ann − λ 
= cn λn + cn−1 λn−1 + · · · + c1 λ + c0
llamado polinomio caracterı́stico de f . Sus raı́ces son los valores propios
de f o de la matriz A (lo cual es otra forma de definir valor propio de
una matriz) y, al sustituirlos en la ecuación (9.2), se obtienen los sistemas
homogéneos cuyas soluciones son los subespacios propios correspondientes a
cada valor propio.

9.1.7 Unicidad del polinomio caracterı́stico


Si existe una representación matricial diagonal D del endomorfismo f
respecto una base B  y P es la matriz del cambio de base (de paso) de B a
B  , sabemos que ha de verificarse (ver sección 6.4.3) P −1 ·A·P = D. Cuando
ello sucedı́a decı́amos que A y D eran semejantes.
El polinomio caracterı́stico que se obtiene a partir de cualquier repre-
sentación matricial del endomorfismo f es siempre el mismo (invariante), y
de ahı́ su nombre.
En efecto,
|D − λI| = |P −1 A P − λI| = |P −1 A P − λP −1 I P |
= |P −1 (A P − λI P )| = |P −1 (A − λI) P |
= |P −1 | |A − λI| |P | = |A − λI|
182 9. DIAGONALIZACIÓN DE MATRICES

9.1.8 Ejemplo
Ç å Ç å
3 −2 1 2
En el ejercicio R6.8 hemos visto que D = yA=
3 −3 1 −1
son dos representaciones maticiales del mismo endomorfismo. Se tiene que
 
  3 − λ −2 
  
D − λI  =   = λ2 − 3
 3 −3 − λ

y también  
  1 − λ 2 
  
A − λI  =   = λ2 − 3.
 1 −1 − λ

9.2 DIAGONALIZACIÓN DE MATRICES


9.2.1 Definición
Diremos que f es diagonalizable, si admite una representación matri-
cial diagonal D con coeficientes en K respecto a una base de V .
Equivalentemente, si suponemos que A es la matriz de un endomorfismo
f referida a cierta base, se dice que A es diagonalizable si A es semejante a
una matriz diagonal D con coeficientes en K.

9.2.2 Proposición
El endomorfismo f es diagonalizable si y sólo si existe una base
B  = {v 1 , v 2 , . . . , v n } de V , formada por vectores propios de f .
Ç d1 å
Demostración. Supongamos que D = .. es una representación matricial
.
dn
diagonal de f respecto a la base {v 1 , v 2 , . . . , v n }. Entonces, recordando la interpretación
de las columnas de D (sección 6.2.1), se tiene que f (v i ) = di v i , (i = 1, . . . , n) y, por tanto,
{v 1 , . . . , v n } es un conjunto de vectores propios.
Recı́procamente, supongamos que B  = {v 1 , . . . , v n } es una base de vectores propios
de V . Entonces existen λ1 , . . . , λn ∈ K de forma
Ñque f (vi ) =éλi vi (i = 1, . . . , n), y la
λ1
λ2

representación matricial de f respecto B es D = .. . 
.
λn

9.2.3 Nota
En las condiciones del punto anterior, precisemos que si B  = {v 1 , . . . ,
v i , . . . , v i+s , . . . , v n } de manera que v i , . . . , v i+s son s vectores propios aso-
9.2. DIAGONALIZACIÓN DE MATRICES 183

ciados a un mismo valor propio λi (es decir, λi = · · · = λi+s ), entonces de:




⎪ f (vi ) = λi v i

..
⎪ .

⎩ f (v )
i+s = λi v i+s

se concluye que en la matriz diagonal D correspondiente, aparece s veces el


valor propio λi en la diagonal:
â ì
..
.
λi
D= .. s veces
.
λi
..
.

La siguiente proposición, que no demostraremos, es de gran utilidad.

9.2.4 Proposición

a) Un conjunto de n vectores propios no nulos {x1 , . . . , xn } correspondien-


tes a valores propios distintos λ1 , . . . , λn , respectivamente, es una base
de V .

b) Si A tiene n valores propios distintos λ1 , . . . , λn , A es diagonalizable.

9.2.5 Ejemplo
Ç å
0 −2
Sea la matriz A = . Su ecuación caracterı́stica es
−1 1
 
 −λ −2 
 
|A − λI| =   = λ2 − λ − 2 = 0
 −1 1 − λ 

y los valores propios son λ1 = 2 y λ2 = −1. Ası́ pues, la matriz A (o bien el


correspondiente
Ç å endomorfismo en alguna base) diagonalizará en
2 0
D= .
0 −1
Si la matriz A no tiene n valores propios distintos, dicha matriz pudiera
no ser diagonalizable. No obstante se tiene el siguiente teorema que damos
en el campo real y cuya demostración omitimos.
184 9. DIAGONALIZACIÓN DE MATRICES

9.2.6 Teorema (caracterización de los endomorfismos diago-


nalizables)
Sean λi las raı́ces, con multiplicidad mi , de un endomorfismo f . En-
tonces f es diagonalizable si todas las raı́ces λi son reales y además
mi = dim Eλi ó, equivalentemente, si mi = n − rang (A − λi I) teniendo
en cuenta la sección 6.2.3.

9.2.7 Ejemplo
Ç å
0 −2
Sea la matriz A = . El polinomio caracterı́stico es
−1 1
 
 −λ 2 
 
|A − λI| =   = λ2 − λ + 2
 −1 1 − λ 

que no posee raı́ces reales, por tanto A no diagonaliza (en R).

9.2.8 Nota
Desde un punto de vista práctico conviene saber que si la raı́ces λi
de multiplicidad mi ≥ 2 verifican el Teorema 9.2.6, entonces es innecesaria
la verificación del enunciado para las raı́ces simples, pues éstas también lo
satisfacen.

9.2.9 Matriz de paso


Sea A la matriz del endomorfismo f respecto cierta base B de V que
diagonaliza con matriz diagonal D respecto una base de vectores propios B 
de V . Éstos sabemos que se obtienen resolviendo la ecuación matricial (9.1)
referida a B y, por tanto, los vectores propios de la base B  están referidos
a B. Por ello, las coordenadas de los vectores de B  en columnas son la
matriz P de paso (o cambio de base de B a B  , ver punto 6.4.1) que verifica
P −1 ·A · P = D, según el punto 6.4.3.

9.2.10 Potencia de una matriz


Es sencillo verificar que la potencia n-ésima de una matriz diagonal D
se consigue elevando a la n-ésima potencia cada elemento de la diagonal.
En el caso de una matriz cualquiera A que tenga por matriz diagonal
a D sabemos, por el punto anterior, que verifica D = P −1 A P y, por tanto,
9.3. UN POCO DE HISTORIA 185

A = P D P −1 , de lo cual se desprende que

A2 = (P D P −1 )(P D P −1 ) = P D (P −1 P ) D P −1 = P D 2 P −1

A3 = A2 A = (P D 2 P −1 )(P D P −1 ) = P D 2 (P −1 P ) D P −1 = P D 3 P −1
y, por inducción, se demuestra que An = P D n P −1 .

9.2.11 Matrices simétricas


Se demuestra que toda matriz simétrica con coeficientes reales es siem-
pre diagonalizable en R.

9.2.12 Nota
Dado que un polinomio con coeficientes reales no siempre tiene sus raı́ces
en R, se puede dar el caso de que una matriz con coeficientes reales no sea
diagonalizable en R pero sı́ lo sea sobre C (obsérvese el ejercicio R9.9).

9.3 UN POCO DE HISTORIA


El origen de los valores y vectores propios, como tantas otras ideas en matemáticas,
hay que buscarlo en la obra de Euler (1707-1783), concretamente en su estudio de la ecuación
general de segundo grado en dos y tres variables. Euler demostró la existencia de unos ejes
perpendiculares donde la expresión de una cónica, o de una cuádrica, es muy sencilla.
La noción de polinomio caracterı́stico aparece explı́citamente en el trabajo de Lagrange
(1736-1813) sobre sistemas de ecuaciones diferenciales, y también en el trabajo de Laplace
(1749-1827). Entre los matemáticos ilustres que trabajaron sobre la teorı́a de valores y
vectores propios, en espacios vectoriales reales, destacan Cauchy (1789-1857), Jacobi (1804-
1851), Sturm (1803-1855) Hermite (1822-1901). Frobenius (1849-1917), Jordan (1838-1922)
y Toeplitz (1881-1940). La teorı́a de valores y vectores propios, además de ser muy útil en
el estudio y resolución de problemas geométricos, de sistemas de ecuaciones diferenciales
lineales y de sus contrapartidas discretas, las ecuaciones en diferencias, también es muy
importante en muchos otros campos, como el desarrollo de métodos de análisis en estadı́stica
multivariante o en la resolución de problemas de decisión multicriterio.

9.4 EJERCICIOS RESUELTOS


Å ã
1 −2
R9.1 En el caso en que A = diagonalice en cierta base B  , hallar esta
1 4
base, la matriz diagonal D y la matriz de paso P a la base B  . Hallar An .
186 9. DIAGONALIZACIÓN DE MATRICES

Solución: La ecuación caracterı́stica es


 
 1−λ −2 
 = (1 − λ)(4 − λ) + 2 = λ2 − 5λ + 6 = 0.
 1 4−λ 

Los dos
Å valores
ã propios son reales y distintos λ = 2, 3 por lo que A diagonaliza y
2 0
D= .
0 3
El sistema que da los subespacios propios es
ß
(1 − λ)x − 2y =0
Eλ =
x + (4 − λ)y =0

Para λ = 2 se tiene que

E2 ≡ −x − 2y = 0, luego E2 ≡ {(−2y, y) : y ∈ R} = (−2, 1)

Mientras que para λ = 3,

E3 ≡ x + y = 0, luego E3 ≡ {(−y, y) : y ∈ R} = (−1, 1)


Å ã
−2 −1
Ası́ pues: B  = {(−2, 1), (−1, 1)} y, por tanto, P = .
1 1
En consecuencia,
Å ãÅ ãÅ ã
n n −1 −2 −1 2n 0 −1 −1
A =PD P =
1 1 0 3n 1 2

R9.2 Sea el endomorfismo f : R3 → R3 definido como f (x, y, z) = (x, y, x+ y + 2z).


Demostrar que f es diagonalizable y obtener una base B  de R3 de vectores
propios de f y la matriz diagonal D. Hallar la matriz de paso P de la base
canónica a B  .
Solución: Hallemos la matriz A asociada a f respecto la base canónica (en ambos
espacios) de R3 :
f (1, 0, 0) = (1, 0, 1)
f (0, 1, 0) = (0, 1, 1)
f (0, 0, 1) = (0, 0, 2)
 
1 0 0
por tanto, A = 0 1 0 es una representación matricial, no diagonal, de f .
1 1 2
Otra manera de obtener A es escribir el correspondiente sistema de ecuaciones para-
métricas respecto la base canónica a través de la definición explı́cita de f :

y1 = x
y2 = y
y3 = x + y + 2z

y observar la equivalente expresión matricial de f :


     
y1 1 0 0 x
y2 = 0 1 0 · y
y3 1 1 2 z
9.4. EJERCICIOS RESUELTOS 187

El polinomio caracterı́stico de f o de la matriz A, sabemos que es:


 
 1−λ 0 0 
 
|A − λI| =  0 1−λ 0  = (1 − λ)2 · (2 − λ)

 1 1 2−λ 

Los valores propios correspondientes a f son pues λ = 1 (raı́z doble) y λ = 2.


La expresión matricial (A − λI)·x = 0 de la que se obtienen los vectores propios
correspondientes al valor propio λ queda
     
1−λ 0 0 x 0
0 1−λ 0 · y = 0
1 1 2−λ z 0

de donde se desprende el sistema de ecuaciones lineales homogéneo:



(1 − λ)x =0
(1 − λ)y =0 (9.4)
x + y + (2 − λ)z =0

Para conocer Ker(f − λI) en el caso λ = 1, se sustituye dicho valor en el sistema


(9.4) y se hallan las soluciones. En este caso se tiene

0x =0
E1 = Ker(f − I) ≡ 0y =0 (9.5)
x + y + z =0

que equivale a x + y + z = 0. (Obsérvese que el rango del sistema es 1 y, puesto


que se ha obtenido una ecuación (no trivial) homogénea en x, y, z, el subespacio que
define dicho sistema, según 8.3.3, es de dimensión 2, como veremos a continuación
resolviendo (9.5) ).
De (9.5) se tiene, x = −y − z y, por tanto, E1 = {(−y − z, y, z) : y, z ∈ R} cuyos
elementos podemos escribir en la forma y(−1, 1, 0) + z(−1, 0, 1) y, en consecuencia,
una base de vectores propios de E1 es {(−1, 1, 0), (−1, 0, 1)} con lo que dim E1 = 2.
Si tenemos en cuenta la Nota 9.2.8 podemos ya asegurar que f diagonaliza, no obs-
tante, como estamos interesados en encontrar una base de vectores propios B  , halla-
remos E2 .
Para conocer el subespacio de vectores propios correspondientes a λ = 2 sustituiremos
este valor en (9.4) y obtenemos:

x =0
E2 = Ker(f − 2 I) ≡ y =0
x + y + 0z =0

cuyas soluciones son x = 0, y = 0, para cualquier z ∈ R. Ası́ pues, E2 = {(0, 0, z) :


z ∈ R} cuyos elementos podemos escribir en la forma z(0, 0, 1), con lo que {(0, 0, 1)}
es una base de E2 y dim E2 = 1.
Ası́ pues, se satisface el Teorema 9.2.6 y por tanto f diagonaliza en la base de vectores
propios B  = {(−1, 1, 0), (−1, 0, 1), (0, 0, 1)}, siendo la matriz diagonal D de f respec-
   
1 0 0 −1 −1 0
to de dicha base D = 0 1 0 , y siendo la matriz de paso P = 1 0 0 .
0 0 2 0 1 1
188 9. DIAGONALIZACIÓN DE MATRICES

(Si deseamos verificar la corrección del proceso, veamos que P −1 A P = D (es decir,
A y D son semejantes). En efecto,
   
0 1 0 1 0 0 −1 −1 0
P −1 A P = −1 −1 0 0 1 0 1 0 0
1 1 1 1 1 2 0 1 1
 
1 0 0
= 0 1 0 =D
0 0 2

Nota: Obsérvese que el orden de los valores propios utilizado en la definición de la


matriz diagonal D es arbitrario. Ahora bien, una vez fijado el orden de éstos, queda
fijado el orden de los vectores propios, es decir, cada vector propio debe correspon-
derse en orden con su valor propio asociado y recı́procamente. Ası́, por ejemplo, si se
toma la base de vectores propios B  = {(0, 0, 1), (−1, 1, 0), (−1, 0, 1)} se tendrá una
matriz diagonal D con el orden de los valores propios cambiado:
   
1 1 1 1 0 0 0 −1 −1
P −1 A P  = 0 1 0 0 1 0 0 1 0
−1 −1 0 1 1 2 1 0 1
 
2 0 0
= 0 1 0 = D
0 0 1
Ñ é
1 0 0
R9.3 Calcula An siendo A = 0 1 0 .
1 1 2
Solución: Observemos que A es la matriz del ejercicio anterior, y por tanto
semejante a D, que verifican P −1 A P = D.
Atendiendo a la sección 9.2.10 y recordando las matrices del ejercicio anterior, se
tiene:
   
−1 −1 0 1 0 0 0 1 0
n n −1
A =PD P = 1 0 0 0 1 0 −1 −1 0
0 1 1 0 0 2n 1 1 1

Ñ é
1 1 1
R9.4 Estudiar para a ∈ R la diagonalización de la matriz A = 0 2a 0 .
1 1 1
Solución: La ecuación caracterı́stica es
 
 1−λ 1 1 
 
|A − λI| =  0 2a − λ 0 
 
 1 1 1−λ 
 
 1−λ 1 
= (2a − λ) 
1 1−λ 
= (2a − λ)(λ2 − 2λ) = 0

con valores propios λ1 = 0, λ2 = 2 y λ3 = 2a.


Si a = 0, 1, entonces los 3 valores propios son distintos y A diagonaliza.
9.4. EJERCICIOS RESUELTOS 189
 
1 1 1
Si a = 0, entonces λ = 0 (raı́z doble), y como rang(A − 0I) = rang 0 0 0 = 1,
1 1 1
entonces, según la Nota 9.2.8, A diagonaliza pues dim E0 = 2 por la sección 8.3.3.
 
−1 1 1
Si a = 1, entonces λ = 2 (raı́z doble), y rang(A − 2I) = rang 0 0 0 = 2,
1 1 −1
entonces A no diagonaliza pues dim E2 = 1 por la sección 8.3.3.
Å ã
a−1 1
R9.5 Estudia la diagonalización de la matriz A = según los valores
0 3−a
reales del parámetro a.
Solución: La raı́ces de la ecuación caracterı́stica
 
 a−1−λ 1 
|A − λI| =   = (a − 1 − λ)(3 − a − λ) = 0
0 3−a−λ 

son λ1 = a − 1 y λ2 = 3 − a.
Los valores propios coinciden sii a − 1 = 3 − a, es decir, si a = 2. Ası́ pues, si a = 2
entonces ambos valores propios son distintos y, en consecuencia, A diagonaliza.
Si a = 2, entonces λÅ= 1 es ãun valor propio doble. Se tiene en este caso que
0 1
rang(A − 1 I) = rang = 1, con lo que dim E1 = 1 por la sección 8.3.3 y,
0 0
por tanto, A no diagonaliza.
Å ã
a 1
R9.6 Discutir si la matriz A = es o no diagonalizable, según los valores
0 2−a
reales del parámetro a.
Solución: La ecuación caracterı́stica correspondiente a A es:
 
 a−λ 1 
P (λ) = |A − λI| =   = (a − λ)(2 − a − λ) = 0
0 2−a−λ 

cuyas raı́ces son λ = a y λ = 2 − a. Estas raı́ces sólo coinciden cuando a = 2 − a, es


decir si a = 1.
En consecuencia, para a = 1, A tiene dos valores propios distintos λ1 = a y λ2 = 2−a
con lo que A diagonaliza.
Veamos el caso a = 1 estudiando el rango correspondiente de A − λ I, para el valor
propio doble resultante λ = 1:
Å ã
0 1
rang(A − 1I) = rang = 1 (= 2 − 2).
0 0

En consecuencia, según el Teorema 9.2.6, para el valor a = 1 la matriz A no diago-


naliza.

R9.7 Hallar los valores propios de la matriz Am siendo A = (aij ) una matriz triangular de
dimensión n.
Solución: Supongamos que A es triangular superior. Entonces Am es otra matriz
triangular superior, con diagonal am m
11 , . . . , ann .
190 9. DIAGONALIZACIÓN DE MATRICES

En consecuencia, el polinomio caracterı́stico de Am es:


 
 m 
 a11 − λ C12 ··· C1n 
 
 .. .. 
 0 22 − λ
am . . 
 
P (λ) = |A − λ I| =  
 .. .. .. 
 . . . Cn−1,n 
 
 
 0 ··· 0 am
nn − λ 

11 − λ) · · · (ann − λ), con lo que los valores propios de A , que


Ası́ pues, P (λ) = (am m m
m m
se deducen de la ecuación caracterı́stica P (λ) = 0, son: a11 , . . . , ann .
Å ã
a 1
R9.8 Discutir la diagonalización de la matriz A = según los valores de
−1 0
a ∈ R.
Solución: √ A es P (λ) = |A − λI| =
 El polinomio caracterı́stico de la matriz
 a−λ 1 
 = λ2 − aλ + 1 cuyas raı́ces son λ = a± a − 4 .
2

 −1 −λ  2
Ası́ pues, si a2 − 4 < 0, es decir, si a ∈] − 2, 2[ no hay raı́ces reales, luego A no es
diagonalizable.
Si a2 − 4 > 0, es decir, si A ∈ R − [−2, 2], entonces hay dos valores propios distintos,
luego A es diagonalizable.
Å ã
1 1
Para a = 2, λ = 1, se tiene que rang(A − I) = rang = 1 y según la
−1 −1
Nota 9.2.6, A no diagonaliza.
Å ã
−1 1
Para a = −2, λ = −1 se tiene que rang(A + I) = rang = 1, y de nuevo
−1 1
A no diagonaliza.
Å ã
0 1
R9.9 Sea A la matriz A = . Comprobar que A no es diagonalizable sobre R
−1 0
pero sı́ lo es sobre C. Hallar en dicho caso una representación matricial diagonal de
A.
 
 −λ 1 
Solución: El polinomio caracterı́stico de A es P (λ) = |A − λI| =  =
−1 −λ 
λ2 + 1. Dado que P (λ) no tiene raı́ces en R, en virtud del Teorema 9.2.6, A no es
diagonalizable en R.
Si calculamos en C las raı́ces de P (λ) obtenemos que P (λ) = (λ−i)(λ+i), luego P (λ)
tiene dos raı́ces complejas distintas y por b) del Corolario 9.2.4, A es diagonalizable
en C.
Å ã
i 0
Una representación matricial diagonal de A en este caso será la matriz D = .
0 −i

R9.10 Demostrar que si λ es un valor propio de la matriz A entonces λ2 es un valor


propio de A2 .
Solución: Como λ es un valor propio de A, existe x = 0 de forma que Ax = λx
(ver sección 9.1.2). Entonces, A2 x = A(Ax) = A(λx) = λ Ax = λ λx = λ2 x.
9.4. EJERCICIOS RESUELTOS 191

R9.11 (Un caso especial) Å ã


2 −3
Diagonaliza la matriz A = para hallar An . Comparar los resultados
1 −2
con el ejercicio R5.6.
 
2 − λ −3 
Solución: La ecuación caracterı́stica es |A − λI| =  = λ2 − 1 = 0
1 −2 − λ
Å λ = 1,ã λ = −1 (distintos). Por tanto, A diagonaliza y
que tiene los valores propios
1 0
la matriz diagonal es D = .
0 −1
Å ã
−1 −1 1n 0
De A = P D P n n
se deduce A = P D P =P P −1 .
0 (−1)n
Si n es par, entonces An = P I P −1 = P P −1 = I.
Si n es impar, entonces An = P D P −1 = A.
Bibliografı́a

[1] F.J. Boigues Planes, V.D. Estruch Fuster, V. Gregori Gregori, B. Roig
Sala, A. Sapena Piera, A. Vidal Meló; Cálculo Básico, Ed. UPV, 2014.

[2] J.C. Del Valle Sotelo; Álgebra lineal para estudiantes de ingenierı́a y
ciencias, ed. McGraw-Hill, 2011.

[3] J. Garcı́a Garcı́a, M. López Pellicer; Álgebra lineal y geometrı́a, ed.


Marfil, 1986.

[4] D.C. Lay; Álgebra lineal y sus aplicaciones, ed. Pearson Educación, 2007.

[5] L.M. Merino Gonzalez, E. Santos Alaez; Álgebra lineal con métodos ele-
mentales, ed. Paraninfo, 2006.

193
Índice de términos

álgebra de Boole, 17 descomposición


LS, 99
adjunto, 134 LU, 97
ajuste por mı́nimos cuadrados, 41 desviación tı́pica, 44
antiimagen, 27 determinante, 130
aplicación, 27 de una matriz triangular, 136
biyectiva, 28 de Vandermonde, 142
compuesta, 29 desarrollo de un, 136
diagonalizable, 182 diagonal de una matriz, 88
identidad, 29, 110 diagrama
inversa, 31 de dispersión, 39
inyectiva, 28 de Venn, 14
lineal, 109 lineal, 15
nula, 110 diferencia
suprayectiva, 28 de conjuntos, 16
simétrica, 16
base
dimensión
canónica, 78
de un espacio vectorial, 78
de un espacio vectorial, 77
de una matriz, 87
campo de existencia, 32 finita, 74
cardinal, 17 teorema de la, 78
coeficiente de determinación, 45 distribución bidimensional, 39
combinación, 21 dominio, 32
lineal, 74
lineal nula, 76 ecuación
complementario, 16 explı́cita de f , 110
conjunto, 13 implı́cita, 162
disjunto, 16 matricial de f , 113
imagen, 27 no paramétrica, 162
referencial, 14 paramétrica, 161
vacı́o, 14 paramétrica de f , 113
convergencia, 164 eje
coordenadas, 74 de abscisas, 31
correlación lineal, 45 de ordenadas, 31
coeficiente de, 45 endomorfismo, 116
directa máxima, 45 espacio
inversa máxima, 45 isomorfo, 116
correspondencia inversa, 27 vectorial, 72
covarianza, 44
función, 31
dı́gitos significativos, 59 compleja, 31
195
196 Índice

continua, 34 ortogonal, 94
definida a trozos, 35 producto de, 90
discreta, 36 reducida, 98
impar, 34 regular, 91
inversa, 33 semejante, 94, 122
par, 34 simétrica, 93
parte entera, 37 singular, 91
real, 31 suma de, 88
traspuesta, 93
Galton, 41, 45 triangular, 92
Gauss, proceso de reducción de, 80 media, 44
gráfica de una función, 31 menor complementario, 134
grupo conmutativo, 71 mı́nimos cuadrados, 160
método
homomorfismo, 116 de Gauss-Seidel, 166
de Jacobi, 165
imagen, 27, 112
interpolación, 37 número combinatorio, 21
lineal, 38 nube de puntos, 39
polinómica, 38, 159 núcleo, 110
intersección, 15
inversión de una permutación, 129 operación elemental, 80
isomorfismo, 116 orden de una matriz, 88

leyes de Morgan, 17 partición, 17


generalizadas, 22 permutación, 20, 129
linealmente impar, 130
dependiente, 76 par, 130
independiente, 76 polinomio caracterı́stico, 181
producto
matriz, 87 cartesiano, 18
ampliada, 149 externo, 90
antisimétrica, 93 interno, 90
asociada a f , 113
columna, 88 rango
cuadrada, 88 de una aplicación lineal, 114
de cambio de base, 119 de una matriz, 94
de iteración, 164 recta de regresión, 41, 43
de paso, 119 regla de
diagonal, 92 Cramer, 154
diagonal dominante, 165 Sarrus, 131
diagonalizable, 182 regresión
elemental, 95 exponencial, 47
equivalente, 94, 122 lı́nea de, 41
escalonada, 98 lineal, 41
escalonada reducida, 98 no lineal, 46
escasa, 92 parabólica, 46
fila, 88 recta de, 41
identidad, 91
inversible, 91 segmento orientado, 72
nilpotente, 91 signatura, 130
nula, 88 sistema
Índice 197

binario, 61
de numeración, 57
de vectores equivalentes, 74
generador, 74
hexadecimal, 64
libre, 76
ligado, 76
linealmente dependiente, 76
linealmente independiente, 76
octal, 64
sistema de ecuaciones
compatible, 150
de Cramer, 150
determinado, 150
equivalente, 148
homogéneo, 157
incompatible, 150
indeterminado, 150
lineal, 147
sobredeterminado, 160
subconjunto, 13
impropio, 14
propio, 14
subespacio
impropio, 73
propio, 73, 180
suma de, 81
suma directa, 81
vectorial, 73
submatriz, 88

teorema de la dimensión, 78
en aplicaciones lineales, 112
en suma de subespacios, 81

unión, 15

valor propio, 180, 181


variaciones
con repetición, 19
ordinarias, 20
varianza, 44
vector propio, 180

S-ar putea să vă placă și