Sunteți pe pagina 1din 217

Álgebra lineal

Nociones y propiedades elementales

Neptalı́ Romero
Universidad Centroccidental Lisandro Alvarado
Barquisimeto, Venezuela
XXV ESCUELA VENEZOLANA DE MATEMÁTICAS
La Escuela Venezolana de Matemáticas es una actividad de los postgrados en matemáticas
de las instituciones siguientes: Centro de Estudios Avanzados del Instituto Venezolano de
Investigaciones Cientı́ficas, Facultad de Ciencias de la Universidad Central de Venezuela,
Facultad de Ciencias de la Universidad de Los Andes, Universidad Simón Bolı́var, Uni-
versidad Centroccidental Lisandro Alvarado y Universidad de Oriente, y se realiza bajo el
auspicio de la Asociación Matemática Venezolana.
La XXV Escuela Venezolana de Matemáticas recibió financiamiento de la Academia de
Ciencias Fı́sicas, Matemáticas y Naturales de Venezuela, el Banco Central de Venezuela,
el Fondo Nacional de Ciencia, Tecnologı́a e Innovación (FONACIT), el Instituto Vene-
zolano de Investigaciones Cientı́ficas (Centro de Estudios Avanzados, Departamento de
Matemáticas y Ediciones IVIC), la Universidad de los Andes (CEP, CDCHT, Departa-
mento de Matemáticas de la Facultad de Ciencias, Decanato de Ciencias y Vicerrectorado
Administrativo), Unión Matemática de América Latina y el Caribe (UMALCA) y Centre
International de Mathématiques Pures et Appliquées (CIMPA).

2010 Mathematics Subject Classification: 05D10, 22F05 05C55, 43A05, 22A05, 22F50

©Ediciones IVIC
Instituto Venezolano de Investigaciones Cientı́ficas
Rif: G-20004206-0
Tı́tulo del libro
Autores del libro
Diseño y edición: Escuela Venezolana de Matemáticas
Preprensa e impresión: Gráficas Lauki C. A.
Depósito legal If66020125102161
ISBN 978-980-261-135-5
Caracas, Venezuela
2013
Índice general

1. Matrices 1
1.1. Corta nota histórica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Definición y ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1. Algunas matrices especiales. . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.1. Adición y multiplicación por escalares. . . . . . . . . . . . . . . . . . 9
1.3.2. Identificando Kn , M1ˆn pKq y Mnˆ1 pKq . . . . . . . . . . . . . . . . . 14
1.3.3. Multiplicación de matrices . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4. Matrices invertibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.5. Operaciones elementales por filas . . . . . . . . . . . . . . . . . . . . . . . . 23
1.5.1. Definición, ejemplos y propiedades generales . . . . . . . . . . . . . . 23
1.5.2. Forma canónica de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . 27
1.5.3. Operaciones elementales por filas y matrices invertibles . . . . . . . 35
1.6. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

2. Sistemas de ecuaciones lineales 47


2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.2. Definiciones y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.3. Teorema de Rouché-Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.4. Algo más . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.4.1. Caso: sistemas homogéneos . . . . . . . . . . . . . . . . . . . . . . . 60
2.4.2. Caso: sistemas no homogéneos . . . . . . . . . . . . . . . . . . . . . 64
2.5. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

3. Determinantes 73
3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.2. Determinates: una definición recursiva . . . . . . . . . . . . . . . . . . . . . 74
3.2.1. Determinates de matrices de orden 2 ˆ 2 . . . . . . . . . . . . . . . . 75
3.2.2. Determinante de matrices 3 ˆ 3 . . . . . . . . . . . . . . . . . . . . . 78
3.3. Determinantes de orden superior . . . . . . . . . . . . . . . . . . . . . . . . 83
3.3.1. Operaciones elementales por fila y cálculo de determinantes . . . . . 87
3.3.2. Más propiedades del determinante . . . . . . . . . . . . . . . . . . . 90
3.4. Algunas aplicaciones de los determinantes . . . . . . . . . . . . . . . . . . . 96
3.4.1. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.4.2. Adjunta clásica e inversión de matrices . . . . . . . . . . . . . . . . . 99
3.4.3. Determinación del rango de una matriz . . . . . . . . . . . . . . . . 100
3.5. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

iii
4. Puntos, vectores, rectas, planos e hiperplanos en Rn 107
4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
4.2. Al inicio los puntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
4.2.1. Representación gráfica de puntos en R2 y R3 . . . . . . . . . . . . . . 112
4.3. Vectores en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
4.3.1. Equivalencia y paralelismo de vectores . . . . . . . . . . . . . . . . . 116
4.3.2. Estructura lineal de cada espacio tangente . . . . . . . . . . . . . . . 118
4.4. Estructura Euclidiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4.4.1. Producto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4.4.2. Norma en RnO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4.4.3. Ángulo entre vectores no nulos . . . . . . . . . . . . . . . . . . . . . 130
4.4.4. Proyección ortogonal de vectores . . . . . . . . . . . . . . . . . . . . 132
4.4.5. Distancia euclidiana en Rn . . . . . . . . . . . . . . . . . . . . . . . 134
4.5. Rectas, planos e hiperplanos en Rn . . . . . . . . . . . . . . . . . . . . . . . 135
4.5.1. Rectas en Rn y sus ecuaciones cartesianas . . . . . . . . . . . . . . . 135
4.5.2. Planos en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
4.5.3. Planos en R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
4.5.4. Hiperplanos en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.5.5. Posiciones relativas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
4.5.6. Distancias entre puntos, rectas y planos . . . . . . . . . . . . . . . . 158
4.6. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164

5. Espacios Vectoriales. 173


5.1. Nota histórica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
5.2. Definición y ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
5.2.1. Ejemplos de espacios vectoriales . . . . . . . . . . . . . . . . . . . . 176
5.2.2. Propiedades básicas en los espacios vectoriales . . . . . . . . . . . . 180
5.2.3. Ejercicios propuestos de la Sección 5.2 . . . . . . . . . . . . . . . . . 182
5.3. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
5.3.1. Ejemplos de subespacios vectoriales . . . . . . . . . . . . . . . . . . 186
5.3.2. Subespacios generados por un conjunto de vectores. . . . . . . . . . 189
5.3.3. Ejercicios propuestos de la Sección 5.3 . . . . . . . . . . . . . . . . . 199
5.4. Independencia y dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . 205
5.4.1. Sobre la independencia lineal en Kn . . . . . . . . . . . . . . . . . . 208

Índice alfabético 211


Capı́tulo 1

Matrices

1.1. Corta nota histórica


Ciertas evidencias indican que el uso rudimentario de la noción de matriz data del
siglo IV antes de Cristo, es sostenido que su empleo estaba relacionado con la resolución
de problemas que en la actualidad denominamos sistemas de ecuaciones lineales. De he-
cho, en la antigua Babilonia se estudiaron problemas que involucraban ecuaciones lineales
simultáneas; algunos de tales problemas eran conservados en tablillas de arcilla1 . En una
de ellas fue traducido el siguiente problema:

“Hay dos terrenos cuya área total es de 1800 yardas cuadradas. Uno produce granos
en una proporción de 2{3 de una medida por yarda cuadrada mientras el otro lo
hace en una proporción de 1{2 de una medida por yarda cuadrada. Si la producción
total es 1100 medidas, ¿cuál es el tamaño de cada terreno?”

No obstante, los chinos estuvieron mucho más cerca de las matrices que los babilonios;
en efecto, en el libro: “Nueve Capı́tulos de Arte Matemático”, escrito durante la dinastı́a
Han entre los años 200 y 100 antes de Cristo, hay ejemplos sobre el uso de técnicas
matriciales para resolver problemas relativos a sistemas de ecuaciones lineales. El siguiente
problema (¡traducción mediante!), similar al de la tablilla Babilónica, se dice está allı́:

“Hay tres tipos de cereales, de los cuales tres fardos del primero, dos del segundo, y
uno del tercero hacen 39 medidas. Dos del primero, tres del segundo y 1 del tercero
hacen 34 medidas. Y uno del primero, dos del segundo y tres del tercero hacen 26
medidas. ¿Cuántas medidas de cereal son contenidas en un fardo de cada tipo?”

A pesar de las antiguas evidencias del empleo de las matrices y rudimentarias técnicas
para la resolución de sistemas de ecuaciones lineales, no es sino a partir de la segunda mitad
del siglo XIX cuando se comienza a desarrollar la estructura matemática del álgebra de
matrices. Varios matemáticos contribuyeron en este desarrollo, el primero en hacer uso
formal de la noción de matriz fue el inglés James Joseph Sylvester (1814 – 1897) quien
introduce el vocablo de matriz en algunas de sus publicaciones hacia los años 1850 y 1851;
allı́ Sylvester analizaba la intersección de dos cónicas mediante el cálculo de determinates
1
Tras la invasión del ejercito de USA y sus aliados a Irak en el año 2003, muchas evidencias culturales,
entre ellas antiguas tablillas de arcilla que contenı́an los primeros registros escritos de la humanidad, han
sido destruidas, o hurtadas. El lector interesado puede consultar el libro. La destrucción cultural de Irak.
Un testimonio de Postguerra. Fernando Báez. Alfadil Ediciones/Octaedro - Flor de Viento. (2005)

1
2 Neptalı́ Romero

en lugar del uso de herramientas analı́ticas de comienzos de ese siglo. Sylvester definió una
matriz “... como una sucesión rectangular de términos de la que distintos sistemas de
determinantes pueden engendrarse, como del útero de una misma madre ...” En el año
1855 el matemático inglés Arthur Cayley (1821 – 1895) adopta la noción de matriz de
Sylvester para expresar un sistema de ecuaciones lineales de orden 3 ˆ 3; pero no es sino
hasta 1858 en su libro “Memorias sobre la teorı́a de matrices” donde son establecidas, entre
otras cosas, las definiciones y propiedades de las operaciones con matrices; allı́ además
introduce el concepto de inversa de una matriz. Estas memorias son consideradas como el
origen de la teorı́a abstracta de las álgebras asociativas.

1.2. Definición y ejemplos.


En lo que sigue, excepto alguna mención especı́fica, K denotará indistintamente tanto
al conjunto de los números reales R como el de los números complejos C con sus usuales
operaciones de adición y multiplicación.

Definición 1.1
Dados dos enteros m ě 1 y n ě 1, una matriz de orden m ˆ n en K es cualquier arreglo
bidimensional con m filas y n columnas:
» fi
a11 a12 ¨¨¨ a1n
— a21 a22 a2n ffi
— ffi
¨¨¨
ffi , (1.1)
— . .. .. .. ffi
— .
– . . . . fl
am1 am2 ¨ ¨ ¨ amn

donde los coeficientes (componentes o entradas) aij (i “ 1, ¨ ¨ ¨ , m, j “ 1, ¨ ¨ ¨ , n) en el


arreglo son números cualesquiera en K.

Habitualmente emplearemos letras mayúsculas del alfabeto latino para denotar matri-
ces. Frecuentemente escribiremos raij smˆn para representar la matriz en (1.1), y a veces
(cuando haya elementos para la confusión) simplemente escribiremos raij s. La notación
aij (i “ 1, ¨ ¨ ¨ , m, j “ 1, ¨ ¨ ¨ , n) indica que el número aij se encuentra ubicado dentro del
arreglo (1.1) en la intersección entre la fila i y la columna j:
 columna j

» fi
a11 ¨ ¨ ¨ a1j ¨¨¨ a1n
— . .. .. .. .. ffi
— .. . . . . ffi
— ffi
fila i  — ai1 ¨ ¨ ¨ aij ¨ ¨ ¨ ain ffi
— ffi
— . .. .. .. .. ffi
— .
– . . . . . fl
ffi
am1 ¨ ¨ ¨ amj ¨ ¨ ¨ amn
Álgebra lineal: Nociones y propiedades elementales 3

Para facilitar diversos argumentos y cálculos también usaremos las nomenclaturas » abre- fi
Ap1q
— Ap2q ffi
— ffi
viadas por filas y columnas; esto es, si A es la matriz raij smˆn , escribiremos A “ — . ffi

ffi,
– .. fl
Apmq
p1q p2q pnq
o bien A “ rA A ¨ ¨ ¨ A s, donde Apiq “ rai1 ¨ ¨ ¨ aij ¨ ¨ ¨ ain s es la fila i de A, mien-
» fi
a1j
— . ffi
— .. ffi
— ffi
tras que Apjq “ — aij ffi es su j-ésima. Al conjunto de todas las matrices de orden m ˆ n
— ffi
— . ffi
— . ffi
– . fl
amj
en K lo denotamos por Mmˆn pKq. Cuando el número de filas y columnas sean iguales
(m “ n) escribiremos Mn pKq en lugar de Mnˆn pKq; las matrices en Mn pKq son llamadas
cuadradas de orden n. Dada cualquier matriz cuadrada A “ raij s P Mn pKq, a la colección
de coeficientes ubicados en las posiciones ii (aii para cada i “ 1, ¨ ¨ ¨ , n) se les conoce
como diagonal de A. El vocablo diagonal de una matriz » es reservado exclusivamente
fi para
2 0 1 3
— 2 3 1 2 ffi
matrices cuadradas. Para la matriz cuadrada A “ — ffi, los coeficientes
— ffi
– 0 0 5 4 fl
0 0 0 2
destacados en rectángulos determinan la diagonal de la matriz A.

Definición 1.2
Dadas dos matrices A “ raij s y B “ rbij s en Mmˆn pKq, se dice que estas son iguales (se
denota por A “ B) siempre que aij “ bij para todo i “ 1, ¨ ¨ ¨ , m y j “ 1, ¨ ¨ ¨ , n. Es decir,
A “ B si son del mismo orden, y coeficiente a coeficiente ellas son iguales.

Ejemplo 1.1
Los siguientes son ejemplos de distintos tipos de matrices.

1. La matriz nula de orden m ˆ n, es aquella matriz de orden m ˆ n cuyos coeficientes son


todos iguales a cero; se acostumbra denotarla por Omˆn . Cuando no existan motivos
de confusión eliminamos el subı́ndice m ˆ n en la notación.

2. Una matriz fila, o también unifila, es cualquier matriz que tiene una única fila; es decir,
de orden 1 ˆ n para algún entero positivo n. Por ejemplo
” ? ı
A “ 1 2 i 2 ` i 0 ´1 2 P M1ˆ7 pCq.

3. Una matriz columna, también denominada unicolumna, es cualquier matriz con una
única columna; es decir,
» cualquier
fi matriz de orden m ˆ 1, para algún entero positivo
2
— ´1 ffi
m. La matriz B “ — ffi es unicolumna de orden 4 ˆ 1 en R.
— ffi
– 0 fl
4
4 Neptalı́ Romero

4. En Mmˆn pKq definimos las siguientes m ˆ n matrices: para cada k “ 1, ¨ ¨ ¨ , m y cada


` “ 1, ¨ ¨ ¨ , n, denotamos por Ek` la matriz en Mmˆn pKq que tiene en su entrada kj el
dı́gito 1, y las restantes entradas son todas iguales a 0. Esto es, Ek` “ reij smˆn , siendo
que para i “ 1, ¨ ¨ ¨ , m y j “ 1, ¨ ¨ ¨ , n el coeficiente eij es dado por
#
1; si i “ k y j “ `
eij “ .
0; en otro caso

Estas matrices se conocen con el nombre de matrices canónicas de Mmˆn pKq. En M2 pKq
las matrices canónicas son cuatro:
« ff « ff « ff « ff
1 0 0 1 0 0 0 0
E11 “ , E12 “ , E21 “ y E22 “ .
0 0 0 0 1 0 0 1

5. Para cada entero positivo n, denominamos matriz identidad de orden n, a la matriz


cuadrada In de orden n cuyos coeficientes de la diagonal son iguales a 1 y los restantes
son todos iguales a 0. En particular se tiene que
» fi
» 1 fi 0 0 0
« ff 1 0 0
” ı 1 0 —0
— 1 0 0ffi
I1 “ 1 , I 2 “ , I3 “ –0 1 0fl y I4 “ —
— ffi ffi
ffi
0 1 –0 0 1 0fl
0 0 1
0 0 0 1

son las matrices identidad de orden 1, 2, 3 y 4 respectivamente.


Note que la matriz identidad In la hemos podido definir por In “ rδij snˆn , donde δij
#
1, si i “ j
denota el denominado delta de Kronecker ; esto es, δij “ .
0, si i ‰ j

Ejemplo 1.2
Las matrices son ultilizadas Frecuentemente para el almacenamiento de datos, a seguir
unos ejemplos simples.

1. La siguiente matriz suministra información sobre la distancia, medida en kilómetros,


entre algunas de las ciudades de Venezuela:
Barquimeto

Maracaibo
Caracas

Mérida

» fi
Barquimeto 0 363 322 421
Caracas — 363 0 706 682 ffi
ffi.
— ffi

Maracaibo – 322 706 0 401 fl
Mérida 421 682 401 0
Álgebra lineal: Nociones y propiedades elementales 5

2. Supongamos que tres productos, Prod. 1, Prod. 2 y Prod. 3, son elaboradors a a


partir de cuatros componentes: A, B, C y D. La matriz

A B C D
» fi
Prod. 1 2 3 4 5
Prod. 2 – 1 2 3 0 fl
— ffi
Prod. 3 2 3 2 1
ofrece la información sobre la cantidad de unidades de cada componente necesaria
para la elaboración de cada producto.

1.2.1. Algunas matrices especiales.


En este apartado asignaremos nombres a ciertas matrices especiales de uso frecuente.
Iniciamos con una lista de colecciones de matrices cuadradas; luego introduciremos la
noción de matriz traspuesta.

Definición 1.3
Una matriz cuadrada raij s P Mn pKq se denomina:
(a) triangular inferior si para todo i ă j se tiene aij “ 0. Al conjunto de matrices
triangulares inferiores de orden n en K lo denotamos por T In pKq.

(b) triangular superior si para todo i ą j se tiene aij “ 0. Al conjunto de matrices


triangulares superiores de orden n con coeficientes en K lo denotamos por T Sn pKq.

(c) matriz diagonal si aij “ 0 para todo i ‰ j. Al conjunto de matrices diagonales de


orden n sobre K lo denotamos por Dn pKq.

(d) matriz escalar si es diagonal y existe un número α P K tal que aii “ α para todo
i “ 1, ¨ ¨ ¨ , n. Al conjunto de matrices escalares de orden n en K se denota por En pKq.

(e) matriz simétrica si para todo i, j “ 1, ¨ ¨ ¨ , n con i ‰ j se cumple aij “ aji . El conjunto
de matrices simétricas de orden n sobre K es denotado por Sn pKq.

(f) matriz antisimétrica si para todo i, j “ 1, ¨ ¨ ¨ , n se cumple aij “ ´aji . Adoptamos la


notación ASn pKq para designar al conjunto de matrices antisimétricas de orden n con
coeficientes en K.
Observe que una matriz cuadrada es triangular superior (resp. triangular inferior) si
todos los elementos que están ubicados por debajo (resp. por encima) de su diagonal son
todos iguales a 0. Obviamente toda matriz cuadrada que sea simultáneamente triangular
inferior y superior es una matriz diagonal; de hecho Dn pKq “ T Sn pKq X T In pKq. También
es claro que En pKq Ă Dn pKq; en particular, la matriz identidad In de orden n y toda
matriz cuadrada nula son matrices escalares. Es común que una matriz escalar de orden n
sea denotada por αIn , donde α es el escalar que está ubicado en cada una de las entradas
de la diagonal de la matriz. Finalmente observe que la única matriz que es simétrica y
antisimétrica es la matriz nula; note además que los elementos ubicados en la diagonal de
cualquier matriz antisimétrica son todos iguales a 0.
6 Neptalı́ Romero

Ejemplo 1.3
1. Las siguientes matrices son triangulares inferiores:
» fi
» fi » fi 1 0 0 0
0 0 0 1 0 0 —1 2 0 0ffi
–1 0 0fl , –0 3 0fl , — ffi .
— ffi — ffi — ffi
–1 2 3 0fl
1 2 0 0 0 2
1 2 3 4

» fi
» fi » fi 1 2 3 4
0 1 0 1 0 1 —0 1 2 3ffi
2. Las matrices –1 0 0fl , –0 3 0fl , ffi no son triangulares inferiores.
— ffi — ffi — ffi

–1 0 1 2fl
2 1 0 1 0 2
1 0 0 1
» fi
» fi » fi 1 2 3 4
0 1 2 1 0 0 —0 1 2 3ffi
3. Las matrices –0 3 1fl , –0 3 0fl , — ffi son triangulares superiores; pero
— ffi — ffi — ffi
–0 0 1 2fl
0 0 4 0 0 2
0 0 0 1
» fi
» fi » fi 1 2 3 4
0 1 2 1 0 0 —0 1 2 3ffi
–0 3 1fl , –0 3 0fl , — ffi no lo son.
— ffi — ffi — ffi
–1 0 1 2fl
0 1 4 1 0 2
1 0 0 1

Las formas generales de las matrices triangulares superiores e inferiores de orden n son
respectivamente:
» fi » fi
a11 a12 ¨ ¨ ¨ a1n´1 a1n a11

— a22 ¨ ¨ ¨ a2n´1
.. ..
a2n ffi
ffi
.. ffi

— a21 a22
ffi
ffi O
. .
— — ffi
— . . . ffi y — ..
ffi — .. . .. ffi ,
— ffi

– O an´1n´1 an´1n
ffi
fl

– an´11 an´12 ¨ ¨ ¨ an´1n´1
ffi
fl
ann an1 an2 ¨ ¨ ¨ ann´1 ann

entendiéndose que el sı́mbolo O significa que todos los coeficientes por debajo (resp. por
encima) de la diagonal son iguales a 0; no hay ninguna restricción para las entradas aij
señaladas en estos arreglos, a no ser las entradas por debajo de la diagonal en las triangula-
res superiores, y por encima de las diagonal para las triangulares inferiores. Las expresiones
de los arreglos que definen matrices diagonales y escalares son, respectivamente:
» fi » fi
a1 α


— a2 O ffi
ffi
ffi


— α Offi
ffi
ffi
— . . ffi
y
— . . ffi .
ffi
— . ffi — .
— ffi — ffi

– O an´1
ffi
fl

– O α
ffi
fl
an α

Ejemplo 1.4
Álgebra lineal: Nociones y propiedades elementales 7

1. Las siguientes son matrices simétricas:

a) Todas las matrices diagonales.


» fi
» fi 2 1 ´2 1
« ff « ff 1 2 0
´1 0 ´1 ´2 — 1
— 0 3 2 ffi
b) , , –2 3 4fl y — ffi.
— ffi ffi
0 1 ´2 1 – ´2 3 1 4 fl
0 4 0
1 2 4 ´1

2. Las siguientes son matrices antisimétricas:

a) La matriz nula de orden n ˆ n para cualquier entero positivo n.


» fi
» fi 0 1 ´2 ´1
« ff « ? ff 0 2 0
0 1 0 ´ 3 — ´1 0 3 ´2 ffi
b) , ? , – ´2 0 4 fl y — ffi.
— ffi — ffi
´1 0 3 0 – 2 ´3 0 ´4 fl
0 ´4 0
1 2 4 0

3. Las siguientes no son matrices simétricas:


» fi
» fi 2 1 ´2 0
« ff « ff 1 2 0
´1 0 ´1 ´2 — 1 0 3 2 ffi
, , – 2 3 ´4 fl y — ffi .
— ffi — ffi
2 1 2 1 – ´2 3 1 4 fl
0 4 0
1 2 4 ´1

4. Las siguientes no son matrices antisimétricas:


» fi
» fi 0 1 ´2 ´1
« ff « ? ff 0 2 0
0 1 0 ´ 3 — ´1 0 3 ´2 ffi
, ? , – ´2

1 4 fl y —
ffi —
ffi .
ffi
1 0 2 0 – 2 ´3 1 ´4 fl
0 ´4 0
1 2 4 0

Comentario 1.1
De las propias definiciones de matrices simétricas y antisimétricas se desprenden inmedia-
tamente las siguientes afirmaciones:

1. Dada cualquier matriz simétrica A “ raij snˆn , para cada i “ 1, ¨ ¨ ¨ , n la i-ésima fila
Apiq y la i-ésima columna Apiq tienen las mismas entradas; es decir
» fi
ai1
ai2
” ı — ffi
piq
— ffi
Apiq “ ai1 ai2 ¨ ¨ ¨ ain y A “— .. ffi .
.
— ffi
– fl
ain

2. Dada cualquier matriz antisimétrica A “ raij snˆn , como aii “ ´aii para todo ı́ndice
i “ 1, ¨ ¨ ¨ , n, se tiene que su diagonal es nula. Observe además que las entradas de la
fila i y columna i de A difieren solamente en el signo.
8 Neptalı́ Romero

3. Las expresiones generales para las matrices simétricas y antisimétricas de orden n son
respectivamente:
» fi » fi
a11 a12 ¨ ¨ ¨ a1n 0 a12 ¨ ¨ ¨ a1n
— a12 a22 ¨ ¨ ¨ a2n ffi 0 ¨ ¨ ¨ a2n ffi
— ffi — ffi
— ´a12
ffi y — .. ffi .
— . .. .. ffi .. .. ffi
.. ..

— . . .
– . . . fl – . . . fl
a1n a2n ¨ ¨ ¨ ann ´a1n ´a2n ¨ ¨ ¨ 0

4. La única matriz de orden n ˆ n, cualquiera sea el entero n ě 1, que es al mismo tiempo


simétrica y antisimétrica es la matriz nula: Sn pKq X ASn pKq “ tOu.

Definición 1.4
Dada cualquier matriz A “ raij s en Mmˆn pKq, se define su traspuesta como la matriz
At “ rbk` s en Mnˆm pKq, donde bk` “ a`k para cada k “ 1, ¨ ¨ ¨ , n y ` “ 1, ¨ ¨ ¨ , m.
Note que una matriz y su traspuesta intercambian sus ordenes: si A es de orden m ˆ n,
entonces At es de orden n ˆ m; en particular si A es una matriz cuadrada, su traspuesta
es también cuadrada y del mismo orden. Observe también que para cada i “ 1, ¨ ¨ ¨ , n las
entradas de la fila i de A coinciden con las entradas de la columna i de At ; por ello se dice
que trasponer una matriz significa intercambiar filas por columnas.

Ejemplo 1.5 » fi
1 0 ´1 fi
»
1 2 3 0
— 2 2 1 ffi
Dada la matriz A “ — ffi, sigue que At “ –
0 2 ´2 4 fl. En cuanto
— ffi —
ffi
– 3 ´2 0 fl
´1 1 0 ´5
0 4 ´5
» fi
» fi 1
” ı 2 0 1 — ´2 ffi
— ffi
que si B “ 1 ´2 0 3 4 y C “ – 0 1 ´2 fl, entonces B t “ — 0 ffi y C t “
— ffi — ffi
— ffi
1 ´2 0 – 3 fl
4
C.
Proposición 1.1
Cualquiera sea la matriz A P Mmˆn pKq se tiene:
` ˘t
1. At “ A.

2. A “ At si, y solo si, A es simétrica.


Demostración. Demostraremos solo la segunda parte del enunciado, la primera parte
queda para el lector.
Primero supongamos que la matriz A “ raij s P Mmˆn pKq es tal que A “ At . Luego es
claro que n “ m y para cada i, j “ 1, ¨ ¨ ¨ , m se tiene aij “ bij , donde bij es la entrado ij
de At . Por la definición de At sigue que bij “ aji , con lo cual la matriz A es simétrica.
Procedamos ahora a demostrar el recı́proco. Supongamos que A “ raij s P Mmˆn pKq es
una matriz simétrica; por tanto A es una matriz cuadrada (n “ m) y aij “ aji para cada
i, j “ 1, ¨ ¨ ¨ , m. Si At “ rbk` smˆm , sigue que bk` “ a`k “ ak` . De esta forma, A “ At .
Álgebra lineal: Nociones y propiedades elementales 9

1.3. Operaciones con matrices


En esta sección introduciremos tres tipos de operaciones con matrices: una adición,
una multiplicación de un escalar por una matriz y una multiplicación entre matrices.

1.3.1. Adición y multiplicación por escalares.


La adición y multiplicación por escalares que definiremos a seguir, junto a sus propie-
dades básicas, constituyen en esencia la estructura algebraica sobre la que se sustenta el
Álgebra lineal.

Definición 1.5
La adición (usual) de matrices es la operación ` : Mmˆn pKq ˆ Mmˆn pKq Ñ Mmˆn pKq
que a cada par ordenado pA, Bq P Mmˆn pKq ˆ Mmˆn pKq le asocia la matriz A ` B con
» fi
a11 ` b11 a12 ` b12 ¨¨¨ a1n ` b1n
a21 ` b21 a22 ` b22 a2n ` b2n
— ffi
— ¨¨¨ ffi
A`B “— .. .. .. .. ffi ,
. . . .
— ffi
– fl
am1 ` bm1 am2 ` bm2 ¨ ¨ ¨ amn ` bmn

siempre que
» fi » fi
a11 a12 ¨¨¨ a1n b11 b12 ¨¨¨ b1n
a21 a22 a2n b21 b22 b2n
— ffi — ffi
— ¨¨¨ ffi — ¨¨¨ ffi
A“— .. .. .. .. ffi y B “ — .. .. .. .. ffi .
. . . . . . . .
— ffi — ffi
– fl – fl
am1 am2 ¨ ¨ ¨ amn bm1 bm2 ¨ ¨ ¨ bmn

Abreviadamente, si A “ raij s, B “ rbij s P Mmˆn pKq, entonces A ` B “ rcij s P Mmˆn pKq


y para cada i “ 1, ¨ ¨ ¨ , m y j “ 1, ¨ ¨ ¨ , n se cumple cij “ aij ` bij . A la matriz A ` B se le
conoce con el nombre de suma de A más B.
La multiplicación de un escalar por una matriz es la operación (externa)

¨ : K ˆ Mmˆn pKq ÞÝÑ Mmˆn pKq

que asocia a cada par ordenado pα, Aq P K ˆ Mmˆn pKq una nueva matriz (el producto de
α por A) que denotamos por αA y es dada por
» fi » fi
αa11 αa12 ¨¨¨ αa1n a11 a12 ¨¨¨ a1n
αa21 αa22 αa2n a21 a22 a2n
— ffi — ffi
— ¨¨¨ ffi — ¨¨¨ ffi
αA “ — .. .. .. .. ffi , siempre que A “ — .. .. .. .. ffi .
. . . . . . . .
— ffi — ffi
– fl – fl
αam1 αam2 ¨ ¨ ¨ αamn am1 am2 ¨ ¨ ¨ amn

De forma abreviada, si α P K y A “ raij smˆn P Mmˆn pKq, entonces αA “ rcij smˆn donde
cij “ αaij para cada i “ 1, ¨ ¨ ¨ , m y j “ 1, ¨ ¨ ¨ , n.
10 Neptalı́ Romero

Note que las operaciones que acabamos de definir son muy simples, para sumar dos
matrices en Mmˆn pKq: ambas deben tener el mismo orden y sus coeficientes estar en K, y
la entrada ubicada en la fila i con la columna j de la matriz suma, es igual a la suma de
los correspondientes números ubicados en la misma posición dentro de las matrices que
estamos sumando. En cuanto al producto del escalar α por la matriz A, basta multiplicar
cada entrada de A por el número α.

Ejemplo 1.6
» fi » fi
1 ` i ´1 0 1´i 2 1
— 2 ´i 2 ffi — ´2 i 1 ffi
1. Dadas A “ — ffi, B “ — ffi y α “ 2, sigue claramente
— ffi — ffi
– 0 ´3 2 ´ i fl – 1 1 i fl
1 2 1 0 0 1
que
» fi » fi
p1 ` iq ` p1 ´ iq ´1 ` 2 0`1 2 1 1
— 2 ` p´2q ´i ` i 2 ` 1 ffi — 0 0 3 ffi
A`B “— ffi y
— ffi — ffi
ffi “ —
– 0`1 ´3 ` 1 2 ´ i ` i fl – 1 ´2 2 fl
1`0 2`0 1`1 1 2 2
» fi
2 ´ 2i 4 2
— ´4 2i 2 ffi
αB “ — ffi .
— ffi
– 2 2 2i fl
0 0 2

2. Si O es la matriz nula de orden m ˆ n, entonces para toda A P Mmˆn pKq se cumple


A ` O “ A. En efecto, si hacemos A “ raij smˆn , O “ roij smˆn (oij “ 0 para todo
i “ 1, ¨ ¨ ¨ , m y j “ 1, ¨ ¨ ¨ , n) y A ` O “ rcij smˆn , entonces para todos los posibles
subı́ndices i, j se tiene
cij “ aij ` oij “ aij ` 0 “ aij ,

de donde A ` O “ A.

3. Dada cualquier A “ raij smˆn P Mmˆn pKq, definimos la matriz B “ rbij smˆn por
bij “ ´aij cualesquiera sean i “ 1, ¨ ¨ ¨ , m y j “ 1, ¨ ¨ ¨ , n. En vista que

aij ` bij “ aij ` p´aij q “ 0, para todo i “ 1, ¨ ¨ ¨ , m y j “ 1, ¨ ¨ ¨ n,

se tiene A ` B “ O. Puede demostrarse que B es la única matriz en Mmˆn pKq con esta
propiedad.

4. Obviamente para toda matriz A P Mmˆn pKq valen 1A “ A y 0A “ O.

5. La suma de dos matrices también puede ser empleada para almacenar información.
Consideremos una empresa que tiene dos fábricas ubicadas en diferentes ciudades, di-
gamos C1 y C2 . En ambas fábricas se producen los mismos 3 productos: P1, P2 y P3.
El costo de producción de una unidad de cada producto en cada fábrica depende de los
costos de insumos y del pago al personal de cada fábrica. Las matrices A y B expresan
Álgebra lineal: Nociones y propiedades elementales 11

los costos de producción, en bolı́vares, de cada producto en las fábricas ubicadas en las
ciudades C1 y C2 respectivamente:

Insumos Personal Insumos Personal


» fi » fi
P1 25 300 P1 26 310
A “ P2 – 15 250 fl y B “ P2 – 20 280 fl ;
— ffi — ffi
P3 22 310 P3 19 294

por ejemplo, la fila 2 de la matriz A dice que el costo de producción de una unidad del
P2 en la fábrica de la ciudad C1 está discriminado de la siguiente forma: 15 bolı́vares
en insumos y 250 en pago al personal.
Insumo Personal
» fi
P1 51 610
De esta forma, la matriz C “ A ` B “ P2 – 35 530 fl contiene la infor-
— ffi
P3 41 604
mación global de los costos de producción de los tres productos de la empresa. Por
ejemplo, la fila 2 contiene la información global del costo de producción de una unidad
del producto P2 en ambas fábricas, discriminado en insumos y pagos al personal.

El siguiente teorema reune las propiedades básicas de las definidas operaciones de


adición y multiplicación de un escalar por una matriz.

Teorema 1.1 (Estructura Lineal de Mmˆn pKq)


Cualesquiera sean las matrices A, B y C en Mmˆn pKq y los escalares α, β P K siempre se
satisfacen las siguientes propiedades:

[A1] A ` B “ B ` A. (Conmutatividad)

[A2] pA ` Bq ` C “ A ` pB ` Cq. (Asociatividad)

[A3] Existe una única matriz O1 en Mmˆn pKq tal que para cada A P Mmˆn pKq vale
O1 ` A “ A; de hecho O1 es la matriz nula de orden m ˆ n. (Elemento neutro)

[A4] Para cada A en Mmˆn pKq existe una única matriz A1 P Mmˆn pKq tal que A`A1 “ O;
de hecho A1 “ rbij smˆn con bij “ ´aij para todo i “ 1, ¨ ¨ ¨ , m y cada j “ 1, ¨ ¨ ¨ , n.
A1 se conoce por matriz opuesta y se denota por ´A. (Elemento simétrico)

[M1] αpA ` Bq “ αA ` αB. (Distributividad)

[M2] pα ` βqA “ αA ` βA. (Distributividad)

[M3] pαβqA “ αpβ Aq “ βpα Aq.

[M4] 1 A “ A.
12 Neptalı́ Romero

Demostración. Mostraremos solo [A2] y [A4], el resto se deja al lector.


[A2] Si A “ raij s, B “ rbij s y C “ rcij s son matrices en Mmˆn pKq, entonces:

pA ` Bq ` C “ praij s ` rbij sq ` rcij s “ raij ` bij s ` rcij s


“ rpaij ` bij q ` cij s
“ raij ` pbij ` cij qs (¿por qué?)
“ raij s ` rbij ` cij s “ A ` pB ` Cq.

[A4] Ya fue mostrado (ver item 3 en el Ejemplo 1.6) que para toda matriz A “ raij smˆn , la
matriz B “ rbij smˆn con bij “ ´aij para todo i “ 1, ¨ ¨ ¨ , m y j “ 1, ¨ ¨ ¨ , n, hace que A ` B
sea la matriz nula. Veamos ahora que esta es la única con esa propiedad. Supongamos que
C “ rcij smˆn es tal que A ` C “ O; es decir, para cada i “ 1, ¨ ¨ ¨ , m y j “ 1, ¨ ¨ ¨ , n se
satisface aij ` cij “ 0. Dado que tanto aij como cij son números en K y aij ` cij “ 0
si, y solo si, cij “ ´aij para cada i “ 1, ¨ ¨ ¨ , m y j “ 1, ¨ ¨ ¨ , n, se tiene la unicidad de la
matriz que sumada a A da como resultado la matriz nula. En adelante a esta matriz la
denotaremos por ´A.

Observación 1.1
Las propiedades de distributividad [M1] y [M2] pueden extenderse a cualquier número
finito de escalares y matrices, más precisamente: cualquiera sea el entero k ě 2, para
todos los escalares α1 , ¨ ¨ ¨ , αk P K y matrices A1 , ¨ ¨ ¨ , Ak en Mmˆn pKq se cumplen:
˜ ¸
ÿk ÿk
1. αpA1 ` ¨ ¨ ¨ ` Ak q “ αA1 ` ¨ ¨ ¨ ` αAk ; abreviadamente se escribe α Ai “ αAi .
i“1 i“1
˜ ¸
k
ÿ k
ÿ
2. pα1 ` ¨ ¨ ¨ ` αk qA “ α1 A ` ¨ ¨ ¨ ` αk A; abreviadamente αi A“ αi A.
i“1 i“1

Ambas extensiones se obtienen por razonamientos inductivos sobre el entero k; mos-


traremos únicamente la primera, la otra otra es completamente análoga.
Justamente [M1] establece la veracidad de la primera propiedad cuando k “ 2. Su-
pongamos por tanto que esta propiedad vale para todos los valores enteros de k entre 2
y `; mostraremos que continúa siendo válida para k “ ` ` 1. Tomemos ` ` 1 matrices
cualesquiera de orden m ˆ n en K, digamos A1 , ¨ ¨ ¨ , A``1 , y sea α cualquier escalar en K.
Luego es claro que
˜ ¸
``1
ÿ
α Ai “ αpA1 ` ¨ ¨ ¨ ` A``1 q “ αprA1 ` ¨ ¨ ¨ ` A` s ` A``1 q (¿por qué?)
i“1
“ αpA1 ` ¨ ¨ ¨ ` A` q ` αA``1 “ αA1 ` ¨ ¨ ¨ ` αA` ` αA``1 (¿por qué?)
``1
ÿ
“ αAi ,
i“1

con lo cual queda demostrado la propiedad.

Proposición 1.2 (Propiedades adicionales)


Cualesquiera sean las matrices A, B, C en Mmˆn pKq siempre se cumplen:
Álgebra lineal: Nociones y propiedades elementales 13

1. A ` B “ A ` C, entonces B “ C pLey de Cancelaciónq.

2. α A “ O si, y solo si, α “ 0 o A es la matriz nula.

3. Si A1 es la matriz opuesta de A P Mmˆn pKq, entonces A1 “ p´1qA.

4. pA ` Bqt “ At ` B t y pα Aqt “ α At , para todo α P K.

Demostración. Mostraremos 2. y 4., el resto queda para el lector.


2. Dados α P K y A “ raij smˆn P Mmˆn pKq tenemos

αA “ O ðñ rαaij smˆn “ roij smˆn , donde oij “ 0 para todo i “ 1, ¨ ¨ ¨ m y j “ 1, ¨ ¨ ¨ , n


ðñ α aij “ 0, para todo i “ 1, ¨ ¨ ¨ m y cada j “ 1, ¨ ¨ ¨ , n
ðñ α “ 0 o aij “ 0 para todo i “ 1, ¨ ¨ ¨ m y cada j “ 1, ¨ ¨ ¨ , n. (¿por qué?)

Esto claramente demuestra la propiedad.


4. Sean A “ raij s y b “ rbij s matrices en Mmˆn pKq. Por definición At ` B t “ rck` s está en
Mnˆm pKq y ck` “ a`k ` b`k para todo k “ 1, ¨ ¨ ¨ , n y ` “ 1, ¨ ¨ ¨ , m. Ahora bien, dado que
para cada k “ 1, ¨ ¨ ¨ , n y todo ` “ 1, ¨ ¨ ¨ , m, los números a`k y b`k son las entradas k` de
las matrices traspuestas At y B t , sigue que pA ` Bqt “ At ` B t .

Como un añadido a lo discutido en el Teorema 1.1, la Observación 1.1 y la Proposición


1.2, para todo entero k ě 2, escalares α1 , ¨ ¨ ¨ , αk P K y matrices A1 , ¨ ¨ ¨ , Ak P Mmˆn pKq,
no importa el orden en la realización de la suma de las k matrices α1 A1 , ¨ ¨ ¨ , αk Ak , el
resultado es el mismo; lo denotamos por α1 A1 ` ¨ ¨ ¨ ` αk Ak ; abreviadamente esta suma se
ÿ k
escribe como αi Ai . Ello conduce a un concepto fundamental del Álgebra lineal:
i“1

Definición 1.6
Dado un número finito de matrices del mismo orden: A1 , A2 , ¨ ¨ ¨ , A` en Mmˆn pKq, de-
cimos que A P Mmˆn pKq es combinación lineal de A1 , A2 , ¨ ¨ ¨ , A` , si existen escalares
k
ÿ
α1 , α2 , ¨ ¨ ¨ , α` en K tales que A “ α i Ai .
i“1
Al conjunto de todas las combinaciones lineales de las matrices A1 , A2 , ¨ ¨ ¨ , A` en
Mmˆn pKq lo denotamos por CLpA1 , A2 , ¨ ¨ ¨ , A` q; esto es,

k
ÿ
A P CLpA1 , A2 , ¨ ¨ ¨ , A` q ðñ D α1 , ¨ ¨ ¨ , α` P K tales que A “ αi Ai . (1.2)
i“1

Ejemplo 1.7
Las afirmaciones a continuación son simples de verificar.

1. La matriz nula de orden m ˆ n es combinación lineal de cualquier número finito de


matrices A1 , ¨ ¨ ¨ , A` en Mmˆn pKq. Esto sigue del hecho que Omˆn “ 0A1 ` ¨ ¨ ¨ ` 0Ak ;
recuerde que 0A “ Omˆn . Note también que tA1 , A2 , ¨ ¨ ¨ , A` u Ă CLpA1 , A2 , ¨ ¨ ¨ , A` q.
14 Neptalı́ Romero
« ff « ff
2 ´1 2 2 1 0 2 1
2. La matriz A “ es combinación lineal de A1 “ y
5 0 6 ´1 3 1 4 0
« ff
0 1 2 0
A2 “ , basta chequear que A “ 2A1 ` p´1qA2 .
1 2 2 1
« ff
a b
3. Cualquier matriz A “ es combinación lineal de las matrices canónicas de orden
c d
« ff « ff « ff « ff
1 0 0 1 0 0 0 0
2 ˆ 2: E11 “ , E12 “ , E21 “ y E22 “ , de hecho
0 0 0 0 1 0 0 1

A “ aE11 ` bE12 ` cE21 ` dE22 .

Esta propiedad se generaliza muy fácilmente: cualquier matriz A “ raij smˆn en Mmˆn pKq
es combinación lineal de las matrices canónicas Ek` en Mmˆn pKq. Recuerde que Ek` P
Mmˆn pKq es la matriz de orden m ˆ n que tiene en la entrada k` al dı́gito 1, y las res-
m ÿ
ÿ n
tantes entradas son todas iguales a 0. Luego es simple verificar que A “ ak` Ek` ;
k“1 `“1
ası́ que CLpE11 , E12 , ¨ ¨ ¨ , Emn q “ Mmˆn pKq.

Comentario 1.2
El problema de decidir si una matriz es combinación lineal de un conjunto finito de ma-
trices equivale a resolver simultáneamente un determinado número finito de cierto tipo de
ecuaciones; estas ecuaciones (llamadas lineales) serán discutidas en el próximo capı́tulo.

1.3.2. Identificando Kn , M1ˆn pKq y Mnˆ1 pKq


Tanto en Matemática como en otras ciencias es común el empleo de productos carte-
sianos. Recordamos que dados dos conjuntos no vacı́os A y B, el producto cartesiano de
A por B se define como un nuevo conjunto que es denotado como A ˆ B (se lee “A por
B”) y cuyos elementos son pares ordenados, que son objetos matemáticos representados
generalmente por pa, bq, donde a es cualquier elemento de A y b es cualquier elemento del
conjunto B. Ası́ pues, el producto cartesiano de A por B es

A ˆ B “ tpa, bq : a P A y b P Bu.

Dado cualquier par ordenado pa, bq, al elemento a se le conoce con el nombre de primera
componente, mientras que b es la segunda componente de ese par.
La noción de producto cartesiano de dos conjuntos no vacı́os se extiende muy fácilmente
a cualquier cantidad finita de conjuntos no vacı́os. Supongamos que A1 , A2 , ¨ ¨ ¨ , An son
n conjuntos no vacı́os cualesquiera, el producto cartesiano A1 ˆ A2 ˆ ¨ ¨ ¨ ˆ An se define
como el conjunto formado por todas las n-tuplas pa1 , a2 , ¨ ¨ ¨ , an q, donde ai P Ai para cada
i “ 1, 2, ¨ ¨ ¨ , n. En realidad, una n-tupla es una secuencia (o lista) ordenada cualquiera de
n objetos; es el caso de los elementos de A1 ˆA2 ˆ¨ ¨ ¨ˆAn , solo que una tal lista o secuencia
obedece a la condición de que el primer elemento de la lista pertenece al conjunto A1 , el
segundo elemento de la lista es de A2 y ası́ sucesivamente hasta llegar al n-ésimo objeto de
Álgebra lineal: Nociones y propiedades elementales 15

la lista que es un elemento del conjunto An . Cuando todos los conjuntos A1 , A2 , ¨ ¨ ¨ , An


son iguales a un cierto conjunto A, en lugar de A1 ˆ A2 ˆ ¨ ¨ ¨ ˆ An se escribe An . En el
caso particular de A1 “ A2 “ ¨ ¨ ¨ “ An “ K, a las n-tuplas pa1 , a2 , ¨ ¨ ¨ , an q de Kn se les
llama puntos y Kn “ tpa1 , a2 , ¨ ¨ ¨ , an q : ai P K, para todo i “ 1, 2, ¨ ¨ ¨ , nu.
Consideremos ahora los conjuntos M1ˆn pKq y Mnˆ1 pKq, sus elementos (matrices unifila
y columna respectivamente) son de hecho secuencia » ordenada
fi de números en K, solo que se
a1
ı —— a2 ffi
” ffi
les ha asignado la notación a1 a2 ¨ ¨ ¨ an y — . ffi —
ffi. Por tanto los objetos del producto
– .. fl
an
n
cartesiano K y de los conjuntos de matrices M1ˆn pKq y Mnˆ1 pKq son intrı́nsecamente
los mismos, y en consecuencia podemos adoptar en Kn el análogo a las operaciones de
adición y multiplicación por escalares expuestas en la Definición 1.1 (sumar componente
a componente, y multiplicar cada componente por un mismo escalar). De esta forma el
conjunto Kn de puntos con componentes (o coordenadas) en K también tiene estructura
lineal; es decir, este conjunto junto a las operaciones de adición y multiplicación por
escalares se verifican cada una de las propiedades descritas en el Teorema 1.1; esto es,
para todo A, B, C P Kn y cada α, β P K valen:

[A1] A ` B “ B ` A. (Conmutatividad)

[A2] pA ` Bq ` C “ A ` pB ` Cq. (Asociatividad)

[A3] El punto O “ p0, 0, ¨ ¨ ¨ , 0q es el único tal que A`O “ A para cada A P Kn (Existencia
y unicidad de elemento neutro)

[A4] Para cada A “ pa1 , a2 , ¨ ¨ ¨ , an q P Kn , ´A “ p´a1 , ´a2 , ¨ ¨ ¨ , ´an q es el único punto


de Kn tal que A ` p´Aq “ O (Existencia y unicidad de elemento simétrico)

[M1] αpA ` Bq “ αA ` αB. (Distributividad)

[M2] pα ` βqA “ αA ` βA. (Distributividad)

[M3] pαβqA “ αpβ Aq “ βpα Aq.

[M4] 1 A “ A.

1.3.3. Multiplicación de matrices


Pasaremos ahora a introducir una operación que no necesariamente está definida para
cualquier par de matrices con entradas en K. Comenzemos considerando
” dos matrices,
ı
ambas con entradas en K: una de ellas es una matriz unifila A “ a1 a2 ¨ ¨ ¨ ap y la
» fi
b1
— b ffi
— 2 ffi
otra es unicolumna, digamos B “ — ffi. Se define el producto de A por B (en ese orden),
–¨ ¨ ¨fl
bp
16 Neptalı́ Romero

lo que denotamos como AB, a la matriz de orden 1 ˆ 1 cuya única entrada es


p
ÿ
a1 b1 ` a2 b2 ` ¨ ¨ ¨ ` ap bp “ aj bj ; (1.3)
j“1

p
ÿ
esto es, AB “ rcs1ˆ1 , donde c “ aj bj . Claramente esta matriz de orden 1 ˆ 1 se
j“1
identifica con el escalar c P K; de manera que podemos pensar en AB como un escalar,
siempre que A P M1ˆp pKq y B P Mpˆ1 pKq cualquiera sea el entero positivo n.

Definición 1.7
Dadas dos matrices A “ raik s P Mmˆp pKq y B “ rbkj s P Mpˆn pKq. Si Ap1q , ¨ ¨ ¨ , Apmq son
las filas de A y B p1q , ¨ ¨ ¨ , B pnq son las columnas de B, se define la matriz producto de A
por B como la matriz AB “ rcij s P Mmˆn pKq tal que, para cada i “ 1, ¨ ¨ ¨ , m y todo
j “ 1, ¨ ¨ ¨ , n el coeficiente cij es dado por
p
ÿ
pjq
cij “ Apiq B “ ai1 b1j ` ai2 b2j ` ¨ ¨ ¨ ` aip bpj “ aik bkj . (1.4)
k“1

Esquemáticamente
fi » fi
..
»
b1j
» .. fi
. .
— ffi — b2j
ffi
ffi — ffi —
cij
ffi
AB “ rcij smˆn “ — ai1 ai2 ¨ ¨ ¨ aip ffi “ –¨ ¨ ¨ ¨ ¨ ¨ffi

ffi — ¨¨¨ ¨ ¨ ¨ffi —
– fl — ¨¨¨ ..
fl
.. – fl
. bpj .

Comentario 1.3
Es importante hacer notar que el producto de una matriz A por una matriz B no siempre
está definio; la matriz producto AB está definida si, y solo si, el número de columnas de A
es igual al número de filas de B; la matriz resulta AB tiene el mismo número de filas de A
y el mismo número de columnas de B. En particular matrices cuadradas del mismo orden
siempre se pueden multiplicar, y su producto es igualmente una matriz cuadrada de ese
orden. Como se observa en la definición, cada fila de A es multiplicada (en el sentido de
(1.3)) por cada columna de B, de manera que la entrada ij de AB es el escalar Apiq B pjq .

Ejemplo 1.8
Mostraremos a continuación algunos cálculos elementales de producto de matrices.
» fi
´1 0 « ff
2 1 0 ´2
1. Consideremos las matrices A “ – 2 1 fl y B “ . Dado que A
— ffi
3 0 ´1 ´1
´3 1
es de orden 3 ˆ 2 y B de orden 2 ˆ 4, tiene sentido el producto AB, pero no BA.
Procedamos a calcular »la matriz producto fiAB. Observe que la matriz AB es de orden
c11 c12 c13 c14
3 ˆ 4: de hecho AB “ –c21 c22 c23 c24 fl, donde cij “ Apiq B pjq para todo i “ 1, 2, 3
— ffi
c31 c32 c33 c34
Álgebra lineal: Nociones y propiedades elementales 17

y j “ 1, 2, 3, 4. Ası́
» fi
´1 0 « ff
ffi 2 1 0 ´2
AB “ – 2 1 fl

3 0 ´1 ´1
´3 1
» fi
p´1q2 ` 0 ¨ 3 p´1q1 ` 0 ¨ 0 p´1q0 ` 0p´1q p´1qp´2q ` 0p´1q
“ – 2¨2`1¨3 2¨1`1¨0 2 ¨ 0 ` 1p´1q 2p´2q ` 1p´1q fl
— ffi
p´3q2 ` 1 ¨ 3 p´3q1 ` 1 ¨ 0 p´3q0 ` 1p´1q p´3qp´2q ` 1p´1q
» fi
´2 ´1 0 2
“ – 7 2 ´1 ´5 fl .
— ffi
´3 ´3 ´1 5
« ff « ff
i 1´i 1 0
2. Ahora consideremos las matrices A “ yB “ . Dado que
2 0 2 ` i ´1
ambas son matrices cuadradas del mismo orden, tienen sentido las matrices AA, AB, BA
y BB; calculemos AB y BA
« ff « ff « ff
i 1´i 1 0 i ¨ 1 ` p1 ´ iqp2 ` iq i ¨ 0 ` p1 ´ iqp´1q
AB “ “
2 0 2 ` i ´1 2 ¨ 1 ` 0p2 ` iq 2 ¨ 0 ` 0p´1q
« ff
3 ´1 ` i
“ ,
2 0

« ff « ff « ff
1 0 i 1´i 1¨i`0¨2 1p1 ´ iq ` 0 ¨ 0
BA “ “
2 ` i ´1 2 0 p2 ` iqi ` p´1q2 p2 ` iqp1 ´ iq
« ff
i 1´i
“ .
´3 ` 2i 3 ´ i

Claramente AB ‰ BA, ello permite afirmar que la multiplicación de matrices, mismo


que estén definidas AB y BA, no es una operación conmutativa.
» fi
a11 a12 ¨ ¨ ¨ a1n
— a21 a22 ¨ ¨ ¨ a2n ffi
— ffi
3. Consideremos cualquier matriz A P Mmˆn pKq, digamos A “ — . — .. .. ffi.
.. ffi
– .
. . . . fl
am1 am2 ¨ ¨ ¨ amn
Dado que
» fi » fi
a1j 0
— a2j ffi
ı— —0ffi
” ffi ” ı — ffi
0 0 ¨¨¨ 0 — — .. ffi “ 0 y ai1 ai2 ¨ ¨ ¨ aim — .. ffi “ 0,
ffi — ffi
– . fl – . fl
amj 0

se deduce que si Opˆm y Onˆ` son las matrices nulas de orden p ˆ m y n ˆ `, entonces

Opˆm A “ Opˆn y AOnˆ` “ Omˆ` , (1.5)


18 Neptalı́ Romero

esto es, al multiplicar la matriz nula (por la izquierda o la derecha) por cualquier matriz
(siempre que tenga sentido hacer esta multiplicación) el resultado es una matriz nula.

4. Fijemos dos enteros cualesquiera m, n ě 1. Para cada 1 ď i ď m y cada 1 ď j ď n


definimos las matrices Ei y Fj ası́: Ei es unifila con m columnas, sus entradas son
iguales a 0 excepto la entrada i-ésima que es 1; mientras que Fj es unicolumna con
n filas tal que su entrada j-ésima que es igual a 1 y las restantes entradas son nulas.
Luego para cualquier matriz A “ raij s P Mmˆn pKq se tiene
» fi
a11 a12 ¨¨¨ a1n
— a21
ı— a22 a2n ffi ”
ffi
” ¨¨¨ ı
Ei A “ 0 ¨ ¨ ¨ 0 1 0 ¨ ¨ ¨ 0 —
— .. .. .. .. ffi
ffi “ ai1 a i2 ¨ ¨ ¨ a in ;
– . . . . fl
am1 am2 ¨ ¨ ¨ amn
(1.6)
» fi
0
fi —— ... ffi »
» ffi fi
a11 a12 ¨ ¨ ¨ a1n — ffi a 1j
ffi —0ffi
— a21 a22 ¨ ¨ ¨ a2n ffi — ffi — a2j ffi

— ffi — ffi
A Fj “ —
— .. .. .. .. ffi —
ffi 1ffi “ — . ffi . (1.7)
– . . . . fl —0ffi – . fl
— ffi — . ffi
am1 am2 ¨ ¨ ¨ amn — — .. ffi
ffi amj
– . fl
0
Claramente de (1.6) y (1.7) se deduce de forma inmediata que: si Im e In son las
matrices identidades de orden m y n respectivamente, entonces Im A “ A y A In “ A.
En particular, para toda matriz cuadrada de orden m vale AIm “ Im A “ A.

Ejemplo 1.9
Al igual que la matriz suma, la matriz producto permite almacenar e interpretar cierta in-
formación. Supongamos que un determinado conglomerado de personas, adultos y jóvenes,
es clasificado por sexo y esos datos se almacenan en el arreglo

« Jóvenes Adultos ff
Masculino 220 98
A“ .
Femenino 234 105

Por otra parte, los datos sobre el consumo promedio (en kilogramos) de carnes, vege-
tales y frutas en un perı́odo de tiempo T de cada joven y adulto se exponen en la matriz
« Carnes Vegetales Frutas ff
Jóvenes 4 3 6
B“ . Luego la matriz producto
Adultos 3 6 8

« Carnes Vegetales Frutas ff


Masculino 1174 1248 2104
AB “
Femenino 1251 1332 2244
Álgebra lineal: Nociones y propiedades elementales 19

ofrece la información de la cantidad de kilogramos de alimentos (carnes, vegetales y frutas)


que consume la población masculina y femenina de dicho conglomerado en el perı́odo de
tiempo T . Por ejemplo, el valor 1248 de la fila 1 y segunda columna dice que la población
masculina consume 1248 kilogramos de vegetales en el tiempo T .

Teorema 1.2
La multiplicación de matrices tiene las siguientes propiedades:

1. Para toda A P Mmˆn pKq valen

a) AOnˆ` “ Omˆ` y Opˆm A “ Opˆn , donde Okˆs denota la matriz nula de orden k ˆs,
cualesquiera sean los enteros positivos k y s.
b) Im A “ A y AIn “ A, siendo que Ik es la matriz identidad de orden k ˆ k para todo
entero positivo k.

2. pABqC “ ApBCq, cualesquiera sean las matrices A P Mmˆn pKq, B P Mnˆp pKq y
C P Mpˆ` pKq (Asociatividad)

3. ApB ` Cq “ AB ` AC para toda A P Mmˆn pKq y B, C P Mnˆp pKq (Distributividad)

4. pA ` BqC “ AC ` BC, si A, B P Mmˆn pKq y C P Mnˆp pKq (Distributividad)

5. αpABq “ pαAqB “ ApαBq para todo α P K, A P Mmˆn pKq y B P Mnˆp pKq.

6. pABqt “ B t At siempre que A P Mmˆn pKq y B P Mnˆp pKq.

Demostración. Las propiedades enunciadas en 1. fueron discutidas anteriormente, ahora


mostraremos la segunda y sexta de las propiedades, las restantes quedan como ejercicio
para el lector.
2. Sean A “ raij smˆn , B “ rbij snˆp y C “ rcij spˆ` , todas con coeficientes en K. Dado que el
número de columnas de A y de filas de B son iguales tiene sentido la matriz producto AB,
la cual es de orden m ˆ p. De igual forma tienen sentido las matrices BC, que es de orden
n ˆ `; por tanto tienen sentido las matrices producto: pABqC y ApBCq ambas de orden
m ˆ `. Hagamos AB “ rdij smˆp , BC “ reij snˆ` , pABqC “ rfij smˆ` y ApBCq “ rgij smˆ` .
Debemos mostrar que para todo i “ 1, ¨ ¨ ¨ , m y cada j “ 1, ¨ ¨ ¨ , ` vale fij “ gij . En efecto,
de la definición de multiplicación de matrices:
p
ÿ n
ÿ n
ÿ p
ÿ
fij “ dik ckj y gij “ ais esj , donde dik “ ais bsk y esj “ bsk ckj ,
k“1 s“1 s“1 k“1

de esta forma:
p
˜ ¸ p
˜ ¸ ˜ p
¸
ÿ n
ÿ ÿ n
ÿ n
ÿ ÿ
fij “ ais bsk ckj “ ais bsk ckj “ ais bsk ckj
k“1 s“1 k“1 s“1 s“1 k“1
˜ p
¸
ÿn ÿ ÿn
“ ais bsk ckj “ ais esj “ gij ;
s“1 k“1 s“1

con lo cual pABqC “ ApBCq.


20 Neptalı́ Romero

6. Sean A “ raij smˆn y B “ rbij snˆp ; luego es claro que At “ reij snˆm y B t “ rfij spˆn ,
donde eij “ aji para todo i “ 1, ¨ ¨ ¨ , n y j “ 1, ¨ ¨ ¨ , m; y fij “ aji para todo i “ 1, ¨ ¨ ¨ , p
y j “ 1, ¨ ¨ ¨ , n. Observe que tienen sentido las matrices matrices producto AB y B t At . Si
AB “ rcij smˆp y B t At “ rdij spˆm , entonces para cada i “ 1, ¨ ¨ ¨ , m y j “ 1, ¨ ¨ ¨ , p:
n
ÿ n
ÿ
cij “ aik bkj y dij “ fik ekj .
k“1 k“1

Dado que al hacer pABqt “ rhij spˆm , se tiene hij “ cji para todo i “ 1, ¨ ¨ ¨ , p y j “
1, ¨ ¨ ¨ , m. Por tanto para demostrar la propiedad 6 es suficiente verificar que hij “ dij
para todo i “ 1, ¨ ¨ ¨ , m y j “ 1, ¨ ¨ ¨ , p. En efecto:
n
ÿ n
ÿ n
ÿ
hij “ cji “ ajk bki “ ekj fik “ fik ekj “ dij ;
k“1 k“1 k“1

de esta manera pABqt “ B t At .

Comentario 1.4
De la Definición 1.7 es claro que la multiplicación de dos matrices cualesquiera, digamos
A y B, tiene sentido solo si el número de columnas de A y el número de filas de B de-
ben coincidir para ası́ obtener la matriz producto AB. En particular, para tengan sentido
simultáneamente las matrices AB y BA, ambas deben tener el mismo número de filas y
de columnas; esto es, que ambas sean matrices cuadradas del mismo orden. Consecuente-
mente, para cualquier matriz A P Mm pKq, siempre tienen sentido las matrices productos
A2 “ AA, A3 “ AAA, y en general, para cada entero positivo n ě 1 tiene sentido la po-
tencia An “ lAAjh ¨¨¨A
n. Note que para todo entero n ě 1 vale (recursivamente) la fórmula
n veces
An “ AAn´1 ; por conveniencia se adopta A0 “ Im . Por supuesto, y en particular, cuales-
quiera sean las matrices cuadradas del mismo orden, tienen sentido expresiones algebraicas
como pA ` Bq2 , A3 ` A B 2 , etc.

1.4. Matrices invertibles


La noción de invertibilidad2 de matrices está reservada a matrices cuadradas y su
correspondiente operación de multiplicación de matrices.

Definición 1.8
Dada A P Mm pKq, se dice que esta matriz es invertible (o no singular ) si existe una matriz
B P Mm pKq tal que AB “ BA “ Im .

Ejemplo 1.10
a) La matriz identidad Im de orden m ˆ m para cualquier m ě 1 es invertible, pues
Im Im “ Im , ver item 4 del Ejemplo 1.8.
2
Resulta necesario comentar que la palabra invertibilidad no aparece registrada en el Diccionario de la
lengua española de la Asociación de Academias de la lengua española, sin embargo es común su uso en la
literatura matemática
Álgebra lineal: Nociones y propiedades elementales 21

b) La matriz nula Om de orden m es no invertible (o singular) pues para cualquiera matriz


B P Mm pKq se tiene Om B “ BOm “ Om .
Por otra parte,«no toda
ff matriz diferente de la matriz nula es invertible. Por ejemplo
1 2
la matriz A “ es no invertible; de lo contrario existirı́a una matriz cuadrada
0 0
« ff
a b
B“ de orden 2 tal que AB “ I2 . Sin embargo
c d
« ff « ff « ff « ff
1 2 a b 1¨a`2¨c 1¨b`2¨d a ` 2c b ` 2d
AB “ “ “ ,
0 0 c d 0¨a`0¨c 0¨b`0¨d 0 0
« ff
1 0
por tanto es imposible que exista una matriz cuadrada B tal que AB “ .
0 1
« ff « ff
1 1 2 ´1
c) La matriz A “ es invertible pues para B “ se verifica al realizar
1 2 ´1 1
« ff
1 0
las operaciones AB y BA que AB “ BA “ .
0 1

Destacamos que el problema de decidir si una matriz dada es invertible conlleva al co-
nocimiento de algunas herramientas básicas del álgebra lineal que serán tratadas adelante.

Teorema 1.3
Los siguientes enunciados son verdaderos.

1. Si A P Mm pKq es invertible, entonces

a) existe una única matriz B P Mm pKq tal que AB “ BA “ Im . Esa matriz se conoce
por matriz inversa de A y se denota por A´1 .
b) la matriz A´1 también es invertible y pA´1 q´1 “ A.

2. Si para A P Mm pKq existe P P Mm pKq tal que AP “ Im , entonces P A “ Im y ası́ A es


invertible con A´1 “ P .

3. A P Mm pKq es invertible si, y solo si, para cada Y P Mmˆ1 pKq existe una única
X P Mmˆ1 pKq tal que AX “ Y .

4. Si A P Mm pKq y B P Mm pKq son invertibles, entonces el producto AB también lo es y


pABq´1 “ B ´1 A´1 .

Demostración.
1. Supongamos que A es invertible y que existen dos matrices P, Q P Mmˆm pKq sa-
tisfaciendo que P A “ AP “ Im “ QA “ AQ. Luego, usando estas identidades sigue
inmediatamente:
P “ P Im “ P pA Qq “ pP AqQ “ Im Q “ Q.
La parte b) es obvia pues AA´1 “ Im “ A´1 A.
22 Neptalı́ Romero

2. Hagamos A “ raij s, P “ rpij s, para mostrar que P A “ Im es suficiente con verificar


que
ÿm
aik pkj “ δij para todo i, j “ 1, 2, ¨ ¨ ¨ , m, (1.8)
k“1

donde δij es el delta de Kronecker (ver pág. 4).


Dado que AP “ Im implica P t At “ Im , al hacer At “ rr
aij s, P t “ rr
pij s, se tiene
m
ÿ
prjk r
aki “ δji , cualesquiera sean i, j “ 1, 2, ¨ ¨ ¨ , m.
k“1

Ahora bien, como raki “ aik y prjk “ pkj de la igual anterior sigue (1.8) pues δij “ δji , con
lo cual P A “ Im y por tanto A es invertible con A´1 “ P .
3. Supongamos que A es invertible. Tomemos cualquier Y P Mmˆ1 pKq y consideremos la
matriz unicolumna X “ A´1 Y . Sigue por tanto que

AX “ ApA´1 Y q “ pAA´1 qY “ Im Y “ Y.

Además este valor de X es único pues la expresión AX “ Y implica (al multiplicar a la


izquierda por A´1 ) que X “ A´1 Y .
Supongamos ahora que para cada Y P Mmˆ1 pKq existe una única X P Mmˆ1 pKq tal
que AX “ Y . Para cada j “ 1, 2, ¨ ¨ ¨ , m sea Fj la matriz unicolumna mˆ1 como en el item
4 del Ejemplo 1.8; note que la matriz cuyas columnas son F1 , F2 , ¨ ¨ ¨ , Fm es exactamente
la identidad de orden m. Para cada j “ 1, 2, ¨ ¨ ¨ , m sea Xj la única matriz de orden
m ˆ 1 tal que AXj “ Fj , considere la matriz cuadrada P de orden m cuyas columnas son
X1 , X2 , ¨ ¨ ¨ , Xm . De lo anterior se tiene claramente que AP “ Im ; por tanto de la parte 2
arriba sigue la invertibilidad de A y que A´1 “ P .
4. Sean A, B P Mm pKq invertibles y A´1 , B ´1 sus respectivas inversas. Mostrar que AB es
invertible significa (por la parte 3 de arriba) encontrar C en Mm pKq tal que pABqC “ Im ;
en tal caso C es la inversa de AB; es decir, C “ pABq´1 . Tomemos C “ B ´1 A´1 , y
veamos que tal matriz satisface lo requerido. En efecto:

pABqC “ pABqpB ´1 A´1 q “ ApBB ´1 qA´1 “ AIm A´1 “ AA´1 “ Im .

Por tanto, AB es invertible y pABq´1 “ B ´1 A´1 .

Comentario 1.5
La propiedad establecida en el enunciado 3 del anterior teorema también es válida a,
intercambiar el orden en la multiplicación de las matrices A y P ; esto es, si para A en
Mm pKq existe P P Mm pKq tal que P A “ Im , entonces AP “ Im y ası́ A es invertible con
A´1 “ P ; la demostración es idéntica.
Por definición, para que una matriz cuadrada A P Mm pKq sea invertible se requiere
que exista B P Mm pKq tal que AB “ BA “ Im . En virtud de lo discutido, la noción de
invertibilidad puede expresarse más débilmente diciendo que una matriz A P Mm pKq si
existe B P Mm pKq tal que AB “ Im , o bien BA “ Im .
Álgebra lineal: Nociones y propiedades elementales 23

1.5. Operaciones elementales por filas


Las operaciones que a continuación definiremos constituyen un instrumento muy útil
para efectuar una amplia variedad de cálculos en el álgebra kineal; por ejemplo, el uso de
las operaciones elementales por filas permitirá decidir, de manera muy simple, cuándo una
matriz cuadrada dada es o no invertible; además, en el caso de serlo ofecerá una técnica
de obtención de su inversa; también servirán para abordar la resolución de sistemas de
ecuaciones lineales.

1.5.1. Definición, ejemplos y propiedades generales


Definición 1.9
Una operación elemental por filas(oef abreviadamente) es cualquier correspondencia de
Mmˆn pKq en sı́ mismo que asocia a cada A P Mmˆn pKq una matriz en Mmˆn pKq de
alguno de los siguientes tipos:

‚ Tipo I: multiplicación de una fila de A por un escalar α P Kzt0u. La notación fi ÝÑ α fi


significa que la fila i se multiplica por el escalar no nulo α.

‚ Tipo II: sustitución de una fila de A por la suma de dicha fila y un múltiplo no nulo
de otra de las filas de A. La nomenclatura fi ÝÑ fi ` α fj dice que la fila i se sustituye
por la suma de la fila i y α veces la fila j, con α diferente de 0.

‚ Tipo III: transposición de dos de las filas de la matriz A. Esta operación elemental
denotada por fi ÐÑ fj , indica que las filas i y j de la matriz se intercambian.

Ejemplo 1.11 « ff
2 1 0
1. El resultado de aplicar la operación f1 ÝÑ 2 f1 sobre la matriz es la matriz
0 3 1
« ff « ff « ff
4 2 0 2 1 0 f1 ÝÑ2f1 4 2 0
; simbólicamente: ÝÝÝÝÝÑ .
0 3 1 0 3 1 0 3 1
» fi » fi » fi
2 1 0 2 1 0 2 1 0
ffi f2 ÝÑf2 `2f3 —
2. –0 3 1fl ÝÝÝÝÝÝÝÝÑ –0 3 5fl indica que la fila 2 de la matriz –0 3 1fl se ha
— ffi — ffi
0 0 2 0 0 2 0 0 2
sustituido por la suma de esa fila y dos veces la tercera.
» fi » fi
2 1 0 2 1 0
3. Al aplicar la operación elemental f2 ÐÑ f3 a –0 3 1fl se obtiene –0 0 2fl. Esto
— ffi — ffi
0 0 2 0 3 1
» fi » fi
2 1 0 2 1 0
ffi f2 ÐÑf3 —
se denota por –0 3 1fl ÝÝÝÝÝÑ –0 0 2fl.
— ffi
0 0 2 0 3 1

Teorema 1.4
Dada una operación elemental por filas e : Mmˆn pKq Ñ Mmˆn pKq, existe otra oef del
mismo tipo, e1 : Mmˆn pKq Ñ Mmˆn pKq, tal que para toda matriz A P Mmˆn pKq se tiene
24 Neptalı́ Romero

e1 pepAqq “ A y epe1 pAqq “ A. Es decir, las oef son aplicaciones invertibles y sus inversas
son también oef, y además del mismo tipo.
Demostración. Supongamos que e : Mmˆn pKq Ñ Mmˆn pKq es una oef del Tipo I, es
decir: fi ÝÑ α fi para algún i “ 1, 2, ¨ ¨ ¨ , m y algún α P Kzt0u. En otras palabras,
para cada matriz A de Mmˆn pKq la matriz epAq se obtiene de A sustituendo su fila
i por el producto de ella con el escalar α; esto es, si las filas de epAq se denotan por
epAqp1q , epAqp2q , ¨ ¨ ¨ , epAqpmq , entonces epAqpiq “ αApiq y epAqpkq “ Apkq si k ‰ i.
Sea e1 la oef dada por fi ÝÑ α´1 fi ; es decir, e1 pAqpiq “ α´1 Apiq y e1 pAqpkq “ Apkq si
k ‰ i. De esta manera se tiene:
(a) epe1 pAqqpiq “ αe1 pAqpiq “ αpα´1 Apiq q “ Apiq

(b) para k ‰ i, epe1 pAqqpkq “ e1 pAqpkq “ Apkq ;


por tanto epe1 pAqq “ A. De la misma forma se verifica epe1 pAqq “ A. Con lo cual la oef
fi ÝÑ α fi tiene como inversa a la oef fi ÝÑ α´1 fi , que obviamente es del mismo Tipo I.
De forma similar se muestra que las oef de los tipos II y III también son invertibles;
de hecho, la oef del Tipo II fi ÝÑ fi ` α fj tiene como inversa a la oef fi ÝÑ fi ´ α fj ;
mientras que la inversa de la oef del Tipo III fi ÐÑ fj es ella misma. Se dejan los detalles
al lector.

Definición 1.10
Dadas matrices A, B P Mmˆn pKq, se dice que A es equivalente por filas a B, se donota
A „f ila B, si existe una secuencia finita de oef que permite obtener B a partir de A; es
decir, si existe un entero k ě 1 y oef e1 , e2 , ¨ ¨ ¨ , ek tales que pek ˝ ¨ ¨ ¨ e2 ˝ e1 qpAq “ B;
simbólicamente se escribe
e
1 2 e ek´1 k e
A ÝÑ A1 ÝÑ A2 Ñ ¨ ¨ ¨ ÝÝÝÑ Ak´1 ÝÑ B.

Ejemplo 1.12 » fi » fi
0 1 3 2 1 4
Dadas las matrices A “ – 0 1 ´1 fl y B “ – 0 1 ´1 fl se verifica A „f ila B. En
— ffi — ffi
2 1 4 0 0 4
efecto:
» fi » fi » fi
0 1 3 2 1 4 2 1 4
ffi f1 ÐÑf3 — ffi f3 ÝÑf3 ´f2 —
A “ – 0 1 ´1 fl ÝÝÝÝÝÑ – 0 1 ´1 fl ÝÝÝÝÝÝÝÑ – 0 1 ´1 fl “ B.
— ffi
2 1 4 0 1 3 0 0 4
Comentario 1.6
Sean A, B P Mmˆn pKq tales que A „f ila B; es decir, existen oef e1 , e2 , ¨ ¨ ¨ , ek tales que
pek ¨ ¨ ¨ ˝ e2 ˝ e1 qpAq “ B. Recursivamente en k se verifica que pe´1 ´1 ´1
1 ˝ e2 ¨ ¨ ¨ ˝ ek qpBq “ A;
por tanto B „f ila A y ası́ la relación „f ila es simétrica: si A es equivalente por filas a
B, entonces B es equivalente por filas a A. Ası́ que en adelante hablaremos de matrices
equivalentes por filas cuando una de las matrices se obtenga de la otra mediante una
secuencia de oef.
También de manera simple puede demostrarse que „f ila es reflexiva y transitiva (por
ende equivalencia); esto es
Álgebra lineal: Nociones y propiedades elementales 25

1. toda matriz de Mmˆn pKq es equivalente por filas a sı́ misma: A „f ila A. (reflexividad)

2. si A P Mmˆn pKq es equivalente por filas a B P Mmˆn pKq y B es equivalente por filas
a C en Mmˆn pKq, entonces A es equivalente por filas a C: A „f ila B y B „f ila C
implican A „f ila C. (transitividad)
Esta relación de equivalencia induce en Mmˆn pKq una participación, la cual es formada
por las clases de equivalencia relativas a „f ila . Recordamos que si A P Mmˆn pKq, entonces
la clase de equivalencia de A respecto de „f ila es el conjunto de todas las matrices B en
Mmˆn pKq tales que A „f ila B.

Definición 1.11
Una matriz cuadrada E P Mm pKq se dice matriz elemental si existe una oef e tal que
E “ epIm q: una matriz elemental es el resultado de aplicar una oef a la matriz identidad.

Ejemplo 1.13
Las siguientes matrices son elementales:
» fi » fi
« ff 1 0 0 1 0 0
2 0 —
, –0 1 3fl , –0 0 1fl .
ffi — ffi
0 1
0 0 1 0 1 0
Todas se obtienen mediante una oef aplicada a la identidad: la primera se obtiene al apli-
carle a I2 la operación f1 ÝÑ 2 f1 ; la segunda y tercera de I3 al aplicarles, respectivamente,
las operaciones: f2 ÝÑ f2 ` 3 f3 y f2 ÐÑ f3 .
Teorema 1.5
Dadas A P Mmˆn pKq y una operación elemental por filas e, si E es la matriz elemental
asociadda a e, E “ epIm q, entonces EA “ epAq.
Demostración. Supongamos que e es una oef del Tipo I: fi ÝÑ α fi , donde i es algún
ı́ndice entre 1 y m, y α P Kzt0u. Como E se obtiene de Im al aplicarle e, entonces las
filas de E, Ep1q , ¨ ¨ ¨ , Epmq , son como sigue: Eprq “ r0 ¨ ¨ ¨ 0 1 0 ¨ ¨ ¨ 0s, siempre que r
sea distinto de i y la entrada no nula es la r-ésima; mientras que la fila i-ésima de E
es Epiq “ r0 ¨ ¨ ¨ 0 α 0 ¨ ¨ ¨ 0s, donde la entrada no nula es la i-ésima. Recordemos que
en el item 4 del Ejemplo 1.8 (ver pág. 16) se mostró que al multiplicar por la izquierda
cualquier matriz unifila canónica por cualquier matriz A, da como resultado la fila de A
correspondiente al ı́ndice de tal matriz canónica unifila. De manera pues que al realizar la
multiplicación EA tenemos que su fila r, con r ‰ i, es la misma fila r de A. Igualmente
simple es chequear que la i-ésima fila de EA es igual a la fila i de A multiplicada por el
escalar α. De esta forma, EA es la misma matriz que se obtiene al aplicar la operación
elemental e a la matriz A. Las demostraciones en los casos que e sea de los tipos II y III
se dejan como ejercicio al lector.

Corolario 1.1
Sean A, B P Mmˆn pKq con A „f ila B y e1 , ¨ ¨ ¨ , ek oef tales que pek ˝ ¨ ¨ ¨ ˝ e2 ˝ e1 qpAq “ B.
Si E1 , ¨ ¨ ¨ , Ek son las matrices elementales correspodientes a e1 , ¨ ¨ ¨ , ek (Ei “ ei pIm q para
cada i “ 1, ¨ ¨ ¨ , m), entonces EK ¨ ¨ ¨ E2 E1 A “ B.
26 Neptalı́ Romero

Demostración. La demostración sigue por inducción sobre el entero k. Claramente, el


enunciado del corolario es verdadero para k “ 1 (¡es la conclusión del teorema anterior!).
Supongamos válido el enunciado para todo valor entero de k entre 1 y ` ´ 1. Vamos a
demostrar ahora que también es verdadero cuando k “ `.
Sean e1 , ¨ ¨ ¨ , e` las oef tales que pe` ˝ ¨ ¨ ¨ ˝ e2 ˝ e1 qpAq “ B, y sean Ei “ ei pIm q con
i “ 1, ¨ ¨ ¨ , ` las matrices elementales asociadas. Luego

B “ pe` ˝ ¨ ¨ ¨ ˝ e2 ˝ e1 qpAq “ e` ˝ pe`´1 ˝ ¨ ¨ ¨ ˝ e2 ˝ e1 pAqq (¿por qué?)


“ E` pe`´1 ˝ ¨ ¨ ¨ ˝ e2 ˝ e1 pAqq “ E` pE`´1 ¨ ¨ ¨ E2 E1 Aq (¿por qué?)
“ E` ¨ ¨ ¨ E2 E1 A;

por tanto la demostración está completa.

Corolario 1.2
Toda matriz elemental es invertible, y su inversa es también una matriz elemental.

Demostración. Sean E P Mm pKq la matriz elemental dada por la oef e; del teorema an-
terior sabemos que para cualquier matriz A P Mmˆm pKq se cumple EA “ epAq. Considere
ahora la oef f que es la inversa de e, y sea F la matriz elemental correspondiente; esto
es, F “ f pIm q. Como EA “ epAq vale para toda A P Mmˆm pKq, se tiene EF “ epf pIm qq,
pero epf pIm qq “ Im pues e y f son una la inversa de la otra. Ası́ EF “ Im , y por tanto E
y F son invertibles y una es la inversa de la otra.

Corolario 1.3
Si A, B P Mmˆn pKq son equivalentes por filas, entonces existe una matriz invertible F en
Mm pKq tal que F A “ B.

Demostración. Del corolario anterior tenemos que existe un número finito de matrices
elementales E1 , ¨ ¨ ¨ , Ek , todas de orden m ˆ m, tales que Ek ¨ ¨ ¨ E1 A “ B. Como cada
matriz elemental es invertible y el producto de matrices invertible es también invertible,
entonces el corolario sigue.

Ejemplo 1.14
« ff
2 ´1 0 1
1. Sean A “ y e la operación elemental que sustituye la segunda fila
3 ´2 3 0
por la suma de tal fila y menos una vez la primera fila: f2 ÝÑ f2 ` p´1qf1 .
Claramente, la matriz
« obtenida a partir
ff de A luego de aplicarle esta operación elemental
2 ´1 0 1
por filas es epAq “ . Por otro lado, la matriz elemental de orden 2ˆ2
1 ´1 3 ´1
« ff
1 0
asociada a e es E “ . De esta forma tenemos que
´1 1
« ff « ff « ff
1 0 2 ´1 0 1 2 ´1 0 1
EA “ “ “ epAq.
´1 1 3 ´2 3 0 1 ´1 3 ´1
Álgebra lineal: Nociones y propiedades elementales 27
» fi » fi
2 1 ´1 5 1 ´1 3 4
2. Las matrices A “ – 0 1 2 0 fl y B “ – 0 1 2 0 fl son equivalentes
— ffi — ffi
1 ´1 3 ´4 0 0 ´13 13
por filas pues:
» fi » fi
1 ´1 3 ´4 1 ´1 3 ´4
f1 ÐÑf3 — ffi f3 ÝÑf3 ´2 f1 — ffi f3 ÝÑf3 ´3 f2
A ÝÝÝÝÝÑ – 0 1 2 0 fl ÝÝÝÝÝÝÝÝÑ – 0 1 2 0 fl ÝÝÝÝÝÝÝÝÑ B.
2 1 ´1 5 0 3 ´7 13
Como hemos empleado las operaciones

e1 : f1 ÐÑ f3 , e2 : f3 ÝÑ f3 ´ 2 f1 y e3 : f3 ÝÑ f3 ´ 3 f2 ,

las matrices elementales de orden 3 ˆ 3 correspondientes a cada una de ellas son res-
pectivamente:
» fi » fi » fi
0 0 1 1 0 0 1 0 0
E1 “ – 0 1 0 fl , E2 “ – 0 1 0 fl y E3 “ – 0 1 0 fl ,
— ffi — ffi — ffi
1 0 0 ´2 0 1 0 ´3 1
luego E3 E2 E1 A “ B pues pe3 ˝ e2 ˝ e1 qpAq “ B.

3. Consideremos la oef e : M2ˆ2 pKq Ñ M2ˆ2 pKq dada « por


ff f2 ÐÑ f2 ` 2f1 ; entonces
1 0
la matriz elemental correspondiente a e es E “ . Dado que la oef f dada por
2 1
« ff
1 0
f2 ÐÑ f2 ´ 2f1 es la inversa de e, sigue que la matriz elemental F “ , que
´2 1
« ff
1 0
es asociada a f , satisface EF “ F E “ ; es decir, E ´1 “ F y F ´1 “ E.
0 1

1.5.2. Forma canónica de Gauss-Jordan


Consideremos la clase de equivalencia „f ila definida sobre el conjunto de matrices
Mmˆn pKq, deseamos encontrar en cada una de esas clases de equivalencia una matriz
“simple” que represente a todas las matrices de esa clase de equivalencia. Esas matrices
simples para representar cada clase de equivalencia la denominaremos forma canónica de
Gauss-Jordan en honor a los matemáticos alemanes Carl Friedrich Gauss (1777-1855), co-
nocido como el “principe de los matemáticos”, y Wilhelm Jordan (1842-1899) especialista
en Geodesia3 , quien fuera el primero en publicar (en un libro de Geodesia) la técnica, hoy
conocida como método de Gauss-Jordan, para analizar las soluciones de sistemas de ecua-
ciones lineales. No debe confundirse este Jordan con el famoso matemático francés Camille
Jordan (1838-1922) que también trabajó sobre teorı́a de matrices. Las formas canónicas
de Gauss-Jordan aparecen frecuentemente en la literatura matemática con otras denomi-
naciones: forma escalonada reducida por filas, o sencillamente forma reducida por filas.
Previo a la definición de la forma canónica de Gauss-Jordan necesitamos de la noción
de matriz escalonada.
3
Ciencia que trata de la forma y dimensión de la Tierra
28 Neptalı́ Romero

Definición 1.12
Una matriz A P Mmˆn pKq se dice escalonada si es la matriz nula, o de lo contrario satisface
las dos siguientes propiedades:

‚ las filas nulas son las últimas; y

‚ si a1j1 , a2j2 , ¨ ¨ ¨ , arjr son las primeras entradas no nulas de cada fila no nula, las
cuales son denominadas pivotes de A, entonces j1 ă j2 ă ¨ ¨ ¨ ă jr .

Toda matriz escalonada de orden m ˆ n con entradas en K es de la forma:


» fi
0 ¨ ¨ ¨ 0 a1j1 ˚ ˚ ˚ ¨¨¨ ˚ ¨¨¨ ˚
— ffi
— 0 ¨¨¨ 0 0 ¨¨¨ 0 a2j2 ¨ ¨ ¨ ˚ ¨ ¨ ¨ ˚ ffi
— ffi
— .. .. .. .. .. .. .. .. .. .. .. ffi
— . . . . . . . . . . . ffi
— ffi
— 0 ¨¨¨ 0
— 0 ¨¨¨ 0 0 ¨ ¨ ¨ arjr ¨ ¨ ¨ ˚ ffi
ffi (1.9)
— ffi
— 0 ¨¨¨ 0 0 ¨¨¨ 0 0 ¨¨¨ 0 ¨ ¨ ¨ 0 ffi
— .. .. .. .. .. .. .. .. .. .. .. ffi
— ffi
– . . . . . . . . . . . fl
0 ¨¨¨ 0 0 ¨¨¨ 0 0 ¨¨¨ 0 ¨¨¨ 0

donde lo señalado con * indica que tal posición esta ocupada por cualquier valor en K.

Note que la matriz escalonada A de arriba tiene una forma escalonada descendiente
de izquiera a derecha formada por las entradas nulas; de allı́ el nombre.

Ejemplo 1.15
1. La matriz identidad de cualquier orden es escalonada, en el recuadro » los elementos
fi
1 0 0
pivotes de I3 , que son las entradas no nulas en cada fila no nula. – 0 1 0 fl.
— ffi
0 0 1
» fi
2 3 4 1
— 0 0 0 1 ffi
2. La matriz — ffi es escalonada, los pivotes están encerrados en rectángulos.
— ffi
– 0 0 0 0 fl
0 0 0 0
3. Toda matriz triangular superior cuyas entradas en la diagonal sean todas diferentes de
0 es una matriz escalonada. ¿Es cierto la misma afirmación si algunas de las entradas
en la diagonal es nula? ¿Son escalonadas las matrices triangulares inferiores, diagonales
y escalares?

4. Las siguientes matrices no son escalonadas, ¿por qué?:


» fi
» fi 0 0 0 0 0
0 2 0 » fi » fi » fi
—1 1 2 0 2 0 0 3 0 0 0 3 —0
— 0 0 0 0ffi
0 1ffi ffi
ffi , –0 3 0fl , –0 0 0 0fl , –1 0 1 0fl , —0 3 1 2 0ffi .
— ffi — ffi — ffi — ffi — ffi

–0 0 0fl — ffi
2 0 0 0 0 0 1 0 0 0 0 –0 0 2 1 0fl
0 0 0
0 0 0 3 0
Álgebra lineal: Nociones y propiedades elementales 29

Teorema 1.6 (Algoritmo de reducción Gaussiana)


Toda matriz es equivalente por filas a una matriz escalonada.
Demostración. Sea A una matriz en Mmˆn pKq. Si A es la matriz nula, no hay que hacer
nada, ella es una matriz escalonada. Supongamos entonces que A es no nula; ası́, se procede
recursivamente de acuerdo a los siguientes pasos (¡es un algoritmo!):
Paso 1: Se inicializa un contador: k “ 1

Paso 2: Si las filas por debajo de la fila k son nulas, entonces tal matriz ya es escalonada,
y la demostración está completa. Caso contrario, se emplean oef del Tipo III para
colocar las filas nulas en las posiciones finales (mayores ı́ndices de fila), y tal que
en el ı́ndice jk de la columna donde se ubica la primera entrada no nula de la fila
k, es menor o igual que el ı́ndice de columna de la primera entrada no nula de las
restantes filas no nulas.

Paso 3: Mediante oef del Tipo II se anulan, en la columna jk , todas las entradas que
están debajo de la primera entrada no nula de la fila k.

Paso 4: Se hace k ÞÝÑ k ` 1 y se va al Paso 2.


Dado que la matriz A tiene un número finito de filas, el algoritmo es finito; por tanto
la matriz ası́ obtenida es escalonada y equivalente por filas a A.

Ejemplo 1.16 » fi
0 0 0 0

— ´2 2 1 3 ffi
ffi
Vamos a obtener una matriz escalonada equivalente por filas a A “ — 4 0 ´2 6 ffi.
— ffi
— ffi
– 0 3 0 ´2 fl
2 0 ´1 3
» fi » fi » fi
0 0 0 0 2 0 ´1 3 2 0 ´1 3

— ´2 2 1 3 ffi
ffi

— ´2 2 1 3 ffi
ffi

— 0 2 0 6 ffi
ffi
ffi f1 ÐÑf5 — ffi f2 ÝÑf2 `f1 —
4 0 ´2 6 ffi ÝÝÝÝÝÑ — 4 0 ´2 6 0 0 0 0
— ffi
— ffi ÝÝÝÝÝÝÝÝÑ — ffi
— ffi — ffi f3 ÝÑf3 ´2 f1 — ffi
– 0 3 0 ´2 fl – 0 3 0 ´2 fl – 0 3 0 ´2 fl
2 0 ´1 3 0 0 0 0 0 0 0 0
» fi » fi
2 0 ´1 3 2 0 ´1 3
— 0 2 0 6 ffi — 0 2 0 6 ffi
— ffi f3 ÝÑf3 ´ 3 f2 — ffi
f3 ÐÑf4 — 2
ÝÝÝÝÝÑ — 0 3 0 ffi ÝÝÝÝÝÝÝÝÝÑ — 0 0 0 -11 ffi ,
ffi — ffi
´2
— ffi — ffi
– 0 0 0 0 fl – 0 0 0 0 fl
0 0 0 0 0 0 0 0
la cual es una matriz escalonada
» y equivalente
fi por filas a A. Observe que no es la única
1 0 ´1 0
— 0 1 0 0 ffi
— ffi
de tales matrices; la matriz — 0 0 0 1 ffi es también equivalente a A.
— ffi
— ffi
– 0 0 0 0 fl
0 0 0 0
30 Neptalı́ Romero

Comentario 1.7
Observe que la demostración que acabamos de presentar, en tanto que es algoritmica,
no es la única forma de obtener una matriz escalonada equivalente por filas a la matriz
dada. Por otra parte, suponiendo que mediante este algoritmo, o cualquier otro, se ha
obtenido una matriz escalonada B „f ila A, entonces a través de oef del Tipo I, los pivotes
de B pueden hacerse iguales a 1, pues todos ellos son diferentes de 0; además, usando
operaciones elementales del Tipo II se pueden hacer 0 las entradas ubicadas por encima
de estos pivotes, lo cual también ofrece otra matriz escalonada equivalente a A.

El siguiente teorema, cuya demostración puede incluso ser obviada en una primera
lectura, es importante pues introduce un invariante en las matrices de una misma clase de
equivalencia.

Teorema 1.7
Si dos matrices son escalonadas y equivalente por filas, entonces el número de filas no
nulas (y por tanto el número de filas nulas) es el mismo en ambas.

Demostración. Sean A, B P Mmˆn pKq matrices como en el enunciado. Del Corolario


1.3 existe una matriz invertible E P Mmˆm pKq tal que EA “ B. Obviamente si alguna
de estas matrices es nula, entonces la otra también lo es y por tanto no habrı́a nada que
demostrar. Supongamos entonces que ambas son nulas.
Sean r ě 1 y r1 ě 1 el número de filas no nulas en A y B respectivamente. Sean
j1 ă ¨ ¨ ¨ ă jr y j11 ă ¨ ¨ ¨ ă jr1 1 los ı́ndices de las columnas de A y B que contienen los
elementos pivotes en ellas. Observe que en tales columnas, las entradas ubicadas debajo
de los pivotes son iguales a 0. Además de demostrar que r “ r1 , también mostraremos que
los ı́ndices de las columnas donde están los pivotes de A y B son los mismos; esto es, para
cada k “ 1, ¨ ¨ ¨ , r se tiene jk “ jk1 .
Supongamos que r ď r1 ; caso contrario invertimos los papeles de A y B, y ası́ tenemos
las condición. Note que las columnas Apjq de A con ı́ndices 1 ď j ă j1 son todas nulas.
Como B “ EA y cada columna j de B satisface B pjq “ EApjq , se tiene que las columnas
B pjq de B, con 1 ď j ă j1 , son todas nulas; esto implica que j1 ď j11 . Empleando el mismo
argumento al cambiar A por B y E por F “ E ´1 se»obtiene 1 1
fi j1 ď j1 , de donde j1 “ j1 .
a1j1
— 0 ffi
— ffi
pj q
Por otro lado, la columna A 1 de A es A 1 “ — pj q p1q pkq
— .. ffi “ a1j1 e , donde e denota
ffi
– . fl
0
la k-ésima matriz unicolumna canónica, cualquiera sea k. En vista de que B pj1 q “ EApj1 q
se tiene B pj1 q “ Ea1j1 ep1q “ b1j1 ep1q , con b1j1 ‰ 0; es decir,

Eep1q “ α11 ep1q , para algún α11 ‰ 0.

Observe que si r “ 1; es decir que todas las columnas Apjq de A con j ě j1 son de la forma
a1j ep1q , entonces de la identidad de arriba sigue que las columnas B pjq de B con j ě j1
son de la forma b1j ep1q , por tanto r1 “ 1 y la demostración estarı́a completa. Supongamos
entonces que r ě 2, es decir existe j2 ą j1 , las columnas Apjq de A para j1 ă j ă j2 son de
Álgebra lineal: Nociones y propiedades elementales 31
» fi
a1j2
—a ffi
— 2j2 ffi
— ffi
p1q
la forma a1j e , mientras que la columna A pj 2 q “— 0 ffi “ a1j2 ep1q `a2j2 ep2q con a2j2 ‰ 0.
— .. ffi
— ffi
– . fl
0
pjq
Esto implica, como antes, que las columnas B de B para j1 ă j ă j2 son de la forma
b1j ep1q , de donde j2 ď j21 . Invirtiendo los papeles, de la misma manera como fue indicado
arriba, tenemos la desigualdad j21 ď j2 , de donde j2 “ j21 . Además, como B pj2 q “ EApj2 q ,
se deduce similarmente que:

Eep2q “ α21 ep1q ` α22 ep1q , para ciertos α21 , α22 con α22 ‰ 0.

Procediendo por recurrencia suponemos como cierto que para todo 1 ď k ă r vale:
k
ÿ
jk “ jk1 y que Ee pkq
“ αkj epjq , donde αkk ‰ 0; (1.10)
j“1

mostraremos que lo mismo vale para el ı́ndice k ` 1. En efecto, las columnas Apjq de A
con jk ă j ă jk`1 tienen todas las entradas iguales a 0 entre la fila k ` 1 y la fila m; es
decir, Apjq “ ki“1 αji epiq . Como B pjq “ EApjq , entonces para cada j con jk ă j ă jk`1 , la
ř

columna B pjq es suma de múltiplos de ep1q , ¨ ¨ ¨ , epkq ; esto indica que esas columnas de B
tienen todas las entradas iguales a 0 entre las filas k ` 1 y la fila m. Por tanto jk`1 1 ě jk`1 .
1 1
Al invertir los papeles de A por B se tiene jk`1 ď jk`1 , y por tanto jk`1 “ jk`1 . Esto
demuestra (1.10) para todo k “ 1, ¨ ¨ ¨ , r.
Finalmente, las filas r ` 1, ¨ ¨ ¨ , m de A son todas nulas, esto dice que las columnas
de A con ı́ndices j “ jr ` 1, ¨ ¨ ¨ , n son sumas de múltiplos de ep1q , ¨ ¨ ¨ , eprq ; por tanto,
como B “ EA, las columnas de B más allá de la columna jr son sumas de múltiplos de
ep1q , ¨ ¨ ¨ , eprq . Por tanto es imposible que exista una columna B pjq de B con ı́ndice superior
a jr que tenga entradas no nulas por debajo de la fila r; ası́, r “ r1 y la demostración dell
teorema está completa.

Definición 1.13
Dada A P Mmˆn pKq, se conoce con el nombre de rango de A, o también rango fila de A,
al número de filas no nulas que tiene cualquier matriz escalonada equivalente por filas a
A; ese entero no negativo se denota por rangopAq.

Comentario 1.8
La noción recién introducida constituye un elemento básico para entender varios procesos,
tanto teóricos como de cálculo, que son abordados empleando herramientas del álgebra
Lineal. Es significativo mencionar:
‚ El rango es un invariante para las matrices que son equivalentes por filas; esto es,
cualquier par de matrices que sean equivalente por filas tienen el mismo rango.
‚ Dada una matriz A P Mmˆn pKq, su rango es un entero r con 0 ď r ď m; claramente la
única matriz de rango 0 es la matriz nula.
32 Neptalı́ Romero

‚ De la propia definición de matriz escalonada sigue que el rango de cualquier matriz de


orden m ˆ n es siempre menor o igual al mı́ntm, nu. Se deja al lector la verificación de
esta afirmación. Cuando una matriz de orden m ˆ n tiene rango igual a mı́ntm, nu, se dice
que tiene rango máximo.
‚ Dos matrices del mismo orden pueden tener el mismo rango, sin embargo no tienen
porqué ser equivalentes por filas. Por ejemplo, las matrices
« ff « ff
2 0 1 4 2 0 1 4
y
0 1 0 4 0 0 1 4

tienen el mismo rango, en este caso igual a 2, pero no son equivalentes por filas ya que los
ı́ndices de las columnas donde están las primeras entradas no nulas de las filas no nulas
son diferentes; ver teorema anterior.

Ejemplo 1.17 » fi
2 0 1
— 1 ´1 2 ffi
Determinemos el rango de A “ — ffi. Lo que debemos hacer es obtener una
— ffi
– 3 ´1 3 fl
´1 1 ´2
matriz equivalente por filas a A que sea escalonada y luego contar el número de filas no
nulas de ésta última.
» fi » fi » fi
1 ´1 2 1 1 2 1 1 2
— 2 0 1 ffi
ffi f2 ÝÑf2 ´2 f1 — 0 2 ´3 ffi f3 ÝÑf3 ´f2 — 0 2 ´3 ffi
— ffi — ffi
f2 ÐÑf1 —
A ÝÝÝÝÝÑ — ffi ÝÝÝÝÝÝÝÝÝÝÑ — ffi ÝÝÝÝÝÝÝÑ — ffi .
– 3 ´1 3 fl f3 Ñ f3 ´ 3 f1 – 0 2 ´3 fl – 0 0 0 fl
´1 1 ´2 f4 Ñ f4 ` f1 0 0 0 0 0 0

De esta manera el rango de A es igual a 2.

Definición 1.14
Una matriz A P Mmˆn pKq se dice escalonada reducida por filas si es nula, o en caso
contrario es escalonada, los pivotes son todos iguales a 1 y las entradas arriba de los
pivotes son nulas. Toda matriz no nula escalonada reducida por filas tiene la forma:
» fi
0 ¨¨¨ 0 1 ˚ ˚ 0 ¨¨¨ 0 ¨¨¨ ˚
— 0 ¨ ¨ ¨ 0 0 ¨ ¨ ¨ 0 1 ¨ ¨ ¨ 0 ¨ ¨ ¨ ˚ ffi
— ffi
— . . . . .. .. .. .. .. .. .. ffi
— .. .. .. .. . . . . . . . ffi
— ffi
— 0 ¨ ¨ ¨ 0 0 ¨ ¨ ¨ 0 0 ¨ ¨ ¨ 1 ¨ ¨ ¨ ˚ ffi , (1.11)
— ffi
— ffi
— 0 ¨ ¨ ¨ 0 0 ¨ ¨ ¨ 0 0 ¨ ¨ ¨ 0 ¨ ¨ ¨ 0 ffi
— .. .. .. .. .. .. .. .. .. .. .. ffi
— ffi
– . . . . . . . . . . . fl
0 ¨¨¨ 0 0 ¨¨¨ 0 0 ¨¨¨ 0 ¨¨¨ 0

lo señalado con * indica que tal posición puede estar ocupada por cualquier valor en K.

Algunas observaciones y ejemplos triviales son las siguientes:

‚ Toda matriz nula y toda matriz identidad son escalonadas reducidas por filas.
Álgebra lineal: Nociones y propiedades elementales 33

‚ Toda matriz escalonada reducida » por filas es escalonada,


fi y no toda matriz escalonada
4 3 4 0
—0 0 0 1ffi
es reducida por filas; por ejemplo — ffi.
— ffi
–0 0 0 0fl
0 0 0 0

‚ Las siguientes matrices no son escalonadas reducidas por filas, ¿por qué?:
» fi
» fi 0 0 0 0 0
0 1 0 » fi » fi » fi
—1 1 0 0 1 0 0 0 0 0 0 1 —0 0 0 0 0ffi
0 1ffi —
ffi — ffi
ffi , –0 3 0fl , –0 0 0 0fl , –1 0 1 0fl , —0 1 0 0 0ffi .
— ffi — ffi — ffi — ffi

–0 0 0fl — ffi
0 0 0 0 0 0 1 0 0 0 0 –0 0 0 0 0fl
0 0 0
0 0 0 0 0

Teorema 1.8
Toda matriz es equivalente por filas a una única escalonada reducida por filas.

Demostración. Si A es la matriz nula, no hay nada que demostrar pues la única matriz
equivalente por filas a A es la propia matriz nula, que es escalonada reducida por filas.
Supongamos que A es no nula, la existencia de una matriz escalonada reducida por filas
equivalente por filas a A está garantizada en el Comentario 1.7; veamos la unicidad.
Supongamos que G, J P Mmˆn pKq son matrices escalonadas reducidas por filas tales
que A „f ila G y A „f ila J; por tanto existen matrices invertible E, F P Mmˆm pKq tales
que EA “ G y F A “ J. Claramente G „f ila J y H “ F E ´1 hace que HG “ J.
Dado que G y J son escalonadas, el Teorema 1.7 garantiza que si j1 ă j2 ă ¨ ¨ ¨ ă jr y
j11 ă j21 ă ¨ ¨ ¨ ă jr1 son los ı́ndices de las columnas de G y J donde están los pivotes de
estas matrices (recuerde que tales pivotes son iguales a 1), entonces r “ r1 y para cada
1 ď k ď r se cumple jk “ jk1 . De la definición de matriz escalonada reducida por filas y la
anterior condición sobre los ı́ndices jk con 1 ď k ď r se deduce que:

(a) Gpjk q “ J pjk q “ epkq para todo 1 ď k ď r; donde epkq es la matriz unicolumna canónica
que tienen el dı́gito 1 en su entrada k.

(b) Las columnas Gpjq y J pjq de G y J, para j R tj1 , j2 , ¨ ¨ ¨ , jr u, son de la forma


» fi » fi
α1j β1j
— . ffi — . ffi
— .. ffi — .. ffi
— ffi — ffi
—α ffi ÿ r —β ffi ÿ r
— rj ffi — rj ffi
Gpjq “ — ffi “ αij epiq pjq
y J “ — ffi “ βij epiq .
— 0 ffi i“1 — 0 ffi i“1
— .. ffi — .. ffi
— ffi — ffi
– . fl – . fl
0 0

En vista de (a), debe mostrarse que Gpjq “ J pjq para toda j diferente de las j1 , ¨ ¨ ¨ , jr .
Ahora bien, esta misma condición (a) y el hecho que HGpjq “ J pjq para toda j, implican
34 Neptalı́ Romero

Hepjq “ epjq para toda j “ 1, ¨ ¨ ¨ , r. Por otra parte, usando (b) se tiene que para toda j
diferente de j1 , ¨ ¨ ¨ , jr vale:
˜ ¸
r
ÿ ÿr r
ÿ
F pjq “ HGpjq “ H αij epiq “ αij Hepiq “ αij epiq “ Gpjq ,
i“1 i“1 i“1

con lo cual la demostración del teorema está completa.

Ejemplo 1.18
Determinemos » la matriz escalonada reducida
fi por filas que es equivalente por filas a la
´2 2 ´4 ´6 ´4
— ´3 6 3 ´15 ´3 ffi
matriz A “ — ffi. Empleando los procedimientos antes descritos
— ffi
– 5 ´8 ´1 17 9 fl
1 1 11 7 7
tenemos:
» fi » fi
1 ´1 2 3 2 1 ´1 2 3 2
1
f1 ÝÑ´ 2 f1 — — ´3 6 3 ´15 ´3 ffi ffi f2 ÝÑf2 `3 f1 — 0
— 3 9 ´6 3 ffi
A ÝÝÝÝÝÝ
ffi
ÝÑ — ffi ÝÝÝÝÝÝÝÝÝÝÑ — ffi
– 5 ´8 ´1 17 9 fl f3 Ñ f3 ´ 5 f1 – 0 ´3 ´11 2 ´1 fl
1 1 11 7 7 f4 Ñ f4 ´ f1 0 2 9 4 5
» fi » fi
1 ´1 2 3 2 1 0 5 1 3
1
f2 ÝÑ 3 f2 — — 0 1 3 ´2 1 ffi f1 ÝÑf1 `f2 — 0 1 3 ´2 1 ffi
ffi —
ffi
ÝÝÝÝÝÝÑ — ffi ÝÝÝÝÝÝÝÝÝÝÑ — ffi
– 0 ´3 ´11 2 ´1 fl f3 Ñ f3 ` 3 f2 – 0 0 ´2 ´4 2 fl
0 2 9 4 5 f4 Ñ f4 ´ 2 f2 0 0 3 8 3
» fi » fi
1 0 5 1 3 1 0 0 ´9 8
1
f3 ÝÑ´ 2 f3 —— 0 1 3 ´2 1 ffi
ffi f1 ÝÑf1 ´5 f3 — 0 1 0 ´8 4 ffi

ffi
ÝÝÝÝÝÝÝÑ — ffi ÝÝÝÝÝÝÝÝÝÝÑ — ffi
– 0 0 1 2 ´1 fl f2 Ñ f2 ´ 3 f3 – 0 0 1 2 ´1 fl
0 0 3 8 3 f4 Ñ f4 ´ 3 f3 0 0 0 2 6
» fi » fi
1 0 0 ´9 8 1 0 0 0 35
1
— 0 1 0 ´8
f4 ÝÑ 2 f4 — 4 ffi
ffi f1 ÝÑf1 `9 f4 — 0 1 0 0 28 ffi
— ffi
ÝÝÝÝÝ ÝÑ — ffi Ý Ý Ý Ý ÝÝÝ Ý ÝÝ Ñ — ffi .
– 0 0 1 2 ´1 fl f2 Ñ f2 ` 8 f4 – 0 0 1 0 ´7 fl
0 0 0 1 3 f3 Ñ f3 ´ 2 f4 0 0 0 1 3

Observe que esta última matriz es la reducida por filas; note además que A tiene rango
máximo (rangopAq “ 4).

Corolario 1.4
Para cualquier par de matrices A, B P Mmˆn pKq se cumple: A „f ila B si, y solo si, ambas
son equivalentes a la misma matriz escalonada reducida por filas.

Demostración. (ùñ) Supongamos que A „f ila B. Sean G y F en Mmˆn pKq las matrices
escalonadas reducidas por filas equivalentes por filas a A y B respectivamente. Como
A „f ila G y B „f ila F , entonces A „f ila F (¿por qué?). Ahora bien, por la unicidad de
las matrices escalonadas reducidas por filas equivalentes por filas a una matriz dada, sigue
que G “ F .
(ðù) Sigue inmediatamente de la transitividad de la relación binaria „f ila .
Álgebra lineal: Nociones y propiedades elementales 35

Comentario 1.9
Sean A P Mmˆn pKq y rAs„f ila “ tB P Mmˆn pKq : A „f ila Bu su clase de equivalencia. La
única matriz escalonada reducida por filas en esta clase de equivalencia es la forma canónica
de Jordan de cada una de las matrices en rAs„f ila ; en particular es la forma canónica de
Gauss-Jordan de A. Recuerde que si A y B son matrices con diferentes formas canónicas
de Gauss-Jordan, entonces las clases de equivalencias rAs„f ila y rBs„f ila son disjuntas.
Obviamente la forma canónica de Gauss-Jordan de toda matriz nula es ella misma.

1.5.3. Operaciones elementales por filas y matrices invertibles


Este apartado está dirigido a estudiar la estrecha relación que existe entre las opera-
ciones elementales por filas, la forma canónica de Gauss-Jordan de matrices cuadradas, el
problema de decidir si una matriz es invertible o no y el cálculo de su inversa, en caso que
sea invertible. Iniciamos con el siguiente resultado que establece una caracterización, en
términos de la forma canónica de Gauss-Jordan, de las matrices invertibles.

Teorema 1.9
Una matriz A P Mm pKq es invertible si, y solamente si, su forma canónica de Gauss-
Jordan es la matriz identidad Im .

Demostración. (ùñ) Tomemos cualquier A P Mm pKq invertible. Supongamos que su


forma canónica de Gauss-Jordan, digamos B P Mm pKq, no es la matriz identidad Im .
Dado que B es una matriz cuadrada, reducida por filas y no es la identidad, sigue que
al menos una fila de B es nula; con certeza su última fila es nula (¿por qué?) Sea E una
matriz invertible (producto de matrices elementales) tal que EA “ B; lo cual en particular
implica que B es invertible; esto contradice el ejercicio propuesto 22 en la página 41. Por
tanto B no tiene filas nulas y en consecuencia es la matriz identidad Im .
(ðù) Supongamos que la forma canónica de Gauss-Jordan de A es Im ; sea E en Mmˆm pKq,
producto de matrices elementales, tal que EA “ Im . Dado que E es invertible, sigue que
A “ E ´1 Im “ E ´1 ; por tanto A es invertible y A´1 “ E.

Corolario 1.5
A P Mm pKq es invertible si, y solo si, rangopAq “ m.

Demostración. Se deja al lector.

§ Determinando inversas de matrices mediante oef

Sean A P Mm pKq invertible, por el teorema anterior existen matrices elementales


E1 , ¨ ¨ ¨ , Ek tales que
Ek ¨ ¨ ¨ E2 E1 A “ Im .
Dado que AA´1 “ Im , sigue que Ek ¨ ¨ ¨ E2 E1 pAA´1 q “ Ek ¨ ¨ ¨ E2 E1 Im “ Ek ¨ ¨ ¨ E2 E1 ; pero

Ek ¨ ¨ ¨ E2 E1 pAA´1 q “ pEk ¨ ¨ ¨ E2 E1 AqA´1 “ Im A´1 “ A´1 .

Ası́ que al aplicar a Im la misma secuencia de oef que se aplican a A para obtener
su forma canónica de Gauss-Jordan (la identidad Im pues A es invertible), se obtiene la
36 Neptalı́ Romero

inversa de A. Estos dos procesos se pueden realizar simultáneamente; basta considerar la


matriz de orden m ˆ 2m en la que del lado izquierdo se coloca la matriz A y del lado
derecho la matriz Im ; luego se van aplicando las oef a esta matriz de orden m ˆ 2m
siguiendo los procedimientos para hallar la forma canónica de Gauss-Jordan de A. Ası́,
después de un número finito de pasos (cada uno de ellos definido por una oef) se obtiene
en lado izquierdo la forma canónica de Gauss-Jordan de A, mientras que en lado derecho
se obtiene una matriz equivalente por filas a la identidad. En el caso que A sea invertible,
en el lado izquierdo tendremos la identidad y en el derecho aparece A´1 .

e e e ek´1 e
1
rA|Im s ÝÑ 2
rA1 |E1 s ÝÑ 3
rA2 |E2 E1 s ÝÑ k
¨ ¨ ¨ ÝÝÝÑ rAk´1 |Ek´1 ¨ ¨ ¨ E2 E1 s ÝÑ rIm |A´1 s.

Ejemplo 1.19 » fi
´2 2 ´4
Dada la matriz A “ – ´3 6 3 fl; averigüaremos si es invertible o no, y en caso que
— ffi
5 ´8 ´1
lo sea, determinaremos su inversa. Procedamos colocando en un mismo arreglo, en este
caso de orden 3 ˆ 6, la matriz A del lado izquierdo y la identidad I3 en el lado derecho y
procedemos como arriba descrito.

» fi » fi
´2 2 ´4 1 0 0 1 1 ´1 2 ´ 12 0 0
ffi f1 ÝÑ´ 2 f1 —
6 3 0 1 0 fl ÝÝÝÝÝÝÝÑ – ´3 6 3 0 1 0 fl
— ffi
– ´3
5 ´8 ´1 0 0 1 5 ´8 ´1 0 0 1
» fi » fi
1 ´1 2 ´ 12 0 0 1 1 ´1 2 ´ 12 0 0
f2 ÝÑf2 `3 f1 — 3 ffi f2 ÝÑ 3 f2 —
ÝÝÝÝÝÝÝÝÑ – 0 3 9 ´ 2 1 0 fl ÝÝÝÝÝÝÑ – 0 1 3 ´ 12 1
3 0 fl
ffi
f3 Ñf3 ´5 f1 5 5
0 ´3 ´11 2 0 1 0 ´3 ´11 2 0 1
» fi » fi
1 0 5 ´1 31 0 1 1 0 5 ´1 1
3 0
f1 ÝÑf1 `f2 — 1 1 ffi f3 ÝÑ´ 2 f3 — 1 1
ÝÝÝÝÝÝÝÑ – 0 1 3 ´ 2 3 0 fl – 0 1 3 0 fl
ffi
ÝÝ ÝÝ ÝÝ Ý Ñ ´2 3
f3 Ñf3 `3 f2
0 0 ´2 1 1 1 0 0 1 ´ 21 ´ 12 ´ 12
» fi
3 17 5
1 0 0 2 6 2
f1 ÝÑf1 ´5 f3 —
ÝÝÝÝÝÝÝÝÑ – 0 1 0 1 11 6
3 ffi
2 fl
.
f2 Ñf2 ´3 f3 1 1 1
0 0 1 ´2 ´2 ´2

» fi
3 17 5
2 6 2
11 3
Concluimos ası́ que A es invertible y A´1 “ – 1 fl.
— ffi
6 2
´ 12 ´ 12 ´ 21

Ejemplo 1.20 fi »
1 2 ´1
Consideremos ahora la matriz A “ – 2 1 3 fl. Procedamos como antes para ver si A
— ffi
4 5 1
Álgebra lineal: Nociones y propiedades elementales 37

posee inversa, y de ser ası́ calcular tal matriz.


» fi » fi
1 2 ´1 1 0 0 1 2 ´1 1 0 0
ffi f3 ÝÑf3 ´4 f1 —
– 2 1 3 0 1 0 fl ÝÝÝÝÝÝÝÝÑ – 0 ´3 5 ´2 1 0 fl
— ffi
f2 ÝÑf2 ´2 f1
4 5 1 0 0 1 0 ´3 5 ´4 0 1
» fi
1 2 ´1 1 0 0
f3 ÝÑf3 ´f2 —
ÝÝÝÝÝÝÝÑ – 0 ´3 5 ´2 1 0 fl .
ffi
0 0 0 ´2 ´1 1

Dado que en el lado izquierdo del arreglo ampliado ya se tiene una forma escalonada
equivalente por filas a A y tal matriz escalonada tiene una fila nula, se concluye que A
no es invertible pues rangopAq “ 2 ă 3. Puede, obviamente, continuarse el proceso de
obtención de la forma canónica de Gauss-Jordan de A (ya no se requiere la parte de la
derecha); de hecho:
» fi » fi » fi
7
1 2 ´1 1 1 2 ´1 1 0 3
ffi f2 ÐÑ´ f2 — ffi f1 ÝÑf1 ´2 f2 —
– 0 ´3 5 fl ÝÝÝÝÝÝ3ÝÑ – 0 1 ´ 53 fl ÝÝÝÝÝÝÝÝÑ – 0 1 ´ 53 fl .
— ffi
0 0 0 0 0 0 0 0 0
fi»
7
1 0 3
Por tanto la forma canónica de Gauss-Jordan de A es – 0 1 ´ 53 fl.
— ffi
0 0 0

1.6. Ejercicios Propuestos


1. Clasifique cada una de las matrices dadas, según sean: triangular superior, triangular
inferior, diagonal, escalar, simétrica o antisimétrica:

» fi » fi » fi » fi
2 0 1 1 0 0 1 0 1 1 0 0
a) –0 1 1fl b) –0 1 0fl c) –0 1 1fl d) –0 2 0fl
— ffi — ffi — ffi — ffi
0 0 0 0 0 1 1 1 0 0 0 3
» fi
» fi » fi 0 0 0 0 » fi
0 0 1 1 ´1 1 —0 0 0 1
0 0 0ffi
e) – 0 0 2 fl f) – 1 1 2 fl g) — h) –0 1 0fl
— ffi — ffi — ffi — ffi
ffi
–0 0 0 0fl
´1 ´2 0 ´1 ´2 1 1 0 0
0 0 0 0

2. Determine la traspuesta de cada una de las siguientes matrices.

» fi » fi » fi » fi
2 0 1 0 0 1 2 0 0 1 1 0 0
a) –0 1 1fl b) –0 1 0 1fl c) – 0 0 2 fl d) –1 2 0fl
— ffi — ffi — ffi — ffi
0 0 0 1 0 0 2 ´1 ´2 0 2 2 3
38 Neptalı́ Romero

3. Dadas las matrices


» fi » fi » fi
2 ´1 i ´1 ´2 0 2 1 ´3
A “ – ´3 0 1´i fl , B “ – i 2i 0 fl , C “ – 0 2 5 fl ,
— ffi — ffi — ffi
0 1 2´i 4 ´1 3 ´2 0 ´3
» fi » fi
1`i i 2 0 ´1 ´2 ´3 ´4
D “ – ´i 1 ´ i 3 1 fl , y E “ – 2 3 4 1 fl .
— ffi — ffi
0 1 2 ´1 ` i ´3 ´4 ´1 ´2

Realizar cada una de las siguientes operaciones:

a) A ` 2B b) A2 B ` 3B 2 c) pA ` Bq2 d) AB ` AC t e) CB ´ BC
f) CD ´ 2E g) 2Dt A ´ 3E t h) ApB ´ 2C 2 q b) 21 pC ` C t q c) 12 pC ´ C t q

4. Una empresa de productos quı́micos produce dos reactivos A y B en dos laborato-


rios X e Y. Durante la fabricación de los reactivos de producen tres agentes conta-
minantes: a, b y c. Por cada kilogramo de cada reactivo producido se generan ciertas
cantidades, en kilogramos, de esos contaminantes que se expresan mediante la matriz
« a b c ff
A 0,05 0,02 0,12
C “ . Dado que es necesario la eliminación de tales conta-
B 0,08 0,1 0,025
minantes, la empresa invierte, por kilogramo de cada contaminante, cierta cantidad
X Y
» fi
a 1250 540
en bolı́vares que se expresa para cada laboratorio mediante D “ b – 850 1000 fl .
— ffi
c 250 1010
Interprete cada una de las entradas de la matriz CD.

5. La producción de un kilogramo de los alimentos P y Q requiere de cierta cantidad, en


gramos, de tres conservantes: a, b y c. Los valores de estas cantidas se almacenan en la
« a b c ff
P 25 20 15
matriz A “ . Ahora bien, la ingesta de cada gramo de los respecti-
Q 100 10 25
vos conservantes produce en el organismo cierta cantidad, medida en microgramos, de
v w
» fi
a 150 100
los agentes cancerigenos v y w; estas cantidades se expresan por B “ b – 50 70 fl .
— ffi
c 200 10
Interprete cada una de las entradas de la matriz AB.
« ff
a b
6. Demostrar que cualquier matriz A “ es combinación lineal de las matrices
c d
« ff « ff « ff « ff
1 0 1 1 1 1 1 1
canónicas: E11 “ , E2 “ , E3 “ y E2 “ . Generalizar esta
0 0 0 0 1 0 1 1
propiedad en Mmˆn pKq.
Álgebra lineal: Nociones y propiedades elementales 39
» fi » fi
0 0 0 0 0 0
7. Sea A “ –1 0 0fl. Demostrar que A2 “ –0 0 0fl y A3 “ O. Generalizar para A
— ffi — ffi
0 1 0 1 0 0
de orden m ˆ m.

8. Una matriz A de orden m ˆ m se dice nilpotente de orden k ě 1 si Ak “ O y Ak´1 ‰ O.


Decidir cuáles de las siguientes matrices son nilpotentes:
» fi
» fi » fi » fi 0 1 0 0
1 ´1 0 0 ´5 10 6 0 ´1 —0 0 1 0ffi
– 1 ´1 0 fl , – 0 1 2 fl , – 2 3 2 fl y — ffi .
— ffi — ffi — ffi — ffi
–0 0 0 1fl
2 ´2 0 0 3 6 1 3 1
0 0 0 0

Demostrar que si A P Mm pKq es nilpotente de orden 2, entonces Im ´ A es invertible y


su inversa es Im ` A.

9. Una matriz A de orden m ˆ m se dice ortogonal si AAt “ At A “ Im , donde At es la


traspuesta de A.
Decidir cuáles de las siguientes matrices son ortogonales:
» fi » fi » fi
1 ´1 0 1 0 0 1 0 0 « ff
ffi — 0 1 1 cos θ ´ sen θ
– 1 ´1 0 fl , – 0 0 ´1 fl , –
— ffi — ?
2
´ ?2 fl y
ffi
.
1 1 sen θ cos θ
2 ´2 0 0 1 0 0 ´ ?2 ´ ?2

Demostrar que A P Mmˆm pKq es ortogonal si, y sólo A es invertible y A´1 “ At .


« ff « ff
cos θ ´ sen θ cos kθ ´ sen kθ
10. Sea A “ . Demostrar que Ak “ , cualquiera sea
sen θ cos θ sen kθ cos kθ
el entero positivo k.

11. Dos matrices A, B P Mmˆm pKq se dice que conmutan si AB “ BA.


« ff
1 2
a) Determine todas las matrices B P M2ˆ2 pKq que conmutan con A “ .
2 1
b) ¿Qué matrices conmutan con una matriz diagonal?
c) Dadas A, B P Mmˆm pKq, ambas simétricas. Demostrar que AB es simétrica si, y
solo si, AB “ BA.
d ) Demostrar que A P M2ˆ2 pKq conmuta con cualquier matriz B P M2ˆ2 pKq si, y
solo si, A conmuta con cada una de las matrices canónicas. ¿Es cierto en general?;
esto es, ¿vale tal propiedad para A P Mmˆm pKq cualquiera sea m ě 2?

12. Dada cualquier matriz A P Mmˆm pKq. Demostrar que B “ 21 pA ` At q es simétrica y


C “ 12 pA ´ At q es antisimétrica. Deducir que toda matriz cuadrada se expresa como la
suma de una matriz simétrica y una antisimétrica.

13. Completar la demostraciones de: Proposición 1.1, Teorema 1.1, Proposición 1.2 y Teo-
rema 1.2.
40 Neptalı́ Romero

14. Demostrar que cualesquiera sean los enteros k, ` ě 2, los escalares α1 , ¨ ¨ ¨ , αk P K y las
matrices A1 , ¨ ¨ ¨ , A` P Mmˆn pKq, se cumple:
˜ ¸˜ ¸
k
ÿ `
ÿ k ÿ
ÿ ` ` ÿ
ÿ k
αj Ai “ pαj Ai q “ pαj Ai q.
j“1 i“1 j“1 i“1 i“1 j“1

15. Dadas matrices A, B P Mmˆm pKq, demostrar que pA ` Bq2 “ A2 ` 2A B ` B 2 si, y solo
si, A y B conmutan.

16. Decidir acerca de la veracidad o falsedad de cada una de las siguientes proposiciones.
Justifique razonadamente su respuesta; esto es, ofrezca una demostración si la propo-
sición es verdadera, o un contraejemplo en caso que sea falsa.

a) La suma de matrices triangulares es triangular.


b) La suma y el producto de matrices triangulares superiores (resp. inferiores) es
triangular superior (resp. inferior).
c) Si A y B son matrices triangulares superiores (resp. inferiores, diagonales, esca-
lares, simétricas o antisimétricas) del mismo orden, y α es un escalar, entonces
A ` αB es también triangular superior (resp. inferior, diagonal, escalar, simétrica
o antisimétrica).
d ) Siempre tiene sentido calcular potencias enteras de cualquier matriz.
e) Si A P Mmˆn pKq y B P Mnˆk pKq son tales que AB es la matriz nula de orden
m ˆ k, entonces alguna de las matrices A, B es nula.
f ) Si A P Mmˆm pKq es tal que AAt “ O, entonces A “ O.
g) Toda matriz cuadrada no nula es invertible.
h) Para todo par de matrices cuadradas del mismo orden A y B se cumple AB “ BA.
i ) Si A es una matriz cuadrada, entonces para todo par de enteros positivos k, ` se
cumplen Ak A` “ A` Ak “ Ak`` .
j ) Si A, B P Mmˆm pKq, entonces pA ` Bq2 “ A2 ` AB ` BA ` B 2 .
k ) Si A y B son matrices cuadradas invertibles del mismo orden, entonces A ` B
también lo es.
l ) Si A y B son equivalentes por filas, y si C y D son matrices escalonadas equivalentes
por filas a A y B, respectivamente, entonces C “ D.
m) Si A y B son equivalentes por filas, entonces tienen el mismo rango.
n) Si A es una matriz cuadrada cuya forma canónica de Gauss-Jordan tiene una fila
nula, entonces A es invertible.
ñ) Si A P Mm pKq tiene rango k ă m, entonces A no es invertible.

17. Sea α ‰ 0. Demostrar que para todo entero positivo n vale la identidad:
« ffn « ff
cos θ α sen θ cospnθq α senpnθq
“ .
´ k1 sen θ cos θ ´ k1 senpnθq cospnθq
Álgebra lineal: Nociones y propiedades elementales 41

18. Completar la demostración del Teorema 1.3.


« ff
a b
19. Sean A “ . Demostrar que A es invertible si, y solo si ad ´ cb ‰ 0. En tal caso,
c d
« ff
1 d ´b
verificar que la inversa de A es A´1 “ ad´bc . Empleando este criterio,
´c a
« ff « ff « ff
1 2 a b 1 1
¿cuáles de las siguientes matrices son invertible? , y .
1 1 ´b a 1 1

20. Sean k ě 2 y A1 , A2 , ¨ ¨ ¨ , Ak matrices invertibles del mismo orden, entonces A1 A2 ¨ ¨ ¨ Ak


es invertible y pA1 A2 ¨ ¨ ¨ Ak q´1 “ A´1 ´1 ´1
k Ak´1 ¨ ¨ ¨ A1 .

21. Sean A, B P Mmˆm pKq tales que AB es invertible. Demostrar que tanto A como B son
invertibles. Generalize tal propiedad para un número finito de matrices.

22. Sea A P Mmˆm pKq.

a) Si la fila Apiq de A es nula, demostrar que para cualquier matriz B P Mmˆp pKq la
fila i de la matriz producto AB también es nula.
b) Si la columna Apjq de A es nula, demostrar que para cualquier matriz B P Mpˆm pKq,
la columna j de BA es nula.

Deducir que cualquier matriz cuadrada con al menos una fila, o una columna, nula no
es invertible.

23. Sean A, B P Mm pKq invertibles tales que A`B también lo es. Demostrar que A´1 `B ´1
es invertible y pA´1 ` B ´1 q´1 “ ApA ` Bq´1 B “ BpA ` Bq´1 A.

24. Completar la demostración del Teorema 1.5.

25. Demostrar que el rango de cualquier matriz de orden m ˆ n es siempre menor o igual
al mı́ntm, nu.

26. Demostrar el Corolario 1.5.

27. Para cada una de las siguientes matrices determine su rango y forma canónica de
Gauss-Jordan.
» fi
0 » fi
« ff 2 ´1 ´7 ´10
” ı — ´2 ffi 1 ´2 1 4
1 ´2 1 4 , — , , – 1 1 ´8 ´14 fl .
— ffi — ffi
ffi
– 5 fl 2 ´3 ´1 2
3 ´4 ´3 0
2

28. Empleando operaciones elementales por filas, determine cuáles de las siguientes matrices
42 Neptalı́ Romero

son invertible; para aquellas que lo sean, encontrar su inversa.


» fi » fi
« ff « ff « ff 2 2 1 2 0 1
2 ´2 2 ´1 a ´b
, , , pa ‰ 0q, – 4 2 0 fl , – 4 0 0 fl ,
— ffi — ffi
1 4 ´8 4 b a
2 1 0 ´2 ´1 0
» fi » fi » fi » fi
5 5 1 5 ´2 ´3 i 2 1`i 1´i 2 i
– 1 1 1 fl , – 1 2 ´3 fl , – i 3i 1 fl , – 1 0 1 ` i fl ,
— ffi — ffi — ffi — ffi
0 2 3 1 ´2 1 i ´4 ` 6i 1 ´ 2i 1`i 2 2`i
» fi
» fi » fi ´2 0 1 2 ´1 0
1 1 1 1 2 0 1 5 — ´1 ´2
— 1 ´1 ´2 2 ffi
ffi
— 1 3 1 2 ffi — ´1 3 ´3 ´2 ffi — 1 0 1 ´1 2 1 ffi
ffi — ffi —
ffi , , — ffi y — ffi .
— ffi

– 5 9 1 6 fl – 1 2 ´3 1 fl — 1 2 ´1 ´3 1 2 ffi
— ffi
1 2 ´1 1 3 1 ´2 5 – 0 1 2 1 ´2 ´1 fl
2 ´1 ´2 1 0 0
» fi
1 2 α
29. Determine los valores de α (si es que existen) tal que –1 0 0 fl sea invertible. Deter-
— ffi
1 1 1
mine su inversa en tales casos.

30. Sean A P Mmˆm pKq y Ap1q , ¨ ¨ ¨ , Apmq las filas de A. Demostrar que si una de tales filas
se escribe como la suma de múltiplos de las restantes filas, entonces A es no invertible.
¿Es cierto el recı́proco?

31. Dada A “ raij s P Mmˆn pCq, se define la traspuesta hermitiana de A como la matriz
A˚ “ rbij s de Mnˆm pCq tal que bij “ aji para todo i “ 1, ¨ ¨ ¨ , n y cada j “ 1, ¨ ¨ ¨ , m.

a) Determine A˚ para cada una de las matrices dadas.


» fi
« ff « ff « ff 1`i 0
1 1´i 1 2 1`i i 2
, , y –´2 ` i 1 ` 2ifl .
— ffi
2´i 0 3 4 2 ` i 3 ´ 2i 2
2 i

b) Demostrar la veracidad de cada una de las siguientes proposiciones:


a) @ A, B P Mmˆn pCq: pA ˘ Bq˚ “ A ˚ ˘B ˚ .
b) @ A P Mmˆn pCq y @ B P Mnˆp pCq: pABq˚ “ B ˚ A˚ .
c) @ α P C y @ A P Mmˆn pCq: pαAq˚ “ αA˚ .
d) @ A P Mmˆn pCq: pA˚ q˚ “ A.
c) Una matriz A “ raij s P Mmˆm pCq se dice: hermitiana si A˚ “ A; y es antihermitiana
si A˚ “ ´A. Demostrar:
1) Si A es hermitiana, entonces aii P R para todo i “ 1, ¨ ¨ ¨ , m. ¿Es cierto el
recı́proco?
2) Si A es antihermitiana, entonces aii R R para todo i “ 1, ¨ ¨ ¨ , m. ¿Es cierto el
recı́proco?
Álgebra lineal: Nociones y propiedades elementales 43

3) Si A es diagonal y hermitiana, entonces todas las entradas de A son números


reales. ¿Qué puede decir si A es diagonal y antihermitiana?
4) Si A es hermitiana, entonces existen matrices A1 y A2 con todas sus entradas
en R tales que: A1 es simétrica, A2 es antisimétrica y A “ A1 ` iA2 .

32. Al igual que las operaciones elementales por fila, se introducen las operaciones elemen-
tales por columnas y matrices elementales por columnas:

Tipo I: Multiplicar una columna por un escalar no nulo: cj ÝÑ αcj .


Tipo II: Sustituir una columna por ella más un múltiplo de otra: cj ÝÑ cj ` αci .
Tipo III: Intercambiar dos columnas: cj ÐÑ αci .

Una matriz cuadrada se dice elemental por columna si es obtenida de la identidad


mediante la aplicación de una única operación elemental por columnas. Se propone al
lector desarrollar una teorı́a paralela a la de operaciones elementales por filas, matrices
elementales, rango fila, formas escalonadas, formas canónicas de Gauss-Jordan y la
relación con matrices invertibles, pero ahora empleando operaciones elementales por
columna y matrices elementales por columnas.

33. Toda matriz A P Mmˆn pKq se puede expresar como una matriz por bloques; esto se
obtiene trazando uno o más segmentos horizontales y verticales atravesando el arreglo
A; los subarreglos definidos por los sectores obtenidos mediante tales segmentos se
les
» conoce comofi bloques de A, o también como submatrices de A. La matriz A “
1 2 9 0
–2 1 0 0fl puede expresarse de diferentes manera como una matriz por bloques;
— ffi
0 0 0 0
por ejemplo:
« ff « ff « ff
A1 A2 1 2 9 0 ” ı
‚ , donde A1 “ , A2 “ , A3 “ A4 “ 0 0 ;
A3 A4 2 1 0 0
« ff « ff « ff
A1 A2 1 2 9 0 ” ı ” ı
‚ , donde A1 “ , A2 “ , A3 “ 0 0 y A4 “ 0 ;
A3 A4 2 1 0 0
« ff « ff
A1 ” ı 2 1 0 0
‚ , donde A1 “ 1 2 9 0 y A2 “ .
A2 0 0 0 0

a) Sean A, B P Mmˆn pKq las cuales han sido separadas por bloques de la misma ma-
nera:
» fi » fi
A11 A12 ¨ ¨ ¨ A1k B11 B12 ¨ ¨ ¨ B1k
— A21 A22 ¨ ¨ ¨ A2k B21 B22 ¨ ¨ ¨ B2k
— ffi — ffi
ffi — ffi
A“— — .. .. .. ffi y B “ — .. .. .. ffi .
– . . . . . .
ffi — ffi
¨¨¨ fl – ¨¨¨ fl
Ap1 Ap2 ¨ ¨ ¨ Apk Bp1 Bp2 ¨ ¨ ¨ Bpk
44 Neptalı́ Romero

Demostrar
» fi
A11 ` B11
A12 ` B12 ¨ ¨ ¨ A1k ` B1k
A21 ` B21
A22 ` B22 ¨ ¨ ¨ A2k ` B2k
— ffi
— ffi
A`B “— .. .. .. ffi , y
. . .
— ffi
– ¨¨¨ fl
Ap1 ` Bp1 Ap2 ` Bp2 ¨ ¨ ¨ Apk ` Bpk
» fi
α A11 α A12 ¨ ¨ ¨ α A1k
— α A21 α A22 ¨ ¨ ¨ α A2k ffi
— ffi
αA “ — .. .. .. ffi .
. . .
— ffi
– ¨¨¨ fl
α Ap1 α Ap2 ¨ ¨ ¨ α Apk
b) Sean A P Mmˆn pKq y B P Mnˆ` pKq que descompuestas en bloques:
» fi » fi
A11 A12 ¨ ¨ ¨ A1k B11 B12 ¨ ¨ ¨ B1s
— A21 A22 ¨ ¨ ¨ A2k ffi — B21 B22 ¨ ¨ ¨ B2s
— ffi — ffi
ffi
A“—— .. .. ffi y B “ — ..
.. ffi — .. .. ffi
– . . . fl – . . .
ffi
¨¨¨ ¨¨¨ fl
Ap1 Ap2 ¨ ¨ ¨ Apk Bk1 Bk2 ¨ ¨ ¨ Bks
de manera que tenga sentido la operación Ait Btj para todo 1 ď i ď p, 1 ď t ď k y
1 ď j ď s. Demostrar que
» fi
C11 C12 ¨ ¨ ¨ C1s
— C21 C22

¨ ¨ ¨ C2s
ffi
ffi ÿk
AB “ —— .. .. .. ffi donde Cij “ Ait Btj .
– . . .
ffi
¨¨¨ fl t“1
Cp1 Cp2 ¨ ¨ ¨ Cpk
c) Una matriz cuadrada
» A de orden m ˆ m se fi dice diagonal por bloques se escribe da
A1

— A2 O ffi
ffi
la forma A “ —
— . .
ffi
ffi, donde las matrices Aj (j “ 1, ¨ ¨ ¨ , k)
— . ffi

– O Ak´1
ffi
fl
Ak
son cuadradas, no necesariamente del mismo orden, pero cuya de ordenes es m; y
fuera de la diagonal los restantes bloques son matrices nulas. Demostrar:
» fi
As1

— As2 O ffi
ffi
1) Para cada entero positivo s se cumple A “ — s
— . .
ffi
ffi.
— . ffi

– O Ask´1
ffi
fl
Aks
» fi
B1

— B2 O ffi
ffi
2) Si B “ —

— . ..
ffi
ffi es otra matriz diagonal por bloques y
ffi

– O Bk´1
ffi
fl
Bk
descompuesta de la misma forma que A, obtener AB. Demuestre también que
Álgebra lineal: Nociones y propiedades elementales 45

A es invertible
» si,´1y solo si cada matriz Aj (jfi“ 1, ¨ ¨ ¨ , k) es invertible, y en tal
A1

— A2´1 O ffi
ffi
´1
caso A “ —

— . ..
ffi
ffi.
ffi

– O A´1
k´1
ffi
fl
´1
Ak
» fi
A1

— A2 O ffi
ffi

34. Sea A “ — .. ffi
ffi una matriz diagonal por bloques. Demostrar
— . ffi

– O Ak´1
ffi
fl
Ak
que
» la forma canónica de Gauss-Jordan
fi de A es también diagonal por bloques B “
B1

— B2 O ffi
ffi
— .. ffi
ffi, donde cada bloque Bj en la diagonal de B es la forma

— . ffi

– O Bk´1
ffi
fl
Bk
canónica de Gauss-Jordan de Aj . Deducir que el rango de A es la suma de los rangos
de las matrices bloques de la diagonal. Proporcione ejemplos de esas matrices.

35. Dar un concepto de cuando una matriz cuadrada está en la forma triangular superior
(resp. inferior) por bloques. Expresar la forma canónica de Gauss-Jordan de una tal
matriz en términos de las formas canónicas de Gauss-Jordan de las matriz bloques de
la diagonal de la matriz triangular superior por bloques. Proporciones ejemplos.

36. Dada A P Mmˆn pKq, se dice que A es invertible por la izquierda, si existe L P Mnˆm pKq
tal que LA “ In ; y es invertible por la derecha, si existe R P Mnˆm pKq tal que AR “ Im .
Las matrices L y R se conocen como inversas laterales de A, por la izquierda y la derecha
respectivamente.

a) Determine, en caso de existir, inversas laterales de la matriz A “ r1 0 1s.


b) Mediante ejemplos verificar que las inversas laterales pueden no ser únicas; de
hecho pueden existir infinitas matrices que son inversas por un mismo lado.
c) Demostrar que si A es cuadrada, entonces A es invertible, según la definición 1.8,
si, y sólo si, es invertible tanto por la derecha como por la izquierda; en tal caso
las inversas laterales coinciden con la inversa de A.
d ) ¿Puede una matriz cuadrada ser invertible por un lado y no por el otro?
e) Construya ejemplos de matrices que tengan inversa por un lado, pero no sea in-
vertible por el otro.
Capı́tulo 2

Sistemas de ecuaciones lineales

2.1. Introducción
Los sistemas de ecuaciones lineales constituyen una herramienta matemática básica,
elemental y fundamental para resolver una gran cantidad de problemas; su uso es bastante
antiguo. En diferentes excavaciones arqueológicas realizadas en la antigua Babilonia (hoy
parte de Irak), fueron halladas tablillas construidas en arcilla donde son expuestas, y
resueltos, sistemas de ecuaciones lineales; en una de esas tablillas se encuentra el siguiente
enunciado (traducción e interpretación por delante):
“la cuarta parte de la anchura más la longitud es igual a cinco manos;
y la anchura más la longitud son diez manos”
En la nomenclatura moderna, si hacemos x igual a la anchura, y igual a la longitud y
le asignamos 1 al valor de la “mano”, el anterior enunciado se expresa simbólicamente por
dos ecuaciones: 14 x ` y “ 5 y x ` y “ 10. Los egipcios también dejaron evidencias, en sus
papiros, del conocimiento que tenı́an de los sistemas de ecuaciones lineales; famosos son los
denominados papiros de Rhind (1650 a.C.) y de Moscú (1850 a.C.). En ellos se da cuenta
de una manera retórica, tanto la formulación como la solución de problemas que involucran
ecuaciones lineales Los antiguos griegos también tuvieron conocimiento de los sistemas de
ecuaciones lineales. Thymaridas de Paros (400 a.C - 350 a.C) fue uno de los Pitagóricos
que además de ser un teórico de los números primos, encontró una solución general de un
tipo de sistemas de ecuaciones lineales conocidas como la flor de Thymaridas.
Diofanto de Alejandrı́a (vivió durante el siglo III d.C.), famoso pensador griego muy
destacado por sus aportes a la matemática, aunque es poco lo que se sabe sobre su vida,
la edad a la que fallece es bien conocida. Ello gracias al siguiente epitafio, el cual es parte
importante de la antologı́a griega:
“Transeúnte, esta es la tumba de Diofanto: es él quien con esta sorpren-
dente distribución te dice el número de años que vivió. Su niñez ocupó la
sexta parte de su vida; después, durante la doceava parte su mejilla se
cubrió con el primer bozo. Pasó aún una séptima parte de su vida antes
de tomar esposa y, cinco años después, tuvo un precioso niño que, una
vez alcanzada la mitad de la edad de su padre, pereció de una muerte
desgraciada. Su padre tuvo que sobrevivirle, llorándole, durante cuatro
años. De todo esto se deduce su edad”.
La matemática china del siglo III a.C. también tuvo conocimiento de los sistemas de
ecuaciones lineales. El anónimo libro de la época, Nueve capı́tulos sobre las artes ma-
temáticas, contiene, quizá, el primer análisis registrado sobre la solución de sistemas de

47
48 Neptalı́ Romero

ecuaciones lineales; rudimentariamente empleaban la técnica que trataremos en el capı́tulo:


método de eliminación gaussiana, en honor al citado Gauss.

2.2. Definiciones y ejemplos


Como antes, denotamos por K tanto al cuerpo de los números reales como de los
números complejos; cuando sea necesario se especificará.

Definición 2.1
Una ecuación lineal con n incógnitas y coeficientes en K, es cualquier expresión del tipo

a1 x1 ` a2 x2 ` ¨ ¨ ¨ ` an xn “ b, (2.1)

donde x1 , x2 , ¨ ¨ ¨ , xn representan las denominadas incógnitas, o variables desconocidas de


la ecuación; mientras que a1 , a2 , ¨ ¨ ¨ , an , b son valores constantes en K: a1 , a2 , ¨ ¨ ¨ , an son
denominados coeficientes y b es el término independiente de la ecuación.

Definición 2.2
Una solución de la ecuación lineal (2.1) es cualquier n-tupla pt1 , ¨ ¨ ¨ , tn q P Kn para la cual
se verifica (2.1); es decir, a1 t1 ` a2 t2 ` ¨ ¨ ¨ ` an tn “ b.

Ejemplo 2.1
1. La expresión 2x ` y ´ 3z “ 2 es una ecuación lineal con coeficientes y término indepen-
diente en R, y cuyas incógnitas son x, y y z. La 3-tupla p1, 0, 0q es una solución de tal
ecuación, ası́ como lo son p0, 2, 0q y p0, 0, ´ 32 q. No obstante, p1, 1, 1q no es solución.

2. La ecuación p1 ` iqz ` 2w “ 1 ´ i tiene como coeficientes a los números complejos 1 ` i y


2, su término independiente es 1 ´ i y sus incógnitas son las variables z y w. Soluciones
de esta ecuación pueden ser, por ejemplo, las 2-tuplas en C2 : p 1´i 1´i
1`i , 0q, p0, 2 q y p´1, 1q

Comentario 2.1
Toda ecuación lineal a1 x1 ` a2 x2 ` ¨ ¨ ¨ ` an xn “ b con al menos uno de los coeficientes no
nulo, admite solución: si ar ‰ 0 (1 ď r ď n), entonces la n-tupla p0, ¨ ¨ ¨ , 0, abr , 0, ¨ ¨ ¨ , 0q de
Kn es una solución de la ecuación; su coordenada no nula es la r-ésima.
Note que si todos los coeficientes son nulos y el término independiente es diferente de
0, entonces la ecuación no tiene solución; es decir, no existe una n-tupla pt1 , t2 , ¨ ¨ ¨ , tn q
que haga 0t1 ` 0t2 ` ¨ ¨ ¨ ` 0tn “ b.

Definición 2.3
Un sistema de ecuaciones lineales con m ecuaciones y n incógnitas es cualquier colección
de m ecuaciones lineales con n incógnitas. Simbólicamente
$

’ a11 x1 ` a12 x2 ` ¨ ¨ ¨ ` a1n xn “ b1

& a x ` a x ` ¨¨¨ ` a x “ b
21 1 22 2 2n n 2
, (2.2)

’ . . . . . . . . . . . . . . . . . .

am1 x1 ` am2 x2 ` ¨ ¨ ¨ ` amn xn “ bm
%
Álgebra lineal: Nociones y propiedades elementales 49

donde: a11 , ¨ ¨ ¨ , a1n , a21 , ¨ ¨ ¨ , a2n , ¨ ¨ ¨ , am1 , ¨ ¨ ¨ , amn P K son sus coeficientes, b1 , ¨ ¨ ¨ , bm son
los términos independientes y x1 , x2 , ¨ ¨ ¨ , xn son las incógnitas (o variables). El sistema se
dice homogéneo si cada uno de los términos independientes es igual a 0; caso contrario, el
sistema de ecuaciones lineales se denomina no homogéneo.

Claramente el sistema (2.2) se representa matricialmente mediante la expresión:


» fi » fi » fi
a11 a12 ¨ ¨ ¨ a1n x1 b1
— a21 a22 ¨ ¨ ¨ a2n ffi — x2 ffi — b2 ffi
— ffi — ffi — ffi
ffi — .. ffi “ — .. ffi ; (2.3)
— . .. .. ffi — ffi — ffi
— .
– . . ¨ ¨ ¨ . fl – . fl – . fl
am1 am2 ¨ ¨ ¨ amn xn bm
» fi
a11 a12 ¨¨¨ a1n
— a21 a22 a2n ffi
— ffi
¨¨¨
esto es, una ecuación matricial A X “ B, donde A “ —
— .. .. ffi P Mmˆn pKq
.. ffi
– . ¨¨¨ . . fl
am1 am2 ¨ ¨ ¨ amn
» fi
x1
— x2 ffi
— ffi
es la matriz del sistema, o de los coeficientes, X “ — — .. ffi es la matriz de las incógnitas,
ffi
.
– fl
xn
» fi
b1
— b2 ffi
— ffi
mientras que B “ — — .. ffi es la matriz de los términos independientes del sistema (2.2).
ffi
– . fl
bm
Observe que cada fila de A está definida por los coeficientes de las ecuaciones de (2.1);
note además que el sistema es homogéneo si B “ O.

Ejemplo 2.2
Los sistemas de ecuaciones lineales
$
$ ’ p1 ` iqx ` y ´ z “ i
& 2x ` z “ 2
# ’ ’

2x ` y ´ z “ 1 & x ´ 3iy ` z “ 2 ´ i
, ´3y ` z “ 3 y .
´x ` 3y ` 2z “ 2 ’ % x ` y ´ 2z “ 0 ’
’ p2 ` iqx ` iy “ 0

x ` p1 ` 2iqy ` z “ 1
%

se representan matricialmente por


» fi » fi » fi » fi
« ff x « ff 2 0 1 x 2
2 1 ´1 — ffi 1 —
–y fl “ , – 0 ´3 1 fl –y fl “ –3fl y
ffi — ffi — ffi
´1 3 2 2
z 1 1 ´2 z 0
» fi » fi
1`i 1 ´1 » fi i
— 1 ´3i 1 ffi x —2 ´ iffi
ffi –y fl “ — ffi .
— ffi — ffi — ffi

– 2`i i 0 fl – 0 fl
z
1 1 ` 2i 1 1
50 Neptalı́ Romero

Ejemplo 2.3
Los sistemas de ecuaciones lineales son empleados para representar diferentes tipos de
problemas; veamos algunos ejemplos:

1. Una empresa recicladora de desechos produce dos tipos de cartón: liso y corrugado.
La confección del cartón se produce en dos talleres: A y B. En el primer taller, por
cada kilogramo de desechos se producen 0, 2 kg de cartón liso y 0, 2 kg del corrugado;
mientras que en el taller B la producción por cada kilogramo de desechos es de 0, 4 kg
del liso y 0, 3 kg del corrugado. El problema que se plantea es el siguiente: ¿qué cantidad
de desechos debe procesar cada taller para producir 50 kg de cartón liso y 35 kg del
corrugado?

En primer lugar debemos identificar las variables del problema; es decir, las incógnitas.
Claramente estas variables son las cantidades de desechos que debe procesar cada taller.
Por tanto intruducimos la siguiente notación:

x es la cantidad de desechos, en kilogramos, que debe procesarse en el taller A.


y es la cantidad de desechos, en kilogramos, que debe procesarse en el taller B.

Los datos de la producción de los diferentes tipos de cartón elaborados por los talleres
« A B ff
Liso 0, 2 0, 4
A y B se expresan matricialmente mediante . Esta matriz
Corrugado 0, 2 0, 3
informa sobre los datos del problema; por ejemplo la entrada ubicada en la fila 1 y
columna 2 indica que en el taller B se produce, por cada kilogramo de desechos, 0,4
kilogramos de cartón liso. Note que cada columna indica la producción de cada taller.
Ası́, la cantidad de cartón liso que se produce en ambos talleres, a partir de x kilogramos
de desechos en el taller A y de y kilogramos de desechos en el taller B, es dada por
la expresión 0, 2x ` 0, 4y; mientras que la cantidad de cartón corrugado producido a
partir de las mismas cantidades de desechos x e y en los dos talleres se expresa por
0, 2x ` 0, 3y. Consecuentemente, para dar respuesta al#problema planteado se debe
0, 2 x ` 0, 4 y “ 50
analizar la solución del sistema de ecuaciones lineales ; lo que
0, 2 x ` 0, 3 y “ 35
« ff « ff « ff
0, 2 0, 4 x 50
matricialmente se expresan mediante “ .
0, 2 0, 3 y 35

2. El problema de decidir si una matriz es combinación lineal de un conjunto de matrices


dadas se corresponde con el análisis de soluciones
» fi de un»sistema
fi de ecuaciones
» fi lineales.
i 0 1
En M3ˆ1 pCq consideremos las matrices A “ –0fl , B “ –1 ` ifl y C “ –1fl. Queremos
— ffi — ffi — ffi
2 1 i
saber si C es combinación lineal de A y B; esto es, queremos averiguar si existen
escalares u, v P C tales que C “ u A ` v B. En otras palabras, deseamos responder si
Álgebra lineal: Nociones y propiedades elementales 51

existen escalares u, v P C tales que se cumpla la identidad:


» fi » fi » fi » fi
1 i 0 iu
–1fl “ u –0fl ` v –1 ` ifl “ –p1 ` iqv fl ;
— ffi — ffi — ffi — ffi
i 2 1 2u ` v

obviamente esta identidad ocurre si, y solamente si, las matrices del lado izquierdo y
del lado derecho deben ser iguales. De acá entonces que C es combinación
$ lineal de las
& iu “ 1

matrices A y B si, y solamente si, el sistema de ecuaciones lineales p1 ` iqv “ 1

% 2u ` v “ i
» fi » fi
i 0 « ff 1
ffi u
tiene solución. Este problema se expresa matricialmente por –0 1 ` ifl “ –1fl.
— — ffi
v
2 1 i

Definición 2.4
Una solución del sistema de ecuaciones lineales (2.2) es cualquier n-tupla pt1 , ¨ ¨ ¨ , tn q en
Kn que sea solución simultánea de cada una de las ecuaciones lineales que conforman el
sistema (2.2); esto es, que para i “ 1, ¨ ¨ ¨ , m se tiene ai1 t1 ` ai2 t2 ` ¨ ¨ ¨ ` ain tn “ bi .
El conjunto solución del sistema (2.2) está constituido por todas las n-tuplas de Kn
que son solución del sistema de ecuaciones lineales dado.

En el capı́tulo anterior discutimos sobre la identificación de los conjuntos Kn , Mnˆ1 pKq


y M1ˆn pKq; dado que (2.2) se expresa matricialmente por

A X “ B, con A P Mmˆn pKq y B P Mmˆ1 pKq, (2.4)

el conjunto solución de (2.2) (por ende de (2.4)) es dado por

SpA, Bq “ tX P Mnˆ1 pKq : A X “ Bu.

El problema central en el estudio de los sistemas de ecuaciones lineales es conocer su


conjunto solución. Más adelante demostraremos que para cualquier sistema de ecuaciones
lineales AX “ B, A P Mmˆn pKq y B P Mmˆ1 pKq, su conjunto solución SpA, Bq solo puede
ser de una de las siguientes formas:
Sin solución. Esto # significa que SpA, Bq es vacı́o. Un ejemplo de ello es el sistema de
x ` 0y “ 0
ecuaciones lineales ; geométricamente el sistema describe dos rectas para-
x ` 0y “ 1
lelas verticales en el plano R2 , que evidentemente no se cortan.
Con solución única. Recurrimos nuevamente a rectas del plano para ejemplificar: las
ecuaciones lineales x ` y “ 0 y x ´ y “ 0 representan las rectas que pasan por el origen
p0, 0q y con pendientes ´1 y 1 respectivamente; su único punto en común es el origen.
Con infinitas soluciones. La ecuación lineal x ´ y “ 1 representa la recta que pasa
por el p1, 0q con pendiente igual a 1; todo punto (2-tupla o par ordenado) en esa recta es
solución de la ecuación.
52 Neptalı́ Romero

Note que todo sistema de ecuaciones lineales homogéneo siempre tiene solución: para
la matriz unicolumna nula X0 “ Onˆ1 se tiene AX0 “ Omˆ1 ; ası́ que SpA, Oq es no vacı́o
pues al menos contiene a la solución trivial X0 .

Definición 2.5
Dadas A P Mmˆn pKq y B P Mmˆ1 pKq, el sistema de ecuaciones lineales con m ecuaciones
y n incógnitas AX “ B es llamado:

(a) soluble, o compatible, si su conjunto solución es no vacı́o. Siendo soluble, se le conoce


por compatible determinado, si su solución es única; y por compatible indeterminado
si admite más de una solución;

(b) no soluble, o incompatible, si su conjunto solución es vacı́o; es decir, no existe X P


Mnˆ1 pKq tal que A X “ B.

El siguiente recuadro resume la definición que clasifica los sistemas de ecuaciones li-
neales en términos de su conjunto solución:

Incompatible: no tiene solución.


#
Compatible determinado: solución única.
Compatible: tiene solución.
Compatible indeterminado: infinitas soluciones.

Un aspecto importante de resaltar para los sistemas de ecuaciones lineales que tienen
más de una solución es establecido a seguir.

Proposición 2.1
Dadas A P Mmˆn pKq y B P Mmˆ1 pKq, si el sistema de ecuaciones lineales AX “ B tiene
más de una solución, entonces admite infinitas soluciones.

Demostración. Supongamos que X1 , X2 P Mnˆ1 pKq son soluciones diferentes de AX “


B; esto es, AX1 “ B y AX2 “ B. Consideremos todos los escalares α, β P K tales que
α ` β “ 1. Claramente el conjunto de pares ordenados pα, βq que satisfacen esta condición
es un conjunto infinito. Veamos que cualesquiera sean los escalares α, β P K con α ` β “ 1,
αX1 ` βX2 es también solución de AX “ B. En efecto:

ApαX1 ` βX2 q “ ApαX1 q ` Ap βX2 q “ αpAX1 q ` βpAX2 q “ αB ` βB “ pα ` βqB “ B;

ası́, AX “ B admite infinitas soluciones.

Definición 2.6
Dado un sistema de ecuaciones lineales AX “ B, con A P Mmˆn pKq y B P Mmˆ1 pKq, su
matriz ampliada es la matriz de orden m ˆ pn ` 1q obtenida de la matriz del sistema A
anexándole como última columna a B; ella es denotada por rA|Bs.
Álgebra lineal: Nociones y propiedades elementales 53

Ejemplo 2.4
Los sistemas de ecuaciones lineales
# # #
x`y “0 x`y “1 x“0
, y ;
x`y “1 x“0 y`z “0

tienen, respectivamente, como matrices ampliadas a:


« ff « ff « ff
1 1 0 1 1 1 1 0 0 0
, y .
1 1 1 1 0 0 0 1 1 0

Proposición 2.2
Sean A, C P Mmˆn pKq y B, D P Mmˆ1 pKq, si los sistemas de ecuaciones lineales AX “ B
y CX “ D son tales que las matrices rA|Bs y rC|Ds son equivalentes por filas, entonces
SpA, Bq “ SpC, Dq.

Demostración. Si las matrices ampliadas rA|Bs y rC|Ds son equivalentes por filas, en-
tonces existe una matriz E P Mm pKq invertible tal que ErA|Bs “ rC|Ds; de donde EA “ C
y EB “ D. Siendo E invertible, tenemos que AX “ B si, y solo si, EpAXq “ EB. Pero,
EpAXq “ pEAqX “ CX, de donde AX “ B si, y solo si, CX “ D. Lo cual claramente
indica que los conjuntos solución de los sistemas AX “ B y CX “ D son iguales.

Ejemplo 2.5 $ $
& x ` 2y ` z “ 0
’ & x ` 2y ` z “ 0

Los sistemas de ecuaciones lineales: x´y`z “1 y ´2x ` 2y ´ 2z “ ´2 tienen

% 2x ` y ` 2z “ 1 ’
% 4x ` 2y ` 4z “ 2
» fi » fi
1 2 1 0 1 2 1 0
sus matrices ampliadas – 1 ´1 1 1 fl y – ´2 2 ´2 ´2 fl equivalentes por filas.
— ffi — ffi
2 1 2 1 4 2 4 2
Obviamente para verificar esta afirmación debemos conseguir operaciones elementales por
filas de manera que al aplicar estas a una de las matrices ampliadas resulte la segunda;
otra forma es chequear que ambas tienen la misma forma canónica de Gauss-Jordan; es lo
que haremos a continuación.
» fi » fi » fi
1 2 1 0 1 2 1 0 1 1 2 1 0
ffi f2 ÝÑf2 ´f1 f2 ÐÑ´ 3 f2
– 1 ´1 1 1 fl ÝÝÝÝÝÝÝÝÑ – 0 ´3 0 1 fl ÝÝÝÝÝÝÝÑ – 0 1 0 ´ 13 fl
— — ffi — ffi
f3 ÝÑf3 ´2 f1
2 1 2 1 0 ´3 0 1 0 ´3 0 1
» fi
2
1 0 1 3
f1 ÝÑf1 ´2 f2
ÝÝÝÝÝÝÝÝÑ – 0 1 0 ´ 13 fl ,
— ffi
f3 ÝÑf3 `3 f2
0 0 0 0
» fi
2
1 0 1 3
por lo que la matriz – 0 1 0 ´ 13 fl es la forma canónica de Gauss-Jordan de la matriz
— ffi
0 0 0 0
54 Neptalı́ Romero

ampliada del primer sistema de ecuaciones lineales. Similarmente:


» fi » fi » fi
1 2 1 0 1 2 1 0 1 1 2 1 0
ffi f2 ÝÑf2 `2 f1 — ffi f2 ÐÑ f2 —
– ´2 2 ´2 ´2 fl ÝÝÝÝÝÝÝÝÑ – 0 6 0 ´2 fl ÝÝÝÝÝ6ÝÑ – 0 1 0 ´ 13 fl
— ffi
f3 ÝÑf3 ´4 f1
4 2 4 2 0 ´6 0 2 0 ´6 0 2
» fi
2
1 0 1 3
f1 ÝÑf1 ´2 f2
ÝÝÝÝÝÝÝÝÑ – 0 1 0 ´ 13 fl ;
— ffi
f3 ÝÑf3 `6 f2
0 0 0 0

luego la matriz ampliada del segundo sistema de ecuaciones lineales tiene la misma for-
ma canónica de Gauss-Jordan, con lo cual ambos sistemas tienen los mismos conjuntos
solución. De momento no sabemos como es ese conjunto, aunque con la reducción a la
forma canónica podemos indagar un poco. Más adelante discutiremos en detalles lo que
acá estamos ejemplificando.
» fi
2
1 0 1 3
Observe que la matriz – 0 1 0 ´ 31 fl es la matriz amplida del sistema de ecuaciones
— ffi
0 0 0 0
$
& x ` 0y ` z “ 2{3
’ #
x ` z “ 2{3
lineales 0x ` y ` 0z “ ´1{3 , que simplificadamente escribimos como .

% 0x ` 0y ` 0z “ 0 y “ ´1{3
$
& x ` 2y ` z “ 0

Ası́, de la proposición anterior el conjunto solución de x´y`z “1 , por ende de

% 2x ` y ` 2z “ 1
$
& x ` 2y ` z “ 0
’ #
x ` z “ 2{3
los sistemas ´2x ` 2y ´ 2z “ ´2 y , es dado por

% 4x ` 2y ` 4z “ 2 y “ ´1{3

S “ tpx, y, zq : y “ ´1{3 y x ` z “ 2{3u,

que es un conjunto con infinitas 3-tuplas, ¿por qué?

Ejemplo 2.6 # #
x ` 2y “ 2 x`y “2
Los sistemas de ecuaciones lineales y tienen como ma-
´x ´ 2y “ 1 ´x ´ y “ 1
« ff « ff
1 2 2 1 1 2
trices ampliadas y , respectivamente. Sus formas canóni-
´1 ´2 1 ´1 ´1 1
« ff « ff
1 2 0 1 1 0
cas de Gauss-Jordan son las matrices y , notariamente diferen-
0 0 1 0 0 1
« ff « ff
1 2 2 1 1 2
tes; ası́ que y no son equivalentes por filas. Note que
´1 ´2 1 ´1 ´1 1
# #
x ` 2y “ 0 x`y “0
y son los sistemas de ecuaciones lineales cuyas matrices
0x ` 0y “ 1 0x ` 0y “ 1
ampliadas son las formas canónicas de Gauss-Jordan de arriba; además, estos sistemas son
incompatibles pues no existen valores de x y y de forma que 0x ` 0y “ 1. De esta manera,
Álgebra lineal: Nociones y propiedades elementales 55

los sistemas de ecuaciones lineales iniciales tienen el mismo conjunto solución: el conjunto
vacı́o, sin embargo sus matrices ampliadas no son equivalentes.

Comentario 2.2
El ejemplo anterior muestra la falsedad de la proposición:
Si dos sistemas de ecuaciones lineales AX “ B y CX “ D (A, C P Mmˆn pKq y B, D en
Mmˆ1 pKq) tienen el mismo conjunto solución, entonces las matrices rA|Bs y rC|Ds son
equivalentes por filas.
En realidad puede demostrarse que agregando la condición de compatibilidad (conjunto
solución no vacı́o), las respectivas matrices ampliadas sı́ son equivalentes por fila. Lo cual
es una forma restringida del recı́proco de la Proposición 2.2.

2.3. Teorema de Rouché-Frobenius


Esta sección está dedicada a un importante resultado del álgebra lineal conocido como
Teorema de Rouché-Frobenius. En 1875 el matemático francés Eugène Rouché (1832-1910)
publica un corto artı́culo, “Sur la discussion des equations du premier degré”, en el cual se
discute la compatibilidad de los sistemas de ecuaciones lineales; una versión completa de ese
criterio es publicada en el Journal de l’École Polytechnique por el mismo Rouché en 1880.
El también matemático francés Georges Fontené (1848-1923), del cual se conoce poco,
en una de sus publicaciones afirma que ya él habı́a dado una demostración del resultado
discutido por Rouché en sus artı́culos de 1875 y 1880; quizá por ello en la literatura
matemática francesa el resultado que trataremos se conoce por el nombre de Teorema de
Rouché-Fontené. En 1905 el matemático alemán Ferdinand Georg Frobenius (1849-1917)
publica un artı́culo en el que además de abordar el criterio de compatibilidad, da créditos
tanto a Rouché como a Fontené, sobre la autorı́a del criterio. En el mundo de habla hispana,
este criterio es conocido como Teorema de Rouché-Frobenius, quizá por la influencia de
la denominación dada por el matemático español-argentino Julio Rey Pastor (1888-1962)
es sus libros de texto; el resultado también conocido por Teorema de Kronecker-Capelli
debido a la creencia que Kronecker, en sus cursos de Berlin, habı́a planteado tal resultado,
y sus alumnos Frobenius y Capelli pudieron haberlo enunciado en forma más completa.

Teorema 2.1 (Teorema de Rouché-Frobenius)


Todo sistema de ecuaciones lineales con m ecuaciones y n incógnitas A X “ B, con
A P Mmˆn pKq y B P Mmˆ1 pKq, es compatible si, y solo si, rangopAq “ rangoprA|Bsq.
Además; en el caso de ser compatible, si rangopAq “ n, entonces la solución es única;
mientras que si rangopAq ă n, el sistema es compatible indeterminado.

Demostración. Inicialmente supongamos que el sistema es compatible; es decir, el con-


junto solución SpA, Bq es no vacı́o, mostraremos que rangopAq “ rangoprA|Bsq. Proce-
damos por el absurdo, si rangopAq ‰ rangoprA|Bsq, como rA|Bs tiene una columna más
que A, entonces rangopAq ` 1 “ rangoprA|Bsq; esto es, si rC|Ds es la forma canónica
de Gauss-Jordan de rA|Bs, entonces la última fila no nula de rC|Ds es r0 0 ¨ ¨ ¨ 0 1s, por
lo que el sistema de ecuaciones lineales correspondiente a rC|Ds tiene como una de sus
56 Neptalı́ Romero

ecuaciones a 0 x1 ` 0 x2 ` ¨ ¨ ¨ ` 0 xn “ 1; la cual es no admite solución pues 0 ‰ 1. Luego


C X “ D no tiene solución lo cual es una contradicción ya que SpA, Bq “ SpC, Dq.
Supongamos ahora que rangopAq “ rangoprA|Bsq. Dado que el rango de una matriz
es siempre menor o igual que el mı́nimo entre su número de filas y su número de columnas,
solo puede ocurrir dos casos:

rangopAq “ rangoprA|Bsq “ n, o bien rangopAq “ rangoprA|Bsq ă n.

Sea rC|Ds la forma canónica de Gauss-Jordan de rA|Bs, note que C es la forma canóni-
ca de Gauss-Jordan de A y rangopAq “ rangopCq “ rangoprC|Dsq. A seguir analizaremos
cada uno de los dos casos.
‚ Caso rangopAq “ rangoprA|Bsq “ n:
Si el número de filas no nulas de C y»rC|Ds es n, entonces fi m ě n y como el número de
1 0 ¨ ¨ ¨ 0 d1
— 0 1 ¨ ¨ ¨ 0 d ffi
— 2 ffi
— . . .
— .. .. . . ... ... ffi
ffi
— ffi
columnas de C es n se tiene rC|Ds “ — 0 0 ¨ ¨ ¨ 1 dn ffi, pues los primeros elementos
— ffi
— ffi
— 0 0 ¨ ¨ ¨ 0 0 ffi
.. .. ffi
— ffi

– . . fl
0 0 ¨¨¨ 0 0
no nulos de cada una de las filas no nulas de una forma escalonada (¡los pivotes!) están
ubicados en forma ascendente respecto de la numeración de las columnas, recuerde la de-
finición de matriz escalonada reducida por filas y la forma general de tales matrices. Esto
implica que el sistema de ecuaciones lineales correspondiente a rC|Ds es
$ $

’ x1 ` 0x2 ` 0x3 ` ¨ ¨ ¨ ` 0xn “ d1 ’
’ x1 “ d1
’ ’


’ 0x1 ` x2 ` 0x3 ` ¨ ¨ ¨ ` 0xn “ d2 ’

’ x2 “ d2
.. ..

’ ’

’ ’


& . ’

& .
0x1 ` 0x2 ` ¨ ¨ ¨ ` 0xn´1 ` xn “ dn “ xn “ dn ,
’ ’


’ 0x1 ` 0x2 ` 0x3 ` ¨ ¨ ¨ ` 0xn “ 0 ’

’ 0“0
.. ..

’ ’

’ ’



’ . ’


’ .
0x1 ` 0x2 ` 0x3 ` ¨ ¨ ¨ ` 0xn “ 0 0“0
% %

el cual tiene como solución única a la n-tupla pd1 , d2 , ¨ ¨ ¨ , dn q. Luego de la Proposición 2.2
el sistema de ecuaciones lineales AX “ B es compatible determinado y su única solución
es la misma n-tupla pd1 , d2 , ¨ ¨ ¨ , dn q.
‚ Caso rangopAq “ rangoprA|Bsq ă n:
Sean rangopAq “ r y j1 ă ¨ ¨ ¨ ă jr las columnas donde están ubicados los primeros
elementos no nulos de las filas no nulas de cualquier forma escalonada equivalente por filas
a A y rA|Bs. Por comodidad, haciendo un renombramiento de las variables del sistema,
supondremos que las columnas j1 , ¨ ¨ ¨ , jr son las primeras r. De esta forma, si C y rC|Ds
las formas canónicas de Gauss-Jordan de las matrices A y rA|Bs, entonces las matrices C
Álgebra lineal: Nociones y propiedades elementales 57

y rC|Ds son de la forma


» fi
1 0 ¨¨¨ 0 ˚ ˚ ¨¨¨ ˚ d1

— 0 1 ¨¨¨ 0 ˚ ˚ ¨¨¨ ˚ d2 ffi
ffi
— .. .. .. .. .. .. .. .. ffi

— . . . . . . ¨¨¨ . . ffi
ffi
0 0 1 ˚ dr ffi ;
— ffi
rC|Ds “ — ¨¨¨ ˚ ˚ ¨¨¨
— ffi
— 0 0 ¨¨¨ 0 0 0 ¨¨¨ 0 0 ffi
.. .. .. .. .. .. .. ffi
— ffi

– . . ¨¨¨ . . . ¨¨¨ . . fl
0 0 ¨¨¨ 0 0 0 ¨¨¨ 0 0

lo indicado por ˚ significa que en esa entrada está ocupada por algún escalar en K; note
que los pivotes (dı́gitos 1’s enmarcados) corresponden a las variables x1 , ¨ ¨ ¨ , xr . Ası́ pues,
las r ecuaciones no nulas del sistema de ecuaciones lineales correspondiente a la matriz
ampliada rC|Ds son:
$


’ x1 ` c1r`1 xr`1 ` c1r`2 xr`2 ` ¨ ¨ ¨ ` c1n xn “ d1
& x2 ` c2r`1 xr`1 ` c2r`2 xr`2 ` ¨ ¨ ¨ ` c2n xn “ d2

.. .


’ .

% x `c
r x
rr`1 `c r`1x ` ¨¨¨ ` c x “ d
rr`2 r`2 rn n r

Esto permite escribir las variables x1 , x2 , ¨ ¨ ¨ , xr en términos de las restantes variables o


incógnitas xr`1 , xr`2 , ¨ ¨ ¨ , xn :
$


’ x1 “ d1 ´ c1r`1 xr`1 ´ c1r`2 xr`2 ´ ¨ ¨ ¨ ´ c1n xn
& x2 “ d2 ´ c2r`1 xr`1 ´ c2r`2 xr`2 ´ ¨ ¨ ¨ ´ c2n xn

.. .


’ .

% x “d ´c
r r x
rr`1 ´c r`1 x ´ ¨¨¨ ´ c x
rr`2 r`2 rn n

A las variables sobre las cuales dependen aquellas que corresponden a los pivotes de la
forma canónica de Gauss-Jordan (o cualquier matriz escalonada equivalente por filas a A)
se les llama variables o incógnitas libres del sistema, estas pueden tomar valores arbitrarios
(¡son parámetros!); ası́ por ejemplo, si a todas las incógnitas distintas de x1 , x2 , ¨ ¨ ¨ , xr , le
asignamos el valor 0, entonces la n-tupla pd1 , d2 , ¨ ¨ ¨ , dr , 0, 0, ¨ ¨ ¨ , 0q es solución de tanto de
CX “ D como de AX “ B. También pueden ser obtenidas otras soluciones, basta asignar
otros valores a las variables libres. Se concluye ası́ que el sistema de ecuaciones lineales
AX “ B es compatible indeterminado.

Corolario 2.1
Dada cualquier sistema de ecuaciones lineales homogéneo AX “ 0, A P Mmˆn pKq, el
sistema única solución si, y solo si, rangopAq “ n; de lo contrario el sistema es compatible
indeterminado.

Demostración. Inmediata, pues los sistemas homogéneos son compatibles.

A partir del enunciado del Teorema de Rouché-Frobenius y las operaciones elementales


por filas se obtiene una herramienta para conocer tanto la compatibilidad los sistemas de
58 Neptalı́ Romero

ecuaciones lineales, como sus soluciones en caso de ser compatibles. Esta herramienta,
llamada método de reducción de Gauss-Jordan o eliminación Gaussiana, es un proceso
algoritmico que consiste en obtener un sistema de ecuaciones lineales cuyas ecuaciones
están en forma escalonada (por ello la reducción mediante operaciones elementales por filas
de las matriz ampliada, o matriz del sistema si este es homogéneo), esto permitirá decidir
si el sistema es compatible o no; acá entra en juego el Teorema de Rouché-Frobenius. En
caso de ser compatible, a partir del sistema reducido obtenido se procede a identificar las
variables pivote y las que son libres (si es que estas últimas existe; es decir, si el sistema
es indeterminado). Hecho esto, se obtiene el conjunto solución del sistema de ecuaciones.

Ejemplo 2.7 $
x ` 2y ´ z

& “ 1
Consideremos el sistema de ecuaciones lineales ´x ` 5y ´ 4z “ ´2 . Es claro que

% ´3x ` y ´ 2z “ 2
» fi » fi
1 2 ´1 1 2 ´1 1
A “ – ´1 5 ´4 fl y rA|Bs “ – ´1 5 ´4 ´2 fl son, respectivamente, la matriz
— ffi — ffi
´3 1 ´2 ´3 1 ´2 2
del sistema y su ampliada. Dado que
» fi » fi » fi
1 2 ´1 1 1 2 1 1 1 2 1 1
ffi f2 ÝÑf2 `f1 — ffi f3 ÝÑf3 ´f2 —
– ´1 5 ´4 ´2 fl ÝÝÝÝÝÝÝÝÑ – 0 7 ´5 ´1 fl ÝÝÝÝÝÝÝÑ – 0 7 ´5 ´1 fl ,
— ffi
f3 ÝÑf3 `3 f1
´3 1 ´2 2 0 7 ´5 5 0 0 0 6
y esta última matriz es escalonada y equivalente por filas a rA|Bs, entonces A X “ B es
incompatible pues rangopAq “ 2 ‰ 3 “ rangoprA|Bsq.

Ejemplo 2.8 $

& y`z “ 2
Analicemos ahora el sistema de ecuaciones lineales x`y`z “ ´1 . En este caso

% x`y “ 2
» fi » fi
0 1 1 0 1 1 2
las matrices A “ – 1 1 1 fl y rA|Bs “ – 1 1 1 ´1 fl son la matriz del sistema y
— ffi — ffi
1 1 0 1 1 0 2
su ampliada; como:
» fi » fi » fi
0 1 1 2 1 1 1 ´1 1 1 1 ´1
ffi f2 ÐÑf1 — ffi f3 ÝÑf3 ´f1 —
– 1 1 1 ´1 fl ÝÝÝÝÝÑ – 0 1 1 2 fl ÝÝÝÝÝÝÝÑ – 0 1 1 2 fl
— ffi
1 1 0 2 1 1 0 2 0 0 ´1 3
» fi » fi
1 1 1 ´1 1 0 0 ´3
f3 ÝÑp´1qf3 — ffi f2 ÝÑf2 ´f3 —
ÝÝÝÝÝÝÝÝÑ – 0 1 1 2 fl ÝÝÝÝÝÝÝÑ – 0 1 0 5 fl ,
ffi
f1 ÝÑf1 ´f2
0 0 1 ´3 0 0 1 ´3
entonces el sistema A X “ B es compatible determinado, tiene solución única. Como
el sistema de ecuaciones
$ lineales correspondiente a la última matriz (forma canónica de
& x “ ´3

Gauss-Jordan) es y “ 5 , se tiene que el conjunto solución de AX “ B es contituido

% z “ ´3
Álgebra lineal: Nociones y propiedades elementales 59

únicamente por la 3-tupla p´3, 5, ´3q.


» fi
1 1 1 ´1
Note que en la matriz – 0 1 1 2 fl se puede hacer el análisis; esta matriz es
— ffi
0 0 ´1 3
escalonada equivalente por filas a rA|Bs, por tanto

rangopAq “ rangoprA|Bsq “ 3 “ número de incógnitas;

de donde el sistema$AX “ B es compatible determinado, y su conjunto solución es el


& x ` y ` z “ ´1

mismo del sistema y`z “ 2 , de donde se deduce rápidamente que la única

% z “ ´3
solución es la arriba mencionada.

Ejemplo 2.9 $

& x1 ` x2 ` x4 “ ´1
Consideremos el sistema x1 ` 2x2 ` x3 ` 2x4 ` x5 “ 0 , ahora las matrices del

% x1 ` x2 ` 2x4 ` x5 “ ´1
» fi » fi
1 1 0 1 0 1 1 0 1 0 ´1
sistema y ampliadas son A “ – 1 2 1 2 1 fl y rA|Bs “ – 1 2 1 2 1 0 fl;
— ffi — ffi
1 1 0 2 1 1 1 0 2 1 ´1
procedamos a obtener una forma escalonada:
» fi » fi
1 1 0 1 0 ´1 1 1 0 1 0 ´1
ffi f2 ÝÑf2 ´f1 —
1 2 1 2 1 0 0 1 1 1 1 1 fl ;
— ffi
– fl ÝÝ ÝÝÝÝ ÝÑ –
f3 ÝÑf3 ´f1
1 1 0 2 1 ´1 0 0 0 1 1 0

aunque esta matriz no es la forma canónica de Gauss-Jordan de rA|Bs, el Teorema de


Rouché-Frobenius garantiza que $ el sistema AX “ B es compatible indeterminado y su

& x1 ` x2 ` x4 “ ´1
conjunto solución es el mismo de x2 ` x3 ` x4 ` x5 “ 1 . Por otra parte, dado que

% x4 ` x5 “ 0
los pivotes de esa matriz escalonada son los enmarcados, las variables libres del sistema
son x2 , x3 y x5 . Las variables dependientes son por tanto x1 , x2 y x4 . Ahora expresemos
las variables dependientes en términos de las libre; es claro que

x4 “ ´x5 , x2 “ 1 ´ x3 ´ x4 ´ x5 y x1 “ ´1 ´ x2 ´ x4

de donde
x4 “ ´x5 , x2 “ 1 ´ x3 y x1 “ ´2 ` x3 ` x5 .

Ası́ que el conjunto solución de AX “ B es dado por

SpA, Bq “ tp´2 ` α ` β, 1 ´ α, α, ´β, βq P K5 : α, β P Ku;

por ejemplo la 5-tupla p´2, 1, 0, 0, 0q es de las infinitas soluciones del sistema.


60 Neptalı́ Romero

2.4. Algo más


Ahora que sabemos cómo conocer el carácter de compatibilidad de cualquier sistema de
ecuaciones lineales, pasamos a estudiar cómo expresar una forma general de las soluciones
de sistemas compatibles indeterminados.

2.4.1. Caso: sistemas homogéneos


Comenzaremos considerando un sistema de ecuaciones lineales homogéneo AX “ O,
donde A P Mmˆn pKq. Es bien conocido que el sistema es compatible, o equivalentemente
rangopAq “ rangoprA|Osq.

Proposición 2.3
Cualesquiera sean α P K y P, Q P SpA, Oq, con A P Mmˆn pKq, las n-tuplas αP y Q ` αP
son soluciones de AX “ O.

Demostración. Dado que AP “ O y AQ “ O, de las propiedades de la multiplicación


de matrices sigue que:
ApαP q “ αpA P q “ αO “ O; y
ApQ ` αP q “ AQ ` ApαP q “ O ` αpAP q “ α O “ O;
con lo cual la demostración está completa.

El conjunto solución SpA, Oq del sistema de ecuaciones lineales homogéneo AX “ O


tiene estructura lineal; esto significa que es cerrado con respecto de la adición de matrices
y de la multiplicación por escalares. Por tal motivo (que se entenderá mejor en el capı́tulo
??), a este conjunto le llamaremos espacio solución del sistema homogéneo AX “ O.

Corolario 2.2
Dado el sistema de ecuaciones lineales homogéneo AX “ O con A P Mmˆn pKq; si
P1 , ¨ ¨ ¨ , Pk son soluciones de A X “ O, entonces cualquier combinación lineal de ellas
es también solución del sistema AX “ O; es decir, CLpP1 , ¨ ¨ ¨ , Pk q Ă SpA, Oq.

Demostración. Se dejan los detalles al lector. Recordar que Q P CLpP1 , ¨ ¨ ¨ , Pk q si, y


sólo si, existen escalares α1 , ¨ ¨ ¨ , αk en K tales que Q “ α1 P1 ` ¨ ¨ ¨ ` αk Pk .

Teorema 2.2
Dado el sistema de ecuaciones lineales homogéneo A X “ O con A P Mmˆn pKq; si
rangopAq “ r ă n, entonces existen n ´ r soluciones de A X “ O, digamos P1 , ¨ ¨ ¨ , Pn´r
tales que CLpP1 , ¨ ¨ ¨ , Pn´r q “ SpA, Oq.

A la colección de soluciones P1 , ¨ ¨ ¨ , Pn´r suministradas por el teorema se le denomina


generador mı́nimo de SpA, Oq, o base de SpA, Oq; mientras que a la expresión

X “ α1 P1 ` ¨ ¨ ¨ ` αn´r Pn´r , (2.5)

con α1 , ¨ ¨ ¨ , αn´r P K, se le llama solución general del sistema. Obviamente esta expresión
tiene “gracia” si el rango de A es menor que el número de columnas de la matriz (r ă n).
Álgebra lineal: Nociones y propiedades elementales 61

Demostración del Teorema 2.2. Sea C la forma canónica de Gauss-Jordan de A:


» fi
0 ¨¨¨ 0 1 ˚ ˚ 0 ¨¨¨ 0 ¨¨¨ ˚
— 0 ¨¨¨ 0 0 ¨ ¨ ¨ 0 1 ¨ ¨ ¨ 0 ¨ ¨ ¨ ˚ ffi
— ffi
— . . .. .. .. .. .. .. .. .. .. ffi
— .. .. . . . . . . . . . ffi
— ffi
C “ — 0 ¨¨¨ 0 0 ¨ ¨ ¨ 0 0 ¨ ¨ ¨ 1 ¨ ¨ ¨ ˚ ffi .
— ffi
— ffi
— 0 ¨¨¨ 0 0 ¨ ¨ ¨ 0 0 ¨ ¨ ¨ 0 ¨ ¨ ¨ 0 ffi
— .. .. .. .. .. .. .. .. .. .. .. ffi
— ffi
– . . . . . . . . . . . fl
0 ¨¨¨ 0 0 ¨¨¨ 0 0 ¨¨¨ 0 ¨¨¨ 0

Sean j1 ă j2 ă ¨ ¨ ¨ ă jr ă n los ı́ndices de las columnas donde se ubican los pivotes


de C (son los indicados en los recuadros), y sean xj1 , xj2 , ¨ ¨ ¨ , xjr las variables del sistema
CX “ O correspondientes a esos ı́ndices. Sabemos que las restantes variables son las libres
(o independientes) y que SpA, Oq “ SpC, Oq. Sin perder generalidad supondremos que esos
ı́ndices son los r primeros1 ; de esta manera la matriz C es de la forma
» fi
1 0 ¨ ¨ ¨ 0 c1r`1 ¨ ¨ ¨ c1n
— 0 1 ¨¨¨ 0 c
2r`1 ¨ ¨ ¨ c2n ffi
ffi

— . . .
— .. .. . . ... ..
.
..
.
.. ffi
. ffi « ff
— ffi Ir C1
C “ — 0 0 ¨ ¨ ¨ 1 crr`1 ¨ ¨ ¨ crn ffi “ ,
— ffi
— ffi Om´rˆr Om´rˆn´r
— 0 0 ¨¨¨ 0 0 ¨ ¨ ¨ 0 ffi
— ffi
— .. .. .. .. .. .. .. ffi
– . . . . . . . fl
0 0 ¨¨¨ 0 0 ¨¨¨ 0
» fi
c1r`1 ¨ ¨ ¨ c1n
— c2r`1 ¨ ¨ ¨ c2n ffi
— ffi
1
donde Ir es la matriz identidad de orden r; C “ — . .. ffi, Om´rˆr y Om´rˆn´r
.. ffi

– .
. . . fl
crr`1 ¨ ¨ ¨ crn
son, respectivamente, las matrices nulas de orden m ´ r ˆ r y m ´ r ˆ n ´ r. Por tanto el
sistema de ecuaciones lineales homogéneo correspondiente a la matriz C es
$


’ x1 ` c1r`1 xr`1 ` ¨ ¨ ¨ ` c1n xn “ 0
& x2 ` c2r`1 xr`1 ` ¨ ¨ ¨ ` c2n xn “ 0

.. . (2.6)


’ .

% x `c
r x ` ¨¨¨ ` c x “ 0
rr`1 r`1 rn n

Observe que las n ´ r incógnitas xr`1 , ¨ ¨ ¨ , xn son las libres: podemos asignarles valores
arbitrarios y ası́ obtener soluciones de AX “ O. Note además que de (2.6) una n-tupla
pa1 , a2 , ¨ ¨ ¨ , an q es solución de AX “ O si, y solo si, para cada i “ 1, 2, ¨ ¨ ¨ , r se tiene

ai “ ´cir`1 ar`1 ´ ¨ ¨ ¨ ´ cin an , (2.7)

de allı́ la dependencia de las variables x1 , x2 , ¨ ¨ ¨ , xr .


1
basta renombrar las variables, lo cual equivale a intercambiar columnas
62 Neptalı́ Romero

Ahora produciremos n ´ r soluciones, P1 , P2 , ¨ ¨ ¨ , Pn´r , asignado valores particulares


a las variables libres xr`1 , ¨ ¨ ¨ , xn . Debido a la particularidad de los valores a asignar, las
soluciones que obtendremos servirán para verificar el enunciado del teorema; es decir, toda
solución de AX “ O (también de CX “ O) es combinación lineal de P1 , P2 , ¨ ¨ ¨ , Pn´r ; en
otras palabras, para cada X P SpA, Oq existen escalares α1 , α2 , ¨ ¨ ¨ , αn´r en K tales que
se tiene (2.5). La siguiente tabla expone los n ´ r juego de valores (llamados canónicos)
que daremos a las variables libres para obtener las anunciadas soluciones:
xr`1 xr`2 ¨¨¨ xn
1 0 ¨¨¨ 0
0 1 ¨¨¨ 0 .
.. .. .. ..
. . . .
0 0
¨¨¨ 1
» fi » fi » fi
´c1r`1 ´c1r`2 ´c1n
—´c2r`1 ffi —´c2r`2 ffi —´c2n ffi
— ffi — ffi — ffi
— . ffi — . ffi — . ffi
— .. ffi — .. ffi — .. ffi
— ffi — ffi — ffi
—´c ffi —´c ffi —´c ffi
— rr`1 ffi — rr`2 ffi — rn ffi
Usando (2.7) obtenemos P1 “ — ffi , P “ — ffi , ¨ ¨ ¨ , Pn´r “ — ffi que son
— 1 ffi 2 — 0 ffi — 0 ffi
— ffi — ffi — ffi
— 0 ffi — 1 ffi — 0 ffi
— ffi — ffi — ffi
— .. ffi — .. ffi — .. ffi
– . fl – . fl – . fl
0 0 1
soluciones de AX “ O, y como cualquier otra solución X es de la forma
» fi
´c1r`1 α1 ´ ¨ ¨ ¨ ´ c1n αn´r
—´c2r`1 α1 ´ ¨ ¨ ¨ ´ c2n αn´r ffi
— ffi
— .. ffi

— . ffi
ffi
— rr`1 α1 ´ ¨ ¨ ¨ ´ crn αn´r ffi
—´c ffi
X“— ffi ,
— α1 ffi
— ffi

— α 2
ffi
ffi
— .. ffi
– . fl
αn´r
y dado que
» fi » fi » fi
´c1r`1 ´c1r`2 ´c1n
—´c2r`1 ffi —´c2r`2 ffi —´c2n ffi
— ffi — ffi — ffi
— . ffi — . ffi — . ffi
.
— . ffi .
— . ffi .
— . ffi
— ffi — ffi — ffi
—´c ffi —´c ffi —´c ffi
— rr`1 ffi — rr`2 ffi — rn ffi
X “ α1 — ffi `α2 — ffi `¨ ¨ ¨`αn´r — ffi “ α1 P1 `α2 P2 `¨ ¨ ¨`αn´r Pn´r ,
— 1 ffi — 0 ffi — 0 ffi
— ffi — ffi — ffi
— 0 ffi — 1 ffi — 0 ffi
— ffi — ffi — ffi
— .. ffi — .. ffi — .. ffi
– . fl – . fl – . fl
0 0 1
la demostración está completa.
Álgebra lineal: Nociones y propiedades elementales 63

Comentario 2.3
Conveniene aclarar que los valores asignados a las variables libres no son únicos, existen
muchos otros; pero los elegidos en la demostración son los “canónico”, de allı́ su nombre.
Por otra parte, en la práctica no es necesario realizar tales cambios de columnas que hicimos
en la demostración para que las variables dependientes sean las primeras, simplemente se
deben tener presente las columnas (las que determinan esas variables) donde están los
pivotes; las variables que corresponden a las columnas restantes son a las cuales se les
asignarán los valores canónicos.

Ejemplo 2.10 $

’ x ` 2y ` z ´ w “0

& x ` 2y ´ 2z ´ w “0
Analicemos el conjunto solución del sistema . Dado que

’ 2x ` 4y ´ 7z ´ 2w “0

5x ` 10y ´ z ´ 5w “0
%

» fi » fi
1 2 1 ´1 1 2 1 ´1

— 1 2 ´2 ´1 ffi
ffi f2 ÝÑf2 ´f1

— 0 0 ´3 0 ffi
ffi
— ffi ÝÝÝ Ý ÝÝÝÝ Ý Ý ÝÑ — ffi
– 2 4 ´7 ´2 fl f3 ÝÑ f3 ´ 2 f1 – 0 0 ´9 0 fl
5 10 ´1 ´5 f4 ÝÑ f4 ´ 5 f1 0 0 ´6 0
» fi
f2 ÐÑ ´ 13 f2 1 2 0 ´1
f1 ÝÑ f1 ´ f3
— 0 0 1 0 ffi
ffi ,
— ffi
ÝÝÝÝÝÝÝÝÝÝÝÑ —
f3 ÝÑ f3 ` 9 f2 – 0 0 0 0 fl
f4 ÝÑ f4 ` 6 f2 0 0 0 0

el sistema tiene infinitas soluciones pues el rango de la matriz del sistema es 2 ă 4. Note
que
# las variables libres son y y w; además, el sistema original tiene las mismas soluciones de
x ` 2y ´ w “ 0
. Siguiendo entonces con el procedimiento anterior, construimos la tabla
z“0
de valores canónicos sobre las variables libres para obtener una base del espacio solución
y w
del sistema de ecuaciones lineales homogéneo dado. Esa tabla es 1 0 , y origina las
0 1
» fi » fi
´2 1
— 1 ffi —0ffi
soluciones: P1 “ — ffi y P2 “ — ffi. Ası́, toda solución del sistema de ecuaciones lineales
— ffi — ffi
– 0 fl –0fl
0 1
» fi » fi » fi
x ´2 1
— y ffi — 1 ffi —0ffi
homogéneas dado es de la forma X “ — ffi “ α — ffi `β — ffi, que es la solución general
— ffi — ffi — ffi
– z fl – 0 fl –0fl
w 0 1
del sistema dado.

Dejamos al lector la demostración del siguiente enunciado, el cual se desprende de lo


discutido hasta el momento sobre los sistemas de ecuaciones lineales homogéneos.
64 Neptalı́ Romero

Teorema 2.3
Dada A P Mmˆm pKq; las siguientes afirmaciones son equivalentes:

1. A es invertible.

2. A tiene rango igual a m.

3. A X “ 0 tiene solucón única, la trivial.

2.4.2. Caso: sistemas no homogéneos


Consideremos ahora A P Mmˆn pKq, B P Mmˆ1 pKq ‰ O y el sistema de ecuaciones
lineales no homogéneo con m ecuaciones y n incógnitas, AX “ B de manera que admita
infinitas soluciones; es decir, rangopAq “ rangoprA|Bsq “ r ă n. Obviamente el sistema de
ecuaciones lineales homogéneo AX “ O también admite infinitas soluciones; del Teorema
2.2 existen n ´ r soluciones P1 , ¨ ¨ ¨ , Pn´r de AX “ O tales que la solución general de este
sistema se escribe como

X “ α1 P1 ` ¨ ¨ ¨ ` αn´r Pn´r , con α1 , ¨ ¨ ¨ , αn´r variando en K.

Nuestro interés es mostrar una fórmula general para expresar cualquier solución del sistema
no homogéneo AX “ B.

Teorema 2.4
Dadas A P Mmˆn pKq, B P Mmˆ1 pKq y P1 , ¨ ¨ ¨ , Pn´r P Mnˆ1 pKq como en el Teorema 2.2.
Si Q0 P Mnˆ1 pKq es cualquier solución particular de AX “ B, entonces toda solución de
este sistema se escribe como

X “ Q0 ` α1 P1 ` ¨ ¨ ¨ ` αn´r Pn´r , con α1 , ¨ ¨ ¨ , αn´r variando en K;

la cual se denomina solución general de A X “ B.

Demostración. Considere cualquier solución X P Mnˆ1 pKq de AX “ B. Dado que

ApX ´ Q0 q “ AX ´ AQ0 “ B ´ B “ O,

entonces X ´ Q0 es solución de AX “ O, por tanto existen escalares α1 , ¨ ¨ ¨ , αn´r P K


tales que X ´ Q0 “ α1 P1 ` ¨ ¨ ¨ ` αn´r Pn´r , luego es obvio que la solución X de AX “ B
se escribe como X “ Q0 ` α1 P1 ` ¨ ¨ ¨ ` αn´r Pn´r .

Observación 2.1
Primero debemos hacer notar que, a diferencia de los espacios solución de sistemas ho-
mogéneos, el conjunto solución de un sistema de ecuaciones lineales no homogéneo no es
cerrado con respecto a las operaciones de adición de matrices y multiplicación de escalares
por matrices. Por otra parte, al cambiar la solución articular, cambia la expresión general
de las soluciones de esos sistemas.
Álgebra lineal: Nociones y propiedades elementales 65

Ejemplo 2.11 $

’ x ` 2y ´ z “ 2

& ´x ` y ` z “ 1
Consideremos el sistema lineal no homogéneo . Dado que

’ 5x ` 4y ´ 5z “ 4

2x ` y ´ 2z “ 1
%
» fi » fi
1 2 ´1 2 1 2 ´1 2
— ´1 1 1 1 ffi — 0 3 0 3 ffi
— ffi f2 ÝÑf2 `f1 — ffi
— ffi ÝÝÝÝÝÝÝÝÝÝÝÑ — ffi
– 5 4 ´5 4 fl f3 ÝÑ f3 ´ 5 f1 – 0 ´6 0 ´6 fl
2 1 ´2 1 f4 ÝÑ f4 ´ 2 f1 0 ´3 0 ´3
» fi
f2 ÐÑ 13 f2 1 0 ´1 1
f1 ÝÑ f1 ´ f2
— 0 1 0 1 ffi
ffi ,
— ffi
ÝÝÝÝÝÝÝÝÝÝÝÑ —
f3 ÝÑ f3 ` 6 f2 – 0 0 0 0 fl
f4 ÝÑ f4 ` 3 f2 0 0 0 0
tenemos#que el sistema dado tiene infinitas soluciones, las cuales
# coinciden con las solucio-
x´z “1 x´z “0
nes de , cuyo sistema homogéneo asociado es ; note que estos
y“1 y“0
dos sistemas tienen como única variable libre a z. Por tanto, una solución particular del
sistema no homogéneo dado se obtiene asignándole
» fi cualquier valor particular a z; para
1
z “ 0 se tiene la solución particular Q0 “ – 1 fl. Por otro lado, para obtener la solución
— ffi
0
general del sistema de ecuaciones lineales homogéneo correspondiente al dado, se procede
como antes: asignándole los valores canónicos a las variables libres; que como es z, »
el valor
fi
1
canónico es z “ 1, de donde la solución general del sistema lineal homogéneo es α – 0 fl,
— ffi
1
» fi » fi
1 1
con α variando en K; y ası́, la solución general del sistema dado es X “ – 1 fl ` α – 0 fl
— ffi — ffi
0 1
con α variando en K.

Ejemplo 2.12
« ff « ff « ff « ff
1 0 2 1 1 ´1 ´1 0
Dadas A1 “ , A2 “ y A3 “ , ¿es A “ com-
1 2 ´1 1 1 2 0 1
binación lineal de A1 , A2 y A3 ? Es decir, queremos saber si existe escalares α, β, γ tales
que
« ff « ff « ff « ff « ff
´1 0 1 0 2 1 1 ´1 α ` 2β ` γ β´γ
“α `β `γ “ .
0 1 1 2 ´1 1 1 2 α ´ β ` γ 2α ` β ` 2γ
$

’ α ` 2β ` γ “ ´1

& β´γ “0
Lo cual equivale a analizar el sistema de ecuaciones lineales . En vista

’ α´β`γ “0

2α ` β ` 2γ “ 1
%
66 Neptalı́ Romero

que
» fi » fi
1 2 1 ´1 1 2 1 ´1

— 0 1 ´1 0 ffi
ffi f3 ÝÑf3 ´f1 — 0
— 1 ´1 0 ffi
ffi
— ffi ÝÝÝÝÝÝÝÝÑ — ffi
– 1 ´1 1 0 fl f4 ÝÑf4 ´2 f1 – 0 ´3 0 1 fl
2 1 2 1 0 ´3 0 3
» fi
1 2 1 ´1
— 0 1 ´1 0 ffi
f3 ÝÑf3 `3 f2
ffi ;
— ffi
ÝÝÝÝÝÝÝÝÝÝÝÑ —
f4 ÝÑ f4 ` 3 f2 – 0 0 0 1 fl
f4 ÝÑ f4 ´ 3 f3 0 0 0 0

de donde sistema de ecuaciones lineales no homogéneas anterior no tiene solución; conse-


cuentemente es imposible escribir a A como combinación lineal de A1 , A2 y A3 .

Ejemplo 2.13
Una empresa maderera tiene tres aserraderos: A, B y C. Cada una de ellos produce tres
tipos de maderas de calidad: alta, media y baja. Por cada tonelada métrica de materia
prima se tiene que:

el aserradero A produce 2 metros cúbicos de madera de alta calidad, 2 de calidad


media y 4 metros cúbicos de baja calidad;

el aserradero B produce 2 metros cúbicos de alta calidad, 4 de media calidad y 2


metros cúbicos de baja calidad; mientras que

el aserradero C produce 4 metros cúbicos de madera de alta calidad, 2 de calidad


media y 2 metros cúbicos de baja calidad.

Si la empresa tiene una demanda de 1000 metros cúbicos de madera de alta calidad;
2000 de calidad media y 1000 de madera de baja calidad, ¿cuántas toneladas métricas se
requieren en cada aserradero para satisfacer esa demanda?
A B C
» fi
Alta 2 2 4
La matriz Media – 2 4 2 fl representa la producción de los tres tipos de madera en
— ffi
Baja 4 2 2
los tres aserraderos. Note que cada columna contiene la información, en metros cúbicos,
de la producción
» fi de los tres productos por cada aserradero; ası́ por ejemplo, la primera
2
columna –2fl representa la producción del aserradero A; mientras que cada fila contiene
— ffi
4
la información
” de
ı la producción de un tipo de madera en los tres aserraderos; por ejemplo,
la fila 2 4 2 expresa la producción, por metro cúbico, de madera con calidad media
en las tres aserraderos. Denotemos por

x la cantidad de toneladas métricas que requiere el aserradero A;

y es la cantidad requerida por el aserradero B; y


Álgebra lineal: Nociones y propiedades elementales 67

z la cantidad que necesita el aserradero C.

» fi » fi » fi
2 2 4 x 1000
Entonces el problema planteado se expresa por – 2 4 2 fl –y fl “ –2000fl; que es el
— ffi — ffi — ffi
4 2 2 z 1000
$
& 2x ` 2y ` 4z “ 1000

sistema de ecuaciones lineales no homogéneo 2x ` 4y ` 2z “ 2000 . Para dar respuesta

% 4x ` 2y ` 2z “ 1000
a la interrogante procedemos a analizar este sistema de ecuaciones. Dado que

» fi » fi
2 2 4 1000 2 2 4 1000
ffi f2 ÝÑf2 ´f1 —
– 2 4 2 2000 0 2 1000 fl
— ffi
fl ÝÝ ÝÝ ÝÝÝÝ Ñ – ´2
f3 ÝÑf3 ´2 f1
4 2 2 1000 0 ´2 ´6 ´1000
» fi » fi
2 0 6 0 1 0 0 0
f1 ÝÑf1 ´f2 —
ÝÝÝÝÝÝÝÑ – 0 2 ´2 1000 fl „ – 0 1 0 500 fl
ffi — ffi
f3 ÝÑf3 `f2
0 0 ´8 0 0 0 1 0

$
& 2x ` 2y ` 4z “ 1000

se tiene que el sistema 2x ` 4y ` 2z “ 2000 es compatible determinado y su única

% 4x ` 2y ` 2z “ 1000
» fi » fi
x 0
solución es –y fl “ –500fl; por lo que: los aserraderos A y C no necesitan materia pri-
— ffi — ffi
z 0
ma para satisfacer tal demanda; mientras que el aserradero C requiere de 500 toneladas
métricas.

Ejemplo 2.14
¿Cuáles funciones polinómicas reales de segundo grado p cumplen pp1q “ 1 y pp´1q “ 2?
Dado que la expresión algebraica que define cualquier función polinómica de segun-
do grado es ppxq “ α ` βx ` γx2 con γ ‰#0, para responder a la interrogante debemos
α`β`γ “1
analizar el sistema de ecuaciones lineales . Ahora bien, como su ma-
α´β`γ “2
« ff « ff « ff
1 1 1 1 1 1 1 1 f2 ÝÑf2 ´f1 1 1 1 1
triz ampliada es y ÝÝÝÝÝÝÝÑ , el
1 ´1 1 2 1 ´1 1 2 0 ´2 0 1
sistema
# tiene infinitas soluciones, que son las mismas#del sistema de ecuaciones lineales
α`β`γ “1 α`β`γ “0
; cuyo sistema homegéneo asociado tiene como solu-
´2β “ 1 ´2β “ 0
» fi » fi
1
´1
— 2 ffi
ción general γ – 0 fl, con γ variando en R. Por tanto, en vista que – ´ 12 fl es una
— ffi
1 0
68 Neptalı́ Romero
# #
α`β`γ “1 α`β`γ “1
solución de , se tiene que la solución general de es
´2β “ 1 α´β`γ “2
» fi »
fi » fi
1 1
2 ´1 2 ´γ
X “ – ´ 12 fl ` γ – 0 fl “ – ´ 12 fl , γ P R.
— ffi — ffi — ffi
0 1 γ

Esto significa que las funciones polinómicas reales p de segundo orden de segundo orden
son dadas por
ppxq “ p 21 ´ γq ´ 12 x ` γx2 , cualquiera sea γ P R.

2.5. Ejercicios Propuestos


1. Obtenga la representación matricial de cada uno de los sistemas de ecuaciones:
$
$ $ ’ y ` z ´ 3w “ 1
& 2x ´ 3y ` 4z “ 2 & x ` 4z “ 1
’ ’ ’

& x ` 3y ` 2w “ 2
a) 3y ´ 2z “ 0 b) y´w “0 c) .
’ ’ ’ x ` 2y ´ z ` w “ 1
% x ` 5z “ ´1 % x ` 3z “ 1 ’

w“0
%

2. Obtenga los ecuaciones lineales AX “ B, donde:


» fi
1 0 0 1 » fi
» fi » fi 1
2 ´1 0 2 —
— 2 1 ´2 1 ffi
ffi — 1 ffi
a) A “ – 3 ´2 ´1 fl , B “ – ´1 fl b) A “ — 0 0 2 ´1 ffi , B “ — ffi .
— ffi — ffi — ffi — ffi
— ffi – 2 fl
0 0 1 0 – ´1 2 3 5 fl
3
4 2 1 0

3. Decidir si los pares de sistemas de ecuaciones dados tienen el mismo conjunto solución:
$ $

’ 2x ` y ` 2z “ 1 ’
’ x´y`z “1

& x´y`z “1 ’
& 3y “ ´1
a) y

’ 3x ` y “ ´1 ’
’ 4x ` 3y ` z “ ´1
’ ’
x ` 2y ` z “ 0 3x ` 3z “ 2
% %
$ $

’ x ` 2y ´ z ` w “ 0 ’ 3x ` 2y ` 2z ` 2w “ 0

’ ’
& 2x ` 3z ` w “ 0 & 3x ´ 2y ` 7z ` w “ 0
b) y

’ x ´ 2y ` 4z “ 0 ’
’ ´4y ` 5z ´ w “ 0
’ ’
4x ` 4y ` z ` 3w “ 0 2x ` 4y ´ 2z ` 2w “ 0
% %
$ $

’ x ` 2y ` z “ 4 ’
’ x ` 2y ` z “ 4

& 2x ` 5y ` 2z “ 9 ’
& x ` 3y ` z “ 5
c) y

’ x ` 3y ` 5z “ 5 ’
’ x ` 2y ` 2z “ 6
’ ’
´x ´ y ´ z “ ´3 x ` 3y ` 2z “ 7
% %

4. Decida sobre la compatibilidad de cada uno de los sistemas lineales. Determine, hacien-
do uso de formas escalonadas o formas canónicas de Gauss-Jordan, la solución única
Álgebra lineal: Nociones y propiedades elementales 69

cuando el sistema sea compatible determinado, y su solución general en caso de ser


compatible indeterminado.
$ $ $

’ 2x ` y ` 2z “ 1 ’
’ 3x ` 2y ` 2z ` 2w “ 0 ’
’ x ` 2y ` z “ 4

& x´y`z “1 ’
& 3x ´ 2y ` 7z ` w “ 0 ’
& x ` 3y ` z “ 5
aq bq cq

’ 3x ` y “ ´1 ’
’ ´4y ` 5z ´ w “ 0 ’
’ x ` 2y ` 2z “ 6
’ ’ ’
x ` 2y ` z “ 0 2x ` 4y ´ 2z ` 2w “ 0 x ` 3y ` 2z “ 7
% % %
$ $ $

’ x ` y ` z ` w “ ´2 ’
’ 3x ` y ´ z “ 0 ’
’ 5y ´ 4z “ 0
’ ’ ’
& x ´ y ´ z ` w “ ´8 & x ´ 2y ´ z “ 0 & 2x ` 3y ´ z “ 0
dq eq fq

’ x ´ y ` z ` w “ ´6 ’
’ ´x ` y ` z “ 0 ’
’ x´y`z “0
’ ’ ’
x`y´z`w “0 2x ´ y ´ 3z “ 0 x ` 9y ´ 5z “ 0
% % %

5. Determine los valores de α P R para los cuales los siguientes sistemas de ecuaciones
lineales homogéneos dados a continuación tienen infinitas soluciones:
$ $
& 2x ´ 3y ` 5z “ 0
’ & 2x ` y ´ αz “ 0

aq ´x ` 7y ´ z “ 0 bq αx ´ y ` z “ 0

% 4x ´ 11y ` αz “ 0 ’
% x`y`z “0

6. Clasifique, en términos de los parámetros a, b, c, los sistemas de ecuaciones lineales


según su compatibilidad:
$ $ $
& x ` 2y ` z “ a
’ ’
& y`z “2 & x ` 3y ` 5z “ 2

aq 2x ` y ` z “ 1 bq x`y`z “a cq 2x ´ 4y ` 2z “ 0

% 3x ` 3y ` 2z “ b ’ ’
% x`y “2 % 5x ´ 11y ` 9z “ a
$ $ $
& x ` y ` az “ 1
’ ’
& x ´ 2y ` 3z “ 1 & ax ` by ` cz “ 1

dq x ` ay ` z “ 1 eq 2x ` ay ` 6z “ 6 fq ax ` y ` bz “ 1

% ax ` y ` z “ 1 ’
% ´x ` 3y ` pa ´ 2qz “ 0 ’
% ax ` y ` z “ b

« ff
i 2
7. Decidir si es combinación lineal de:
1`i 1
« ff « ff « ff
1 0 i 1 0 1
(a) A1 “ , A2 “ y A3 “ .
1 1 i 1 1 0
« ff « ff « ff « ff
1 0 0 1 0 1 0 0
(b) B1 “ , B2 “ , B3 “ y B4 “
0 0 1 1 1 0 0 1

8. Encontrar, bajo las condiciones que se imponen, todas las funciones polinómicas reales
ppxq “ a ` bx ` cx2 que satisface:

a) pp0q “ 1, pp1q “ 0 y pp´1q “ 1 b) pp1q “ pp´1q “ 0

9. Hallar dos números tales que si se dividen el primero por 3 y el segundo por 4 la suma
es 15; mientras que si se multiplica el primero por 2 y el segundo por 5 la suma es 174.
70 Neptalı́ Romero

10. El perı́metro de un rectángulo es de 28 metros. Si se aumenta en 2 metros su base y


se disminuye en 3 metros su altura, el área del nuevo rectángulo es un metro cuadrado
adicional al área del rectángulo original. Determinar, en caso que exista, las dimensiones
del rectángulo original.

11. En un zoológico hay animales con 2 patas (aves) y bestias de 4 patas. Si en el número
de cabezas de tales animales alcanza la cantidad de 600, y el número de patas es 2000,
¿cuántas aves y cuántas bestias hay en el zoológico?

12. Hallar, si es posible, el entero positivo de tres dı́gitos (abc) tal que: la suma de sus
dı́gitos es 8, la suma de los dos primeros dı́gitos menos el tercero es igual a 6, y tal
número menos el número que se obtiene al invertir de orden las cifras es 396.

13. Dos inversionistas con la misma cantidad de dinero, Bs. 20.000.000,00, realizarón la
siguiente operación: el primero de ellos invirtió la cantidad A al 4 %, la cantidad B al
5 % y el resto al 6 % de interés; mientras que el segundo inversionista colocó la cantidad
A al 5 %, la cantidad B al 6 % y el resto al 4 %. Determinar las cantidades A, B y C si
se sabe que el primero de los inversionistas recibió Bs. 1.050.000,00 por intereses, y el
segundo Bs. 950.000,00.

14. Una empresa dispone de Bs. 29.000.000 para la subvención de sus 100 empleados en
cursos de capacitación laboral. Se dictarán tres cursos: A, B y C. La subvención por
persona es como sigue: para los que realizarán el curso A, es de Bs. 400.000; para los
del curso B, Bs. 160.000 y Bs. 200.000 para los que hagan el curso C. Si la cantidad de
empleados que realizará el curso A es cinco veces mayor que la cantidad que realizará el
curso B; ¿cuántos empleados realizarán cada curso?

15. Entre las ciudades A y B hay una distancia de 192 km. Se sabe que un automóvil sube
cuestas a 54 km{h, las baja a 90 km{h, y en el terreno llano anda a 80 km{h. Si de A
hacia B se emplean 2 horas y 30 minutos; y el recorrido de B hacia A se hace en 2 horas
y 45 minutos; ¿cuál es la longitud del trayecto llano entre las dos ciudades?

16. Las edades de tres hermanos: Juan, José y Julio, satisfacen las siguientes relaciones: la
suma de las edades de Juan y José menos la edad de Julio es la edad de Juan más 10
años; la suma de las edades de Juan y Julio es dos veces la edad de José, mientras que
la suma de las edades de Juan y José es 60 años. Determine sus edades.
Suponga que en lugar de la condición “la suma de las edades de Juan y José es 60
años”, se tiene que la suma de tales edades es de 24 años. ¿pueden existir tres personas
que satisfagan las condiciones impuestas?

17. Una empresa petrólera tiene tres refinerı́as: A, B y C. Cada una de ellas produce tres
combustibles: diesel, gasolina y turbosina. Se sabe además que por cada barril de crudo:

la refinerı́a A produce 20 litros de diesel, 40 litros de gasolina y 20 litros de tur-


bosina;
la refinerı́a B produce 20 litros de diesel, 10 litros de gasolina y 10 litros de tur-
bosina; y
Álgebra lineal: Nociones y propiedades elementales 71

la refinerı́a C produce 10 litros de diesel, 10 litros de gasolina y 30 litros de tur-


bosina.

Si la empresa tiene una demanda de 820.000 litros de diesel; 450.000 litros de gasolina
y 830.000 litros de turbosina, ¿cuántos barriles de crudo debe procesar cada refinerı́a
para satisfacer tal demanda? ¿Qué cantidad de combustible produce cada refineria con
los barriles de crudo necesarios para satisfacer la demanda?

18. Sea A P Mmˆn pKq con m ă n. Demostrar que el sistema de ecuaciones lineales ho-
mogéneo A X “ O es compatible indeterminado. Es decir, si un sistema de ecuaciones
lineales homogéneo tiene más incógnitas que ecuaciones, entonces tiene infinitas solu-
ciones.

19. Dadas A P Mmˆm pKq, B P Mmˆ1 pKq. Demostrar que A X “ B tiene solución única si,
y sólo si, A es invertible. En tal caso X “ A´1 B es la solución del sistema.
Capı́tulo 3

Determinantes

3.1. Introducción
Los inicios de una formulación teórica de los determinantes aparecen con diez años
de diferencia en Japón y Europa. En 1683 el matemático japonés Takakazu Seki Kowa
(1642-1708) escribió Métodos de resolución de problemas disimulados, allı́ introdujó y pre-
sentó métodos generales, aunque basado en ejemplos, para calcular determinantes (sin
acuñar el término) de matrices de orden 2 ˆ 2 hasta de orden 5 ˆ 5. Diez años más tar-
de, el alemán Gottfried Wilhelm Leibniz (1646-1716), de manera independiente, hizo uso
rudimentario de los determinantes para estudiar sistemas de ecuaciones lineales; aunque
su versión de los determinantes era menos general que la de Seki. Leibniz usó la palabra
resultante para los determinantes, demostró algunos resultados sobre los resultantes, in-
cluyendo en esencia lo que en la actualidad se conoce como la Regla de Cramer. En la
segunda mitad de siglo XVIII comenzaron a aparecer cada vez más publicaciones sobre
determinantes, aunque como herramientas consideradas para estudiar los propios asuntos
tratados en esas publicaciones. Entre los matemáticos que escribieron sobre los determi-
nantes para esa epoca están: Gabriel Cramer (1704-1752), Étienne Bézout (1730-1783),
Alexander-Théophile Vandermont (1735-1796) y Pierre-Simon Laplace (1749-1827). Este
último afirmó que los métodos desarrollados por Cramer y Bézout, donde hacian uso de
los determinantes para estudiar sistemas de ecuaciones lineales, no eran apropiados; en un
artı́culo publicado en 1772, donde Laplace estudió las órbitas de los planetas, discutió la
solución de sistemas de ecuaciones lineales sin aportar especı́ficamente sus soluciones, pe-
ro usando determinantes. Laplace también uso la palabra resultante, al igual que Leibniz,
sin embargo se dice que no conocı́a sus trabajos. Fue Augustin-Louis Cauchy (1789-1857)
quien en 1812 introdujó el uso del término determinante en el sentido moderno; aunque
ya en 1801 Gauss hacı́a uso de la palabra determinante pero en un sentido diferente a
empleado en nuestros dı́as. Se afirma que los trabajos sobre determinantes de Cauchy son
de los más completos; no obstante, Carl Gustave Jacobi (1804-1851) publicó tres artı́culos
sobre determinantes en 1841. Estas publicaciones fueron importantes pues por primera
vez la definición del determinante se hizo de manera algorı́tmica; además, las entradas
en el determinante no eran exclusivas para números, sino que incluyó también funciones.
Estos tres artı́culos hicieron que la noción de determinante fuese extensamente conocida.
Finalmente, una definición axiomática de los determinantes fue usada por Karl Weiers-
trass (1815-1897) con sus discı́pulos; sus notas de clase y apuntes sobre determinantes
fueron publicadas en 1903. Con estas dos publicaciones, la teorı́a moderna de determinan-
tes quedo completamente desarrollada. Además de los origenes de los cuales emergió esta

73
74 Neptalı́ Romero

teorı́a, el determinante fue identificado con el área de paralelogramo o con el volumen de


un paralelepı́pedo; de hecho es parte fundamental en el desarrollo teórico de la teorı́a de
integración por su empleo en las formas de volumen. Por otra parte, en la teorı́a de formas
multilineales (presentación que evitamos acá) se demuestra que la función determinante
es justamente la generadora de las formas multilineales alternadas.

3.2. Determinates: una definición recursiva


Presentaremos la noción de determinante de una matriz cuadrada A P Mnˆn pKq de
manera recursiva; esto es, a partir de una definición cuando n “ 1 y una fórmula de
recurrencia. El propósito de este tratamiento es el de evitar un conjunto de tecnicismos
que pueden lucir inapropiados para el nivel en el que son presentadas estas notas. A
lectores con mayor desarrollo matemático, esta manera de introducir los determinantes
seguramente les resultará aburrida; a ellos sugerimos una lectura un poco más avanzada
sobre el tema, por ejemplo, el libro Álgebra Lineal de K. Hoffman y R. Kunze. Editorial
Prentice Hall International (1973).

Definición 3.1
El determinante de una matriz A P Mn pKq , que denotamos por det A se define recursiva-
mente como sigue:

1. si A es de orden 1 ˆ 1, digamos A “ ras, entonces det A “ a.

2. si n ě 2 y A “ raij s P Mn pKq, entonces


n
ÿ
det A “ p´1qi`1 ai1 det Ai1 , (3.1)
i“1

donde Ai1 (1 “ 1, ¨ ¨ ¨ , n) es la matriz de orden pn ´ 1q ˆ pn ´ 1q obtenida de A al


eliminar la fila i y la columna 1.

La fórmula en (3.1) es conocida por determinate por desarrollo de la primera columna.


Adelantamos que esta no es la única manera de calcular determinates de matrices. Note
que mediante el determinante se asocia a cada A P Mnˆn pKq un único valor det A en
K; esta correspondencia define una función con dominio el conjunto Mn pKq y tomando
valores en K. Claramente de (3.1), el cálculo del determinante de una matriz requiere
del cálculo de determinantes de matrices de ordenes cada vez menor; mostraremos otros
procedimientos que permitirán realizar este cálculo con, quizá, menos esfuerzo. Además
de det A para designar al determinante de A, será frecuente el uso de

a11 ¨ ¨ ¨ a1n

.. . . ..
. . .

a
n1 ¨ ¨ ¨ ann

para denotar el determinate de la matriz A “ raij s P Mn pKq.


Álgebra lineal: Nociones y propiedades elementales 75

3.2.1. Determinates de matrices de orden 2 ˆ 2


« ff
a11 a12
Dada cualquier matriz A “ de orden 2 ˆ 2 en K, su determinante, de
a21 a22
acuerdo a la fórmula recursiva (3.1) es:

a
11 a12

det A “ “ a11 det A11 ´ a21 det A21 .
a21 a22

Dado que A11 “ ra22 s y A21 “ ra12 s, se tiene la expresión algebraica



a
11 a12

det A “ “ a11 a22 ´ a12 a21 . (3.2)
a21 a22

Ejemplo 3.1
1. Si I2 es la matriz identidad de orden 2, entonces

1 0
det I2 “ “ 1 ¨ 1 ´ 0 ¨ 0 “ 1.

0 1

2. Si O2 es la matriz nula de orden 2 ˆ 2, entonces



0 0
det O2 “ “ 0 ¨ 0 ´ 0 ¨ 0 “ 0.

0 0

De hecho cualquier matriz que tenga una fila o columna nula tiene determinante cero.
« ff
1 2 1 2
3. Si A “ , sigue que “ 1 ¨ 4 ´ 2 ¨ 3 “ ´2;

3 4 3 4
ˇ ˇ
ˇ ´1 2 ´ i ˇ
4. ˇ ˇ “ p´1q ¨ 4 ´ 3i ¨ p2 ´ iq “ ´7 ´ 6i;
ˇ ˇ
ˇ 3i 4 ˇ

5. Para cualquier número α P K se cumple:



α a
11 α a12
a
11 a12

“ pα a11 qa22 ´ a21 pα a12 q “ αpa11 a22 ´ a12 a21 q “ α ;
a21 a22 a21 a22

a a a a
11 12 11 12
análogamente se muestra que “ α . De esta forma:
α a21 α a22 a21 a22

Si una fila de la matriz A se multiplica por un escalar, entonces el deter-


minante de la matriz resultante es igual al producto de ese escalar por el
determinante de la matriz A.
76 Neptalı́ Romero
« ff « ff
a11 a12 b11 b12
6. Cualesquiera sean A “ yB“ se tiene
a21 a22 a21 a22

a ` b
11 a12 ` b12

11
“ pa11 ` b11 qa22 ´ a21 pa12 ` b12 q
a21 a22
“ a11 a22 ` b11 a22 ´ a21 a12 ´ a21 b12

a
11 a12 b11 b12

“ ` “ det A ` det B.
a21 a22 a21 a22

De la misma forma se verifica



a a a a a a
11 12 11 12 11 12
.

“ `
a21 ` b21 a22 ` b22 a21 a22 b21 b22

Resumimos esta propiedad diciendo que

La función determinante respeta la adición en cada una de las filas de la


matriz.

7. Otra simple e importante propiedad es que al intercambiar las filas de una matriz de
orden 2 ˆ 2, el determinante cambia de signo; esto es:

a
21 a22
a
11 a12

“ ´ .
a11 a12 a21 a22

Técnicamente se dice

La función determinante es alternada.

« ff « ff
a11 a12 a11 a 21
8. Si A “ y At “ es su matriz traspuesta, entonces es simple
a21 a22 a12 a22
chequear que det A “ det At .
Haciendo uso de esta propiedad son inmediatas:

α a a a a a α a
11 12 11 12 11 12
“ α “ ,
α a21 a22 a21 a22 a21 α a22

a ` b
11 a12
a
11 a12 b11 a12
a
11 a12 ` b12 a11 a12 a11 b12

11
“ ` y “ ` .
a21 ` b21 a22 a21 a22 b21 a22 a21 a22 ` b22 a21 a22 a21 b22

Comentario 3.1
En virtud de las propiedades establecidas en los numerales 5, 6 y 7 anteriores, se acostum-
bra decir que la función determinante es multilineal y alternada en sus filas. Por tanto de
la propiedad 8 arriba, la función determinante es multilineal y alternada en sus columnas.
Álgebra lineal: Nociones y propiedades elementales 77

§ Determinantes y sistemas de ecuaciones lineales 2 ˆ 2

Inicialmente la noción de determinante surgió de las fórmulas mediante las cuales se


expresa la solución de un sistema de ecuaciones lineales con solución única. De momento
expondremos este uso para sistemas de ecuaciones#lineales de orden 2 ˆ 2.
a11 x ` a12 y “ b1
Consideremos el sistema de ecuaciones lineales y supongamos que
a21 x ` a22 y “ b2
« ff
a11 a12
admite solución única; esto es, la matriz A “ es invertible; o equivalentemente,
a21 a22
a11 a22 ´a12 a21 ‰ 0 (¡det A ‰ 0!). Para resolver el sistema dado podemos emplear el método
de eliminación de Gauss. Si suponemos, por ejemplo, que a11 ‰ 0, entonces tenemos
« ff « ff
a11 a12 b1 f2 ÝÑa11 f2 a11 a12 b1
ÝÝÝÝÝÝÝÝÝÑ .
a21 a22 b2 f2 ÝÑf2 ´a12 f1 0 a11 a22 ´ a12 a21 a11 b2 ´ a12 b1
#
a11 x ` a12 y “ b1
Luego el sistema original tiene las mismas soluciones de . Por
pdet Aqy “ a11 b2 ´ a12 b1
tanto, como det A “ a11 a22 ´ a12 a21 ‰ 0 se tiene como solución del sistema original al par
ordenado px, yq con:

b a a
11 b1

1 12

b2 a22 a12 b2
x“ y y“ .
det A det A
Más adelante haremos un tratamiento general de lo que acabamos de exponer, se trata
del método conocido como la Regla de Cramer, ver apartado 3.4.1.

§ Determinantes y área de paralelogramos

Veamos como aparece la función determinante en el cálculo del área de un paralelo-


gramo. Consideremos en R2 dos puntos que no están sobre una misma recta; digamos:

T3
A1

y2
v T2
y1 T1 u

A2
T4
O x2 x1

Figura 3.1: Paralelogramo determinado por los puntos u y v del plano R2


78 Neptalı́ Romero

u “ px1 , y1 q y v “ px2 , y2 q; por simplificidad supondremos que estos puntos tienen coor-
denadas no negativas. Estos puntos determinan en el plano un paralelogramo (ver Figura
3.1), el cual se construye traslando paralelamente el segmento Ou hacia el punto v, y el seg-
mento Ov hacia el punto u. El paralelogramo P ası́ construido se inscribe en el rectángulo
R de vértices en: p0, 0q, px1 ` x2 , 0q, px1 ` x2 , y1 ` y2 q y py1 , y2 q, tal y como se observa en la
figura. Note que el área del paralelogramo P (la sombreada) es igual al área del rectángulo
R, en el que está inscrito, menos la suma de las áreas de los triángulo T1 , T2 , T3 , T4 y los
rectángulos A1 , A2 . Note además que los rectángulos A1 y A2 tienen la misma área; de
igual forma, los triángulos T1 , T2 , y T3 , T4 . Sigue por tanto que:
˜ ¸
2
ÿ 4
ÿ
área de P “ área de R ´ área de Ai ` área de Ti
i“1 i“1
ˆ ˙
1 1 1 1
“ px1 ` x2 qpy1 ` y2 q ´ x2 y1 ` x2 y1 ` x2 y2 ` x2 y2 ` x1 y1 ` x1 y1
2 2 2 2

x y
1 1
“ x1 y2 ´ x2 y1 “ .
x2 y2

3.2.2. Determinante de matrices 3 ˆ 3

Al igual que en dimensión 2, el determinante de orden 3 está asociado al cálculo


de las soluciones de sistemas de ecuaciones lineales 3 ˆ 3 y al cálculo del volumen de
un paralelepı́pedo determinado por tres puntos no colineales en R3 . Procedamos ahora a
determinar la fórmula de la función determinante en el conjunto
» M3ˆ3 pKq; emplearemos
fi la
a11 a12 a13
fórmula de recurrencia (3.1). Consideremos una matriz A “ – a21 a22 a23 fl cualquiera;
— ffi
a31 a32 a33
de acuerdo a esa fórmula se tiene:
ˇ ˇ
ˇ a
ˇ 11 a12 a13 ˇ
ˇ
det A “ ˇ a21 a22 a23 ˇ
ˇ ˇ
ˇ ˇ
ˇ a31 a32 a33 ˇ
ˇ ˇ ˇ ˇ ˇ ˇ
ˇ a a ˇ ˇ a a ˇ ˇ a a ˇ
ˇ 22 23 ˇ ˇ 12 13 ˇ ˇ 12 13 ˇ
“ p´1q1`1 a11 ˇ ˇ ` p´1q1`2 a21 ˇ ˇ ` p´1q1`3 a31 ˇ ˇ
ˇ a32 a33 ˇ ˇ a32 a33 ˇ ˇ a22 a23 ˇ
“ a11 pa22 a33 ´ a32 a23 q ´ a21 pa12 a33 ´ a32 a13 q ` a31 pa12 a23 ´ a22 a13 q.

Reordenando y reagrupando términos tenemos la fórmula del determinante de orden 3:

det A “ a11 a22 a33 ` a12 a23 a31 ` a13 a21 a32 ´ a11 a23 a32 ´ a12 a21 a33 ´ a13 a22 a31 . (3.3)

Ejemplo 3.2 »fi


1 ´1 0
Consideremos la matriz A “ – 2 ´4 3 fl. Para calcular su determinante recurrimos a
— ffi
0 ´1 2
Álgebra lineal: Nociones y propiedades elementales 79

la fórmula (3.1); esto es:


ˇ ˇ
ˇ 1 ´1 0 ˇ ˇ ˇ ˇ ˇ ˇ ˇ
ˇ ˇ ˇ ´4 3 ˇ ˇ ´1 0 ˇ ˇ ´1 0 ˇ
det A “ ˇ 2 ´4 3 ˇ “ 1 ¨ ˇ 2 0
ˇ ˇ ˇ ˇ ˇ ˇ ˇ ˇ
ˇ ´ ¨ ˇ ˇ ` ¨ ˇ ˇ
ˇ ˇ ˇ ´1 2 ˇ ˇ ´1 2 ˇ ˇ ´4 3 ˇ
ˇ 0 ´1 2 ˇ
“ p´8 ` 3q ´ 2p´2 ` 0q ` 0p´3 ´ 0q “ ´1.

§ Regla de Sarrus

En el cálculo de determinantes de matrices 3ˆ3 es común el uso de la regla nemotécnica


denominada Regla de Sarrus. Esta regla se expresa gráficamente en la siguiente figura. En
el lado izquierdo se indica, siguiendo las direcciones indicadas por las flechas, los productos
(sumandos en (3.3)) que van precedidos del signo `: a11 a22 a23 , a21 a32 a13 y a31 a12 a23 ;
mientras que en el lado derecho están señalados los productos que son multiplicados por
el signo ´; estos son a13 a22 a31 , a23 a32 a11 y a33 a12 a21 .

a11 a12 a13 a11 a12 a13

a21 a22 a23 a21 a22 a23

a31 a32 a33 a31 a32 a33

Figura 3.2: Regla de Sarrus para el cálculo del determinantes de matrices 3 ˆ 3. El lado izquierdo
determina los términos con signo `, y los del lado derecho aquellos con signo ´.

§ Propiedades del determinante 3 ˆ 3

Haciendo uso directo de la definición recursiva, o la misma fórmula (3.3), se demuestran


las siguientes propiedades para la función determinante sobre las matrices de orden 3 ˆ 3
(los detalles se dejan al lector):
» fi
1 0 0
1. El determinante de la matriz identidad de orden 3, I3 “ –0 1 0fl, es igual a 1;
— ffi
0 0 1
mientras que el de la matriz nula es 0.

2. El determinante 3 ˆ 3 respeta la adición en cada una de sus filas; esto es:



a ` b
11 a12 ` b12 a13 ` b13
a a12 a13 b11 b12 b13
11 11
a21 a22 a23 “ a21 a22 a23 ` a21 a22 a23


a31 a32 a33 a31 a32 a33 a31 a32 a33

a a a a a12 a13 a11 a12 a13
11 12 13 11
a21 ` b21 a22 ` b22 a23 ` b23 “ a21 a22 a23 ` b21 b22 b23


a31 a32 a33 a31 a32 a33 a31 a32 a33
80 Neptalı́ Romero

a a12 a13 a11 a12 a13 a11 a12 a13
11
a21 a22 a23 “ a21 a22 a23 ` a21 a22 a23


a31 ` b31 a32 ` b32 a33 ` b33 a31 a32 a33 b31 b32 b33

3. El determinante 3 ˆ 3 respeta la multiplicación por escalares en cada una de sus filas;


es decir:
α a α a12 α a13 a a a
11 11 12 13
a21 a22 a23 “ α a21 a22 a23


a31 a32 a33 a31 a32 a33

a a12 a13 a
11 a12 a13

11
α a21 α a22 α a23 “ α a21 a22 a23


a31 a32 a33 a31 a32 a33

a a12 a13 a
11 a12 a13

11
a21 a22 a23 “ α a21 a22 a23


α a31 α a32 α a33 a31 a32 a33

Estas dos propiedades pueden resumirse en una sola, y se dice que el determinante de
matrices de orden 3 ˆ 3 es lineal en cada una de sus filas; esto se escribe como:

a ` α b
11 a12 ` α b12 a13 ` α b13
a
11 a12 a13
b
11 b12 b13

11
a21 a22 a23 “ a21 a22 a23 ` α a21 a22 a23



a31 a32 a33 a31 a32 a33 a31 a32 a33



a11 a12 a13
a
11 a12 a 13


a
11 a12 a13


a21 ` α b21 a22 ` α b22 a23 ` α b23 “ a21 a22 a23 ` α b21 b22 b23


a31 a32 a33 a31 a32 a33 a31 a32 a33


a11 a12 a13 a
11 a12 a13
a
11 a12 a13

a21 a22 a23 “ a21 a22 a23 ` α a21 a22 a23



a31 ` α b31 a32 ` α b32 a33 ` α b33 a31 a32 a33 b31 b32 b33

4. El determinante 3 ˆ 3 es una función alternada en sus filas; es decir, al intercambiar


filas de la matriz, el determinante cambia de signo:

a
11 a12 a13
a
21 a22 a23
a
31 a32 a33 a
11 a12 a13

a21 a22 a23 a11 a12 a13 a21 a22 a23 “ ´ a31 a32 a33 .

“ ´ “ ´

a31 a32 a33 a31 a32 a33 a11 a12 a13 a21 a22 a23

» fi » fi
a11 a12 a13 a11 a21 a31
5. Cualquier A “ – a21 a22 a23 fl y su traspuesta, At “ – a12 a22 a32 fl, tienen el
— ffi — ffi
a31 a32 a33 a13 a23 a33
mismo determinante: t
det A “ det A .
Álgebra lineal: Nociones y propiedades elementales 81

Las propiedades que acabamos de enunciar para la función determinante definida sobre
el conjunto sobre M3ˆ3 pKq las resumimos en el siguiente recuadro:

La función determinantes de orden 3 es multilineal y alternada tanto en sus filas


como sus columnas.

Otras propiedades de los determinantes de matrices 3 ˆ 3 son:

Proposición 3.1
Para cualquier matriz A P M3ˆ3 pKq se cumplen:

1. Si A tiene una fila nula, entonces su determinante es 0.

2. Si A tiene dos filas iguales, entonces su determinante es 0.

3. Si una de las filas de A es combinación lineal de las otras, entonces det A “ 0.

4. Si B es obtenida de A sustituyendo una de sus filas por la suma de esa fila y un múltiplo
de otra de sus filas, entonces det B “ det A.

Demostración. Demostraremos solo la parte 3, las restantes se dejan al lector.


Sin perder generalidad asumamos que la primera fila es la suma de múltiplos de la
segunda y la tercera fila; esto es,

pa11 , a12 , a13 q “ αpa21 , a22 , a23 q ` βpa31 , a32 , a33 q,

sigue entonces que



α a ` β a
31 α a22 ` β a32 α a23 ` β a33

21
det A “ a21 a22 a23



a31 a32 a33

α a
21 α a22 α a23 β a31 β a32 β a33

“ a21 a22 a23 ` a21 a22 a23 (¿por qué?)


a31 a32 a33 a31 a32 a33

a a a a a a
21 22 23 31 32 33
“ α a21 a22 a23 ` β a21 a22 a23 “ 0 ` 0 “ 0. (¿por qué?)


a31 a32 a33 a31 a32 a33

Ası́, la demostración de la proposición está completa.

§ Operaciones elementales por filas y cálculo de determinantes

Las propiedades anteriores son de mucha utilidad para el cálculo de determinantes, para
ello nos valdremos de operaciones elementales por filas (o también por columnas). Primero
mostraremos una propiedad interesante que tienen las matrices triangulares. Recordemos
82 Neptalı́ Romero
» fi
a11 a12 a13
que una matriz A “ –a21 a22 a23 fl es triangular superior si a21 “ a31 “ a32 “ 0; y es
— ffi
a31 a32 a33
triangular inferior si a12 “ a13 “ a23 “ 0; esto es:
» fi » fi
a11 a12 a13 a11 0 0
– 0 a22 a23 fl y –a21 a22 0 fl , respectivamente.
— ffi — ffi
0 0 a33 a31 a32 a33

Observe que
a
11 a12 a13

a a
22 23
0 a22 a23 “ a11 “ a11 a22 a33 ;

0 a33
0 0 a33
además, como una matriz y su traspuesta tienen el mismo determinante, entonces

a
11 0 0 a11 a21 a31
a21 a22 0 “ 0 a22 a32 “ a11 a22 a33 ;


a31 a32 a33 0 0 a33

ası́, hemos demostrado el siguiente resultado.

Proposición 3.2
El determinante de una matriz triangular de orden 3 ˆ 3 es igual el producto de los coefi-
cientes que están en la diagonal de la matriz.

Retornemos a las operaciones elementales por fila y el cálculo de determinantes de


matrices de orden 3 ˆ 3. Es bien conocido que las operaciones elementales por filas son de
de tres tipos, y mediante ellas toda matriz puede hacerse equivalente por fila a una matriz
triangular. A continuación veremos el efecto que tiene en el cálculo del determinante la
aplicación de cualquiera de las operaciones elementales por filas.

Oef del tipo I Para cualquier i P t1, 2, 3u y α ‰ 0, la fila i se sustituye por el


producto del escalar α con ella misma: fi ÝÑ α fi .

De acuerdo a lo discutido en el item 3 del apartado anterior (ver pág. 80), tenemos
que si la matriz B es obtenida de A al multiplicar una de sus filas por el escalar α ‰ 0,
entonces det B “ α1 det A.

Ejemplo 3.3 » fi
2 1 0
Considere la matriz A “ –0 3 1fl, según lo expuesto arriba se tiene
— ffi
2 4 2

2 1 0

det A “ 2 0 3 1 ,


1 2 1

luego de aplicar la oef f3 ÝÑ 12 f3 .


Álgebra lineal: Nociones y propiedades elementales 83

Oef del tipo II Para cualquier par de ı́ndices i, j P t1, 2, 3u con i ‰ j, y cualquier
escalar no nulo α, fi ÝÑ fi ` α fj . Significa que la fila i es sustituida la suma de la
fila i y α veces la fila j.

Por el item 4 de la proposición anterior, los determinantes de las matrices no cambian


si una de ellas se obtiene de la otra por medio de una oef del tipo II.

Ejemplo 3.4
2 1 0 2 1 0

Para la misma matriz A del ejemplo anterior se tiene 0 3 1 “ 0 3 1 , pues la matriz


2 4 2 0 3 2
del lado derecho se obtiene de la otra mediante la oef f3 ÝÑ f3 ´ f2 .

Oef del tipo III Cualesquiera sean los ı́ndices i, j P t1, 2, 3u con i ‰ j, se inter-
cambian las filas i y j: fi ÐÑ fj .

Debido a la propiedad alternante del determinante, al aplicar una oef del tipo III a
una matriz su determinante solo cambia de signo.

Ejemplo 3.5
2 1 0 2 1 0

Para la operación f2 ÐÑ f3 se tiene 0 3 1 “ ´ 2 4 2 .


2 4 2 0 3 1

Recordamos que operaciones elementales por filas siempre se puede reducir una matriz
cuadrada cualquiera a una matriz triangular; que es escalonada.

Ejemplo 3.6 » fi
0 1 3
Dada la matriz A “ – 0 1 ´1 fl dejamos al lector la tarea de justificar cada igualdad
— ffi
2 1 4
en los cálculos a seguir.

ˇ ˇ ˇ ˇ ˇ ˇ
ˇ 0 1 3 ˇˇ ˇ 2 1 4 ˇˇ ˇ 2 1 4 ˇˇ
ˇ ˇ ˇ
ˇ 0 1 ´1 ˇ “ ´ ˇ 0 1 ´1 ˇ “ ´ ˇ 0 1 ´1 ˇ “ ´8.
ˇ ˇ ˇ ˇ ˇ ˇ
ˇ ˇ ˇ ˇ ˇ ˇ
ˇ 2 1 4 ˇ ˇ 0 1 3 ˇ ˇ 0 0 4 ˇ

3.3. Determinantes de orden superior


Siguiendo la definición recursiva (3.1) hemos obtenido fórmulas especı́ficas, en términos
de los coeficientes de las matrices, para el determinante de matrices 2 ˆ 2 y 3 ˆ 3. Sin
dudas podrı́amos continuar siguiendo esa recursividad para ir deduciendo fórmulas para
determinantes de matrices cuadradas de ordenes superiores; sin embargo, a medida que
el orden de las matrices aumenta, también lo hacen los sumandos en fórmulas especı́ficas
84 Neptalı́ Romero
» fi
a11 a12 a13 a14
—a
— 21 a22 a23 a24 ffi
ffi
a obtener. Solo para hacernos una idea, consideremos A “ — ffi, según
–a31 a32 a33 a34 fl
a41 a42 a43 a44
(3.1) se tiene

a
22 a23 a24
a
12 a13 a14
a
12 a13 a14
a
12 a13 a14

det A “ a11 a32 a33 a34 ´a21 a32 a33 a34 `a31 a21 a22 a23 ´a41 a21 a22 a23 .


a42 a43 a44 a42 a43 a44 a42 a43 a44 a32 a33 a34

Ahora bien, dado que la expresión algebraica (3.3) para el determinante de matrices 3 ˆ 3
tiene 6 (“ 3!) sumandos, el número de sumandos para la fórmula especı́fica de determinan-
te de matrices 4 ˆ 4 es 24 (“ 4!) sumandos; cada uno de estos sumandos es el producto de
un elemento en cada una de las filas de la matriz. De continuar con este razonamiento con-
cluiremos, usando inducción sobre el orden de la matriz, que la fórmula del determinante
de orden n ˆ n tiene n! sumandos; donde cada sumando es el producto de un elemento
en cada una de las filas de la matriz; esto sin entrar en los detalles de descubrir el signo
que precede a cada uno de los sumandos en dicha fórmula. En realidad existe una fórmula
general del det A, cualquiera sea el orden de A; esa fórmula no la presentaremos pues
hace referencias a nociones de permutaciones y sus signos. Aunque esa tal fórmula es muy
útil para aspectos teóricos, no es muy apropiada para efectos prácticos; por ello nuestra
insistencia en las operaciones elementales por filas.
A continuación introducimos la noción de cofactor en una matriz cuadrada y expresa-
remos la fórmula (3.1) en términos de ellos.

Definición 3.2
Dada cualquier matriz A “ raij s P Mn pKq, se conoce con el nombre de cofactor ij de A al
escalar cof Api, jq “ p´1qi`j det Aij , donde Aij es la matriz de orden pn ´ 1q ˆ pn ´ 1q que
se obtiene de A al eliminar la fila i y la columna j.

Ejemplo 3.7 » fi
1 i 0
La matriz A “ – 2 1 ´1 fl tiene 9 cofactores: cof Api, jq con i, j “ 1, 2, 3. Algunos de
— ffi
0 ´2 3
estos cofactores son

i 0 1 0
cof Ap2, 1q “ p´1q2`1 2 “ ´6i, y cof Ap3, 2q “ p´1q3`2 p´2q

“ ´2.
´2 3 2 ´1

Observe que haciendo uso de la fórmula recursiva (3.1) y la definición de cofactor es


deduce que:

det A “ a11 cof Ap1, 1q ` a21 cof Ap2, 1q ` ¨ ¨ ¨ ` an1 cof Apn, 1q; (3.4)

esto es, el determinante de A “ raij s P Mn pKq es la suma de los productos de los coeficientes
de la primera columna de A por sus respectivos cofactores. Más tarde descubriremos que
det A es también la suma de los productos de los coeficientes de cualquier columna de A
Álgebra lineal: Nociones y propiedades elementales 85

por sus respectivos cofactores, e incluso igual a la suma de los productos de los coeficientes
de cualquier fila de A por sus correspondientes cofactores.

Teorema 3.1
Para cada n ě 1 son válidas las afirmaciones:

1. det In “ 1, donde In es la matriz identidad de orden n.

2. Dada A P Mnˆn pKq, si B P Mnˆn pKq se obtiene de A intercambiando dos de sus filas,
fi ÐÑfj
entonces det B “ ´ det A (A ÝÝÝÝÝÑ B).

3. Dada A P Mnˆn pKq, si B P Mnˆn pKq se obtiene de A multiplicando una de sus filas
` f ÝÑα f `
por el escalar α P K, entonces det B “ α det A pA ÝÝ ÝÝÝÝÑ Bq. Simbólicamente:

a ¨ ¨ ¨ a1n a ¨ ¨ ¨ a
11 11 1n
. .. ..
.. ... .. ..

. . . .
α a`1 ¨ ¨ ¨ α a`n “ α a`1 ¨ ¨ ¨ a`n .

. .. .. . .. ..
. .
. . . . . .

an1 ¨ ¨ ¨ ann an1 ¨ ¨ ¨ ann

4. Dadas A P Mnˆn pKq y ` P t1, ¨ ¨ ¨ , nu, si las matrices B, C P Mnˆn pKq son tales que

B y C tienen las mismas filas de A, excepto posiblemente la fila `; y


la fila ` de C es la suma de la fila ` de A y la fila ` de B,

entonces det C “ det A ` det B. Esto es:



a ¨¨¨ a1n a11 ¨ ¨ ¨ a1n a11 ¨ ¨ ¨ a1n
11
.. .. .. .
.. .. .. .. .. ..

. . . . . . . .
a`1 ` b`1 ¨ ¨ ¨ a`n ` b`n “ a`1 ¨ ¨ ¨ a`n ` b`1 ¨ ¨ ¨ b`n .

.. .. .. ..
.. .. ..
.. ..
. . . . . . . . .



an1 ¨¨¨ ann an1 ¨ ¨ ¨ ann an1 ¨ ¨ ¨ ann

Demostración. Como se podrá observar, cada una de las partes del enunciado del teore-
ma son propiedades válidas para la función determinante de orden n “ 1, 2, 3. Por tanto,
la demostración la haremos por inducción sobre n. Supongamos como hipótesis inductiva
que los enunciados son ciertos para n “ 1, 2, ¨ ¨ ¨ , k ´1, mostraremos por tanto que también
valen para n “ k.
1. De la fórmula (3.4) se tiene

det Ik “ 1 ¨ cof Ik p1, 1q ` 0 ¨ cof Ik p2, 1q ` ¨ ¨ ¨ ` 0 ¨ cof Ik pk, 1q “ cof Ik p1, 1q;

pero cof Ik p1, 1q “ p´1q1`1 det Ik´1 “ 1.


2. Se deja como ejercicio para el lector.
86 Neptalı́ Romero

3. Sean A “ raij s y B “ rbij s P Mkˆk pKq como en el enunciado; esto es

bij “ aij siempre que i ‰ `, y b`j “ α a`j . (3.5)

Por definición

det B “ b11 cof Bp1, 1q ` ¨ ¨ ¨ ` b`1 cof Bp`, 1q ` ¨ ¨ ¨ ` bk1 cof Bpk, 1q (3.6)

Observe que la matriz B`1 , la obtenida de B al eliminar la fila ` y la columna 1, es igual a


la matriz A`1 ; por lo que cof Bp`, 1q “ cof Ap`, 1q. Por otra parte, para cada i P t1, ¨ ¨ ¨ , ku
con i ‰ `, la matriz Bi1 , obtenida de B eliminando la fila i y la columna 1, es idéntica a
la matriz Ai1 , excepto que una de las filas está multiplicada por el escalar α; por tanto,
como Ai1 y Bi1 son de orden pk ´ 1q ˆ pk ´ 1q, sigue de la hipótesis inductiva que para
cada i ‰ ` se tiene det Bi1 “ α det Ai1 . De estas observaciones se deduce inmediatamente
que cof Bpi, 1q “ α cof Api, 1q para todo i ‰ `.
De esta manera, al emplear las ecuaciones (3.5) y (3.6) se tiene

det B “ a11 α cof Ap1, 1q ` ¨ ¨ ¨ ` α a`1 cof Ap`, 1q ` ¨ ¨ ¨ ` ak1 α cof Apk, 1q
“ αpa11 cof Ap1, 1q ` ¨ ¨ ¨ ` a`1 cof Ap`, 1q ` ¨ ¨ ¨ ` ak1 cof Apk, 1qq “ α det A.

4. Sean A “ raij s, B “ rbij s y C “ rcij s en Mkˆk pKq y ` P t1, ¨ ¨ ¨ , ku como en el enunciado


del teorema; es decir, para cada i, j P t1, ¨ ¨ ¨ , ku se cumple:

bij “ cij “ aij siempre que i ‰ ` y c`j “ a`j ` b`j . (3.7)

Note que la matriz C`1 , la obtenida de C eliminando la fila ` y la columna 1, es igual


a A`1 “ B`1 ; por lo que cof Cp`, 1q “ cof Ap`, 1q “ cof Bp`, 1q. Además, como para todo
i P t1, ¨ ¨ ¨ , ku con i ‰ ` las matrices Ai1 , Bi1 y Ci1 satisfacen la hipótesis inductiva; luego
para cada i ‰ ` se tiene

det Ci1 “ det Ai1 ` det Bi1 y cof Cpi, 1q “ cof Api, 1q ` cof Bpi, 1q. (3.8)

Ası́, dado que det C “ c11 cof Cp1, 1q ` ¨ ¨ ¨ ` c`1 cof Cp`, 1q ` ¨ ¨ ¨ ` ck1 cof Cpk, 1q, se obtiene
de (3.7) y (3.8) que det C “ det A ` det B.

Comentario 3.2
El enunciado del teorema que acabamos de demostrar establece que la función determinan-
te, det : Mnˆn pKq Ñ K, además de ser igual a 1 cuando se evalúa en la matriz identidad,
es multilineal y alternada. De hecho, puede demostrarse que la función determinante es la
única de Mnˆn pKq en K que es multilineal, alternada e igual a 1 al evaluarla en la matriz
identidad. La demostración de esta última afirmación escapa a nuestros propósitos en el
texto, ası́ que no la discutiremos.

El siguiente corolario enuncia otras propiedades de la función determinante, cada una


de ellas es consecuencia inmediata de las propiedades enunciadas en el teorema anterior.

Corolario 3.1
Dada cualquier matriz A P Mn pKq, las siguientes proposiciones son verdaderas:
Álgebra lineal: Nociones y propiedades elementales 87

1. Si A tiene dos filas iguales, entonces det A “ 0.

2. Si A tiene una fila nula, entonces det A “ 0.

3. Si una de las filas de A es combinación lineal de las restantes filas, entonces det A “
0.

4. Si la matriz B se obtiene de A sustituyendo cualquiera de sus filas por la suma de


fi ÝÑfi `α fj
esa fila y un múltiplo de otra pA ÝÝÝÝÝÝÝÝÑ Bq, entonces det B “ det A.

Demostración. Se deja como ejercicio para el lector.

3.3.1. Operaciones elementales por fila y cálculo de determinantes


De lo discutido en el teorema anterior y su corolario se desprenden las mismas implica-
ciones al aplicar operaciones elementales por filas a cualquier matriz, independientemente
de su orden. Debido a su importancia lo repetimos:
‚ Efecto de la operación elemental por fila del tipo I en el determinante:

f ÝÑα f
A ÝÝiÝÝÝÝÑ
i
B ùñ det B “ α det A, con α ‰ 0.

‚ Efecto de la operación elemental por fila del tipo II en el determinante:

fi ÝÑfi `α fj
A ÝÝÝÝÝÝÝÝÑ B ùñ det B “ det A.

‚ Efecto de la operación elemental por fila del tipo III en el determinante:

fi ÐÑfj
A ÝÝÝÝÝÑ B ùñ det B “ ´ det A.

Es bien conocido que toda matriz A P Mnˆm pKq puede reducirse mediante operaciones
elementales por fila a una matriz escalonada y también a una escalonada reducida por
filas. Recordemos que una matriz B “ rbij s en Mnˆm pKq se dice escalonada siempre que
satisfaga las siguientes condiciones:

1. Las filas nulas de B ocupan las últimas posiciones,

2. Si las filas no nulas de B son las primeras r, entonces los ı́ndices de las columnas
donde aparecen las primeras entradas no nulas de cada una de las primeras r filas
están ordenados de forma creciente; esto es, para cada ı́ndice i P t1, ¨ ¨ ¨ , ru existe
ji P t1, ¨ ¨ ¨ , mu tal que:

2.1 1 ď j1 ă ¨ ¨ ¨ ă jr ď m,
2.2 biji es el primer elemento no nulo de la fila i P t1, ¨ ¨ ¨ , ru; es decir, biji ‰ 0 y
bij “ 0 para todo 1 ď j ă ji . La entrada biji se conoce como pivote de la fila i.
88 Neptalı́ Romero

2.3 Para todo k ą i, bkji “ 0; esto significa que en cada columna donde están los
pivotes, todas las entradas debajo de los pivotes son nulas.

Recordamos también que la matriz B es escalonada reducida por filas si es escalonada,


los elementos pivotes son todos iguales a 1 y los coeficientes encima de los pivotes son
todos nulos. Tı́picamente una matriz escalonada es de la forma
» fi
0 ¨¨¨ 0 b1j1 ˚ ˚ ˚ ¨¨¨ ˚ ¨¨¨ ˚

— 0 ¨¨¨ 0 0 ¨ ¨ ¨ 0 b2j2 ¨¨¨ ˚ ¨ ¨ ¨ ˚ ffi
ffi
— .. .. .. .. .. .. .. .. .. .. .. ffi

— . . . . . . . . . . . ffi
ffi
0 ¨¨¨ 0 0 ¨¨¨ 0 0 ¨ ¨ ¨ brjr ¨ ¨ ¨ ˚ ffi ,
— ffi

— ffi
— 0 ¨¨¨ 0 0 ¨¨¨ 0 0 ¨¨¨ 0 ¨ ¨ ¨ 0 ffi
.. .. .. .. .. .. .. .. .. .. .. ffi
— ffi

– . . . . . . . . . . . fl
0 ¨¨¨ 0 0 ¨¨¨ 0 0 ¨¨¨ 0 ¨¨¨ 0

donde lo señalado con * indica que tal posición puede estar ocupada por cualquier valor
en K. Claramente una matriz escalonada reducida por filas es de la forma
» fi
0 ¨¨¨ 0 1 ˚ ˚ 0 ¨¨¨ 0 ¨¨¨ ˚

— 0 ¨¨¨ 0 0 ¨¨¨ 0 1 ¨¨¨ 0 ¨¨¨ ˚ ffi
ffi
— .. .. .. .. .. .. .. .. .. .. .. ffi

— . . . . . . . . . . . ffi
ffi
0 ¨¨¨ 0 0 ¨¨¨ 0 0 ¨¨¨ 1 ¨¨¨ ffi .
— ffi
— ˚
— ffi
— 0 ¨¨¨ 0 0 ¨¨¨ 0 0 ¨¨¨ 0 ¨¨¨ 0 ffi
.. .. .. .. .. .. .. .. .. .. ..
— ffi
— ffi
– . . . . . . . . . . . fl
0 ¨¨¨ 0 0 ¨¨¨ 0 0 ¨¨¨ 0 ¨¨¨ 0

Observe que si B es cuadrada y escalonada, entonces es una matriz triangular superior;


además, si es escalonada reducida por filas, entonces los elementos no nulos de la diagonal
principal son todos iguales a 1; en particular, si los todos los elementos de la diagonal
principal son todos iguales a 1, entonces B es la matriz identidad. Ası́ pues, dada A P
Mn pKq existe un número finito de operaciones elementales por fila que al ser aplicadas a A,
se obtiene una matriz triangular superior. Surge por tanto la interrogante ¿se mantendrá la
propiedad discutida en los casos 2ˆ2 y 3ˆ3 sobre el determinante de una matriz triangular?

Teorema 3.2
Para cualquier matriz triangular superior A “ raij s P Mnˆn pKq siempre se cumple que

a
11 a12 ¨ ¨ ¨ a1n
0 a22 ¨ ¨ ¨ a2n

det A “ . .. .. .. “ a11 a22 ¨ ¨ ¨ ann .
.. . . .

0 0 ¨ ¨ ¨ ann

Demostración. Sigue por inducción sobre el orden de la matriz. Se dejan los detalles al
lector.
Álgebra lineal: Nociones y propiedades elementales 89

Al igual que en las matrices de ordenes 2 ˆ 2 y 3 ˆ 3, el determinante de matrices


triangulares inferiores de cualquier orden es también igual al producto de los coeficientes
de la diagonal principal de la matriz. Su demostración es por indución sobre el orden de
la matriz. Veamos, sea A “ raij s P Mn pKq una matriz triangular inferior; esto es, todos
los elementos por encima de la diagonal principal de A son iguales a 0: aij “ 0 para todo
i ă j. Al emplear la definición recursiva de determiantes tenemos

det A “ a11 det A11 ´ a21 det A21 ` ¨ ¨ ¨ ` p´1qn`1 det An1 ;

pero cada matriz Ai1 con i ą 1 tiene la primera fila nula, por tanto su determinante es igual
a 0; por otra parte, la matriz A11 es también triangular inferior. Luego por inducción se
concluye que el determinante de A es el producto de los elementos en su diagonal principal;
es decir:
a 0 ¨ ¨ ¨ 0
11
a21 a22 ¨ ¨ ¨ 0

det A “ . .. .. .. “ a11 a22 ¨ ¨ ¨ ann .
.. . . .

an1 an2 ¨ ¨ ¨ ann

Antes de proseguir recuerde que operaciones elementales por filas del tipo II no alteran
el valor del determinante de la matriz obtenida luego de su aplicación. En lo que sigue, si
F es una secuencia ordenada y finita de operaciones elementales por fila y A es una matriz
cualquiera, entonces FpAq denotará la matriz obtenida de A al aplicarle esa secuencia de
operaciones elementales.

Teorema 3.3
Sean A P Mnˆn pKq y F es una secuencia finita de operaciones elementales por fila. Si
en F hay k intercambios de filas y ` operaciones elementales del tipo I definidas por los
escalares no nulos α1 , ¨ ¨ ¨ , α` , entonces det A “ p´1qk pα1 ¨ ¨ ¨ α` q´1 det FpAq.

Ejemplo 3.8 » fi
2 1 3 ´1
— 0 1 ´1 0 ffi
Calculemos el determinante de A “ — ffi.
— ffi
– 1 2 1 1 fl
´1 2 1 ´1
Haciendo uso de la obtención de una forma escalonada equivalente por filas a A y el
efecto que producen las operaciones elementales por filas, tenemos que:
ˇ ˇ ˇ ˇ
ˇ 1 2 1 1 ˇˇ ˇ 1 2 1 1 ˇˇ
ˇ ˇ
ˇ 0 1 ´1 0 ˇˇ f3 Ñf3 ´2f1 ˇ 0 1 ´1 0 ˇˇ
f1 Øf3 ˇ ˇ
|A| ÝÝÝÝÑ“ ´ ˇ ˇ ÝÝÝÝÝÝÝÑ“ ´ ˇ ˇ
ˇ 2 1 3 ´1 ˇ f4 Ñf4 `f1 ˇ 0 ´3 1 ´3 ˇ
ˇ ˇ ˇ ˇ
ˇ ´1 2 1 ´1 ˇ ˇ 0 4 2 0 ˇ
ˇ ˇ ˇ ˇ
ˇ 1 2 1 1 ˇˇ ˇ 1 2 1 1 ˇˇ
ˇ ˇ
ˇ 0 1 ´1 0 ˇˇ f4 Ñf4 `3f3 ˇ 0 1 ´1 0 ˇˇ
f3 Ñf3 `3f2 ˇ ˇ
ÝÝÝÝÝÝÝÑ“ ´ ˇ ˇ ÝÝÝÝÝÝÝÑ“ ´ ˇ ˇ “ ´18.
f4 Ñf4 ´4f2 ˇ 0 0 ´2 ´3 ˇ ˇ 0 0 ´2 ´3 ˇ
ˇ ˇ ˇ ˇ
ˇ 0 0 6 0 ˇ ˇ 0 0 0 ´9 ˇ
90 Neptalı́ Romero

Note que en general, si F es una secuencia finita cualquiera de operaciones elementales


por fila, entonces existe una constante β ‰ 0 tal que, para cualquier matriz cuadrada
apropiada A se tiene det FpAq “ β det A. De estas simples observaciones y el Teorema 3.2
tenemos el siguiente resultado.

Teorema 3.4
Una matriz A P Mn pKq es invertible si, y solo si, det A ‰ 0.

Demostración. Sabemos que una matriz A P Mnˆn pKq es invertible si, y solo si, cualquier
matriz escalonada obtenida a partir de ella por operaciones elementales por fila tiene rango
n. Pero una matriz escalonada de orden n ˆ n y con rango n es una matriz triangular
superior con todas sus fila no nulas; en particular, los coeficientes de su diagonal son todos
diferentes de 0. Esto demuestra el teorema.

Ejemplo 3.9 » fi
1 0 ´1 3
— 2 2 0 8 ffi
Determinemos si la matriz A “ — ffi es o no invertible; y en caso de serlo
— ffi
– 1 0 4 ´1 fl
0 1 ´5 1
calculemos su determinante. Para ello procedemos a reducir por filas a la matriz A.
» fi » fi » fi
1 0 ´1 3 1 0 ´1 3 1 0 ´1 3
— 2 2 0 8 ffi
ffi f2 ÝÑf2 ´2f1 — 0 2 2 2 ffiffi f3 ÝÑf3 ´f1 — 0 2 2 2 ffi
— —
— ffi
— ffi ÝÝÝÝÝÝÝÝÑ — ffi ÝÝÝÝÝÝÝÑ — ffi
– 1 0 4 ´1 fl – 1 0 4 ´1 fl – 0 0 5 ´4 fl
0 1 ´5 1 0 1 ´5 1 0 1 ´5 1
» fi » fi
1 0 ´1 3 1 0 ´1 3
1 6
f4 ÝÑf4 ´ f2 — 0 2
— 2 2 ffi f4 ÝÑf4 ` 5 f3 — 0 2
ffi — 2 2 ffi
ÝÝÝÝÝÝÝ2ÝÑ — ffi .
ffi
ffi ÝÝÝÝÝÝÝÝÑ —
– 0 0 5 ´4 fl – 0 0 5 ´4 fl
0 0 ´6 0 0 0 0 ´ 24
5

De acá que A sea invertible (tiene rango 4), y además, como las operaciones elementales
usadas fueron todas del tipo II, entonces det A “ 1 ˆ 2 ˆ 5 ˆ ´ 24 5 “ ´48.

3.3.2. Más propiedades del determinante


El siguiente teorema además de extender a cualquier orden lo referente a la relación del
determinante de una matriz y el determinante de su traspuesta, estable una importante
propiedad sobre el determinante de una matriz producto (de dos cuadradas), y estable
formas distintas de obtener una fórmula del determinante al desarrollar cualquier fila o
cualquier columna.

Teorema 3.5
Dadas matrices A, B P Mn pKq siempre se cumplen:

1. detpABq “ det A det B.

2. det At “ det A, donde At denota la matriz traspuesta de A.


Álgebra lineal: Nociones y propiedades elementales 91

3. Si A “ raij s, entonces para cualquier i P t1, ¨ ¨ ¨ , nu vale

det A “ p´1qi`1 ai1 det Ai1 ` p´1qi`2 ai2 det Ai2 ` ¨ ¨ ¨ ` p´1qi`n ain det Ain ;

es el desarrollo del determiante por medio de los cofactores de la fila i.

4. Si A “ raij s, entonces para todo j P t1, ¨ ¨ ¨ , nu se cumple

det A “ p´1qj`1 a1j det A1j ` p´1qj`2 a2j det A2j ` ¨ ¨ ¨ ` p´1qj`n anj det Anj ;

que es el desarrollo del determiante por medio de los cofactores de la columna j.

La demostración que ofreceremos de este teorema, que puede ser obviada en una pri-
mera lectura, la haremos por partes a lo largo del apartado. Antes discutiremos algunos
asuntos sobre operaciones elementales por columna (oec); estas también son de tres tipos:

Oec del tipo I Sustituir una columna por el producto de ella y un escalar no nulo.
Simbólicamente, ci ÝÑ α ci , lo cual significa que la columna i es sustituida por el
múltiplo α de ella.
» fi » fi
2 1 0 2 2 0
ffi c2 ÝÑ2c2 —
Ejemplo: –0 3 1fl ÝÝ ÝÝÝÑ –0 6 1fl.
— ffi
0 0 2 0 0 2

Oec del tipo II Sustituir una columna por la suma de ella con un múltiplo no
nulo de otra columna de la matriz. ci ÝÑ ci ` α cj significa que la columna i es
sustituida la suma de la columna i y α veces la columna j.
» fi » fi
2 1 0 2 1 0
ffi c2 ÝÑc2 ´3c3 —
Ejemplo: –0 3 1fl ÝÝ ÝÝÝÝÝÝÑ – 0 0 1 fl.
— ffi
0 0 2 0 ´6 2

Oef del tipo III Intercambio o trasposición de columnas, denotada por ci ÐÑ cj ,


significa que las columnas i y j se intercambian.
» fi » fi
2 1 0 2 0 1
ffi c2 ÐÑc3 —
Ejemplo: –0 3 1fl ÝÝ ÝÝÝÑ –0 1 3fl.
— ffi
0 0 2 0 2 0

Como en las oef, las operaciones elementales por columna definen una relación de
equivalencia; también se definen formas escalonadas por columnas, formas escalonadas
reducidas por columnas, y una forma canónica de Gauss-Jordan por columnas. Dado que
todo esto se hace se manera similar a como fue hecho para operaciones elementales por filas,
no entraremos en los detalles. De la misma forma, si C es una secuencia finita ordenada de
operaciones elementales por columna, entonces CpAq denotará la matriz obtenida de A al
realizar esas operaciones elementales por columnas. Como antes, dada una secuencia C de
operaciones elementales por columnas, existe una constante γ ‰ 0 tal que, para cualquier
matriz cuadrada A se cumple det CpAq “ γ det A.
El siguiente lema es fundamental para la demostración de la primera parte del teorema
enunciado.
92 Neptalı́ Romero

Lema 3.1
Sean A y B matrices cualesquiera de ordenes m ˆ n y n ˆ p respectivamente. Si F y C son
secuencias finitas de operaciones elementales por fila y columna, respectivamente, entonces
FpABq “ FpAqB y CpABq “ ACpBq.

Demostración. Daremos una demostración sobre para la primera parte; la segunda de


ellas es semejante. De hecho mostraremos la primera parte únicamente en el caso que F
es una sola operación elemental por fila; de allı́ por recurrencia se tiene el caso general.
Si A “ raij s P Mmˆn pKq y B “ rbij s P Mnˆp pKq, entonces AB “ rcij s P Mmˆp pKq y
para cada i P t1, ¨ ¨ ¨ , mu y j P t1, ¨ ¨ ¨ , pu la entrada cij es dada por

cij “ ai1 b1j ` ai2 b2j ` ¨ ¨ ¨ ` ain bnj .

Supongamos inicialmente que F es fi ÐÑ fj . Luego FpABq es la matriz obtenida de


AB al intercambiar sus filas i y j; esto es, la fila i de FpABq es la n-upla pcj1 , cj2 , ¨ ¨ ¨ , cjp q,
mientras que la fila j es pci1 , ci2 , ¨ ¨ ¨ , cip q, y las filas restantes son las mismas de AB. Por
otra parte, la fila i de FpAq es paj1 , aj2 , ¨ ¨ ¨ , ajp q, miestras que su fila j es pai1 , ai2 , ¨ ¨ ¨ , aip q
y las restantes filas son las mismas filas de A. De acá que el coeficiente k` de la matriz
FpAqB, con k R ti, ju, sea

ak1 b1` ` ak2 b2` ` ¨ ¨ ¨ ` akn bn` “ ck` ;

en consecuencia, la fila k (k R ti, ju) de FpAqB es la misma fila k de FpABq. Además, si


k “ i entonces es claro que el coeficiente k` de FpAqB sea

aj1 b1` ` aj2 b2` ` ¨ ¨ ¨ ` ajn bn` “ cj` ;

por lo que la fila i de FpAqB es la misma fila i de FpABq. Similarmente se verifica que la
fila j de FpAqB es la misma fila j de FpABq. Con esto se ha demostrado que la parte del
enunciado es cierto cuando F intercambia filas. De manera análoga se verifica la propiedad
1 del lema cuando F es cualquier operación elemental por fila de los otros dos tipos.

Demostración de la parte 1 del Teorema 3.5. Sean F y C dos secuencias de opera-


ciones elementales por fila y por columna, respectivamente, tales que FpAq es escalonada
reducida por filas y CpBq es escalonada reducida por columna. Sean β y γ los escalares no
nulos tales que para toda matriz cuadrada de orden n ˆ n se tiene

det FpHq “ β det H y det CpHq “ γ det H.

Mostraremos el resultado en cada uno de los tres posibles casos.


Caso 1: A no invertible.
Bajo esta hipótesis es claro que FpAq tiene al menos una fila nula, por tanto det FpAq “ 0;
en consecuencia det A “ 0 y det A det B “ 0. Por otra parte, del Lema 3.1 sabemos que
FpABq “ FpAqB, luego FpABq tiene al menos una fila nula. De aquı́ que

det FpABq “ 0 “ β detpABq,

sigue por tanto que detpABq “ 0 “ det A det B.


Álgebra lineal: Nociones y propiedades elementales 93

Caso 2: B no invertible.
La demostración en este caso es similar al anterior, pero ahora la matriz CpBq tiene al
menos una columna nula y CpABq “ A CpBq.
Caso 3: A y B ambas invertibles.
En vista de que A y B son invertibles, FpAq “ In “ CpBq. En particular esto implica que
det A “ β ´1 . Ahora bien, como FpABq “ FpAq B, se tiene

FpABq “ B y β detpABq “ det B;

de donde se deduce detpABq “ β ´1 det B “ det A det B.

Corolario 3.2
1
Si A P Mn pKq es una matriz invertible, entonces det A´1 “ .
det A
Demostración. Es inmediata pues det A ‰ 0 y A´1 A “ In .

Corolario 3.3
Si A1 , ¨ ¨ ¨ , Ak P Mn pKq son matrices cualesquiera, entonces

detpA1 ¨ ¨ ¨ Ak q “ det A1 ¨ ¨ ¨ det Ak .

En particular, el producto A1 ¨ ¨ ¨ Ak es invertible si, y solo si, cada una de las matrices
factores lo es.

Demostración. Se hace por inducción sobre el entero positivo k.

Definición 3.3
Dos secuencias finitas ordenadas F “ fk ¨ ¨ ¨ f1 y C “ ck ¨ ¨ ¨ c1 de operaciones elementales
por fila y columna, respectivamente, se dicen análogas si para cada ` P t1, ¨ ¨ ¨ , ku, la
operaciones f` y c` son exactamente del mismo tipo; es decir:

‚ La f` sustituye la fila i por un múltiplo α (no nulo) de ella si, y solo si, la c` hace lo
mismo con la columna i.

‚ La f` sustituye la fila i por ella más un múltiplo α (no nulo) de otra si, y solo si, la c`
hace lo mismo con las columnas de igual ı́ndice.

‚ La f` intercambias las filas i y j si, y solo si, la c` hace lo mismo con las columnas i y j.

Lema 3.2
Sea A P Mn pKq una matriz cuadrada cualquiera. Si F es una secuencia ordenada finita
de operaciones elementales por filas y C es su análoga por columnas, entonces

a) CpAt q es triangular inferior siempre que FpAq sea triangular superior.

b) det CpAq “ det FpAq.

Demostración. La dejamos al lector; sugerimos inicialmente suponer que F es una sola


oef, para ası́ verificar que FpAq “ FpIn q A y CpAq “ A CpIn q; luego analizar las matrices
FpIn q y CpIn q. Posteriormente usar inducción sobre el número de oef en F.
94 Neptalı́ Romero

Comentario 3.3
Del lema anterior junto con el Teorema 3.1 (pg. 85) y el Corolario 3.1 (pg. 86) se deducen
los efectos en los determinantes producidos por la aplicación de operaciones elementales
por columnas.
‚ Efecto de la operación elemental por columna del tipo I:

c ÝÑα c
i i
A ÝÝ ÝÝÝÑ B ùñ det B “ α det A, con α ‰ 0.

‚ Efecto de la operación elemental por columna del tipo II:

ci ÝÑci `α cj
A ÝÝÝÝÝÝÝÝÑ B ùñ det B “ det A.

‚ Efecto de la operación elemental por columna del tipo III:

ci ÐÑcj
A ÝÝÝÝÝÑ B ùñ det B “ ´ det A.

Demostración de la parte 2 del Teorema 3.5.


Sean F y C secuencias análogas de operaciones elementales por fila y columna tales que
FpAq es triangular superior y CpAt q es triangular inferior; ver lema anterior. Si en F y
C hay m operaciones elementales del tipo III y k del tipo I donde los escalares no nulos
que intervienen son α1 , ¨ ¨ ¨ , αk , entonces de los efectos que tienen sobre el cálculo del
determinante al aplicar operaciones elementales por fila o columna se tiene:

det A “ p´1qm pα1 ¨ ¨ ¨ αk q´1 det FpAq y det At “ p´1qm pα1 ¨ ¨ ¨ αk q´1 det CpAt q.

Finalmente, dado que las matrices triangulares FpAq y CpAt q tienen la misma diagonal
principal, sus determinantes son iguales; esto obviamente implica que det A “ det At .

Comentario 3.4
Haciendo uso del hecho que el determinante de cualquier matriz cuadrada es igual al
determinante de su traspuesta, se deducen directamente las condiciones de linealidad en
cada una de las columnas de la matriz; ver partes 3 y 4 del Teorema 3.1, donde se muestran
las correspondientes propiedades para las filas de la matriz; ası́ que:

a
11 ¨ ¨ ¨ α a1j ¨ ¨ ¨ a1n
a
11 ¨ ¨ ¨ a1j ¨ ¨ ¨ a1n

a21 ¨ ¨ ¨ α a2j ¨ ¨ ¨ a2n a21 ¨ ¨ ¨ a2j ¨ ¨ ¨ a2n

1. .
.. .. .. .. “ α ..
.. .. .. .. para todo α ‰ 0; y
.. . . . . . . . . .

an1 ¨ ¨ ¨ α anj ¨ ¨ ¨ ann an1 ¨ ¨ ¨ anj ¨ ¨ ¨ ann

a
11 ¨ ¨ ¨ a1j ` b1j ¨ ¨ ¨ a1n a11 ¨ ¨ ¨ a1j ¨ ¨ ¨ a1n a11 ¨ ¨ ¨ b1j ¨ ¨ ¨ a1n

a21 ¨ ¨ ¨ a2j ` b2j ¨ ¨ ¨ a2n a21 ¨ ¨ ¨ a2j ¨ ¨ ¨ a2n a21 ¨ ¨ ¨ b2j ¨ ¨ ¨ a2n

2. . .. .. .. .. “ .. .. .. .. .. ` .. .. .. .. .. .
.. . . . . . . . . . . . . . .

an1 ¨ ¨ ¨ anj ` bnj ¨ ¨ ¨ ann an1 ¨ ¨ ¨ anj ¨ ¨ ¨ ann an1 ¨ ¨ ¨ bnj ¨ ¨ ¨ ann
Álgebra lineal: Nociones y propiedades elementales 95

Además, también se deducen del Corolario 3.1:


1. Si A tiene dos columnas iguales, entonces det A “ 0.

2. Si A tiene una columna nula, entonces det A “ 0.

3. Si una de las columnas de A es igual a la suma de múltiplos de otras de sus columnas,


entonces det A “ 0.

Ejemplo 3.10
1 1 1

Vamos a calcular el determinante a b c el cual es conocido como determinante de

2 2 2
a b c
Vandermonde (ver sección de ejercicios propuestos). Haciendo uso de operaciones elemen-
tales por columna tenemos:

1 1 1 1 0 0
b´a c ´ a

c2 ÝÑc2 ´c1
a b c ÝÝÝÝÝÝÝÑ “ a b´a c´a “ 2 (¿por qué?)

2 2 2 c3 ÝÑc3 ´c1 2 2 2 2 2
b ´ a2 c2 ´ a2
a b c a b ´ a c ´ a
“ pb ´ aqpc2 ´ a2 q ´ pc ´ aqpb2 ´ a2 q
“ pb ´ aqpc ´ aqpc ´ bq.

Demostración de las partes 3 y 4 del Teorema 3.5. Sabemos que det A “ det At y
por la definición 3.1

det At “ a11 det At11 ´ a12 det At21 ` ¨ ¨ ¨ ` p´1qn`1 a1n det Atn1 ,

pues la primera columna de At es la primera fila de A. Por otra parte, es simple verificar
que para todo i, j en t1, ¨ ¨ ¨ , nu vale Atij “ Aji ; luego

det A “ a11 det A11 ´ a12 det A12 ` ¨ ¨ ¨ ` p´1qn`1 a1n det A1n .

Esto es, el determinante de A se obtiene también por el desarrollo de los cofactores de


su primera fila. Veamos que igualmente se obtiene por el desarrollo de los cofactores de
cualquiera de sus otras filas. En efecto, fijemos un ı́ndice de fila, digamos i ě 2, y sea B
la matriz que se obtiene de A al realizar la secuencia de operaciones elementales por fila:

fi ÐÑ fi´1 , fi´1 ÐÑ fi´2 , ¨ ¨ ¨ , f2 ÐÑ f1 ;


» fi
ai1 ¨ ¨ ¨ ain
— a
— 11 ¨ ¨ ¨ a1n ffi
ffi
— . .. .. ffi
— .. . . ffi
— ffi
esto es, B “ —ai´11 ¨ ¨ ¨ ai´1n ffi. Es claro que det A “ p´1qi´1 det B, pues se realizaron
— ffi
— ffi
—ai`11 ¨ ¨ ¨ ai`1n ffi
— .. .. .. ffi
— ffi
– . . . fl
an1 ¨ ¨ ¨ ann
i ´ 1 cambio de filas. Al desarrollar el determinante de B por la primera fila tenemos:

det A “ p´1qi´1 ai1 det B11 ´ ai2 det B12 ` ¨ ¨ ¨ ` p´1qn`1 ain det B1n ,
` ˘
96 Neptalı́ Romero

pero p´1qi´1 “ p´1qi`1 y B1j “ Aij para todo j P t1, ¨ ¨ ¨ , nu, entonces de la anterior
fórmula se obtiene

det A “ p´1qi`1 ai1 det Ai1 ` p´1qi`2 ai2 det Ai2 ` ¨ ¨ ¨ ` p´1qi`n ain det Ain ,

que es justamente el desarrollo por cofactores de la fila i de A.


Finalmente, el desarrollo por cofactores de cualquiera de las columnas, digamos la j,
de A es el desarrollo por cofactores de la fila j de At . Como toda matriz cuadrada y su
traspuesta tienen el mismo determinante, entonces se concluye que el determiante de A
también se obtiene mediante el desarrollo por cofactores de cualquiera de sus columnas.

Ejemplo 3.11 » fi
2 0 1 3
— 2 3 1 2 ffi
Calculemos el determinante de la matriz A “ — ffi. Al expresar det A a
— ffi
– 0 0 ´1 4 fl
0 0 0 2
través del desarrollo por cofactores de la segunda columna (¡hay más ceros!) tenemos
ˇ ˇ
ˇ 2 0 1 3 ˇ ˇ
ˇ 2
ˇ
ˇ ˇ 1 3 ˇ
ˇ 2 3 1 2 ˇ
2`2 ˇ
ˇ ˇ
3 ˇ 0 ´1 4
ˇ ˇ ˇ
ˇ ˇ “ p´1q ˇ “ ´12
ˇ 0 0 ´1 4 ˇ ˇ ˇ
ˇ ˇ ˇ 0 0 2 ˇ
ˇ 0 0 0 2 ˇ

Igual hubiemos podido hacer al desarrollar por cofactores de la última fila:


ˇ ˇ
ˇ 2 0 1 3 ˇˇ ˇ
ˇ 2 0
ˇ
ˇ 1 ˇˇ
ˇ 2 3 1 2 ˇˇ ˇ 2 0
ˇ “ p´1q4`4 2 ˇ 2 3 1 ˇ “ 2 p´1q3`3 p´1q
ˇ ˇ ˇ
ˇ “ ´12.
ˇ 0 0 ´1 4 ˇ ˇ ˇ 2 3
ˇ ˇ ˇ 0 0 ´1 ˇ
ˇ 0 0 0 2 ˇ

3.4. Algunas aplicaciones de los determinantes

Trataremos en esta sección tres tópicos que son verdaderos clásicos del Álgebra lineal.
El primero de ellos corresponde a un método para resolver sistemas de n ecuaciones lineales
con n incógnitas: la Regla de Cramer; el segundo es un método que permite obtener la
inversa de matrices invertibles a partir de la denominada adjunta clásica de una matriz
y el desarrollo de determinantes por cofactores; finalmente estudiaremos la relación que
existe entre el rango de un matriz y los determinantes; se trata sobre un aporte teórico
en la dirección de obtener el rango de matrices, vale mencionar que no es muy útil para
efectos prácticos; por tanto puede ser obviado en una primera lectura.

3.4.1. Regla de Cramer


Hacia finales del siglo XVII Leibniz mostró en una de sus publicaciones el método que
en la actualidad se conoce con el nombre de Regla de Cramer. No obstante, no es sino hasta
Álgebra lineal: Nociones y propiedades elementales 97

1750 cuando Gabriel Cramer 1 dió un método general para encontrar la solución única de
sistemas de ecuaciones lineales compatibles determinados con igual número de ecuaciones
que de incógnitas. Esto surgió motivado por el problema de encontrar la ecuación de curvas
algebraicas planas a partir de un conjunto finito de puntos por donde tal curva pasa.
Comenzamos considerando una matriz A invertible de orden n ˆ n con coeficientes en
K. Como sabemos esta condición equivalente a det A ‰ 0, y también a que el sistema de
ecuaciones lineales AX “ b tenga solución única, cualquiera sea b P Mnˆ1 pKq. La esencia
de la Regla de Cramer es que ofrece una fórmula para cada una de las componentes de la
solución del sistema de ecuaciones lineales AX “ b.
» fi » fi
a11 a12 ¨ ¨ ¨ a1n b1
— a21 a22 ¨ ¨ ¨ a2n ffi — b2 ffi
— ffi — ffi
Dadas A “ — — .. .. .. .. ffi
ffi y b “ — .. ffi; denotamos por Apj; bq la matriz
— ffi
– . . . . fl – . fl
an1 an2 ¨ ¨ ¨ ann bn
de orden n ˆ n que se obtiene de A sustituyendo la columna j por b; esto es,
» fi
a11 ¨ ¨ ¨ a1j´1 b1 a1j`1 ¨ ¨ ¨ a1n
— a21 ¨ ¨ ¨ a2j´1 b2 a2j`1 ¨ ¨ ¨ a2n ffi
— ffi
Apj; bq “ — .
— .. .. .. .. .. ffi .
.. ffi
– .
. . . . . . . fl
an1 ¨ ¨ ¨ anj´1 bn anj`1 ¨ ¨ ¨ ann

Teorema 3.6 (Regla de Cramer)


Si A P Mn pKq es invertible, entonces para toda matriz unicolumna b se tiene que las
coordenadas de la solución del sistema de ecuaciones lineales AX “ b son dadas, para
det Apj; bq
cada j “ 1, ¨ ¨ ¨ , n, por xj “ .
det A
» fi
x1
p1q pnq — .. ffi
Demostración. Sean A , ¨ ¨ ¨ , A las columnas de la matriz A y X “ – . fl la solución
xn
del sistema de ecuaciones lineales AX “ b. Una simple cuenta muestra que

b “ x1 Ap1q ` ¨ ¨ ¨ ` xn Apnq .

Para cada i “ 1 ¨ ¨ ¨ , n, sea Bi la matriz cuyas columnas son:

Ap1q , ¨ ¨ ¨ , Apj´1q , xi Apiq , Apj`1q , ¨ ¨ ¨ , Apnq .

Sigue de las propiedades enunciadas en el Comentario 3.4 (pg. 94) que


#
0, si i ‰ j
det Bi “ .
xj det A, si i “ j
1
Matemático suizo (1704-1752), quien además de sus labores de enseñanza, publicó varios artı́culos
de interés considerable, en ellos abordó una gran variedad de temas, entre ellos el estudio de problemas
geométricos, historia de la matemática y filosofı́a. Su trabajo no se limitó al área académica; laboró en la
administración municipal, en la que se destacó por el empleo de su conocimiento matemático y cientı́fico.
Una de las áreas de mayor destaque en el quehacer matemático se debe al trabajo editorial que publicó en
1750, en el que trató el estudio de las curvas algebraicas.
98 Neptalı́ Romero

Usando de nuevo las propiedades en el comentario 3.4 se deduce

det Apj; bq “ det B1 ` ¨ ¨ ¨ ` det Bj´1 ` det Bj ` det Bj`1 ` ¨ ¨ ¨ ` det Bn “ xj det A;

det Apj; bq
de donde xj “ , para cada j “ 1, ¨ ¨ ¨ , n.
det A
Ejemplo 3.12
Consideremos el sistema de ecuaciones lineales AX “ b donde
» fi » fi
1 2 3 2
A“– 1 0 1 fl y b “ – 3 fl .
— ffi — ffi
1 1 ´1 1

Examinemos si es posible resolver tal sistema empleando la Regla de Cramer. Para ello
se debe averiguar si A es invertible; dado que

1 2 3 1 2 3 1 2 3
1
f2 ÝÑ 2 f2

f3 ÝÑf3 ´f1
1 0 1 ÝÝÝÝÝÝÝÑ“ 0 ´2 ´2 ÝÝÝÝÝÝÑ“ ´2 0 1 1

f2 ÝÑf2 ´f1
1 1 ´1 0 ´1 ´4 0 ´1 ´4

1 2 3

f3 ÝÑf3 `f2
ÝÝÝÝÝÝÝÑ“ ´2 0 1 1 “ 6;


0 0 ´3

por tanto sı́ podemos utilizar la Regla de Cramer. Ahora bien, como

2 2 3 1 1 ´1 1 1 ´1

f3 ÐÑf1 f2 ÝÑf2 ´3f1
det Ap1; bq “ 3 0 1 ÝÝÝÝÝÑ“ ´ 3 0 1 ÝÝÝÝÝÝÝÝÑ“ ´ 0 ´3 4 “ 15

f ÝÑf3 ´2f1
2 2 3 3

1 1 ´1 0 0 5

1 2 3 1 2 3 1 2 3

f2 ÝÑf2 ´f1 f3 ÝÑf3 ´f2
det Ap2; bq “ 1 3 1 0 1 2 0 1 2 “ ´6, y

ÝÝ ÝÝÝ ÝÝÑ “ ÝÝ ÝÝÝ ÝÝ Ñ“
f3 ÝÑf3 ´f1
1 1 ´1 0 1 ´4 0 0 ´6

1 2 2 1 2 2
´2 1
f2 ÝÑf2 ´f1
det Ap3; bq “ 1 0 3 ÝÝÝÝÝÝÝÑ“ 0 ´2 1 “ “ 3,

f ÝÑf3 ´f1 ´1 ´1
1 1 1 3

0 ´1 ´1

tenemos que

det Ap1; bq 5 det Ap2; bq det Ap3; bq 1


x1 “ “ , x2 “ “ ´1, y x3 “ “ ,
det A 2 det A det A 2
» fi
5
2
de donde X “ – ´1 fl es la solución del sistema AX “ b.
— ffi
1
2
Álgebra lineal: Nociones y propiedades elementales 99

3.4.2. Adjunta clásica e inversión de matrices


Sea A P Mn pKq, recuerde que cualesquiera sean los ı́ndices i, j P t1, ¨ ¨ ¨ , nu, Aij denota
la matriz cuadrada de orden pn ´ 1q ˆ pn ´ 1q obtenida de A suprimiendo la fila i y
la columna j; y que el cof actor ij de A es el escalar cof Api, jq “ p´1qi`j det Aij . Se
acostumbra denominar ij-ésimo menor de A al determinante det Aij .

Definición 3.4
Dada A P Mn pKq, su adjunta clásica de A es la matriz AdjpAq “ rbij s P Mn pKq con

bij “ p´1qi`j detpAji q, para cada i, j P t1, ¨ ¨ ¨ , nu.

Es decir, AdjpAq es la traspuesta de la matriz de los cofactores de A.

Ejemplo 3.13 » fi
2 1 ´2
Consideremos la matriz A “ – 1 ´1 2 fl; dado que
— ffi
3 1 1
ˇ ˇ ˇ ˇ ˇ ˇ
ˇ ´1 2 ˇ ˇ 1 2 ˇ ˇ 1 ´1 ˇ
cof Ap1, 1q “ ˇ ˇ “ ´3, cof Ap1, 2q “ ´ ˇ ˇ “ 5, cof Ap1, 3q “ ˇ ˇ “ 4,
ˇ ˇ ˇ ˇ ˇ ˇ
ˇ 1 1 ˇ ˇ 3 1 ˇ ˇ 3 1 ˇ
ˇ ˇ ˇ ˇ ˇ ˇ
ˇ 1 ´2 ˇ ˇ 2 ´2 ˇ ˇ 2 1 ˇ
cof Ap2, 1q “ ´ ˇ ˇ “ ´3, cof Ap2, 2q “ ˇ ˇ “ 8, cof Ap2, 3q “ ´ ˇ ˇ “ 1,
ˇ ˇ ˇ ˇ ˇ ˇ
ˇ 1 1 ˇ ˇ 3 1 ˇ ˇ 3 1 ˇ
ˇ ˇ ˇ ˇ
ˇ 2 ´2 ˇ ˇ 2 1 ˇˇ
cof Ap3, 1q “ 0, cof Ap3, 2q “ ´ ˇ ˇ “ ´6, cof Ap3, 3q “ ˇ
ˇ ˇ ˇ
ˇ “ ´3,
ˇ 1 2 ˇ ˇ 1 ´1 ˇ
» fi
´3 ´3 0
se tiene AdjpAq “ – 5 8 ´6 fl.
— ffi
4 1 ´3
Una importante identidad es la siguiente:
Proposición 3.3
Si A “ raij s P Mnˆn pKq, entonces para todo i, j “ 1, ¨ ¨ ¨ , n siempre se cumple
n
ÿ
p´1qj`k aik det Ajk “ δij det A, (3.9)
k“1

donde δij es el delta de Kronecker, ver página 4.


Demostración. Note que al considerar i “ j en la ecuación (3.9) lo que se tiene es
justamente la fórmula del determinante por el desarrollo de la i-ésima fila de A; luego
(3.9) es obviamente verdadera en este caso. Supongamos por tanto que i ‰ j. Sea B
la matriz cuyas columnas son las mismas de A, excepto la columna j que es la misma
columna i de A; como B tiene dos columnas iguales, se tiene det B “ 0. Por otra parte, al
desarrollar el determinante de B por la i-ésima fila resulta
n
ÿ
det B “ p´1qj`k aik det Ajk ,
k“1
100 Neptalı́ Romero

con lo cual queda demostrada la proposición.

Corolario 3.4
Si A es cualquier matriz de orden n ˆ n, entonces A AdjpAq “ det A In . En particular,
1
A´1 “ AdjpAq,
detpAq

siempre que A sea invertible.

Demostración. Si A “ raij s y A AdjpAq “ rcij s, entonces


n
ÿ
cij “ p´1qj`k aik detpAjk q, para todo i, j P t1, ¨ ¨ ¨ , nu.
k“1

Por tanto de (3.9) es inmediato que A AdjpAq “ det A In .


ˆSuponga ahora˙ que A es invertible. Como A AdjpAq “ det A In y det A ‰ 0, se tiene
1 1
A AdjpAq “ In ; y ası́ A´1 “ AdjpAq.
det A det A
Ejemplo 3.14 » fi
2 1 ´2
Consideremos la matriz A “ – 1 ´1 2 fl del ejemplo anterior; sabemos que su ad-
— ffi
3 1 1
» fi
´3 ´3 0
junta clásica es AdjpAq “ – 5 8 ´6 fl. Por otro lado, como
— ffi
4 1 ´3
ˇ ˇ ˇ ˇ
ˇ 1 ´1 2 ˇˇ ˇ 1 ´1 2 ˇˇ ˇ ˇ
ˇ ˇ ˇ 3 ´6 ˇ
det A “ ´ ˇ 2 1 ´2 ˇ ˇ 0 3 ´6 ˇ
ˇ ˇ ˇ ˇ ˇ ˇ
“ ´ “ ´ ˇ ˇ “ ´9,
ˇ ˇ ˇ ˇ ˇ 4 ´5 ˇ
ˇ 3 1 1 ˇ ˇ 0 4 ´5 ˇ
» fi
´3 ´3 0
1—
se concluye que A es invertible y A´1 “´ – 5 8 ´6 fl.
ffi
9
4 1 ´3

3.4.3. Determinación del rango de una matriz


Es bien conocido que para cualquier matriz A P Mmˆn pKq, su rango es el número de
filas no nulas de cualquier forma escalonada equivalente por filas a A; igualmente, al usar
operaciones elementales por columnas se concluye que el rango de A también es igual al
número de columnas no nulas de cualquier forma escalonada por columnas equivalente a
A. Presentaremos a continuación otra forma de obtener el rango de una matriz.

Definición 3.5
Sea A P Mmˆn pKq. Dados dos subconjuntos cualesquiera

F “ ti1 ă ¨ ¨ ¨ ă ir u Ă t1, ¨ ¨ ¨ , mu y C “ tj1 ă ¨ ¨ ¨ ă js u Ă t1, ¨ ¨ ¨ , nu,


Álgebra lineal: Nociones y propiedades elementales 101

se define la submatriz de A con ı́ndices F y C, como la matriz AF C P Mrˆs pKq obtenida


de la matriz A suprimiendo las filas y columnas cuyos ı́ndices no están en los conjuntos F
y C, respectivamente.

Ejemplo» 3.15 fi
1 2 ´1 1 0 1
Si A “ – ´2 0 1 1 ´1 2 fl, F “ t1, 3u y C “ t1, 3, 4, 5u, entonces
— ffi
´4 4 1 5 ´3 8
« ff
1 ´1 1 0
AF C “ .
´4 1 5 ´3

Teorema 3.7
Si A P Mmˆn pKq es no nula, entonces su rango es el mayor entero positivo r tal que A
tiene alguna submatriz AF C P Mrˆr pKq con det AF C ‰ 0.

Demostración. Sean r ě 1 el rango de A y F una secuencia finita de operaciones ele-


mentales por fila tales que FpAq es la forma canónica de Gauss-Jordan de A; esto es
» fi
0 ¨¨¨ 0 1 ˚ ˚ 0 ¨¨¨ 0 ¨¨¨ ˚

— 0 ¨¨¨ 0 0 ¨¨¨ 0 1 ¨¨¨ 0 ¨¨¨ ˚ ffi
ffi
— .. .. .. .. .. .. .. .. .. .. .. ffi

— . . . . . . . . . . . ffi
ffi
FpAq “ — 0 ¨¨¨ 0 0 ¨¨¨ 0 0 ¨¨¨ 1 ¨¨¨ ffi ;
— ffi
˚
— ffi
— 0 ¨¨¨ 0 0 ¨¨¨ 0 0 ¨¨¨ 0 ¨¨¨ 0 ffi
.. .. .. .. .. .. .. .. .. .. ..
— ffi
— ffi
– . . . . . . . . . . . fl
0 ¨¨¨ 0 0 ¨¨¨ 0 0 ¨¨¨ 0 ¨¨¨ 0

obviamente FpAq tiene exactamente r filas no nulas. Siguiendo el algoritmo de reducción


Gaussiana (ver Teorema 1.6), en A hay r filas, digamos 1 ď i1 ă ¨ ¨ ¨ ă ir ď m, que luego
de aplicarle la secuencia de operaciones elementales por filas en F producen las primeras
r filas de FpAq. Sean 1 ď j1 ă ¨ ¨ ¨ ă jr ď n los ı́ndices de las columnas de A (¡y de
FpAq también!) donde están los 11 s en FpAq. Ahora considere los conjuntos de ı́ndices
F “ ti1 , ¨ ¨ ¨ , ir u y C “ tj1 , ¨ ¨ ¨ , jr u. Note que las filas de la matriz AF C P Mrˆr pKq son
parte de las filas que producen las filas no nulas de la forma canónica de Gauss-Jordan
de A; igualmente sus columnas son justamente las columnas de esa forma canónica donde
están sus pivotes; por tal motivo FpAF C q es la matriz identidad de orden r, por tanto
det AF C ‰ 0.
Recı́procamente, si F 1 y C 1 son conjuntos de ı́ndices tales que AF 1 C 1 es de orden k ˆ k
con k ą r, entonces empleando los mismos argumentos anteriores se concluye que su forma
canónica de Gauss-Jordan tiene al menos una fila nula, de lo contrario el rango de A serı́a
mayor que r; ası́ det AF 1 C 1 “ 0. De esta forma, r es el mayor entero al que hace referencia
el enunciado del teorema.

Comentario 3.5
El teorema que acabamos de demostrar es una herramienta meramente teórica; con esto
102 Neptalı́ Romero

queremos decir que en general es bastante inadecuado para fines prácticos. Puede ser que
el número de submatrices a chequear con determinante diferente de cero sea muy superior
al número de operaciones elementales por filas para obtener una forma escalonada de la
matriz, y por el ende el rango de la misma.

3.5. Ejercicios Propuestos


1. Calcular el determinante de cada una de las siguientes matrices:
» fi
« ff « ff « ff 2 ´i 1 ´ i
1 ` i 2i a b 1 1
, , , – ´i ´2 0 fl ,
— ffi
2 ´ i ´1 ´b a a b
2`i 0 3i
» fi » fi
0 a b 1 1 1
0 c fl , – a b c fl .
— ffi — ffi
– ´a
´b ´c 0 a2 b2 c2

2. Demostrar que si A es una matriz de orden 2 ˆ 2 (o 3 ˆ 3) tiene determinante diferente


de 0, entonces A es invertible. ¿Es cierto el recı́proco?

3. Determine los valores de x para los cuales las siguientes matrices son invertibles:
» fi
« ff « ff « ff 2 1 0
12 ´ x 4 2x 4 2x 4
, , y –1 x 1 fl .
— ffi
8 8´x x 2 x 1
1 1´x 1´x

4. ¿Es cierto que si A y B son matrices 2 ˆ 2 (o 3 ˆ 3), entonces

detpα A ` β Bq “ α det A ` β det B?

5. Demostrar mediante operaciones elementales por filas, o columnas, que



y ` z x ` z x ` y

x y z “ 0.


1 1 1

6. Demostrar que para todo n ě 1, cualquiera sea la matriz A P Mn pKq y cada α P K se


cumple detpα Aq “ αn det A.

7. Es bien conocido de los cursos elementales de Cálculo, que la ecuación de la recta en


R2 que pasa por los puntos px1 , y1 q y px2 , y2 q con x1 ‰ x2 es dada por
y2 ´ y1
y ´ y1 “ px ´ x1 q.
x2 ´ x1
Verificar que un punto
px, yq está sobre la recta que pasa por px1 , y1 q y px2 , y2 q si, y
1 1 1

solo si, x x1 x2 “ 0.


y y1 y2
Álgebra lineal: Nociones y propiedades elementales 103

8. Sean f11 , f12 , f21 , f22 : R Ñ R funciones diferenciables. Sea F : R Ñ R definida por
f pxq f pxq
11 12
F pxq “ para cada x P R. Demostrar que

f21 pxq f22 pxq

f 1 pxq f 1 pxq f pxq f pxq
11 12
F 1 pxq “ 11 12
para cada x P R.

` 1 1
f21 pxq f22 pxq f21 pxq f22 pxq

f pxq f pxq f pxq
11 12 13
Obtener una fórmula semejante si F pxq “ f21 pxq f22 pxq f23 pxq . Generalizar a n2


f31 pxq f32 pxq f33 pxq
funciones fij , i, j “ 1, 2, ¨ ¨ ¨ , n.

9. Utilizando operaciones elementales por fila, operaciones elementales por columna, desa-
rrollos por cofactores de fila o de columna, calcule el determinante de las siguientes
matrices:
» fi » fi » fi
» fi 3 ´1 ´1 0 2 1 1 5 1 2 1 1
2 1 ´1
ffi — 1 ´2 ´1 1 ffi — 1 1 ´4 ´1 ffi
— ffi — ffi — ´1 1 0 1 ffi
– ´2 3 0 fl , — ffi , — ffi y — ffi .
— — ffi
– ´1 2 1 1 fl – 2 0 ´3 1 fl – 2 0 0 ´1 fl
1 0 1
0 2 ´1 0 3 6 1 0 0 1 1 1

10. Sea A un matriz antisimétrica de orden n ˆ n; esto es, A “ ´At . Demuestre que para
cualquier matriz antisimétrica vale det A “ p´1qn det A. Deducir de acá que si n es
impar, entonces A es no invertible

11. Una matriz A P Mnˆn pRq se dice ortogonal si AAt “ In . Demostrar que si A es
ortogonal, entonces det A “ ˘1.

12. Una matriz A P Mnˆn pCq se dice unitaria si AA˚ “ In , donde A˚ “ At , la traspuesta
de su conjugada. Demostrar que si A es unitaria, entonces | det A| “ 1. (Sugerencia:
Mostrar primero que det A “ det A. Recuerde queapara un número complejo z “ x ` iy,
su conjugado es z “ x ´ iy y su módulo es |z| “ x2 ` y 2 .)

13. Dos matrices cuadradas A y B, ambas del mismo orden, se dicen similares si existe
una matriz invertible P tal que A “ P B P ´1 . Demostrar que la relación A „ B si A y
B son similares es de equivalencia. Muestre además que si dos matrices son similares,
entonces tienen el mismo determinante. ¿Es cierto el recı́proco?

14. Dadas matrices B P Mrˆr pKq, C P Mrˆpn´rq pKq, O P Mpn´rqˆr pKq (la matriz nula de
orden pn ´ rq ˆ r) y D P Mpn´rqˆpn´rq pKq. Demostrar que si A es la matriz por bloques
« ff
B C
A“ , entonces det A “ det B det D.
O D

15. Falta determinante de matriz por bloque ... Kenneth-Hofmann


104 Neptalı́ Romero

16. Para cada i “ 1, ¨ ¨ ¨ , r, sea Ai una matriz cuadrada »de orden mi . Demostrar que
fi el
A1 O ¨ ¨ ¨ O O
— O A ¨¨¨ O O ffi
— 2 ffi
— . . . . . ffi
determinante de la matriz diagonal por bloques A “ — . — . .
. . . .
. . ffi es
. ffi
— ffi
– O O ¨ ¨ ¨ Ar´1 O fl
O O ¨¨¨ O Ar
el producto de los determinantes de las matrices A1 , ¨ ¨ ¨ , Ar .
» fi
0 0 0 a14
— 0 0 a23 a24 ffi
17. Calcule el determinante de la matriz — ffi . Generalize el resultado
— ffi
– 0 a32 a33 a34 fl
a41 a42 a43 a44
para matrices de orden n ˆ n.

18. Se conoce como matriz de Vandermonde de orden n a la matriz


» fi
1 1 1 ¨¨¨ 1

— x0 x1 x2 ¨ ¨ ¨ xn ffi
ffi
x20 x21 x22 ¨ ¨ ¨ x2n ffi .
— ffi

.. .. .. .. ffi
— ffi
..
. . fl

– . . .
xn0 xn1 xn2 ¨ ¨ ¨ xnn
ź
Demuestre que su determinante es igual al producto pxi ´ xj q.
iąj

La matriz de Vandermonde aparece como la traspuesta de la matriz del sistema lineal


que se obtiene del siguiente problema: Dados n ` 1 pares de px0 , y0 q, ¨ ¨ ¨ , pxn , yn q en
R2 , encontrar un polinomio ppxq “ a0 ` a1 x ` ¨ ¨ ¨ ` an xn tal que ppxi q “ yi para todo
i “ 0, ¨ ¨ ¨ , n. Este es un problema clásico de interpolación. ¿Cuándo existe un único
polinomio que interpole los puntos dados?

19. Utilice la Regla de Cramer para resolver los sistemas de ecuaciones lineales dados a
continuación:

$ $
& 2x ´ y ` 3z “ 1
’ ’
& 2x ` y ´ 3z “ 1
a) 3x ` 2y ´ z “ 0 b) x ´ 2y ` z “ 0

% x ` 4y ` z “ 6 ’
% 3x ` 4y ´ 2z “ ´5
$
& x ´ y ` 4z
’ “ ´4
c) ´8x ` 3y ` z “ 0

% 2x ´ y ` z “ 8

20. Encontrar la adjunta clásica de las siguientes matrices; en el caso de que alguna de ellas
sea invertible, determine su inversa.
Álgebra lineal: Nociones y propiedades elementales 105
» fi » fi » fi
´2 0 1 ´2 0 1 ´2 1 4
a) – 0 4 1 fl b) – ´3 2 1 fl c) – 2 2 ´1 fl
— ffi — ffi — ffi

» 0 1 5 fi » ´1 2 1 fi » 3 0 0 fi
7 1 4 4 1 ´1 1´i 0 0
d) – 5 ´2 fl e) – ´2 3 2 fl f) – 4 3i 1 fl
— ffi — ffi — ffi
´3
» 6 ´3 0 fi » 6 0 3fi » 2i 1 ´ 4i ´1 fi
1 1 1 1 0 0 cos θ 0 ´ sen θ
? ? ffi
g) – 0 i 2 ´i 2 fl h) – 1 1 0 fl i) – 0 1 0 fl.
— — ffi — ffi
1 ´1 1 1 1 1 sen θ 0 cos θ

21. Invertir las matrices An (n ě 3) que a continuación se definen:


» fi
» fi 1 1 0 0
1 1 0 — 0 1 1 0 ffi
a) A3 “ – 0 1 1 fl b) A4 “ —
— ffi — ffi
ffi
– 0 0 1 1 fl
1 0 1
1 0 0 1
» fi
1 1 0 ¨¨¨ 0 0
—0 1 1 ¨¨¨ 0 0ffi
— ffi
c) An “ — .........
— ffi
ffi
— ffi
–0 0 0 ¨¨¨ 1 1fl
1 0 0 ¨¨¨ 0 1

22. Demostrar que para cualquier matriz A P Mn pKq se cumplen:

a) detpAdjpAqq “ pdet Aqn´1


b) AdjpAt q “ pAdjpAqqt .
106 Neptalı́ Romero
Capı́tulo 4

Puntos, vectores, rectas, planos e hiperplanos en Rn

4.1. Introducción
Puede decirse que el Álgebra lineal moderna tiene sus orı́genes en el estudio de los
vectores en plano y en el espacio tridimensional cartesiano, para luego transformase en un
área abstracta de la Matemática en la cual el concepto de vector se presenta de manera
general como un ente abstracto en espacios de dimensión arbitraria (incluso infinita). En
realidad, y muy a pesar de sus caracterı́sticas abstractas en las cuales puede presentarse,
la noción de vector es de común empleo en diferentes disciplinas cientı́ficas y tecnológicas.
Por ejemplo, en Fı́sica, se refiere a objetos en los que se hace referencia a una magnitud
y dirección, como la velocidad; en Biologı́a, un vector puede ser considerado como un ele-
mento portador de un agente de alguna infección; en Economı́a los vectores son empleados
para representar diferentes ı́ndices, como por ejemplo el PIB de un determinado grupo
de paı́ses; mientras que en Informática un vector puede entenderse como un conjunto de
registros de una misma naturaleza. En Matemáticas, un vector es simplemente el objeto
inicial de estudio en los espacios vectoriales.
Dado que el Álgebra lineal admite una representación concreta en la Geometrı́a analı́ti-
ca, procederemos a estudiar las nociones básicas fundamentales en las que se percibe el
empleo de los concepto y propiedades elementales de los vectores en Rn en ciertos elemen-
tos de esta geometrı́a, como los son las rectas, planos e hiperplanos.

4.2. Al inicio los puntos


Comenzaremos con la presentación formal de los objetos del conjunto Rn ; además,
introduciremos dos operaciones: una adición y una multiplicación por escalares, de manera
que este conjunto con tales operaciones tenga un conjunto de propiedades similares a las
que se tienen sobre el conjunto Mmˆn pKq con las operaciones de adición de matrices y la
multiplicación de escalares por matrices.

Definición 4.1
Dado cualquier entero positivo n, al producto cartesiano del conjunto de los números reales
R consigo mismo n veces, lo denotaremos por Rn ; esto es

Rn “ R
l ˆRˆ n “ tpx1 , x2 , ¨ ¨ ¨ , xn q : x1 , x2 , ¨ ¨ ¨ , xn P Ru.
jh¨ ¨ ¨ ˆ R
n veces

107
108 Neptalı́ Romero

Los elementos del producto cartesiano Rn son conocidos con el nombre de puntos,
se refiere ello a cualquier n-tupla px1 , x2 , ¨ ¨ ¨ , xn q cuyas componentes x1 , x2 , ¨ ¨ ¨ , xn son
números reales; estas componentes también son llamadas coordenadas.

Tal y como lo discutimos en el apartado 1.3.2 del Capı́tulo 1, el conjunto Rn lo podemos


identificar tanto con el conjunto de las matrices unifila M1ˆn pRq como con el conjunto
de las matrices unicolumna Mnˆ1 pRq. En consecuencia no ha de resultar extraño que
adoptemos algunas de las nociones anteriormente discutidas en el contexto de las matrices;
ası́ como tampoco que enunciemos sin demostración algunas propiedades derivadas de esas
adopciones. Iniciamos estos acuerdos recordando que

‚ dos puntos A “ pa1 , a2 , ¨ ¨ ¨ , an q y B “ pb1 , b2 , ¨ ¨ ¨ , bn q cualesquiera de Rn , se


dicen iguales siempre que ai “ bi para todo i “ 1, 2, ¨ ¨ ¨ , n; se escribe A “ B.

Destacaremos en Rn algunos de sus puntos: el origen (o cero) de Rn como el punto


O “ p0, 0, ¨ ¨ ¨ , 0q cuyas coordenadas son todas iguales a 0; en segundo lugar, llamaremos
puntos canónicos de Rn aquellos cuyas coordenadas son todas iguales a 0 excepto una de
ellas que es igual a 1. Claramente en Rn hay n puntos canónicos, estos son

E1 “ p1, 0, ¨ ¨ ¨ , 0q, E2 “ p0, 1, 0, ¨ ¨ ¨ , 0q, ¨ ¨ ¨ , En “ p0, 0, ¨ ¨ ¨ , 0, 1q.

En general, para cada k P t1, 2, ¨ ¨ ¨ , nu, el k-ésimo punto canónico es

Ek “ pδk1 , δk2 , ¨ ¨ ¨ , δkn q,

donde δkj es el delta de Krocneker de ı́ndices kj, ver página 4.


Enseguida adoptamos las operaciones de adición y de mutiplicación por escalares en
Rn : dados A “ pa1 , a2 , ¨ ¨ ¨ , an q, B “ pb1 , b2 , ¨ ¨ ¨ , bn q en Rn y cualquier α P R se tiene

‚ A ` B “ pa1 ` b1 , a2 ` b2 , ¨ ¨ ¨ , an ` bn q.

‚ αA “ pαa1 , αa2 , ¨ ¨ ¨ , αan q.

En consecuencia, tenemos varias propiedades por enunciar (realmente, recordar); el


primer conjunto de ellas son las que dotan a Rn de la estructura lineal usual.

Teorema 4.1 (Estructura vectorial de Rn )


Las operaciones de adición y multiplicación por escalares arriba definidas en Rn satisfacen:

[A1] Para todo A y B en Rn se tiene A ` B “ B ` A. (Conmutatividad)

[A2] Para todo A, B y C en Rn , pA ` Bq ` C “ A ` pB ` Cq. (Asociatividad)

[A3] Existe un único punto O1 en Rn tal que para cada A P Rn vale O1 ` A “ A; de hecho
O1 es el origen O “ p0, 0, ¨ ¨ ¨ , 0q. (Elemento neutro)

[A4] Para cada A en Rn existe un único punto A1 en Rn tal que A ` A1 “ O. (Elemento


simétrico)
Álgebra lineal: Nociones y propiedades elementales 109

[M1] Para cada α en R y todo A, B en Rn , αpA ` Bq “ αA ` αB. (Distributividad)

[M2] Para cada α y β en R y cada A en Rn , pα ` βqA “ αA ` βA. (Distributividad)

[M3] Para cada α y β en R y cada A en Rn , pαβqA “ αpβAq “ βpαAq.

[M4] Para todo A en Rn , 1A “ A.

En lo que sigue diremos que pRn , `, ¨q es un espacio vectorial sobre R, donde ` y ¨ hace
referencia a las operaciones de adición y multiplicación por escalares reales de arriba. En
el próximo capı́tulo discutiremos este concepto de manera abstracta.
Otras propiedades en pRn , `, ¨q son enunciadas en la siguiente proposición.

Proposición 4.1
Cualesquiera sean A, B, C P Rn y α P R se tiene que:

1. Si A ` B “ A ` C, entonces B “ C.

2. 0A “ O y α O “ O.

3. Si A1 denota el elemento simétrico u opuesto de A P Rn , entonces A1 “ p´1qA. En


adelante emplearemos la notación ´A para representar el simétrico de A.

Adoptaremos también la importante noción de combinación lineal discutida anterior-


mente. Dado un número finito de puntos A1 , A2 , ¨ ¨ ¨ , A` en Rn , se dice que que A P Rn
es combinación lineal de A1 , A2 , ¨ ¨ ¨ , A` si existen números reales α1 , α2 , ¨ ¨ ¨ , α` tales que
ÿk
A“ αi Ai . Al conjunto de todas las combinaciones lineales de puntos A1 , A2 , ¨ ¨ ¨ , A`
i“1
en Rn lo denotamos por CLpA1 , A2 , ¨ ¨ ¨ , A` q; esto es,

k
ÿ
A P CLpA1 , A2 , ¨ ¨ ¨ , A` q ðñ D α1 , ¨ ¨ ¨ , α` P R tales que A “ αi Ai .
i“1

Ejemplo 4.1
1. El punto A “ p´1, 2q P R2 es combinación lineal de los puntos canónicos E1 y E2 :

p´1, 2q “ p´1qE1 ` 2E2 “ p´1qp1, 0q ` 2p0, 1q.

En general todo punto A “ pa1 , a2 , ¨ ¨ ¨ , an q P Rn es combinación lineal de los puntos


canónicos de Rn . En efecto, esto sigue de:

pa1 , a2 , ¨ ¨ ¨ , an q “ pa1 , 0, ¨ ¨ ¨ , 0q ` p0, a2 , 0, ¨ ¨ ¨ , 0q ` ¨ ¨ ¨ ` p0, ¨ ¨ ¨ , 0, an q


“ a1 E1 ` a2 E2 ` ¨ ¨ ¨ ` an En .

De esta forma CLpE1 , E2 , ¨ ¨ ¨ , En q “ Rn .


110 Neptalı́ Romero

2. El punto P “ p1, ´2, 3q es combinación lineal de Q “ p2, ´4, 6q, pues P “ 21 Q; sin
embargo, no es combinación lineal de R “ p2, 4, 6q pues no existe α P R que satisfaga
P “ αR; de lo contrario tendrı́amos que

p1, ´2, 3q “ αp2, 4, 6q “ p2α, 4α, 6αq;

dado que α ‰ 0, pues P ‰ O, entonces se desprenderı́a de esta igualdad que

2α “ 1 y 4α “ ´2,
1
de donde 2 “ ´ 12 , lo cual es absurdo.

3. El origen O de Rn es combinación lineal de cualquier colección finita de puntos en


Rn . En efecto, sean A1 , A2 , ¨ ¨ ¨ , Am puntos cualesquiera en Rn , entonces tomando los
escalares α1 “ α2 “ ¨ ¨ ¨ “ αm “ 0 sigue inmediatamente de la Proposición 4.1 que

α1 A1 ` α2 A2 ` ¨ ¨ ¨ ` αm Am “ 0A1 ` 0A2 ` ¨ ¨ ¨ ` 0Am “ O.

4. Consideremos el punto A “ p1, 3q. Determinemos una caracterización de los puntos que
son combinación de A. Como sabemos CLpAq “ tαA : α P Ru; esto es, B P CLpAq si,
y solo si, existe α P R tal que B “ αA “ pα, 3αq. Si hacemos B “ px, yq, entonces
de lo anterior sigue que x “ α y y “ 3α; en otras palabras, y “ 3x. De esta manera,
CLpAq “ tpx, yq : y “ 3xu; que es la recta en R2 que pasa por el origen y tiene pendiente
igual a 3.

5. Veamos ahora un ejemplo similar al anterior pero en R3 . Sea A “ p2, 1, 1q; vamos a
caracterizar los puntos px, y, zq que pertenecen a CLpAq “ tαA : α P Ru. Como antes,
B “ px, y, zq P CLpAq si, y solo si, existe un escalar α P R tal que B “ αA; es decir,
px, y, zq “ αp2, 1, 1q “ p2α, α, αq; de donde se sigue que x2 “ y “ z. En otras palabras,
CLpAq es el conjunto de todos los puntos px, y, zq P R3 que satisfacen la ecuación
x 3
2 “ y “ z. Como veremos más adelante, este conjunto describe una recta en R .

6. Dado A “ p´2, 3q P R2 , deseamos saber si A es combinación lineal de B “ p1, 2q y


C “ p´3, ´6q. Para dar respuesta a nuestra inquietud debemos averiguar si existen
escalares α y β en R tales que A “ αB ` βC. Lo cual equivale a tener:

p´2, 3q “ αp1, 2q ` βp´3, ´6q “ pα ´ 3β, 2α ´ 6βq.

De esta #forma, A es combinación lineal de B y C si, y solo si, el sistema de ecuaciones


α ´ 3β “ ´2
lineales tiene solución. Analicemos este sistema de ecuaciones usando
2α ´ 6β “ 3
las herramientas ya conocidas; esto es, determinemos tanto el rango de la matriz del
sistema y su ampliada. Como
« ff « ff
1 ´3 ´2 f2 ÝÑf2 ´2 f1 1 ´3 ´2
ÝÝÝÝÝÝÝÝÑ ,
2 ´6 3 0 0 7

el sistema de ecuaciones lineales anterior no admite solución ya que los rangos de la


matriz del sistema y su ampliada son diferentes. Esto nos permite concluir que no es
posible escribir a A como combinación lineal de B y C.
Álgebra lineal: Nociones y propiedades elementales 111

Comentario 4.1
El problema de decidir si A en Rn es o no combinación lineal de A1 , A2 , ¨ ¨ ¨ , Am P Rn es
un problema de existencia de m escalares α1 , α2 , ¨ ¨ ¨ , αm en R para los cuales se cumple

A “ α1 A1 ` α2 A2 ` ¨ ¨ ¨ ` αm Am .

Esta ecuación puede o no tener solución: pueden o no existir escalares α1 , α2 , ¨ ¨ ¨ , αm en


R que satisfagan la ecuación anterior. Además, en caso de tener solución, puede ocurrir
que existan varias (y por tanto infinitas) de ellas. Con un poco más de precisión podemos
afirmar que el problema de saber si A es combinación lineal de los puntos A1 , A2 , ¨ ¨ ¨ , Am
se reduce al estudio de un sistema de ecuaciones lineales de n ecuaciones con m incógnitas,
que son justamente los valores de α1 , α2 , ¨ ¨ ¨ , αm P R. Veamos como es esto. Supongamos
que tenemos puntos de Rn

A “ pa1 , a2 , ¨ ¨ ¨ , an q, A1 “ pa11 , a21 , ¨ ¨ ¨ , an2 q, ¨ ¨ ¨ , Am “ pa1m , a2m , ¨ ¨ ¨ , anm q.

Ası́, A P CLpA1 , A2 , ¨ ¨ ¨ , Am q si, y solo si, existen escalares α1 , α2 , ¨ ¨ ¨ , αm en R tales que

pa1 , a2 , ¨ ¨ ¨ , an q “ α1 pa11 , a21 , ¨ ¨ ¨ , an1 q`α2 pa12 , a22 , ¨ ¨ ¨ , an2 q`¨ ¨ ¨`αm pa1m , a2m , ¨ ¨ ¨ , anm q.

En otras palabras, A P CLpA1 , A2 , ¨ ¨ ¨ , Am q si, y solo si, el sistema de ecuaciones lineales


con n ecuaciones y m incógnitas:
$


’ a11 α1 ` a12 α2 ` ¨ ¨ ¨ ` a1m αm “ a1
& a21 α1 ` a22 α2 ` ¨ ¨ ¨ `

a2m αm “ a2
..


’ .

% a α ` a α ` ¨¨¨ `
n1 1 n2 2 anm αm “ an

admite solución. Equivalentement, A P CLpA1 , A2 , ¨ ¨ ¨ , Am q si, y solo si,


¨» fi˛ ¨» fi˛
a11 a12 ¨ ¨ ¨ a1m a11 a12 ¨ ¨ ¨ a1m a1
˚— a21 a22 ¨ ¨ ¨ a2m ffi‹ ˚— a21 a22 ¨ ¨ ¨ a2m a2
˚— ffi‹ ˚— ffi‹
ffi‹
rango ˚
˚— ..
— .. .. ffi‹ “ rango ˚— ..
.. ffi‹ ˚— .. .. .. .. ffi‹ .
˝– . . . . fl‚ ˝– . . . . .
ffi‹
fl‚
an1 an2 ¨ ¨ ¨ anm an1 an2 ¨ ¨ ¨ anm an

Ejemplo 4.2
Consideremos en R3 los puntos:

A “ p1, ´1, ´3q, A1 “ p1, 0, ´2q, A2 “ p0, 1, 1q, A3 “ p2, 1, ´3q y A4 “ p2, 2, ´2q.

Queremos saber si A es combinación lineal de A1 , A2 , A3 y A4 ; esto es, queremos conocer


si existen escalares α, βγ, δ P R tales que

p1, ´1, ´3q “ αp1, 0, ´2q ` βp0, 1, 1q ` γp2, 1, ´3q ` δp2, 2, ´2q.
$
& α ` 2γ ` 2δ “ 1

Como ya es conocido, esto equivale a saber si el sistema β ` γ ` 2δ “ ´1

% ´2α ` β ´ 3γ ´ 2δ “ ´3
tiene o no solución. Procedamos entonces a determinar los rangos de la matriz del sistema
112 Neptalı́ Romero

y su ampliada:
» fi » fi
1 0 2 2 1 1 0 2 2 1
ffi f3 ÝÑf3 `2 f1 —
– 0 1 1 2 ´1 fl ÝÝÝÝÝÝÝÝÑ – 0 1 1 2 ´1 fl
— ffi
´2 1 ´3 ´2 ´3 0 1 1 2 ´1
» fi
1 0 2 2 1
f3 ÝÑf3 ´f2 —
ÝÝÝÝÝÝÝÑ – 0 1 1 2 ´1 fl ;
ffi
0 0 0 0 0

luego el sistema es compatible inderminado, por tanto existen infinitos valores de α, β, γ


y δ de manera que A “ αA1 ` βA2 ` γA3 ` δA4 . Dado que los pivotes en la tercera de
las matrices de arriba están en la primera y segunda columna, entonces al darle valores
particulares a γ y δ tendremos valores de α y β mediante los cuales A se escribe como
combinación lineal de A1 , A2 , A3 y A4 . Por ejemplo, si hacemos γ “ δ “ 0, entonces α “ 1
y β “ ´1. Ası́, A “ 1 ¨ A1 ` p´1qA2 ` 0A3 ` 0A4 “ A1 ´ A2 .
Continuando con los puntos A1 , A2 , A3 y A4 , nos gustarı́a saber la caracterización
de todos los puntos que son combinación lineal de A1 , A2 , A3 y A4 ; es decir, deseamos
conocer la forma que tienen los puntos px, y, zq P CLpA1 , A2 , A3 , A4 q. Procediendo como
antes, px, y, zq P CLpA1 , A2 , A3 , A4 q si, y solo si, existen escalares α, βγ, δ P R tales que

px, y, zq “ αp1, 0, ´2q ` βp0, 1, 1q ` γp2, 1, ´3q ` δp2, 2, ´2q;


$
& α ` 2γ ` 2δ “ x

o equivalentemente, px, y, zq P CLpA1 , A2 , A3 , A4 q si, y solo si, β ` γ ` 2δ “ y

% ´2α ` β ´ 3γ ´ 2δ “ z
es compatible. Al analizar los rangos de la matriz del sistema y su ampliada, nos encon-
tramos con:
» fi » fi
1 0 2 2 x 1 0 2 2 x
ffi f3 Ñf3 `2 f1 —
– 0 1 1 2 y fl ÝÝÝÝÝÝÝÑ – 0 1 1 2 y
— ffi
fl
´2 1 ´3 ´2 z 0 1 1 2 2x ` z
» fi
1 0 2 2 x
f3 Ñf3 ´f2 —
ÝÝÝÝÝÝÑ – 0 1 1 2 y fl ;
ffi
0 0 0 0 2x ´ y ` z

por tanto, px, y, zq P CLpA1 , A2 , A3 , A4 q si, y solo si, 2x ´ y ` z “ 0; es decir:

CLpA1 , A2 , A3 , A4 q “ tpx, y, zq P R3 : 2x ´ y ` z “ 0u;

como veremos más adelante este conjunto de puntos representa un plano en R3 .

4.2.1. Representación gráfica de puntos en R2 y R3 .


Los puntos de los conjuntos R2 y R3 pueden fácilmente ser representados gráficamente;
no ası́ lo puntos de Rn cuando n ě 4. Veamos como se obtiene esta representación gráfica.
Álgebra lineal: Nociones y propiedades elementales 113

‚ Caso R2 .
Definimos como ejes coordenados de R2 , o ejes canónicos, a los subconjuntos:

R ˆ t0u “ tpx, yq : y “ 0u y t0u ˆ R “ tpx, yq : x “ 0u;

en ocasiones son denominados eje de las x y eje de las y, respectivamente. La siguiente


gráfica muestra la ubicación de los ejes coordenados de R2 y la posición que ocupa el punto
px, yq de R2 respecto de tales ejes coordenados.

Figura 4.1: Ubicación del punto px, yq con respecto a los ejes coordenados de R.

Observe que la intersección de los ejes coordenados en R2 es justamente el origen p0, 0q


de R2 . Note además que E1 P R ˆ t0u, mientras que E2 P t0u ˆ R. Note además que R2
queda dividido, mediante los ejes coordenadados, en cuatro cuadrantes.
Caso R3 .
Los ejes coordenados, o ejes canónicos, de R3 son los subconjuntos:

R ˆ t0u ˆ t0u “ tpx, y, zq : y “ z “ 0u (eje de las x),


t0u ˆ R ˆ t0u “ tpx, y, zq : x “ z “ 0u (eje de las y),
t0u ˆ t0u ˆ R “ tpx, y, zq : x “ y “ 0u (eje de las z).

Como antes, es simple chequear que

pR ˆ t0u ˆ t0uq X pt0u ˆ R ˆ t0uq X pt0u ˆ t0u ˆ Rq “ tp0, 0, 0qu;

igualmente: E1 P R ˆ t0u ˆ t0u, E2 P t0u ˆ R ˆ t0u y E3 P t0u ˆ t0u ˆ R.


La representación gráfica de puntos en R3 es un tanto más complicada que en R2
pues estamos queriendo ubicar puntos con tres coordenadas en un espacio (el papel) que
solo admite dos coordenadas; sin embargo, con algo de habilidad y de credulidad haremos
el intento. Como podrá ser observado la ubicación del punto px, y, zq, con coordenadas
no nulas, queda determinada por un paralelepı́pedo recto, cuyos vértices son los puntos,
además del origen O “ p0, 0, 0q, px, y, zq, px, 0, 0q, p0, y, 0q, p0, 0, zq, px, y, 0q, px, 0, zq y
p0, y, zq. En este caso R3 queda dividido en ocho octantes.
114 Neptalı́ Romero

Figura 4.2: Ubicación del punto px, y, zq con respecto a los ejes coordenados canónicos de R3 .

4.3. Vectores en Rn .
Hasta el momento hemos dotados al conjunto de puntos Rn de una estructura lineal
(Teorema 4.1), la cual es la esencia del Álgebra lineal. En esta sección introduciremos el
concepto de vector en Rn ; a pesar que cada a vector en Rn se le asocia biunı́vocamente un
punto de Rn , conceptualmente son objetos matemáticos diferentes. Por ejemplo, en Fı́sica
es común encontrarse con dos tipos de objetos que llevan asociada una magnitud:
1. Los escalares son los objetos que solo expresan tamaño; entre ellos nos encontramos,
por ejemplo, con la masa, la densidad, el volumen, entre otros.

2. Los vectores, objetos que además de expresar tamaño, tienen consigo una dirección
y un sentido. Por ejemplo, en el desplazamiento de una partı́cula se encuentran la
velocidad, la acelaración y la fuerza que influyen en su movimiento y dinámica; estas
tres nociones de la Fı́sica son ejemplos de vectores, suelen ser representados por flechas
de diversas longitudes, para indicar sus respectivos tamaños, orientaciones, la dirección
del movimiento. Las flechas pueden identificarse con un par de puntos: punto inicial
ÝÝÑ
y punto final de la flecha. Ası́, AB denotará el vector con punto inicial en A y punto
final en B. Veamos una definición formal de vector.

Definición 4.2
ÝÝÑ
Un vector en Rn es un par ordenado pA, Bq de puntos en Rn , el cual se denota por AB. El
punto A se denomina punto inicial (o de anclaje) y B es su punto final . Fijado un punto
A P Rn , al conjunto de todos los vectores de Rn que están anclados en A
ÝÝÑ
RnA “ tAB : B P Rn u (4.1)
se le llama espacio tangente de Rn en A.

Comentario 4.2
ÝÝÑ ÝÝÑ
Claramente de la noción de par ordenados se tiene que dos vectores AB y CD son iguales
Álgebra lineal: Nociones y propiedades elementales 115

si los pares ordenados que los definen son iguales; esto es, si A “ C y B “ D. A los
ÝÑ
vectores anclados en el origen; es decir, los vectores de la forma OA los denotaremos por
Ñ
Ý Ý
Ñ ÝÑ Ý
Ñ
A , omitiendo el uso del origen O como su punto de anclaje; ası́, E1 , E2 , ¨ ¨ ¨ , En denotan
aquellos vectores anclados en el origen y cuyos puntos finales son los puntos canónicos
de Rn ; por tal motivo los denominaremos vectores canónicos de Rn anclados en O, o
simplemente vectores canónicos. Todo vector con punto de anclaje igual a su punto final
se conoce como vector nulo; por tanto cada espacio tangente tiene un único vector nulo:
ÝÑ Ñ
Ý
AA es el vector nulo de RnA , mientras que O es el vector nulo de RnO . La representación
gráfica de cada vector nulo de Rn se hace indicando apenas su punto de anclaje, que es
por definición igual a su punto final.

Figura 4.3: Representación gráfica y ubicación de diferentes vectores tanto en R2 como R3 .

Definición 4.3
ÝÝÑ ÝÝÑ
Dados A, B P Rn y el vector AB, denominamos representante de AB en el origen al vector
ÝÝÝÝÑ ÝÝÝÝÑ
B ´ A anclado en el origen con punto final B ´ A; al vector B ´ A también se le conoce
ÝÝÑ
por vector de coordenadas de AB.

Figura 4.4: Ilustración de un vector y su representante en el origen.

ÝÝÑ
La idea básica detrás de la noción de representate en el origen de cualquier vector AB,
es la de trasladar este hasta el punto en el origen O. En particular, el representante en
116 Neptalı́ Romero
ÝÑ
el origen del vector nulo AA del espacio tangente RnA es justamente el vector nulo en el
Ñ
Ý
origen O .

4.3.1. Equivalencia y paralelismo de vectores


ÝÝÑ ÝÝÑ
Considere los vectores AB y CD con A “ p2, 3q, B “ p4, 3q, C “ p0, 4q y D “ p2, 4q;
una caracterı́stica común es que ambos tienen el mismo punto de coordenadas; de hecho,
ÝÝÑ
AB
ÝÝÑ A B
CD
C D B ´ A “ D ´ C “ p1, 0q
ÝÝÑ
2E1
O 2E1

ÝÝÑ
hay infinitos vectores en R2 con esa caracterı́stica; otro es el vector 2E1 . La siguiente
definición formaliza esta idea.

Definición 4.4
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
Dos vectores AB y CD de Rn , se dicen equivalentes, si B´A “ D´C; se escribe AB ” CD
ÝÝÑ ÝÝÑ
para designar esta equivalencia, lo cual se lee AB y CD son equivalentes.

Obviamente la equivalencia de vectores significa que unos tales vectores tienen el mis-
mo representante en el origen; en particular, todo vector es equivalente a su vector de
coordenadas.

Ejemplo 4.3
ÝÝÑ ÝÝÑ Ý Ñ
1. Los vectores CB, DE y E1 , con C “ p´1, 1q, B “ p0, 1q, D “ p2, 3q y E “ p3, 3q, son
ÝÝÑ
equivalentes entre sı́. Ahora, el vector F G con F “ p1, 4q y G “ p0, 4q no es equivalente
a ninguno de los anteriores.
ÝÑ Ñ
Ý
2. Dado cualquier punto A P Rn , el vector AA es equivalente al vector O . Obviamente
estos dos vectores serán iguales si, y solo si, A “ O.
ÝÝÑ ÝÝÑ
3. Dados dos puntos diferentes A y B en Rn , los vectores AB y BA no son iguales ni
equivalentes.

Proposición 4.2
La equivalencia de vectores en Rn es una relación de equivalencia; esto es, cualesquiera
ÝÝÑ ÝÝÑ ÝÝÑ
sean los vectores AB, CD, EF de Rn se cumplen:
ÝÝÑ ÝÝÑ
Reflexividad: AB ” AB.
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
Simetrı́a: si AB ” CD, entonces CD ” AB.
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
Transitividad: si AB ” CD y CD ” EF , entonces AB ” EF .
Álgebra lineal: Nociones y propiedades elementales 117

Demostración. Se deja al lector.

Comentario 4.3
La equivalencia de vectores induce sobre el conjunto de todos los vectores de Rn una
descomposición en subconjuntos disjuntos (una partición) de vectores. Para cada vector
ÝÝÑ ÝÝÑ
AB, su clase de equivalencia es la colección de vectores en Rn que son equivalentes a AB;
ÝÝÑ
si denotamos esta colección por rABs, entonces
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
rABs “ tCD : AB ” CDu “ tCD : D ´ C “ B ´ Au.
ÝÝÑ ÝÝÑ
Obviamente el vector AB está en la clase de equivalencia rABs, pertenecen a esta
ÝÝÑ
clase todos aquellos vectores de Rn que son equivalentes al único vector equivalente a AB
que está anclado en el origen: su vector de coordenadadas; este vector también recibe el
ÝÝÑ
nombre de representante canónico de la clase de equivalencia rABs.
ÝÝÑ
Rústicamente hablando, la clase de equivalencia rABs agrupa a todos los vectores de
ÝÝÑ
Rn que tienen la misma magnitud, sentido y dirección que AB; o equivalentemente, los
ÝÝÑ
vectores en rABs son todos aquellos que trasladados al origen O de Rn coinciden con el
ÝÝÝÝÑ
vector B ´ A. Estas nociones serán precisadas más adelante; observe además que para
ÝÑ
cualquier punto A P Rn , la clase de equivalencia de los vectores equivalente a AA es
ÝÑ ÝÝÑ ÝÑ
rAAs “ tP P : P P Rn u; es decir, los vectores equivalentes a AA son todos aquellos cuyos
Ñ
Ý
puntos de anclaje y final son iguales; en particular en esta clase está el vector O , que serı́a
el representante canónico de esa clase. Dejamos al lector la tarea de chequear que para
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
cualquier par de clases de equivalencias rCDs y rABs se tiene rCDs X rABs “ H, o bien
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
rCDs “ rABs. De hecho, CD P rABs si, y solo si, rCDs “ rABs.

Ejemplo 4.4
ÝÝÑ
Consideremos en R3 el vector AB donde A “ p2, 1, 1q y B “ p3, 1, 1q. Luego la clase de
ÝÝÑ ÝÝÑ ÝÝÑ
equivalencia rABs “ tCD : D ´ C “ p1, 0, 0qu; es decir, rABs es la colección de todos los
Ý
Ñ
vectores de R3 que al ser traslados al origen O coinciden con el vector canónico E1 .

Figura 4.5: Ilustración de algunos vectores en la clase de equivalencia del vector con punto de anclaje en
A “ p2, 1, 1q y punto final en B “ p3, 1, 1q.

Definición 4.5
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
Dados dos vectores no nulos AB y CD de Rn , se dice que AB es paralelo a CD, se denota
ÝÝÑ ÝÝÑ
por AB k CD, si existe un número real α ‰ 0 tal que B ´ A “ αpD ´ Cq.
118 Neptalı́ Romero

Comentario 4.4
El paralelismo entre vectores no nulos en Rn es también una relación de equivalencia; es
decir se satisfacen:
ÝÝÑ ÝÝÑ
AB k AB (Reflexividad).
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
Si AB k CD, entonces CD k AB (Simetrı́a)
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
Si AB k CD y CD k EF , entonces AB k EF (Transitividad)

La primera de estas propiedades es inmediata: B ´ A “ B ´ A; en cuanto a la segunda,


si B ´ A “ αpD ´ Cq para algún α ‰ 0, entonces D ´ C “ α1 pB ´ Aq; note que tanto
α como α1 tienen el mismo signo. Dejamos al lector la verificación de la transitividad. En
ÝÝÑ ÝÝÑ
virtud de esta relación de equivalencia, diremos AB y CD son paralelos, en lugar de decir
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
que AB es paralelo a CD, o que CD es paralelo a AB. Cuando dos vectores sean paralelos
diremos que tienen igual dirección; sin embargo sus sentidos pueden ser diferentes. ¿A
ÝÝÑ ÝÝÑ
qué nos referimos con esta frase? Si AB k CD y el número α de la definición es positivo,
ÝÝÑ ÝÝÑ
diremos que AB y CD tienen igual sentido; mientras que si α ă 0, entonces decimos que
ÝÝÑ ÝÝÑ ÝÝÑ
AB y CD tienen sentidos opuestos a CD.
La siguiente figura muestra gráficamente algunos vectores paralelos entre sı́. Acá, los

Ñ
Ý ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
vectores A , BC y GH tienen sentido diferente al de los vectores BD y EF . Vulgalmente
hablando, las flechas de los tres primeros apuntan en sentido opuesto a las flejas de los
otros dos vectores; es ese el sentido de tener igual dirección pero sentidos distintos.
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
Note que si AB y CD son vectores no nulos y equivalentes, entonces AB k CD pues
B ´ A “ D ´ C; en otras palabras, vectores no nulos y equivalentes tienen la misma
ÝÝÝÝÝÝÝÑ
dirección y sentido. El recı́proco no es cierto: el vector p2, 3qp3, 3q es paralelo y con el
ÝÝÑ
mismo sentido al vector 2E1 , pero no son equivalentes.

4.3.2. Estructura lineal de cada espacio tangente


Trataremos acá la estructura vectorial, o lineal, que tiene naturalmente cada espacio
tangente RnP , cualquiera sea el punto P de Rn . Esta se estructura se obtiene a partir de tal
estructura inducida por la adición de puntos y multiplicación de escalares por puntos de
Rn ; ver Teorema 4.1. Iniciamos la discusión con el espacio tangente en el origen; es decir,
el conjunto RnO de vectores anclados en el punto O de Rn . En este conjunto realmente se
Álgebra lineal: Nociones y propiedades elementales 119
Ñ
Ý
confunden las nociones de puntos y vectores: todo punto A se identifica con el vector A
Ñ
Ý Ñ Ý
(aquel anclado en O con punto final A); por tanto, cualesquiera sean los vectores A y B ,
Ñ
Ý Ñ
Ý
y cualquiera sea el número real α, resulta natural definir la suma A ` B y el producto
Ñ
Ý
del escalar α por el vector A como

Ñ
Ý Ñ Ý ÝÝÝÝÑ Ñ
Ý ÝÑ
A ` B “ A ` B y α A “ αA. (4.2)

Ñ
Ý Ñ
Ý
Ası́ pues, el vector suma A ` B es aquel cuyo punto inicial es el origen y su punto
Ñ
Ý
final es A ` B; mientras que el vector α A , resultado del producto del escalar α y el
Ñ
Ý
vector A , tiene el mismo punto inicial O y como punto final αA. Por tanto, aunque se
trata de objetos matemáticos diferentes, las operaciones de adición y de multiplicación
por escalares en RnO son las mismas que aquellas operaciones en Rn ; consecuentemente se
tiene el siguiente resultado cuya demostración obviamos.

Teorema 4.2 (Estructura vectorial de RnO )


Las operaciones de adición y multiplicación por escalares en RnO satisfacen:
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
[A1] Para todo A y B en RnO se tiene A ` B “ B ` A . (Conmutatividad)
Ñ
Ý Ñ Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý
[A2] Para todo A , B y C en RnO , p A ` B q ` C “ A ` p B ` C q. (Asociatividad)
Ý
Ñ Ñ
Ý Ý
Ñ Ñ Ý Ñ
Ý
[A3] Existe un único vector O1 en RnO tal que para cada A P RnO vale O1 ` A “ A ; de
Ý
Ñ Ñ
Ý
hecho O1 es el vector nulo O de RnO . (Elemento neutro)
Ñ
Ý Ý
Ñ Ñ
Ý Ý
Ñ Ñ
Ý
[A4] Para cada A en RnO existe un único A1 en RnO tal que A ` A1 “ O ; de hecho,
Ý
Ñ1 Ñ
Ý Ñ
Ý
A “ ´ A “ p´1q A (Elemento simétrico)
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý
[M1] Para cada α en R y todo A , B en RnO , αp A ` B q “ α A ` α B . (Distributividad)

[M2] Para cada α y β en R y cada A en Rn , pα ` βqA “ αA ` βA. (Distributividad)


Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
[M3] Para cada α y β en R y cada A en RnO , pαβq A “ αpβ A q “ βpα A q.
Ñ
Ý Ñ
Ý Ñ
Ý
[M4] Para todo A en Rn , 1 A “ A .
Ñ
Ý Ñ Ý Ñ
Ý
Tanto el vector la suma A ` B como el vector α A pueden realizarse geométricamente;
el primero mediante el método del paralelogramo. Este método consiste en lo siguiente: en
Ñ
Ý Ñ Ý
cada uno de los extremos finales de los vectores A y B colocamos una copia del otro para
ası́ obtener un paralelogramo. De esta forma, la diagonal del paralelogramo que contiene
ÝÝÝÝÑ
al origen, determina el vector suma A ` B, pues su punto final es A ` B. En cuanto a
Ñ
Ý
la acción geométrica de la multiplicación del escalar α P R por el vector A , el vector
Ñ
Ý Ñ
Ý
resultante α A es paralelo al vector A con el mismo punto inicial; por tanto con la misma
dirección pero su sentido es determinado por el signo del escalar α. Si este es positivo, los
Ñ
Ý Ñ
Ý
vectores A y α A tendrán el mismo sentido; y serán de sentidos opuestos siempre que α
sea negativo.
Ñ
Ý
La figura a continuación muestra el paralelogramo determinado por los vectores A y
Ñ
Ý Ñ
Ý
B ; a la derecha se ilustra el vector α A con α ą 0, y de hecho α ą 1 para que el vector
resultante sea una dilatación en el mismo sentido del original.
120 Neptalı́ Romero

Pasemos ahora a realizar una discusión análoga en cualquier espacio tangente. Fijemos
ÝÝÑ ÝÑ
arbitrariamente un punto P de Rn y tomemos vectores cualesquiera P Q, P R P RnP y
ÝÝÑ ÝÑ ÝÝÑ
cualquier escalar α P R, con estos datos deseamos definir vectores P Q ` P R y αP Q en
Ñ
Ý Ñ Ý ÝÝÑ Ñ Ý ÝÑ Ñ Ý
RnP . Sean A y B los únicos vectores en RnO de manera que P Q ” A y P R ” B ; es decir:
A “ Q ´ P y B “ R ´ P . Apoyados en la relación de equivalencia ” y en los significados
Ñ
Ý Ñ Ý Ñ
Ý
de los vectores suma y producto: A ` B y α A , definimos

ÝÝÑ ÝÑ ÝÑ
P Q ` P R “ P S, donde S “ Q ` R ´ P ; y
ÝÝÑ ÝÑ (4.3)
αP Q “ P T , con T “ αQ ` p1 ´ αqP .

Observe que S y T son los únicos puntos de Rn que hacen posible


ÝÑ Ñ Ý Ñ Ý ÝÝÝÝÑ ÝÑ Ñ
Ý
PS ” A ` B “ A ` B y PT ” αA.
Ñ
Ý Ñ Ý Ñ
Ý
Geométricamente lo que se ha hecho es trasladar los vectores A ` B y α A hacia el punto
ÝÝÑ ÝÑ ÝÝÑ
P para ası́ determinar los puntos S y T que determinan los vectores P Q ` P R y αP Q.
En la figura a continuación se muestra la traslación de todo el paralelogramo determinado
Ñ
Ý Ñ Ý
por los vectores A y B .

En estas condiciones también se obtiene la estructura lineal en el conjunto RnP de


vectores en Rn anclados en el punto P .

Teorema 4.3 (Estructura lineal de RnP )


Las operaciones de adición y multiplicación por escalares definidas en RnP satisfacen:
ÝÝÑ ÝÑ ÝÝÑ ÝÑ ÝÑ ÝÝÑ
[A1] Para todo P Q, P R P RnP , P Q ` P R “ P R ` P Q. (Conmutatividad)
Álgebra lineal: Nociones y propiedades elementales 121
ÝÝÑ ÝÑ ÝÑ ÝÝÑ ÝÑ ÝÑ ÝÝÑ ÝÑ ÝÑ
[A2] Para todo P Q, P R, P S P RnP , pP Q ` P Rq ` P S “ P Q ` pP R ` P Sq. (Asociatividad)
ÝÝÑ
[A3] El vector P P es el único neutro para la adición; es decir, es el único vector en RnP
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
tal que para cada P Q en RnP se tiene P P ` P Q “ P Q. (Elemento neutro)
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
[A4] Para cada P Q P RnP existe un único P Q1 en RnP tal que P Q ` P Q1 “ P P ; de hecho,
el punto Q1 “ 2P ´ Q. (Elemento simétrico)
ÝÝÑ ÝÑ ÝÝÑ ÝÑ ÝÝÑ ÝÑ
[M1] Para cada α P R y P Q, P R P RnP , αpP Q ` P Rq “ αP Q ` αP R. (Distributividad)
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
[M2] Para todo α, β P R y P Q P RnP , pα ` βqP Q “ αP Q ` β P Q. (Distributividad)
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
[M3] Para cada α y β en R y cada P Q en RnP , pαβqP Q “ αpβ P Qq “ βpαP Qq.
ÝÝÑ ÝÝÑ ÝÝÑ
[M4] Para todo P Q en RnP , 1P Q “ P Q.

Comentario 4.5
ÝÝÑ
Haciendo uso de la equivalencia de vectores, el problema de determinar si un vector P Q es
ÝÝÑ ÝÝÝÑ
combinación lineal de una colección finita de vectores P Q1 , ¨ ¨ ¨ , P Qm también se resuelve
determinando la naturaleza de las soluciones de un sistema de ecuaciones lineales. En
efecto, si se consideran los puntos A, A1 , ¨ ¨ ¨ , Am en Rn tales que
ÝÝÑ Ñ Ý ÝÝÑ Ý Ñ ÝÝÝÑ ÝÑ
P Q ” A , P Q1 ” A1 , ¨ ¨ ¨ , P Qm ” Am ,
ÝÝÑ ÝÝÑ ÝÝÝÑ
entonces es simple verificar que P Q es combinación lineal de P Q1 , ¨ ¨ ¨ , P Qm si, y solamente
Ñ
Ý ÝÑ ÝÑ
si, A es combinación lineal de A1 , ¨ ¨ ¨ , Am ; de hecho
ÝÝÑ ÝÝÑ ÝÝÝÑ Ñ
Ý Ý
Ñ ÝÑ
P Q “ α1 P Q1 ` ¨ ¨ ¨ ` αm P Qm si, y solo si, A “ α1 A1 ` ¨ ¨ ¨ ` αm Am ;

lo que, como sabemos, conduce a estudiar un sistema de ecuaciones lineales.

Ejemplo 4.5
Considemos los puntos

P “ p2, 1, 1q, Q “ p3, ´2, 0q, Q1 “ p0, 3, 2q, Q2 “ p1, ´1, 1q y Q3 “ p´2, 0, 1q.
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
Deseamos saber si el vector P Q es combinación lineal de los vectores P Q1 , P Q2 y P Q3 .
Esto equivale a averiguar si existen números reales α1 , α2 , α3 tales que
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
P Q “ α1 P Q1 ` α2 P Q2 ` α3 P Q3 . (4.4)

Para ello consideramos los puntos

A “ Q ´ P, A1 “ Q1 ´ P “, A2 “ Q2 ´ P “ y A3 “ Q3 ´ P ;

estos son los puntos que hacen


Ñ
Ý ÝÝÑ ÝÑ ÝÝÑ Ý Ñ ÝÝÑ Ý
Ñ ÝÝÑ
A ” P Q, A1 ” P Q1 , A2 ” P Q2 y A3 ” P Q3 .
122 Neptalı́ Romero
Ñ
Ý Ý
Ñ Ý
Ñ Ý
Ñ
Por tanto (4.4) se cumplen si, y solo si, A “ α1 A1 ` α2 A2 ` α3 A3 . Ası́ pues, deseamos
averiguar si existen α1 , α2 , α3 P R de forma que

p1, ´3, ´1q “ α1 p´2, 2, 1q ` α2 p´1, ´2, 0q ` α3 p´4, ´1, 0q,

lo cual equivale a estudiar la compatibilidad del sistema de ecuaciones lineales


$
& ´2α1 ´ α2 ´ 4α3 “ 1

2α1 ´ 2α2 ´ α3 “ ´3 .

% α1 “ ´1

Dejamos al lector el chequeo de la compatibilidad determinada de este sistema; más aun:


ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
α1 “ ´1, α2 “ 73 y α3 “ 71 . Concluimos ası́ que P Q “ ´P Q1 ` 37 P Q2 ` 71 P Q3

4.4. Estructura Euclidiana


Nuestro objetivo ahora es enriquecer las estructuras vectoriales, o lineales, en los con-
juntos Rn , RnO y RnP obtenidas a partir de las operaciones de adición y multiplicación por
escalares antes definidas (ver teoremas 4.1, 4.2 y 4.3). Para ello introduciremos el producto
interno, el cual, además de ofrecernos una posibilidad de medir distancias entre puntos
cualesquiera en R, permite formalizar la noción de magnitud de vectores y medir ángulos
entre vectores.
Cabe destacar que los conceptos fundamentales en esta sección: producto interno y
norma, serán presentados en el espacio RnO ; sin embargo, gracias a la equivalencia ” y a
la identificación biunı́voca entre los espacios Rn , RnO y RnP (ver los ejercicios propuestos
22 y 23 en la sección 4.6), estas definiciones, y las propiedades que de ellas se derivan, son
trasladadas sin dificultad tanto a Rn como a RnP , cualquiera sea P P Rn .

4.4.1. Producto Interno


Definición 4.6
Ñ
Ý ÑÝ
Dados los vectores A , B P RnO , con A “ pa1 , a2 , ¨ ¨ ¨ , an q y B “ pb1 , b2 , ¨ ¨ ¨ , bn q, se define
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
el producto interno Euclidiano de A por B , o producto interno usual de A por B , como
Ñ
Ý Ñ Ý
el número real x A , B y dado por

n
Ñ
Ý Ñ Ý ÿ
x A , B y “ a1 b1 ` a2 b2 ` ¨ ¨ ¨ ` an bn “ a` b` . (4.5)
`“1

Ejemplo 4.6
Ñ
Ý ÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÑ
1. Dados los vectores A “ p1, ´3q y B “ p´2, ´ 32 q se tiene que
Ñ
Ý Ñ Ý ` ˘
x A , B y “ 1p´2q ` p´3q ´ 23 “ 0.

Ñ
Ý ÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÑ
2. Consideremos los vectores A “ p1, 2, 1q y B “ p0, ´1, 3q, luego el producto interno de
Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý
A por B es x A , B y “ 1.0 ` 2p´1q ` 1.3 “ 1.
Álgebra lineal: Nociones y propiedades elementales 123
Ñ
Ý Ñ
Ý Ñ Ý
3. Para cualquier vector A P RnO se tiene que x A , O y “ 0. En efecto, si A “ pa1 , ¨ ¨ ¨ , an q,
entonces
Ñ
Ý Ñ Ý
x A , O y “ a1 0 ` ¨ ¨ ¨ ` an 0 “ 0.
Ñ
Ý
4. Para cualquier vector A P RnO , con A “ pa1 , a2 , ¨ ¨ ¨ , an q se satisface la igualdad
n
Ñ
Ý Ñ Ý 2 2 2
ÿ
x A , A y “ a1 ` a2 ` ¨ ¨ ¨ ` an “ a2i .
i“1
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
En particular, esto implica que x A , A y ě 0 para todo A P Rn ; es más, x A , A y “ 0 si,
Ñ
Ý Ñ
Ý
y solo si A “ O .
El siguiente teorema establece un conjunto de propiedades básicas para el producto
interno Euclidiano en RnO .
Teorema 4.4
Ñ
Ý Ñ Ý ÑÝ
Cualesquiera sean A , B , C P RnO y α P R, siempre valen:
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
1. x A , B y “ x B , A y;
Ñ
Ý Ñ Ý Ñ Ý ÑÝ Ñ Ý Ñ
Ý ÑÝ
2. x A ` B , C y “ x A , C y ` x B , C y;
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
3. xα A , B y “ x A , α B y “ αx A , B y;
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý
4. x A , A y ě 0; y x A , A y “ 0 si, y solo si, A “ O .
Ñ
Ý ÝÝÝÝÝÝÝÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÝÝÝÝÑ Ñ
Ý ÝÝÝÝÝÝÝÝÝÝÑ
Demostración. Si A “ pa1 , a2 , ¨ ¨ ¨ , an q, B “ pb1 , b2 , ¨ ¨ ¨ , bn q y C “ pc1 , c2 , ¨ ¨ ¨ , cn q,
entonces
n
Ñ
Ý Ñ Ý ÿ
x A , B y “ a1 b1 ` ¨ ¨ ¨ ` an bn “ a` b`
`“1
ÿn
“ b1 a1 ` ¨ ¨ ¨ ` bn an “ b` a` (Conmutatividad de + en Rq
`“1
Ñ
Ý Ñ Ý
“ x B , A y.
Ñ
Ý Ñ Ý
Por otra parte, como A ` B tiene coordenadas pa1 ` b1 , a2 ` b2 , ¨ ¨ ¨ , an ` bn q, sigue que
n
Ñ
Ý Ñ Ý ÑÝ ÿ
xA ` B, C y “ pa` ` b` qc`
`“1
ÿn
“ pa` c` ` b` c` q (Distributividad)
`“1
n n
ÿ ÿ Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
“ a` c` ` b` c` “ x A , C y ` x B , C y.
`“1 `“1
Ñ
Ý ÝÝÝÝÝÝÝÝÝÝÝÝÝÝÑ Ñ
Ý ÝÝÝÝÝÝÝÝÝÝÝÝÝÑ
Finalmente, como α A “ pαa1 , αa2 , ¨ ¨ ¨ , αan q y α B “ pαb1 , αb2 , ¨ ¨ ¨ , αbn q, se tiene
n n
Ñ
Ý Ñ Ý ÿ ÿ
xα A , B y “ pαa` qb` “ αpa` b` q (Asociatividad)
`“1 `“1
n n
ÿ Ñ
Ý Ñ Ý ÿ Ñ
Ý Ñ Ý
“ a` pαb` q “ x A , α B y “ α a` b` “ αx A , B y.
`“1 `“1
124 Neptalı́ Romero

La última propiedad enunciada ya fue mostrada en el ejemplo anterior.

Combinando la segunda y tercera de las propiedades enunciadas en el teorema se


deduce muy fácilmente el siguiente corolario.
Corolario 4.1
Ñ
Ý Ñ Ý Ñ
Ý
Si B , A 1 , ¨ ¨ ¨ , A k son vectores cualesquiera en RnO y α1 , ¨ ¨ ¨ , αk son números reales arbi-
trarios, entonces
k k
ÿ Ñ
Ý Ñ Ý ÿ Ñ
Ý Ñ Ý
x αi A i , B y “ αi x A i , B y.
i“1 i“1

Definición 4.7
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
Dados A y B en RnO , se dice que A es ortogonal (o perpendicular) B , lo cual se denota
Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý
por A K B , si x A , B y “ 0.
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
Dado que x A , B y “ x B , A y, es claro que A K B si, y solo si, B K A . Gracias a ello
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý
diremos que los vectores A y B son ortogonales, en lugar de A es ortogonal a B , o B
Ñ
Ý
es ortogonal a A . Obviamente el vector nulo y cualquier otro vector son ortogonales; note
Ñ
Ý Ñ
Ý Ñ
Ý
además que si A y B son ortogonales, entonces también lo son A y cualquier múltiplo
Ñ
Ý
de B , esto sigue inmediatamente del anterior corolario. Una ilustración gráfica de esta
propiedad es la que sigue.

También es claro que un vector no nulo no puede ser ortogonal a sı́ mismo; de hecho,
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
dos vectores no nulos y paralelos no son ortogonales pues x A , α A y “ αx A , A y.
A diferencia del paralelismo, la ortogonalidad no es una relación transitiva. Considere,
Ñ
Ý ÝÝÝÝÝÝÑ ÑÝ ÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÝÑ Ñ
Ý Ñ
Ý
por ejemplo, los vectores A “ p3, 2, ´1q, B “ p1, 1, 5q y C “ p´2, ´3, 1q, entonces A K B ,
Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý
B K C , sin embargo A y C no son ortogonales ya que
Ñ
Ý Ñ Ý
x A , C y “ 3p´2q ` 2p´3q ` p´1q1 “ ´13 ‰ 0.
La ortogonalidad está asociada a la idea de un ángulo de noventa grados entre vectores
no nulos, que es la noción de perpendicularidad en la Geometrı́a elemental. Por ejemplo,
Ñ
Ý ÝÝÝÝÑ Ñ Ý ÝÝÝÑ Ñ
Ý ÑÝ
para los vectores A “ p1, ´3q y B “ p3, 1q es simple verificar que x A , B y “ 0, y mediante
el uso de un transportador (“Utensilio semicircular graduado que sirve para medir y trazar
ángulos”) se verifica que el ángulo entre ellos es efectivamente de noventa grados.

Definición 4.8
Una colección de vectores en RnO se dice mutuamente ortogonal si todo par de vectores
distintos en la colección son ortogonales.
Álgebra lineal: Nociones y propiedades elementales 125

Ñ
Ý Ñ
Ý
La colección E 1 , ¨ ¨ ¨ , E n de vectores canónicos de RnO es mutuamente ortogonal. De
hecho, es muy simple verificar que
#
Ý
Ñ Ý Ñ 1, si i “ j
xEi , Ej y “ δij “ ,
0, si i ‰ j

donde el número δij es el delta de Kronecker de ı́ndice ij.


Vectores no nulos y mutuamente ortogonales en RnO tienen interesantes propiedades,
aunque las trataremos acá, las abordamos más adelante en un contexto abstracto.

Proposición 4.3
Ñ
Ý Ñ
Ý
a) Si A 1 , ¨ ¨ ¨ , A k son vectores no nulos y mutuamente ortogonales en RnO , entonces la
única forma de escribir al vector nulo como combinación lineal de ellos es la trivial;
Ñ
Ý Ñ
Ý Ñ
Ý
esto es, si α1 A 1 ` ¨ ¨ ¨ ` αk A k “ O , entonces α1 “ ¨ ¨ ¨ “ αk “ 0.
Ñ
Ý Ñ
Ý
b) Si A 1 , ¨ ¨ ¨ , A n son vectores no nulos y mutuamente ortogonales en RnO , entonces cual-
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
quier vector A P RnO es combinación lineal de A 1 , ¨ ¨ ¨ , A n ; es decir, para todo A P RnO
Ñ
Ý Ñ
Ý Ñ
Ý
existen α1 , ¨ ¨ ¨ , αn P R tales que A “ α1 A 1 ` ¨ ¨ ¨ ` αk A n .

c) En RnO no hay una colección con más de n vectores que sean no nulos y mutuamente
ortogonales.
Ñ
Ý Ñ
Ý Ñ
Ý
Demostración. Para mostrar a) comenzamos suponiendo que α1 A 1 ` ¨ ¨ ¨ ` αk A k “ O .
Ñ
Ý Ñ Ý
Como x A i , A j y “ 0 para i ‰ j, para todo i “ 1, ¨ ¨ ¨ , k tenemos
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ Ý
0 “ x O , A i y “ xα1 A 1 ` ¨ ¨ ¨ ` αk A k , A i y
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
“ α1 x A 1 , A i y ` ¨ ¨ ¨ ` αk x A k , A i y “ αi x A i , A i y,
Ñ
Ý Ñ Ý
de donde αi “ 0 pues x A i , A i y ‰ 0. Esto demuestra la primera parte.
Antes de demostrar b) observe que si para cada i hacemos Ai “ pa1i , a2i , ¨ ¨ ¨ , ani q,
entonces por la parte a) el sistema de ecuaciones lineales homogéneo
$
’ a11 α1 ` a12 α2 ` ¨ ¨ ¨ ` a1k αk “ 0


& a21 α1 ` a22 α2 ` ¨ ¨ ¨ ` a2k αk “ 0

..


’ .

% a α ` a α ` ¨¨¨ ` a α “ 0
n1 1 n2 2 nk k
126 Neptalı́ Romero
Ñ
Ý Ñ
Ý
tiene solución única (la trivial) siempre que los vectores A 1 , »
¨ ¨ ¨ , A k sean no nulos
fi y
a11 a12 ¨ ¨ ¨ a1n
— a21 a22 ¨ ¨ ¨ a2n ffi
— ffi
mutuamente ortogonales. En particular, si k “ n, la matriz — . — .. .. ffi es
.. ffi
– . . . . . fl
an1 an2 ¨ ¨ ¨ ann
invertible. Ahora bien, esta matriz es justamente la matriz del sistema de ecuaciones
lineales que se deriva de una expresión del tipo
Ñ
Ý Ñ
Ý Ñ
Ý
α1 A 1 ` ¨ ¨ ¨ ` αn A n “ A .
Ñ
Ý
Por tanto, dado cualquier vector A P RnO existe únicos números reales α1 , ¨ ¨ ¨ , αn para
Ñ
Ý Ñ
Ý
los cuales la identidad de arriba se cumple si A 1 , ¨ ¨ ¨ , A n sean no nulos y mutuamente
ortogonales; esto demuestra la parte b).
Ñ
Ý Ñ
Ý Ñ Ý
Para demostrar la c) procedamos por el absurdo. Supongamos que A 1 , ¨ ¨ ¨ , A n , A n`1
Ñ
Ý Ñ
Ý
son no nulos y mutuamente ortogonales. Dado que A 1 , ¨ ¨ ¨ , A n también son no nulos y
mutuamente ortogonales, por la parte b) existen únicos números reales α1 , ¨ ¨ ¨ , αn tales
Ñ
Ý Ñ
Ý Ñ
Ý
que α1 A 1 ` ¨ ¨ ¨ ` αn A n “ A n`1 . Obviamente al menos uno de estos escalares es distinto
de 0, supongamos sin perder generalidad que α1 ‰ 0. Luego
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
0 “ x A n`1 , A 1 y “ xα1 A 1 ` ¨ ¨ ¨ ` αn A n , A 1 y “ α1 x A 1 , A 1 y,

lo cual es una contradicción.

Observación 4.1
La noción de producto interno la hemos introducido para vectores en RnO ; sin embargo,
puede ser colocada de manera natural tanto en Rn como en RnP , cualquiera sea P P Rn .
‚ Producto euclidiano en Rn .
Para todo par de puntos A, B P Rn se define su producto interno xA, By como:

Ñ
Ý Ñ Ý
xA, By “ x A , B y. (4.6)

‚ Producto euclidiano en RnP


ÝÝÑ ÝÑ
Se define el producto interno de los vectores P Q y P R como:

ÝÝÑ ÝÑ ÝÝÝÝÑ ÝÝÝÝÑ


xP Q, P Ry “ xQ ´ P , R ´ P y. (4.7)

Es fácil verificar que todas las propiedades que son satisfechas para el producto interno
en RnO son también válidas tanto en Rn como en RnP .

4.4.2. Norma en RnO


Introduciremos ahora el concepto que nos permitirá medir la magnitud de vectores en
Rn .Como antes, esta noción es presentada para vectores de RnO ; no obstante, se extiende
tanto a Rn como a RnP , cualquiera sea el punto P de Rn .
Álgebra lineal: Nociones y propiedades elementales 127

Definición 4.9
Ñ
Ý
Se conoce con el nombre de norma Euclidiana del vector A al número real
b b
Ñ
Ý Ñ
Ý ÑÝ Ñ
Ý ÝÝÝÝÝÝÝÝÝÝÝÑ
} A } “ x A , A y “ a21 ` a22 ` ¨ ¨ ¨ ` a2n , siendo A “ pa1 , a2 , ¨ ¨ ¨ , an q. (4.8)

Comentario 4.6
Ñ
Ý Ñ
Ý
1. Sigue inmediatamente de la definición anterior que } A } ě 0 cualquiera sea A P RnO , y
Ñ
Ý Ñ
Ý Ñ
Ý
} A } “ 0 si, y solo si, A “ O .

2. A partir de (4.6) y (4.7), se define las normas en Rn y RnP por

Ñ
Ý ÝÝÑ ÝÝÝÝÑ
}A} “ } A } y }P Q} “ }Q ´ P }.

Dado que el concepto de norma solo depende del producto interno y como las propieda-
des del producto interno en Rn y RnP son heredadas del producto interno en RnO , todas
las propiedades de la norma en RnO son transmitidas a las normas en Rn y RnP .

Ejemplo 4.7
Ñ
Ý
1. La norma del vector nulo O P RnO es cero, de hecho es el único vector con norma cero
ÝÝÑ
en RnO . También tiene norma cero el vector nulo, P P , de RnP para todo P P Rn . Como
antes, es el único vector con norma 0 en RnP .

2. Claramente todos los vectores canónicos Ej en RnO tienen norma igual a 1. Conviene
aclarar que no los únicos con tal propiedad. Por ejemplo, en R2O , todo vector de la
Ñ
Ý ÝÝÝÝÝÝÝÝÑ
forma A “ pcos θ, sen θq, donde θ es cualquier ángulo, tiene norma 1. Esto sigue del
hecho que cos2 θ ` sen2 θ “ 1.

3. A partir de cualquier vector no nulo se puede construir otro de norma 1 paralelo al


dado y con el mismo sentido. En efecto, si A “ pa1 , ¨ ¨ ¨ , an q P Rn es diferente del
Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý ÝÝÝÝÝÝÝÝÑ Ñ
Ý
origen, entonces } A } ą 0 pues x A , A y ą 0. Luego el vector B “ p aα1 , ¨ ¨ ¨ , aαn q “ α1 A ,
Ñ
Ý Ñ
Ý Ñ
Ý
con α “ } A }, tiene esta propiedad. Note que A y B son paralelos con igual sentido
pues α ą 0. Adicionalmente
b b` ˘
Ñ
Ý Ñ
Ý Ñ Ý 1 2 ÑÝ
} B } “ x α1 A , α1 A y “ α } A }2 “ 1.

En adelante, todo vector de norma uno será llamado vector unitario.

Teorema 4.5
Ñ
Ý Ñ Ý
Para todo par de vectores A , B P RnO y cualquier escalar α P R se cumplen:
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
1. } A } ě 0 y } A } “ 0 si, y solo si, A “ O ;
Ñ
Ý Ñ
Ý
2. }α A } “ |α|} A };
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý
3. } A ˘ B }2 “ } A }2 ˘ 2x A , B y ` } B }2 .
128 Neptalı́ Romero

Demostración. Las primeras dos partes siguen inmediatamente de las propiedades del
producto interno enunciadas en el teorema 4.4; dejamos los detalles al lector. Mostraremos
la propiedad 3.
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
Consideremos el vector A ` B , el cálculo para el vector A ´ B es similar. Claramente
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý ÑÝ Ñ Ý
} A ` B }2 “ x A ` B , A ` B y
Ñ
Ý ÑÝ Ñ Ý ÑÝ ÑÝ Ñ Ý
“ x A , A ` B y ` xB , A ` B y
Ñ
Ý ÑÝ Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
“ x A , A y ` x A , B y ` xB , A y ` xB , B y
Ñ
Ý Ñ
Ý ÑÝ Ñ
Ý
“ } A }2 ` 2x A , B y ` } B }2 .
Se concluye de esta manera la demostración del teorema.

Corolario 4.2 (Teorema de Pitágoras)


Para cualquier par de vectores no nulos en RnO se satisface:

Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
} A ` B }2 “ } A }2 ` } B }2 ðñ A K B . (4.9)

Demostración. Del teorema anterior tenemos que


Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý
} A ` B }2 “ } A }2 ` 2x A , B y ` } B }2 .
Por tanto,
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý
} A ` B }2 “ } A }2 ` } B }2 ðñ 2x A , B y “ 0 ðñ A K B .
Lo cual demuestra el teorema general de Pitágoras.

En la siguiente figura ilustramos este clásico resultado de la Matemática en términos


de vectores perpendiculares. Consideremos un triangulo rectángulo de catetos a y b e

hipotenusa c; en la escuela primaria aprendimos que c2 “ a2 `b2 . Tomemos puntos distintos


Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý
cualesquiera A, B de Rn de manera que A K B , } A } “ a y } B } “ b. El triángulo cuyos
vértices son los puntos O, A y A ` B es tal que sus lados tienen longitudes
Ñ
Ý Ñ
Ý ÝÝÝÝÝÝÑ Ñ
Ý Ñ Ý
} A } “ a, } B } “ b “ }ApA ` Bq} y } A ` B };
Ñ
Ý ÝÝÝÝÝÝÑ
note que los vectores B y ApA ` Bq son paralelos; además, del corolario anterior se ga-
Ñ
Ý Ñ Ý
rantiza que } A ` B } “ c.
A continuación mostramos tres importantes desigualdades; entre otras cosas, con el
apoyo de ellas se introduce la noción de ángulo entre vectores.
Álgebra lineal: Nociones y propiedades elementales 129

Teorema 4.6 (Desigualdad de Cauchy-Schwarz)


Ñ
Ý Ñ Ý
Para cualquier par de vectores A , B P RnO se cumple

Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
|x A , B y| ď } A } } B }. (4.10)

Además, la igualdad se verifica si, y solo si, uno de los vectores es múltiplo del otro.

Demostración. Obviamente la desigualdad (de hecho la igualdad) (4.10) es cierta si


Ñ
Ý Ñ Ý
alguno de los vectores es nulo; supongamos por tanto que A y B son no nulos.
Sea x cualquier número real; como en la demostración del Teorema 4.5, es simple
verificar que
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý
}x A ´ B }2 “ xx A ´ B , x A ´ B y “ x2 } A }2 ´ 2xx A , B y ` } B }2 ě 0.

De esta forma la función cuadrática f : R Ñ R dada por


Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý
f pxq “ } A }2 x2 ´ 2x A , B yx ` } B }2 , con x P R,

es una función no negativa; por tanto la ecuación de segundo grado


Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý
} A }2 x2 ´ 2x A , B yx ` } B }2 “ 0

tiene a lo más una solución en R; esto significa que su discriminante es no positivo; es


Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
decir 4px A , B yq2 ´ 4} A }2 } B }2 ď 0, de donde |x A , B y| ď } A } } B }, lo cual demuestra la
desigualdad de Cauchy-Schwarz (4.10).
Por otra parte, observe que
Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý
α A “ B ðñ }α A ´ B } “ 0 ðñ f pαq “ 0;
Ñ
Ý Ñ
Ý
esto es, α A “ B si, y solo si, α es solución real de f pxq “ 0; lo que a su vez equivale
Ñ
Ý ÑÝ Ñ
Ý Ñ Ý
a que el descriminate de esa ecuación sea nulo; es decir, 4px A , B yq2 ´ 4} A }2 } B }2 “ 0;
Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
concluyéndose por tanto que α A “ B si, y solo si, |x A , B y| “ } A } } B }.

Corolario 4.3 (Desigualdad de Hölder)


Dados números reales cualesquiera a1 , ¨ ¨ ¨ .an , b1 ¨ ¨ ¨ , bn , siempre se satisface la desigualdad
˜ ¸2 ˜ ¸˜ ¸
n
ÿ n
ÿ n
ÿ
ai bi ď a2i b2i . (4.11)
i“1 i“1 i“1

Demostración. Sigue inmediatamente de la desigualdad de Cauchy-Schwarz, basta apli-


Ñ
Ý ÝÝÝÝÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÝÑ
carla a los vectores A “ pa1 , ¨ ¨ ¨ .an q y B “ pb1 ¨ ¨ ¨ , bn q.

Corolario 4.4 (Desigualdad Triangular)


Ñ
Ý Ñ Ý
Para cualquier par de vectores A , B P RnO se cumple

Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý
} A ` B } ď } A } ` } B }. (4.12)
130 Neptalı́ Romero

Demostración. Sabemos que


Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý ÑÝ Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý ÑÝ
} A ` B }2 “ x A ` B , A ` B y “ x A , A y ` 2x A , B y ` x B , B y
Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý
“ } A }2 ` 2x A , B y ` } B }2
Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý
ď } A }2 ` 2} A }} B } ` } B }2 “ p} A } ` } B }q2 . (¿por qué?)
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý
En consecuencia } A ` B } ď } A } ` } B }. Observe que empleando los mismos argumentos
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý ÑÝ
también se concluye } A ´ B } ď } A } ` } B } para todo par de vectores A , B P RnO .

Figura 4.6: Desigualdad triangular: el recorrido de O a A ` B es siempre menor o igual que ir de O a A y


de allı́ a A ` B, y también que ir de O a B y de allı́ a A ` B.

4.4.3. Ángulo entre vectores no nulos


Otra importante consecuencia geométrica de la desigualdad de Cauchy-Schwarz es que
permite medir cuan abiertos están dos vectores no nulos anclados en el mismo punto. Esto
claramente conduce a la noción de ángulo entre vectores con el mismo punto de anclaje.
Ñ
Ý
En primer lugar consideremos cualquier par de vectoresˇ Ñ no ˇnulos en RnO , digamos A
ˇ xÝ Ñ
Ý ˇ
Ñ
Ý ˇ A, By ˇ
y B . De la desigualdad de Cauchy-Schwarz se tiene ˇ Ñ Ý ˇ ď 1; o equivalentemente
ˇ }Ý Ñ
A } }B }ˇ
Ñ
Ý Ñ Ý
xA, By cos
´1 ď Ñ Ý Ñ Ý ď 1. Por otra parte, sabemos que la función coseno r0, πs ÝÑ r´1, 1s es
} A } }B }
Ñ
Ý Ñ Ý
xA, By
biyectiva; esto permite asignar al número Ñ Ý Ñ Ý P r´1, 1s un único valor θ P r0, πs tal
} A } }B }
Ñ
Ý Ñ Ý
xA, By
que cos θ “ Ñ Ý Ñ Ý ; esto justifica la siguiente definición.
} A } }B }
Definición 4.10
Ñ
Ý ÑÝ Ñ
Ý Ñ Ý
Dados A , B P RnO no nulos, se denomina ángulo entre los vectores A y B al número real
Ñ
Ý Ñ Ý
>p A , B q en el intervalo r0, πs dado por
˜ ÑÝ Ñ Ý ¸
Ñ
Ý Ñ Ý xA, By
>p A , B q “ arc cos Ñ
Ý Ñ Ý . (4.13)
} A } }B }

Ñ
Ý Ñ Ý
Claramente, si A y B son vectores no nulos cualesquiera en RnO , entonces
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
x A , B y “ } A } } B } cos >p A , B q.
Álgebra lineal: Nociones y propiedades elementales 131

Algunas observaciones interesantes se desprenden de esta identidad, y que además cer-


tifican la correcta relación entre las nociones de perpendicularidad y paralelismo con la
medida angular entre vectores.
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
(a) Los vectores A y B son ortogonales (x A , B y “ 0) si y solo si >p A , B q “ π2 .
Ñ
Ý Ñ Ý
(b) Supongamos que los vectores no nulos A y B , son paralelos; esto es, existe un escalar
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
α ‰ 0 tal que B “ α A . Recordemos que el sentido del paralelismo entre A y B
Ñ
Ý Ñ Ý
depende del signo de α; más precisamente, A y B tienen el mismo sentido si α ą 0,
Ñ
Ý Ñ Ý
y cuando α es negativo los vectores A y B tienen sentidos opuestos. Dado que
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý #
xA, By xA, αB y α} A }2 α ´1, si α ă 0
Ñ
Ý Ñ Ý “ ÑÝ Ý “
Ñ Ý 2 “ |α| “
Ñ ,
} A } }B } } A } }α B } |α|} A } 1, si α ą 0

Ñ
Ý ÑÝ Ñ
Ý Ñ Ý
se concluye que >p A , B q “ π si α ă 0; mientras que si α ą 0, >p A , B q “ 0. En
otras palabras, el ángulo entre dos vectores no nulos paralelos es π si tienen sentidos
opuestos, y 0 si tienen el mismo sentido; ¡como debe ser!

y
1
Ý
ÑÝ Ñ
xA,B y θ ÞÝÑ cos θ
Ý
Ñ Ý Ñ
} A }} B }

π x
0 π
θ 2

Ñ
Ý Ñ Ý
θ “ >p A , B q

´1

Figura 4.7: La función coseno en el intervalo r0, πs como determinadora del ángulo entre dos vectores no
nulos cualesquiera de RnO

Ejemplo 4.8
Ñ
Ý ÑÝ Ñ Ý
En R2 consideremos los vectores A , B y C , donde A “ p2, ´2q, B “ p´1, 1q y C “ p3, 0q.
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
Determinemos los ángulos >p A , B q, >p A , C q y >p B , C q. Observe que:
Ñ
Ý a ? ? Ñ
Ý a ? Ñ
Ý ?
‚ } A } “ 22 ` p´2q2 “ 8 “ 2 2, } B } “ p´1q2 ` 12 “ 2 y } C } “ 32 ` 02 “ 3.
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
‚ x A , B y “ 2p´1q`p´2q1 “ ´4, x A , C y “ 2.3`p´2q0 “ 6 y x B , C y “ p´1q3`1.0 “ ´3.

Sigue por tanto que


Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý 6 ?1
Ñ
Ý Ñ Ý
cos >p A , B q “ ?´4?
2 2 2
“ ´1, cos >p A , C q “ ?
6 2
“ 2
y cos >p B , C q “ ´3
?
3 2
“ ´ ?12 .

Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý π Ñ
Ý Ñ Ý
De donde >p A , B q “ π, >p A , C q “ 4 y >p B , C q “ 34 π.
132 Neptalı́ Romero

Haciendo uso de las extensiones de las nociones de producto y norma Euclidiana hacia
los espacios tangentes RnP se tienen en estos espacios los resultados fundamentales que
hemos tratado. A continuación los enunciamos sin demostraciones.
Teorema de Pitágoras: Para cualquier par de vectores no nulos en RnP se satisface:

ÝÑ ÝÝÑ ÝÑ ÝÝÑ ÝÑ ÝÝÑ


}P A ` P B}2 “ }P A}2 ` }P B}2 ðñ P A K P B. (4.14)

ÝÑ ÝÝÑ
Desigualdad de Cauchy-Schwarz: Para todo P A, P B P RnP se cumple

ÝÑ ÝÝÑ ÝÑ ÝÝÑ
|xP A, P By| ď }P A} }P B}. (4.15)

La igualdad se verifica si, y solo si, uno de los vectores es múltiplo del otro.
ÝÑ ÝÝÑ
Desigualdad Triangular: Para cada par P A, P B P RnP se satisface

ÝÑ ÝÝÑ ÝÑ ÝÝÑ
}P A ` P B} ď }P A} ` }P B} (4.16)

ÝÑ ÝÝÑ
Ángulo entre vectores de RnP : Dados vectores no nulos P A, P B P RnP , el ángulo entre
ÝÑ ÝÝÑ
ellos es el valor >pP A, P Bq P r0, πs tal que

ÝÑ ÝÝÑ
ÝÑ ÝÝÑ xP A, P By
cos >pP A, P Bq “ ÝÑ ÝÝÑ . (4.17)
}P A} }P B}

4.4.4. Proyección ortogonal de vectores


La noción de proyección ortogonal es en realidad un tanto más general a la que a
continuación presentamos; no obstante, esta versión simplificada contribuye a reforzar los
conceptos y propiedades del producto interno y norma antes definidos.
Ñ
Ý Ñ Ý
Comenzaremos considerando un par de vectores A , B P RnO , uno de los cuales supone-
Ñ
Ý Ñ
Ý Ñ
Ý
mos no nulo, digamos que B ‰ O . Queremos determinar un vector paralelo a B ; es decir,
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
de la forma α B tal que A ´ α B sea perpendicular a B. Note que A ´ α B es equivalente
ÝÝÝÝÑ
a pαBqA, ver la figura abajo. Deseamos por tanto determinar el valor del escalar α, pues
Ñ
Ý
es este el que determina el vector α B con la propiedad descrita. Veamos como obtener
Álgebra lineal: Nociones y propiedades elementales 133

Figura 4.8: Proyección ortogonal de un vector sobre otro no nulo

ese valor de α. De la hipótesis de perpendicularidad tenemos


Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý ÑÝ
x A ´ α B , B y “ 0 ðñ x A , B y ´ αx B , B y “ 0;
Ñ
Ý Ñ Ý
Ñ
Ý Ñ
Ý Ñ
Ý xA, By
como B ‰ O y xB, By “ } B } ą 0, sigue que α “ Ñ Ý .
} B }2
Definición 4.11
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý
Dados vectores A , B P RnO con B ‰ O . Se conoce con el nombre de proyección ortogonal
Ñ
Ý Ñ Ý
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý xA, By
de A sobre B al vector PÝÑ p A q “ α B , donde α “ ÑÝ .
B } B }2
Ejemplo 4.9
Ñ
Ý Ñ Ý Ñ
Ý
1. Consideremos en R2O los vectores A , B y C , siendo que A “ p´1, 2q, B “ p2, 2q y
Ñ
Ý Ñ
Ý
C “ p´2, 0q. Calculemos PÝ Ñ p A q y PÝ
Ñ p C q; por definición tenemos
B B
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
Ñ
Ý xA, By Ñ
Ý xC , B y

Ñ p A q “ αB con α “ Ñ Ý , y PÝ
Ñ p C q “ βB con β “ Ñ Ý .
B } B }2 B } B }2
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý ?
Dado que x A , B y “ 2, x C , B y “ ´4 y } B | “ 8, se tiene α “ 14 y β “ ´ 21 . Por tanto
Ñ
Ý ÝÝÝÑ Ñ
Ý ÝÝÝÑ
PÝÑ p A q “ p 12 , 12 q y PÝ
Ñ p C q “ ´p1, 1q.
B B
Ñ
Ý Ñ
Ý Ñ
Ý
2. Sea A cualquier vector en R2O ; digamos que A “ pa, bq. Sean E 1 y E 2 los dos vectores
Ñ
Ý Ñ
Ý Ñ
Ý ÑÝ Ñ
Ý ÑÝ
canónicos de R2O . Dado que } E 1 | “ } E 2 } “ 1, x A , E 1 y “ a y x A , E 2 y “ b, se deduce
Ñ
Ý Ñ
Ý Ñ
Ý
inmediatamente que PÝ Ñ p A q ` PÝ Ñ p A q “ A ; es decir, cualquier vector de R2O se
E1 E2
expresa como la suma de sus proyecciones ortogonales sobre los vectores canónicos de
Ñ
Ý Ñ
Ý
R2O . En realidad esta propiedad es válida para cualquier vector A de RnO : si E j es el
j-ésimo (j “ 1, 2 ¨ ¨ ¨ , n) vector canónico de RnO , entonces
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
PÝÑ p A q ` PÝÑ p A q ` ¨ ¨ ¨ ` PÝ
Ñ pAq “ A;
E1 E2 En
los detalles se dejan al lector.
Ñ
Ý ÝÝÝÝÝÝÑ Ñ Ý ÝÝÝÝÑ Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
3. Sean A “ p1, 2, ´1q y B “ p0, 1, 2q, note que A K B . Luego PÝ Ñ p A q “ O y PÝ Ñp B q “
Ñ
Ý Ñ
Ý Ñ Ý B A
O , puesto que x A , B y “ 0. Ver ejercicio propuesto 41 en la sección 4.6.
Ñ
Ý ÝÝÝÝÝÝÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÑ Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý
4. Sean A “ p´2, 0, ´2, ´4q y B “ p1, 0, 1, 2q, observe que A k B ; de hecho A “ ´2 B .
Ñ
Ý Ñ
Ý
Esta propiedad geométrica de los vectores asegura que PÝ Ñ p A q “ A ; en efecto, sabemos
B
que
Ñ
Ý Ñ Ý
Ñ
Ý Ñ
Ý xA, By
PÝÑ p A q “ α B con α “ Ñ Ý “ ´2;
B } B }2
134 Neptalı́ Romero

por tanto lo afirmado. Ver ejercicio 42 en la sección 4.6.

La definición de proyección de un vector sobre otro no nulo en RnO , también se traslada


a vectores en RnP para cualquier punto P P Rn .

Definición 4.12
ÝÑ ÝÝÑ
Fijado P P Rn ; se conoce con el nombre de proyección ortogonal de P A sobre P B, con
ÝÑ ÝÝÑ
ÝÝÑ ÝÝÑ ÝÑ ÝÝÑ xP A, P By
P B ‰ P P , al vector PÝÝÑ pP Aq “ αP B, donde α “ ÝÝÑ .
PB }P B}2

4.4.5. Distancia euclidiana en Rn


Procederemos ahora, con ayuda de la noción de norma de vectores, a introducir el
concepto de métrica Euclidiana en Rn . Esta noción no permitirá medir distancias entre
puntos de Rn .

Definición 4.13
Dados un par de puntos cualesquiera A “ pa1 , ¨ ¨ ¨ , an q y B “ pb1 , ¨ ¨ ¨ , bn q de Rn , se define
la distancia de A a B como número real dpA, Bq dado por

a
dpA, Bq “ pa1 ´ b1 q2 ` ¨ ¨ ¨ ` pan ´ bn q2 . (4.18)

Observe que
b b
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÝÝÑ ÝÝÝÝÑ ÝÝÝÝÑ
dpA, Bq “ }AB} “ xAB, ABy “ }B ´ A} “ xB ´ A, B ´ Ay; (4.19)
ÝÝÑ
es decir, dpA, Bq es la norma de vector AB, que es la misma norma de su equivalente
ÝÝÝÝÑ ÝÝÑ ÝÝÑ
anclado en el origen B ´ A. Como }AB} “ }BA}, es claro que dpA, Bq “ dpB, Aq. Por tal
motivo, se emplea el vocablo “distancia entre A y B” en lugar de “distancia de A a B”,
o “distancia de B a A”.

Ejemplo 4.10
1. Sean A “ p2, 1q y B “ p3, ´1q. Entonces
a a ? ?
dpA, Bq “ p2 ´ 3q2 ` p1 ´ p´1qq2 “ p´1q2 ` 22 “ 1 ` 4 “ 5.

2. Para los puntos A “ p´1, ´3, 1q, B “ p2, 0, ´2q y C “ p0, 2, 1q, tenemos:
a ? ? ?
dpA, Bq “ pp´1q ´ 2q2 ` pp´3q ´ 0q2 ` p1 ´ p´2qq2 “ 9 ` 9 ` 9 “ 27 “ 3 3;
a ? ?
dpA, Cq “ pp´1q ´ 0q2 ` pp´3q ´ 2q2 ` p1 ´ 1q2 “ 1 ` 25 ` 0 “ 26 y
a ? ?
dpB, Cq “ p2 ´ 0q2 ` p0 ´ 2q2 ` pp´2q ´ 1q2 “ 4 ` 4 ` 9 “ 17.

Observe que dpA, Cq ď dpA, Bq ` dpB, Cq; es la desigualdad triangular.

El siguiente resultado resume las propiedades más importantes de la distancia eucli-


diana en Rn .
Álgebra lineal: Nociones y propiedades elementales 135

Teorema 4.7
Cualesquiera sean los puntos A, B y C de Rn , siempre se cumplen:

1. dpA, Bq ě 0 y dpA, Bq “ 0 si, y solo si, A “ B.

2. dpA, Bq “ dpB, Aq.

3. dpA, Cq ď dpA, Bq ` dpB, Cq.

Demostración. Demostraremos la última propiedad, la cual es conocida como la de-


sigualdad triangular de la distancia Euclidiana; las demostraciones de las restantes pro-
piedades quedan a cargo del lector.
ÝÝÝÝÑ ÝÝÝÝÑ ÝÝÝÝÑ
Dado que C ´ B ` B ´ A “ C ´ A, cualesquiera sean los puntos A, B y C de Rn ,
tenemos de la desigualdad triangular (Corolario 4.4, pág. 129) que
ÝÝÝÝÑ ÝÝÝÝÑ ÝÝÝÝÑ ÝÝÝÝÑ ÝÝÝÝÑ
}C ´ A} “ }C ´ B ` B ´ A} ď }C ´ B} ` }B ´ A};

luego de (4.19) sigue la demostración de la tercera parte del enunciado del teorema.

4.5. Rectas, planos e hiperplanos en Rn


Esta sección está destinada al estudio de los conceptos de rectas, planos e hiperplanos
en Rn . Con absoluta certeza, toda persona tiene en su estructura lógica del pensamiento
las nociones de rectas y planos; ası́ que nuestra intención, en lugar de pretender exponer
un pequeño tratado de la geometrı́a derivada de esos entes matemáticos, es formalizar
tales conceptos y a partir de allı́ estudiar algunas propiedades elementales.

4.5.1. Rectas en Rn y sus ecuaciones cartesianas


Ñ
Ý
Comenzaremos fijando un punto cualquiera P de Rn y un vector no nulo A P RnO . Sea
ÝÝÑ Ñ
Ý
X cualquier punto de Rn tal que el vector P X sea múltiplo de A ; esto es, que para algún
escalar α P R se tenga X ´ P “ αA; en otras palabras X “ P ` αA, para α P R. Esta
situación se describe gráficamente en la Figura 4.9.

Definición 4.14
Ñ
Ý
Fijados P P Rn y un vector no nulo A P RnO , se denomina recta que pasa por P con
Ñ
Ý
dirección A al subconjunto de Rn dado por

Ñ
Ý
LpP, A q “ tX P Rn : X “ P ` αA, para algún α P Ru. (4.20)

Ñ
Ý
Fijados un punto P P Rn y un vector no nulo A P RnO , se conoce por ecuación
Ñ
Ý
paramétrica (o vectorial) de la recta que pasa por P con dirección A a la expresión

X “ P ` αA, con α P R.
136 Neptalı́ Romero

Ý
Ñ
Figura 4.9: Recta en Rn que pasa por el punto de P en la dirección definida por A .

Ñ
Ý
Note que cualquier recta LpP, A q de Rn puede ponerse en correspondencia biunı́voca
con el conjunto de los números reales. Esto es, puede definirse una biyección entre R y
Ñ
Ý Ñ
Ý
LpP, A q; una tal biyección es, por ejemplo, la aplicación ϕ : R ÝÑ LpP, A q definida por
ϕpαq “ P ` αA, para cada α P R.

Ejemplo 4.11
1. Consideremos en R2 la recta que pasa por el origen O “ p0, 0q en la dirección del vector
Ñ
Ý ÝÝÝÑ
A “ p1, 2q, su ecuación paramétrica es

X “ O ` αA, con α P R.

Al hacer X “ px, yq se tiene x “ α y y “ 2α, donde α recorre el conjunto R de números


Ñ
Ý
reales. De acá que y “ 2x y LpO, A q “ tpx, yq P R2 : y “ 2xu.

2. Nuevamente en R2 , la ecuación paramétrica de la recta que pasa por P “ p´1, 1q con


Ñ
Ý ÝÝÝÑ
vector director B “ p0, 2q es

X “ px, yq “ p´1, 1q ` αp0, 2q, con α recorriendo R.

Luego es claro que


Ñ
Ý
LpP, A q “ tpx, yq P R2 : x “ ´1 y y “ 1 ` 2α con α variando en Ru.

Dado que al variar α en todo R, el recorrido que hace y es sobre todos los números
Ñ
Ý
reales; De esta forma concluimos que LpP, B q “ tpx, yq P R2 : x “ ´1 y y P Ru; la
figura ilustra estas dos rectas.

3. Consideremos ahora un ejemplo en R3 . Veamos que caracteriza todos los puntos de la


Ñ
Ý ÝÝÝÝÝÝÑ
recta que pasa por el punto P “ p3, 2, 4q en la dirección del vector A “ p´3, 1, 0q.
Como antes, la ecuación paramétrica de tal recta es:

X “ px, y, zq “ P ` αA “ p3, 2, 4q ` αp´3, 1, 0q con α P R.


Ñ
Ý
Claramente un punto X “ px, y, zq está en LpP, A q si, y solo si,

x “ 3 ´ 3α, y “ 2 ` α y z “ 4.
Álgebra lineal: Nociones y propiedades elementales 137

Sigue por tanto que


" *
Ñ
Ý x´3
LpP, A q “ px, y, zq : “y´2 y z “4 .
´3
Ñ
Ý
La siguiente figura ilustra la recta LpP, A q, la parte sombreada representa la región de
R3 formada por aquellos puntos cuyas tercera componente siempre es igual a 4.

La descripción paramétrica de cualquier recta en Rn requiere, como hemos mostrado,


de un punto por donde ella pasa y de un vector no nulo que determina su dirección. Sin
embargo, tales requerimientos no son los únicos que la describen. La siguiente proposición
muestra otras formas de obtener la misma recta de diferentes maneras; en particular, una
recta puede expresarse mediante diferentes ecuaciones paramétricas.

Proposición 4.4
Ñ
Ý
Para cualquier recta LpP, A q en Rn son válidas las siguientes afirmaciones:
Ñ
Ý Ñ
Ý Ñ
Ý
1. Si Q P LpP, A q, entonces LpP, A q “ LpQ, A q.
138 Neptalı́ Romero
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
2. Si B “ β A para cualquier β ‰ 0, entonces LpP, A q “ LpP, B q.
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
3. Si Q P LpP, A q y B “ β A con β ‰ 0, entonces LpP, A q “ LpQ, B q.
Ñ
Ý Ñ
Ý
4. Para cualquier par de puntos diferentes Q, R P LpP, A q, la recta LpP, A q es la única
que los contiene.

Demostración. Demostraremos solamente la tercera parte de la proposición, las restantes


se dejan como ejercicio para el lector.
Ñ
Ý Ñ
Ý Ñ
Ý
Sean Q P LpP, A q y B “ β A con β ‰ 0. Es claro que Q “ P ` αA para algún α P R.
Ñ
Ý
De esta forma tenemos que R P LpQ, B q si, y solo si, existe γ P R tal que R “ Q ` γB.
Ñ
Ý Ñ
Ý Ñ
Ý
Dado que Q “ P ` αA y B “ β A , entonces R P LpQ, B q si, y solo si, existe γ P R tal
Ñ
Ý
que R “ pP ` αAq ` γpβAq “ P ` pα ` γβqA. Consecuentemente R P LpQ, B q si, y solo
Ñ
Ý Ñ
Ý Ñ
Ý
si, R P LpP, A q; significando esto que LpP, A q “ LpQ, B q.

§ Ecuaciones cartesianas de rectas en Rn


Ñ
Ý
Sea LpP, A q la recta en Rn que pasa por el punto P “ pp1 , ¨ ¨ ¨ , pn q en la dirección
Ñ
Ý ÝÝÝÝÝÝÝÝÑ Ñ
Ý
del vector A “ pa1 , ¨ ¨ ¨ , an q. Claramente, X “ px1 , ¨ ¨ ¨ , xn q P LpP, A q si, y solo si, existe
α P R tal que xi “ pi ` α ai para cada i “ 1, ¨ ¨ ¨ , n. Analizaremos las ecuaciones que
Ñ
Ý
definen los puntos en LpP, A q, para ello consideraremos dos casos:
Ñ
Ý
Caso 1: A tiene todas sus componentes no nulas.
xi ´ pi
En este contexto sigue que “ α para todo i “ 1, ¨ ¨ ¨ , n. Consecuentemente, un
ai
Ñ
Ý
punto X “ px1 , ¨ ¨ ¨ , xn q pertenece a LpP, A q si, y solo si

x1 ´ p1 x2 ´ p 2 xn ´ p n
“ “ ¨¨¨ “ . (4.21)
a1 a2 an

De esta forma, en este caso se tiene


" *
Ñ
Ý n x1 ´ p1 x2 ´ p 2 xn ´ p n
LpP, A q “ px1 , ¨ ¨ ¨ , xn q P R : “ “ ¨¨¨ “ .
a1 a2 an

Ñ
Ý
Caso 2: A tiene al menos una componente nula.
Ñ
Ý Ñ
Ý
Consideremos ahora una recta LpP, A q tal que algunas de las componentes de A no nulas,
supongamos que estas corresponden a aquellas con ı́ndices 1 ď i1 ă ¨ ¨ ¨ ă ik ď n; es decir,
ai1 “ ¨ ¨ ¨ “ aik “ 0 y ai ‰ 0 para todo i R ti1 , ¨ ¨ ¨ , ik u. Claramente no se puede obtener
una ecuación igual a la del Caso 1: no está permitido la división por 0. Sin embargo, note
Ñ
Ý
que X “ px1 , ¨ ¨ ¨ , xn q P LpP, A q si, y solo si, existe α P R tal que para i P ti1 , ¨ ¨ ¨ , ik u
xi ´ pi
se tiene xi “ pi ; mientras que las restantes componentes xi se tiene “ α. De esta
ai
Ñ
Ý
forma, X “ px1 , ¨ ¨ ¨ , xn q P LpP, A q si, y solo si
Álgebra lineal: Nociones y propiedades elementales 139

xi1 “ pi1 , xi2 “ pi2 , ¨ ¨ ¨ , xik “ pik


x1 ´ p 1 xi ´1 ´ pi1 ´1 xi `1 ´ pi1 `1
“ ¨¨¨ “ 1 “ 1 “ ¨¨¨
a1 ai1 ´1 ai1 `1 (4.22)
xi ´1 ´ pik ´1 xi `1 ´ pik `1 xn ´ pn
“ k “ k “ ¨¨¨ “
aik ´1 aik `1 an

A las expresiones dadas en (4.21) y (4.22) se les denomina ecuaciónes cartesianas de


Ñ
Ý ÝÝÝÝÝÝÝÝÑ
la recta que pasa por el punto P “ pp1 , ¨ ¨ ¨ , pn q con vector director A “ pa1 , ¨ ¨ ¨ , an q. Es
importante notar la diferencia entre ambas.

Ejemplo 4.12
1. Examinemos el caso especial de rectas en R2 cuya dirección tiene sus coordenadas no
nulas. Según lo expuesto, la recta que pasa por el punto P “ pp1 , p2 q P R2 en la dirección
Ñ
Ý ÝÝÝÝÑ
del vector A “ pa1 , a2 q, con a1 y a2 diferentes de 0, se expresa mediante la ecuación
x ´ p1 y ´ p2 a2
cartesiana “ ; o equivalentemente y ´ p2 “ px ´ p1 q, que es la conocida
a1 a2 a1
a2
ecuación “punto-pendiente” de la recta: pasa por pp1 , p2 q con pendiente ; en este caso
a1
la pendiente es no nula. Observe que cuando la pendiente es nula, a2 “ 0 y la recta
ecuación cartesiana de la recta es y “ p2 y x P R.
Dejamos al lector la tarea de demostrar que cualquier recta en R2 se expresa mediante
una ecuación cartesiana del tipo:

αx ` βy “ γ,

donde α, β, γ son constantes reales con α2 ` β 2 ą 0.

2. Deseamos obtener una ecuación cartesiana de la recta en R3 que pasa por los puntos
P “ p2, ´1, 3q y Q “ p1, 0, 2q. Lo que requerimos para una ecuación cartesiana de esta
recta es un vector que la dirija la recta. De acuerdo a lo que hemos discutido, un tal
Ñ
Ý ÝÝÝÝÑ ÝÝÝÝÝÝÑ
vector director puede ser A “ P ´ Q “ p1, ´1, 1q. Luego, una ecuación cartesiana de
la recta que contiene a P y Q es x ´ 2 “ ´y ´ 1 “ z ´ 3; es decir, la recta L que pasa
por P y Q es el conjunto de puntos px, y, zq P R3 tales que x ´ 2 “ ´y ´ 1 “ z ´ 3.
Observe que si en lugar de Q “ p1, 0, 2q condideramos el punto Q “ p1, 0, 3q, entonces
esa recta se expresa mediante la ecuación cartesiana

x ´ 2 “ ´y ´ 1 y z “ 3,

pues cualquier vector director de esa recta tiene su tercera cooordenada nula.

4.5.2. Planos en Rn
La idea esencial del significado de un plano es algo que tiene “largo y ancho”. Pues
bien, tal noción no está lejos de la definición matemática de ese objeto.
140 Neptalı́ Romero

Definición 4.15
Ñ
Ý Ñ Ý
Dados un punto P P Rn y dos vectores no nulos y no paralelos A y B en RnO , al conjunto
Ñ
Ý Ñ Ý
de puntos πpP, A , B q de Rn dado por

Ñ
Ý Ñ Ý
πpP, A , B q “ tpx1 , ¨ ¨ ¨ , xn q P Rn : px1 , ¨ ¨ ¨ , xn q “ P ` αA ` βB, con α, β P Ru .

Ñ
Ý Ñ Ý
se le conoce con el nombre de plano de Rn que pasa por P y orientado por A y B . A la
ecuación X “ P ` αA ` βB, con α y β variando en R se le llama ecuación paramétrica
Ñ
Ý Ñ Ý
del plano πpP, A , B q.

Ý
Ñ Ý Ñ
Figura 4.10: La parte sombreada de la figura ilustra el plano πpP, A , B q.

Observación 4.2
a) Observe que al hacer igual a 0 uno de los parámetros α o β en la ecuación paramétrica
X “ P ` αA ` βB, y dejar correr en R el otro parámetro, se concluye que cada una
Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý
de las recta LpP, A q y LpP, B q está contenida en el plano πpP, A , B q.

b) Note que no tiene sentido hablar de planos en R, allı́ cualquier par de vectores distintos
no nulos son paralelos.
Ñ
Ý Ñ Ý
c) En R2 solo hay un plano, el propio R2 . Supongamos que πpP, A , B q es un plano en R2 ,
donde P “ pp1 , p2 q, A “ pa1 , a2 q y B “ pb1 , b2 q. Veamos que cualquier punto px, yq de
Ñ
Ý Ñ Ý
R2 está en πpP, A , B q; es decir, existen α #
y β en R de forma que px, yq “ P ` αA ` βB.
a1 α ` b1 β “ x ´ p1
Esto equivale a conseguir α y β tales que ; pero como la matriz
a2 α ` b2 β “ y ´ p2
« ff
a1 b1
es invertible (¿por qué?), sigue que este sistema de ecuaciones lineales tiene
a2 b2
Ñ
Ý Ñ Ý
solución única; lo cual demuestra que πpP, A , B q “ R2 . Ası́ que en adelante, cuando
hablemos de planos en Rn , el valor de n será siempre mayor o igual a 3.
Álgebra lineal: Nociones y propiedades elementales 141

Antes de discutir algunas propiedades generales (Proposición 4.5) de los planos en Rn ,


recordamos la noción de colinealidad. Diremos que un conjunto de puntos cualesquiera en
Rn son colineales si todos ellos están sobre una misma recta. Note que en R todos los puntos
son colineales, no ası́ en Rn con n ě 2. Por ejemplo en R2 los puntos p0, 0q, p1, 1q y p2, 0q
son no colineales: no hay una recta en R2 que contenga esos tres puntos. La colinealidad
de tres puntos cualesquiera en Rn (n ě 2) es fácilmente caracterizada.

Lema 4.1
Tres puntos diferentes en Rn (n ě 2) son colineales si, y solo si, cualquiera de los dos
vectores por ellos determinados, y anclados en el mismo lugar, son paralelos.

Demostración. Sean A, B y C puntos diferentes cualesquiera en Rn , con n ě 2. Supon-


gamos que ellos son colineales. Claramente la recta en Rn que los contiene la podemos
ÝÝÝÝÑ
caracterizar describir como LpA, B ´ Cq; es decir, la recta que pasa por A en la dirección
ÝÝÝÝÑ ÝÝÝÝÑ
del vector B ´ C. Dado que C P LpA, B ´ Cq, existe α P R tal que C “ A ` αpB ´ Cq, de
ÝÑ ÝÝÑ ÝÑ ÝÝÑ
donde A ´ C “ ´αpB ´ Cq; y por tanto CA k CB. Similarmente se muestra que AC k AB
ÝÝÑ ÝÝÑ
y BC k BA, lo cual demuestra la implicación directa.
ÝÑ ÝÝÑ
Procedamos ahora con el recı́proco. Por simplicidad supondremos que CA k CB, que
es C “ A ` δpB ´ Cq para algún δ P R. De acá sigue que B “ A ` p1 ` δqpB ´ Cq; ası́ B
ÝÝÝÝÑ
y C pertenecen a la recta LpA, B ´ Cq, que obviamente también contiene a A. Por lo que
los puntos A, B y C son colineales.

ÝÑ Ý ÝÑ
Figura 4.11: Los puntos A, B y C son no colineales pues los vectores AC y AB son no paralelos.

Proposición 4.5
Las siguientes afirmaciones son verdaderas cualquiera sea el entero n ě 2.

1. Todo plano de Rn está en correspondencia biunı́voca R2 .


Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
2. Si Q P πpP, A , B q y C , D P RnO son vectores no nulos y no paralelos tales que C y D
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
son combinaciones lineales de A y B , entonces πpP, A , B q “ πpQ, C , Dq.

3. Si P, Q, R P Rn son distintos entre sı́ y no colineales, entonces existe un único plano


π Ă Rn que los contiene.

Demostración. Dejamos al lector la demostración de las dos primeras afirmaciones.


Supongamos que P, Q y R son puntos distintos y no colineales; ası́, por el lema anterior
Ñ
Ý ÝÝÝÝÑ ÑÝ ÝÝÝÝÑ
los vectores A “ Q ´ P y B “ R ´ P son no paralelos. Consideremos el plano que pasa
Ñ
Ý Ñ Ý Ñ
Ý ÑÝ
por P con directores A y B . Sabemos que X P πpP, A , B q si, y solo si, existen escalares
α, β P R tales que X “ P `α A`β B. Note que al asignar a los parámetros α y β los valores
142 Neptalı́ Romero
Ñ
Ý Ñ Ý
α “ 1, β “ 0 y α “ 0, β “ 1, se tiene que tanto Q como R pertenecen a πpP, A , B q; luego
Ñ
Ý ÑÝ
los tres puntos dados pertenecen a este plano. Veamos ahora que πpP, A , B q es el único
Ñ
Ý Ñ
Ý
plano que los contiene. Supongamos que el plano πpS, U , V q de Rn contiene los puntos
P, Q y R. Sean α1 , β1 , α2 , β2 , α3 , β3 en R tales que

P “ S ` α1 U ` β1 V, Q “ S ` α2 U ` β2 V y R “ S ` α3 U ` β3 V.

Sigue por tanto que

Q ´ P “ pα2 ´ α1 qU ` pβ2 ´ β1 qV y R ´ P “ pα3 ´ α1 qU ` pβ3 ´ β1 qV.


ÝÝÝÝÑ ÝÝÝÝÑ
Es decir, Q ´ P y R ´ P , que son vectores no nulos y no paralelos, se expresan como
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
combinaciones lineales de los vectores U y V que dirigen al plano πpS, U , V q; sigue por
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
tanto del item 2 que πpP, A , B q “ πpS, U , V q.

Ejemplo 4.13
1. Nos gustarı́a averiguar si existe un único plano de R3 que contenga los puntos

P “ p2, 1, 0q, Q “ p´1, 1, 1q y R “ p0, 2, 1q.

Si estos tres puntos fuesen no colineales, entonces habrı́a un único plano que los contiene.
ÝÝÝÝÑ ÝÝÝÝÑ
Para decidir esto bastarı́a averiguar si los vectores Q ´ P y R ´ P son o no paralelos.
Una simple cuenta muestra que Q ´ P “ p´3, 0, 1q y R ´ P “ p´2, 1, 1q. Dado que no
ÝÝÝÝÑ ÝÝÝÝÑ
existe un escalar α P R tal que Q ´ P “ αpR ´ P q, entonces Q ´ P y R ´ P son no
paralelos, y ası́ P, Q y R pertenecen a un único plano: el que pasa por P y dirigido por
ÝÝÝÝÑ ÝÝÝÝÑ
los vectores Q ´ P y R ´ P . Sus puntos son todos aquellos px, y, zq P R3 tales que

px, y, zq “ P ` αpQ ´ P q ` βpR ´ P q, para algunos α, β P R.

2. Si modificamos un poco los datos anteriores, por ejemplo, si hacemos R “ p8, 1, ´2q y
dejamos P y Q como arriba, entonces hay más de un plano en R3 que contiene a esos
tres puntos.
Observe en este caso que Q ´ P “ p´3, 0, 1q y R ´ P “ p6, 0, ´2q, consecuentemente
Ñ
Ý ÝÝÝÝÑ Ñ Ý ÝÝÝÝÑ
Q ´ P “ 12 pR ´ P q; es decir, los vectores A “ Q ´ P y B “ R ´ P son paralelos;
Ñ
Ý
ası́ que los tres puntos dados son colineales; todos pertenecen a la recta LpP, A q; recta
con ecuación cartesiana x ´ 2 “ ´3z y y “ 1. Construiremos dos planos diferentes
conteniendo a P, Q y R.
Consideremos los puntos S “ p´1, 1, 0q y O “ p0, 0, 0q, note que ninguno de estos
Ñ
Ý
puntos pertenece a LpP, A q. Hagamos
Ñ
Ý ÝÝÝÝÑ ÝÝÝÝÝÝÑ Ñ
Ý ÝÝÝÝÑ ÝÝÝÝÝÝÑ
U “ S ´ P “ p´3, 0, 0q y V “ O ´ P “ p2, ´1, 0q,
Ñ
Ý Ñ Ý Ñ Ý Ñ Ý Ñ
Ý ÑÝ Ñ
Ý Ñ Ý
luego A ∦ U y A ∦ V . Ahora consideremos los planos πpP, A , U q y πpP, A , V q, cla-
Ñ
Ý
ramente ambos contienen la recta LpP, A q, y por tanto los puntos P, Q y R. Afirmamos
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
que πpP, A , U q ‰ πpP, A , V q. Observe que O R πpP, A , U q pues es imposible escribir
a O de la forma P ` αA ` βU con α y β en R; pues

O “ P ` αA ` βU ðñ p0, 0, 0q “ p2 ´ 3α ´ 3β, 1, αq,


Álgebra lineal: Nociones y propiedades elementales 143
Ñ
Ý Ñ Ý
lo cual es imposible. Sin embargo O P πpP, A , V q, lo cual verifica la veracidad de la
afirmación. Teniendo ası́ dos planos diferentes y ambos conteniendo a P, Q y R. En
realidad, se pueden construir una infinidad de planos distintos de manera que todos
contengan estos tres puntos. Intente hacer una demostración de esta afirmación.

4.5.3. Planos en R3
Nos detendremos a estudiar los planos en R3 pues ellos pueden ser descritos empleando
ecuaciones cartesianas y prescindiendo de los vectores directores. Antes, una consideración
Ñ
Ý Ñ
Ý
general de los planos en Rn con n ě 3. Supongamos que tenemos un plano πpP, A , B q en
Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý
Rn y que existe un vector no nulo N tal que N K A y N K B . Consideremos el conjunto
Ñ
Ý ÝÝÝÝÑ Ñ Ý
πpP, N q “ tX P Rn : X ´ P K N u, (4.23)
Ñ
Ý Ñ Ý
y tomemos cualquier punto X P πpP, A , B q; es decir, X “ P ` αA ` βB para ciertos
números reales α y β. Claramente de acá sigue
Ñ
Ý ÝÝÝÝÑ Ý ÝÝÝÝÝÝÝÑ
Ñ Ý ÝÝÑ ÝÝÑ
Ñ Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
x N , X ´ P y “ x N , α A ` β By “ x N , α A ` β By “ x N , α A y ` x N , β B y
Ñ
Ý ÑÝ Ñ
Ý Ñ Ý
“ αx N , A y ` βx N , B y “ 0 ` 0 “ 0.
Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý
Esto significa que X P πpP, N q, y por tanto πpP, A , B q Ă πpP, N q. Cuando n ě 4
esta inclusión es estricta, solo para ilustrar esta afirmación observe que como los vectores
Ñ
Ý Ñ
Ý
canónicos E 1 , ¨ ¨ ¨ , E n son mutuamente ortogonales, para cualquier punto P P Rn (n ě 4)
y cualquier par de ı́ndices j, k P t1, ¨ ¨ ¨ , nu con j ‰ k, j ‰ 1 y k ‰ 1 se tiene que el plano
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý
πpP, E j , E k q está contenido en πpP, E 1 q, por lo que πpP, E j , E k q Ĺ πpP, E 1 q.
La situación cambia radicalmente en R3 , es lo que muestra el siguiente lema.
Lema 4.2
Ñ
Ý Ñ Ý Ñ
Ý
Dado cualquier plano πpP, A , B q en R3 , si existe un vector no nulo N que sea ortogonal
Ñ
Ý Ñ Ý Ñ
Ý ÑÝ Ñ
Ý
a A y B , entonces πpP, A , B q “ πpP, N q.
Ñ
Ý
Demostración. Debemos mostrar que todo punto en πpP, N q también está en el plano
Ñ
Ý Ñ Ý
πpP, A , B q, para ello nos apoyaremos en algunas de las propiedades que han sido enuncia-
Ñ
Ý Ñ
Ý
das en las proposiciones 4.3 y 4.5. En primer lugar, observe que los vectores A ´ PÝ Ñp A q
Ñ
Ý Ñ
Ý Ñ
Ý B
y B son no nulos y ortogonales. Por otra parte, dado que A ´ PÝ Ñ p A q es combinación
Ñ
Ý Ñ Ý B
lineal de A y B se tiene:
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ Ý
πpP, A , B q “ πpP, A ´ PÝ Ñ p A q, B q, y
B
ÑÝ Ñ
Ý Ñ Ý Ñ Ý
A ´ PÝ Ñ p A q, B y N son mutuamente ortogonales.
B
Ñ
Ý ÝÝÝÝÑ Ñ Ý
Ahora tomemos cualquier punto X en el conjunto πpP, N q; esto es, X ´ P K N . De
la Proposición 4.3 sigue que existen números reales α, β, δ (de hecho, únicos) tales que
ÝÝÝÝÑ Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
X ´ P “ αp A ´ PÝ Ñ p A qq ` β B ` δ N , de donde
B
ÝÝÝÝÑ Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý
0 “ xX ´ P , N y “ xαp A ´ PÝ Ñ p A qq ` β B ` δ N , N y “ δ} N }2 ;
B
ÝÝÝÝÑ Ñ
Ý Ñ
Ý Ñ
Ý
por lo que δ “ 0 y ası́ X ´ P “ αp A ´ PÝ Ñ p A qq ` β B . Lo cual implica que el punto X
Ñ
Ý Ñ Ý B
pertenece al plano πpP, A , B q, con ello la demostración está completa.
144 Neptalı́ Romero

Ý
Ñ Ý Ñ Ý
Ñ Ý
Ñ
Figura 4.12: En R3 cualquier plano πpP, A , B q coincide con el conjunto πpP, N q, siempre que N sea un
Ý
Ñ Ý Ñ
vector no nulo ortogonal a los vectores A y B .

¿Qué distinción ofrece poder expresar un plano en R3 en términos de de un vector que


es ortogonal a aquellos que dirigen al plano? La respuesta a esta interrogante subyace en
la posibilidad de expresar este plano mediante una sola ecuación lineal con tres incógnitas.
Ñ
Ý Ñ Ý Ñ
Ý
Veamos; supongamos que para el plano πpP, A , B q en R3 existe un vector no nulo N que
Ñ
Ý Ñ
Ý Ñ
Ý ÝÝÝÝÑ
es ortogonal tanto a A como a B . Si hacemos P “ pp1 , p2 , p3 q y N “ pa, b, cq, entonces
Ñ
Ý ÑÝ
de la anterior discusión sigue que cualquier punto X “ px, y, zq está en πpP, A , B q si, y
ÝÝÝÝÑ Ñ Ý
solo si, apx ´ p1 q ` bpy ´ p2 q ` cpz ´ p3 q “ 0; recuerde que xX ´ P , N y “ 0.
Ñ
Ý ÝÝÝÝÑ
De esta forma, bajo la hipótesis de la existencia de un vector no nulo N “ pa, b, cq que
Ñ
Ý ÑÝ
sea perpendicular a cada uno de los vectores que dirigen al plano πpP, A , B q, se tiene

Ñ
Ý Ñ Ý
πpP, A , B q “ tpx, y, zq P R3 : apx ´ p1 q ` bpy ´ p2 q ` cpz ´ p3 q “ 0u, (4.24)

donde P “ pp1 , p2 , p3 q. A la ecuación lineal de arriba se le conoce con el nombre de ecuación


Ñ
Ý Ñ Ý Ñ
Ý
cartesiana del plano πpP, A , B q, y al vector N se el llama vector normal al plano.
Siguiendo la argumentación heurı́stica que venimos haciendo sobre planos en R3 , resta
la discusión sobre la existencia de vectores normales a planos; ello lo aporta la noción de
producto vectorial que presentamos a continuación.

Definición 4.16
Ñ
Ý ÝÝÝÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÑ
Dados dos vectores cualesquiera en R3 : A “ pa1 , a2 , a3 q y B “ pb1 , b2 , b3 q, se define el
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
producto vectorial de A por B , también llamado producto cruz de A por B , como el
Ñ
Ý Ñ Ý
vector A ˆ B de R3 dado por

Ñ
Ý Ñ Ý ÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÑ
A ˆ B “ pa2 b3 ´ a3 b2 , a3 b1 ´ a1 b3 , a1 b2 ´ a2 b1 q. (4.25)

Ejemplo 4.14
Ñ
Ý ÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÑ
1. Dados los vectores A “ p2, 2, 1q y B “ p0, ´1, 3q, sigue de la definición que
Ñ
Ý Ñ Ý ÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÑ ÝÝÝÝÝÝÝÑ
A ˆ B “ p2.3 ´ 1p´1q, 1.0 ´ 2.3, 2p´1q ´ 2.0q “ p7, ´6, ´2q;
Álgebra lineal: Nociones y propiedades elementales 145
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ Ý ÑÝ Ñ
Ý Ñ Ý Ñ
Ý
note que A ˆ B K A y A ˆ B K B , pues x A ˆ B , A y “ x A ˆ B , B y “ 0. Por otra
Ñ
Ý Ñ Ý ÝÝÝÝÝÝÑ Ñ
Ý Ñ Ý
parte, es simple verificar que B ˆ A “ p´7, 6, 2q “ ´p A ˆ B q.
Ñ
Ý Ñ Ý Ñ Ý
2. Si E 1 , E 2 , E 3 son los vectores canónicos en R3 , entonces de (4.25)
Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
E 1 ˆ E 2 “ E 3, E 1 ˆ E 3 “ ´ E 2 y E 2 ˆ E 3 “ E 1.

Ñ
Ý Ñ Ý
3. Si los vectores A y B son paralelos, o si algunos de ellos es igual al vector nulo, entonces
Ñ
Ý Ñ Ý Ñ
Ý
es simple chequear que A ˆ B “ O .

Proposición 4.6
Ñ
Ý Ñ Ý Ñ Ý
Cualesquiera sean los vectores A , B y C en R3O , siempre se cumplen:
Ñ
Ý Ñ Ý Ñ Ý Ñ
Ý Ñ Ý Ñ Ý
1. x A ˆ B , A y “ 0 “ x A ˆ B , B y.
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
2. A ˆ B “ ´p B ˆ A q.
´ ¯1
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý 2 Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
3. } A ˆ B } “ } A }2 } B }2 ´ x A , B y2 “ } A }} B } sen θ, donde θ “ >p A , B q
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ Ý
4. A ˆ B “ O si, y solo si, algunos de los dos vectores es el vector nulo, o A k B .
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ Ý Ñ Ý
5. p A ` B q ˆ C “ A ˆ C ` B ˆ C .

Demostración. Demostraremos solo la primera parte de la proposición, las restantes


quedan como ejercicio para el lector.
Ñ
Ý ÝÝÝÝÝÝÝÑ Ñ
Ý ÝÝÝÝÝÝÑ
Supongamos que A “ pa1 , a2 , a3 q y B “ pb1 , b2 , b3 q, de (4.25) y la definición de
producto Euclidiano se tiene
Ñ
Ý Ñ Ý Ñ Ý
x A ˆ B , A y “ pa2 b3 ´ a3 b2 qa1 ` pa3 b1 ´ a1 b3 qa2 ` pa1 b2 ´ a2 b1 qa3
“ pa1 a2 b3 ` a2 a3 b1 ` a1 a3 b2 q ´ pa1 a3 b2 ` a1 a2 b3 ` a2 a3 b1 q “ 0.
Ñ
Ý Ñ Ý Ñ Ý
De la misma forma se verifica que x A ˆ B , B y “ 0.

Note que de las propiedades 1 y 3 anteriores, junto a la desigualdad de Cauchy-Schwarz


Ñ
Ý Ñ Ý
(ver Teorema 4.6 en página 129), sigue que si A y B son vectores no nulos y no paralelos
Ñ
Ý Ñ Ý
en R3 , entonces el producto vectorial A ˆ B es no nulo y normal a cualquier plano en R3
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý
que sea dirigido por A y B , o por cualquier par C , D que sean combinaciones lineales no
Ñ
Ý Ñ Ý
nulas y no paralelas de A y B ; ver Proposición 4.5. Producto de esta revelación tenemos
la siguiente caracterización de los planos en R3 .

Un subconjunto P de R3 es un plano si, y solamente si, existen constantes a, b, c, d,


con a2 ` b2 ` c2 ą 0, tales que

px, y, zq P P ðñ ax ` by ` cz “ d.
Ñ
Ý ÝÝÝÝÑ
En tal caso, N “ pa, b, cq es normal a P, y la ecuación lineal ax ` by ` cz “ d es
una expresión cartesiana del plano.
146 Neptalı́ Romero

La definición del producto vectorial en R3O pudiese no recordarse, sin embargo existe
una conocida regla nemotécnica que ayuda a solventar esta carencia de memoria. Supon-
Ñ
Ý ÝÝÝÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÑ
gamos que tenemos dos vectores cualesquiera A “ pa1 , a2 , a3 q y B “ pb1 , b2 , b3 q; según la
Definición 4.16 tenemos
Ñ
Ý Ñ Ý ÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÑ
A ˆ B “ pa2 b3 ´ a3 b2 , a3 b1 ´ a1 b3 , a1 b2 ´ a2 b1 q;

lo cual es equivalente a escribir:


Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý
A ˆ B “ pa2 b3 ´ a3 b2 q E 1 ´ pa1 b3 ´ a3 b1 q E 2 ` pa1 b2 ´ a2 b1 q E 3 ,
Ñ
Ý Ñ Ý Ñ Ý
donde E 1 , E 2 , E 3 son los vectores canónicos de R3 . Si recordamos la fórmula del determi-
nante en R3 desarrollado por la primera fila, entonces (abusando de la notación) escribimos
Ñ
Ý Ñ Ý
el producto A ˆ B como el determinante
Ñ
Ý Ñ
Ý Ñ
Ý
E 1 E 2 E 3
A ˆ B “ a1 a2 a3 .


b1 b2 b3

Ejemplo 4.15
1. De acuerdo a lo que hemos discutido es claro que la ecuación

2px ´ 1q ` 3py ` 1q ´ pz ´ 5q “ 0

determina en R3 el plano que pasa por el punto P “ p1, ´1, 5q y tiene como un vector
Ñ
Ý ÝÝÝÝÝÝÑ
normal a N “ p2, 3, ´1q. Nos gustarı́a determinar un par de vectores que dirijan a este
plano. Para ello primero vamos a encontrar otros dos puntos adicionales a P , digamos
Q y R, de manera que P, Q y R sean no colineales. Note que 2x ` 3y ´ z “ ´6 es la
misma ecuación anterior. Si hacemos x “ 0 “ z, entonces Q “ p0, ´2, 0q está en ese
plano pues sus componentes resuelven 2x ` 3y ´ z “ ´6. Ahora, al hacer x “ 0 “ y se
tiene que R “ p0, 0, 6q también está en ese plano; además, los vectores
Ñ
Ý ÝÝÝÝÑ ÝÝÝÝÝÝÝÝÝÑ Ñ Ý ÝÝÝÝÑ ÝÝÝÝÝÝÑ
A “ Q ´ P “ p´1, ´1, ´5q y B “ R ´ P “ p´1, 1, 1q
Ñ
Ý Ñ
Ý Ñ Ý
son no paralelos y ortogonales a N , por lo que A y B dirigen al plano.
Ñ
Ý Ñ Ý Ñ
Ý ÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÑ
2. Consideremos el plano πpP, A , B q con P “ p1, 0, ´2q, A “ p1, 1, 0q y B “ p2, 0, ´1q.
Determinaremos una ecuación cartesiana que lo describa. Dado que conocemos un punto
por donde pasa el plano, necesitamos un vector normal al plano; para ello basta calcular
Ñ
Ý Ñ Ý
el vector A ˆ B . Como sabemos:
Ñ
Ý Ñ
Ý Ñ
Ý
E 1 E 2 E 3 ÝÝÝÝÝÝÝÑ
Ñ
Ý Ñ Ý
AˆB “ 1 1 0 “ p´1, 1, ´2q,


2 0 ´1

por tanto una ecuación cartesiana del plano es ´px ´ 1q ` y ` p´2qpz ` 2q “ 0; o


equivalentemente ´x ` y ´ 2z “ 3, ası́ que
Ñ
Ý Ñ Ý
πpP, A , B q “ tpx, y, zq P R3 : ´x ` y ´ 2z “ 3u.
Álgebra lineal: Nociones y propiedades elementales 147

3. La ecuación x ` y “ 2 describe en R3 el plano que pasa por el punto P “ p2, 0, 0q con


ÝÝÝÝÑ
vector normal p1, 1, 0q. Mientras que z “ 1 es la ecuación cartesiana del plano de R3
ÝÝÝÝÑ
que pasa por el punto p1, 1, 1q con vector normal p0, 0, 1q. Los planos cuyas ecuaciones
son: x “ 0, y “ 0 y z “ 0 se les llama, respectivamente, plano yz, plano xz y plano xy;
también son denominados planos cartesianos de R3 .

4. Consideremos ahora los puntos P “ p1, 2, ´1q, Q “ p2, 4, 3q y R “ p0, ´1, 3q. Dado
que estos puntos son no colineales, existe un único plano que los contiene. Deseamos
encontrar una ecuación cartesiana de ese plano. El procedimiento es muy simple (de
hecho ya lo usamos): los vectores
Ñ
Ý ÝÝÝÝÑ ÝÝÝÝÑ Ñ Ý ÝÝÝÝÑ ÝÝÝÝÝÝÝÑ
A “ Q ´ P “ p1, 2, 4q y B “ R ´ P “ p´1, ´3, 4q
Ñ
Ý Ñ
Ý Ñ
Ý
E 1 E 2 E 3 ÝÝÝÝÝÝÝÝÑ
Ñ
Ý
dirijen al plano, por lo que N “ 1 2 4 “ p20, ´8, ´1q es normal al plano y


´1 ´3 4
consecuentemente 20x ´ 8y ´ z “ 5 es una forma cartesiana de describir los puntos del
plano que contiene a P, Q y R.

Observación 4.3
a) Claramente un mismo plano puede tener varios vectores normales, y también varios
pares de vectores que lo dirijan. Sin embargo, tanto esos múltiples vectores normales
como los pares de vectores directores mantienen una estrecha relación entre ellos. Todos
Ñ
Ý ÑÝ
los vectores normales a un mismo plano son paralelos entre sı́; mientras que si A , B y
Ñ
Ý Ñ Ý
C , D son pares que dirigen el mismo plano, entonces cada vector en cualquiera de los
pares es combinación lineal de los vectores en el otro par. Dejamos al lector la tarea de
justificar estas afirmaciones.
Ñ
Ý Ñ Ý
b) Tampoco es difı́cil de verificar que si A y B son vectores no nulos y no paralelos de
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
R3O , entonces la norma } A ˆ B } del producto vectorial A ˆ B es justamente el área del
Ñ
Ý Ñ Ý
paralelogramo determinado por A y B . De hecho, esto es consecuencia de la propiedad
3 enunciada en la Proposición 4.6.

4.5.4. Hiperplanos en Rn
Hemos visto que las rectas en R2 y los planos en R3 son conjuntos de puntos que son
descritos por ecuaciones lineales en dos y tres incógnitas, respectivamente. La noción de
hiperplano en Rn (n ě 2) recoge justamente esta esencia.

Definición 4.17
Se conoce con el nombre de hiperplano en Rn (n ě 2) al conjunto solución de cualquier
ecuación lineal con n incógnitas y coeficientes en R. En otras palabras

Un subconjunto H de Rn es hiperplano siempre que existan constantes a1 , ¨ ¨ ¨ , an , b


en R, con a21 ` ¨ ¨ ¨ ` a2n ą 0, tales que

px1 , ¨ ¨ ¨ , xn q P H ðñ a1 x1 ` ¨ ¨ ¨ ` an xn “ b.
148 Neptalı́ Romero

A la ecuación lineal a1 x1 ` ¨ ¨ ¨ ` an xn “ b se le llama ecuación cartesiana de H. Note que


al hacer X “ px1 , ¨ ¨ ¨ , xn q y N “ pa1 , ¨ ¨ ¨ , an q, la anterior ecuación se expresa en términos
Ñ
Ý Ñ Ý
del producto interno Euclidiano por x N , X y “ b. Observe además que todo hiperplano H
de Rn es un subconjunto propio: hay puntos de Rn que no están en H.

Queda claro que un hiperplano en Rn (n ě 2) es justamente el conjunto solución de


una ecuación lineal con n incógnitas y coeficientes en R: es el lugar geométrico que ocupa
en Rn las soluciones de estas ecuaciones.
Sean H Ă Rn un hiperplano y a1 x1 ` ¨ ¨ ¨ ` a2 x2 “ b la ecuación lineal que lo describe.
Dado que al menos uno de los coeficientes a1 , ¨ ¨ ¨ , an es no nulo, esta ecuación tiene solución
y por tanto H es no vacı́o. Note que el origen de Rn es un punto en H si, y solo si, b “ 0.
Ñ
Ý ÝÝÝÝÝÝÝÝÑ
Ahora hagamos N “ pa1 , ¨ ¨ ¨ , an q y consideremos cualquier punto P en H; esto es, sus
Ñ
Ý ÑÝ
coordenadas resuelven la ecuación, en otras palabras x N , P y “ b. Esto permite concluir
ÝÝÝ ÝÑ Ñ
Ý Ñ
Ý
que H “ tX P Rn : X ´ P K N u; es decir, H es un conjunto πpP, N q, como introducido
Ñ
Ý
en (4.23). El recı́proco también es cierto: si P es cualquier punto de Rn y N es cualquier
Ñ
Ý
vector no nulo de RnO , entonces πpP, N q es un hiperplano en Rn . En efecto, supongamos
Ñ
Ý ÝÝÝÝÝÝÝÝÑ
que tenemos P “ pp1 , ¨ ¨ ¨ , pn q y N “ pa1 , ¨ ¨ ¨ , an q es no nulo. Luego
Ñ
Ý
px1 , ¨ ¨ ¨ , xn q P πpP, N q ðñ a1 px1 ´ p1 q ` ¨ ¨ ¨ ` an pxn ´ pn q “ 0
ðñ a1 x1 ` ¨ ¨ ¨ ` an xn “ a1 p1 ` ¨ ¨ ¨ ` an pn
ðñ px1 , ¨ ¨ ¨ , xn q P tX P Rn : a1 x1 ` ¨ ¨ ¨ ` an xn “ bu,
con b “ a1 p1 ` ¨ ¨ ¨ ` an pn .
Ñ
Ý
Esto demuestra que el conjunto πpP, N q es el hiperplano H de Rn dado por la ecuación
lineal a1 x1 ` ¨ ¨ ¨ ` an xn “ b, con b “ xN, P y. Decimos en este caso que H es el hiperplano
Ñ
Ý
que pasa por el punto P y tiene a N como vector normal

Ejemplo 4.16
1. Obviamente los hiperplanos de R2 son las rectas, y los de R3 son los planos.

2. El conjunto H “ tpx, y, z, wq : x ` 2y ´ z ` w “ 1u es un hiperplano en R4 . Mientras


que en R5 , el conjunto de todos los puntos px, y, z, u, vq que satisfacen la ecuación
x ´ 2u “ 0 determina un hiperplano. Note que la ecuación lineal que lo caracteriza es
igual a x ` 0y ` 0z ´ 2u ` 0v “ 0. Observe además que cualesquiera sean los valores
reales que se le asignen a y, z, u y v, el punto p2u, y, z, u, vq pertenece a este hiperplano.

Ejemplo 4.17
En R4 consideremos el hiperplano H “ tpx, y, z, uq : ´x ` 2y ´ 3u “ 2u. En este caso
Ñ
Ý ÝÝÝÝÝÝÝÝÝÑ
N “ p´1, 2, 0, ´3q es normal a H; y dado que P “ p2, 1, 0, 0q P H, tenemos que entonces
ÝÝÝÝÝÝÝÝÝÝÑ ÝÝÝÝÝÝÝÝÝÑ
los puntos X de H son caracterizados por satisfacer X ´ p2, 1, 0, 0q K p´1, 2, 0, ´3q.

Ejemplo 4.18
Deseamos encontrar una ecuación cartesiana que describa los puntos del hiperplano H de
Ñ
Ý ÝÝÝÝÝÝÑ
R4 que pasa por el punto P “ p1, 1, ´3, 0q con vector normal N “ p2, 0, 1, 3q. Sabemos
Álgebra lineal: Nociones y propiedades elementales 149
ÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÑ ÝÝÝÝÝÝÑ
que px, y, z, uq P H si, y solo si, px, y, z, uq ´ p1, 1, ´3, 0q K p2, 0, 1, 3q. Dado que
ÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÝÑ ÝÝÝÝÝÝÑ ÝÝÝÝÝÝÝÝÑ ÝÝÝÝÝÝÑ
px, y, z, uq ´ p1, 1, ´3, 0q K p2, 0, 1, 3q ðñ 2x ` z ` 3u “ xp1, 1, ´3, 0q, p2, 0, 1, 3qy
ðñ 2x ` z ` 3u “ ´2,

se tiene H “ tpx, y, z, uq P R4 : 2x ` z ` 3u “ ´2u.


Nos detendremos a recordar algunos asuntos de las ecuaciones lineales que ayudarán
a entender la forma paramética en la que los puntos de un hiperplano de Rn se expresan.
Comenzamos con un hiperplano H de Rn descrito por a1 x1 ` ¨ ¨ ¨ ` an xn “ 0; es decir, H
contiene al origen de Rn . Dado que la matriz ra1 ¨ ¨ ¨ an s tiene rango 1 (al menos uno de
los coeficiente de la ecuación es no nulo), sigue del Teorema 2.2 (ver pág. 60) que existen
n´1 soluciones de la ecuación lineal a1 x1 `¨ ¨ ¨`an xn “ 0, digamos P1 , ¨ ¨ ¨ , Pn´1 , tales que
CLpP1 , ¨ ¨ ¨ , Pn´r q “ H. Para obtener un tal generador mı́nimo del conjunto solución de
a1 x1 ` ¨ ¨ ¨ ` an xn “ 0 supondremos, sin perder generalidad, que a1 ‰ 0. Como aprendimos
en el Capı́tulo 2, consideramos a x2 , ¨ ¨ ¨ , xn como variables libres de la ecuación lineal y
asignamos a ellas los diferentes juegos de valores canónicos:

x2 “ 1, x3 “ 0, ¨ ¨ ¨ , xn “ 0; x2 “ 0, x3 “ 1, ¨ ¨ ¨ , xn “ 0; ¨ ¨ ¨ , x2 “ 0, x3 “ 0, ¨ ¨ ¨ , xn “ 1.

Para estas asignaciones se obtienen las soluciones


ˆ ˙ ˆ ˙ ˆ ˙
a2 a3 an
P1 “ ´ , 1, 0, ¨ ¨ ¨ , 0 , P2 “ ´ , 0, 1, 0, ¨ ¨ ¨ , 0 , ¨ ¨ ¨ , Pn´1 “ ´ , 0, ¨ ¨ ¨ , 0, 1 ;
a1 a1 a1
por lo que un punto X P Rn está en el hiperplano H si, y solamente si, existen valores (de
hecho únicos) α1 , ¨ ¨ ¨ , αn´1 P R tales que

X “ α1 P1 ` ¨ ¨ ¨ ` αn´1 Pn´1 ;

de esta forma se tiene la expresión paramétrica de H; esto es

H “ tX P Rn : X “ α1 P1 ` ¨ ¨ ¨ ` αn´1 Pn´1 , con α1 , ¨ ¨ ¨ , αn´1 P Ru.

En el caso especı́fico considerado (a1 ‰ 0) se tendrı́a


"ˆ ˙ *
1
H“ ´ pα1 a2 ` ¨ ¨ ¨ ` αn´1 an q, α1 , ¨ ¨ ¨ , αn´1 : α1 , ¨ ¨ ¨ , αn´1 P R .
a1
Ejemplo 4.19
Consideremos en R4 el hiperplano dado por 2x ` y ´ z “ 0. Claramente podemos escribir
esta ecuación por 2x ` y ´ z ` 0u “ 0. Siguiendo la anterior discusión, tomamos como
variables libres a y, z y u. Al hacer las asignaciones canónicas

y “ 1, z “ 0, u “ 0; y “ 0, z “ 1, u “ 0; y y “ 0, z “ 0, u “ 1

se tiene como un conjunto generador mı́nimo de la ecuación a las soluciones

P1 “ p´ 12 , 1, 0, 0q, P2 “ p 12 , 0, 1, 0q y P3 “ p0, 0, 0, 1q.

De esta forma, H se escribe paramétricamente como


` ˘ (
H “ 12 pα2 ´ α1 q, α1 , α2 , α3 : α1 , α2 , α3 P R .
150 Neptalı́ Romero

Retornemos a la discusión en abstracto, supongamos que el hiperplano H es dado por


la ecuación lineal no homogénea a1 x1 ` ¨ ¨ ¨ ` an xn “ b (b ‰ 0). Es bien conocido, ver
Teorema 2.4 en pág. 64, que si P0 es alguna solución de esta ecuación y P1 , ¨ ¨ ¨ , Pn´1 son
soluciones de la ecuación homogénea a1 x1 ` ¨ ¨ ¨ ` an xn “ 0 y constituyen un generador
mı́nimo de su conjunto solución, entonces cualquier otra solución X es de la forma

X “ P0 ` α1 P1 ` ¨ ¨ ¨ ` αn´1 Pn´1 ,

para ciertos escalares α1 , ¨ ¨ ¨ , αn´1 . Ası́, la expresión paramétrica de H es

H “ tX P Rn : X “ P0 ` α1 P1 ` ¨ ¨ ¨ ` αn´1 Pn´1 , con α1 , ¨ ¨ ¨ , αn´1 P Ru.

Ejemplo 4.20
Considere el hiperplano H en R4 dado por 2x ` y ´ z “ 1. Dado que P0 “ p 12 , 0, 0, 0q es
solución de esta ecuación, tenemos del ejemplo anterior que
` ˘ (
H “ 12 pα2 ´ α1 ` 1q, α1 , α2 , α3 : α1 , α2 , α3 P R

es una forma de describir paramétricamente el hiperplano H.

Proposición 4.7
Sea H un hiperplano en Rn (n ě 3). Si P1 , P2 , P3 son puntos no colineales cualesquiera
en H, entones el único plano en Rn que los contiene está contenido en H.

Demostración. Del item 3 de la Proposición 4.5 tenemos que si P es cualquier punto


en el único plano que contiene a P1 , P2 y P3 , entonces existen escalares α, β P R tales que
P “ P1 ` αpP2 ´ P1 q ` βpP3 ´ P1 q. Sean N “ pa1 , ¨ ¨ ¨ , an q P Rn y b P R de forma que

X P H ðñ xN, Xy “ b.

Luego para todo P como arriba se tiene

xN, P y “ xN, P1 ` αpP2 ´ P1 q ` βpP3 ´ P1 qy


“ xN, P1 y ` αxN, pP2 ´ P1 qy ` βxN, pP3 ´ P1 qy “ b;

recuerde que xN, Pi y “ b para todo i “ 1, 2, 3. Esto demuestra la proposición.

Obviamente todo hiperplano contiene la recta definida por puntos colineales. Para
cerrar este apartado nos gustarı́a comentar un par de particularidades geométricas de estos
objetos matemáticos denominados hiperplanos. La primera de ellas es todo hiperplano en
Rn separa este conjunto en dos componentes disjuntas especiales: si H es el hiperplano de
Rn dado por a1 x1 ` ¨ ¨ ¨ ` an xn “ b, entonces Rn “ H Y H` Y H´ , donde

H` “ tpx1 , ¨ ¨ ¨ , xn q : a1 x1 `¨ ¨ ¨`an xn ą bu y H´ “ tpx1 , ¨ ¨ ¨ , xn q : a1 x1 `¨ ¨ ¨`an xn ă bu;

estos dos conjuntos son llamados semiespacios generados por H. Obviamente H, H` y H´


son disjuntos entre sı́ y cada uno de estos semiespacios es unión disjunta de hiperplanos
con la misma dirección normal; de hecho
ď ď
H` “ H α y H´ “ H α,
αąb αăb
Álgebra lineal: Nociones y propiedades elementales 151
dirección normal común

Figura 4.13: Ilustración tridimensional del hiperplano H de ecuación a1 x1 ` ¨ ¨ ¨ ` an xn “ b, el cual es la


frontera de los semiespacios H` y H´ ; ambos laminados por los hiperplanos H α con α ą b y α ă b,
respectivamente. Tanto H como los hiperplanos H α tienen la misma dirección normal.

donde H α es el hiperplano dado por la ecuación lineal a1 x1 ` ¨ ¨ ¨ ` an xn “ α.


El segundo asunto concierne con la determinación de un número óptimo (mı́nimo) de
puntos en Rn , y sus cualidades intrı́nsecas, de manera que exista un único hiperplano de
Rn que los contenga. Esta es una importante inquietud que hemos tratado en los casos
cuando n “ 2 o n “ 3. Bien es conocido que las rectas son los hiperplanos de R2 y que
los planos son los hiperplanos de R3 ; también es conocido que dos puntos difererentes
cualesquiera en Rn (n ě 2) definen una única recta que los contiene. Además, con un solo
punto fijado se verifica de forma muy simple que hay una infinidad de rectas que pasan
por ese punto; mientras que al fijar tres puntos, es posible que no exista una recta que los
contenga, eso depende de la disposición de los puntos. En el caso de planos en R3 , tenemos
lo siguiente: dados uno o dos puntos, siempre es posible construir infinitos planos que los
contenga; ahora, si son dados tres puntos, para que exista un único plano que pase por esos
tres puntos es necesario y suficiente que los tres puntos dados sean no colineales. Ahora,
si se fijan cuatro puntos arbitrarios, es posible que no exista un plano que los contenga;
por ejemplo, en R3 no hay un plano que pase por el origen y los puntos canónicos de R3 .
El mismo problema se torna un tanto más técnico cuando n ą 3; aunque es posible
hacer un estudio con las herramientas desarrolladas hasta el momento, hemos preferido
aplazar el análisis para el próximo capı́tulo cuando se estudien las variedades afı́nes en
espacios vectoriales. Sin embargo, a continuación presentaremos algunos ejemplos en R4
para ilustrar el asunto, que abordamos de forma general también en R4 y cuya lectura
pudiese dejarse para el próximo capı́tulo.

Ejemplo 4.21
En R4 hay infinitos hiperplanos que contienen los puntos canónicos E1 , E2 y E3 . Suponga
que H es un hiperplano en R4 que contine estos puntos y es dado por la ecuación lineal
a1 x1 ` a2 x2 ` a3 x3 ` a4 x4 “ b, luego es claro que a1 “ a2 “ a3 “ b. Note que si b “ 0 (es
decir H contiene al origen), entonces H es dado por x4 “ 0. Ahora, si b ‰ 0, tendremos
que H es descrito por una ecuación del tipo x1 ` x2 ` x3 ` αx4 “ 1, donde α es cualquier
número real. Observe que Hα ‰ Hβ cualesquiera sean α y β distintos; con esto quedan
152 Neptalı́ Romero

descritos todos los hiperplanos en R4 que contienen a E1 , E2 y E3 .


Realmente, usando argumentos basados en sistemas de ecuaciones lineales, puede de-
mostrarse que dados tres puntos distintos cualesquiera en R4 , hay infinitos hiperplanos en
R4 que los contienen; detalles para el lector.

Ejemplo 4.22
Continuando en R4 , hay infinitos hiperplanos que contienen E1 , E2 , E3 y P “ p´1, 1, 1, 0q.
En el ejemplo anterior describimos todos los hiperplanos en R4 que contienen a E1 , E2 y
E3 . Es muy simple chequear que el punto P está en cada uno de ellos. Ahora, si en lugar de
P consideramos el punto Q “ p1, 1, 1, 0q, entonces x4 “ 0 es el único hiperplano de R4 que
contiene a E1 , E2 , E3 y Q; también es único el hiperplano que que contiene a E1 , E2 , E3 y
E4 : aquel definido mediante la ecuación x1 ` x2 ` x3 ` x4 “ 1.

Ejemplo 4.23
En R4 no existe un hiperplano que contenga el origen O y todos sus puntos canónicos
E1 , E2 , E3 y E4 . En efecto, sean H un hiperplano en R4 y a1 x1 ` a2 x2 ` a3 x3 ` a4 x4 “ b
la ecuación lineal que lo describe; sabemos que al menos uno de los coeficientes ai ’s es
diferente de cero (i “ 1, 2, 3, 4). Supongamos que tanto O como los puntos canónicos
Ei ’s están en H. Observe que necesariamente b “ 0; por otro lado, dado que cada punto
canónico está en H, se deduce que ai “ 0 para i “ 1, 2, 3, 4; lo cual no es debe ser posible.
Proposición 4.8
Sean P1 , P2 , P3 y P4 puntos distintos en R4 . Si tres de estos puntos, digamos P1 , P2 y P3 ,
son no colineales, entonces
a) Existen infinitos hiperplanos en R4 que contienen los cuatro puntos siempre que P4
pertenezca al plano determinado por P1 , P2 y P3 .

b) Cuando P4 no esté en el plano determinado por P1 , P2 y P3 , entonces solo hay un


hiperplano en R4 que contiene esos cuatro puntos.
Demostración. La primera parte es consecuencia de la Proposición 4.7 y del hecho que
dados tres puntos cualesquiera en R4 , hay infinitos hiperplanos en R4 que los contienen.
Supongamos entonces que P4 no pertenece al único plano π que contiene a P1 , P2 y
P3 ; recuerde que este plano puede expresarse como
ÝÝÝÝÝÑ ÝÝÝÝÝÑ ÝÝÝÝÝÑ ÝÝÝÝÝÑ ÝÝÝÝÝÑ ÝÝÝÝÝÑ
π “ πpP1 , P2 ´ P1 , P3 ´ P1 q “ πpP2 , P1 ´ P2 , P3 ´ P2 q “ πpP3 , P1 ´ P3 , P2 ´ P3 q
Consideremos los puntos P1 ´ P4 , P2 ´ P4 y P3 ´ P4 ; afirmamos que la matriz M de
orden 3ˆ4 cuyas filas son P1 ´P4 , P2 ´P4 y P3 ´P4 tienen rango igual a 3 (rango máximo).
De no ser ası́, una de sus filas es combinación lineal de las otras dos; sin perder generalidad
supongamos que existen escalares α, β P R tales que P1 ´ P4 “ αpP2 ´ P4 q ` βpP3 ´ P4 q;
note que pα, βq R tp1, 0q, p0, 1qu y además se tiene
p1 ´ pα ` βqqpP1 ´ P4 q “ αpP2 ´ P1 q ` βpP3 ´ P1 q.
Si α ` β “ 1, tendrı́amos que P1 “ αP2 ` βP3 , lo cual contradice la no colinealidad de
P1 , P2 y P3 . Ası́ que α ` β ‰ 1, por tanto
P1 ´ P4 “ α1 pP2 ´ P1 q ` β 1 pP3 ´ P1 q,
Álgebra lineal: Nociones y propiedades elementales 153

para ciertos escalares α1 , β 1 . Pero esta igualdad dice que P4 pertenece a π, lo cual tampoco
es cierto; de esta manera queda demostrado que la matriz M tiene rango máximo.
Ahora tratemos de determinar N “ pa1 , a2 , a3 , a4 q P R4 no nulo tal que

xN, Pi ´ P4 y “ 0 para i “ 1, 2, 3.
» fi » fi
a1 0
—a ffi —0ffi
— 2 ffi
Dado que M tiene rango 3, el sistema de ecuaciones lineales M — ffi “ — ffi tiene una
— ffi
–a3 fl –0fl
a4 0
única variable libre, por lo que existen valores a1 , a2 , a3 y a4 , no todos nulos, de forma
que todo N que resuelve este sistema es la forma Nδ “ δN , con δ P R. Fijados estos
coeficientes a1 , a2 , a3 y a4 , la ecuación lineal homogénea a1 x1 ` a2 x2 ` a3 x3 ` a4 x4 “ 0
tiene a P1 ´ P4 , P2 ´ P4 y P3 ´ P4 como soluciones; además, si X es cualquier otra solución
de esta ecuación lineal homogénea, entonces existen escalares, digamos α, β, γ P R, tales
que X “ αpP1 ´ P4 q ` βpP2 ´ P4 q ` γpP3 ´ P4 q; recuerde que M tiene rango 3 y solamente
son requeridas tres soluciones de a1 x1 `a2 x2 `a3 x3 `a4 x4 “ 0 para constituir un generador
mı́nimo de sus soluciones. Ası́ pues, el conjunto

H “ tX P R4 : X “ P4 ` αpP1 ´ P4 q ` βpP2 ´ P4 q ` γpP3 ´ P4 q, α, β, γ P Ru

es un hiperplano en R4 y claramente contiene a P1 , P2 , P3 y P4 ; note que H está determi-


nado por la ecuación lineal a1 x1 ` a2 x2 ` a3 x3 ` a4 x4 “ b, donde b “ xN, P4 y; esto significa
que H “ tX P R4 : xN, X ´ P4 y “ 0u.
La unicidad de H sigue de la siguiente manera. Supongamos que N 1 P R4 no nulo y
c P R son tales que el hiperplano H 1 “ tX P R4 : xN 1 , X ´ P4 y “ 0u contiene los puntos
P1 , P2 , P3 y P4 . Dado que xN 1 , Pi ´ P4 y “ 0 para i “ 1, 2, 3, se tiene que N 1 es solución
del sistema lineal homogéneo cuya matriz es M ; por tanto N 1 es múltiplo de N (N 1 “ δN
para algún δ P R), y en consecuencia

H “ tX P R4 : xN, X ´ P4 y “ 0u1 “ tX P R4 : xN 1 , X ´ P4 y “ 0u “ H 1 ,

con lo cual la demostración está completa.

4.5.5. Posiciones relativas


Comencemos considerando dos hiperplanos cualesquiera H1 y H2 en Rn (n ě 2),
digamos que ellos son dados, respectivamente, por las ecuaciones lineales

a1 x1 ` ¨ ¨ ¨ ` an xn “ b y c1 x1 ` ¨ ¨ ¨ ` cn xn “ d.

Si quisiéremos conocer#la intersección de estos hiperplanos, debemos analizar el sistema


a1 x1 ` ¨ ¨ ¨ ` an xn “ b
de ecuaciones lineales , pues un punto px1 , ¨ ¨ ¨ , xn q P H1 X H2 si,
c1 x1 ` ¨ ¨ ¨ ` cn xn “ d
y solamente si, px1 , ¨ ¨ ¨ , xn q es solución del anterior sistema de ecuaciones lineales. Ahora
bien, para realizar este análisis se deben conocer tanto el rango de la matriz del sistema
154 Neptalı́ Romero
« ff « ff
a1 ¨ ¨ ¨ an a1 ¨ ¨ ¨ an b
, como el de la matriz ampliada . Note que este análisis
c1 ¨ ¨ ¨ cn c1 ¨ ¨ ¨ cn d
Ñ
Ý ÝÝÝÝÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÝÝÑ
depende de los vectores normales a los hiperplanos: N 1 “ pa1 , ¨ ¨ ¨ , an q y N 2 “ pc1 , ¨ ¨ ¨ , cn q
Proposición 4.9
Dados los hiperplanos de Rn :
H1 “ tpx1 , ¨ ¨ ¨ , xn q : a1 x1 `¨ ¨ ¨`an xn “ bu y H2 “ tpx1 , ¨ ¨ ¨ , xn q : c1 x1 `¨ ¨ ¨`cn xn “ du,
siempre se satisface solo una de las siguientes propiedades:
Ñ
Ý Ñ
Ý
1. Si N 1 y N 2 son no paralelos, entonces H1 X H2 ‰ H.
Ñ
Ý Ñ
Ý
2. Si N 1 k N 2 , entonces o H1 X H2 “ H, o bien H1 “ H2 .
Demostración. Mostraremos la segunda parte de la proposición, la primera queda como
un ejercicio para el lector.
Ñ
Ý Ñ
Ý
Si N 1 k N 2 , entonces existe α P Rzt0u tal que N2 “ αN1 . Luego tenemos
« ff « ff
a1 ¨ ¨ ¨ an b f2 ÝÑf2 ´α f1 a1 ¨ ¨ ¨ an b
ÝÝÝÝÝÝÝÝÑ .
c1 ¨ ¨ ¨ cn d 0 ¨ ¨ ¨ 0 d ´ αb
« ff
a1 ¨ ¨ ¨ an
De esta forma la matriz tiene rango 1, mientras que el rango de la matriz
c1 ¨ ¨ ¨ cn
ampliada es 1 cuando d “ αb, y el rango es 2 si d ‰ αb. En el segundo caso, el sistema
arriba considerado no tiene solución,# por lo que H1 y H2 son disjuntos. Por otro lado,
a1 x1 ` ¨ ¨ ¨ ` an xn “ b
si d “ αb, entonces es claro que tiene solución; es decir, H1 y
c1 x1 ` ¨ ¨ ¨ ` cn xn “ d
H2 tienen puntos en común; veamos que son iguales. Observe que X P H1 si, y solo si,
xN1 , Xy “ b; mientras que X P H2 si, y solo, xN2 , Xy “ d. Como N2 “ αN1 y d “ αb, con
α ‰ 0, se tiene
X P H2 ðñ xN2 , Xy “ d ðñ xαN1 , Xy “ αb ðñ xN1 , Xy “ b ðñ X P H1 ;
de donde H1 “ H2 .

Definición 4.18
Dos hiperplanos H1 y H2 de Rn (n ě 2) se dicen paralelos si sus vectores normales son
paralelos; esto se denota por H1 k H2 .
La proposición anterior dice que hiperplanos paralelos o son disjuntos o son iguales;
además, hiperplanos no paralelos siempre se intersectan.

Ejemplo 4.24
1. Las rectas L1 y L2 de R2 dadas, respectivamente, por x ` 2y “ 0 y 2x ` 4y “ ´2 son
Ñ
Ý ÝÝÝÑ Ñ Ý ÝÝÝÑ
paralelas pues sus vectores normales N 1 “ p1, 2q y N 2 “ p2, 4q son paralelos. Además,
dado que « ff « ff
1 2 0 f2 ÝÑf2 ´2 f1 1 2 0
ÝÝÝÝÝÝÝÝÑ ,
2 4 ´2 0 0 ´2
se concluyen que L1 X L2 “ H.
Álgebra lineal: Nociones y propiedades elementales 155

2. Al considerar las rectas L1 y L2 de R2 dadas por x ` 2y “ 0 y 2x ´ y “ 2, respec-


tivamente, se observa inmediatamente que ellas no son paralelas. Si#deseamos conocer
x ` 2y “ 0
su intersección, debemos analizar el sistema de ecuaciones lineales . En
2x ´ y “ 2
vista que « ff « ff
1 2 0 f2 ÝÑf2 ´2 f1 1 2 0
ÝÝÝÝÝÝÝÝÑ ,
2 ´1 2 0 ´5 2

las rectas solo se cortan en el punto p 45 , ´ 25 q.


En general, si L1 y L2 son dos rectas no paralelas cualesquiera de R2 , entonces L1 X L2
es un único punto. Se dejan la lector los detalles.

3. Consideremos ahora los planos paralelos de R3 dados por las ecuaciones lineales:

x ´ y ` z “ 2 y 2x ´ 2y ` 2z “ 1.

Dado que los términos independientes de estas ecuaciones no guardan la misma relación
de proporcionalidad que los coeficientes de ellas, se tiene qie los dos planos son disjuntos.
Ahora, si tomamos π1 como el plano dado por x ´ y ` z “ 2, y π2 el descrito por la
ecuación lineal
# 2x ´ y ` z “ 2, entonces px, y, zq P π1 X π2 si, y solo si, px, y, zq es
x´y`z “2
solución de . Observe que tales planos (hiperplanos de R3 ) no son
2x ´ y ` z “ 2
paralelos. Dado que
« ff « ff
1 ´1 1 2 f2 ÝÑf2 ´2 f1 1 ´1 1 2
ÝÝÝÝÝÝÝÝÑ ,
2 ´1 1 2 0 1 ´1 ´2
# #
x´y`z “2 x´y`z “2
entonces es equivalente a . En vista de ser z la
2x ´ y ` z “ 2 y ´ z “ ´2
variable libre de este sistema; al hacer, por ejemplo, z “ 0, se sigue que p4, ´2, 0q es una
solución
# particular de sistema. Por otro lado, la solución general del sistema homogéneo
x´y`z “0
es αp0, ´1, 1q, con α recorriendo el conjunto de los números reales.
y´z “0
De esta manera, un punto px, y, zq P π1 X π2 si, y solo si, existe un escalar α P R tal que
px, y, zq “ p4, ´2, 0q ` αp0, ´1, 1q. Esto significa que π1 X π2 es la recta que pasa por
ÝÝÝÝÝÝÑ
p4, ´2, 0q en la dirección del vector p0, ´1, 1q; en otras palabras, tenemos que π1 X π2
es la recta dada por x “ 4 y 2 ´ y “ z.
En general, se puede demostrar (los detalles se dejan al lector) que la intersección de
dos planos no paralelos cualesquiera de R3 siempre se intersectan en una recta.

Dado que las rectas de Rn con n ě 3 no son hiperplanos, no podemos hablar de vectores
normales de esas rectas, tal y como ocurre con las rectas de R2 que si son los hiperplanos
de R2 . No obstante, como toda recta se describe mediante un punto por donde pasa y un
vector que la dirige, es posible introducir la noción de paralelismo entre ellas a través de
sus vectores directores.
156 Neptalı́ Romero

Figura 4.14: Posiciones relativas de planos en R3 : paralelos disjuntos, y no paralelos.

Definición 4.19
Ñ
Ý Ñ
Ý
Dadas dos rectas LpP, A q y LpQ, B q en Rn (n ě 2), se dice que ellas son paralelas, se
Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý
denota por LpP, A q k LpQ, B q, si sus vectores directores A y B son paralelos.

Ejemplo 4.25
A diferencia de R2 , en R3 existen rectas no paralelas cuya intersección es vacı́a. En efecto,
Ñ
Ý Ñ
Ý Ñ
Ý ÝÝÝÝÑ
consideremos las rectas de R3 : LpO, E 1 q y LpP, E 2 q, donde P “ p0, 0, 1q, E 1 “ p1, 0, 0q y
Ñ
Ý Ý ÝÝ ÝÑ
E 2 “ p0, 1, 0q. En otras palabras, tenemos
Ñ
Ý Ñ
Ý
LpO, E 1 q “ tpx, y, zq P R3 : y “ 0, z “ 0u y LpP, E 2 q “ tpx, y, zq P R3 : x “ 0, z “ 1u.
Ñ
Ý Ñ
Ý
Observe que los vectores directores de tales rectas no son paralelos, de hecho E 1 K E 2 .
Ñ
Ý Ñ
Ý
Además, es claro que LpO, E 1 qXLpP, E 2 q “ H. La siguiente figura muestra esta situación.

Figura 4.15: Ilustración de dos rectas disjuntas y no paralelas en R3 .

A raı́z de este ejemplo resulta interesante analizar la forma en que ocurre la intersección
de dos rectas cualesquiera en Rn con n ě 3. La situación en R2 está completamente descrita
pues se trata de hiperplanos de R2 .

Proposición 4.10
Dadas rectas cualesquiera LpP, Aq y LpQ, Bq en Rn , n ě 3, se tiene:
Ñ
Ý Ñ Ý
1. Si A k B , entonces o LpP, Aq X LpQ, Bq “ H, o bien LpP, Aq “ LpQ, Bq.
Ñ
Ý Ñ Ý
2. Si A ∦ B (no paralelos), entonces o las rectas son disjuntas, o bien LpP, Aq X LpQ, Bq
es un único punto.
Álgebra lineal: Nociones y propiedades elementales 157

Demostración. Demostraremos la segunda parte, la primera se deja como ejercicio.


Ñ
Ý Ñ Ý
Supongamos que A ∦ B y LpP, AqXLpQ, Bq ‰ H; mostraremos que LpP, AqXLpQ, Bq
Ñ
Ý Ñ Ý
es un único punto. Recordemos que A ∦ B equivale a que ninguno de tales vectores se
escribe como un múltiplo del otro. Ahora como LpP, Aq X LpQ, Bq ‰ H, supongamos que
X, Y P LpP, Aq X LpQ, Bq; esto es, existen escalares α, α1 , β y β1 en R tales que

X “ P ` αA “ Q ` βB y Y “ P ` α1 A “ Q ` β1 B;

de acá sigue inmediatamente que P ´ Q “ βB ´ αA y P ´ Q “ β1 B ´ α1 A. Por tanto,


Ñ
Ý Ñ
Ý
se tiene pβ ´ β1 qB “ pα ´ α1 qA. Note que si β “ β1 , entonces α “ α1 pues A ‰ O ; de
Ñ
Ý Ñ
Ý
donde X “ Y . Por otro lado, β ‰ β1 , entonces α ‰ α1 ya que B ‰ O ; luego B “ α´α
β´β1 A,
1

Ñ
Ý Ñ Ý
lo cual no puede ser pues A ∦ B . Ası́ la demostración está completa.

Pasemos ahora a considerar la noción de ángulo entre dos rectas cualesquiera. Para
fijar ideas mostramos el siguiente ejemplo.

Ejemplo 4.26
Consideremos en R2 las rectas L1 y L2 dadas respectivamente por las ecuaciones x “ 0
Ñ
Ý Ñ
Ý Ñ
Ý ÝÝÝÑ
y x ´ y “ 0. Es claro que L1 “ LpO, E 2 q y L2 “ LpO, A q, donde A “ p1, 1q. Note que
el origen O es el único punto común a ambas rectas; podrı́amos decir que el ángulo entre
Ñ
Ý Ñ
Ý
estas rectas es el ángulo formado por los vectores directores E 2 y A ; este es el ángulo
Ñ
Ý Ñ Ý
x E 2, A y 1 π
θ1 P r0, πs tal que cos θ1 “ Ñ Ý Ý “ ? ; por lo que θ1 “ 4 (recordar la Definición
Ñ
} E 2} } A } 2
4.10 en la página 130).
Ñ
Ý
Por otra parte, el vector ´ A también puede ser considerado como director de la recta
Ñ
Ý Ñ
Ý ÝÝÝÝÝÝÑ
L2 , y el ángulo formado entre los vectores E 2 y ´ A “ p´1, ´1q es dado por el valor
Ñ
Ý Ñ
Ý
x E 2, ´ A y 1 3π
θ2 P r0, πs tal que cos θ2 “ Ñ Ý ÑÝ “ ´ ? ; ası́ θ2 “ 4 . En esta disyuntiva,
} E 2} } ´ A } 2
¿qué ángulo debemos considerar como el formado por las dos rectas?

Definición 4.20
Dadas dos rectas cualesquiera L1 y L2 en Rn (n ě 2) con intersección no vacı́a, se define
el ángulo entre L1 y L2 , lo cual se denota por >pL1 , L2 q, como el menor ángulo formado
entre los directores de ambas rectas.

Comentario 4.7
Supóngase que se tienen dos rectas L1 y L2 en Rn (n ě 2) con intersección no vacı́a;
Ñ
Ý Ñ
Ý
supóngase además que A y B son vectores directores de estas rectas. Como sabemos,
Ñ
Ý Ñ
Ý
cualesquiera sean los escalares α, β P R no nulos, α A y β B también son directores de L1
y L2 respectivamente. Hagamos el siguiente cálculo:
$ ÑÝ Ñ Ý
xA, By
Ý , si αβ ą 0


’ Ñ
Ý Ñ
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý &} A } }B }


xα A , β B y αβx A , B y
Ñ
Ý Ý “
Ñ Ñ
Ý Ñ Ý “ .
}α A } }β B } |α| |β|} A } } B } ’ Ñ
Ý Ñ Ý
xA, By



%´ Ñ Ý , si αβ ă 0

Ý Ñ
} A } }B }
158 Neptalı́ Romero

De esta forma, al analizar la gráfica de la función coseno como determinadora del ángulo
entre vectores no nulo, ver página 131, tenemos que el ángulo entre dos rectas con inter-
sección no vacı́a es el ángulo entre cualesquiera de sus vectores directores cuyo producto
interno sea no negativo; pues cuando tal producto interno es no negativo, el ángulo está en
el intervalo r0, π2 s; en cuanto que si el producto interno es negativo, entonces el ángulo en-
tre los directores pertenece al intervalo p π2 , πs. En particular, el ángulo entre las dos rectas
del ejemplo anterior es θ “ π4 ; en lugar de 3π 4 .
Obviamente el ángulo entre una recta consigo misma es nulo. Por otra parte, si dos
rectas que se intersectan son tales que algunos de sus directores son perpendiculares,
entonces cualesquiera otro par de directores también son perpendiculares. De esta forma,
diremos que dos rectas en Rn (n ě 2) con intersección no vacı́a son perpendiculares, si
lo son sus directores; simbólicamente: LpP, Aq K LpQ, Bq si LpP, Aq X LpQ, Bq ‰ H y
Ñ
Ý Ñ
Ý
A K B.
En importante señalar que no tiene sentido hablar de ángulo entre rectas que no se
cortan, pues sencillamente ellas no determinan ningún ángulo.

4.5.6. Distancias entre puntos, rectas y planos


Ñ
Ý
Sean Q P Rn y L la recta que pasa por P P Rn con dirección A P RnO ; es decir,
Ñ
Ý Ñ
Ý
L “ LpP, A q. Si queremos definir la distancia entre el punto Q y la recta LpP, A q, lo
Ñ
Ý Ñ
Ý
primero es decretar que la distancia entre Q y LpP, A q es igual a 0 si Q P LpP, A q. Ahora, si
Ñ
Ý
Q no está en LpP, A q, entonces la situación es sustancialmente diferente, pues deberı́amos
Ñ
Ý
cálcular la distancia de Q a cada punto R de LpP, A q, y de todas esas distancias escoger la
Ñ
Ý
menor de ellas como la distancia entre el punto Q y la recta LpP, A q. Recordamos que si
Q “ pq1 , ¨ ¨ ¨ , qn q y R “ pr1 , ¨ ¨ ¨ , rn q son puntos cualesquiera de Rn , entonces la distancia
entre ellos es dada por
ÝÝÝÝÑ a
dpQ, Rq “ }R ´ Q} “ pr1 ´ q1 q2 ` ¨ ¨ ¨ ` prn ´ qn q2 .

La siguiente proposición es el inicio del camino que debe tomarse para definir la dis-
Ñ
Ý Ñ
Ý
tancia entre Q y LpP, A q cuando Q R LpP, A q.

Proposición 4.11
Ñ
Ý Ñ
Ý
Sean Q P Rn y LpP, A q la recta de Rn que pasa por P P Rn en la dirección de A P RnO .
Ñ
Ý
Si Q R LpP, A q, entonces existe una única recta L1 en Rn tal que:

1. Q P L1 ,
Ñ
Ý
2. L1 y LpP, A q se intersectan perpendicularmente.
Ñ
Ý
Demostración. En realidad lo que deseamos encontrar es un punto R P LpP, A q tal que
ÝÝÝÝÑ Ñ Ý Ý
Ý ÝÝÑ
R ´ Q K A , y ası́ la recta L1 será la que pasa por Q con director R ´ Q. En otras palabras,
ÝÝÝÝÑ Ñ Ý
un punto R “ P ` αA para algún α P R, tal que xR ´ Q, A y “ 0. Siendo ası́ tenemos
ÝÝÝÝÑ ÑÝ ÝÝÝÝÝÝÝÝÝÑ Ñ Ý ÝÝÝÝÑ Ñ
Ý Ñ Ý ÝÝÝÝÑ ÑÝ Ñ
Ý
0 “ xR ´ Q, A y “ xP ´ Q ` α A, A y “ xP ´ Q ` α A , A y “ xP ´ Q, A y ` α} A }2 ;
Álgebra lineal: Nociones y propiedades elementales 159

Figura 4.16: Distancia de un punto a una recta, siendo que el punto no pertence a la recta dada.

ÝÝÝÝÑ Ñ Ý ÝÝÝÝÑ Ñ Ý
xQ ´ P , A y xQ ´ P , A y ÝÝÝÝÑ
por tanto α “ Ñ
Ý 2 y ası́ R “ P ` Ñ
Ý 2 A. Luego para L1 “ LpQ, R ´ Qq se
}A} }A}
tiene por construcción:
Ñ
Ý Ñ
Ý
Q P L1 , L1 X LpP, A q “ tRu y L1 K LpP, A q.
Ñ
Ý
Los detalles de la unicidad se dejan al lector. Note que si S es cualquier punto en LpP, A q,
ÝÝÝÝÑ ÝÝÝÝÑ
entonces del Teorema general de Pitágoras sigue que }Q ´ R} ď }Q ´ S}. Por tanto, la
Ñ
Ý
menor de las distancia de Q a cualquier punto de LpP, A q ocurre entre Q y R.

Como se habrá observado, en la demostración del teorema anterior se obtiene un punto


Ñ
Ý
exclusivo R en LpP, A q de manera que la distancia entre Q y R es menor o igual que la
Ñ
Ý
distancia entre Q y cualquiera otro punto S de LpP, A q. Uno podrı́a preguntarse por una
fórmula para esa distancia, lo que ciertamente tiene una respuesta en términos de los
Ñ
Ý
datos; es decir, dependiendo de los puntos Q y P y del vector A ; veamos.
Haciendo uso del Teorema general de Pitágoras tenemos:
ÝÝÝÝÑ ÝÝÝÝÑ ÝÝÝÝÑ
pdpQ, Rqq2 “ }Q ´ R}2 “ }Q ´ P }2 ´ }R ´ P }2
ÝÝÝÝÑ Ñ Ý
ÝÝÝÝÑ ÑÝ xQ ´ P , A y Ñ
Ý Ñ Ý
“ } Q ´ P }2 ´ } P ` Ñ
Ý 2 A ´ P }2
}A}
ÝÝÝÝÑ Ñ Ý ÝÝÝÝÑ Ñ Ý
ÝÝÝÝÑ xQ ´ P , A y Ñ
Ý 2 ÝÝÝÝÑ 2 |xQ ´ P , A y|2
“ } Q ´ P }2 ´ } Ñ
Ý A } “ }Q ´ P } ´ Ñ
Ý
} A }2 } A }2
Ñ
Ý ÝÝÝÝÑ ÝÝÝÝÑ Ñ Ý
} A }2 }Q ´ P }2 ´ |xQ ´ P , A y|2
“ Ñ
Ý .
} A }2

De donde
d
Ñ
Ý ÝÝÝÝÑ ÝÝÝÝÑ Ñ Ý
ÝÝÝÝÑ } A }2 }Q ´ P }2 ´ |xQ ´ P , A y|2
dpQ, Rq “ }Q ´ R} “ Ñ
Ý ,
} A }2

que es sin dudas una fórmula muy simple de olvidar; por ello es mejor recurrir al significado
y a la obtención del punto R como arriba descrito. De cualquier manera, una definición
Ñ
Ý
general de la distancia de una punto Q a la recta LpP, A q es
160 Neptalı́ Romero

Ñ
Ý Ñ
Ý
dpQ, LpP, A qq “ mı́nt}Q ´ S} : S P LpP, A qu.

Ñ
Ý Ñ
Ý
Observe que si Q P LpP, A q, entonces dpQ, LpP, A q “ 0; en otro caso ese número es
positivo y esa dado por la expresión dpQ, Rq de arriba.

Ejemplo 4.27
Consideremos la recta L en R3 dada por la ecuación
x´1 y´3
“ “ z ` 1.
2 2
Ñ
Ý Ñ
Ý ÝÝÝÝÑ
Claramente L “ LpP, A q, donde P “ p1, 3, ´1q y A “ p2, 2, 1q. Deseamos calcular la
distancia que hay entre el punto Q “ p0, 1, 0q y L. En vista que Q no pertenece a esta
recta (sus coordenadas no satisfacen la ecuación que la definen), debemos obtener un punto
Ñ
Ý ÝÝÝÝÑ Ñ Ý ÝÝÝÝÑ
R P LpP, A q tal que R ´ Q K A , para ası́ tener que dpQ, Lq “ }Q ´ R}.
Como antes, R debe satisfacer la fórmula R “ P ` α A para algún α P R. De ello, y
ÝÝÝÝÑ Ñ
Ý
usando que xR ´ Q, A y “ 0 se tiene
ÝÝÝÝÑ ÑÝ ÝÝÝÝÑ Ñ
Ý Ñ Ý
0 “ xR ´ Q, A y “ xP ´ Q ` α A , A y
ÝÝÝÝÑ ÑÝ Ñ
Ý
“ xP ´ Q, A y ` α } A }2 ;
ÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÝÑ ÝÝÝÝÑ
xQ ´ P , A y xp´1, ´2, 1q, p2, 2, 1qy 5
luego α “ Ñ
Ý 2 “ “ ´ y ası́ tenemos R “ 19 p´1, 17, ´14q.
}A} 9 9
De esta forma:
Ñ
Ý ÝÝÝÝÑ ÝÝÝÝÝÝÝÑ ? ? ?
dpQ, LpP, A qq “ }Q ´ R} “ }p 91 , ´ 89 , 14 1 1 1
9 q} “ 9 1 ` 64 ` 196 “ 9 261 “ 3 29.

Ñ
Ý
Observe que la recta que contiene a Q y R, por tanto perperdicular a LpP, A q, está dada
y´1 z
por la ecuación cartesiana x “ “ , pues pasa por Q “ p0, 1, 0q y el vector
´8 14
ÝÝÝÝÝÝÝÑ ÝÝÝÝÑ
p1, ´8, 14q sirve como director ya que es paralelo a Q ´ R.

Daremos un paso más, ahora deseamos determinar la distancia entre dos rectas, las
cuales suponemos tienen intersección vacı́a; pues si dos rectas se cortan, entonces es natural
asumir como 0 la distancia entre ellas.
Consideremos primero el caso de dos rectas paralelas, como sabemos ellas las podemos
Ñ
Ý Ñ
Ý
expresar mediante el mismo vector director. Sean LpP1 , A q y LpP2 , A q las rectas paralelas
Ñ
Ý Ñ
Ý
a las que queremos calcular la distancia dpLpP1 , A q, LpP2 , A qq entre ellas. Para obtener
Ñ
Ý
este valor tomamos cualquier punto Q en una de esas rectas, digamos en LpP1 , A q, para
Ñ
Ý
luego mediante el procedimiento anterior obtener el único punto R P LpP2 , A q, como
ÝÝÝÝÑ Ñ
Ý
arriba descrito, tal que Q ´ R sea perpendicular a A , y ası́
Ñ
Ý Ñ
Ý ÝÝÝÝÑ
dpLpP1 , A q, LpP2 , A qq “ }Q ´ R}.

Cabe destacar que esto es suficiente; es decir, si en lugar de Q hubiesemos tomado


Ñ
Ý Ñ
Ý
cualquier otro punto Q1 P LpP1 , A q, entonces el único punto R1 P LpP2 , A q que hace
Álgebra lineal: Nociones y propiedades elementales 161

Figura 4.17: Distancia entre rectas paralelas

ÝÝ1ÝÝÝÑ1 Ñ
Ý ÝÝÝÝÝÑ ÝÝÝÝÑ
Q ´ R K A , es tal que }Q1 ´ R1 } “ }Q ´ R}. Para verificar esto basta observar que
Q1 “ Q ` βA y R1 “ R ` βA para algún β P R.
En cuanto al cálculo de la distancia entre dos rectas no paralelas con intersección vacı́a,
aunque es un poco más laborioso que el anterior cálculo, conlleva las mismas ideas. Dadas
L1 y L2 rectas no paralelas y disjuntas en Rn (necesariamente n ě 3), se deben obtener
ÝÝÝÝÝÑ
puntos (de hecho únicos) Q1 P L1 y Q2 P L2 de forma que Q1 ´ Q2 sea simultáneamente
perpendicular a los directores de estas rectas; luego mostrar que para todo Q11 P L1 y
Q12 P L2 se tiene }Q1 ´ Q2 } ď }Q11 ´ Q12 }, con lo cual la distancia entre las dos rectas dadas
es definida como dpL1 , L2 q “ }Q1 ´ Q2 }; ver ejercicio 60 en la página 172.

Ejemplo 4.28
Vamos a determinar la distancia entre las rectas paralelas L1 y L2 de R3 dadas, respecti-
vamente, por las ecuaciones cartesianas:

x´1 y`2 x y´3


“ “z y “ “ z ´ 2.
2 ´1 2 ´1
Ñ
Ý Ñ
Ý Ñ
Ý
Claramente L1 “ LpP, A q y L2 “ LpQ, A q, donde P “ p1, ´2, 0q, Q “ p0, 3, 2q y A “
ÝÝÝÝÝÝÑ
p2, ´1, 1q. Según lo descrito en el comentario anterior, debemos encontrar un punto (¡de
Ñ
Ý ÝÝÝÝÑ Ñ
Ý Ñ
Ý Ñ
Ý
hecho único!) S P LpQ, A q tal que P ´ S K A y ası́ tener que dpLpP, A q, LpQ, B qq “
ÝÝÝÝÑ Ñ
Ý ÝÝÝÝÑ Ñ Ý
}P ´ S}. Dado que queremos S P LpQ, A q con P ´ S K A , debemos encontrar α P R de
ÝÝÝÝÑ ÑÝ ÝÝÝÝÑ ÝÝÝÝÑ Ñ
Ý
manera que S “ Q ` αA y xP ´ S, A y “ 0; como que P ´ S “ P ´ Q ´ α A , entonces
ÝÝÝÝÑ ÑÝ ÝÝÝÝÑ ÑÝ Ñ
Ý
0 “ xP ´ S, A y “ xP ´ Q, A y ´ α} A }2 ;
ÝÝÝÝÑ ÑÝ ÝÝÝÝÝÝÝÑ ÝÝÝÝÝÝÑ
xP ´ Q, A y xp1, ´5, ´2q, p2, ´1, 1qy 5
por tanto α “ Ñ
Ý 2 “ ÝÝÝÝÝÝÑ 2 “ y ası́ S “ p 53 , 13 17
6 , 6 q. De esta
}A} }p2, ´1, 1q} 6
c
Ñ
Ý Ñ
Ý ÝÝÝÝÑ ÝÝÝ2ÝÝÝÝÝÝÝÝ
25
Ñ
17 155
forma se sigue que dpLpP, A q, LpQ, A qq “ }P ´ S} “ }p´ 3 , ´ 6 , ´ 6 q} “ .
6
Hemos considerado el problema de calcular la distancia entre un punto y una recta
que no lo contenga, ası́ como la distancia entre dos rectas con intersección vacı́a; ahora
pasaremos a estudiar el mismo problema pero relativo a planos, rectas y puntos en R3 .
Antes recordemos que un plano siempre queda determinado por cualquiera de las siguientes
situaciones:

tres puntos no colineales P, Q y R, en cuyo caso todo punto X del plano que pasa
por esos puntos se expresa por X “ P ` αpR ´ P q ` βpQ ´ P q, con α, β P R;
162 Neptalı́ Romero
Ñ
Ý Ñ
Ý
un punto P por donde pasa y dos vectores no paralelos y no nulos A y B que lo
dirigen; en este caso, X pertenece a tal plano si, y solo si, existen escalares α, β P R
tales que X “ P ` αA ` βB;
Ñ
Ý
un punto P por donde pasa el plano y un vector normal N al mismo; en esta situación
ÝÝÝÝÑ Ñ Ý
un punto X está en tal plano si, y solamente si, xX ´ P , N y “ 0.

Definición 4.21
Dados una recta L y un plano π en R3 , se dice que:

1. L y π son paralelos, lo cual se denota por L k π, si el director de L es combinación


lineal de los directores de π.

2. L y π son perpendiculares, simbólicamente L K π, si el director de L es normal al


plano.

Antes de discutir el problema que nos concierne, destacamos (sin demostración) las
siguientes propiedades del paralelismo entre rectas y planos en R3 .

Proposición 4.12
Dadas una recta L y un plano π de R3 , siempre valen:

1. si L k π, entonces o L X π “ H o bien L Ă π;

2. si L ∦ π, entonces L X π es un punto.

Demostración. Se deja al lector.

Figura 4.18: Ilustración de las posiciones relativas de planos y rectas en R3 .

Ñ
Ý Ñ
Ý
Consideremos en R3 un punto Q y un plano, digamos πpP, N q. Si Q P πpP, N q, diremos
Ñ
Ý Ñ
Ý
que la distancia dpQ, πpP, N qq entre Q y πpP, N q es igual a 0; la razón de esta asignación
es la misma cuando se introdujo la distancia entre un punto y una recta. Supongamos
Ñ
Ý Ñ
Ý
por tanto que Q R πpP, N q, queremos encontrar un punto R P πpP, N q de manera que la
distancia dpQ, Rq entre Q y R sea menor o igual a la distancia dpQ, Sq, cualquiera sea el
Ñ
Ý
punto S P πpP, N q. El punto R es justamente la intersección de la recta que pasa por Q
Ñ
Ý
con director N , luego del Teorema general de Pitágoras sigue que dpQ, Rq ď dpQ, Sq para
Ñ
Ý
todo S P πpP, N q. Observe que el punto R se obtiene resolviendo
ÝÝÝÝÑ Ñ Ý
R ´ P K N y R “ Q ` αN, para algún α P R.
Álgebra lineal: Nociones y propiedades elementales 163

Figura 4.19: Distancia entre un punto y plano de R3 que no lo contiene

ÝÝÝÝÑ Ñ Ý
ÝÝÝÝÑ Ñ
Ý Ñ Ý ÝÝÝÝÑ Ñ Ý Ñ
Ý xP ´ Q, N y
De acá que xQ ´ P ` α N , N y “ 0 y xQ ´ P , N y ` α} N }2 “ 0, ası́ α “ Ñ
Ý y
} N }2
ÝÝÝÝÑ Ñ Ý ÝÝÝÝÑ Ñ Ý
xP ´ Q, N y ÝÝÝÝÑ |xP ´ Q, N y|
por tanto R ´ Q “ Ñ
Ý N ; note que }R ´ Q} “ Ñ
Ý . De esta forma, la
} N }2 }N }
Ñ
Ý
distancia entre Q y πpP, N q es dada por

ÝÝÝÝÑ Ñ Ý
Ñ
Ý |xP ´ Q, N y|
dpQ, πpP, N qq “ Ñ
Ý .
}N }

Ñ
Ý ÝÝÝÝÑ ÑÝ
Note que de esta fórmula, si Q P πpP, N q, entonces xP ´ Q, N y “ 0, por lo que
Ñ
Ý Ñ
Ý ÝÝÝÝÑ ÑÝ
dpQ, πpP, N qq “ 0; mientras que si Q R πpP, N q, entonces xP ´ Q, N y ‰ 0, y en conse-
Ñ
Ý
cuencia dpQ, πpP, N qq ą 0.

Observación 4.4
Aprovechando esta discusión, podemos resaltar que si L y π son una recta y un plano en
R3 de forma que L k π, entonces la distancia entre ellos se obtiene con el mismo cálculo
anterior al tomar cualquier punto Q en la recta L.

Ejemplo 4.29
Consideremos el plano π de R3 que pasa por los puntos P1 “ p1, 1, 1q, P2 “ p0, 2, 1q y
P3 “ p2, ´1, 2q; y sea Q “ p´2, 0, 0q. Determinaremos la distancia entre S y π.
Primero observe que en efecto los puntos P1 , P2 , P3 determinan un plano; esto es
ÝÝÝÝÝÑ ÝÝÝÝÝÝÑ ÝÝÝÝÝÑ ÝÝÝÝÝÝÝÑ
ası́ pues los vectores P1 ´ P2 “ p1, ´1, 0q y P1 ´ P3 “ p´1, 2, ´1q no son paralelos; es
decir, P1 , P2 y P3 son no colineales. Un vector normal a este plano se obtiene mediante el
producto vectorial de los vectores que dirigen al plano. En este caso:
ˇ ˇ ˇ ˇ ˇ ˇ
Ñ
Ý ÝÝÝÝÝÑ ÝÝÝÝÝÑ ˇ ´1
ˇ 0 ˇ
ˇÑÝ
ˇ 1 0 ˇ
ˇÑÝ
ˇ 1 ´1 ˇ
ˇÑÝ ÝÝÝÝÑ
N “ P1 ´ P2 ˆ P1 ´ P3 “ ˇ ˇ E1 ´ ˇ ˇ E2 ` ˇ ˇ E 3 “ p1, 1, 1q.
ˇ ˇ
ˇ 2 ´1 ˇ ˇ ´1 ´1 ˇ ˇ ´1 2 ˇ

Ñ
Ý Ñ
Ý
De esta forma, π “ πpP1 , N q y X “ px, y, zq está en el plano πpP1 , N q si, y solo si, se
ÝÝÝÝÝÝÝÝÝÝÝÝÝÝÑ ÝÝÝÝÑ Ñ
Ý
cumple xpx ´ 1, y ´ 1, z ´ 1q, p1, 1, 1qy “ 0. Observe que Q R πpP1 , N q pues

ÝÝÝÝÑ ÝÝÝÝÑ ÝÝÝÝÝÝÝÝÝÑ ÝÝÝÝÑ


xQ ´ P1 , p1, 1, 1qy “ xp´3, ´1, ´1q, p1, 1, 1qy “ ´5.
164 Neptalı́ Romero
ÝÝÝÝÑ Ñ Ý
Ñ
Ý |xP1 ´ Q, N y| 5
Luego dpQ, πpP1 , N qq “ Ñ
Ý “ ? . En lugar de haber usado la anterior fórmula,
}N } 3
hemos podido proceder como lo hicimos antes: determinar el punto R que hace mı́nima la
distancia entre Q y cada punto del plano.

Observación 4.5
1. La distancia entre dos planos paralelos en R3 que no se intersecten es dada por la
distancia entre cualquier punto de uno de los planos considerados y el otro plano.

2. De la noción de ángulo entre dos rectas que se intersectan podemos definir el ángulo
entre planos de R3 . En efecto, dados dos planos π1 y π2 de R3 con vectores normales
Ñ
Ý Ñ
Ý
N 1 y N 2 , definimos el ángulo entre ellos como
Ñ
Ý Ñ
Ý
>pπ1 , π2 q “ >pLpO, N 1 q, LpO, N 2 qq;

es decir, el ángulo entre π1 y π2 es el ángulo entre las rectas que pasan por el origen
Ñ
Ý Ñ
Ý
con directores N 1 y N 2 respectivamente. Note que el ángulo entre planos paralelos es
nulo.

3. Lo discutido en este apartado es válido si en lugar de R3 lo hubiesemos discutido en


Rn (n ě 3), y en lugar de planos considerar hiperplanos.

4.6. Ejercicios Propuestos


1. Represente gráficamente cada uno de los puntos que a continuación se listan:
a) p1, 2q b) p 32 , ´1q c) p0, 4q d) p1, 2, 3q e) p´1, 0, ´2q f ) p´2, 4, ´1q

2. Dados los puntos A “ p1, 2, 1q, B “ p0, ´1, 2q, C “ p´1, ´1, 3q y D “ p0, 1, 0q, calcular:
a) A ` B b) 3D ´ C ` 3B c) 2A ´ 4B ` C ´ D d) A ´ 2B ` C

3. Responder a cada una de las siguientes interrogantes:

a) ¿Es p2, 1q combinación lineal de p1, ´1q y p2, ´1q?


b) ¿Es p2, 1q combinación lineal de p1, ´1q y p2, ´2q?
c) ¿Es p´1, 2, 1q combinación lineal de p1, 0, 0q, p1, 1, 0q y p1, 1, 1q?
d) ¿Es pa, b, cq combinación lineal de p1, 0, 0q, p1, 1, 0q y p1, 1, 1q?
e) ¿Qué caracteriza a los puntos px, y, zq del conjunto CLrtp1, 0, 0q, p1, 1, 0q, p1, 1, 1qus?

4. ¿De cuántas formas puede escribirse p0, 0q como combinación lineal de p2, 1q, p1, 0q y
p´1, 2q? ¿Y como combinación lineal de p2, 1q y p1, 0q?

5. Verificar que CLrtp2, 1q, p1, 0qus “ R2 .

6. Demostrar que si A P Rn es combinación lineal de A1 , A2 , ¨ ¨ ¨ , Am P Rn , entonces A es


combinación lineal de A1 , A2 , ¨ ¨ ¨ , Am , B para cualquier otro punto B P Rn .
Álgebra lineal: Nociones y propiedades elementales 165

7. Suponga que A P Rn es combinación lineal de A1 , A2 , ¨ ¨ ¨ , Am P Rn y que cada Aj


(1 ď j ď m) es combinación lineal de C1 , C2 , ¨ ¨ ¨ , C` . Demostrar que A es combinación
lineal de C1 , C2 , ¨ ¨ ¨ , C` .

8. Suponga que A P Rn es combinación lineal de A1 , A2 , ¨ ¨ ¨ , Am P Rn y que A1 es combi-


nación lineal de A2 , ¨ ¨ ¨ , Am . Demostrar que A es combinación lineal de A2 , ¨ ¨ ¨ , Am .

9. Demostrar que CLrtpa, bqus Ř R2 para todo pa, bq P R2 . ¿Qué puntos de R2 pertenecen
a CLrtpa, bqus?

10. Sean pa, bq y pc, dq puntos de R2 tales que para algún α P R se tiene que pa, bq “
αpc, dq. Demostrar que CLrtpa, bq, pc, dqus Ř R2 . ¿Qué puntos de R2 pertenecen a
CLrtpa, bq, pc, dqus?

11. Sean pa, bq y pc, dq puntos de R2 tales que CLrtpa, bq, pc, dqus “ R2 . Demostrar:

a) El origen O “ p0, 0q se escribe de una única forma como combinación lineal de pa, bq
y pc, dq.
b) Ninguno de los puntos pa, bq y pc, dq puede ser igual al origen.
c) No existe α P R tal que pa, bq “ αpc, dq. ¿Puede existir β P R tal que βpa, bq “ pc, dq?
d) ad ´ bc ‰ 0.

12. Representar gráficamente los siguientes vectores:


ÝÝÝÝÝÝÝÝÑ ÝÝÝÝÝÝÝÝÑ ÝÝÝÝÝÝÝÝÑ ÝÝÝÝÝÝÝÝÝÝÑ
a) p0, 1qp´3, 2q, p´1, 0qp1, 3q, p2, 2qp´5, 1q, p4, 4qp´1, ´1q.
ÝÝÝÝÝÝÝÝÝÝÝÝÑ ÝÝÝÝÝÝÝÝÝÝÑ ÝÝÝÝÝÝÝÝÝÝÝÝÑ ÝÝÝÝÝÝÝÝÝÝÝÝÝÑ
b) p1, 0, 1qp´2, 3, 2q, p1, 1, 0qp0, 3, 4q, p0, ´1, 0qp3, 0, 2q, p´3, 1, 1qp4, 1, ´2q.

13. a) Para los vectores dados en la parte a) del ejercicio anterior, encontrar y representar
gráficamente los vectores equivalentes anclados en: O, P “ p2, ´3q y Q “ p0, 3q.
b) Para los vectores dados en la parte b) del ejercicio anterior, encontrar y represen-
tar gráficamente los vectores equivalentes anclados en: O, P “ p´1, 3, 1q y Q “
p1, 0, ´1q.
ÝÑ Ý Ñ Ý
Ñ
c) Considere los vectores canónicos de Rn : E1 , E2 , ¨ ¨ ¨ , En . Sea P “ pp1 , p2 , ¨ ¨ ¨ , pn q en
Rn diferente del origen. Para cada i “ 1, 2, ¨ ¨ ¨ , n demostrar que existe un único pun-
Ý
Ñ ÝÝÑ
to Qi en Rn tal que Ei ” P Qi . Determine los puntos Qi . Representar gráficamente
esta situación en R2 y R3 .

14. Demostrar que la equivalencia y paralelismo de vectores son relaciones de equivalencia.


ÝÝÑ ÝÝÑ ÝÑ ÝÝÑ
15. Sean AB y P Q vectores equivalentes no nulos en R2 . Demostrar que AP y BQ también
son equivalentes. Mostrar esta situación gráficamente y explicar qué ocurre con los
ÝÑ ÝÝÑ
vectores AQ y BP . Indague sobre estas mismas relaciones en Rn con n ą 2.
Ý
Ñ
16. Sean A, B, P, Q puntos de Rn tales que, A ‰ B, P ‰ Q y A ‰ P . Sean, M el vector
ÝÝÑ ÑÝ
anclado en el origen y equivalente al vector AB y N el vector anclado en el origen y
ÝÝÑ
equivalente a P Q.
166 Neptalı́ Romero
Ý
Ñ Ñ Ý
a) Decidir si M ‰ N .
ÝÝÑ ÝÝÑ Ý
Ñ Ñ Ý
b) Demostrar que AB k P Q si, y solo si, M k N .
ÝÝÑ ÝÝÑ Ý
Ñ Ñ Ý
c) Demostrar que AB ” P Q si, y solo si, M “ N .

17. Sean P y Q puntos en Rn diferentes del origen y P ‰ Q. Encontrar condiciones para


ÝÝÑ
que un vector anclado en P sea paralelo al vector P Q, donde Q “ αP . ¿Cuáles de tales
ÝÝÑ
vectores paralelos a P Q tienen su mismo sentido, y cuáles tienen sentido diferente?
Ñ
Ý ÝÝÝÑ ÑÝ ÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÑ
18. Dados los vectores A “ p1, 4q, B “ p2, 2q y C “ p´3, ´2q. Calcular y representar
Ñ
Ý Ñ Ý Ñ Ý Ñ Ý Ñ Ý Ñ Ý Ñ
Ý Ñ Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
gráficamente A ` B , A ` C , B ` C , p´1q A , B ´ A , y p A ` B q ` A ` C .
Ñ
Ý ÝÝÝÝÑ ÝÝÝÝÑ ÝÝÝÝÝÝÑ ÝÝÝÝÑ
19. a) Comprobar que A “ p1, 3, 4q es combinación lineal de p2, 0, 1q, p0, ´1, 3q y p2, 3, 4q;
ÝÝÝÝÑ ÝÝÝÝÝÝÑ ÝÝÝÝÝÝÝÑ
pero no de p2, 0, 1q, p0, ´1, 3q y p´2, 1, ´4q.
ÝÝÝÝÑ ÝÝÝÝÑ ÝÝÝÝÝÝÑ
b) Demuetre que CLrtp1, 3, 4q, p2, 0, 1q, p0, ´1, 3qus “ R3O .
Ñ
Ý ÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÑ Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý
c) Dados los vectores A “ p1, 1, 0q y B “ p1, ´1, 2q definimos U “ 2 A y V “ p´1q B .
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
Comprobar que CLrt A , B us Ă CLrt U , V us. ¿Qué puede decir de la inclusión opues-
ta?
Ý
Ñ Ý Ñ Ý
Ñ
20. Dados A1 , A2 , ¨ ¨ ¨ , Ak P Rn , demostrar:
Ý
Ñ Ý Ñ Ý
Ñ Ý
Ñ Ý Ñ Ý
Ñ
a) CLrtA1 , A2 , ¨ ¨ ¨ , Ak us “ CLrt´A1 , ´A2 , ¨ ¨ ¨ , ´Ak us.
b) si α1 , α2 , ¨ ¨ ¨ , αk son escalares no nulos, entonces
Ý
Ñ Ý Ñ Ý
Ñ Ý
Ñ Ý
Ñ Ý
Ñ
CLrtA1 , A2 , ¨ ¨ ¨ , Ak us “ CLrtα1 A1 , α2 A2 , ¨ ¨ ¨ , αk Ak us.

21. Decidir sobre la veracidad de cada una de las siguientes proposiciones:


ÝÝÑ ÝÝÑ
a) Para todo P, Q P R: QP ” ´P Q.
ÝÝÑ Ý Ñ ÝÝÑ Ý Ñ ÝÝÑ ÝÝÑ
b) Si en R2 se tiene XY ” E1 y XZ ” E2 , entonces CLrtXY , XZus “ R2X .
ÝÝÑ ÝÑ ÝÝÑ ÝÑ ÝÑ ÝÑ
c) Para todo P, Q, R, S P Rn , si P Q ` P R “ P Q ` P S, entonces P R “ P S.
Ñ
Ý
22. Demostar que la aplicación T : Rn Ñ RnO definida, para cada A P Rn , por T pAq “ A
es biyectiva y además satisface:

a) T pA ` Bq “ T pAq ` T pBq, para todo A, B P Rn .


b) T pαAq “ αT pAq, para todo A P Rn y cada α P R.

23. Sea P un punto cualquiera de Rn , demostar que la aplicación T : RnO Ñ RnP definida,
Ñ
Ý Ñ
Ý ÝÝÑ
para cada A P RnO , por T p A q “ P Q con Q “ A ` P , es biyectiva y satisface:
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý
a) T p A ` B q “ T p A q ` T p B q, para todo A , B P RnO .
Ñ
Ý Ñ
Ý Ñ
Ý
b) T pα A q “ αT p A q, para todo A P RnO y cada α P R.
Ñ
Ý ÑÝ Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý
24. a) Sean A , B P R2O tales que CLrt A , B us “ R2O . Demostrar que A y B no pueden
ser paralelos.
Álgebra lineal: Nociones y propiedades elementales 167
Ñ
Ý Ñ Ý
b) Sean A , B P R2O no nulos y no paralelos. Dado un punto arbitrario P P R2 , es-
ÝÝÑ ÝÑ ÝÝÑ ÑÝ ÝÑ Ñ Ý ÝÑ
cojamos P Q, P R P R2P tales que P Q k A y P R k B . ¿Es cualquier vector P S
ÝÝÑ ÝÑ
combinación lineal de P Q y P R?
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
25. Sean AB, P Q vectores no nulos en Rn y sean ´AB, ´P Q sus respectivos opuestos.
ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ ÝÝÑ
Demostrar que si AB k P Q, entonces ´AB k ´P Q y ´AB k P Q.
Ñ
Ý Ñ Ý Ý Ñ Ý Ñ ÝÑ Ñ Ý ÝÑ Ñ Ý
26. Sean A , B , A1 , B1 vectores en RnO tales que A1 k A y B1 k B . Demostrar que un
Ñ
Ý Ñ Ý
vector cualquiera es combinación lineal de A , B si, y solo si, también es combinación
Ý
Ñ Ý Ñ
lineal de A1 , B1 .
Ñ
Ý Ñ
Ý
27. Sean A “ pa1 , a2 q y B “ pb1 , b2 q puntos de R2 . Demostrar que A k B si, y solo si,
a1 b2 ´ a2 b1 “ 0.

28. Decidir sobre la veracidad o falsedad de cada una de las siguientes proposiciones. Ofrez-
ca una demostración en caso afirmativo, y de un contraejemplo en caso negativo.
Ñ
Ý Ñ Ý Ñ
Ý ÑÝ Ñ
Ý Ñ
Ý
a) Si A y B son vectores cualesquiera en RnO tales que x A , B y “ 0, entonces A “ O
Ñ
Ý Ñ
Ý
o B “ O.
Ñ
Ý Ñ Ý Ñ Ý Ñ
Ý ÑÝ Ñ Ý Ñ
Ý ÑÝ Ñ
Ý ÑÝ
b) Para todo A , B y C en RnO se cumple x A , B ` C y “ x A , B y ` x A , C y.
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
c) Para todo A , B P RnO y α P R se cumple x A , α B y “ αx A , B y.
Ñ
Ý Ñ Ý ÑÝ Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý
d) Si A , B , C P RnO son tales que A K B y B K C , entonces A K C .
Ñ
Ý Ñ Ý ÑÝ Ñ
Ý Ñ
Ý Ñ Ý Ñ Ý Ñ
Ý Ñ
Ý
e) Si A , B , C P RnO son tales que A K B y B k C , entonces A K C .
Ñ
Ý Ñ
Ý
f) Si A P RnO es diferente del vector nulo, entonces } A } ą 0.
Ñ
Ý
g) Si A P RnO , con A “ pa1 , ¨ ¨ ¨ , an q, es unitario, entonces a1 “ ¨ ¨ ¨ “ an “ 1.
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
h) Si A , B P RnO son tales que A “ α B para algún α P R, entonces } A } “ α} B }.
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý
i) Si A , B P RnO , entonces } A ` B }2 “ } A }2 ` } B }2 .
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý
j) Si A , B P RnO , entonces } A ` B } “ } A } ` } B }.
Ñ
Ý ÑÝ
k) Si A “ pα, αq con α ą 0, entonces >p A , E 1 q “ π.
Ñ
Ý ÑÝ
l) Si A “ pα, αq con α ă 0, entonces >p A , E 1 q “ 3π 2 .
Ñ
Ý Ñ Ý
m) Si A “ p1, 2q y B “ p´1, ´4q, entonces >p A , B q está entre 0 y π.
Ñ
Ý Ñ
Ý
n) Si A “ p1, 2q y B “ p´2, 1q, entonces PÝ Ñp A q “ O .
B
Ñ
Ý Ñ
Ý
ñ) Si A, B P Rn con B ‰ O, entonces PÝ Ñp A q k B .
B
Ñ
Ý Ñ
Ý
o) Si A, B P Rn son no nulos, entonces PÝ Ñp B q K B .
A
Ñ
Ý Ñ Ý
p) Si A, B P Rn con B ‰ O, entonces >pPÝ Ñ p A q, B q “ 0.
B
Ñ
Ý Ñ Ý
q) Si A, B P Rn con B ‰ O, entonces >pPÝ Ñ p A q, B q “ π.
B
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
r) Si A, B P Rn con B ‰ O, entonces o >pPÝ Ñ p A q, B q “ 0, o bien >pPÝ Ñ p A q, B q “ π.
B B
Ñ
Ý ÝÝÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÑ Ñ Ý ÝÝÝÝÑ Ñ Ý ÝÝÝÝÑ
29. Dados los vectores A “ p2, ´1, 0q, B “ p1, ´5, 2q, C “ p5, 0, 6q y D “ p1, 2, 1q.
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ Ý Ñ Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ Ý
Determinar: x A , A y, x A , B y, x A , C y, x B , C y x A ` C , ´ B y, x C , Dy, x B ` 3 C , Dy
Ñ
Ý Ñ Ý Ñ Ý Ñ Ý
y x A ` B , C ` Dy.
168 Neptalı́ Romero

30. Haciendo uso de inducción matemática, demuestre que para cualquier entero n ě 1 y
Ñ
Ý Ñ
Ý Ñ Ý
para cualquier colección A 1 , ¨ ¨ ¨ , A n , B P RnO y α1 , ¨ ¨ ¨ , αn P R se cumple la identidad
Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
xα1 A 1 ` ¨ ¨ ¨ ` αn A n , B y “ α1 x A 1 , B y ` ¨ ¨ ¨ ` αn x A n , B y.

Ñ
Ý ÝÝÝÝÝÝÑ Ñ Ý ÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÑ Ñ
Ý
31. Dados los vectores A 1 “ p2, 1, ´1q, A 2 “ p0, 1, 1q y B “ p1, ´1, 1q. Verificar que B es
Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý
ortogonal tanto a A 1 como a A 2 . Muestre que si C P CLrt A 1 , A 2 us, entonces B K C .
Ñ
Ý ÝÝÝÝÝÝÝÑ
32. Determine vectores unitarios con el mismo sentido y sentido opuesto a A “ p´2, ´1, 1q.
¿Son estos vectores únicos?
Ñ
Ý ÝÝÝÝÝÝÝÝÑ Ñ
Ý Ñ
Ý
33. Dado A “ pa1 , ¨ ¨ ¨ , an q P RnO no nulo, demuestre que existen únicos vectores B y C
Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý
en RnO tales que: } B } “ 1 “ } C }, B es paralelo a A con el mismo sentido, mientras
Ñ
Ý Ñ
Ý
que C es paralelo a A pero con el sentido opuesto.

34. Demostrar, usando la desigualdad de Cauchy-Schwarz, que para todo entero positivo
n ě 1 vale la desigualdad p1 ` 2 ` ¨ ¨ ¨ ` nq2 ď np1 ` 22 ` ¨ ¨ ¨ ` n2 q.
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý
35. Demostrar que si A , B P RnO , entonces } A ´ B }2 “ } A }2 ´ 2x A , B y ` } B }2 .
Ñ
Ý Ý?
ÝÝÝÑ Ñ Ý ÝÝÝÑ Ñ Ý ÝÝÝÑ Ñ
Ý ÝÝÝÝÑ Ñ Ý ?ÝÑ
ÝÝÝÝÝ
36. Para los vectores: A “ p 3, 1q, B “ p1, 0q, C “ p1, 1q, D “ p1, ´1q y E “ p´1, 3q.
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
Determine: >p A , B q, >p B , A q, >p A , C q, >p C , Dq, >p C , E q y >p E , Dq.
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
37. Dados A , B P RnO no nulos, ¿es cierto que si >p A , B q “ >p B , C q, entonces >p A , C q “
Ñ
Ý Ñ Ý
2>p A , B q?
Ñ
Ý ÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÑ Ñ Ý ÝÝÝÝÑ
38. Dados los vectores A “ p3, 1, 0q, B “ p1, 0, ´1q, C “ p2, 1, 1q. Calcular los vectores
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
proyección: PÝ
Ñ p B q, PÝ
Ñ p A q, PÝ
Ñ p C q y PÝÑ p C q. ¿Es C “ PÝ
Ñ p C q ` PÝ
Ñ p C q?
A B A B A B
Ñ
Ý Ñ Ý Ñ Ý
39. Sean A , B y C en R2O , donde que A “ p´1, 2q, B “ p2, 1q y C “ p´2, 4q. Verificar que
Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý
A se descompone como la suma de sus proyecciones sobre B y C ; es decir, PÝ Ñp A q `
Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ Ý B Ñ Ý
Ñ p A q “ A . ¿Es cierta esta propiedad si A , B y C en R2O son cualesquiera con B y

Ñ
ÝC
C no nulos?
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
40. Dado cualquier A P RnO , demostrar que PÝ Ñ p A q ` PÝÑ p A q ` ¨ ¨ ¨ ` PÝ
Ñ pAq “ A;
E1 E2 En
Ñ
Ý
donde E j , con j “ 1, ¨ ¨ ¨ , n, es el j-ésimo vector canónico de RnO .
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý
41. Sean A y B en RnO tales que B ‰ O y A K B . Verificar que PÝ Ñp A q “ O .
B
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ Ý Ñ
Ý Ñ
Ý
42. Sean A y B en RnO tales que B ‰ O y A k B . Verificar que PÝÑp A q “ A .
B
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
43. Sean A y B en RnO tales que B ‰ O y x A , B y ą 0. Demostrar que >p A , B q P r0, π2 q.
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
44. Sean A y B en RnO tales que B ‰ O y x A , B y ă 0. Demostrar que >p A , B q P p π2 , πs.
Ñ
Ý Ñ Ý Ñ
Ý
45. a) Sean A 1 , A 2 , ¨ ¨ ¨ , A m P RnO (n ě 2) vectores no nulos y perpendiculares entre sı́.
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
Demostrar que si α1 A 1 ` α2 A 2 ` ¨ ¨ ¨ ` αm A m “ O , entonces αi “ 0 para cada
i “ 1, 2, ¨ ¨ ¨ , m.
Álgebra lineal: Nociones y propiedades elementales 169
Ñ
Ý Ñ Ý Ñ
Ý
b) Sean A 1 , A 2 , ¨ ¨ ¨ , A n P RnO (n ě 2) vectores no nulos y perpendiculares entre sı́.
Ñ
Ý
Demostrar que para todo B P RnO existen escalares α1 , α2 , ¨ ¨ ¨ , αn en R (de hecho
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
únicos) de manera que α1 A 1 ` α2 A 2 ` ¨ ¨ ¨ ` αn A n “ B .

46. Determine ecuaciones paramétricas y cartesianas de cada recta dada por:

a) Pasa por los puntos P “ p1, 2q y Q “ p0, ´1q.


Ñ
Ý ÝÝÝÑ
b) Pasa por el punto P “ p2, ´3q con vector director A “ p0, 1q.
Ñ
Ý ÝÝÝÑ
c) Pasa por el punto P “ p1, 3q y tiene como vector director a A “ p1, 0q.
Ñ
Ý ÝÝÝÑ
d) Pasa por el punto P “ pα, βq y tiene como vector director a A “ pa, bq.
e) Pasa por los puntos P “ p2, ´1, 1q y Q “ p1, 0, 1q.
Ñ
Ý ÝÝÝÝÝÝÑ
f) Pasa por el punto P “ p0, 2, 1q con vector director A “ p1, ´2, 1q.
Ñ
Ý ÝÝÝÝÝÝÑ
g) Pasa por el punto P “ p1, ´1, 2q y tiene como vector director a A “ p1, 0, ´2q.
Ñ
Ý ÝÝÝÝÝÝÑ
h) Pasa por el punto P “ p2, 3, ´3q y tiene como vector director a A “ p0, ´1, 1q.
Ñ
Ý ÝÝÝÝÑ
i) Pasa por el punto P “ p1, 1, ´2q y tiene como vector director a A “ p0, 0, 1q.
j) Pasa por el punto P “ p1, 1, 0q y perpendicular al plano de ecuación cartesiana
2x ´ y ` z “ 0. Lo mismo pero con el plano determinado por ´x ` 2z “ 0.

47. Dados el plano π cuya con ecuación cartesiana ´2x`3y´z “ 0 y el punto P “ p1, 0, ´1q,
construya una recta que pase por P y sea paralela a π. ¿Es única esta recta?

48. Determine ecuaciones paramétricas y cartesianas de cada plano dado por:

a) Pasa por los puntos P “ p1, 0, 1q, Q “ p1, 1, ´1q y R “ p2, 1, ´2q.
Ñ
Ý ÝÝÝÝÑ Ñ Ý ÝÝÝÝÑ
b) Pasa por P “ p0, 2, ´1q y orientado por A “ p1, 0, 0q y B “ p1, 1, 1q.
Ñ
Ý ÝÝÝÝÑ Ñ Ý ÝÝÝÝÑ
c) Pasa por P “ p0, 2, ´1q y orientado por A “ p1, 0, 0q y B “ p0, 1, 0q.
d) Pasa por el punto P “ p2, 0, ´3q y es paralelo al plano de ecuacion 3x ´ 2y ` z “ ´1.
e) Pasa por el punto P “ p2, 0, ´3q y es paralelo al plano de ecuacion x ´ 2y ` z “ ´1.
f) Pasa por P “ p0, 0, 2q y es perpendicular al plano de ecuacion x ` 2y ` z “ 1.
x´3 y´1
g) Pasa por P “ p1, ´2, 0q y contiene a la recta de ecuación “ “z´1
3 2
x`2 3´y y`1
h) Contiene a las rectas de ecuaciones “ “ z`2 y x´2 “ y z “ 0.
2 2 2
x`2 3´y ÝÝÝÝÑ
i) Contiene a la recta de ecuación “ “ z ` 2 y con normal p0, 1, 2q.
2 2
x`2 3´y
49. ¿Es posible construir un plano que contenga a la recta de ecuación “ “ z`2
ÝÝÝÝÑ 2 2
y cuyo vector normal sea p0, 1, 0q? Justifica su respuesta, y establezca un criterio para
asegurar la existencia de un plano que contenga a una determinada recta y tenga como
vector normal a uno dado.
ÝÝÝÝÑ ÝÝÝÝÑ
50. Si P, Q y R en Rn (n ě 2) no colineales, demostrar que Q ´ P y R ´ P son no paralelos.
ÝÝÝÝÑ ÝÝÝÝÑ ÝÝÝÝÑ ÝÝÝÝÑ
¿Puede decir lo mismo de los pares de vectores: Q ´ R y P ´ R, y P ´ Q y R ´ Q?
170 Neptalı́ Romero
Ñ
Ý Ñ Ý
51. Demostrar que para todo punto P P R2 y cualquier par de vectores A , B P R2O no
Ñ
Ý Ñ Ý
nulos y no paralelos se tiene πpP, A , B q “ R2 .

52. Decidir sobre la veracidad de cada una de las siguientes proposiciones:


x`2 3´y x`2 3´y
a) Las rectas de ecuaciones “ “ z `2 y “ “ z ` 2 son iguales.
2 2 ´2 2
x`2 3´y x y´1
b) Las rectas de ecuaciones “ “z`2 y “ “ z ` 1 son iguales.
2 2 2 2
c) Los planos de ecuaciones cartesianas x ` 2y ´ 3z “ 0 y ´x ´ 2py ´ 1q ´ z “ 2 son
iguales.
d) Los planos: π1 de ecuación cartesiana x ` y ` z “ 0, y π2 pasando por P “ p1, 0, 1q
Ñ
Ý ÝÝÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÝÝÝÑ
y orientado por los vectores A “ p1, ´1, 0q y B “ p´1, 2, 0 ´ 1q son iguales.
e) Existe una única recta que contine a los puntos P “ p2, 1, ´1q y Q “ p´1, ´ 12 , 12 q.
f) Existe una única recta que contine a los puntos P “ p2, 1, ´1q y Q “ p´1, 12 , 21 q.
g) Existe un único plano que contiene a P “ p0, 0, 0q, Q “ p1, 1, ´2q y R “ p2, 1, 1q.
h) Existe un único plano que contiene a P “ p1, 1, 0q, Q “ p1, 1, 2q y R “ p1, 1, 1q.
i) Dados un punto P y una recta L en R3 , existe un único plano π tal que P P π y
π k L.
j) Dados un punto P y una recta L en R3 , existe un único plano π que contiene a P
y π K L.
k) Dados un punto P y un plano π en R3 , existe una única recta L con P P L y L k π.
l) Dados un punto P y un plano π en R3 , existe una única recta que contiene a P y
es perpendicular a π.
m) Dado un punto P y una recta L en R3 , existe una única recta L con P P L y L K π.
n) Dados un punto P y una recta L en R3 , existe una única recta L1 que contiene a P
y es perpendicular a L.
ñ) Dados un punto P y una recta L en R3 , existe una única recta L1 que contiene a P ,
es perpendicular a L y L1 X L ‰ H.
o) Dados un punto P y una recta L en R3 , existe una única recta L1 que contiene a P
y es paralela a L.

53. Demostrar la validez de las siguientes propiedades del producto vectorial:


Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
a) E 1 ˆ E 2 “ E 3 , E 2 ˆ E 3 “ E 1 , y E 3 ˆ E 1 “ E 2 .
Ñ
Ý ÑÝ Ñ Ý
b) Cualesquier sean A , B , C P R3O se cumplen:
Ñ
Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ Ý Ñ Ý
A ˆ pB ` C q “ A ˆ B ` A ˆ C y pB ` C q ˆ A “ B ˆ A ` C ˆ A .

Ñ
Ý Ñ Ý
c) Cualesquier sean A , B P R3O y α P R se tiene:
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ Ý
pα A q ˆ B “ A ˆ pα B q “ αp A ˆ B q.
Álgebra lineal: Nociones y propiedades elementales 171
Ñ
Ý Ñ Ý Ñ Ý
d) Cualesquier sean A , B , C P R3O se satisface:
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ Ý Ñ Ý Ñ
Ý Ñ Ý Ñ Ý
p A ˆ B q ˆ C “ x A , C y B ´ xB , C y A .

Ñ
Ý Ñ Ý
e) Para todo A , B P R3O valen:
Ý 2
´ ¯
Ñ
Ý Ñ Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
1) } A ˆ B }2 “ } A }2 } B }2 ´ x A , B y .
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
2) } A ˆ B } “ } A } } B } | sen θ|, donde θ “ >p A , B q.
Ñ
Ý Ñ Ý Ñ
Ý Ñ Ý
3) Si θ “ >p A , B q P p0, πq, entonces } A ˆ B } es el área del paralelogramo formado
Ñ
Ý ÑÝ
por los vectores A , B .
Ñ
Ý ÑÝ Ñ Ý
f) Cualesquiera sean los vectores no nulos y no colineales A , B , C P R3O , ellos deter-
minan el paralelepı́pedo en R3 como se muestra en la Figura 4.20. Demostrar que
Ñ
Ý Ñ Ý Ñ Ý
volumen que encierra este objeto geométrico es |x A , B ˆ C y|.

Figura 4.20: Paralelepı́pedo formado por tres vectores no nulos y no colineales en R3 .

54. Demostrar que si π1 y π2 son dos planos no paralelos de R3 , entonces su intersección


es una recta.

55. Sean L1 y L2 las rectas de Rn (n ě 3) con ecuaciones paramétricas X “ P ` αA y


ÝÝÝÝÑ
X “ Q ` βB respectivamente. Demostrar que L1 X L2 ‰ H si, y solo si, Q ´ P es
Ñ
Ý Ñ Ý
combinación lineal de A y B .

56. Construya dos rectas en R3 cuyo ángulo entre ellas sea de 30o , contengan al punto
ÝÝÝÝÑ
P “ p1, 0, ´1q y una de ellas esté orientada por el vector p1, 1, 0q. ¿Cuántos pares de
estas rectas existen?

57. Construya dos rectas en R3 cuyo ángulo entre ellas sea de 60o y ambas contengan al
origen. ¿Cuántos pares de estas rectas existen?
x´2
58. Dados el punto P “ p0, 1, 2q y la recta L de ecuación “ y ` 1, z “ 1. Determinar
1
2
la recta L que pasa por P , es perpendicular a L y la corta. Calcular la distancia entre
P y L.
x´2
59. Determine la distancia entre la recta L de ecuación “ y ` 1, z “ 1 y la recta
ÝÝ Ý ÝÑ 2
L1 “ Lpp0, 2, 1q, p2, 1, 0qq. Obtenga la recta que pasa por p0, 2, 1q y el perpendicular
tanto a L como a L1 .
172 Neptalı́ Romero
Ñ
Ý Ñ
Ý
60. Dadas dos rectas no paralelas con intersección vacı́a en Rn (n ě 3): LpP, A q y LpQ, B q,
Ñ
Ý Ñ
Ý ÝÝÝÑ Ñ Ý
demostrar que existen únicos puntos R P LpP, A q y S P LpQ, B q tales que R ´ S K A ,
ÝÝÝÑ Ñ Ý ÝÝÝÑ ÝÝÝÝÑ Ñ
Ý Ñ
Ý
R ´ S K B y }R ´ S} ď }R1 ´ S 1 }, cualesquiera sean R1 P LpP, A q y S 1 P LpQ, B q.
Ý
Ñ Ý Ñ
(Sugerencia: Si A y B son no nulos y no paralelos, demostrar que existen únicos escalares α, β P R de
manera de xP ´ Q ` αA ´ βB, Ay “ xP ´ Q ` αA ´ βB, By “ 0). Recordar el carácter estricto de la
desigualdad de Cauchy-Schwarz.)

61. Encontrar la distancia entre las rectas de R3 dadas por las ecuaciones cartesianas:
x´1 y`2 x
“ “z y “ y ` 1 “ z ´ 1.
2 ´1 2
Determine la recta que es perpendicular a las dos rectas anteriores.

62. Dados el punto Q “ p1, 2, 1q y el plano π1 de ecuación 2x ´ y ` 2z “ 1, determinar la


recta que pasa por Q y es perpendicular a π1 . Calcule también la distancia entre Q y
plano dado.
Ñ
Ý Ñ Ý
63. Dados los planos: π1 dado por x ` y ` z “ 2 y π2 “ πpP, A , B q, donde P “ p0, 1, 0q,
Ñ
Ý ÝÝÝÝÝÝÑ Ñ Ý ÝÝÝÝÝÝÑ
A “ p´3, 2, 1q y B “ p´2, 1, 1q:

a) Verifique que tales planos son paralelos y diferentes.


b) Determine la distancia en ambos planos.
c) Determine la recta que pasa por p1, 0, 1q y es perpendicular a ambos
d) Determine un plano π3 que sea perpendicular a π1 y π2 . planos.
e) Verifique que la recta L de ecuación x “ 1, y ´ 1 “ ´z está contenida en el plano π1 .
Encontrar el plano π4 que contiene a L y pasa por el punto P ; además, determine
el ángulo entre los planos π1 y π4 ; ¿es el mismo ángulo entre π2 y π4 ?. Finalmente,
encontrar la recta que se obtiene como la intersección entre π2 y π4 .
f) Determine un plano π5 que pase por p0, 1, 1q y forme un ángulo de 45o con π1 .
¿Quién es π1 X π5 ?

64. Considere en Rn , n ě 2, el hiperplano H dado por la ecuación a1 x1 ` ¨ ¨ ¨ ` an xn “ b.


Ñ
Ý ÝÝÝÝÝÝÝÝÑ
Sean P cualquier punto de H y N “ pa1 , ¨ ¨ ¨ , an q. Demostrar que los semiespacios
generados por H se expresan por:
ÝÝÝÝÑ Ñ Ý ÝÝÝÝÑ Ñ Ý
H ´ “ tX P Rn : >pX ´ P , N q P p π2 , πsu y H ` “ tX P Rn : >pX ´ P , N q P r0, π2 qu.
Capı́tulo 5

Espacios Vectoriales.

5.1. Nota histórica


La geometrı́a cartesiana introducida alrededor del año 1636 por los matemáticos fran-
ceses Pierre de Fermat (1607 - 1665) y René Descartes (1596 - 1650), tuvo gran influencia
en los matemáticos que construyeron y consideraron inicialmente métodos algebraicos en
la geometrı́a. Sin embargo, a mediados del siglo XIX hubo cierta insatisfacción con estos
métodos, por lo que muchos matemáticos comenzaron a buscar otras alternativas inde-
pendientes de esas consideraciones cartesianas.
Se considerea el inicio del siglo XIX, con los trabajos del matemático checo Bernard
Bolzano (1781 - 1848), como el momento del nacimiento del concepto de vector. De hecho,
en 1804 Bolzano publica el libro sobre los fundamentos de la geometrı́a elemental, “Be-
trachtungen über einige Gegenstände der Elementargoemetrie” (Reflexiones sobre algunos
elementos de la geometrı́a elemental), donde considera puntos, rectas y planos sobre los
cuales define operaciones de adición y multiplicación por escalares; esto fue un impor-
tante paso hacia la aparición del concepto abstracto de espacio vectorial. Posteriormente
fueron apareciendo diferentes contribuciones en esa búsqueda de una axiomática general.
Entre los matemáticos de la época, los principales en aportar avances, encontramos cro-
nológicamente a los franceses Jean-Victor Poncelet (1788 - 1867) y Michel Chasles (1793 -
1880) (fundadores de la geometrı́a sintética); al matemático alemán August Möbius (1790
-1868), quien entre 1827 y 1837, publica relevantes trabajos sobre coordenadas y cálculos
baricéntricos en los cuales son empleadas cantidades vectoriales. En 1832, el matemático
italiano Giusto Bellavitis (1803 - 1880) publica un trabajo, conteniendo también cantida-
des vectoriales, en el que los objetos de estudios fueron segmentos AB (A y B puntos del
plano), consideró AB y BA como objetos diferentes (es decir, vectores anclados en puntos
distintos en la nomenclatura moderna); además, definió segmentos equivalentes sobre los
cuales introdujo operaciones, que esencialmente producen la estructura de espacio vectorial
tal y como es considerada en la actualidad. Otro contribuyente más en este desarrollo fue
el matemático irlandés William Hamilton (1805 - 1865), en uno de sus trabajos publicado
en 1833, representó los números complejos como un espacio vectorial real de dimensión
2, aunque no utilizó tales términos abstractos. Luego en 1857 Cayley introduce el álge-
bra de matrices; lo que representó un significativo avance hacia sistemas algebraicos más
abstractos; una década más tarde, el francés Edmond Laguerre (1834 -1886) introdujo ope-
raciones de adición y multiplicación de sistemas de ecuaciones lineales mediante el uso de
los coeficientes de tales ecuaciones, con esas ideas se contribuyó a la unificació de sistemas
algebraicos tales como los números complejos, los cuaterniones, introducidos por Hamil-

173
174 Neptalı́ Romero

ton, y otras nociones algebraicas propuestas por el matemático francés Évariste Galois
(1811 - 1832) y Cauchy. Otro matemático con una importante influencia en el desarrollo
inicial del Álgebra lineal fue el alemán Hermann Grassmann (1809 - 1877). Su trabajo,
de mucha originalidad, fue fundamentalmente influenciado por las nociones de las coorde-
nadas baricéntricas introducidas por Möbius. Una de sus principales contribuciones, “Die
Ausdehnungslehre” (Las medidas de expansión lineal) apareció publicada en varias versio-
nes; la primera de las cuales ocurrieron en 1844; pero debido a su dificultad para ser leida,
no encontró opiniones favorables entre importantes matemáticos de la época; por tal mo-
tivo Grassmann produce una versión más legible en 1862. En tal publicación Grassmann
estudia un álgebra cuyos elementos son cantidades abstractas, sobre estas cantidades de-
finió operaciones de adición, multiplicación por escalares y también una multiplicación.
Ese trabajo contiene la axiomática moderna de la estructura de espacio vectorial; aunque
sobre cantidades abstractas, aún no cubrı́a la generalidad de esa estructura algebraica.
Adicionalmente, por el hecho de tener también una multiplicación entre tales cantidades,
se condujo a una estructura algebraica más rica que la de espacio vectorial; estas son
llamadas álgebras, y más precisamente álgebras de Grassmann. En la primera versión de
su trabajo aparecen las ideas de dependencia e independencia lineal, al igual que la no-
ción de producto escalar. En la versión del año 1862, aparece una larga introducción en
la que Grassmann ofrece un sumario de su teorı́a; en ella la defiende, pues ya habı́a sido
objetada por un considerable número de matemáticos contemporaneos a él; la justifica-
ción (dada por Grassmann) de su teorı́a incluye una formulación axiomática de la misma,
lo cual muestra lo aventajado que estaba Grassmann para la época. En el anecdotario
matemático se comenta que Cauchy y el francés Adhémar Jean Claude Barré de Saint-
Venant (1797 - 1886) afirmaron haber inventado estructuras similares a los de Grassmann.
La afirmación de Saint-Venant es considerada justa, pues en uno de sus artı́culos del año
trabajo 1845, multiplica segmentos de rectas en una forma análoga a la introducida por
Grassmann. De hecho, cuando Grassmann leyó el artı́culo de Saint-Venant concluyó que
este no habı́a leido su trabajo de 1844, por lo que envió a Saint-Venant (vı́a Cauchy)
dos copias de las partes de su trabajo que él consideraba más relevantes. Posterior a ello,
en el año 1853 Cauchy publica “Sur les clefs algébrique” (Sobre las claves algebraicas)
en la revista Comptes Rendus de Francia; allı́ Cauchy describe un método simbólico que
coincide justamente con lo expuesto por Grassmann en su trabajo; no obstante Cauchy
no lo menciona. Conocida esa publicación de Cauchy, Grassmann se queja ante la Acade-
mia de Ciencias de que su trabajo es primero que el de Cauchy; en 1854 un comité fue
nombrado por la Academia de Ciencias para investigar quién tuvo la prioridad. ¡Aún se
espera por el informe del comité!. El primer matemático en darle importancia al trabajo
de Grassmann fue el alemán Hermann Hankel (1839 - 1873), en 1867 escribió el artı́culo
“Theorie der complexen Zahlensysteme” (Teorı́a del sistema de números complejos) en el
que son definidos objetos de estudio en forma abstracta; allı́ le otorga créditos al trabajo
de Grassmann como los fundamentos de su trabajo.

Una definición axiomática de espacio vectorial real fue dada a conocer inicialemente
por el matemático italiano Giuseppe Peano (1858 - 1932); esta axiomática aparece en
1888 en su libro “Calcolo geometrico secondo l’Ausdehnungslehre di H. Grassmann pre-
Álgebra lineal: Nociones y propiedades elementales 175

ceduto dalle operazioni della logica deduttiva” (Cálculo geométrico según la expansión de
H. Grassmann, precedida de operaciones de la lógica deductiva). Allı́ Peano da créditos a
Grassmann, Hamilton, Leibniz y Möbius; en ese libro son presentadas las nociones básicas
de las operaciones con conjuntos, introduciendo la notación moderna de la unión, inter-
sección y pertenencia a un conjunto. Aunque el libro tuvo poca influencia por muchos
años, se destaca la forma moderna de como se exponen las nociones de la estructura de
espacios vectoriales; incluso se introduce la definición de dimensión de espacios vectoria-
les; muestra que espacios vectoriales finito dimensionales tienen bases y ofrece ejemplos
de espacios vectoriales de dimensión infinita; además, introduce el concepto de operadores
lineales y de operaciones entre ellas. En la década de los 1890’s, el matemático italiano
Salvatore Pincherle (1853 - 1936) trabajó sobre una teorı́a formal de operadores lineales
en espacios vectoriales de dimensión infinita; sin embargo, este trabajo de Pincherle no
tuvo como base los trabajos de Peano, en su lugar, se soporta en varios de los aportes de
Leibniz y del matemático francés Jean le Rond d’Alembert (1717 - 1783). Al igual que
muchas publicaciones en esta área, los resultados de Pincherle tuvieron muy poco impacto
inmediato; de hecho, los espacios vectoriales infinito dimensionales y su axiomática no se
estudiaron de nuevo hasta que el matemático polaco Stefan Banach (1892 - 1945) y sus
colegas tomaron el tema en la década de los años 1920; aunque ya el prominente matemáti-
co alemán David Hilbert (1862 - 1943) y su discipulo, también alemán, Erhard Schmidt
(1876 - 1959) habı́an estudiado en la primera década del siglo XX los espacios infinito
dimensionales de funciones introduciendo el idioma geométrico en la teorı́a de los espacios
vectoriales hoy denominados espacios de Hilbert; sin embargo, enfatizamos que el enfoque
completo de tal axiomática aparece en el año 1920 en la tesis doctoral de Banach. 1

5.2. Definición y ejemplos.


Nos proponemos estudiar la estructura algebraica abstracta conocida como espacio
vectorial, también denominada espacio lineal. Ejemplos de conjuntos que poseen esta es-
tructura ya han sido considerado en los anteriores capı́tulos En lo que sigue K denotará in-
distintamente al cuerpo de los números reales y al cuerpo de los números complejos. Cuan-
do exista la necesidad de hacer mención en especial a estos cuerpos, lo haremos con la
notación usual; esta es, R y C respectivamente.

Definición 5.1
Un espacio vectorial sobre K es cualquier conjunto V no vacı́o dotado de dos operaciones,
genéricamente llamadas adición y multiplicación por escalares:

`: VˆV Ñ V y ¨: KˆV Ñ V
(5.1)
pu, vq Ñ u ` v pα, uq Ñ αu

tales que, para todo u, v, w P V y todo α, β P K se cumplen los siguientes axiomas de


1
Buena parte de la información histórica acá suministrada puede ser encontrada en la magnı́fica página
de Internet: www-groups.dcs.st-and.ac.uk/„history/HistTopics/Abstract linear spaces.ht ml
176 Neptalı́ Romero

linealidad:

[A1] u ` v “ v ` u. (Conmutatividad)

[A2] u ` pv ` wq “ pu ` vq ` w. (Asociatividad)

[A3] Existe un único OV P V, denominado vector nulo en V, tal que u ` OV “ u, para


todo u P V. (Elemento Neutro)

[A4] Para cada u P V existe un único u1 P V, denominado vector simétrico de u, tal que
u ` u1 “ OV . (Elemento Simétrico)

[M1] αpu ` vq “ αu ` αv. (Distributividad)

[M2] pα ` βqu “ αu ` βu. (Distributividad)

[M3] αpβuq “ pαβqu “ αβu.

[M4] 1u “ u.

Los elementos de V son llamados vectores, en cuanto que los elementos de K son denomi-
nados escalares. A los vectores u ` v y αu en (5.1) se les conoce con el nombre de vector
suma de u y v y vector producto de α y u, respectivamente.

Comentario 5.1
Es necesario hacer énfasis en que la estructura vectorial sobre un conjunto no vacı́o V
depende exclusivamente de las operaciones ` (adición de vectores) y ¨ (multiplicación de
escalares por vectores). En ocasiones se acostumbra decir que el triplete pV, `, ¨q es un
K-espacio vectorial; siendo que el prefijo K de este calificativo se establece dependiendo
donde se haya definido la multiplicación por escalares. Ası́, cuando en esta operación se
emplea el cuerpo de los números reales R, se dice que V es un espacio vectorial real, o un
R-espacio vectorial; mientras que y si K “ C, entonces V es un espacio vectorial complejo, o
simplemente un C-espacio vectorial. Puede ocurrir que sobre un mismo conjunto V puedan
definirse más de una estructura vectorial; obviamente para que esto ocurra, al menos una
de las operaciones ` o ¨ debe ser modificada.
Todo conjunto no vacı́o V dotado con una operación ` y cumpliendo con los axiomas
[A1] al [A4] es llamado grupo abeliano o grupo conmutativo. De esta forma, un K-espacio
vectorial V es un grupo abeliano con una operación externa ¨ : K ˆ V Ñ V que cumple
con los axiomas [M1] al [M4].

5.2.1. Ejemplos de espacios vectoriales


Presentaremos a continuación algunos ejemplos clásicos de espacios vectoriales, varios
de ellos han sido tratados en capı́tulos anteriores. A lo largo del texto haremos mención
de estos espacios vectoriales empleando la notación que acá introducimos.
Álgebra lineal: Nociones y propiedades elementales 177

Ejemplo 5.1 (Estructura vectorial en Rn )


El conjunto de puntos Rn (n ě 1) dotado de las operaciones usuales de adición y multi-
plicación por escalares

pα1 , ¨ ¨ ¨ , αn q ` pβ1 , ¨ ¨ ¨ , βn q “ pα1 ` β1 , ¨ ¨ ¨ , αn ` βn q y


αpα1 , ¨ ¨ ¨ , αn q “ pαα1 , ¨ ¨ ¨ , ααn q, α P R.

satisface cada uno de los axiomas de la definición 5.1; por tanto Rn es un espacio vectorial
sobre R. Es común encontrar en la literatura la denominación de espacio euclidiano real
de dimensión n; ello gracias al enriquesimiento de la estructura vectorial con el producto
interno euclidiano ya estudiado. Note que el vector nulo OR “ p0, ¨ ¨ ¨ , 0q, mientras que el
simétrico de pα1 , ¨ ¨ ¨ , αn q es p´α1 , ¨ ¨ ¨ , ´αn q.

Ejemplo 5.2 (Estructura vectorial en Kn )


El conjunto Kn (n ě 1) de todas las n-tuplas pα1 , ¨ ¨ ¨ , αn q con αi P K, i “ 1, ¨ ¨ ¨ , n, cuando
es dotado con las operaciones de adición y multiplicación por escalares:

pα1 , ¨ ¨ ¨ , αn q ` pβ1 , ¨ ¨ ¨ , βn q “ pα1 ` β1 , ¨ ¨ ¨ , αn ` βn q y


αpα1 , ¨ ¨ ¨ , αn q “ pαα1 , ¨ ¨ ¨ , ααn q, α P K,

adquiere la estructura de K-espacio vectorial.

Ejemplo 5.3 (El conjunto Cn con dos estructuras vectoriales)


Como caso particular al ejemplo anterior, Cn con las operaciones arriba descritas es un
espacio vectorial sobre C, o dicho de otra forma: un C-espacio vectorial. Sin embargo,
manteniendo la adición arriba definida y cambiando la multiplicación por escalares susti-
tuyendo α P C por escalares en R:

αpα1 , ¨ ¨ ¨ , αn q “ pαα1 , ¨ ¨ ¨ , ααn q, α P R,

se continuan cumpliendo cada uno de los axiomas en la Definición 5.1, pero la estructura
vectorial es distinta; en este caso el conjunto Cn es un espacio vectorial sobre R. Note
que su vector nulo sigue siendo la n-tupla nula p0, ¨ ¨ ¨ , 0q, y el elemento simétrico de
pα1 , ¨ ¨ ¨ , αn q es p´α1 , ¨ ¨ ¨ , ´αn q.

Ejemplo 5.4 (El espacio vectorial RnP )


En el capı́tulo anterior también comentamos (ver Teorema 4.3) que para cualquier punto
P P Rn , el conjunto RnP de vectores en Rn anclados en P con las operaciones usuales de
adición de vectores y multiplicación de escalares:
ÝÝÑ ÝÑ ÝÑ
P Q ` P R “ P S donde S “ Q ` R ´ P
ÝÝÑ ÝÑ
αP Q “ P S donde S “ αpQ ´ P q ` P, α P R

es un espacio vectorial sobre R.

Ejemplo 5.5 (El espacio vectorial de matrices)


Sobre el conjunto Mmˆn pKq de todas las matrices de orden m ˆ n con coeficientes en K
178 Neptalı́ Romero

fueron introducidas las operaciones de adición


» fi » fi
a11 a12 ¨ ¨ ¨ a1n b11 b12 ¨¨¨ b1n
— a21 a22 ¨ ¨ ¨ a2n ffi — b21 b22 b2n ffi
— ffi — ffi
¨¨¨
ffi ` — .
— . .. .. .. ffi — .. .. .. ffi
— .
– . . . . fl – .. . . . fl
ffi
am1 am2 ¨ ¨ ¨ amn bm1 bm2 ¨ ¨ ¨ bmn
» fi
a11 ` b11 a12 ` b12 ¨¨¨ a1n ` b1n
— a21 ` b21 a22 ` b22 a2n ` b2n
— ffi
¨¨¨ ffi
“— .. .. .. .. ffi
. . . .
— ffi
– fl
am1 ` b1m am2 ` bm2 ¨ ¨ ¨ amn ` bmn

y de multiplicación por escalares


» fi » fi
a11 a12 ¨ ¨ ¨ a1n α a11 α a12 ¨ ¨ ¨ α a1n
— a21 a22 ¨ ¨ ¨ a2n ffi — α a21 α a22 ¨ ¨ ¨ α a2n ffi
— ffi — ffi
α— .
— .. .. .. ffi “ — ..
ffi — .. .. ffi , con α P K.
.. ffi
– . . . . . fl – . . . . fl
am1 am2 ¨ ¨ ¨ amn α am1 α am2 ¨ ¨ ¨ α amn

Fue mostrado que Mmˆn pKq con estas operaciones cumple con los axiomas de la Definición
5.1, ası́ que el triplete pMmˆn pKq, `, ¨q es un K-espacio vectorial.

Ejemplo 5.6 (Espacio de funciones con valores en R)


Sea S un conjunto no vacı́o cualquiera, denotamos por FpS, Rq al conjunto de todas las
funciones de S en R; es decir FpS, Rq “ tf : S Ñ R : f es funciónu. Sobre este conjunto
se definen las operaciones de adición y multiplicación por escalares en R como sigue:

˛ Adición. Dadas f, g : S Ñ R en FpS, Rq, la función f ` g : S Ñ R, conocida por


suma de f y g, es la correspondencia que asigna a cada elemento s de S el número real
pf ` gqpsq :“ f psq ` gpsq.

˛ Multiplicación por escalares. Para cada f P FpS, Rq y α P R, se define αf : S Ñ R


como la función dada por pαf qpsq “ αf psq, cualquiera sea s P S. A la función αf se le
conoce como producto de α y f .

Verifiquemos que FpS, Rq junto con las operaciones que acabamos de definir constituye
un espacio vectorial sobre R. Para comenzar, observe que para todo par de funciones f, g P
FpS, Rq se cumple que f `g “ g `f , pues para todo s P S se tiene f psq`gpsq “ gpsq`f psq
ya que la adición en R es conmutativa. Similarmente, de la asociatividad de la adición en
R sigue que pf `gq`h “ f `pg `hq para toda f, g, h P FpS, Rq. Por otra parte, claramente
el elemento neutro (vector nulo de FpS, Rq) para la adición arriba definida es la función
nula; esto es, la función que a cada elemento en S le asigna el número real cero; denotamos
tal función por O; claramente f ` O “ f pues pf ` Oqpsq “ f psq ` Opsq “ f psq ` 0 “ f psq
para todo s P S; además, la función O : S Ñ R es la única con tal propiedad. Note que el
elemento simétrico de f P FpS, Rq es la función g : S Ñ R definida para cada s P S por
gpsq “ ´f psq, pues pf ` gqpsq “ f psq ` gpsq “ f psq ` p´f psqq “ Opsq “ 0. De esta forma
Álgebra lineal: Nociones y propiedades elementales 179

hemos verificado los axiomas [A1], [A2], [A3] y [A4]; dejamos al lector la tarea de verificar
que también se satisfacen [M1], [M2], [M3] y [M4].
Es necesario hacer notar que en las definiciones de las operaciones hemos utilizado
el mismo sı́mbolo ` para sumar tanto funciones como números reales; igualmente, en
la multiplicación por escalares hemos omitido el sı́mbolo ¨ para no recargar la notación.
En general esto ocurrirá con mucha frecuencia a lo largo del texto esperando no crear
mayor confusión en la notación, pero manteniendo presente la diferencia en las operaciones
representadas por el mismo sı́mbolo.
Si en lugar de R, las funciones hubiesen sido definidas tomado valores en C y la multi-
plicación la hubiesemos definido variando α P C, entonces se tendrı́a el C-espacio vectorial
FpS, Cq de todas las funciones de S en C.

Ejemplo 5.7 (Espacio de sucesiones de números reales)


Formalmente una sucesión con valores en R es una función con dominio los números natu-
rales N “ t0, 1, 2, ¨ ¨ ¨ u que toma valores en R; es decir, una sucesión de números reales es
un elemento de FpN, Rq. Sin embargo, una sucesión de números reales es comúnmente pre-
sentada, como hacemos acá, como una colección ordenada x0 , x1 , ¨ ¨ ¨ , xn , ¨ ¨ ¨ de números
reales que denotamos por pxn qnPN ; que es en realidad la colección de las imágenes de una
función f en FpN, Rq; esto es, xn “ f pnq para cada n P N. De esta forma, al traducir las
operaciones de adición de funciones y multiplicación de un escalar en R por una función
de N en R del ejemplo anterior, tenemos en la nomenclatura adoptada:

pxn qnPN ` pyn qnPN “ pxn ` yn qnPN y αpxn qnPN “ pαxn qnPN .

Claramente el elemento neutro para la adición de sucesiones es la sucesión nula pon qnPN ,
donde on “ 0 para todo n ě 0; además, el simétrico de la sucesión pxn qnPN es la sucesión
pyn qnPN donde yn “ ´xn para cada entero n ě 0.
En ocasiones el R-espacio vectorial de las sucesiones de números reales se acostumbra
denotar por RN . Igualmente puede dotarse de una estructura vectorial al conjunto de
sucesiones bi-infinitas con valores en R; es decir, aquellas funciones del conjunto de los
números enteros Z “ t¨ ¨ ¨ , ´2, ´1, 0, 1, 2, ¨ ¨ ¨ u en R; en este caso, al espacio FpZ, Rq se
le asigna la notación RZ . Similarmente pueden definirse estructuras vectoriales en los
conjuntos de sucesiones unilaterales o bilaterales con valores en K: FpN, Kq y FpZ, Kq, las
cuales también se denotan, respectivamente, por KN y KZ .

Ejemplo 5.8 (Espacio vectorial de funciones polinómicas reales)


Denotamos por PpRq al conjunto de todas las funciones polinómicas de variable real con
coeficientes en R; esto es, una función f : R Ñ R pertenece a PpRq si, y solo si, existe un
entero n ě 0 y constantes reales: a0 , a1 , ¨ ¨ ¨ , an con an ‰ 0, tales que para cada x P R el
valor de f en x es dado por

f pxq “ a0 ` a1 x ` a2 x2 ` ¨ ¨ ¨ ` an´1 xn´1 ` an xn ;

en este caso se dice que la función polinómica f es de grado n. Note que las funciones
polinómicas de grado 0 son las funciones constantes. Las operaciones de adición de fun-
ciones polinómicas reales y de multiplicación por escalares se definen como antes: dadas
180 Neptalı́ Romero

f, g P PpRq y α P R, las funciones f ` g y αf son definidas, para cada x P R, por

pf ` gqpxq “ f pxq ` gpxq y pαf qpxq “ αf pxq.

Claramente PpRq Ă FpR, Rq; observe además que si f, g P PpRq son dadas por

f pxq “ a0 ` a1 x ` ¨ ¨ ¨ ` an xn y gpxq “ b0 ` b1 x ` ¨ ¨ ¨ ` bm xm ,

con m ě n, entonces para cada x P R se tiene

pf ` gqpxq “ a0 ` b0 ` pa1 ` b1 qx ` ¨ ¨ ¨ ` pan ` bn qxn ` bn`1 xn`1 ` ¨ ¨ ¨ ` bm xm ;

mientras que
pαf qpxq “ αa0 ` αa1 x ` ¨ ¨ ¨ ` αan´1 xn´1 ` αan xn .

Como antes, es simple verificar que PpRq dotado de este par de operaciones es un R-
espacio vectorial; siendo que su vector nulo es la función polinómica nula O : R Ñ R dada
por Opxq “ 0 para todo x P R; además, el simétrico de la función polinómica dada por
f pxq “ a0 ` a1 x ` ¨ ¨ ¨ ` an´1 xn´1 ` an xn es la función polinómica g : R Ñ R cuya regla
de correspondencia es gpxq “ ´a0 ´ a1 x ´ ¨ ¨ ¨ ´ an´1 xn´1 ´ an xn .

Ejemplo 5.9 (Espacios de funciones reales de clase C k )


Cualesquiera sean el entero k ě 0 y el intervalo ra, bs Ă R, denotamos por C k pra, bs, Rq
al conjunto de todas las funciones continuas f : ra, bs Ñ R que tienen derivada continua
hasta el orden k en ra, bs; debe entenderse que las derivadas en los extremos del intervalo
son derivadas laterales. Cuando k “ 0, C 0 pra, bs, Rq es el conjunto de todas las funciones
continuas en ra, bs con valores en R. En cualquier caso, C k pra, bs, Rq, dotado con la adición
y multiplicación por escalares como las introducidas arriba sobre FpS, Rq, es un espacio
vectorial sobre R. Dejamos al lector la verificación de cada uno de los axiomas de la
definición 5.1 de espacio vectorial.
También tiene esa estructura si sustituimos ra, bs por cualquier intervalo abierto, e
incluso por R. Igualmente es un espacio vectorial real cuando tomamos k “ `8; es decir,
funciones que son infinitamente diferenciables.

5.2.2. Propiedades básicas en los espacios vectoriales


La siguiente proposición enuncia un conjunto de propiedades generales que son obte-
nidas directamente de la propia definición de espacio vectorial.

Proposición 5.1
Dado cualquier K-espacio vectorial pV, `, ¨q, son válidas:

a) Si u, v, w P V son tales que u ` w “ v ` w, entonces u “ v (Ley de Cancelación).

b) Dado v P V y α P K, α v “ OV si, y solo si, α “ 0 o v “ OV .

c) Si v P V, entonces su simétrico es el vector p´1qv; en adelante denotado por ´v.


Álgebra lineal: Nociones y propiedades elementales 181

d) Dados k ě 1, vectores v1 , v2 , ¨ ¨ ¨ , vk P V y cualquier α P K se tiene

αpv1 ` v2 ` ¨ ¨ ¨ ` vk q “ αv1 ` αv2 ` ¨ ¨ ¨ ` αvk . (5.2)

e) Dados k ě 1, escalares α1 , α2 , ¨ ¨ ¨ , αk P K y cualquier vector v P V se cumple

pα1 ` α2 ` ¨ ¨ ¨ ` αk qv “ α1 v ` α2 v ` ¨ ¨ ¨ ` αk v. (5.3)

Demostración.

a) Supongamos que para u, v, w P V se tiene que u`w “ v`w; entonces sumando a ambos
lados de esta igualdad el simétrico w1 del vector w se tiene pu ` wq ` w1 “ pv ` wq ` w1 .
Luego usando la asociatividad de la adición tenemos u ` pw ` w1 q “ v ` pw ` w1 q, por
lo que u ` OV “ v ` OV pues w ` w1 “ OV ; de aquı́ que u “ v.

b) (ðù) Veamos primero que 0 v “ OV . Es claro que 0 v ` 0 v “ p0 ` 0qv “ 0 v “ OV ` 0v;


por tanto sigue de a) que 0 v “ OV . Para mostrar que α OV “ OV observe que

α OV ` α OV “ αpOV ` OV q “ α OV “ α OV ` OV .

Nuevamente de la primera propiedad se concluye que α OV “ OV .


(ùñ) Supongamos que α P K y v P V son tales que α v “ OV ; deseamos verificar que
α “ 0 o v “ OV . Supongamos que α ‰ 0; por tanto existe α´1 P K tal que αα´1 “ 1.
De esta forma si α v “ OV , entonces α´1 pα vq “ α´1 OV “ OV ; pero por [M3] y [M4]
sigue que α´1 pα vq “ pα´1 αqv “ 1v “ v, de donde v “ OV .

c) Probar que p´1qv es el simétrico de v equivale a verificar, en función de [A4], que


v ` p´1qv “ OV . Probemos entonces esta igualdad:

v ` p´1qv “ 1v ` p´1qv “ p1 ` p´1qqv “ 0 v “ OV .

d) Procederemos por inducción sobre el número k ě 2.


El axioma de linealidad [M1] nos dice justamente que (5.2) se satisface para k “ 2.
Supongamos que esa identidad es satisfecha para todos los valores 2 ď k ď ` (hipótesis
inductiva), mostremos entonces que se cumple para k “ ` ` 1. En efecto:

αpv1 ` v2 ` ¨ ¨ ¨ ` v` ` v``1 q “ αppv1 ` v2 ` ¨ ¨ ¨ ` v` q ` v``1 q (¿por qué?)


“ αpv1 ` v2 ` ¨ ¨ ¨ ` v` q ` αv``1 (¿por qué?)
“ pαv1 ` αv2 ` ¨ ¨ ¨ ` αv` q ` αv``1 (¿por qué?)
“ αv1 ` αv2 ` ¨ ¨ ¨ ` αv` ` αv``1 (¿por qué?)

De esta manera queda demostrada la parte d).

La parte e) se muestra similarmente, detalles para el lector.


182 Neptalı́ Romero

Las identidades 5.2 y 5.3 anteriores se expresan de manera compacta


˜ ¸ ˜ ¸
ÿk ÿk k
ÿ ÿk
α v` “ αv` y α` v “ α` v.
`“1 `“1 `“1 `“1

Usando estas identidades se deduce muy fácilmente que


˜ ¸˜ ¸
k
ÿ ÿm ÿk ÿ m m ÿ
ÿ k
α` vj “ α` vj “ α` vj ;
`“1 j“1 `“1 j“1 j“1 `“1

lo que por extenso se escribe como

pα1 ` ¨ ¨ ¨ ` αk qpv1 ` ¨ ¨ ¨ ` vm q “ pα1 ` ¨ ¨ ¨ ` αk qv1 ` ¨ ¨ ¨ ` pα1 ` ¨ ¨ ¨ ` αk qvm


“ α1 v1 ` ¨ ¨ ¨ ` αk v1 ` ¨ ¨ ¨ ` α1 vm ` ¨ ¨ ¨ ` αk vm .

5.2.3. Ejercicios propuestos de la Sección 5.2


1. Determinar cuáles de las ternas pV, `, ¨q forman un K-espacio vectorial.

a) V “ C y K “ R con adición y multiplicación por escalares:

pa ` ibq ` pc ` idq “ pa ` cq ` ipb ` dq y αpa ` ibq “ αa ` iαb.

b) V “ C y K “ C con las operaciones

pa ` ibq ` pc ` idq “ pa ` cq ` ipb ` dq y pα ` iβqpa ` ibq “ pαa ´ βbq ` ipβa ` αbq.

c) V “ C y K “ C con las operaciones

pa ` ibq ` pc ` idq “ pa ` cq ` ipb ` dq y pα ` iβqpa ` ibq “ αa ` iβb.


#« ff +
a 0
d) V “ : a, b P R y K “ R con:
b 0
« ff « ff « ff « ff « ff
a 0 c 0 a`c 0 a 0 αa 0
` “ y α “ .
b 0 d 0 b`d 0 b 0 αb 0
(
e) V “ px, yq P R2 : y “ 2x y K “ R con las operaciones de adición y multiplicación
usuales en R2 .
(
f) V “ px, yq P R2 : y “ 2x ` a y K “ R con la adición y multiplicación usuales en
R2 ; siendo que a es una constante real no nula.
g) V un plano en R3 que pase por el origen y K “ R con las operaciones de adición y
multiplicación usuales en R3 .
h) V un plano en R3 que no pase por el origen y K “ R con las operaciones de adición
y multiplicación usuales en R3 .
Álgebra lineal: Nociones y propiedades elementales 183

i) V “ R2 y K “ R con:

pa, bq ` pc, dq “ pa ` c, b ` d ´ 1q y αpa, bq “ pαa ` 2α, bq.

2. Sea S un conjunto no vacı́o cualquiera. Se denota por FpS, Cq al conjunto de todas las
funciones f : S Ñ C. Sobre FpS, Cq se definen las operaciones de adición y multiplica-
ción por escalares en C como siguen: para cada f : S Ñ C, g : S Ñ C en FpS, Cq, y
α P C, las funciones f ` g y αf son dadas, para cada s P S, por

pf ` gqpsq “ f psq ` gpsq y pαf qpsq “ αf psq.

Demostrar que FpS, Cq con tales operaciones es un C-espacio vectorial.

3. Sean S un conjunto no vacı́o cualquiera y V un espacio vectorial sobre K. Se denota


por FpS, Vq al conjunto de todas las funciones f : S Ñ V. Para cada f, g P FpS, Vq y
α P K se definen las funciones suma f ` g y multiplicación por escalares αf por:

pf ` gqpsq “ f psq ` gpsq y pαf qpsq “ αf psq.

Demostrar que FpS, Vq con tales operaciones es un K-espacio vectorial.

4. Emplear la estructura del espacio de funciones anterior, para describir una estructura
de espacio vectorial sobre los conjuntos:

a) CN “ tpwn qnPN : wn P Cu, el conjunto de todas las sucesiones con valores en C.


b) VN “ tpvn qnPN : vn P Vu, el conjunto de todas las sucesiones con valores en V.
c) PpCq el conjunto de todas las funciones polinómicas con coeficientes en C y valores
en C; esto es, todas las funciones f : C Ñ C dadas por

f pwq “ a0 ` a1 w ` ¨ ¨ ¨ ` an wn ,

donde a0 , a1 , ¨ ¨ ¨ , an son constantes en C.

5. Sea V un K-espacio vectorial, demostrar que para cualquier número de escalares α` P K


(` “ 1, ¨ ¨ ¨ , k) y de vectores vj P V (j “ 1, ¨ ¨ ¨ , m) valen:
˜ ¸
ÿk k
ÿ
a) α` v “ α` v.
`“1 `“1
˜ ¸˜ ¸
k
ÿ m
ÿ k ÿ
ÿ m m ÿ
ÿ k
b) α` vj “ α` vj “ α` vj .
`“1 j“1 `“1 j“1 j“1 `“1

c) p´αqv “ αp´vq “ ´pαvq.


d) αpu ´ vq “ αu ´ αv.

6. Sean V1 y V2 dos K-espacios vectoriales. Sobre el producto cartesiano

V1 ˆ V2 “ tpv1 , v2 q : v1 P V1 y v2 P V2 u
184 Neptalı́ Romero

se definen operaciones adición y multiplicación por escalares en K:

pv1 , v2 q ` pw1 , w2 q “ pv1 ` w1 , v2 ` w2 q y αpv1 , v2 q “ pαv1 , αv2 q, α P K;

observe que se están empleando los mismos sı́mbolos de adición y multiplicación por
escalares en estos espacios. Demostrar que V1 ˆ V2 con estas operaciones es un espacio
vectorial sobre K; este es conocido por espacio vectorial producto de V1 por V2 .
Extender esta noción a un producto finito cualquiera V1 ˆ V2 ˆ ¨ ¨ ¨ ˆ Vn .

7. Dotar al conjunto Rn ˆ PpRq de una estructura de espacio vectorial.

8. Dotar a los conjuntos Mmˆn pCq y PpCq de una estructura de espacio vectorial sobre
R.

9. ¿Podrá dotarse a Rn de una estructura de espacio vectorial sobre C?


Ñ
Ý Ñ
Ý
10. Sea A un vector no nulo de Rn . Denote por Lp A q al conjunto de todas las rectas
Ñ
Ý
paralelas a la recta que pasa por el origen en la dirección de A ; esto es,
Ñ
Ý Ñ
Ý
Lp A q “ tLpP, A q : P P Rn u.
Ñ
Ý
Demostrar que Lp A q dotado de las operaciones
Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý Ñ
Ý
LpP, A q ` LpQ, A q “ LpP ` Q, A q y αLpP, A q “ LpαP, A q,

con α P R, es un R-espacio vectorial; es conocido por espacio vectorial de todas las


Ñ
Ý
rectas paralelas al vector A . ¿Cuál es el vector nulo de tal espacio vectorial? ¿Cuál es
Ñ
Ý
el simétrico de la recta LpP, A q?

11. En Rn (n ě 2) considere el hiperplano π dado por la ecuación a1 x1 `a2 x2 `¨ ¨ ¨`an xn “


0, recuerde que los coeficientes de esta ecuación no son todos nulos. Sea rπs el conjunto
de todos los hiperplanos en Rn paralelos a π; note que π 1 P rπs si, y solo si, existe b P R tal
que a1 x1 `a2 x2 `¨ ¨ ¨`an xn “ b es la ecuación cartesiana que describe a π 1 . Sobre rπs se
definen las operaciones ‘ y d como sigue: dados π1 , π2 P rπs descritos, respectivamente,
por las ecuaciones a1 x1 ` a2 x2 ` ¨ ¨ ¨ ` an xn “ b1 y a1 x1 ` a2 x2 ` ¨ ¨ ¨ ` an xn “ b2 ; y
α P R, los planos π1 ‘ π2 y α d π1 tienen como ecuaciones cartesianas respectivas a:

a1 x1 ` a2 x2 ` ¨ ¨ ¨ ` an xn “ b1 ` b2 y a1 x1 ` a2 x2 ` ¨ ¨ ¨ ` an xn “ αb1

Demostrar que el triplete prπs, ‘, dq es un R-espacio vectorial. ¿Cuál es el vector nulo


de tal espacio vectorial?, ¿cuál es el simétrico del hiperplano π1 ?

12. En la definición 5.1 de espacio vectorial se establece, ver axiomas [A3] y [A4], la unicidad
del vector nulo y del vector simétrico de cada vector en V. Estas condiciones de unicidad
pueden ser obviadas de la definición, de hecho suponga que en la definción 5.1 los
axiomas [A3] y [A4] son sustituidos por:

[A3’] Existe un vector OV , tal que para todo u P V, u ` OV “ u.


Álgebra lineal: Nociones y propiedades elementales 185

[A4’] Para cada u P V existe un vector u1 P V tal que u ` u1 “ OV .

A partir de esta nueva definición de espacio vectorial:

a) Verificar que la Ley de Cancelación, item a) de la proposición 5.1, continúa siendo


valida.
b) Usando la Ley de Cancelación, demostrar la unicidad del elemento neutro y la
unicidad del elemento simétrico de cada vector.

5.3. Subespacios vectoriales


Trataremos ahora con subconjuntos de espacios vectoriales que preservan esa estructura
algebraica con las mismas operaciones.

Definición 5.2
Dados un K-espacio vectorial V y un subconjunto no vacı́o U de V, se dice que U es un
subespacio vectorial de V (o simplemente, subespacio de V), si son satisfechas:
a) OV P U

b) para todo u, v P U , u ` v P U (U cerrado bajo la adición)

c) para todo u P U y cada α P K, αu P U (U cerrado bajo la multiplicación por escalares)

Comentario 5.2
Sea V un K-espacio vectorial arbitrario, cualquiera sea el subconjunto no vacı́o U de V,
siempre se satisfacen los axiomas de linealidad [A1], [A2], [M1], [M2], [M3] y [M4] en la
Definición 5.1. En general, no es cierto que U contenga al vector nulo en V ni el simétrico
de un vector en él; que son los axiomas que restan para que el conjunto U tenga estructura
de espacio vectorial con las mismas operaciones de V.
Teorema 5.1
Sea V un K-espacio vectorial. Un subconjunto no vacı́o U de V es un subespacio vectorial
de V si, y solamente si, U tiene estructura de espacio vectorial sobre K con las mismas
operaciones de V.
Demostración. Supongamos que U es subespacio vectorial de V. Según el comentario
anterior, resta mostrar que U también satisface [A3] y [A4] con las mismas operaciones de
V. Dado que OV P U y este vector es el único que satisface v`OV para todo v P V, entonces
OV es el único vector de U tal que u ` OV para todo u P U ; ası́ que [A3] se cumple para
U . Para mostrar que también cumple con [A4], observe que para todo vector u P U , su
simétrico ´u también está en U ya que p´1qu P U y p´1qu “ ´u, ver Proposición 5.1 en
la página 180. Finalmente, como en V, ´u es el único vector que satisface u ` p´uq “ OV
y OV es el neutro en U , entonces ´u es el único vector en U que satisface u ` p´uq “ OV ,
con lo cual U también cumple [A4] y en consecuencia pU, `, ¨q es un K-espacio vectorial.
El recı́proco es obvio, pues si U es espacio vectorial con las operaciones de adición y
multiplicación por escalares de V, entonces se cumplen las condiciones a), b) y c) de la
Definición 5.2.
186 Neptalı́ Romero

El siguiente teorema ofrece otra caracterización para los subespacios vectoriales, esta
une en una simple sola condición las tres partes que deben ser chequeadas según la Defi-
nición 5.2; por ello es de común uso para chequear cuando un subconjunto en un espacio
vectorial es subespacio vectorial.

Teorema 5.2
Un subconjunto U del espacio vectorial V sobre K es un subespacio vectorial de V si, y
solamente si, U ‰ H y para todo u, v P U y cada escalar α P K, vale u ` αv P U .

Demostración. Observe que si U es subespacio vectorial de V, entonces de la Definición


5.2 sigue inmediatamente que U es no vacı́o; además, también es claro que u ` αv P U
cualesquiera sean u, v P U y α P K. Para mostrar el recı́proco basta asignar valores
especiales a α y ası́ certificar que las condiciones en la Definición 5.2 son satisfechas.

Corolario 5.1
Sean V un espacio vectorial sobre K y U un subespacio vectorial de V. Cualesquiera sean:
el entero positivo n, los vectores u1 , ¨ ¨ ¨ , un en U y los escalares α1 , ¨ ¨ ¨ , αn en K, siempre
se cumple que α1 u1 ` ¨ ¨ ¨ ` αn un P U .

Demostración. La demostración sigue del teorema anterior usando inducción matemáti-


ca sobre el entero n. Dejamos los detalles al lector.

5.3.1. Ejemplos de subespacios vectoriales

Mostraremos a seguir algunos ejemplos clásicos de subespacios vectoriales.

Ejemplo 5.10 (Subespacios triviales)


Dado cualquier espacio vectorial V sobre K, claramente el mismo V y el subconjunto
U “ tOV u son subespacios vectoriales de V; estos son conocidos por subespacios triviales
de V, el segundo de ellos es llamado subespacio nulo de V.

Ejemplo 5.11 (R como subespacio vectorial del R-espacio vectorial C)


Es bien conocido que sobre el conjunto de los números complejos C (de hecho sobre Cn ,
cualquiera sea el entero n ě 1) son construidas estructuras vectoriales tanto sobre el propio
C como sobre R; en este último caso la multiplicación por escalares se lleva a efecto con
números reales. Consideremos el R-espacio vectorial C con la adición usual de números
complejos y la multiplicación usual de números reales por números complejos; ver Ejemplo
5.3. Dado que R lo podemos ver como un subconjunto de C, como para todo u, v, α P R
se tiene u ` αv P R, entonces del Teorema 5.2 sigue que R es un subespacio vectorial
de C. Esta propiedad deja de ser cierta si consideramos en C la estructura de C espacio
vectorial, es decir cuando la multiplicación por escalares se efectúa sobre el propio C (ver
Ejemplo 5.2); la razón es que el producto de un número complejo por un número real
no necesariamente es un número real; por ejemplo, p1 ` iq2 “ 2 ` 2i R R; ası́ que esta
multiplicación por escalares no es cerrada en R.
Álgebra lineal: Nociones y propiedades elementales 187

Ejemplo 5.12 (Espacio solución de sistemas de lineales homogéneos)


Consideremos cualquier sistema de ecuaciones lineales homogéneo con coeficientes en K
$


’ a11 x1 ` a12 x2 ` ¨ ¨ ¨ ` a1n xn “ 0
& a21 x1 ` a22 x2 ` ¨ ¨ ¨ ` a2n xn “ 0

.. . (5.4)


’ .

% a x ` a x ` ¨¨¨ ` a x “ 0
m1 1 m2 2 mn n

Recordamos que este sistema » de ecuaciones se fi escribe mediante la ecuación matricial


a11 a12 ¨ ¨ ¨ a1n
— a21 a22 ¨ ¨ ¨ a2n ffi
— ffi
AX “ O, donde A “ — . — .. ffi P Mmˆn pKq es la matriz del sistema,
.. ffi
– .. . ¨¨¨ . fl
am1 am2 ¨ ¨ ¨ amn
» fi
x1
— x2 ffi
— ffi
X “ — — .. ffi es la matriz incógnita y O es la matriz nula unicolumna de orden m ˆ 1;
ffi
– . fl
xn
también es conocido que el conjunto solución SpA, Oq de (5.4) es la colección de todas las
n-tuplas px1 , ¨ ¨ ¨ , xn q P Kn que satisfacen cada una de las ecuaciones en»(5.4).
fi En términos
x1
— x2 ffi
— ffi
matriciales, SpA, Oq es el conjunto de matrices unicolumnas X “ — — .. ffi P Mnˆ1 pKq
ffi
.
– fl
xn
tales que AX “ O. Sin importar la manera como consideremos el conjunto solución de
(5.4), como n-tuplas o matrices unicolumnas, SpA, Oq es siempre un subespacio vectorial.
Ofrecemos una verificación de esta afirmación siguiendo la notación matricial. En primer
lugar, es claro que la matriz nula unicolumna de orden n ˆ 1 está en SpA, Oq. Por otro
lado, para cada α P K y todo par X1 , X2 P SpA, Oq, se tiene

ApX1 ` αX2 q “ AX1 ` ApαX2 q “ AX1 ` αAX2 “ O ` αO “ O;

por tanto SpA, Oq es un subespacio vectorial de Mnˆ1 pKq, o de Kn según sea la interpre-
tación que se le de al conjunto de soluciones del sistema (5.4).
En adelante llamaremos espacio solución de (5.4), o de AX “ O, al subespacio vectorial
SpA, Oq. Observe que los hiperplanos de Rn que pasan por el origen son subespacios
vectoriales de Rn , pues ellos son descritos como el conjunto solución de una ecuación
lineal homogénea.
Es importante mencionar que para cualquier sistema de ecuaciones lineales no ho-
mogéneo, digamos AX “ B con A P Mmˆn pKq y B P Mmˆ1 pKq diferente de la matriz
unicolumna O, su conjunto solución no es un subespacio vectorial pues no contiene a
la solución nula. En particular los hiperplanos en Rn que no pasan por el origen no son
subespacios vectoriales de Rn .
188 Neptalı́ Romero

Ejemplo 5.13 (Rectas y planos pasando por el origen)


Ñ
Ý Ñ
Ý
Sean A un vector no nulo de Rn y LpO, A q la recta que pasa por el origen en la dirección
Ñ
Ý
de A ; esto significa
Ñ
Ý
LpO, A q “ tX P Rn : X “ αA, para algún α P Ru.
Ñ
Ý Ñ
Ý
Dado que O P LpO, A q (O “ 0A) y cualesquiera sean α P R, y X1 , X2 P LpO, A q se tiene

X1 ` αX2 “ α1 A ` α2 A “ pα1 ` α2 qA, para ciertos α1 , α2 P R,


Ñ
Ý Ñ
Ý
sigue por tanto que X1 ` αX2 P LpO, A q, y ası́ LpO, A q es un subespacio de Rn . Note que
cualquier recta en Rn que no pase por el origen, no es subespacio vectorial de Rn .
Ñ
Ý ÑÝ
De manera análoga se verifica que cualquier plano πpO, A , B q de Rn que pase por el
origen es un subespacio de Rn ; recuerde que
Ñ
Ý Ñ Ý
πpO, A , B q “ tX P Rn : X “ α1 A ` α2 B, para algunos α1 , α2 P Ru.

Observe que las rectas o planos en Rn que no pasen por el origen no son subespacios
vectoriales de Rn .

Ejemplo 5.14 (Matrices simétricas)


En el espacio vectorial Mn pKq de todas las matrices cuadradas de orden n sobre K, el
subconjunto Sn pKq de todas las matrices simétricas es un subespacio vectorial; recordamos
que A P Mn pKq es simétrica siempre que A “ At .
Obviamente la matriz nula es simétrica. Sean A, B P Sn pKq y α cualquier escalar en
K. Para mostrar que Sn pKq es un subespacio vectorial de Mn pKq basta verificar que la
matriz A ` αB es simétrica, lo cual es muy simple pues

pA ` αBqt “ At ` pαBqt “ At ` αB t “ A ` αB.

Es igualmente simple verificar que cada uno de los subconjuntos de matrices indicados
en la Definición 1.3 (ver página 5) es un subespacio vectorial de Mn pKq.

Ejemplo 5.15 (Funciones polinómicas reales de grado menor o igual a n)


En el Ejemplo 5.8 se definió la estructura usual de espacio vectorial sobre el conjunto
PpRq de todas las funciones polinómicas reales; en realidad este es un subespacio vectorial
del espacio vectorial FpR, Rq de todas las funciones de R en R; ver Ejemplo 5.6. Ahora
consideraremos el conjunto Pn pRq de todas las funciones polinómicas de grado menor o
igual a n con valores en los reales; es decir, son funciones en PpRq cuyo grado no excede
a n. Obviamente Pn pRq es no vacı́o: la función nula es un elemento de este conjunto; es
igualmente simple de chequear que la suma (usual) de funciones en este conjunto perma-
necen allı́, al igual que el producto de un número real por una de esas funciones. Ello
dice que Pn pRq es un subespacio vectorial de PpRq, y también de FpR, Rq. Note que las
funciones polinómicas de grado 0 son las funciones constantes.

Ejemplo 5.16 (Espacio solución de ecuaciones diferenciales)


Una ecuación diferencial ordinaria lineal homogénea de orden k ě 1 en el intervalo I es
Álgebra lineal: Nociones y propiedades elementales 189

cualquier ecuación del tipo:

y pkq ` ak´1 ptqy pk´1q ` ¨ ¨ ¨ ` a1 ptqy 1 ` a0 ptqy “ 0, (5.5)

donde: aj : I Ñ R (j “ 0, ¨ ¨ ¨ , k) es una función continua, la variable y asume valores en el


espacio vectorial de todas las funciones de clase C k pI, Rq, y las expresiones y 1 , y p2q , ¨ ¨ ¨ , y pkq
denotan las derivadas de y hasta el orden k. Una solución de (5.5) se define como cualquier
función f : I Ñ R de clase C k tal que

f pkq ptq ` ak´1 ptqf pk´1q ptq ` ¨ ¨ ¨ ` a1 ptqf 1 ptq ` a0 ptqf ptq “ 0, (5.6)

para todo t P I. Observe que la función constante mula O : I Ñ R, con Optq “ 0


para todo t P I, es solución de (5.5). Por tanto, el conjunto H de todas las funciones
f : I Ñ R de clase C k que resuelven (5.5) es no vacı́o: por lo menos contiene a la función
nula, que es justamente el elemento neutro del espacio vectorial de todas las funciones de
clase C k . Veamos que además de ser no vacı́o, H es un subespacio vectorial de C k pI, Rq.
Consideremos funciones f, g P H; es decir, f y g satisfacen (5.5), y sea α P R; verifiquemos
entonces que f ` αg P H. En efecto, dado que para cada t P I se cumplen:

f pkq ptq ` ak´1 ptqf pk´1q ptq ` ¨ ¨ ¨ ` a1 ptqf 1 ptq ` a0 ptqf ptq “ 0 y
g pkq ptq ` ak´1 ptqg pk´1q ptq ` ¨ ¨ ¨ ` a1 ptqg 1 ptq ` a0 ptqgptq “ 0,

se tiene (por cuenta de propiedades elementales de las derivadas) que

pf ` αgqpkq ptq ` ak´1 ptqpf ` αgqpk´1q ptq ` ¨ ¨ ¨ ` a1 ptqpf ` αgq1 ptq ` a0 ptqpf ` αgqptq
“ pf pkq ptq ` αg pkq ptqq ` ak´1 ptqpf pk´1q ptq ` αg pk´1q ptqq ` ¨ ¨ ¨ ` a1 ptqpf 1 ptq ` αg 1 ptqq
`a0 ptqpf ptq ` αgptqq
pkq pk´1q 1
“ f ptq ` ak´1 ptqf ptq ` ¨ ¨ ¨ ` a1 ptqf ptq ` a0 ptqf ptq
`αpg pkq ptq ` ak´1 ptqg pk´1q ptq ` ¨ ¨ ¨ ` a1 ptqg 1 ptq ` a0 ptqgptqq
“ 0 ` α0 “ 0.

De esta forma, H es un subespacio vectorial de C k pI, Rq.

5.3.2. Subespacios generados por un conjunto de vectores.


Una parte importante del Álgebra lineal está sustentada por la noción que discutiremos
en este apartado, y que está directamente relacionada con el concepto de combinación
lineal. Recuerde que si V un K-espacio vectorial, entonces para cualquier número finito de
vectores v1 , v2 , ¨ ¨ ¨ , vk P V, e igual número de escalares α1 , α2 , ¨ ¨ ¨ , αk P K, la expresión
k
ÿ
α1 v1 ` α2 v2 ` ¨ ¨ ¨ ` αk vk “ α` v`
`“1

determina un vector de V. Observe en particular que si v1 , v2 , ¨ ¨ ¨ , vk están en algún subes-


ÿk
pacio vectorial W de V, entonces α` v` es también un vector en W , cualesquiera sean
`“1
α1 , α2 , ¨ ¨ ¨ , αk P K.
190 Neptalı́ Romero

Definición 5.3
Sea V un espacio vectorial sobre K.
‚ Se dice que un vector u P V es combinación lineal de los vectores v1 , v2 , ¨ ¨ ¨ , vk si existen
escalares α1 , α2 , ¨ ¨ ¨ , αk P K tales que

k
ÿ
u “ α1 v1 ` α2 v2 ` ¨ ¨ ¨ ` αk vk pequivalentemente u “ α` v` q.
`“1

‚ Dado un subconjunto no vacı́o U de V, CLpU q denota el conjunto de todas las combina-


ciones lineales de vectores en U ; es decir,
# +
k
ÿ
CLpU q “ α` v` : v` P U, α` P K con 1 ď ` ď k y k ě 1 .
`“1

Proposición 5.2
Sea V un espacio vectorial sobre K. Si U es un subconjunto no vacı́o de V, entonces
CLpU q es un subespacio vectorial de V; además, es el menor (respecto de la inclusión de
conjuntos) de todos los subespacios de V que contienen a U . Esto es, si W es cualquier
otro subespacio de V que contiene a U , entonces CLpU q Ă W .

Demostración. Primero veamos que CLpU q es un subespacio vectorial de V. Antes note


que cualquiera sea u P U , se tiene 1.u “ u P CLpU q y ası́ U Ă CLpU q; observe también que
OV está en U Ă CL pues OV “ 0.v cualquiera sea el vector v.
Sean u, v P CLpU q y α P K; tomemos vectores u1 , u2 , ¨ ¨ ¨ , um , v1 , v2 , ¨ ¨ ¨ , vn en U y
escalares α1 , α2 , ¨ ¨ ¨ , αm , β1 , β2 , ¨ ¨ ¨ , βn P K tales que

u “ α1 u1 ` α2 u2 ` ¨ ¨ ¨ ` αm um y v “ β1 v1 ` β2 v2 ` ¨ ¨ ¨ ` βn vn .

Luego

u ` αv “ α1 u1 ` α2 u2 ` ¨ ¨ ¨ ` αm um ` αpβ1 v1 ` β2 v2 ` ¨ ¨ ¨ ` βn vn q
“ α1 u1 ` α2 u2 ` ¨ ¨ ¨ ` αm um ` αβ1 v1 ` αβ2 v2 ` ¨ ¨ ¨ ` αβn vn ,

que también es una combinación lineal de vectores en U ; por tanto u ` αv P CLpU q, y


ası́ CLpU q es un subespacio vectorial de V.
Por otra parte, si W es cualquier subespacio vectorial de V con U Ă W , por lo discutido
en el parágrafo anterior a la Definición 5.3, cualquier combinación lineal de vectores en U
está en W ; es decir, CLpU q Ă W . Esto termina la demostración de la proposición.

Definición 5.4
Sean V un espacio vectorial sobre K, W un subespacio vectorial de V y U Ă V no vacı́o.
Al subespacio vectorial CLpU q se le conoce con el nombre de subespacio vectorial generado
por U ; en adelante denotado por SpU q. Si SpU q “ W, entonces se dice que el conjunto U
es un generador del subespacio vectorial W.
Álgebra lineal: Nociones y propiedades elementales 191

Es frecuente encontrar en los libros de Álgebra lineal, especialmente los escritos en


inglés, la notación spanpU q para designar el subespacio vectorial generado por el conjunto
U ; también son empleadas xU y y rU s para los mismos propósitos.
El teorema a continuación expone algunas propiedades generales de los subespacios
vectoriales generados por un conjunto de vectores.

Teorema 5.3
En todo espacio vectorial V sobre K se cumplen:

a) Si U “ tOV u, entonces SpU q “ tOV u.

b) Si U es un subespacio del K-espacio vectorial V, entonces SpU q “ U .

c) Si U y W son subconjuntos no vacı́os de V y U Ă W , entonces SpU q Ă SpW q.

d) Si U y W son subconjuntos no vacı́os de V y U Ă SpW q, entonces SpU q Ă SpW q.

e) Si U es un subconjunto no vacı́o de V y W una parte propia de U tal que W Ă SpU 1 q,


donde U 1 “ U zW , entonces SpU q “ SpU 1 q.

Demostración. Mostraremos solo la última parte, el resto queda para el lector. Observe
que de la parte b) se tiene SpU 1 q Ă SpU q, resta por tanto mostrar que SpU q Ă SpU 1 q.
Sea v P SpU q, luego existen vectores v1 , ¨ ¨ ¨ , vn en U y escalares α1 , ¨ ¨ ¨ , αn en K tales
que v “ α1 v1 ` ¨ ¨ ¨ ` αn vn . Si todos los vectores v1 , ¨ ¨ ¨ , vn estuviesen en U 1 , entonces
v P SpU 1 q y no habrı́a nada que mostrar. Sin embargo, puede ocurrir que algunos de ellos
no pertenezcan a U 1 . Para simplificar la demostración supongamos que los vector v1 , ¨ ¨ ¨ , v`
son los que no están U 1 . Claramente tv1 , ¨ ¨ ¨ , v` u Ă W , y ası́ α1 v1 ` ¨ ¨ ¨ ` α` v` P SpU 1 q.
Por otra parte, dado que tv``1 , ¨ ¨ ¨ , vn u Ă U 1 se tiene α``1 v``1 ` ¨ ¨ ¨ ` αn vn P SpU 1 q. De
esta forma
α1 v1 ` ¨ ¨ ¨ ` α` v` ` α``1 v``1 ` ¨ ¨ ¨ ` αn vn “ v P SpU 1 q;
de donde SpU q Ă SpU 1 q.

Ejemplo 5.17
Consideremos en el K-espacio vectorial Kn la colección de sus vectores canónicos:

E1 “ p1, 0, ¨ ¨ ¨ , 0q, E2 “ p0, 1, 0, ¨ ¨ ¨ , 0q, ¨ ¨ ¨ , En “ p0, ¨ ¨ ¨ , 0, 1q.

Es simple chequear que para cada px1 , x2 , ¨ ¨ ¨ , xn q P Kn , la única forma de escribir este
vector como combinación lineal de E1 , E2 , ¨ ¨ ¨ , En es
n
ÿ
px1 , x2 , ¨ ¨ ¨ , xn q “ x1 E1 ` x2 E2 ` ¨ ¨ ¨ ` xn En “ x` E` .
`“1

Esto dice en particular que tE1 , ¨ ¨ ¨ , En u es un generador de Kn .

Ejemplo 5.18
Recordemos que sobre Cn (n ě 1) hemos definido dos estructuras de espacio vectorial: una
compleja y otra real. En la compleja, como acabamos de mostrar en el ejemplo anterior, los
192 Neptalı́ Romero

vectores canónicos en Cn sirven para expresar cualquier n-tupla de Cn como combinación


lineal de ellos. Sin embargo, esta propiedad deja de ser cierta cuando consideramos a Cn
como un espacio vectorial sobre R. Por ejemplo tomemos, por simplicidad, el caso n “ 2.
En el R-espacio vectorial C2 el vector w “ pi, 0q no puede escribirse como combinación
lineal de los vectores canónicos E1 “ p1, 0q y E2 “ p0, 1q. De no ser ası́ existirı́an escalares
α, β P R tales que
pi, 0q “ αp1, 0q ` βp0, 1q “ pα, βq,
de donde α “ i P R; lo cual es obviamente falso. Lo que si puede ser fácilmente verificado
es que todo vector en C2 (como R-espacio vectorial) se escribe de manera única como
combinación lineal de los vectores E1 “ p1, 0q, E2 “ p0, 1q, E3 “ pi, 0q y E4 “ p0, iq. Esta
propiedad es claramente extendida a Cn como un espacio vectorial sobre R.

Ejemplo 5.19
En el K-espacio vectorial Mmˆn pKq de las matrices de orden m ˆ n con coeficientes en K
ocurre, con las matrices canónicas Eij (1 ď i ď m, 1 ď j ď n), algo similar a lo expuesta
en el Ejemplo 5.17: para cualquier matriz A “ raij smˆn en Mmˆn pKq, se tiene
m ÿ
ÿ n
A“ aij Eij “ a11 E11 ` ¨ ¨ ¨ ` a1n E1n ` ¨ ¨ ¨ ` am1 Em1 ` ¨ ¨ ¨ ` amn Emn ; (5.7)
i“1 j“1
#
1, si r “ i, s “ j
recuerde que Eij “ rδrs smˆn , con δrs “ ; la matrz Eij tiene
0, en cualquier otro caso
todas sus entradas iguales a 0, excepto entrada ubicada en la fila i y columna j que es igual
a 1. Además, la expresión en (5.7) es la única forma de escribir a A como combinación
lineal de las matrices canónicas de Mmˆn pKq.

Ejemplo 5.20
Consideremos el R-espacio vectorial Pn pRq de todas las funciones polinómicas reales de
grado menor o igual a n. Las funciones polinómicas p0 , p1 , ¨ ¨ ¨ , pn : R Ñ R definidas, para
cada x P R, por las reglas de correspondencia

p0 pxq “ 0, p1 pxq “ x, ¨ ¨ ¨ , pn pxq “ xn

son denominadas funciones polinómicas canónicas de Pn pRq. Como sabemos, para toda
función en p : R Ñ R en Pn pRq existen constantes a0 , ¨ ¨ ¨ , an en R tales que para cada
x P R se cumple ppxq “ a0 ` a1 x ` ¨ ¨ ¨ ` an xn ; por tanto, p “ a0 p0 ` a1 p1 ` ¨ ¨ ¨ ` an pn ;
pues para todo x P R se tiene ppxq “ a0 p0 pxq ` a1 p1 pxq ` ¨ ¨ ¨ ` an pn pxq. De lo cual sigue
que Sptp0 , p1 , ¨ ¨ ¨ , pn uq “ Pn pRq.
Empleando los mismos argumentos se demuestra (se deja al lector) que si pn : R Ñ R
es la función dada por pn pxq “ xn para cada x P R, entonces U “ tpn : n ě 0u genera al
espacio vectorial PpRq; es decir, SpU q “ PpRq. Observe además que cualquier subconjunto
propio de U no genera a PpRq.

Ejemplo 5.21
En R2 con la estructura vectorial usual deseamos saber cuál es el subespacio vectorial
Álgebra lineal: Nociones y propiedades elementales 193

generado por el vector v “ p1, 2q. Las combinaciones lineales formadas con v son justamente
los vectores αv, con α recorriendo R. Es decir, px, yq P Sptvuq si, y solamente si, existe
un escalar α P R tal que px, yq “ αp1, 2q “ pα, 2αq; lo que equivale a decir que x “ α y
y “ 2α. Esto es, Sptvuq “ tpx, yq P R2 : y “ 2xu; que es la recta de R2 que pasa por el
origen en la dirección del vector v “ p1, 2q.

Ejemplo 5.22
Consideremos el espacio euclidiano R3 los vectores v “ p1, 2, 1q y u “ p2, 4, 2q. Note que u
y v son paralelos, de hecho, u “ 2v. Veamos quién es Sptu, vuq.

px, y, zq P Sptu, vuq ðñ Dα, β P R tal que px, y, zq “ αp1, 2, 1q ` βp2, 4, 2q


ðñ Dα, β P R tal que px, y, zq “ pα ` 2β, 2α ` 4β, α ` 2βq
ðñ Dα, β P R tal que px, y, zq “ pα ` 2βqp1, 2, 1q
ðñ px, y, zq “ δp1, 2, 1q con δ “ α ` 2β y α, β P R
ðñ px, y, zq P Sptvuq.

Esta secuencia de equivalencias permiten concluir que Sptu, vuq “ Sptvuq. Dejamos al
lector la tarea de verificar que Sptvuq es la recta en R3 que pasa por el origen en la
dirección de v “ p1, 2, 1q; esto es, Sptvuq “ tpx, y, zq P R3 : 2x “ y “ 2zu.

Ejemplo 5.23
Continuando en el espacio euclidiano R3 consideramos u “ p1, 1, 2q y v “ p´1, 0, ´3q,
determinaremos el subespacio vectorial de R3 generado por ellos. Claramente px, y, zq
pertenece a Sptu, vuq si, y solo si, existen escalares α, β P R tales que px, y, zq “ αu ` βv.
La
$ existencia o no de esos escalares equivale a decidir si el sistema de ecuaciones lineales
& α´β “x

α “ y tiene solución. Ahora bien, esto ocurre si, y solamente si, la matriz del

% 2α ´ 3β “ z
» fi » fi
1 ´1 1 ´1 x
sistema – 1 0 fl y su ampliada – 1 0 y fl tienen el mismo rango. De esta forma,
— ffi — ffi
2 ´3 2 ´3 z
al determinar los valores de x, y y z de manera que las matrices anteriores tengan el mismo
rango, estaremos caracterizando (en términos de las variables x, y, z) los vectores px, y, zq
de R3 que pertencen al subespacio vectorial Sptu, vuq.
Procedamos entonces a descubrir tales relaciones que determinan los valores posibles
de x, y, z. Para ello examinamos los rango de las matrices de arriba; esto se hace, como
siempre, empleando operaciones elementales por filas:
» fi » fi » fi
1 ´1 x 1 ´1 x 1 ´1 x
ffi f2 ÝÑf2 ´f1 — ffi f3 ÝÑf3 `2f2 —
– 1 0 y fl ÝÝÝÝÝÝÝÑ – 0 1 y ´ x fl ÝÝÝÝÝÝÝÝÑ – 0 1 y´x fl .
— ffi
2 ´3 z 0 ´2 z ´ 2x 0 0 z ` 2y ´ 4x

De acá sigue que las matrices del sistema y su ampliada tienen el mimso rango si, y
solamente si, ´4x ` 2y ` z “ 0. Esto equivale a decir que px, y, zq P Sptu, vuq si, y solo
si, ´4x ` 2y ` z “ 0. En otras palabras Sptu, vuq “ tpx, y, zq P R3 : ´4x ` 2y ` z “ 0u;
194 Neptalı́ Romero

en otras palabras, el subespacio vectorial generado por u y v es el plano que pasa por el
Ñ
Ý ÝÝÝÝÝÝÑ
origen y con vector normal N “ p´4, 2, 1q.

Ejemplo 5.24
En PpRq, espacio de todas las funciones polinómicas reales, consideremos los vectores
(funciones polinómicas reales): p0 , p1 , p2 , p3 dadas por

p0 pxq “ 2, p1 pxq “ 1 ` x, p2 pxq “ ´x2 y p3 pxq “ x ` x2 , para cada x P R.

Deseamos determinar las funciones en PpRq que pertenecen a Sptp0 , p1 , p2 , p3 uq. Supon-
gamos que p P Sptp0 , p1 , p2 , p3 uq; es decir, existen escalares α0 , α1 , α2 , α3 P R tales que

p “ α0 p 0 ` α1 p 1 ` α2 p 2 ` α3 p 3 ;

en otras palabras, si hacemos ppxq “ a0 ` a1 x ` a2 x2 ` a3 x3 para todo x P R, entonces:

a0 ` a1 x ` a2 x2 ` a3 x3 “ α0 p0 pxq ` α1 p1 pxq ` α2 p2 pxq ` α3 p3 pxq


“ 2α0 ` α1 p1 ` xq ` α2 p´x2 q ` α3 px ` x2 q
“ p2α0 ` α1 q ` pα1 ` α3 qx ` p´α2 ` α3 qx2

vale para todo x P R. Claramente de acá sigue que p P Sptp0 , p1 , p2 , p3 uq si, y solo
si, existen
$ escalares α0 , α1 , α2 , α3 en R de manera que el sistema de ecuaciones linea-

’ 2α 0 ` α1 “ a0

& α `α “a
1 3 1
les tenga solución; en otras palabras, las matrices del sistema y su

’ ´α 2 ` α 3 “ a 2

0 “ a3
%
ampliada:
» fi » fi
2 1 0 0 2 1 0 0 a0
— 0 1 1 0 ffi — 0 1 1 0 a1 ffi
y
— ffi — ffi
— ffi — ffi
– 0 0 ´1 1 fl – 0 0 ´1 1 a2 fl
0 0 0 0 0 0 0 0 a3

tienen igual rango. Note que la matriz del sistema tiene rango 3 pues es escalonada; por
tanto ambas tienen el mismo rango si, y solamente si, a3 “ 0. De esta manera, el subespacio
vectorial de PpRq generado por las funciones polinómicas p0 , p1 , p2 , p3 es

Sptp0 , p1 , p2 , p3 uq “ tp : ppxq “ a0 ` a1 x ` a2 x2 , con a0 , a1 , a2 P Ru “ P2 pRq.

Ejemplo 5.25 $
x ` 2y ´ z ` w “ 0

&
Consideremos el sistema de ecuaciones lineales homogéneo x ` 2y ` w “ 0 . Re-

% 2x ` 4y ´ z ` 2w “ 0
cordaremos en este ejemplo cómo obtener un conjunto generador del espacio solución de
un sistema de ecuaciones lineales homogéneo. Para tal fin procedemos a encontrar la forma
canónica de Gauss-Jordan de la matriz del sistema; esto es, la forma escalonada reducida
Álgebra lineal: Nociones y propiedades elementales 195
» fi
1 2 ´1 1
por filas de A “ – 1 2 0 1 fl. Es claro que
— ffi
2 4 ´1 2
» fi » fi » fi
1 2 ´1 1 1 2 ´1 1 1 2 0 1
ffi f2 Ñf2 ´f1 — ffi f1 Ñf1 ´f2 —
– 1 2 0 1 fl ÝÝÝÝÝÝÝÑ – 0 0 1 0 fl ÝÝÝÝÝÝÑ – 0 0 1 0 fl ;
— ffi
f3 Ñf3 ´2 f1 f3 Ñf3 ´f2
2 4 ´1 2 0 0 1 0 0 0 0 0
» fi
1 2 0 1
ası́, C “ – 0 0 1 0 fl es la forma canónica de Gauss-Jordan de A, luego rangopAq “ 2
— ffi
0 0 0 0
y el número de variables libres del sistema dado es también 2 (“ rango - número de
incógnitas). Note que las variables libres pueden ser elegidas como y#y w. Como el sistema
x ` 2y ` w “ 0
de ecuaciones lineales homogéneo correspondiente a la matriz C es , al
z“0
asignarle a las variables libre los valores canónicos: y “ 1, w “ 0, y y “ 0, w “ 1, tenemos
como soluciones generadoras del espacio solución del sistema AX “ O a los vectores
unicolumna: » fi » fi
´2 ´1
— 1 ffi — 0 ffi
u1 “ — ffi y u2 “ — ffi .
— ffi — ffi
– 0 fl – 0 fl
0 1
De esta forma, SpA, Oq “ Sptu1 , u2 uq; esto es, cualquier solución u de AX “ O tiene la
forma » fi
´2α ´ β
— α ffi
u “ αu1 ` βu2 “ — ffi , con α y β variando en R.
— ffi
– 0 fl
β

La siguiente proposición establece un criterio muy simple, en términos de sistemas de


ecuaciones lineales, para saber cuando un vector de Km es combinación lineal de una deter-
minada colección de vectores en Km . Aunque el criterio luzca muy particular, referido solo
al espacio vectorial Km , es en realidad aplicable a una basta clase de espacios vectoriales,
como discutiremos más adelante.

Proposición 5.3
Dada una colección finita cualquiera de vectores en Km , digamos

v1 “ pa11 , ¨ ¨ ¨ , am1 q, v2 “ pa12 , ¨ ¨ ¨ , am2 q, ¨ ¨ ¨ , vn “ pa1n , ¨ ¨ ¨ , amn q,

un vector v “ pb1 , ¨ ¨ ¨ , bm q P Km es
$ combinación lineal de v1 , v2 , ¨ ¨ ¨ , vn si, y solamente si,
’ a11 x1 ` a12 x2 ` ¨ ¨ ¨ ` a1n xn “ b1


& a21 x1 ` a22 x2 ` ¨ ¨ ¨ ` a2n xn “ b2

el sistema de ecuaciones lineales .. tiene solución.


’ .

% a x ` a x ` ¨¨¨ ` a x “ b
m1 1 m2 2 mn n m
196 Neptalı́ Romero

Demostración. Sabemos que v “ pb1 , ¨ ¨ ¨ , bm q es combinación lineal de v1 , v2 , ¨ ¨ ¨ , vn si,


y solamente si, existen escalares x1 , x2 , ¨ ¨ ¨ , xn P K tales que v “ x1 v1 ` x2 v2 ` ¨ ¨ ¨ ` xn vn ;
en extenso

pb1 , ¨ ¨ ¨ , bm q “ x1 pa11 , ¨ ¨ ¨ , am1 q ` x2 pa12 , ¨ ¨ ¨ , am2 q ` ¨ ¨ ¨ ` xn pa1n , ¨ ¨ ¨ , amn q


“ pa11 x1 ` a12 x2 ` ¨ ¨ ¨ ` a1n xn , ¨ ¨ ¨ , am1 x1 ` am2 x2 ` ¨ ¨ ¨ ` amn xn q.

Igualando componentes
$ concluimos que v P Sptv1 , ¨ ¨ ¨ , vn uq si, y solo si, el sistema de


’ a11 x1 ` a12 x2 ` ¨ ¨ ¨ ` a1n xn “ b1
& a21 x1 ` a22 x2 ` ¨ ¨ ¨ ` a2n xn “ b2

ecuaciones lineales .. tiene solución.


’ .

% a x ` a x ` ¨¨¨ ` a x “ b
m1 1 m2 2 mn n m

Ejemplo 5.26
Consideremos en R4 los vectores v1 “ p1, 2, ´1, 0q, v2 “ p0, ´1, 1, 2q y v3 “ p1, 2, 2, 1q.
Deseamos conocer como es el subespacio vectorial generado por estos vectores.
De la proposición anterior tenemos que pa, b, c, dq P Sptv1 , v2 , v3 uq si, y solo si,
$

’ x1 ` x3 “ a

& 2x ´ x ` 2x “ b
1 2 3
(5.8)

’ ´x 1 ` x 2 ` 2x 3 “c

2x2 ` x3 “ d
%
» fi » fi
1 0 1 1 0 1 b
— 2 ´1 2 ffi — 2 ´1 2 b ffi
tiene solución; es decir, — ffi y — ffi tienen el mismo rango.
— ffi — ffi
– ´1 1 2 fl – ´1 1 2 c fl
0 2 1 0 2 1 d
Procedamos por tanto a calcular estos rangos:
» fi » fi
1 0 1 a 1 0 1 a
— 2 ´1 2 b ffi
ffi f2 Ñf2 ´2f1 — 0 ´1 0 b ´ 2a ffi f3 Ñf3 `f2
— ffi

— ffi ÝÝÝÝÝÝÝÑ — ffi ÝÝÝÝÝÝÑ
– ´1 1 2 c fl f3 Ñf3 `f1 – 0 1 3 a ` c fl
0 2 1 d 0 2 1 d
» fi » fi
1 0 1 a 1 0 1 a
— 0 ´1 0 ´2a ` b ffi ffi f4 Ñf4 `2f2 — 0 ´1 0 ´2a ` b
— ffi
— ffi
— ffi ÝÝÝÝÝÝÝÑ — ffi
– 0 0 3 ´a ` b ` c fl – 0 0 3 ´a ` b ` c fl
0 2 1 d 0 0 2 ´4a ` 2b ` d
» fi
1 0 1 a
f4 Ñf4 ´ 2 f3 — 0 ´1 0 ´2a ` b
— ffi
ÝÝÝÝÝÝ3ÝÑ — ffi .
ffi
– 0 0 3 ´a ` b ` c fl
0 0 0 ´ 10 3 a ` 4
3 b ´ 2
3 c ` d

De acá que la matriz del sistema (5.8) tenga rango 3; por tanto, el subespacio vectorial
Sptv1 , v2 , v3 uq es caracterizado linealmente por la ecuación 10a ´ 4b ` 2c ´ 3d “ 0; es decir

Sptv1 , v2 , v3 uq “ tpx, y, z, wq P R4 : 10a ´ 4b ` 2c ´ 3d “ 0 “ 0u.


Álgebra lineal: Nociones y propiedades elementales 197

Note que Sptv1 , v2 , v3 uq es el hiperplano de R4 que pasa por el origen y tiene como
ÝÝÝÝÝÝÝÝÝÝÑ
normal al vector p10, ´4, 2, ´1q. Usando esta caracterización es muy simple decidir, por
ejemplo, si u1 “ p´2, ´1, ´1, ´6q y u2 “ p0, 0, 0, 1q pertenecen al subespacio vectorial
de R4 generado por v1 , v2 y v3 . El primero sı́ y el segundo no, ellos es debido a que las
componentes de u1 cumplen con la ecuación lineal que define a Sptv1 , v2 , v3 uq, mientras
que las de u2 no lo hacen.

Comentario 5.3
Note que el criterio anterior equivale a decir:

el vector v “ pb1 , ¨ ¨ ¨ , bm q pertenece a Sptv1 , v2 , ¨ ¨ ¨ , vm uq, con

v1 “ pa11 , ¨ ¨ ¨ , am1 q, v2 “ pa12 , ¨ ¨ ¨ , am2 q, ¨ ¨ ¨ , vn “ pa1n , ¨ ¨ ¨ , amn q

si, y solamente si,


¨» fi˛ ¨» fi˛
a11 a12 ¨¨¨ a1n a11 a12 ¨¨¨ a1n b1
˚— a21 a22 a2n a21 a22 a2n b2
˚— ffi‹ ˚— ffi‹
¨¨¨ ffi‹ ˚— ¨¨¨ ffi‹
rango ˚˚— ..
— .. .. .. ffi‹ “ rango ˚— .. .. .. .. .. ffi‹ .
˝– . . . . . . . . .
ffi‹ ˚— ffi‹
fl‚ ˝– fl‚
am1 am2 ¨ ¨ ¨ amn am1 am2 ¨ ¨ ¨ amn bm

Observe que las componentes de los vectores v1 , ¨ ¨ ¨ , vn conforman las columnas de la


primera matriz, que es la matriz del sistema en el enunciado de la proposición anterior;
mientras que las componentes de v constituyen la última columna de la segunda matriz.

Comentario 5.4
Para fines prácticos es importante resaltar la estrecha relación entre las nociones de com-
binación lineal y de matrices equivalentes por filas (o por columnas). Supongamos que
A, B P Mmˆn pKq son matrices equivales por filas; sean Ap1q , ¨ ¨ ¨ , Apmq las filas de A y
Bp1q , ¨ ¨ ¨ , Bpmq las filas de B. Observe que cualquiera sea la fila j de B, al aplicar a B una
operación elemental por filas que modifica esa fila (fj Ñ fj ` δfi , fj Ñ δfj , o fj Ø fi )
se tiene que la fila j-ésima de la matriz resultante es combinación lineal de las filas de
B. Por tanto, como A se obtiene de B mediante la aplicación de un número finito de
operaciones elementales por filas, cada una de las filas de A es combinación lineal de las
filas de B; esto es, Apjq P SptBp1q , ¨ ¨ ¨ , Bpmq uq para todo j “ 1, ¨ ¨ ¨ , m. Esto implica que
SptAp1q , ¨ ¨ ¨ , Apmq uq Ă SptBp1q , ¨ ¨ ¨ , Bpmq uq. Usando la simetrı́a de la relación de equivalen-
cia por filas se concluye también que SptBp1q , ¨ ¨ ¨ , Bpmq uq Ă SptAp1q , ¨ ¨ ¨ , Apmq uq; por tanto
SptAp1q , ¨ ¨ ¨ , Apmq uq “ SptBp1q , ¨ ¨ ¨ , Bpmq uq. Con estos argumentos hemos demostrado:

Si A y B son matrices de orden m ˆ n con coeficientes en K equivalentes por filas,


entonces
SptAp1q , ¨ ¨ ¨ , Apmq uq “ SptBp1q , ¨ ¨ ¨ , Bpmq uq,
donde Ap1q , ¨ ¨ ¨ , Apmq y Bp1q , ¨ ¨ ¨ , Bpmq son las respectivas filas de A y B
198 Neptalı́ Romero

El recı́proco de esta propiedad también es cierto, ver ejercicio propuesto 18 en la


página 202. Por tanto, la relación entre las nociones de operaciones elementales por filas
y de combinación lineal se expresa en el enunciado del siguiente teorema:

Teorema 5.4
Dos matrices A y B en Mmˆn pKq son equivalentes por filas si, y sólamente si,

SptAp1q , ¨ ¨ ¨ , Apmq uq “ SptBp1q , ¨ ¨ ¨ , Bpmq uq.

Podrı́amos afinar un poco más la relación establecida entre la equivalencia por filas
de un par de matrices cualesquiera de orden m ˆ n con ceficientes en K. En efecto, no es
difı́cil mostrar, haciendo uso del teorema anterior, la siguiente propiedad.

Proposición 5.4
Sean A, B P Mmˆn pKq, si B es una forma escalonada equivalente por filas a A, entonces

SptAp1q , ¨ ¨ ¨ , Apmq uq “ SptBp1q , ¨ ¨ ¨ , Bprq uq,

donde Bp1q , ¨ ¨ ¨ , Bprq son las filas no nulas de la matriz B.

Demostración. Se dejan los detalles al lector.

Ejemplo 5.27
3 consideremos v “ p1, 2, 1q, v “ p2, 0, ´2q, v “ p3, 2, ´1q y v “ p2, ´8, ´10q. Sea
En R» fi1 2 3 4
1 2 1
— 2 0 ´2 ffi
A“— ffi; note que las filas de A son v1 , v2 , v3 y v4 . Dado que
— ffi
– 3 2 ´1 fl
2 ´8 ´10
» fi » fi
1 2 1 1 2 1
— 0 ´4 ´4 ffi f Ñ´ 1 f — 0 1 1 ffi
f2 Ñf2 ´2 f1 ffi 2 4 2 —
A ÝÝÝÝÝÝÝÝÝÝÑ —
— ffi
ffi ÝÝÝÝÝÝÑ — ffi
f3 Ñ f3 ´ 3 f 1 – 0 ´4 ´4 fl – 0 ´4 ´4 fl
f4 Ñ f4 ´ 2 f1 0 ´12 ´12 0 ´12 ´12
» fi
1 0 ´1
— 0 1 1 ffi
f1 Ñf1 ´2 f2
ffi ,
— ffi
ÝÝÝÝÝÝÝÝÝÝÝÑ —
f3 Ñ f3 ` 4 f2 – 0 0 0 fl
f4 Ñ f4 ` 12 f2 0 0 0

entonces el subespacio de R3 generado por los vectores v1 , v2 , v3 y v4 es igual al subespacio


generado por u1 “ p1, 0, ´1q y u2 “ p0, 1, 1q; es decir Sptv1 , v2 , v3 , v4 uq “ Sptu1 , u2 uq.
Observe que Sptu1 , u2 uq es el plano que pasa por el origen y es orientado por los u1 y u2 .
Si deseamos una expresión lineal que describa los elementos de Sptu1 , u2 uq, tenemos varias
procedimientos. Uno, es determinar un vector normal a ese plano: u1 ˆu2 , y luego proceder
como en el apartado 4.5.3; otra manera, es proceder según lo discutido en el Comentario
5.3. De cualquier modo se tiene px, y, zq P Sptu1 , u2 uq si, y solo si, x ´ y ` z “ 0.
Álgebra lineal: Nociones y propiedades elementales 199

5.3.3. Ejercicios propuestos de la Sección 5.3


1. Decidir cuáles de los subconjuntos U son subespacios vectoriales del espacio vectorial
V indicado:

a) V “ R3 ; U “ tpx, y, zq P R3 : 2x ` y ´ z “ 0 y x ` 3y ´ 2z “ 1u.
b) V “ R3 ; U “ tpx, y, zq P R3 : x ` y “ 0 y x ` 3y ´ 2z “ 0u.
c) V “ R3 ; U “ S 2 “ tpx, y, zq P R3 : x2 ` y 2 ` z 2 “ 1u, a este conjunto se le llama
esfera unitaria de R3 .
d) V “ Rn ; U “ tpx1 , ¨ ¨ ¨ , xn q P Rn : xn ě 0u.
x´2
e) V “ R3 ; U “ tpx, y, zq P R3 : 2 “ y ´ 1 y z “ 0u.
f) V “ R2 ; U es el conjunto de todos los px, yq P R2 cuya segunda componente es un
número racional.
g) V “ C2 como un R-espacio vectorial; U “ R2 . ¿Qué puede decir si C2 es un C-espacio
vectorial? #« ff +
a11 a12
h) V “ M2 pRq; U “ P M2 pRq : 2a12 ` 3a21 “ 1 .
a21 a22
#« ff +
a11 a12
i) V “ M2 pRq; U “ P M2 pRq : 2a12 ` 3a21 “ 0 .
a21 a22
#« ff + « ff
a11 a12 1 0
j) V “ M2 pRq; U “ P M2 pRq : AB “ BA ; donde B “ .
a21 a22 2 1
k) V “ Mn pKq; U es el conjunto de todas las matrices triangulares, inferiores o supe-
riores.
l) V “ P2 pRq; U es el conjunto de todas las funciones polinómicas de grado menor o
igual a 2 cuyo término independiente es igual a 1.
m) V “ P2 pRq; U es el conjunto de todas las funciones polinómicas p : R Ñ R de grado
menor o igual a 2, ppxq “ ax2 ` bx ` c, tales que pp1q “ 0.
n) V “ PpRq; U es el conjunto de todas las funciones polinomiales con coeficientes en
R que tienen grado igual a 2.
ñ) V “ C 2 pr0, 1s, Rq; U “ tf P V : sen tf 2 ptq ` et f 1 ptq “ cos t, @ t P r0, 1su.
o) V “ C 2 pr0, 1s, Rq; U “ tf P V : sen tf 2 ptq ` et f 1 ptq “ 0, @ t P r0, 1su.
ş1
p) V “ Cpr0, 1s, Rq; U “ tf P V : 0 f ptq dt “ 0u.
ş1
q) V “ Cpr0, 1s, Rq; U “ tf P V : 0 f ptq dt ě 0u.

2. Demostrar que cada uno de los subconjuntos U de los espacios vectoriales V indicados
son subespacios vectoriales:

a) V “ Rn ; U “ tpx1 , ¨ ¨ ¨ , xn q P Rn : x1 “ 0u. ¿Ocurre lo mismo si los vectores de U


son tales que x1 “ 1?
b) V “ Mn pKq; U es cualquiera de los conjuntos de matrices escalares, diagonales,
triangulares inferiores o triangulares superiores.
200 Neptalı́ Romero

c) V “ Mn pCq; U es el conjunto de todas las matrices en V que son:


1) antisimétricas (A “ ´At ); 2) hermitianas, es decir A˚ “ A;
siendo que A˚ “ rbij s es la matriz, conocida como la traspuesta conjugada de A, que
se define a partir de A “ raij s como bij “ aji , esto es, bij el conjugado de aij , para
cada i, j “ 1, ¨ ¨ ¨ , n.
d) V “ Mn pKq; U es el conjunto de todas las matrices de orden n ˆ n con coeficientes
en K cuya traza es nula; siendo que:

Definición 5.5
Dada A “ raij s P Mn pKq, se conoce como traza de A al escalar obtenido por la suma
de las entradas en la diagonal; esto es, trapAq “ a11 ` a22 ` ¨ ¨ ¨ ` ann .

e) V “ FpR, Rq; U “ tf P V : f p´tq “ f ptq, @ t P Ru. Toda función f : R Ñ R que


satisfaga f p´tq “ f ptq para todo t P R, se denomina función par .
f) V “ FpR, Rq; U “ tf P V : f p´tq “ ´f ptq, @ t P Ru. Toda función f : R Ñ R que
satisfaga f p´tq “ ´f ptq para todo t P R, se denomina función impar .
g) V “ FpR, Rq; U “ tf P V : f pt ` αq “ f ptq, @ t P Ru; donde α ą 0 es fijo. En estos
casos, las funciones en U se llaman periódicas.
h) V “ FpR, Rq; U “ tf P V : f phptqq “ f ptq, @ t P Ru; donde h P FpR, Rq es fija.
¿Qué función h hace que U sea el subespacio vectorial anterior?
i) V “ RN el espacio de todas las sucesiones con valores en R.
1) U el conjunto de todas las sucesiones en RN cuyo número de términos no nulos
es finito.
2) U el conjunto de todas las sucesiones pan qně0 en RN con a2n “ 0 para todo
n ě 0.
3) U el conjunto de todas las sucesiones en RN que son acotadas. Una sucesión
pan qně0 en RN se dice acotada si existe M ą 0 tal que |an | ď M para todo
n ě 0.

3. Demostrar que en el espacio vectorial R los únicos subespacios son los triviales.

4. ¿Es p´3, 2, 1, ´2q combinación lineal de p2, 1, 0, ´1q, p1, ´1, 2, 1q y p0, ´1, 3, 2q?
« ff « ff « ff « ff
2 ´2 1 1 0 0 1 0
5. ¿Es combinación lineal de , y ?
5 0 1 0 1 ´1 0 1

6. Hallar, si es posible, los valores de t P R tales que p1, ´1, tq P Sptp3, 0, ´2q, p2, ´1, 1quq.

7. Determine si existen valores de a, b P R tales que p´2, 4, 4, 5q pertenezca al subespacio


generado por p1, 0, 1, 1q, p1, a, 1, 0q y p´1, 1, b, 1q

8. Verificar que p1, 1`i, 2iq está en el subespacio vectorial de C3 , como C-espacio vectorial,
generado por p1, 2, 1q, p0, 1, 1q y p0, 0, 1q. ¿Continúa siendo cierta la propiedad si se
considera a C3 como un R-espacio vectorial?
Álgebra lineal: Nociones y propiedades elementales 201

9. Dadas funciones f, f1 , f2 , f3 : R Ñ R a continuación, decidir si f P Sptf1 , f2 , f3 uq en el


espacio vectorial V dado.

a) f pxq “ 2x2 ` x ´ 1; f1 pxq “ 2, f2 pxq “ x ` 1 y f3 pxq “ ´x ` 2; V “ P2 pRq.


b) f pxq “ 2x2 ` x ´ 1; f1 pxq “ 2, f2 pxq “ 2x ´ 1 y f3 pxq “ x2 ` 1; V “ P2 pRq.
c) f pxq “ senpxq; f1 pxq “ ´ senpxq, f2 pxq “ cospxq y f3 pxq “ ex ; V “ FpR, Rq.
d) f pxq “ senpxq; f1 pxq “ x ` 1, f2 pxq “ cospxq y f3 pxq “ e´2x ; V “ FpR, Rq.

10. Considere el espacio vectorial RN de todas las sucesiones con valores en R. Para cada
entero positivo k, sea ek “ pek,n qně1 la sucesión cuyas entradas son nulas, excepto la
ubicada en la posición k que es igual a 1; esto es, ek,n “ 0 si n ‰ k y ek,n “ 1 si n “ k.

a) Verificar que la sucesión u “ pun qně1 , donde un “ 0 para todo n ě 10 es combinación


lineal de las sucesiones e1 , ¨ ¨ ¨ , e10 .
b) Demostrar que Sptek : k ě 1uq es el conjunto de todas las sucesiones eventualmente
nulas; que son las sucesiones pun qně1 que a partir de una cierta entrada es nula, es
decir, existe n0 ě 0 tal que un “ 0 para todo n ě n0 .
c) Considere la sucesión u “ pun qně1 , donde un “ 0 para todo n par. ¿está u en
Sptek : k ě 1uq?

11. Describa, en cada caso, el subespacio vectorial generado por los vectores indicados y el
espacio vectorial V dado.

a) v “ p1, ´1, ´1q en V “ R3 .


b) v1 “ p1, 2, ´1q, v2 “ p´2, ´4, ´2q en V “ R3 .
c) v1 “ p1, ´1, 1q, v2 “ p0, 1, ´2q, v3 “ p2, ´1, 0q en V “ R3 .
d ) v1 “ p0, 1, ´1q, v2 “ p2, ´1, 1q, v3 “ p1, ´1, 0q en V “ R3 .
« ff « ff
2 1 1 1
e) A1 “ , A2 “ en M2 pRq.
0 ´1 0 1
f ) Los polinomios f1 , f2 en P4 pRq dados por f1 pxq “ 2 ` x2 y f2 pxq “ 1 ´ x4 .
g) Los polinomios fk (k ě 1) en PpRq dados por fk pxq “ x2k .
h) v1 “ p1, 1q y v2 “ p0, 1q en V “ C2 como un C-espacio vectorial.
i ) v1 “ p1, 1q y v2 “ p0, 1q en V “ C2 como un R-espacio vectorial. ¿obtuvo el mismo
conjunto que en el item anterior? Explique.

12. En R2 considere los conjuntos G1 “ tpx, yq : x ě 0, y “ 0u, G2 “ tpx, yq : x “ 0, y ě 0u


y G3 “ G1 Y G2 . Demostrar que: SpG1 q “ tpx, yq : y “ 0u, SpG2 q “ tpx, yq : x “ 0u y
SpG3 q “ R2 . ¿Es cierta la igualdad SpG1 Y G2 q “ SpG1 q Y SpG2 q?

13. En K3 determine, en cada caso, si Sptu1 , u2 , u3 uq “ Sptv1 , v2 , v3 uq

a) u1 “ p1, 0, 1q, u2 “ p1, 1, 0q, u3 “ p2, 0, 0q; v1 “ p1, 1, 1q, v2 “ p´1, 1, 0q, v3 “ p1, 0, 0q.
b) u1 “ p1, 2, 1q, u2 “ p1, 1, 2q, u3 “ p2, 1, 0q; v1 “ p1, 1, 1q, v2 “ p´1, 1, 0q, v3 “ p0, 0, 0q.
202 Neptalı́ Romero

14. En R3 encontrar de tres pares de vectores no nulos u1 , u2 ; v1 , v2 y w1 , w2 tales que


u1 ∦ u2 ; v1 ∦ v2 , w1 ∦ w2 , Sptu1 , u2 uq “ Sptv1 , v2 uq y Sptu1 , u2 u ‰ Sptw1 , w2 uq.

15. ¿Existen v1 , v2 , v3 P R3 , todos no nulos, tales que Sptv1 , v2 uq “ Sptv2 , v3 uq y sin embargo
Sptv1 , v2 uq ‰ Sptv1 , v3 uq? En caso afirmativo, muestre un ejemplo; de lo contrario,
explique al razón de tal imposibilidad.

16. Sean A, B P Mn pKq y C “ AB. Demostrar que cada fila de C pertence al espacio
generado por las filas de B; mientras que cada columna de C está en el espacio generado
por las columnas de A.

17. Sean A, B P Mmˆn pKq. Suponga que B es una forma escalonada equivalente por filas a
la matriz A y que en el proceso de escalonización no se intercambiaron filas. Demostrar
que si B tiene 0 ă r ă m filas nulas, demotrar que las últimas r filas de A pertencen a
SptAp1q , ¨ ¨ ¨ , Apm´rq uq. ¿Qué ocurre si en el proceso de escalonización para obtener a B
se emplean operaciones elementales por filas que intercambien filas?; esto es, ¿qué filas
de A se escriben como combinación lineal de las otras?

18. Sean A, B P Mmˆn pKq. Si Ap1q , ¨ ¨ ¨ , Apmq y Bp1q , ¨ ¨ ¨ , Bpmq son las filas de A y B respecti-
vamente, y SptAp1q , ¨ ¨ ¨ , Apmq uq “ SptBp1q , ¨ ¨ ¨ , Bpmq uq, entonces A y B son equivalentes
por filas.

19. Sean A, B P Mmˆn pKq equivalentes por filas, si B es una forma escalonada de A,
entonces SptAp1q , ¨ ¨ ¨ , Apmq uq “ SptBp1q , ¨ ¨ ¨ , Bprq uq, siendo Bp1q , ¨ ¨ ¨ , Bprq las filas no
nulas de B

20. Sean K-espacio vectorial V y vectores v1 , ¨ ¨ ¨ , vr vectores en V. Demostrar:

a) Si λ1 , ¨ ¨ ¨ , λr P K son no nulos, entonces Sptv1 , ¨ ¨ ¨ , vr uq “ Sptλ1 v1 , ¨ ¨ ¨ , λr vr uq.


b) Si u P Sptv1 , ¨ ¨ ¨ , vr uq, entonces Sptv1 , ¨ ¨ ¨ , vr uq “ Sptu, v1 , ¨ ¨ ¨ , vr uq.
c) Si uno de los vectores de v1 , ¨ ¨ ¨ , vr es combinación lineal de los restantes, por ejemplo
que vj sea combinación lineal de v1 , ¨ ¨ ¨ , vj´1 , vj`1 , ¨ ¨ ¨ , vr , entonces

Sptv1 , ¨ ¨ ¨ , vr uq “ Sptv1 , ¨ ¨ ¨ , vj´1 , vj`1 , ¨ ¨ ¨ , vr uq.

21. Determinar un conjunto generador del espacio solución de cada uno de los sistemas de
ecuaciones lineales homogéneos que se indican:
$ $
& 2x ` y ´ z ` 2w “ 0
’ ’
& ix ` y ` z “ 0
4
a) x ´ 2y ´ w “ 0 ; en R . b) x ´ 2iy ´ z “ 0 ; en C3 .
’ ’
% 3y ` z ` 4w “ 0 % ´y ` p´1 ` iqz “ 0

22. En Rn considere el producto interno x, y usual. Dado cualquier conjunto W no vacı́o en


Rn ; se define el complemento ortogonal de W , denotado por W K , como

W K “ tpx1 , ¨ ¨ ¨ , xn q P Rn : xpx1 , ¨ ¨ ¨ , xn q, wy “ 0 para todo w P W u.

a) Determine W K en cada uno de los casos que se indican:


Álgebra lineal: Nociones y propiedades elementales 203

1) W “ tp1, 2, ´1qu 2) W “ tp1, 1, 1q, p0, ´2, 1qu


3) W “ tpx, y, zq P R3 : 2x ´ y ` 2z “ 1u 4) W igual al origen, y W igual a R3
b) Demostrar que W K es un subespacio vectorial de Rn , y W KK “ SpW q.
c) t0uK “ Rn y pRn qK “ t0u.

23. Mediante un ejemplo, muestre que la siguiente proposición es falsa:


Sea V un espacio vectorial sobre K. Si U y W son subespacios de V, entonces U Y W
es también un subespacio de V.

24. Demuestre que la unión de dos subespacios es también subespacio si, y solo si, uno de
ellos está contenido en el otro.

25. Sea V un espacio vectorial sobre K, U un subespacio vectorial de V y v0 un vector no


nulo cualquiera. Se define el conjunto U ` v0 “ tu ` v0 : u P U u. Demostrar que U ` v0
es subespacio de vectorial de V si, y solo si, v0 P U . En este caso, ¿qué subespacio es
U ` v0 ?

26. Sea V un espacio vectorial sobre K. Demostrar que la intersección arbitraria de subes-
pacios vectoriales de V es también un subespacio vectorial de V.

27. Sean V un espacio vectorial sobre K y U un subconjunto no vacı́o de V. Si HU denota


la colección de todos losčsubespacios vectoriales de V que contienen al conjunto U ,
demostrar que SpU q “ W.
W PHU

En los siguientes ejercicios presentamos algunos ejemplos y propiedades propiedades


generales de una clase especial de conjuntos no vacı́os en espacios vectoriales reales, se
trata de los conjuntos convexos.

Definición 5.6
Sea V un espacio vectorial sobre R. Dados dos vectores cualesquiera u, v P V (u ‰ v), se
denomina segmento de recta con extremos u y v al conjunto

ru, vs “ tp1 ´ αqu ` αv : α P r0, 1su.

Un subconjunto no vacı́o C de V se dice convexo si para todo u, v P C, con u ‰ v, se tiene


ru, vs Ă C. Geométricamente, un subconjunto C de un espacio vectorial V es convexo si
para cualquier par de sus puntos, el segmento de recta que los une está contenido en C.
Por conveniencia se asume que el conjunto vacı́o es un conjunto convexo.

28. Verificar que cada uno de los conjuntos que a continuación se muestran son conjuntos
convexos:

a) Cualquier subconjunto unitario tuu Ă V. ¿Es convexo un subconjunto finito con


más de un vector?
204 Neptalı́ Romero

segmento

conjunto convexo conjunto no convexo

b) tpx, yq P R2 : 0 ď x ď 1, y y “ 0u.
c) Dadas constantes reales a, b, c con a2 ` b2 ą 0; los semiplanos cerrados de R2
tpx, yq P R2 : ax ` by ď cu y tpx, yq P R2 : ax ` by ě cu
Igualmente los semiplanos abiertos:
tpx, yq P R2 : ax ` by ă cu y tpx, yq P R2 : ax ` by ą cu.

En general, para Kn (n ě 2) los semihiperplanos cerrados:


tpx1 , ¨ ¨ ¨ , xn q P Kn : a1 x1 ` ¨ ¨ ¨ ` an xn ď bu
y tpx1 , ¨ ¨ ¨ , xn q P Kn : a1 x1 ` ¨ ¨ ¨ ` an xn ě bu;
también los semihiperplanos abiertos:
tpx1 , ¨ ¨ ¨ , xn q P Kn : a1 x1 ` ¨ ¨ ¨ ` an xn ă bu
y tpx1 , ¨ ¨ ¨ , xn q P Kn : a1 x1 ` ¨ ¨ ¨ ` an xn ą bu;
donde a1 , ¨ ¨ ¨ , an , b son constantes en K y al menos una de las a’s es diferente de
0. Igualmente son conjuntos convexos todos los hiperplanos de Kn ; estos son los
conjuntos de la forma
tpx1 , ¨ ¨ ¨ , xn q P Kn : a1 x1 ` ¨ ¨ ¨ ` an xn “ bu,
donde a1 , ¨ ¨ ¨ , an , b son como arriba.

29. Sea V un K-espacio vectorial. Verificar que cualquier subespacio vectorial de V es un


conjunto convexo.

30. Dada cualquier colección


č tCi uiPI de conjunto convexos en el espacio vectorial V, de-
mostrar que C “ Ci es también convexo; acá I es un conjunto arbitrario de ı́ndices.
iPI

31. ¿Es la unión de dos conjuntos convexos un conjunto convexo?

32. Sean V un K-espacio vectorial, U un subespacio vectorial de V y v0 un vector no nulo


cualquiera. Demostrar que el conjunto U ` v0 es convexo. Ver ejercicio ?? anterior.

33. Demostrar que el conjunto de puntos px, yq P R2 que satiafacen el sistema de inecua-
$
& a1 x ` b1 y ě c1

ciones lineales .. es un conjunto convexo de R2 .
’ .
%
am x ` bm y ě cm

34. Demostrar que el disco unitario D “ tpx, yq P R2 : x2 ` y 2 ď 1u es un conjunto convexo.


¿Es el cı́rculo unitario S 1 “ tpx, yq P R2 : x2 ` y 2 “ 1u convexo?
Álgebra lineal: Nociones y propiedades elementales 205

5.4. Independencia y dependencia lineal


En diferentes situaciones de común ocurrencia en problemas propios del Álgebra Li-
neal, ası́ como en otras áreas de la Matemática y otras ciencias donde los modelos lineales
hacen aparición, es necesario optimizar el número de vectores que generan determinados
subespacios de ciertos espacios vectoriales. Este aspecto, entre otros, trae consigo los fun-
damentales conceptos de independencia y dependencia lineal de vectores que estudiaremos
a continuación.

Definición 5.7
Sea V un espacio vectorial sobre K. Un subconjunto no vacı́o U de V se dice:

a) linealmente independiente (abreviadamente LI) si el vector nulo OV de V no puede escri-


birse como combinación lineal no trivial de vectores en U , siendo que una combinación
lineal α1 u1 ` ¨ ¨ ¨ ` αn un es trivial si α1 “ ¨ ¨ ¨ “ αn “ 0.

b) linealmente dependiente (abreviadamente LD) si U no es linealmente independiente; es-


to es, si existe finitos vectores diferentes en U , u1 , ¨ ¨ ¨ , un , y existen escalares α1 , ¨ ¨ ¨ , αn
en K no todos nulos tales que α1 u1 ` ¨ ¨ ¨ ` αn un “ OV .

Los conceptos de independencia y dependencia lineal son complementarios; esto es, un


conjunto no vacı́o U en V no es LI si, y solo si, LD; o equivalentemente, H ‰ U Ă V no
es LD si, y solamente si, es LI. Ası́, dado cualquier conjunto U Ă V, se tiene que U o es
LI, o bien es LD.

Proposición 5.5 (Propiedades de la independencia y dependencia lineal)


Si V es un espacio vectorial sobre K, entonces

a) Todo subconjunto U de V que contenga a OV es LD.

b) Un subconjunto unitario U “ tuu de V es LI si, y solo si, u ‰ OV .

c) Un subconjunto no vacı́o U de V es LI si, y solo si, para cualquier colección finita


u1 , ¨ ¨ ¨ , un en U se cumple:

α1 u1 ` ¨ ¨ ¨ ` αn un “ OV ùñ α1 “ ¨ ¨ ¨ “ αn “ 0. (5.9)

d) Un subconjunto no vacı́o U de V es LD si, y solo si, existe una colección finita de


vectores u1 , ¨ ¨ ¨ , un en U tal que uno de tales vectores es combinación lineal de los
restantes.

e) Todo subconjunto no vacı́o de un conjunto LI es LI.

f ) Todo conjunto que contenga un conjunto LD es LD.

Demostración. Mostraremos las partes c) y e), las restantes se dejan al lector; observe
sin embargo que las dos primeras propiedades son consecuencias inmediatas del hecho que
αu “ OV si, y solamente si, α “ 0 o u “ OV .
206 Neptalı́ Romero

Demostración de c).
Para mostrar tanto la necesidad como la suficiencia procederemos por el contrarecı́proco.
Primero supongamos que (5.9) no se cumple; es decir, existen u1 , ¨ ¨ ¨ , un P U y escalares
α1 , ¨ ¨ ¨ , αn en K no todos nulos tales que α1 u1 ` ¨ ¨ ¨ ` αn un “ OV ; esto dice que U es LD.
Ahora supongamos que U es LD, luego existen u1 , ¨ ¨ ¨ , un P U y α1 , ¨ ¨ ¨ , αn P K no todos
nulos tales que α1 u1 ` ¨ ¨ ¨ ` αn un “ OV ; por lo que (5.9) no se cumple.
Demostración de e).
Supongamos por el absurdo que U es un subconjunto LI en V y que H ‰ W Ă U es LD.
Siendo ası́, existen vectores w1 , ¨ ¨ ¨ , wm P W y escalares β1 , ¨ ¨ ¨ , βm no todos nulos tales
que β1 w1 ` ¨ ¨ ¨ ` βm wm “ OV . Luego en U (W Ă U ) hay una colección finita de vectores
mediante la cual el vector nulo OV se escribe como una combinación lineal no trivial de
tales vectores; es decir, U es LD; lo cual es una contradicción.

Ejemplo 5.28
En Kn los vectores canónicos E1 , ¨ ¨ ¨ , En son linealmente independientes; de hecho la
ecuación vectorial
α1 E1 ` ¨ ¨ ¨ ` αn En “ p0, ¨ ¨ ¨ , 0q

implica que α1 “ ¨ ¨ ¨ “ αn “ 0, pues α1 E1 ` ¨ ¨ ¨ ` αn En “ pα1 , ¨ ¨ ¨ , αn q.

Ejemplo 5.29
En Mmˆn pKq, el conjunto de las matrices canónicas Eij , i “ 1, ¨ ¨ ¨ , m y j “ 1, ¨ ¨ ¨ , n, son
linealmente independientes. En efecto, si suponemos que
m ÿ
ÿ n
α11 E11 ` ¨ ¨ ¨ ` α1n E1n ` ¨ ¨ ¨ ` αm1 Em1 ` ¨ ¨ ¨ ` αmn Emn “ αij Eij “ Omˆn ,
i“1 j“1

entonces αij “ 0 para cada i “ 1, ¨ ¨ ¨ , m y j “ 1, ¨ ¨ ¨ , n; pues


» fi
α11 ¨ ¨ ¨ α1n
ÿm ÿ n — α21 ¨ ¨ ¨ α2n ffi
— ffi
αij Eij “ — .— .. ffi .
.. ffi
i“1 j“1 – .. . . fl
αm1 ¨ ¨ ¨ αmn

Recuerde que Eij (i “ 1, ¨ ¨ ¨ , m y j “ 1, ¨ ¨ ¨ , n) es la matriz que tiene el dı́gito 1 en su


entrada definida por la fila i y la columna j.

Ejemplo 5.30
En Pn pRq las funciones f0 , f1 , ¨ ¨ ¨ , fn : R Ñ R definidas, para cada x P R, por

f0 pxq “ 1, f1 pxq “ x, ¨ ¨ ¨ , fn pxq “ xn ,

son LI. Consideremos la ecuación polinomial α0 f0 ` α1 f1 ` ¨ ¨ ¨ ` αn fn “ OPn pRq , donde


α0 , α1 , ¨ ¨ ¨ , αn son números reales y OPn pRq : R Ñ R es la función nula (vector nulo de
Pn pRq). Para verificar la independencia lineal de las funciones consideradas, debemos de
concluir que los escalares α0 , α1 , ¨ ¨ ¨ , αn deben ser todos iguales a 0.
Álgebra lineal: Nociones y propiedades elementales 207

Ahora bien, de la anterior ecuación polinomial tenemos que α0 ` α1 x ` ¨ ¨ ¨ ` αn xn “ 0


para todo x P R. ¿Cómo demostrar que estos escalares son iguales a cero? Sabemos que
para cada m ě 1, la derivada m-ésima de xm es igual a m! 2 ; mientras que la derivada
m-ésima de xj es igual a cero para cada entero positivo 0 ď j ď m ´ 1. Por tanto si
derivamos la anterior igualdad n veces, tenemos n!αn “ 0, pero n! ‰ 0, por lo que αn “ 0.
Luego la ecuación de arriba se reduce a α0 ` α1 x ` ¨ ¨ ¨ ` αn´1 xn´1 “ 0 para cada x P R.
Repitiendo el mismo argumento n ´ 1 veces tendremos que αn “ αn´1 “ ¨ ¨ ¨ “ α1 “ 0 y
la ecuación reducida a α0 “ 0. Con cual hemos verificado que las funciones polinomiales
canónica de Pn pRq son linealmente independientes.
Consideremos el espacio vectorial PpRq de todas las funciones polinómicas real. Por lo
discutido arriba, el conjunto Sn “ tf0 , f1 , ¨ ¨ ¨ , fn u es LI en Pn pRq; claramente esto implica
que Sn es LI en PpRq sin importar el valor del entero n. De la misma manera se demuestra
que el conjunto infinito S “ tfn : n ě 0u es LI en PpRq.

Ejemplo 5.31
Sean v1 “ p1, 2, 2q, v2 “ p´1, 3, 0q, v3 “ p1, 7, 4q en R3 , deseamos saber si estos vectores
son o no linealmente independientes. Para ello necesitamos estudiar la ecuación

αp1, 2, 2q ` βp´1, 3, 0q ` λp1, 7, 4q “ p0, 0, 0q.

Es claro que estudiar las soluciones


$ de esta ecuación equivale al estudio de las soluciones

& α´β`λ“0
del sistema lineal homogéneo 2α ` 3β ` 7λ “ 0 . Determinemos entonces el rango de

% 2α ` 4λ “ 0
la matriz del sistema, el cual nos permitirá concluir si el sistema tiene soluciones distintas
de la trivial.
» fi » fi » fi
1 ´1 1 1 ´1 1 2
1 ´1 1
ffi f2 Ñf2 ´2 f1 — ffi f3 Ñf3 ´ 5 f2 —
– 2 3 7 fl ÝÝÝÝÝÝÝÑ – 0 5 5 fl ÝÝÝÝÝÝÝ ÝÑ – 0 5 5 fl .
— ffi
f3 Ñf3 ´2 f1
2 0 4 0 2 2 0 0 0

De acá que el rango de la matriz del sistema es 2, y como es número de incógnitas es 3, el


sistema tiene soluciones distintas a la solución trivial; es decir, existen escalares α, β, λ no
todos nulos tales que αp1, 2, 2q ` βp´1, 3, 0q ` λp1, 7, 4q “ p0, 0, 0q. Luego v1 , v2 , v3 son LD.

Ejemplo 5.32
Veamos ahora que u1 “ p1, 2, 1q, u2 “ p2, ´1, 3q, u3 “ p1, ´1, 2q son LI. Al igual que en
ejemplo anterior, después de plantearnos la ecuación

αp1, 2, 1q ` βp2, ´1, 3q ` λp1, ´1, 2q “ p0, 0, 0q,


$
& α ` 2β ` λ “ 0

el problema se reduce a estudiar el sistema lineal homogéneo 2α ´ β ´ λ “ 0 . De-

% α ` 3β ` 2λ “ 0
terminemos por tanto el rango de la matriz de este sistema (el sı́mbolo „ corresponde a
2
Dado un entero positivo m, se denota por m! al entero mpm ´ 1q ¨ ¨ ¨ 2, el cual es conocido como el
factorial de m
208 Neptalı́ Romero

apropiadas operaciones elementales por filas).


» fi » fi » fi » fi
1 2 1 1 2 1 1 2 1 1 2 1
– 2 ´1 ´1 fl „ – 0 ´5 ´3 fl „ – 0 1 1 fl „ – 0 1 1 fl .
— ffi — ffi — ffi — ffi
1 3 2 0 1 1 0 ´5 ´3 0 0 2

Dado que el rango de la matriz del sistema y el número de incognitas del sistema son
iguales, el sistema tiene solución única: la trivial, que es α “ β “ λ “ 0. Por tanto los
vectores u1 , u2 , u3 son linealmente independientes.

Ejemplo 5.33
El paralelismo de vectores en Rn es un caso particular de dependencia lineal. Recordemos
que dos vectores no nulos de Rn , u y v son paralelos si existe α ‰ 0 en R tal que u “ αv.
Obviamente de acá sigue que 1u ` p´αqv “ p0, ¨ ¨ ¨ , 0q, por lo que u y v son linealmente
dependientes.
Esta noción de paralelismo en Rn se extiende al cualquier espacio vectorial. Sea V un
K-espacio vectorial, dos vectores no nulos u, v en V se dicen paralelos si existe α P KztOV u
tal que u “ αv. Con esta noción general de paralelismo es claro que si dos vectores u, v en
V son paralelos, entonces LD. De hecho, no es difı́cil demostrar que dos vectores no nulos
u, v P V son LI si, y solo si, no son paralelos. Se dejan los detalles al lector.

5.4.1. Sobre la independencia lineal en Kn


Dedicaremos un apartado especial al análisis de la independencia lineal en el K-espacio
vectorial Kn con las operaciones usuales de adición y multiplicación por escalares.
Consideremos una colección finita cualquiera de vectores en Kn , digamos:

v1 “ pa11 , a21 , ¨ ¨ ¨ , an1 q, v2 “ pa12 , a22 , ¨ ¨ ¨ , an2 q, ¨ ¨ ¨ , vm “ pa1m , a2m , ¨ ¨ ¨ , anm q.

Para realizar el análisis de la independencia lineal de los vectores v1 , ¨ ¨ ¨ , vm emplearemos


dos estrategias; las cuales, aunque luzcan diferentes, son esencialmente las mismas.

§ Estrategia 1

Como bien es conocido, tal colección de vectores v1 , ¨ ¨ ¨ , vm es LD si, y solo si, existen
escalares α1 , α2 , ¨ ¨ ¨ , αm en K, no todos nulos, tales que

α1 pa11 , a21 , ¨ ¨ ¨ , an1 q ` α2 pa12 , a22 , ¨ ¨ ¨ , an2 q ` ¨ ¨ ¨ ` αm pa1m , a2m , ¨ ¨ ¨ , anm q “ p0, ¨ ¨ ¨ , 0q.

Claramente esto equivale a decir que el sistema de ecuaciones lineales homogéneo


$


’ a11 α1 ` a12 α2 ` ¨ ¨ ¨ ` a1m αm “ 0
& a21 α1 ` a22 α2 ` ¨ ¨ ¨ ` a2m αm “ 0

..


’ .

% a α ` a α ` ¨¨¨ ` a α “ 0
n1 1 n2 2 nm m

admite soluciones diferentes de la trivial. Haciendo uso del Teorema de Rouché-Frobenius


(ver sección 2.3), este sistema tiene soluciones distinta de la solución nula si, y solo si, el
Álgebra lineal: Nociones y propiedades elementales 209
» fi
a11 a12
¨ ¨ ¨ a1m
— a21 a22
¨ ¨ ¨ a2m ffi
— ffi
rango de A “ —
— .. .... ffi es menor que el número de incógnitas, que en este
.. ffi
– . . . . fl
an1 an2 ¨ ¨ ¨ anm
caso es m. Note que las columnas de esta matriz son justamente los vectores dados.
Los ejemplos 5.31 y 5.32 dan muestra de esta estrategia. Es importante recordar que
el rango de una matriz A P Mmˆn pKq siempre satisface rangopAq ď mı́ntm, nu; en otras
palabras, el rango de una matriz nunca excede al número de filas ni al número de colum-
nas; por otra parte, del teorema de Rouché-Frobenius se desprende que si un sistema de
ecuaciones lineales homogéneas AX “ O, con A P Mmˆn pKq, tiene más incógnitas que
ecuaciones; es decir m ă n, entonces el sistema tiene infinitas soluciones. Estas observa-
ciones implican la siguiente afirmación:

Cualquier subconjunto en Kn con más de n vectores, es un conjunto LD.

§ Estrategia 2

Esta estrategia para saber si un conjunto finito de vectores en Kn es o no LD, está ba-
sada en la determinación del rango de la matriz que tiene como filas a los vectores dados.
El siguiente lema es preciso al respecto.
Lema 5.1
Dada A P Mmˆn pKq, sus filas Ap1q , ¨ ¨ ¨ , Apmq son LD en Kn si, y solo si, rangopAq ă m.
Demostración. Supongamos que las filas de A son LD en Kn ; note que si una de ellas
es nula, entonces es obvio que el rango de A es menor que m. Por tanto supondremos que
todas las filas de A son no nulas. Dado que ellas son LD, la proposición anterior garantiza
que una de ellas es combinación lineal de las otras; sin perder generalidad supondremos
que que la última fila Apmq es combinación lineal de las restantes; por tanto existen ı́ndices
1 ď i1 ă ¨ ¨ ¨ ă is ă m y escalares no nulos α1 , ¨ ¨ ¨ , αs P K tales que

Apmq “ α1 Api1 q ` ¨ ¨ ¨ ` αs Apis q .

Al aplicar sobre A la secuencia de las s operaciones elementales por filas

fm Ñ fm ´ α1 fi1 , fm Ñ fm ´ α2 fi2 , ¨ ¨ ¨ , fm Ñ fm ´ αs fis ;

la matriz B obtenida tiene como última fila a Apmq ´ α1 Api1 q ´ ¨ ¨ ¨ ´ αs Apis q , que es nula
por hipótesis. Luego es claro que rangopAq ă m.
Supongamos ahora que rgpAq ă m. Si alguna fila de A es nula, entonces Ap1q , ¨ ¨ ¨ , Apmq
son LD; recuerde que todo conjunto de vectores que contenga al vector nulo siempre es LD.
Asumiremos entonces que todas las filas de A son no nulas. Sea B una forma escalonada
equivalente por filas a A. Dado que rgpAq ă m, B tiene por lo menos la última fila nula.
Esto significa que, salvo intercambio de filas, hay una fila en A, digamos Apjq , que al
aplicarle una secuencia finita de operaciones elementales por filas

fj Ñ fj ´ α1 fi1 , fj Ñ fj ´ α2 fi2 , ¨ ¨ ¨ , fj Ñ fj ´ αs fis ;


210 Neptalı́ Romero

con αk ‰ 0 y ik ‰ i para todo k “ 1, ¨ ¨ ¨ , s, tal fila se anula. Observe que la fila resultante
al aplicar tal secuencia de operaciones elementales por filas es Apjq ´α1 Api1 q ´¨ ¨ ¨´αs Apis q ,
la cual hemos dicho que es nula, es decir Apjq “ α1 Api1 q ` ¨ ¨ ¨ ` αs Apis q . Esto claramente
implica que las filas de A son LD.

De esta forma al considerar m vectores cualesquiera de Kn , digamos:

v1 “ pa11 , a12 , ¨ ¨ ¨ , a1n q, v2 “ pa21 , a22 , ¨ ¨ ¨ , a2n q, ¨ ¨ ¨ , vm “ pam1 , am2 , ¨ ¨ ¨ , amn q,


» fi
a11 a12 ¨ ¨ ¨ a1n
— a21 a22 ¨ ¨ ¨ a2n ffi
— ffi
y la matriz A “ — — .. .. .. ffi cuyas filas tales vectores, entonces v1 , v2 , ¨ ¨ ¨ , vm
.. ffi
– . . . . fl
am1 am2 ¨ ¨ ¨ amn
son LD si, y sólamente si rgpAq ă m; o equivalentemente, v1 , v2 , ¨ ¨ ¨ , vm son LI si, y
sólamente si rgpAq “ m. Adicionalmente supongamos que B es una matriz escalonada
equivalente por filas a A. Si rgpAq “ r, entonces B tiene exactamente r filas no nulas (las
primeras). Por tanto, haciendo uso de la proposición 5.4 tenemos que el espacio generado
por v1 , ¨ ¨ ¨ , vm es igual al espacio generado por las filas no nulas de B (consideradas éstas
como vectores de Kn ); pero ocurre algo bien interesante, es que las filas no nulas de B son
LI.

Ejemplo 5.34
En R4 consideremos lo vectores:

v1 “ p1, 1, 1, ´1q, v2 “ p2, 2, 2, ´2q, v3 “ p1, 2, 1, 0q y v4 “ p´2, ´3, ´2, 1q;

deseamos saber si son LD; y además encontrar un conjunto LI que genere el mismo subes-
pacio vectorial que ellos generan. Siguiendo la estrategia 2, construimos una matriz cuyas
filas son los vectores dados y luego procedemos » a encontrar una formafi escalonada equiva-
1 1 1 ´1
— 2 2 2 ´2 ffi
lente por filas a tal matriz. Ası́ pues, sea A “ — ffi; observe que cada
— ffi
– 1 2 1 0 fl
´2 ´3 ´2 1
fila corresponde a uno de los vectores dados. Como:
» fi » fi » fi
1 1 1 ´1 1 1 1 ´1 1 1 1 ´1
— 0 0 0 0 ffi
ffi f2 ÐÑf3 — 0 1 0 1 ffi
ffi f4 Ñf4 `f2 — 0 1 0 1 ffi
— —
f2 Ñf2 ´2 f1
A ÝÝÝÝÝÝÝÝÝÝÑ — ffi ,
— ffi
ffi ÝÝÝÝÝÑ — ffi ÝÝÝÝÝÝÑ —
f3 Ñ f3 ´ f1 – 0 1 0 1 fl – 0 0 0 0 fl – 0 0 0 0 fl
f4 Ñ f4 ` 2 f1 0 ´1 0 ´1 0 ´1 0 ´1 0 0 0 0

entonces rgpAq “ 2, por lo que los vectores v1 , v2 , v3 , v4 son LD; además, dado que las filas
no nulas de la forma escalonada obtenida son v1 “ p1, 1, 1, ´1q y v3 “ p0, 1, 0, 1q, se tiene
que el subespacio de R4 generado por v1 , v2 , v3 y v4 , Sptv1 , v2 , v3 , v4 uq, es exactamente
igual al subespacio Sptv1 , v3 uq.
Índice alfabético

A˚ , 42 axiomas de linealidad, 176


At , 8
Mn pKq, 3 combinación lineal
Ñ
Ý en V, 190
PÝÑ p A q, 133
B ÝÑ en Rn , 109
PÝÝÑ pP Aq, 134
PB en RnP , 121
W K , 202 en Mmˆn pKq, 13
rU s, 191 trivial, 205
Ñ
Ý
k A k, 127 complemento ortogonal, 202
Kn , 15 conjunto convexo, 203
Mmˆn pKq, 3
Rn , 107 delta de Kronecker, 4
RN , 179 dependencia lineal, 205
RZ , 179 desigualdad de Cauchy-Schwarz, 129
RnA , 114 desigualdad de Hölder, 129
SpA, Oq, 60 desigualdad triangular, 129
det A, 74 determinante de una matriz, 74
xU y, 191 distancia Euclidiana, 134
Ñ
Ý Ñ Ý
x A , B y, 122
CLpA1 , A2 , ¨ ¨ ¨ , A` q, 13, 109 ecuación lineal, 48
CLpU q, 190 solución, 48
FpS, Rq, 178 equivalencia por filas de matrices, 24
Ñ
Ý esfera unitaria, 199
LpP, A q, 135
PpRq, 179 espacio tangente de Rn en un punto, 114
Pn pRq, 188 espacio vectorial, 175
SpU q, 190 complejo, 176
Ñ
Ý Ñ Ý real, 176
>p A , B q, 130
OV , 176
Ñ
Ý Ñ Ý forma canónica de Gauss-Jordan, 35
πpP, A , B q, 140
Ñ
Ý función impar, 200
πpP, N q, 143
ÝÝÑ función par, 200
AB, 114 función periódica, 200
Ñ
Ý
A , 115 funciones polinómicas reales, 179
Ñ
Ý Ñ Ý
A ˆ B , 144 canónicas, 192
dpA, Bq, 134
rangopAq, 31 grupo abeliano, 176
trapAq, 200
ángulo entre rectas, 157 hiperplano, 147
ecuación cartesiana, 148
adición de matrices, 9 semiespacio generado, 150
algoritmo de reducción Gaussiana, 29 vector normal, 148

211
212 Neptalı́ Romero

hiperplanos paralelos, 154 operaciones elementales análogas, 93


operaciones elementales por columnas, 43
independencia lineal, 205 operaciones elementales por filas, 23

matriz, 2 planos en R3
adjunta clásica, 99 ecuación cartesiana, 144
ampliada, 52 vector normal, 144
antihermitiana, 42 planos en Rn , 140
antisimétrica, 5 ecuación parmétrica, 140
canónica, 4 producto interno euclidiano, 122
cofactor, 84 producto vectorial, 144
cuadrada, 3 proyección ortogonal de vectores, 133, 134
traza, 200 puntos en Rn , 108
diagonal, 5 colineales, 141
diagonal por bloques, 44
elemental, 25 rango de una matriz, 31, 100
por columnas, 43 máximo, 32
escalar, 5 recta en Rn , 135
escalonada, 28 ecuación vectorial, 135
escalonada reducida por filas, 32 ecuación cartesiana, 139
hermitiana, 42 ecuación paramétrica, 135
identidad, 4 rectas paralelas, 156
igualdad, 3 Regla de Cramer, 96
inversa lateral, 45 Regla de Sarrus, 79
invertible, 20
sistema de ecuaciones lineales, 48
nilpotente, 39
compatible determinado, 52
no singular, 20
compatible indeterminado, 52
nula, 3
conjunto solución, 51
opuesta, 11
homogéneo, 49
ortogonal, 39, 103
espacio solución, 60, 187
por bloques, 43
generador mı́nimo, base, 60
producto, 16
no homogéneo, 49
rango, 31
no solubles, 52
simétrica, 5
soluble, 52
similares, 103 solución, 51
suma, 9 variables libres, 57
traspuesta, 8 subespacio generado, 190
triangular inferior, 5 subespacio vectorial, 185
triangular superior, 5 nulo, 186
unicolumna, 3 triviales, 186
unifila, 3 submatriz con ı́ndices F y C, 100
unitaria, 103
multiplicación de escalares y matrices, 9 Teorema de Pitágoras, 128
multiplicación de matrices, 15 traspuesta hermitiana, 42
Álgebra lineal: Nociones y propiedades elementales 213

vector, 114
coordenadas, 115
nulo, 115, 176
punto final, 114
punto inicial, 114
representante, 115
suma, 119
método del paralelogramo, 119
unitario, 127
vectores
ángulo entre, 130
canónicos, 115
con igual sentido, 118
con sentido opuesto, 118
equivalentes, 116
mutuamente ortogonales, 124
norma Euclidiana, 127
ortogonales, 124
paralelos, 117

S-ar putea să vă placă și