Sunteți pe pagina 1din 268

Rudimentos matemticos

para el dominio de la

Ingeniera de los
Algoritmos Numricos

Jos Luis de la Fuente OConnor


Rudimentos matemticos para el dominio de la ingeniera de los algoritmos numricos

Primera edicin: abril 2017

Depsito legal: AL 856-2017

ISBN: 978-84-9160-826-4

Impresin y encuadernacin: Editorial Crculo Rojo

Del texto: JLFO


Maquetacin y diseo: Equipo de Editorial Crculo Rojo
Fotografa de cubierta: Fotolia

Editorial Crculo Rojo

www.editorialcirculorojo.com

info@editorialcirculorojo.com

Impreso en Espaa - Printed in Spain

Ninguna parte de esta obra puede ser reproducida por algn medio, sin el permiso expreso de
sus autores. Crculo Rojo no se hace responsable del contenido de la obra y/o las opiniones que el
autor manifieste en ella.
Dirjase a CEDRO (Centro Espaol de Derechos Reprogrficos) si necesita fotocopiar o escanear algn fragmento
de esta obra (www.conlicencia.com; 91 702 19 70 / 93 272 04 47).

El papel utilizado para imprimir este libro es 100% libre de cloro y, por tanto,
ecolgico.
A mi familia.

III
IV
ndice

Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IX
1 Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1 Espacios vectoriales con estructuras adicionales . . . . . . . . . 9
2.1.1 Espacios normados y espacios mtricos . . . . . . . . 9
2.1.2 Espacios con producto interior . . . . . . . . . . . . 21
2.1.3 Espacios de Hilbert . . . . . . . . . . . . . . . . . . 21
2.1.4 Espacios de Lebesgue y espacios de Sobolev . . . . . 25
3 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.1 Normas de matrices . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2 Matrices interesantes . . . . . . . . . . . . . . . . . . . . . . . 35
3.3 Valores propios, valores singulares y formas cuadrticas . . . . 39
3.3.1 Valores propios . . . . . . . . . . . . . . . . . . . . 39
3.3.2 Valores singulares . . . . . . . . . . . . . . . . . . . 45
3.4 Formas cuadrticas . . . . . . . . . . . . . . . . . . . . . . . . 48
4 Funciones, sucesiones y series de funciones . . . . . . . . . . . . . . 51
4.1 Derivada y diferenciabilidad . . . . . . . . . . . . . . . . . . . 53
4.1.1 Subgradiente y subdiferencial . . . . . . . . . . . . . 56
4.2 Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.3 Sucesiones de funciones, series funcionales y de potencias. Con-
vergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.3.1 Convergencia puntual . . . . . . . . . . . . . . . . . 58
4.3.2 Convergencia uniforme . . . . . . . . . . . . . . . . 59
4.3.3 Series funcionales . . . . . . . . . . . . . . . . . . . 61
4.3.4 Series de potencias . . . . . . . . . . . . . . . . . . 61
4.4 Resultados importantes de anlisis funcional . . . . . . . . . . 62
5 Optimizacin y Programacin Matemtica . . . . . . . . . . . . . . 69
5.1 Condiciones necesarias y suficientes de existencia de un punto
mnimo de una funcin . . . . . . . . . . . . . . . . . . . . . . 69
5.2 Conjuntos convexos y geometra de la convexidad . . . . . . . 70
5.2.1 Conos apropiados y desigualdades generalizadas . . . 80
5.2.2 Elementos mnimos y minimales. Cono dual . . . . . 80
5.2.3 Hiperplano separador. Lema de Farkas . . . . . . . . 84
5.3 Caracterizacin de las soluciones del problema de optimizacin
y condiciones que cumple un punto ptimo . . . . . . . . . . . 90
V
VI j ndice

5.4 Dualidad en optimizacin . . . . . . . . . . . . . . . . . . . . 94


5.4.1 Dualidad Lagrangiana . . . . . . . . . . . . . . . . . 99
5.4.2 Dualidad de Wolfe . . . . . . . . . . . . . . . . . . . 102
5.5 Funciones conjugadas-funciones de Fenchel . . . . . . . . . . . 103
5.6 Optimizacin SDP . . . . . . . . . . . . . . . . . . . . . . . . 106
5.6.1 Definiciones y planteamiento del problema . . . . . . 107
5.7 Optimizacin vectorial y multicriterio o multiobjetivo . . . . . 111
5.7.1 ptimo y ptimos de Pareto . . . . . . . . . . . . . . 112
5.7.2 Escalarizacin . . . . . . . . . . . . . . . . . . . . . 114
5.7.3 Optimizacin multicriterio . . . . . . . . . . . . . . 115
6 Elementos de clculo integral, campos escalares y campos vectoriales 119
6.1 Integrales de lnea . . . . . . . . . . . . . . . . . . . . . . . . 122
6.1.1 Integrales de lnea en campos vectoriales . . . . . . . 124
6.2 El teorema de Green . . . . . . . . . . . . . . . . . . . . . . . 126
6.3 El teorema de Stokes . . . . . . . . . . . . . . . . . . . . . . . 129
7 Sobre el mtodo de los elementos finitos de Ritz-Galerkin para re-
solver ecuaciones en derivadas parciales . . . . . . . . . . . . . . . . 131
7.1 Solucin de una ecuacin en derivadas parciales . . . . . . . . 134
7.1.1 El problema en forma dbil o variacional . . . . . . . 136
7.1.2 Espacios de trabajo . . . . . . . . . . . . . . . . . . 137
7.1.3 Discretizacin del problema en un subespacio de ele-
mentos finitos lineales . . . . . . . . . . . . . . . . . 139
7.1.4 Reformulacin del problema como un sistema de ecua-
ciones lineales . . . . . . . . . . . . . . . . . . . . . 143
7.2 Fundamentos de funcionales y clculo de variaciones . . . . . . 145
7.2.1 Proposiciones esenciales . . . . . . . . . . . . . . . 149
8 Anlisis de componentes principales . . . . . . . . . . . . . . . . . . 153
8.1 Algunos conceptos de estadstica . . . . . . . . . . . . . . . . . 154
8.2 Planteamiento del problema matemtico . . . . . . . . . . . . . 156
9 Nmeros complejos, funciones e integracin . . . . . . . . . . . . . 161
9.1 Integracin. Teorema de Cauchy . . . . . . . . . . . . . . . . . 165
10 Anlisis de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
10.1 Series de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . 168
10.1.1 Expresin compleja de la serie de Fourier . . . . . . . 171
10.1.2 Convergencia de las series de Fourier . . . . . . . . . 173
10.1.3 Propiedades de las series de Fourier . . . . . . . . . . 175
10.2 La Transformada de Fourier . . . . . . . . . . . . . . . . . . . 179
10.2.1 Propiedades de la transformada de Fourier . . . . . . 181
10.2.2 La Transformada de Fourier discreta . . . . . . . . . 183
11 La Transformada del coseno discreta . . . . . . . . . . . . . . . . . 189
12 La Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . 195
13 Clculo estocstico y simulacin . . . . . . . . . . . . . . . . . . . . 199
13.1 Variables aleatorias y espacios de probabilidad . . . . . . . . . 199
ndice j VII

13.2 Procesos estocsticos . . . . . . . . . . . . . . . . . . . . . . . 206


13.2.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . 207
13.3 Simulacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
13.3.1 Generacin de nmeros aleatorios . . . . . . . . . . . 213
13.3.2 Simulacin de variables aleatorias . . . . . . . . . . 214
13.3.3 El mtodo Montecarlo . . . . . . . . . . . . . . . . . 217
13.4 Ecuaciones diferenciales estocsticas . . . . . . . . . . . . . . 218
13.4.1 Integracin numrica de ecuaciones diferenciales es-
tocsticas . . . . . . . . . . . . . . . . . . . . . . . . 220
13.5 Aplicacin del clculo estocstico a la cobertura y valoracin de
derivados financieros. El modelo de Black y Scholes . . . . . . 221

Bibliografa 225

ndice de materias y autores 249


VIII j ndice
Prefacio

E STE libro tiene que ver con el anlisis numrico, la computacin cientfica e in-
genieril y los elementos de matemticas que yo entiendo son fundamentales para
entender una parte de sus porqus. Los componentes que se presentan se explican de
forma sucinta y directa con el objeto de poder poner en marcha, o analizar, herramien-
tas y mtodos numricos para modelizar y resolver problemas reales que surgen en las
ciencias y la ingeniera.
El contenido del libro complementa el programa de la asignatura Matemticas de
la EspecialidadIngeniera Elctrica, que desde hace varios aos dicto en la Escuela
Tcnica Superior de Ingenieros Industriales, de la Universidad Politcnica de Madrid,
en Espaa.
Todo el material bastante estndar que se expone en las pginas de este libro
es una sntesis muy densa de lo que este autor entiende puede ser una buena base para
consolidar (y consultar) unos fundamentos matemticos slidos de mucho de en lo que se
basan las tcnicas y algoritmos numricos que permiten, mediante el Clculo y Anlisis
Matemtico, y la Ingeniera de sus Mtodos Numricos, modelizar y simular la realidad
con la que ingenieros y cientficos se enfrentan a diario para poner sus conocimientos
al servicio de resolver los diversos problemas prcticos que acucian a la sociedad. La
experiencia del autor se refiere a este respecto a algo tan amplio como la ingeniera
de los sistemas econmico-elctricos, aunque es extensible a otros muchos campos del
conocimiento y la ciencia aplicada. Esos puntos de vista deben ser ampliados en muchas
direcciones si se quieren construir otros edificios de conocimiento matemtico aplicado
a otras reas del saber prctico.
Los aspectos ms generales cubiertos en este libro son el anlisis matemtico y fun-
cional bsico, el lgebra matricial, la optimizacin matemtica de problemas lineales
y no lineales, la convexidad y dualidad de estos, elementos de clculo integral bsico,
campos escalares y vectoriales, los nmeros complejos y el clculo estocstico y la si-
mulacin numrica. Con el fin de hacer mucho ms intuitiva la comprensin de cmo
funcionan las matemticas y los algoritmos detrs de muchos de los procedimientos y
mtodos que hoy en da estn presentes en los desarrollos del Big Data, la simulacin
y la optimizacin matemtica, y otras cada da ms extensas cuestiones de la econo-
ma digital con la que convivimos asiduamente, tambin se presentan el mtodo de los
elementos finitos para resolver ecuaciones en derivadas parciales, el anlisis de compo-
nentes principales, el anlisis y la transformada de Fourier, la transformada del coseno
para compresin de imgenes y vdeo y la transformada de Laplace.
Al final del libro se listan quinientas ochenta y una referencias de las que he sacado
casi todo el conocimiento que utilizo sobre la temtica objeto del libro. Deberan ser
muchas ms pues hay muchos pequeos detalles que expongo que apenas consult unos
IX
X j Prefacio

minutos en algn libro, artculo o en Internet para retener la idea, el resultado, o el efecto
de un figura para resaltarlo. No me qued con el nombre del autor, el departamento o
departamentos universitarios que lo utilizan, o la editorial que lo public. Si omito por
error la resea o el trabajo correspondiente, ruego su clemencia a esos mis inspiradores.
El resultado que es materialmente este libro no habra sido posible sin el concurso,
inconsciente o perfectamente consciente, de muchas personas individuales y colectivas.
Me gustara mencionar aqu las contribuciones concretas de autores a los que he se-
guido fundamentalmente como Stephen Boyd, colega de la Universidad de Stanford,
David Nualart, Ignacio Villanueva, Timothy Sauer, David Luenberger, Francisco Javier
Sayas, David Aledo y Manuel Contreras. Tambin a mis compaeros del Departamento
de Ingeniera Matemtica de la Universidad Politcnica de Madrid. Sobre su esfuerzo me
han permitido aupar mis humildes conocimientos a hombros de los de ellos. Me gustara
tambin agradecer sus materiales e inmateriales aportaciones a todos mis alumnos de la
Escuela Tcnica Superior de Ingenieros Industriales de Madrid, de los que he aprendido
muchsimas cosas en mi tarea como profesor en la cotidianidad de las clases en las que
trato de transmitirles lo que creo es bueno para su formacin, adems del conocimiento
prctico sobre el que baso mis aportaciones.
La elaboracin del libro ha sido posible gracias al editor WinEdt y al software para
preparacin de documentos cientficos y tcnicos denominado LATEX. Este sistema y la
multitud de programas y aplicaciones que lo soportan y potencian es una maravilla de la
expresin tcnica digital moderna de la tipografa de siempre. Tambin quiero mencio-
nar, y agradecer, lo til que me ha sido W IKIPEDIA como fuente de inspiracin, material,
verificacin y conocimiento.

Jos Luis de la Fuente OConnor


Alcobendas, Madrid, Espaa, 10 de mayo de 2017
www.jldelafuenteoconnor.es
1-Conjuntos j 1

1 | Conjuntos

L OS algoritmos como agrupacin ordenada y finita de operaciones y reglas que


permiten hallar la solucin de un problema, o realizar una actividad relativamente
compleja y las matemticas modernas, tienen mucho que ver con colecciones abstrac-
tas de objetos como lo es un conjunto.
Definicin 1.1 Un conjunto es una construccin matemtica que se refiere a una co-
leccin de objetos considerada en si misma un objeto: los nmeros naturales, las solu-
ciones de un problema determinado, los municipios de una provincia, etc.
Un conjunto se identifica por una letra mayscula: el conjunto S , el conjunto de los
nmeros naturales N, el de los enteros Z, el de los reales R, complejos C, racionales Q,
etc.
Conjuntos es un concepto primitivo, en el sentido de que no es posible definirlos
en trminos de nociones ms elementales, por lo que su estudio puede realizarse de ma-
nera informal, apelando a la intuicin y a la lgica. Son el concepto fundamental de las
matemticas modernas: mediante ellos puede formularse el resto de objetos matemti-
cos, como los nmeros y las funciones, entre otros. Su estudio detallado requiere pues la
introduccin de axiomas y conduce a la teora de conjuntos.
El proponente o inventor de la teora de conjuntos fue Georg Ferdinand Ludwig
Philipp Cantor Rusia 1845, Alemania 1918. Lo hizo en la segunda mitad del siglo
XIX.

Cada uno de los objetos de la coleccin a la que se refiere un conjunto es un elemento


o miembro del conjunto. Si un elemento a pertenece a un conjunto C se indica a 2 C .
Los conjuntos se definen mediante la enumeracin entre llaves de sus elementos, C D
fa; b; : : : g, o especificando, tambin entre llaves, la propiedad que los caracteriza. Por
ejemplo, C D fx W x 2 R; x  2g designa los nmeros reales menores o iguales que
dos; el conjunto C de los nmeros reales x que son mayores que 1 y menores que 0 se
designa de esta manera: C D fx 2 R W x > 1; x < 0g.
El conjunto sin elementos se denomina vaco, designndose mediante el smbolo ;.
Si S y S 0 son dos conjuntos y todos los elementos del conjunto S 0 lo son de S , se
dice que S 0 es un subconjunto del conjunto S , o que est contenido en S 0 , expresndose
Nmeros hiperreales (1948-1955), la nocin de nmero infinitesimal as como algunas ideas de
Leibniz anticipaban una construccin ms all de los nmeros reales ordinarios, fueron
formalizados finalmente como un modelos no-estndar de de los axiomas de los nmeros reales,
2 j 1-Conjuntos mediante el teorema de Los (1955).
Nmeros surreales (1960).
Nmeros surreales (1970).
S 0  S o S  S 0 . El conjunto de los nmeros, por ejemplo, se clasifica en diversos
subconjuntos de acuerdo con lo que refiere la figura 1.1.
Clasificacin de nmeros

Naturales
N
l 1: uno
Naturales primos
Enteros
Racionales z 0: Cero
Naturales Compuestos

Complejos
Reales Q Enteros negativos

e R
Fraccionarios
1 Fraccin propia
Fraccin impropia

Irracionales
1 Irracionales algebraicos
Trascendentes

Imaginarios

Figura 1.1: Clasificacin de los nmeros en diversos subconjuntos. Fuente: W IKIPEDIA


mas pequeos ajustes del autor
El sistema de numeracin
La unin de dos conjuntos S y T , expresada S [ T , es el conjunto formado por los
Sistema de smbolos o signos utilizados para expresar los nmeros. Un Sistema de numeracin posicional, por
elementos que est
ejemplo pertenecen
definido poralaSbase
o aque
T .utiliza.
La interseccin de S yde Tnumeracin
La base de un sistema , expresada S \ Tde, es
es el nmero el
smbolos
conjuntodiferentes
formado o guarismos,
por los necesarios
elementos paraque
representar un nmero
pertenecen aS yquaiera
cual T .de los infinitos posibles en el sistema.
Si S 0El
essistema de numeracin ms utilizado en la actualidad es el arbigo o decimal
un subconjunto de S , el complemento del subconjunto S 0 en
para representar todos los nmeros: O, 1, 2, 3, 4, 5, 6, 7, 8, 9.
porque emplea 1O smbolos
S es el conjunto
0
formado por los elementos de S que no pertenecen a S .
Si a y b son nmeros reales, es decir, a 2 R, b 2 R, y a  b, el conjunto de nmeros
x de la recta real tales que a  x  b se indica a; b. El formado por los x tales que
a < x  b, por .a; b. El de los x que verifican que a < x < b, por .a; b/.
Si S es un conjunto no vaco de nmeros reales acotados superiormente mayo-
rados, existe un nmero real mnimo y tal que x  y para todo x 2 S . Al nmero y
se le denomina cota superior mnima o supremo de S ; se expresa as:

sup .x/ o sup fx W x 2 S g :


x2S

De forma similar se define la cota inferior mxima o nfimo de un conjunto S no


vaco de nmeros reales acotados inferiormente o minorados:

Knf .x/ o Knf fx W x 2 S g :


x2S

Dados dos conjuntos S y T , una aplicacin, transformacin o mapeo f de S en T ,


expresada como f W S ! T , es una asociacin o criterio que a cada elemento de S hace
corresponder uno de T .
Una funcin es un caso particular de aplicacin en donde los conjuntos origen e ima-
gen suelen ser en este libro; no necesariamente en general conjuntos de nmeros:
fundamentalmente R, C, Z, N, etc.
1-Conjuntos j 3

Como regla general, las funciones que tienen inters en ingeniera, y cualesquiera
aplicaciones de las matemticas, son funciones que tienen algn tipo de buen com-
portamiento que nos permite utilizarlas de forma habitual para modelizar y simular
fenmenos de la vida cotidiana.
La imagen de un elemento x 2 S con la aplicacin f W S ! T es el elemento
f .x/ 2 T . El conjunto imagen f .S / = ff .x/ 2 T; para todo x 2 S g. La imagen de un
subconjunto S 0  S con la aplicacin f sera, por consiguiente, el subconjunto imagen
f .S 0 /. El conjunto S se conoce como origen o dominio de definicin de la aplicacin, o
funcin, y el T como dominio de valores.
Una aplicacin f W S ! T se dice inyectiva si para cualquier par de elementos
x; y 2 S , x y, se cumple que f .x/ f .y/. Ejemplo, la aplicacin f W R ! R,
definida por f .x/ D x 2 , no es inyectiva, pues f .1/ D f . 1/ D 1.
Una aplicacin f W S ! T se dice suprayectiva sobreyectiva, epiyectiva, suryec-
tiva o exhaustiva si el conjunto imagen f .S / es igual a todo el conjunto T ; es decir,
para todo y 2 T existe un x 2 S tal que f .x/ D y.
Una aplicacin se dice biyectiva si es inyectiva y suprayectiva. Ejemplo, si Jn es el
conjunto de los nmeros enteros de 1 a n, Jn D f1; : : : ; ng, y se define una aplicacin
 W Jn ! Jn que modifica el orden de disposicin de los elementos de Jn estas
aplicaciones se denominan permutaciones, tal aplicacin es biyectiva.
Un conjunto S se dice numerable si existe una biyeccin entre N y S : a cada unos de
los n elementos k, 1  k  n, se le asocia un elemento ak 2 S , esto es: k 7! ak .
Una sucesin de elementos de un conjunto T es una aplicacin de N en T : a cada
elemento n  1 se le hace corresponder un x .n/ 2 T : n 7! x .n/ . Tal sucesin se desig-
na x1 ; x2 ; : : : xn ; : : :, o fx .1/ ; x .2/ ; : : : g. Tambin en algunos casos fx .n/ gn1 e incluso
fxn g1nD1 .
Si fxi g es una sucesin de nmeros reales y existe un nmero real S tal que 1: para
cada " > 0 existe un N tal que para todo n > N se tiene que xn < S C  y 2: para
cada " > 0 y M > 0 existe un n > M tal que xn > S ", entonces S se denomina
lmite superior de la sucesin fxn g, escribindose S D lKm supn!1 xn . Si fxn g no est
acotada por arriba mayorada se escribe lKm sup xn D C1. El lmite inferior de la
sucesin fxn g es lKm inf xn D lKm sup. xn /. Si lKm sup xn D lKm inf xn D S , entonces
lKm xn D S.
Los conjuntos dotados de ciertas leyes de composicin o asociacin interna adicin,
multiplicacin, divisin o cualquier otra, se dice que poseen una estructura algebrai-
ca. Alguna estructuras algebraicas fundamentales son el grupo, el anillo (Z por ejemplo),
el cuerpo (R y C, por ejemplo), el espacio vectorial, el lgebra, etc.
4 j 1-Conjuntos
2-Espacios vectoriales j 5

2 | Espacios vectoriales
Definicin 2.1 Un espacio vectorial E es una estructura algebraica creada a partir de
un conjunto no vaco, una ley de composicin interna definida para los elementos del
conjunto, adicin, C, con las siguientes propiedades grupo conmutativo

xCy DyCx conmutativa


.x C y/ C z D x C .y C z/ asociativa
xCDx existencia de elemento neutro
x C . x/ D ;

y una ley de composicin externa, producto por un escalar, , definida entre dicho
conjunto y otro conjunto con estructura de cuerpo, K, con las siguientes propiedades,

1  x D x; 0x D
.x/ D ./x asociativa
. C /x D x C x distributiva
.x C y/ D x C y; distributiva
 D ;

vlidas cualesquiera que sean x; y; z en E y ; en K.


A se le denomina elemento neutro, o nulo, y a x el opuesto de x. Es usual deno-
minar vectores a los elementos de E y escalares a los de K.
Ejemplo 2.1 Quizs el espacio vectorial ms simple y utilizado es el conjunto de los
nmeros reales. Es un espacio vectorial con la adicin definida en los trminos usua-
les y el producto o, multiplicacin por escalares (reales), definido por la multiplicacin
ordinaria. El vector nulo es el nmero real cero. Las propiedades de adicin ordinaria
y multiplicacin de nmeros reales satisfacen las propiedades de la definicin anterior.
Este espacio vectorial se suele denominar el espacio unidimensional de nmeros reales,
o simplemente la recta real. Se designa por R. Todo lo dicho se aplica igualmente al
espacio vectorial de los nmeros complejos, C.
En las aplicaciones que se estudian habitualmente en este libro los casos ms impor-
tantes ocurren cuando K D R o K D C. Con la notacin K designaremos a cualquiera
de los cuerpos R o C y por x un vector cualquiera de un espacio vectorial.
Ejemplo 2.2 La extensin natural del anterior, y paradigma de espacio vectorial en este
libro, lo constituye el formado por sucesiones ordenadas de n elementos cualesquiera de
6 j 2-Espacios vectoriales

K, o n-uplas x D x1 ; : : : ; xn , definiendo la suma de vectores mediante


x1 ; : : : ; xn C y1 ; : : : ; yn D x1 C y1 ; : : : ; xn C yn
y el producto por un escalar mediante
x1 ; : : : ; xn D x1 ; : : : ; xn :
Si los elementos estn definidos en R, el espacio vectorial se denomina Rn , si lo estn
en C, el espacio vectorial es Cn .
En general, cuando en el libro nos refiramos a un espacio vectorial, salvo que se
indique lo contrario, podemos sobreentender que nos estamos refiriendo a Rn .
Ejemplo 2.3 Si se denota por RN el conjunto cuyos vectores son las sucesiones infinitas
de nmeros reales, es decir,

RN D x D fxn g1 nD1 W xn 2 R para todo n 2 N ;

ste tiene estructura de espacio vectorial sobre el cuerpo R. Anlogamente, el conjunto


CN de todas las sucesiones de nmeros complejos tiene estructura de espacio vecto-
rial. La adicin y la multiplicacin en estos espacios vectoriales se definen elemento a
elemento como en el ejemplo 2.2. Se dice que una sucesin est acotada si existe una
constante M tal que fxn g1 nD1 < M para todo n. La coleccin de todas las sucesiones
infinitas acotadas tambin conforman un espacio vectorial ya que la suma de dos sucesio-
nes acotadas o el mltiplo escalar de una sucesin acotada estn acotadas. Este espacio
se suele denominas espacio de sucesiones de nmeros reales acotadas.
Ejemplo 2.4 El conjunto de sucesiones infinitas de nmeros reales que convergen a
cero es un espacio vectorial ya que la suma de dos sucesiones convergentes a cero o el
mltiplo escalar de una sucesin que converge a cero tambin converge a cero.
Ejemplo 2.5 Si consideramos un intervalo a; b en la recta real. El conjunto de todas
las funciones continuas de valores reales en este intervalo forman un espacio vectorial.
Escribamos x D y si x.t / D y.t / para todo t 2 a; b y sea el vector nulo la funcin
idnticamente igual a cero en a; b. Si x e y son vectores de este espacio vectorial y
es un escalar (real), las funciones .x C y/.t / D x.t / C y.t / y .x/.t / D x.t / son
obviamente continuas por lo que la estructura de espacio vectorial es clara. Este espacio
se conoce como el espacio vectorial de funciones continuas reales en a; b.
Ejemplo 2.6 El conjunto Pn de polinomios de grado n,
X
n
pn .x/ D ak x k ;
kD0

con coeficientes ak reales definidos en toda la recta real o en un intervalo a; b, o


complejos, tambin conforman sendos espacios vectoriales. El vector nulo y la adicin
o suma, as como la multiplicacin por un escalar, se definen de la misma manera que en
el ejemplo anterior. La suma de dos polinomios y un mltiplo escalar de cualesquiera de
ellos son obviamente polinomios.
2-Espacios vectoriales j 7

Dejamos aqu de momento los ejemplos pues otros que enunciaremos y utilizaremos
en el libro requieren la introduccin de otras estructuras adicionales en los espacios vec-
toriales como son una norma y el producto interior. Seguiremos enunciando ejemplos al
introducir estas estructuras.
Proposicin 2.1 En cualquier espacio vectorial se cumple que:
1. x C y D x C z implica que y D z.
2. x D y con 0 implica x D y.
3. x D x con x implica D .
4. . /x D x x.
5. .x y/ D x y.
6. D .
7. . /x D . x/ D .x/.

Definicin 2.2 Un subespacio vectorial M de un espacio vectorial E sobre un cuerpo


K es un subconjunto no vaco que es un espacio vectorial sobre K. Es decir, es cerrado
respecto de las operaciones de adicin y producto por un escalar por lo que cumple que

8x; y 2 M H) x C y 2 M;
8x 2 M y 8 2 K H) x 2 M:
La interseccin de una familia cualquiera de subespacios de E es un subespacio de
E.
Un conjunto de vectores x1 ; x2 ; : : : ; xk se dicen linealmente dependientes si existen
P
escalares i , no todos cero, tales que kiD1 i xi D 0 ; linealmente independientes, si

X
k
i xi D 0 H) i D 0; 0i k:
iD1

Definicin 2.3 La dimensin de un subespacio es el mximo nmero de vectores


linealmente independientes en el subespacio.

Definicin 2.4 Si X es un subconjunto cualquiera de E el subespacio GenfXg, gene-


rado o engendrado por X, es la interseccin se todos los subespacios que contienen a
X. Cuando GenfXg D E, se dice que X es una parte generadora de E.

Definicin 2.5 Dados vectores x1 ; : : : ; xn y escalares 1 ; : : : ; n , el vector formado


segn la expresin
x D 1 x1 C    C n xn
se dice que es una combinacin lineal de los vectores x1 ; : : : ; xn con coeficientes
1 ; : : : ;  n .
Un subconjunto X de E es un subespacio si y slo si contiene a cualquier combina-
8 j 2-Espacios vectoriales

cin lineal de cualquier subconjunto finito de vectores de X. Tambin se demuestra que


el subespacio GenfX g es el conjunto de todas las combinaciones lineales de vectores de
X.
Definicin 2.6 Una parte X de un espacio vectorial E se dice que es una familia libre
si los vectores de cualquier subconjunto finito de X son linealmente independientes.

Definicin 2.7 Una base de un espacio vectorial E es cualquier subconjunto B de


E que sea, simultneamente, una parte libre y generadora de E; dicho de otra forma,
una base de un espacio vectorial es un conjunto normalmente se supone ordena-
do (numerado) de vectores linealmente independientes que generan (o engendran)
dicho espacio.
Se demuestra que cualquier espacio vectorial tiene una base y que todas las bases
de un mismo espacio tienen la misma cardinalidad se pueden poner en biyeccin.
Cuando el cardinal de las bases es un nmero natural, n 2 N, se dice que el espacio es
de dimensin finita n.
Definicin 2.8 En un espacio vectorial K n ,
2 3 2 3 2 3
1 0 0
607 617 607
e1 D 6 7 6 7 6 7
4 ::: 5 ; e2 D 4 ::: 5 ; : : : ; en D 4 ::: 5 ;
0 0 1

forman una base en dicho espacio; ste, por tanto, tiene dimensin n. Esta base se
denomina base cannica o base estndar de K n . En esta base, cualquier vector x T D
x1 ; x2 ; : : : ; xn se puede expresar de la siguiente forma:
2 3 2 3 2 3 2 3
x1 1 0 0
6 x2 7 607 617 607
6 : 7 D x1 6 : 7 C x2 6 : 7 C    C xn 6 : 7 :
4 :: 5 4 :: 5 4 :: 5 4 :: 5
xn 0 0 1

Es decir Rn D Genfe1 ; : : : ; en g. La base estndar de Pn es S D f1; t; t 2 ; : : : ; t n g.

Proposicin 2.2 Si M y N son dos subespacios vectoriales de un espacio X, la inter-


seccin, M \ N , de M y N es un subespacio de X.
Si A y B son subconjuntos de un espacio vectorial E, el conjunto A C B se define
como:
A C B D fa C b W a 2 A; b 2 Bg :
Cuando A y B son subespacios, tambin lo es la suma A C B. Si adems A \ B D ;, la
suma se denomina directa, escribindose A B. Si A B D E, cualquier vector c 2 E
se descompone de manera nica como c D a C b, con a 2 A y b 2 B; tambin se dice
2-Espacios vectoriales j 9

que A y B son subespacios suplementarios.


En el espacio tridimensional el subespacio generado por un crculo bidimensional
centrado en el origen es un plano. El subespacio generado por un plano que no pase por
el origen es el espacio entero. Un subespacio es una generalizacin de nuestra nocin
intuitiva de un plano o lnea recta a travs del origen. La traslacin de un subespacio, por
lo tanto, es una generalizacin de un plano arbitrario o una recta.
Definicin 2.9 La traslacin de un subespacio se denomina variedad lineal o subes-
pacio afn.
Una variedad lineal V se puede expresar como V D x0 C M , donde M es un subes-
pacio. En la figura 2.1 se representa un subespacio M y una variedad lineal derivada de
l para un x0 cualquiera
22 2. de V . of Affine Geometry
Basics

V
x0
M

Figura 2.1: Variedad lineal o subespacio afn

2.1 Espacios vectoriales con estructuras adicionales

L OS espacios vectoriales de mayor inters, tanto en el anlisis abstracto como en


las aplicaciones, tienen ms estructura
Figure 2.6. Anque la line
affine implicada nicamente
U and its direction por las pro-
piedades presentadas. Los axiomas del espacio vectorial slo describen propiedades al-
gebraicas de los elementos del espacio: adicin, multiplicacin por un escalar y combi-
this time without any restriction on the i , since the right-hand side
naciones de stas. Faltan conceptos topolgicos como apertura, envoltura, convergencia


of the
y completitud, para equation
hacer frenteisa null. Thus, fundamentales
cuestiones U is a subspace para ofelRanlisis
2
. In fact,
comoU es
is one-
si
dimensional, and it is just a usual line in R2 . This line can be identified
una sucesin de funciones converge a otra funcin, la continuidad de funciones, medir
with a line passing through the origin of A2 , a line that is parallel to the
distancias, etc.
line U of equation ax + by = c, as illustrated in Figure 2.6.
Las necesidades del anlisis
Now, if (x0 , y0funcional requieren
) is any point in U ,considerar nuevas estructuras. Todos
we claim that
estos conceptos se pueden proporcionar introduciendo una forma de medir y la distancia
en un espacio.
U = (x0 , y0 ) + U ,

where
2.1.1 Espacios normados y espacios
n mtricos
o

(x0 , y0 ) + U = (x0 + u1 , y0 + u2 ) | (u1 , u2 ) U .
La idea detrs de una norma es poder medir vectores y calcular distancias.


First, (x0 , y0 ) + U U , since ax0 + by0 = c and au1 + bu2 = 0 for all


10 j 2-Espacios vectoriales

Definicin 2.10 Si en un espacio vectorial E sobre K (R o C) se define una norma


vectorial como una aplicacin k  k W E ! R que verifica

kvk D 0 H) v D 0 y x 0 H) kxk > 0;


3.1 Espacios
kvk D jjkvk para 2 Knormados
y v 2 E;
ku C vk  kukSi enCun
kvk 8u;vectorial
espacio v 2 E; E sobre K (R o C) se define una no
k  k W E ! R que verifica
se dice que E es un espacio vectorial normado.
kvk D 0 H)
La condicin ku C vk  kuk C kvk es la desigualdad de Minkowski vD
por 0 y x 0 H) k
Hermann
Minkowski, Lituania 1864-1909, kvk D jjkvk para 2 K y v
ku C vk  kuk C kvk 8u; v 2

se dice que E es un espacio vectorial normado.


La condicin kuCvk  kukCkvk es la desigualdad de Minko
del tringulo. Es una generalizacin del hecho de que un lado de
la suma de los otros dos: ver figura. Una variante de esta regla es
ku vk  kuk kvk:
que se conoce tambin como regla del tringulo. Es una generalizacin del hecho de que
un lado de un tringulo no puede ser mayor que la suma de los otros dos en un espacio
eucldeo multidimensional, como se puede constatar en la figura 2.2.

v
uCv

Figura
Figura 2.2: Representacin grfica de la regla del 3.1: Representacin grfica de la regla
tringulo

En el espacio vectorial Kn , para 1  p < 1, se tiene la famili


Lema 2.3 En un espacio vectorial normado se cumple que kxk kyk  kx yk para
 1
cualesquiera dos vectores x e y.
kxkp D jx1 jp C    C jxn jp
Demostracin. kxk kyk D kx y Cyk kyk  kx ykCkyk kyk D kx yk:
denominadas normas p de Hlder. Casos particulares lo constitu
p D 2:
Definicin 2.11 En un espacio vectorial normado se define la distancia entre dos
elementos u y v mediante X n
kxk1 D jxi j
d.u; v/ D ku vk .
i D1
p
Esta definicin convierte a cualquier espacio vectorial normado en kxkun espacio
2 D jx1 j2m-
C    C jxn j2
trico. El espacio de los nmeros reales, por ejemplo, con la distancia d.x; y/ D jx yj,
es el espacio mtrico R1 . Esta ltima se denomina en Rn norma eucldea. Tambin en Kn
kxk1 D mKax jxi j :
1in
2-Espacios vectoriales j 11

Con la introduccin de normas adecuadas, casi todos los ejemplos de espacios vec-
toriales arriba indicados se pueden convertir en espacios vectoriales normados.
Ejemplo 2.7 El espacio vectorial C a; b de funciones continuas en el intervalo de la
recta real a; b junto con la norma kxk D mKaxatb jx.t /j es un espacio vectorial
normado.
Comprobemos si esta norma satisface las propiedades requeridas. Es obvio que kxk 
0 y es cero slo si la funcin x.t / es igual a cero. La regla del tringulo se obtiene de la
expresin

mKax jx.t / C y.t /j  mKax.jx.t /j C jy.t /j/  mKax jx.t /j C mKax jy.t /j:

Finalmente, la propiedad que falta se deduce de

mKax jx.t /j D mKax jj jx.t /j D jj mKax jx.t /j:

Ejemplo 2.8 El espacio vectorial Da; b de todas las funciones continuas en el intervalo
a; b de la recta real, con derivadas continuas de primer orden, junto con la norma defi-
nida as, kxk D mKaxat b jx.t /j C mKaxatb jx.t
P /j, es un espacio vectorial normado.
Ejemplo 2.9 El espacio eucldeo n dimensional, denotado como Rn o E n , es el es-
pacio vectorial
p normado por excelencia con la norma eucldea dada por la expresin
kxk2 D jx1 j2 C    C jxn j2 . Sus elementos lo constituyen sucesiones ordenadas de n
elementos cualesquiera de K, o n-uplas x D x1 ; : : : ; xn . Si los elementos son comple-
jos se tendra el espacio Cn .
En el espacio vectorial K n , para 1  p < 1, se tiene la familia de normas
p
p
kxkp D jx1 jp C    C jxn jp

denominadas normas p de Hlder por Otto Hlder, Alemania 1859-1937.

Casos particulares lo constituyen las correspondientes a p D 1 y p D 2:


X
n
kxk1 D jxi j
i D1
p
kxk2 D jx1 j2 C    C jxn j2 :

Esta ltima es una vez ms la norma eucldea en Rn . Toma su nombre de Euclides de


Alejandra, Grecia, 325-265 a.C.
12 j 2-Espacios vectoriales

Tambin en K n es una norma la dada por

kxk1 D mKax jxi j :


1i n

Esta norma tambin se conoce como norma infinito o norma del supremo.
Estas normas cumplen, cualquiera que sea x 2 K n , que

kxk1  kxk2  kxk1  nkxk1 :

Si la bola
Sicerrada unidad
el conjunto fxen2 RR2 es
2
el conjunto
W kxk  1g es fx 2 Rcerrada
la bola
2
W kxkunidad su forma en
 1g, en
espacios vectoriales normados por la 1, 2, 1 y p son las que representa la figura 2.3.
R , su forma para las normas vectoriales 1, 2, 1, y p son estas.
2

2
2
i

kxk
x11 D
= |xijx
| ij D1
i=1
iD1

q
 q
kxk
x22 D |x11|j22+C|xjx
= jx 2 2
j DxT xx T x D 1
2 | 2=

D mK
kxk1 ax jx
i ij D 1
1i2 1i2

kxkp D jx1jp C jx2jp 1=p ; .1  p < 1/


D1
28/63

Figura 2.3: Forma de la bola unidad para diferentes normas en R2


a b c 1 2 3

d e f g 9 4 6 5

h i j 10 8 7

2.1.1.1 Estructura topolgica en espacios vectoriales


En un espacio vectorial normado se define una bola abierta, S.x0 ; r/, de centro x0 y
radio r, como el conjunto de puntos x que verifican kx x0 k < r. Es decir:

S.x0 ; r/ D fx 2 Rn W kx x0 k < rg:


N 0 ; r/, se define, por el contrario, como el conjunto de puntos
Una bola cerrada, S.x
x que verifican kx x0 k  r. Es decir:
N 0 ; r/ D fx 2 Rn W kx
S.x x0 k  rg:

Consideraremos en lo que sigue de este apartado un subconjunto S del espacio vec-


torial mtrico hasta ahora estudiado (puede ser, por ejemplo, Rn ).
2-Espacios vectoriales j 13

Definicin 2.12 Sea S un conjunto de puntos del espacio vectorial normado X. Un


punto y 2 S es un punto interior de S si existe un " > 0 tal que todos los vectores x
que satisfacen kx yk < " pertenecen a S . En otras palabras, existe una bola abierta
S.y; "/ de centro y y radio " contenida ntegramente en S . El conjunto de todos los
puntos interiores del conjunto S se denomina interior de S y se designa mediante SV .
El interior de un conjunto puede, evidentemente, ser vaco. Por ejemplo un conjunto
con un nico punto, una lnea en R2 o un plano del espacio R3 .
Definicin 2.13 Un conjunto, o subconjunto S de un espacio normado, se dice abierto
si coincide con su interior: S D SV . Es decir, si alrededor de todo punto de S existe una
bola abierta contenida ntegramente en S.
Dos ejemplos: la bola abierta unidad, S.x; 1/ D fx W kxk < 1g y el espacio Rn
en su totalidad. En general los subconjuntos o conjuntos abiertos se caracterizan por no
tener lmites definidos o ser disjuntos de su frontera (ver ms adelante la definicin del
concepto frontera).
Definicin 2.14 Un entorno de un punto x, E.x/, es un conjunto abierto que contiene
a x. En otras palabras, E.x/ es un entorno de x si contiene una bola abierta de centro
x.

Definicin 2.15 Se dice que un punto x es un punto de acumulacin del subconjunto


S si en todo entorno de x existen un nmero infinito de puntos de S .

Definicin 2.16 Un punto x se denomina punto de adherencia de un subconjunto S


de un espacio vectorial cuando todo entorno de dicho punto x contiene al menos un
punto de S ; es decir, para todo " existe un y 2 S tal que kx yk < ". El conjun-
to de todos los puntos de adherencia de S se denomina adherencia en la literatura
anglosajona y latinoamericana, se denomina clausura cl.S / o cerramiento. Se de-
signa por SN . La adherencia de la bola abierta S.x; 1/ D fx W kxk < 1g es la cerrada
N
S.x; 1/ D fx W kxk  1g.

Definicin 2.17 Se denomina frontera o borde de un conjunto a la parte de la adheren-


cia que no est en el interior.

Definicin 2.18 Un conjunto, o subconjunto, se dice cerrado si coincide con su adhe-


rencia.

2.1.1.2 Convergencia
La adherencia de cualquier conjunto S es el conjunto cerrado ms pequeo que contiene
a S . Se puede demostrar que un conjunto es cerrado si y slo si toda sucesin convergente
de elementos de S tiene un lmite en ese conjunto.
14 j 2-Espacios vectoriales

Definicin 2.19 Se dice que en un espacio vectorial normado una sucesin infinita de
vectores fxn g converge a un vector x si la sucesin fkx xn kg converge a cero. En
este caso se escribe xn ! x.
Todos los elementos del vector deben converger a cero, lo que hace difcil caracterizar
la convergencia en espacios que no sean Rn .
Proposicin 2.4 Si la sucesin infinita de vectores converge, el lmite es nico.

Demostracin. Supongamos que xn ! x y que xn ! y. Entonces

kx yk D kx xn C xn yk  kx xn k C kxn yk ! 0:

Como consecuencia de esto, x D y.


En trminos de esferas o bolas, una sucesin infinita de vectores fxn g converge a un
vector x si y slo si dado un " > 0 la bola S.x0 ; "/ contiene un xn para todo n mayor
que algn nmero N .
Proposicin 2.5 Un conjunto F es cerrado si y slo si cualquier sucesin convergente
de elementos de F tiene lmite en F .

Proposicin 2.6 La interseccin de un nmero finito de conjuntos abiertos es abierta.


La unin de una coleccin arbitraria de conjuntos abiertos es abierta.

Proposicin 2.7 La unin de un nmero finito de conjuntos cerrados es cerrada. La


interseccin de una coleccin arbitraria de conjuntos cerrados es cerrada.

Definicin 2.20 Un conjunto, o subconjunto, se dice compacto si es cerrado y acotado


(contenido en una bola de radio r < 1).
El trmino general de una sucesin f xn gn1 de nmeros reales tiene lmite, l, cuando
n tiende a 1, si para todo valor " > 0 por pequeo que sea, existe un valor n0 a
partir del cual si n > n0 tenemos que la distancia de l a xn es menor que ", es decir,
8" > 0; 9 n0 > 0 W 8n > n0 ; d.xn ; l/ < ".
Un importante resultado debido a Karl Theodor Wilhelm Weierstra, Alemania 1815-
1897,

dice que si S es un conjunto compacto, de cada sucesin o sucesin infinita fxn gn2N de
elementos de dicho conjunto es posible extraer una subsucesin fx` g`2L ; L  N que
converge a un elemento del propio conjunto S .
2-Espacios vectoriales j 15

Si frk g es una sucesin de nmeros reales y sk D sup fri W i  kg, entonces fsk g
converge a un nmero real s0 ; a este nmero se le denomina lmite superior de frk g y se
expresa como lKm sup .rk / o lKmk!1 .rk / . El lmite superior de una sucesin de nmeros
reales es el mayor punto de acumulacin de la sucesin. De forma similar se define el
lmite inferior.
Sea E un espacio vectorial normado; se dice que una sucesin fxn g en E converge a
un lmite v 2 E, si para todo " > 0, existe un N 2 N tal que a partir de l, n  N , se
cumple que kxn vk < ".
Cuando una sucesin fxn g admite un vector lmite v slo tiene ese vector como
lmite (si existe lmite es nico.) Se escribe lKmn!1 fxn g D v, lo que es equivalente a
lKmn!1 kxn vk D 0. En particular, xn ! 0 si y slo si kxn k ! 0.
Definicin 2.21 Una sucesin fxn g en un espacio vectorial normado por k  k se
denomina sucesin de Cauchy, por Augustin Louis Cauchy, Francia 1789-1857, si
kxn xm k ! 0 al tender n; m ! 1. En otras palabras, si para todo " > 0 existe
un N 2 N tal que cualesquiera que sean n; m  N , se cumple que kxn xm k < ".
Toda sucesin convergente es una sucesin de Cauchy pero pueden existir espacios
normados con sucesiones de Cauchy que no son convergentes.

Definicin 2.22 Un espacio vectorial normado se dice completo si toda sucesin de


Cauchy en l tiene lmite. Un espacio vectorial normado completo es un espacio de
Banach, por Stefan Banach, Polonia 1892-1945.

Si se tiene la sucesin x D fxn g1


nD1 , se puede definir
v
u1
X
1
uX
kxk1 D jxn j; kxk2 D t jxn j2 y kxk1 D sup jxn j:
nD1 nD1 n2N

Estas cantidades no estarn definidas para cualquier sucesin en RN o CN y estarn


16 j 2-Espacios vectoriales

asociadas a un subespacio especfico de sucesiones. Si se define


( )
X1
1 1
` .N/ D x D fxn gnD1 2 C tal que
N
jxn j < 1 ;
nD1

se comprueba que `1 .N/ es un subespacio vectorial de CN y que kxk1 para x 2 `1 .N/


define una norma. Se obtiene as un espacio normado. De la misma manera se definen
( )
X1
2 1 2
` .N/ D x D fxn gnD1 2 C tal que
N
jxn j < 1
nD1

y

`1 .N/ D x D fxn g1
nD1 2 C tal que x est acotada :
N

Si   Rn es un conjunto abierto de Rn , el conjunto de todas las funciones conti-


nuas en  forman un espacio vectorial lineal, C./, en Rn , con las operaciones suma y
producto por un escalar,

.f C g/.x/ D f .x/ C g.x/; x2


.f /.x/ D f .x/; x 2 :

Recordemos antes de introducir otros ejemplos de espacios vectoriales en los que la


norma es importante, que una funcin f se supone continua (o uniformemente continua)
en  si para cualquier " > 0 existe un D .f; "/ > 0 tal que jf .x/ f .y/j < ",
cualesquiera sean x; y 2  con kx yk < .
Mediante C./ se designa el espacio vectorial lineal de las funciones continuas en el
conjunto cerrado . Este ltimo espacio, y C./, son una variedad de espacio vectorial
denominada espacio funcional pues sus elementos son funciones en vez de vectores
propiamente dichos. Cualquier funcin continua en C./ es claramente continua en
C./. Igualmente, si f 2 C./ es continua en el conjunto abierto  y ste est acotado,
la funcin f se puede suponer continua tambin en @, la frontera o borde de , y
entenderse que es continua por tanto en C./ y pertenece a dicho conjunto.
Otro espacio vectorial interesante es C m ./, el de funciones continuas con derivadas
parciales continuas hasta orden m en , o C m ./ en . Tambin Cp .2/, de funciones
continuas peridicas-2, es decir, funciones f 2 C. 1; 1/ tales que f .x C 2/ D
f .x/, 1 < x < 1. O Cpk .2/ de funciones continuas peridicas-2 con derivadas
continuas hasta orden k. Alguna vez se indica Cp0 .2/ para referirse a Cp .2/.

Definicin 2.23 El conjunto L1 a; b, de todas las funciones del cuerpo de los nmeros
reales cuyo valor absoluto es integrable en el intervalo a; b, es un espacio vectorial
funcional. Tambin lo es L2 a; b, el conjunto de todas las funciones reales al cuadrado
integrables en a; b. Es de destacar que en ambos casos estas funciones no tienen por
que ser continuas en ese intervalo.
2-Espacios vectoriales j 17

2.1.1.3 Transformaciones, aplicaciones y operadores. Continuidad

Definicin 2.24 Dados dos espacios vectoriales X e Y y un subconjunto D de X, una


regla que asocia a cada elemento x 2 D un elemento y 2 X se dice una transforma-
cin, o aplicacin, de X en Y con dominio de definicin D. Si y corresponde a x con
la transformacin T se escribe y D T .x/.

Definicin 2.25 Una transformacin de un espacio vectorial X en un espacio vectorial


de nmeros reales o complejos se denomina funcin.

Definicin 2.26 Dados dos espacios vectoriales E y F sobre el mismo cuerpo K


se define una aplicacin lineal, transformacin lineal, mapeo, operador lineal u
homomorfismo, f , de E en F , como una aplicacin f W E ! F que verifica

f .x C y/ D f .x/ C f .y/ ;

cualesquiera que sean los vectores x, y de E y los escalares  y .


Existen dos casos particulares interesantes: el primero cuando E D F , en este caso
se dice que f es un operador lineal de E o endomorfismo de E; el segundo cuando
F D K el cuerpo base, en cuyo caso la aplicacin se denomina forma lineal sobre
E.
El conjunto L.E; F / de todas las aplicaciones lineales del espacio E en el espacio
F se estructura como un espacio vectorial si se definen las siguientes operaciones:
adicin .f C g/ W .f C g/.x/ D f .x/ C g.x/; 8x 2 EI
producto por un escalar f W .f /.x/ D f .x/; 8x 2 E y 8 2 K:
En particular, el conjunto L.E; K/ de formas lineales es un espacio vectorial denomina-
do dual de E, representndose con E  .
Para una aplicacin lineal f W E ! F , el conjunto de vectores de F que son la ima-
gen de los de un subespacio de E forma un subespacio de F . En particular, la imagen de
todo E es un subespacio de F que se denomina subespacio imagen de f , representn-
dose mediante Im.f /. Anlogamente, el conjunto anti-imagen de un subespacio de F
forma un subespacio de E. En particular, la anti-imagen del subespacio nulo de F forma
lo que se denomina el ncleo de la aplicacin, representndose por ker.f /. As pues
ker.f / D fx 2 E W f .x/ D 0g :
Si b 2 F , la ecuacin lineal f .x/ D b tiene solucin si y slo si b 2 Im.f /. En
ese caso el conjunto de todas las soluciones es la variedad lineal traslacin de un
subespacio dada por x0 C ker.f /, donde x0 es una solucin particular de la ecuacin.
En particular, la aplicacin es inyectiva si y slo si ker.f / D ;.
El ejemplo ms inmediato de transformacin lineal lo proporciona una matriz rec-
tangular m  n que asocia elementos de Rn en Rm . Volvemos sobre esto unas lneas ms
abajo.
18 j 2-Espacios vectoriales

Oro ejemplo de transformacin lineal de X D C a; b en X lo constituye la integral


Rb
T .x/ D a k.t;  /x. / d  , donde k.t;  / es una funcin continua en espacio cuadrado
a  t  b, a    b.
Definicin 2.27 Una transformacin o aplicacin T de un espacio vectorial normado
X en otro espacio vectorial normado Y es continua en x0 2 X si para todo " > 0
existe un > 0 tal que kx x0 k < implica que kT .x/ T .x0 /k < ".
La continuidad depende de la norma elegida. Si todo punto de un espacio vectorial
normado en continuo, el espacio se dice continuo.
Proposicin 2.8 Una transformacin T de un espacio vectorial normado en otro Y
tambin normado se dice continua en el punto x0 2 X si y slo si xn ! x0 implica
que T .xn / ! T .xo /.
Dada una transformacin lineal, aplicacin lineal, o mapeo, f W E ! E, se dice
que un subespacio W de E es un subespacio invariante frente a f (o f -invariante) si
para todo vector w 2 W se cumple que f .w/ 2 W . Dicho de otra manera, W es un
subespacio invariante si f .W /  W .

2.1.1.3.1 Los espacios `p y Lp


Volvemos sobre ellos en este contexto.
Definicin 2.28 Sea p un nmero real tal que 1  p < 1. El espacio `p est formado
por todas las sucesiones x D fxn g1
nD1 2 C tales que
N

X
1
jxn jp < 1:
nD1

Es decir ( )
X
1
p
` .N/ D x D fxn g1
nD1 2 C tal que
N p
jxn j < 1 :
nD1

El espacio `1 es `1 .N/ D x D fxn g1
nD1 2 C tal que x est acotada .
N

La norma de un elemento x D fxn g1


nD1 2 C de ` est definida por
N p

!1=p
X
1
p
kxkp D jxi j :
i D1

En `1 .N/ por kxk1 D supi jxi j:


Los espacios (funcionales) Lp a; b, e incluso Rp se definen, de forma anloga, para
p  1, como el espacio de las funciones medibles x en el intervalo a; b para las cuales
2-Espacios vectoriales j 19

la integral de Lebesgue (Riemann) existe. La norma de este espacio se define como


Z !1=p
b
p
kxkp D jx.t /j dt :
a

2.1.1.4 Espacios de Banach

Definicin 2.29 Un Espacio de Banach es un espacio vectorial normado completo


respecto de la norma a l asociada. Todo espacio vectorial normado de dimensin finita
es un espacio de Banach.

Ejemplo 2.10 De Luenberger [1969] sacamos la sucesin, del espacio X de funciones


R1
continuas en 0; 1 con la norma que define kxk D 0 jx.t /j dt , que expresa
8

0 para 0  t  21 n1
<
xn .t / D nt n2 C 1 para 12 n1  t  12


:
1 para t  21 :

Su grfica es la de la figura 2.4. Este espacio no es C 0; 1 pues la norma es diferente.


Cada elemento de la sucesin es una funcin continua del espacio X. La sucesin
es de Cauchy pues kxn xm k D 12 j1=n 1=mj ! 0. Sin embargo, es obvio que no
converge a ninguna funcin continua. El espacio X en incompleto.

Figura 2.4: Grfica de sucesin de Cauchy que no converge a una funcin continua

Ejemplo 2.11 Tambin es fcil ver que en C 0; 1 la sucesin de funciones cuyas grfi-
cas son las de la figura 2.5 es una sucesin de Cauchy para cualquier norma k  kp , pero
no tiene lmite en C 0; 1.
Ejemplo 2.12 El espacio normado C 0; 1 es un espacio de Banach. Para probar que
es completo tendramos que probar que toda sucesin de Cauchy en l tiene lmite.
20 j 2-Espacios vectoriales

1
fn .x/ n
= =

0 1 x

= =
1
n
Figura 2.5

Supongamos que fxn g es una sucesin de Cauchy en C 0; 1. Para cada t 2 0; 1,


jxn .t/ xm .t /j  kxn xm k ! 0 por lo que fxn g es una sucesin de Cauchy de
nmeros reales. Como el conjunto de los nmeros reales es completo existe un nmero
real x.t/ al que converge la sucesin: xn .t / ! x.t /. Las funciones xn convergen en
consecuencia punto a punto a la funcin x.
Ahora probemos que esta convergencia punto a punto en uniforme en t 2 0; 1, es
decir, dado un " > 0 existe un N tal que jxn .t / x.t /j < " para todo t 2 0; 1 y n  N .
Dado un " > 0 escogemos un N tal que kxn xm k < "=2 para n; m > N . Entonces
para n > N
jxn .t / x.t /j  jxn .t / xm .t /j C jxm .t/ x.t/j
 kxn xm k C jxm .t / x.t /j:
Escogiendo un m suficientemente grande (que depender de t), cada trmino del miem-
bro de la derecha de la expresin anterior se puede hacer menor que "=2 de tal manera
que jxn .t / x.t /j < " para n > N .
Queda por probar que la funcin x es continua y que la sucesin fxn g converge a x
de acuerdo con la norma de C 0; 1. Para probar la continuidad de x, fijamos " > 0. Para
todo , t y m,
jx.t C / x.t /j  jx.t C / xn .t C /j
C jxn .t C / xn .t /j C jxn .t / x.t /j:
Como fxn g converge uniformemente a x, n se puede escoger de tal manera que los
trminos primero y ltimo de esta expresin se hagan menores que "=3 para todo .
Como xn es continua, se puede escoger un que haga el segundo trmino menor que
"=3. Como consecuencia de ello, x es continua. La convergencia de xn a x en C 0; 1 se
desprende directamente de la convergencia uniforme.
2-Espacios vectoriales j 21

Es bastante instructivo conciliar la completitud de C 0; 1 con el ejemplo 2.10 en el


que la sucesin de funciones era de Cauchy pero no convergente con respecto a la norma
que all se defina. La diferencia es que, con respecto a la norma de C 0; 1, la sucesin
del ejemplo 2.10 no es de Cauchy.
Los espacios `p , 1  p  1 y Lp , 1  p  1, son espacios de Banach.

2.1.2 Espacios con producto interior

Definicin 2.30 Sea E un espacio vectorial sobre un cuerpo K (R o C); una forma
sesquilineal vez y media lineal sobre E es una aplicacin hji W E  E ! K que
verifica (la barra designa complejo conjugado):

1) hu C vjwi D hujwi C hvjwi y


2) hujv C wi D hujvi C hujwi;

cualesquiera que sean u, v, w en E y ; en K . Si adems se cumple que hujvi D


hvjui, la forma se denomina hermtica. Es claro que hujui es siempre un nmero real.
Cuando se cumple que
u 0 H) hujui > 0 ;
se dice que la forma es definida positiva, denominndosela tambin producto escalar
o producto interior. Una forma sesquilineal sobre R es siempre una forma bilineal.

2.1.3 Espacios de Hilbert


Un espacio prehilbertiano por David Hilbert, Prusia Oriental 1862-1943

es un espacio vectorial, sobre un cuerpo K , dotado de una forma hermtica definida


positiva. Todo espacio prehilbertiano es un espacio normado mediante
p
kvk D hvjvi :

En la demostracin de que esta definicin corresponde a la de una norma en E juega


un papel importante la desigualdad de Cauchy-Schwarz por Augustin Louis Cauchy,
22 j 2-Espacios vectoriales

Francia 1789-1857 y Karl Hermann Amandus Schwarz, Prusia 1843-Alemania 1921

que tiene por expresin



hujvi  kuk  kvk :

Sean E y F dos espacios prehilbertianos sobre el cuerpo K ; si f W E ! F es


una aplicacin lineal, la aplicacin traspuesta de f es la aplicacin f  W F ! E que
cumple
hxjf  .y/i D hf .x/jyi ;
cualesquiera que sean los vectores x 2 E e y 2 F . Particularmente importante es el
caso en que E D F : f  se dice entonces que es el operador adjunto de f . Cuando un
operador f de E cumple que f  D f se denomina operador autoadjunto. En el caso
de que E sea un espacio vectorial real, tambin se dice que f es un operador simtrico y
cuando es un espacio vectorial complejo, que f es un operador hermtico. Un operador
simtrico cumple que
hxjf .y/i D hf .x/jyi;
mientras que uno hermtico, que

hxjf .y/i D hf .x/jyi:

Un operador f de E es unitario cuando es invertible y su inverso coincide con su


adjunto. Es decir, si f  D f 1 . Para un operador unitario se tiene que

hf .x/jf .y/i D hf  .f .x//jyi D hxjyi ;

de manera que kf .x/k D kxk. Por este motivo a los operadores unitarios tambin se les
denomina operadores isomtricos.
Definicin 2.31 Un espacio de Hilbert es un espacio
p prehilbertiano completo respecto
de la norma asociada al producto escalar kk D h; i . Dicho de otra forma, un espacio
prehilbertiano que con esta norma da un espacio de Banach. Todo espacio de Hilbert
es un espacio de Banach, pero el recproco no es cierto.
El espacio eucldeo n-dimensional, expresado Rn o En , es un espacio de Hilbert de
dimensin finita. Visto as, un espacio de Hilbert sera la generalizacin de un espacio
eucldeo, incluida la dimensin infinita. El producto escalar en un espacio eucldeo es
una forma bilineal. En particular, dados dos vectores en R2 de la forma u D a; bT y
2-Espacios vectoriales j 23

v D c; d T , su producto escalar viene dado por hu; vi D ac Cbd . que se puede verificar
que es una forma bilineal.
Dos vectores cuyo producto escalar es cero se denominan ortogonales; si sus kk2 son
la unidad se denominan ortonormales. Para dos vectores ortogonales se tiene la identidad

ku C vk2 D kuk2 C kvk2 ;

que es una generalizacin del teorema de Pitgoras. En un espacio prehilbertiano el nico


vector ortogonal a todos los vectores del espacio es el vector nulo; si este espacio es de
dimensin finita es posible construir una base ortonormalizada.
En un espacio eucldeo n-dimensional el ngulo entre dos vectores x e y es
 
xT y
 D arc cos ;
kxkkyk

donde
xT y
D
kxkkyk
cumple que 1    1, para cualesquiera x e y.
Dos vectores son ortogonales si x T y D 0 ( D =2;  D 0); alineados, si x T y D
kxkkyk ( D 0;  D 1); opuestos, si x T y D kxkkyk ( D ;  D 1). Forman
un ngulo agudo si x T y > 0 ( < =2;  > 0) y un ngulo obtuso si x T y < 0
( > =2;  < 0).
Una familia cualquiera de vectores distintos del nulo y ortogonales dos a dos es una
familia libre. Si M es un subespacio de un espacio prehilbertiano E de dimensin finita,
el subespacio ortogonal de M , M ? , es el subespacio formado por todos los vectores
ortogonales a los de M , siendo un subespacio suplementario de M ; es decir M M ? D
E. Cualquier x 2 E, por consiguiente, se puede expresar como x D a C b, con a 2 M
y b 2 M ?.

2.1.3.1 Teorema de la proyeccin


Gran parte de las teoras de sistemas de ecuaciones y de optimizacin estn basadas en
unos pocos resultados simples e intuitivos. Entre estos, quizs el ms sencillo y usado
sea el teorema de la proyeccin. Su aplicacin en la teora de mnimos cuadrados lineales
es fundamental. En un espacio Eucldeo ordinario de tres dimensiones determina que la
distancia ms corta de un punto exterior a un plano a ese plano la proporciona la perpen-
dicular al plano desde dicho punto. La expresin formal de este teorema en espacios de
Hilbert es la que sigue.
Teorema 2.9 Sea H un espacio de Hilbert y M un subespacio cerrado de H . Para
todo vector x 2 H existe un nico vector m0 2 M tal que kx m0 k2  kx mk2 ,
para todo m 2 M . La condicin necesaria y suficiente adems para que m0 2 M sea
el vector mnimo nico es que x m0 sea ortogonal a M .
24 j 2-Espacios vectoriales

Demostracin. Primero probaremos que si m0 es un vector que minimiza kx mk,


x m0 es ortogonal a M . Supongamos para ello, por el contrario, que existe un m que
no es ortogonal a x m0 ; sin prdida de generalidad podemos suponer que kmk D 1
y que hx m0 jmi D 0. Definamos el vector m1 2 M como m1 D m0 C m.
Tendremos que
kx m1 k22 D kx m0 mk22
D kx m0 k22 hx m0 jmi hmjx m0 i C jj2
D kx m0 k22 jj2 < kx m0 k22 :
De esta manera, si x m0 no es ortogonal a M , m0 no es el mnimo que decamos.
Veamos ahora cmo, si x m0 es ortogonal al subespacio M , m0 es el nico vector
de M que minimiza kx mk2 . En efecto, para todo m 2 M , el teorema de Pitgoras
dice que
kx mk22 D kx m0 C m0 mk22 D kx m0 k22 C km0 mk22 :
Por lo tanto kx mk2 > kx m0 k2 para m m0 .
Demostraremos ahora la existencia de un m0 que minimiza kx mk2 . Si x 2 M ,
entonces m0 D x y todo estara probado como es obvio. Si x M , definamos un
D Knfm2M kx mk2 ; lo que queremos es obtener un m0 2 M tal que kx m0 k2 D .
A tal fin, sea fm.i/ g una sucesin de vectores en M tal que kx m.i / k2 ! . Por la
ley del paralelogramo, para u, w 2 M , ju C wj2 C ju wj2 D 2juj2 C 2jwj2 , se tiene
que
.j / 2 2
.m x/ C .x m.i / / 2 C .m.j / x/ .x m.i / / 2 D
2 2
2 m.j / x 2 C 2 x m.i / 2 :
Reordenando, se obtiene
2
2 2 2 .j /
.j /
.i /
m C m
m m.i/ D2 m.j / x C2 x m.i / 4 x :
2 2 2 2
2

Para todo i; j , el vector .m C m /=2 est en M pues ste es un espacio vectorial


.i / .j /

(lineal). De la definicin de se deduce que kx .m.i / C m.j / /=2k2  , por lo que


2 2 2
.j /
m m.i /  2 m.j / x C 2 x m.i / 4 2 :
2 2 2

Como km .i/
! cuando i ! 1, km
xk22 2
! 0 cuando i; j ! 1. Es
.j /
m.i / k22
decir, fm.i/ g es una sucesin de Cauchy; como M es un subespacio cerrado, la sucesin
fm.i / g tiene un lmite m0 en M y, debido a la continuidad de la norma, kx m0 k2 !
.
El teorema de la proyeccin pone en evidencia que la solucin del problema
minimizar kt x yk
t

es el vector proyeccin ortogonal de y sobre x: tx en la figura 2.6.


es el vector proyeccin ortogonal de y sobre x: txrf
en.x / D 0:
la figura.
geometrically, tx is the projection of a vector Para
y ontodo
thed; r f .x  /d
T 2
lined through  0:x
0 and
2-Espacios vectoriales j 25
Proposicin 8.5 (Condiciones suficientes de segundo orden) Sea f 2 C 2 una
una regin en la cual x  es un punto
x interior. Supngase adems que:
tx .x  / D 0:
rf
La matriz Hessiana r 2 f .x  / es definida positiva:
y
x  es entonces un mnimo relativo estricto de f .

0
9 Figura
Conjuntos convexos
2.6: Solucin de minimizar t kt x yk
8 Conjuntos convexos

Un conjunto Un
C conjunto  Rn sesi dice
C convexo
Rn se dice convexo
y slo si para si y slo
todo par desi puntos
para todo
x ; xpar2de
C puntos
todas lax
2.1.4 Espacios
Vectors decombinaciones
combinacionesLebesgue y x
de la forma x de
D espacios
la 1forma Ddex
C .1 x /x Sobolev
1 C0.1
2 , con
/x
 , conen
1,2estn 0
1 2
1-20estn
C .Esdecir,
1, en C
cuando .
para
cada par
cada par de puntos del de puntosconvexo,
conjunto del conjunto convexo,
todos los todos
puntos de los puntos
la recta de laestn
que los une recta
enque los une
el conjunto
Los espacios de Lebesgue y Sobolev son dos casos importantes de espacios vectoriales
de Hilbert.
Una funcin f W R ! R tiene como derivada la funcin

df .x/ f .x C h/ f .x/
f 0 .x/ D D lKm ;
dx h!0 h
supuesto ese lmite existe. Una funcin
Conjunto f que es derivable en
convexo un punto
Conjunto x D a es continua
no convexo
en a. La derivada es una medida de la rapidez, o tasa (gradiente),
La expresin x D x1 C .1 /x2 , 0    1, define la combinacin con la que cambia
convexa de xel
1 y x2 . S
valor de dicha
0 < funcin segn
< 1, es decir  cambie
2 .0; 1/, el
la valor de
combinacin su sevariable
denomina independiente.
estrictamente
La expresin x D x1 C .1 /x2 , 0    1, define la combinacin coconvexa.
Por otro El
lado, si f
concepto
0< C<! seconvexa
1, esC,decir
deW combinacin definesela1/,
 2 .0; integral
puede definida
generalizar
la combinacin sede estanmero
a cualquier
denomina funcin
finitoendeelpuntos
estrictamente convede
la siguiente
intervalo a; b, manera:
l b X p
25
xD i xi ;
I.f / D f .x/ dx;
i D1

donde a
X
p
como el lmite de las sumas de Riemann i Dpor
1; iGeorg
 0; iFriedrich Bernhard Riemann,
D 1; : : : ; p:
Alemania 1826-1866 i D1

El conjunto interseccin de todos los conjuntos convexos que contienen a un subconjunto S  Rn


se llama envoltura convexa de S y se designa por conv.S/.

23

P
Rn D niD1 .xi C1 xi /f .ti /; x1 D a; xnC1 D b; xi  ti  xiC1 ; cuando la particin
en subintervalos se hace muy fina.
La integracin, proceso inverso a la derivacin, se basa en la idea de sumar todas las
partes constituyentes de un todo.
Definicin 2.32 Un espacio de Lebesgue, por Henr Lon Lebesgue, Francia 1875-
1941, es el espacio vectorial de las funciones al cuadrado integrables en   Rn , es
26 j 2-Espacios vectoriales

decir,  Z 

L2 ./ D f W  ! R jf j2 < 1 :


El nmero 2 se refiere a la potencia del integrando.

Esta definicin requiere la introduccin de la integral de Lebesgue que extiende el


concepto de integral de Riemann a clases o familias de funciones ms amplias por
ejemplo, sucesiones de funciones, definidas en espacios ms abstractos que R o Rn ,
con ms discontinuidades, etc. y donde, en general, se pueda saber cmo y cundo
es posible tomar lmites bajo el signo de la integral. La forma tradicional de explicitar
grficamente cmo se obtiene la integral de Riemann frente a la de Lebesgue se ve en la
figura 2.7. En pocas palabras, la diferencia entre ambas integrales es que para la integral
de Riemann interesan los valores que toma la funcin que est siendo integrada, mientras
que en la integral de Lebesgue importa ms el tamao de subconjuntos en el dominio del
integrando.

Figura 2.7: Integracin de Riemann (izquierda-azul) e integracin de Lebesgue (derecha-


rojo)

Tambin habra que definir el concepto de mtrica, tamao o medida de Lebesgue


una forma sistemtica de asignar un nmero (no negativo) a cada subconjunto de un
conjunto y el espacio deR Lebesgue.
Simplificadamente, si  f .x/ dx es la integral de Lebesgue de f .x/ y se define la
R
norma kf kLp ./ D .  f p dx/1=p , para 1  p < 1, los espacios de Lebesgue son

Lp ./ D f .x/ W kf kLp ./ < 1 :

El requerir que las funciones sean integrables no supone ninguna limitacin importante
en la prctica ingenieril o cientfica pues como hemos aprendido durante mucho tiempo
toda funcin continua a trozos, es decir con a lo sumo una cantidad finita o nume-
rable de discontinuidades, es integrable. El 99,99 % de las funciones que se utilizan en
ingeniera, economa y ciencias sociales en general son integrables.
2-Espacios vectoriales j 27

R
El espacio vectorial L2 ./ dotado del producto interior hf; gi D  f .x/g.x/dx es
un espacio de Hilbert.
En el espacio C 0; 1 de funciones continuas del intervalo 0; 1 en C, son normas las
dadas por
"Z #1=p
1
p
kf kp D jf .t /j dt :
0

Tambin en una norma la dada por


kf k1 D mKax jf .t /j :
t 20;1

Insistimos en la idea de que la norma k  k2 es la norma eucldea en Rn , sustituyendo


el sumatorio por una integral (recordemos que esta es la forma de pasar de lo discreto a
lo continuo). Esto hace que los espacios de Lebesgue L2 sean buenos y se caractericen
porque son los nicos espacios vectoriales infinito dimensionales en los que siguen sien-
do vlidos muchos de los aspectos de nuestra intuicin espacial y geomtrica habitual.
Desde el punto de vista fsico, cuando f .t / represente algn tipo de seal, la nor-
ma kf k2 representar su energa, por lo que la condicin f 2 L2 se interpretar como
que la energa de f sea finita. En concreto, si f .t / representa la tensin voltage de
una onda electromagntica como funcin del tiempo, f 2 .t / es, salvo producto por una
Rb
constante, su potencia, por lo que a f 2 .t / dt ser la energa de la onda en el inter-
valo temporal a; b. Pedir que f pertenezca a L2 a; b equivale a pedir que f no sea
demasiado discontinua (sea integrable en algn sentido) y que su energa sea finita en
a; b.
Los espacios de funciones Lp .0; 1/, p > 1, con la norma
Z 1 1=p
p
kxk D jx.t /j dt ; donde x.t / 2 L2 .0; 1/;
0

en los que si y.t / 2 L .0; 1/ se cumple que


p

Z 1 1=p
p
jx.t /j dt <1
0

son tambin espacios normados. Casos particulares son L1 .a; b/ de funciones cuyo
valor absoluto es integrable en a; b y L2 .a; b/ de funciones al cuadrado integrables
en a; b.
En particular, el conjunto de todas las funciones tales que
Z
f 2 .x/ dx < 1

con la distancia entre dos de ellas f1 .x/ y f2 .x/ definida por


sZ
.f1 .x/ f2 .x//2 dx
28 j 2-Espacios vectoriales

es el espacio mtrico L2 .R/.


El producto escalar (producto interior) en un espacio de Lebesgue L2 ./ es
Z
u  v D hujvi D uv dx:


Definicin 2.33 Un espacio de Sobolev por Sergi Lvvich Sobolv, Rusia 1908-
1989 es un espacio vectorial de funciones dotado de una norma que es combinacin
de normas Lp de la funcin y de sus derivadas hasta un orden dado. Formalmente para
dos dimensiones es
 
@u @u
W 1;2 ./ D u 2 L2 ./ ; 2 L2 ./ :
@x1 @x2

El nmero 1 se refiere al orden de las derivadas parciales y el 2 que las mismas deben
pertenecer a L2 ./.

Las funciones que pertenecen a W 1;2 ./ no tienen que ser derivables en todos los
puntos; es suficiente que sean continuas con derivadas parciales continuas por tramos en
el dominio de definicin y que satisfagan las condiciones apuntadas. Esto se explicita
en que las derivadas de este espacio se entienden en un sentido dbil que hagan que el
espacio sea completo si toda sucesin de Cauchy en l tiene lmite y por lo tanto
sea un espacio de Banach. En sentido dbil no es sino una generalizacin del concepto
de derivada a funciones no necesariamente derivables pero si integrables localmente en
el sentido de Lebesgue en un dominio dado  de Lp ./.
La norma correspondiente de este espacio completo es
Z Z 1=2 Z Z Z !1=2
@u 2 @u 2
kukW 1;2 ./D 2
jruj C juj2
D C C juj 2
;
   @x1  @x2 

denominada en ingeniera norma de energa. Las funciones que usan esta forma fini-
ta son funciones de energa finita. Intuitivamente, un espacio de Sobolev es un espacio
de funciones con derivadas de orden suficiente para un dominio de aplicacin determi-
nado y equipado con una norma que mida adecuadamente tamao y regularidad en las
funciones.
El producto escalar (producto interior) en un espacio de Sobolev W 1;2 ./ es
Z Z
u  v D hujvi D uv dx C ru  rv dx:
 
3-Matrices j 29

3 | Matrices
Definicin 3.1 Una matriz es una formacin rectangular de numeros reales o comple-
jos ordenados en m filas y n columnas
2 3
a11 a12    a1n
6 a21 a22    a2n 7
6 : : : :: 7 :
4 :: ::
: : : 5
am1 am2    amn

El conjunto de todas las matrices de nmeros reales o complejos se designa, respec-


tivamente, Rmn y Cmn . Si m D n la matriz es cuadrada y de orden n. Un vector
columna es tambin una matriz Rm1 , que se escribe Rm .
Las matrices de m filas y n columnas con coeficientes en el cuerpo R o C forman un
espacio vectorial, Rmn o Cmn , sobre dichos cuerpos.
Todo lo que sigue en esta seccin es material bastante estndar en libros de texto
y monografas al respecto. En el apartado de referencias hay un buen nmero de ellas
sobre matrices y lgebra matricial.
El primero en usar el trmino matriz en matemticas fue James Joseph Sylvester,
Reino Unido 1814-1897.

Arthur Cayley, Reino Unido 1821-1895,

contribuy de forma decisiva a que A D .aij / se concibiese como una cantidad alge-
braica nica.
Si en lgebra lineal E y F son dos espacios vectoriales de dimensiones finitas n y
m sobre el mismo cuerpo K. Una aplicacin lineal g W E ! F , g 2 L.E; F /, est
30 j 3-Matrices

caracterizada o representada en dos bases fe1 ; e2 ; : : : ; en g de E y ff1 ; f2 ; : : : ; fm g de


F por una tabla de coeficientes, matriz asociada, de m filas y n columnas:
2 3
a11    a1n
A D 4 ::: : : : ::: 5 2 K mn :
am1    amn

Los coeficientes aij estn definidos por

X
m
g.ej / D aij fi ; 1  j  n:
i D1

El vector columna j -simo 2 3


a1j
6 a2j 7
4 :: 5
:
amj
representa el vector g.ej / en la base .fi /. A partir de la matriz A se pueden calcular
los coeficientes y1 ; y2 ; : : : ; ym del vector y D g.x/ en la base .fi /, conociendo los
coeficiente x1 ; x2 ; : : : ; xn en la base .ej /. En efecto:
2 3 2 3 2 3 2 3
y1 a11 a12 a1n
6 y2 7 6 a21 7 6 a22 7 6 a2n 7
4 :: 5 D x1 4 :: 5 C x2 4 :: 5 C    C xn 4 :: 5 :
: : : :
ym am1 am2 amn

Expresin que tambin se puede escribir de la siguiente forma:

X
n
yD xi a i ;
i D1

donde ai es el vector columna i-simo de la matriz A. As pues, si se fijan dos bases


en E y F , cada aplicacin lineal, g W E ! F , queda unvocamente representada por
una matriz. Recprocamente, toda matriz en K mn define unvocamente una aplicacin
lineal entre dos espacios E y F de dimensiones n y m en los que se han fijado dos bases.
En particular, se pueden identificar las matrices m  n con las aplicaciones lineales de
K n en K m .
Las matrices de m filas y n columnas con coeficientes en el cuerpo K forman un
espacio vectorial, K mn , sobre dicho cuerpo K.
Si E y F son dos espacios de dimensin finita dotados de un producto escalar y
la aplicacin 2 L.E; F / se representa en dos bases ortonormalizadas mediante una
matriz A, la aplicacin T 2 L.F; E/, traspuesta de , viene representada por la matriz
A T , traspuesta de A.
3-Matrices j 31

Definicin 3.2 El ncleo y la imagen de una matriz A 2 K mn , ker.A/ y Im.A/,


respectivamente, se definen como los subespacios de K n y K m que son el ncleo y la
imagen de la aplicacin lineal asociada:
%
ker.A/ D fx 2 K n W Ax D 0g
:
Im.A/ D fy 2 K m W y D Ax; x 2 K n g A2K mn

Dicho de otra forma, la imagen de una matriz es el subespacio generado por los vec-
tores columna de la matriz; los vectores fila tambin generan un subespacio que no es
otro que la imagen de A T .
Para una matriz A 2 Rmn se cumple que:

ker A T D .Im.A//?

Im A T D .ker.A//?
?
ker.A/ D Im A T
?
Im.A/ D ker A T :
 ,QQHU3URGXFW /HQJWK DQG2UWKRJRQDOLW\ 
De acuerdo con esto, si A 2 Rmn , se cumple que

ker .A/
7KHQH[WWKHRUHPDQG([HUFLVH Im A T D Rn :
YHULI\WKHFODLPVPDGHLQ6HFWLRQ FRQFHUQLQJ
WKHVXEVSDFHVVKRZQLQ)LJ  $OVRVHH([HUFLVH LQ6HFWLRQ 
En la figura 3.1 se muestran estos subespacios.

0 K e T 0
r A r A
K e
T I m
A
I m A

'*(63&  7KHIXQGDPHQWDOVXEVSDFHVGHWHUPLQHG mn


FiguraE\DQ
3.1: Subespacios
m ! n PDWUL[fundamentales
A determinados por A

Definicin 3.3 El rango de una matriz es la dimensin (mximo nmero de vectores


3&.  linealmente
/HW A EHDQindependientes)
m ! n PDWUL[de7KHRUWKRJRQDOFRPSOHPHQWRIWKHURZVSDFHRI
su subespacio imagen: A LV
WKHQXOOVSDFHRI A DQGWKHRUWKRJRQDOFRPSOHPHQWRIWKHFROXPQVSDFHRI A LV
WKHQXOOVSDFHRI AT  rango.A/ D dim.Im.A//:
mn A/? D 1XO A DQG .&RO A/? D 1XO AT
Una matriz A 2 K .5RZ se dice de rango completo si rango.A/ D mKn.m; n/. Una
matriz cuadrada A 2 K nn se denomina singular si rango.A/ < n; regular si
rango.A/ D n. Tambin se cumple que rango.A/ D rango.A T /.
1300' 7KHURZFROXPQUXOHIRUFRPSXWLQJ A[ VKRZVWKDWLI [ LVLQ 1XO A WKHQ [ LV
RUWKRJRQDOWRHDFKURZRI A ZLWKWKHURZVWUHDWHGDVYHFWRUVLQ Rn / 6LQFHWKHURZV
RI A VSDQWKHURZVSDFH [ LVRUWKRJRQDOWR 5RZ A &RQYHUVHO\ LI [ LVRUWKRJRQDOWR
32 j 3-Matrices

La aplicacin asociada a una matriz A 2 Rmn es suprayectiva cuando rango.A/ D


m. Para una matriz A 2 K mn se cumple que

dim.ker.A// C rango.A/ D n ;

o, alternativamente, dim.ker.A// D n rango.A/. La aplicacin lineal asociada a A


es, por tanto, inyectiva, si y slo si rango.A/ D n. Por otro lado dim.ker.A T // C
rango.A T / D m.
Definicin 3.4 El producto exterior uvT de un vector columna n  1 por un vector
fila 1  n es una matriz A nn de rango
2 1, 3
u1 v1 u1 v2    u1 vn
6u2 v1 u2 v2    u2 vn 7
A D uvT D 6 4 ::: :: 7 .
: 5
un v1 un v2    un vn

3.1 Normas de matrices


Aun cuando en gran parte de lo que sigue nos limitaremos a matrices cuadradas, la
mayor parte de las definiciones y resultados son extensibles a matrices rectangulares;
tambin supondremos que las matrices son reales.
Las matrices cuadradas de orden n forman un espacio vectorial con un producto, esto
es, un lgebra.
Definicin 3.5 Una norma matricial sobre Rmn es una aplicacin k  k W Rmn ! R
que cumple:

1) kAk D 0 H) A D 0:
2) kAk D jj  kAk:
3) kA C Bk  kAk C kBk:
4) kABk  kAk  kBk:

Existen normas sobre el espacio Rmn que no son normas matriciales pues no cum-
plen la propiedad 4). As, si se define

kAk D mKax jaij j ;


1i;j n
1 1
se satisfacen 1), 2) y 3); sin embargo, tomando A D b D 11 es fcil ver que kABk D
2 > kAk  kBk D 1, por lo que no se cumple 4).
3-Matrices j 33

Definicin 3.6 La norma de Frobenius es la dada por


X
kAk2F D 2
aij D traza.A T A/;
1i;j n

P
donde la traza de una matriz A de orden n es niD1 ai i . La norma de Frobenius cumple
que
kABkF  kAkF  kBkF :

Toma su nombre de Ferdinand Georg Frobenius, Alemania 1849-1917.

Es fcil ver que esta norma deriva del producto escalar


X
m X
n
T
hAjBi D traza.A B/ D aij bij ;
i D1 j D1

para A mn y B mn , que configura al espacio de las matrices m  n como un espacio
prehilbertiano. El producto escalar en el espacio Sn de las matrices simtricas n  n est
dado por
X
n X
n X
n X
hX jY i D traza.X Y / D xij yij D ai i bi i C 2 aij bij :
i D1 j D1 i D1 i <j

Definicin 3.7 Una norma matricial kk sobre Rmn se dice consistente o compatible
con una norma vectorial k  k0 sobre Rn cuando para cada matriz A y cada vector x se
cumple que
kAxk0  kAk  kxk0 :

Por ejemplo, la norma de Frobenius y la norma eucldea de Rn son consistentes pues


kAxk2  kAkF  kxk2 :
Se demuestra que para toda norma matricial es posible construir una norma vectorial
consistente. Recprocamente, a toda norma vectorial sobre Rn se le puede asociar una
norma matricial consistente. Una norma matricial consistente con una cierta norma vec-
torial k  k se construye mediante la definicin
kAxk
kAk D sup :
0x2Rn kxk
34 j 3-Matrices

Esta norma matricial se dice inducida por la norma vectorial.


Definicin 3.8 La norma matricial inducida por la norma eucldea de Rn es la norma
espectral:
" #1=2 q
x T A T Ax
kAk2 D sup D max .A T A/ D max .A/;
0 x2Rn
xT x

donde  designa un valor propio de A y  un valor singular.


Si k  k es la norma inducida por una cierta norma vectorial y k  k0 es una norma
matricial cualquiera consistente con esa norma vectorial, se cumple, para toda matriz A,
que kAk  kAk0 . En particular, para la norma espectral y la norma de Frobenius, se
cumple que p
kAk2  kAkF  nkAk2 :
Tambin que kABkF  kAkF  kBk2 y kABkF  kAk2  kBkF . Como casos parti-
culares, kIk2 D 1 y para una matriz diagonal, kDk2 D mKaxi jdi j.
Las normas matriciales inducidas ms usadas son
X
m
kAk1 D mKax jaij j y
1j n
iD1
Xn
kAk1 D mKax jaij j :
1i m
j D1

Ejemplo 3.1 El efecto que produce aplicar la transformacin lineal basada en la matriz
 
12
AD
02

sobre la bola unidad, explicado a partir de las normas k  k1 , k  k2 y k  k1 en R2 , se


representa en la figura 3.2.
La aplicacin transforma el vector e1 D 1; 0T en s mismo y e2 D 0; 1T en 2; 2T .
Con la norma 1, el vector unitario que ms se amplifica al aplicarle la transformacin es
0; 1T (o 0; 1T ), que pasa a ser 2; 2T . Su factor de amplificacin, en trminos de la
norma 1, es 4.
Con la norma 2, el vector unitario que ms se amplifica es el que se representa en la
figura con una recta discontinua. El factor de amplificacin es 2,9208.
Para la norma 1, igualmente, el vector unitario que ms se amplifica es el que se repre-
senta tambin con la recta discontinua: 1; 1T , que pasa a transformarse en 3; 2T . El
factor de amplificacin correspondiente es en este caso 3 ya que

1; 1T D 1
1

3; 2T D 3:
1
3-Matrices j 35

[2, 2]T

[0, 1]T
A1 = 4
[1, 0]T
norma
norma11
[1, 0]T

A2 2,9208
norma
norma22

A = 3
norma
norma1

La aplicacin transforma el vector e 1 D 1; 0T en s mismo y


Figura 3.2: EfectoTde una aplicacin lineal sobre la bola unidad para diferentes normas
e 2 D 0; 1 en 2; 2 . T
39/63

Adems de las normas vectoriales y matriciales ya presentadas, otra norma vectorial


muy utilizada es
a b c 1 2 3

d e f g 9 4 6 5

p p

h i j 10 8 7

kxkA D A 1=2 x D hAxjxi D x T Ax;


2

denominada norma A o norma de energa pues suele corresponder con la energa fsica
de ciertos sistemas del vector x, para una matriz A simtrica y definida positiva. Al
resultado de hxjyiA D hAxjyi se le denomina producto interior de A o producto
escalar de energa. La matriz A 1=2 es la nica matriz definida positiva solucin de la
ecuacin matricial X 2 D X  X D A.

3.2 Matrices interesantes

Definicin 3.9 Una Q 2 Rmn es una matriz ortogonal si verifica que QT Q D I;


es decir, cuando sus vectores columna son ortogonales dos a dos y de norma eucldea
unitaria (ortonormales). Si Q 2 Rnn es ortogonal, se cumple que QQT D QT Q D
I.
Una matriz ortogonal no modifica ni los ngulos ni las normas de los vectores a los
que se aplica la transformacin que representan: .Qx/T .Qy/ D x T QT Qy D x T y.
Si y D x, jjQxjj2 D jjxjj2 .
36 j 3-Matrices

Las matrices ortogonales Q 2 Rmn verifican:


9 9
kQk2 D1 >
> kQk2 D1 >
>
= =
kQkF D n1=2 kQkF D m1=2
si m  n y si m  n:
kQAk2 D kAk2 >
> kAQk2 D kAk2 >
>
; kAQkF D kAkF ;
kQAkF D kAkF

La extensin de las matrices ortogonales al campo complejo son las matrices unita-
rias.
Definicin 3.10 Una matriz U 2 Cnn , cuya inversa es su compleja conjugada,
U H U D U U H D I, es una matriz unitaria
Todos los valores propios de las matrices unitarias tienen mdulo unidad. Como las
ortogonales, una matriz unitaria no modifica ni los ngulos ni las normas, .U x/H .U y/ D
x H U H U y D x H y. Si y D x, jjU xjj2 D jjxjj2 .
Definicin 3.11 Una matriz de permutacin es una matriz cuadrada cuyas columnas
estn formadas por las de la matriz unidad permutadas. Una matriz de permutacin es
una matriz ortogonal.

Definicin 3.12 Una matriz se dice simtrica si se verifica que A D A T . Para una
matriz cualquiera A 2 Rmn , la matriz A T A es simtrica. Si A 2 Cnn es igual a su
traspuesta conjugada, A D B D A H , bij D aNj i , se dice hermtica. El conjunto de las
matrices simtricas n  n se designa mediante Sn .

Definicin 3.13 Una matriz A 2 Rnn se dice definida positiva si es simtrica y


x T Ax > 0 para todo vector x 0. Se designa como A  0. De forma similar se
definen matrices semidefinida positiva, A  0, definida negativa, A  0 y semide-
finida negativa, A  0, si x T Ax  0, < 0 y  0, respectivamente, para todo vector
x 0. La matriz A se dice indefinida si x T Ax es positivo para algn x y negativo
para otros.
Tambin A 2 Cnn se dice definida positiva si es hermtica y para todo x 2 Cn ; x 0,
se cumple que x  Ax > 0.
El conjunto de matrices n  n definidas positivas se designa por SnCC y el de semide-
finidas positivas, o nonegativas definidas, por SnC .
Si A 2 Rnn es simtrica y definida positiva se puede descomponer de la formaA D
QDQT donde Q es una matriz ortogonal y D, diagonal, tiene todos sus coeficientes
1 1 1 1
positivos por lo que A 2 D QD 2 QT satisfacindose que A 2 A 2 D A.
3-Matrices j 37

Definicin 3.14 Se dice que una matriz A 2 Cnn de coeficientes aij es de diagonal
dominante por filas cuando cumple que

X
n
jai i j  jaij j; i D 1; : : : ; n:
j D1;j i

Anlogamente, se dice diagonal dominante por columnas si

X
n
jai i j  jaj i j; i D 1; : : : ; n:
j D1;j i

Si las desigualdades se verifican estrictamente la matriz A se denomina diagonal es-


trictamente dominante.

Lema 3.1 Para que una matriz simtrica sea definida positiva es necesario que todos
los coeficientes de la diagonal principal sean positivos.

Lema 3.2 Para que una matriz simtrica A sea definida positiva es necesario que el
coeficiente de mayor valor absoluto est en la diagonal principal. Ms concretamente,
mKaxi j jaij j < mKaxk akk :

Lema 3.3 Si en cada fila de una matriz simtrica A el coeficiente de la diagonal prin-
cipal es mayor que la suma de los valores absolutos de todos los dems coeficientes de
la fila, es decir, si
X n
akk > jakj j k D 1; : : : ; n;
j D1
j k

A es definida positiva.
Es importante destacar que este hltimoicriterio define una condicin suficiente, no
322
necesaria. En efecto, la matriz Q D 2 3 2 es definida positiva pues
223

x T Qx D x12 C x22 C x32 C 2.x1 C x2 C x3 /2 ;

cualquiera que sea x 0, es siempre positiva. Esa matriz, sin embargo, no satisface el
lema 3.2.
38 j 3-Matrices

Definicin 3.15 Una matriz de Vandermonde es una matriz que presenta una progre-
sin geomtrica en cada fila; como esta:
2 3
1 1 12 : : : 1n 1
6 1 2 22 : : : 2n 1 7
6 7
6 2 n 17
V D 6 1 3 3 : : : 3 7 :
6: : : : : 7
4 :: :: :: : : :: 5
1 n n2 : : : nn 1

Su nombre se debe a Alexandre-Thophile Vandermonde, Francia 1735-1796.


Definicin 3.16 Una matriz de Hankel es una matriz cuadrada con todas sus diago-
nales de derecha a izquierda paralelas numricamente. Es decir, tiene la forma
2 3
a b c d e
6b c d e f 7
6 7
H D 6c d e f g 7 :
4d e f g h 5
e f g h i
El primero que formul esta matriz fue Hermann Hankel, Alemania 1839-1873.

Definicin 3.17 Una matriz de Hessenberg es una por


Una matriz de Hessenberg matriz triangular
Karl Adolf Hessenberg, excepto por una
Alemania 1904-1959 es una matriz triangul
subdiagonal adyacente a la diagonalcepto
principal.
por una subdiagonal adyacente a la diagonal prin

Cualquier matriz se puede reducir a la forma de Hessenberg mediante


@
@ formaciones ortogonales de Householder o Givens. Si la matriz original
@ mtrica, al reducirla a la forma de Hessenberg se obtendr una tridiagona
@
@ Se denomina proyector o matriz de proyeccin a una matriz P 2 Rn
@ verifica que P 2 D P. Si P adems es simtrica, se denomina proyector o
0 @
@
nal o matriz de proyeccin ortogonal. Si, en este ltimo caso, F es el subes
@ imagen de la matriz P (el mismo que el de la matriz P T ), Px define la pr
cin ortogonal del vector x sobre F .
Se denomina proyector suplementario de P al proyector S D I P. Si F D Im.P/ y G D ke
Fue formulada por primera vez por Karl Adolf Hessenberg, Alemania 1904-1959.
entonces F D ker.S/ y G D Im.S /.
En el caso de un proyector ortogonal P en el que F D Im.P/, se tiene que Rn D F F ? , verific
que kPxk2  kxk2 y que
kx Pxk2 D mKn kx yk2 :
y2Im.P /DF

4.3 Valores propios, valores singulares y formas cuadrticas


4.3.1 Valores propios
Si A es una matriz cuadrada de orden n y coeficientes en K (R o C), un vector no nulo u 2 Kn se deno
vector propio de A si para algn  2 K se cumple que
Au D u :
Cualquier matriz se puede reducir a la
A este  seforma devalor
le denomina Hessenberg mediante
propio o autovalor transformacio-
de la matriz A. El conjunto de los valores propios de un
triz A se denomina espectro de A, designndose por .A/. El radio espectral, .A/, se define de la sig
nes ortogonales de Householder o Givens.
manera: Si la matriz original es simtrica, al reducirla
a la forma de Hessenberg se obtendr una tridiagonal. .A/ D mKax ji j:
1i n
Para que un nmero  sea valor propio de A, el sistema lineal y homogneo de ecuaciones dado por .
A/x D 0 debe tener soluciones distintas de la trivial x D 0. Esto equivale a que
det.A I/ D 0 :
3-Matrices j 39

Definicin 3.18 Se denomina proyector o matriz de proyeccin a una matriz P 2


Rnn que verifica que P 2 D P. Si P adems es simtrica, se denomina proyector or-
togonal o matriz de proyeccin ortogonal. Si, en este ltimo caso, F es el subespacio
imagen de la matriz P (el mismo que el de la matriz P T ), Px define la proyeccin
ortogonal del vector x sobre F .

Definicin 3.19 Se denomina proyector suplementario de P al proyector S D I P.


Si F D Im.P/ y G D ker.P/, entonces F D ker.S / y G D Im.S /.
En el caso de un proyector ortogonal P en el que F D Im.P/, se tiene que Rn D
F F ? , verificndose que kPxk2  kxk2 y que

kx Pxk2 D mKn kx yk2 :


y2Im.P /DF

3.3 Valores propios, valores singulares y formas cuadrti-


cas
3.3.1 Valores propios

Definicin 3.20 Si A es una matriz cuadrada de orden n y coeficientes en K (R o C),


un vector no nulo u 2 K n se denomina vector propio de A si para algn  2 K se
cumple que
Au D u :
A este  se le denomina valor propio o autovalor de la matriz A. El conjunto de los
valores propios de una matriz A se denomina espectro de A, designndose por .A/.
El radio espectral, .A/, se define de la siguiente manera:
.A/ D mKax1i n ji j:
Para que un nmero  sea valor propio de A, el sistema lineal y homogneo de
ecuaciones dado por .I A/x D 0 debe tener soluciones distintas de la trivial x D 0.
Esto equivale a que
det.A I/ D 0 :
Esta es una ecuacin polinmica de grado n en  que se denomina ecuacin caracters-
tica, o polinomio caracterstico, de la matriz A. La ecuacin caracterstica admite la raz
 D 0 si y slo si det.A/ D 0. Una matriz es invertible, por tanto, si y slo si no admite
al cero como vector propio.
Para que exista una solucin distinta de la trivial x D 0, el valor propio  deber ser
raz del polinomio caracterstico de grado n asociado a A, esto es det.A I/ D 0. Lo
que es igual a n C g1 n 1 C g2 n 2 C    C gn D 0:
El Teorema fundamental del lgebra establece que cada ecuacin polinmica de gra-
do n, con coeficientes complejos, tiene n races en el cuerpo de los complejos.
40 j 3-Matrices

La multiplicidad algebraica del valor propio  de A es la multiplicidad de la raz co-


rrespondiente del polinomio caracterstico asociado a A. La multiplicidad geomtrica de
 es el nmero de vectores propios linealmente independientes que se corresponden con
. La multiplicidad geomtrica de un valor propio es menor o igual que su multiplicidad
algebraica.
Por ejemplo, si A D I,  D 1 es un valor propio con multiplicidad algebraica y
geomtrica n. El polinomio caracterstico de A es p.z/ D .z 1/n y ei 2 Cn , i D
1; : : : ; n, sus vectores propios. Si el valor propio  tiene una multiplicidad geomtrica
menor que la algebraica, se dice defectuoso. Se dice hque una i matriz es defectuosa si
210
tiene al menos un valor propio defectuoso. La matriz 0 2 1 tiene un valor propio, 2,
002
de multiplicidad algebraica 3 y multiplicidad geomtrica 1; u D 100T . Si una matriz
A 2 Cnn no es defectuosa, dispone de un conjunto de n vectores propios linealmente
independientes.
Un resultado interesante debido a dos matemticos del siglo XIX, Arthur Cayley,
Reino Unido 1821-2895, y William Rowan Hamilton, Irlanda 1805-1865,

dice que cualquier matriz A 2 Cnn satisface su propia ecuacin caracterstica. Es


decir,
A n C g1 A n 1 C g2 A n 2 C    C gn I D 0:
Si A es invertible, como consecuencia de ello,

1 1 n 1 g1 n 2 gn 1
A D A A  I:
gn gn gn

A partir del teorema de Cayley-Hamilton tambin es fcil comprobar que existe un po-
linomio
 p de grado mximo n 1 tal que A 1 D p.A/. Como ejemplo, la matriz
1 2 tiene como polinomio caracterstico x 2
34 5x 2. El teorema de Cayley-Hamilton
dice que A 2 5A 2I D 0, lo cual se puede comprobar inmediatamente. La inver-
sa de A se puede obtener de esta ecuacin a partir de A .A 5I/ D 2I. En efecto,
A 1 D 12 .A 5I/.

Definicin 3.21 Para A 2 Cnn y 0 b 2 Cn1 , al subespacio

Kj .A; b/ D Genfb; Ab; : : : ; A j 1


bg

se le denomina subespacio de Krylov.


3-Matrices j 41

Estos subespacios deben su nombre y formulacin al trabajo de Aleksi Nikolyevich


Krylov, Rusia 1863-1945.

Igual que cualquier matriz tiene asociado un polinomio caracterstico, cualquier po-
linomio tiene asociado una matriz compaera.
Un polinomio a0 C a1 x C a2 x 2 C : : : C an x n se dice que es mnico si an D 1.
La matriz compaera de un polinomio mnico p.t / D c0 C c1 t C    C cn 1 t n 1 C t n
es 2 3
0 0 ::: 0 c0
61 0 : : : 0 c1 7
C .p/ D 6 40:: 1:: :: :: : 0:: c2:7
: : : : ::5
0 0 : : : 1 cn 1
Los valores propios de esta matriz C .p/ son las races del polinomio p.t /. El polinomio
mnimo q.t / de una matriz A es el polinomio mnico nico de grado mnimo tal que
q.A/ D 0.
Una matriz real de orden n no tiene necesariamente valores propios reales pero, como
consecuencia del teorema fundamental del lgebra, cualquier matriz compleja tiene al
menos un valor propio complejo. Su nmero mximo de valores propios es n.
Proposicin 3.4 Al aplicrsele a cualquier vector la transformacin que representa A
ese vector tiende a orientarse en la direccin del vector propio dominante de A. Si
aquel vector est en la direccin de alguno de los vectores propios de A, se expande o
contrae por un factor que determina el correspondiente valor propio.
 
La matriz A D 21 12 tiene como valores propios 3 y 1. Los vectores propios asocia-
dos son 1 1T y 1 1T . El efecto de aplicarla sobre distintos vectores se puede ver en
la figura 3.3: en magenta y azul (en grises con mayor o menor intensidad) los vectores
propios; otros en rojo que si se orientan.
Siendo  un valor propio de una matriz A, el conjunto de soluciones del sistema de
ecuaciones
.I A/x D 0
es un subespacio de K n que se denomina subespacio propio asociado al valor propio ,
designndose con E . Si n es la multiplicidad de  como raz de la ecuacin caracte-
rstica de A, se cumple que
dim.E /  n :
La interseccin de subespacios propios correspondientes a valores propios distintos se
reduce al subespacio nulo; esto es   H) E \ E D ;.
42 j 3-Matrices 5
Geometric interpretation of Eigenvectors

Figura 3.3: Efecto


 de aplicrsele a diversos vectores la transformacin
(a) (b) que representa la
matriz A D 21 12  
2 1
Figure: Under the transformation matrix A = , the directions of
   1 2 L
De este modo, la suma de1 subespacios propios es directa.
1 Se cumple que 2.A/ E
vectors
D K siparallel
y slo sitopara
v1 =cada1 (blue) and v2 =
dim.E (purple) are preserved.
1n ; en ese caso existe una base de
n
2 .A/, / D
K n formada toda ella por vectores propios de A.
5 El teorema central en el estudio de los mtodos y algoritmos numricos para el clcu-
diagram from wikipedia.org/wiki/Eigenvalues_and_eigenvectors
lo y anlisis de valores
K. Bergen (ICME)y vectores propios es el de la descomposicin
Applied Linear Algebra de Schur por Issai
112 / 140
Schur, Alemania 1875-1941.

Teorema 3.5 Descomposicin o triangularizacin de Schur. Para cualquier A 2 Cnn


existe una matriz unitaria U y una matriz triangular superior, T , tal que

AU D U T o U H AU D T :

Los valores propios de A son los coeficientes de la diagonal principal de R.

Teorema 3.6 Para cualquier matriz hermtica A 2 Cnn existe una matriz unitaria U
tal que
U H AU D D;
donde D es una matriz diagonal.
1. Los valores propios de A son nmeros reales.
2. Se pueden obtener vectores propios de A que sean ortonormales.
En este caso se dice que la matriz A es semejante a una matriz diagonal: la matriz A
3-Matrices j 43

es diagonalizable por semejanza. Dos matrices semejantes tienen el mismo polinomio


caracterstico y los mismos valores propios. Una matriz A 2 Cnn es normal, es decir
AA H D A H A, si y slo si A D U U H , donde U es una matriz unitaria y una
diagonal cuyos coeficientes son los valores propios de A. Los vectores propios son los
vectores columna de U .
Teorema 3.7 Toda matriz real y simtrica tiene todos sus valores propios reales y
es diagonalizable por semejanza. Se demuestra adems que los subespacios propios
correspondientes a valores propios distintos son ortogonales. De aqu se sigue que es
siempre posible formar una base ortonormalizada de vectores propios para una matriz
real y simtrica A. Existe entonces una matriz ortogonal Q tal que verifica QT AQ D
D, con QT D Q 1 y, de aqu que, toda matriz real y simtrica es congruente ortogonal
con su reducida diagonal. Este resultado fundamental de la teora de matrices es la
versin para matrices simtricas del denominado Teorema espectral. Da lugar a la
Descomposicin espectral de A.

Teorema 3.8 Descomposicin de Jordan. Para una matriz A 2 Cnn existe una matriz
regular X 2 Cnn tal que X 1 AX D diag.J 1 ; : : : ; J k / donde
2 3
i 1
6 i 1 0 7
Ji D 6
4   7 2 Cni ni
5
0  1
i

y n1 C    nk D n. Las J i son las matrices o bloques de Jordan y los i los valores


propios de A.
Debe su nombre a Marie Ennemond Camille Jordan, Francia 1838-1922.

Una matriz simtrica definida positiva tiene todos sus valores propios reales y po-
sitivos; si es semidefinida, alguno es cero. Si la matriz es negativa definida, todos sus
valores propios son negativos.
Si A es hermtica, el producto x H Ax es un nmero real. Los valores propios de
una matriz hermtica, en consecuencia, son nmeros reales. En una matriz hermtica los
vectores propios correspondientes a dos valores propios distintos son ortogonales entre
s.
Un resultado importante para averiguar el orden de magnitud de los valores propios
de una matriz es el que sigue.
44 j 3-Matrices

Teorema 3.9 De Gersgorin. Los valores propios de una matriz A 2 Cnn se encuen-
tran en la unin de los n discos de Gershgorin, cada uno de los cuales est centrado en
akk , k D 1; : : : ; n, y tiene de radio
X
n
rk D jakj j:
j D1
j k

Fue formulado por Semyon Aranovich Gersgorin, Rusia, 1901-1933.

Demostracin. Sea  un valor propio de A y x su vector propio asociado. De Ax D x


y .I A/x D 0 se tiene que

X
n
. akk /xk D akj xj ; k D 1; : : : ; n;
j D1
j k

donde xk es el componente k-simo del vector x.


Si xi es el coeficiente de x ms grande en valor absoluto, como jxj j=jxi j  1 para
j i , se tiene que
X
n
jxj j X
n
j ai i j  jaij j  jaij j:
jxi j
j D1 j D1
j i j i

Luego  est contenido en el disco f W j ai i j  ri g.

Teorema 3.10 Sea A una matriz simtrica n  n. Las siguientes propiedades de A son
equivalentes.
A  0: A  0:
.A/  0. .A/ > 0.
A D D T D para alguna D rectan- A D D T D para alguna D rectangular de
gular. rango n.
A D T para alguna nn trian- A D T para alguna nn triangular su-
gular superior. perior no degenerada.
A D B 2 para alguna B simtrica. A D B 2 para alguna B simtrica no dege-
nerada.
A D B para alguna B  0.
2
A D B 2 para alguna B  0.
3-Matrices j 45

3.3.2 Valores singulares


La nocin de valor propio, o autovalor, no tiene significado para matrices rectangula-
res. En stas, por el contrario, si lo tiene, como en las cuadradas, el concepto de valor
singular.
Definicin 3.22 Si A es una matriz cualquiera m  n con coeficientes en R, se definen
sus valores singulares i ; i D 1; : : : ; mKnfm; ng, como las races cuadradas positivas
de los valores propios de la matriz cuadrada A TA 2 Rnn .

Definicin 3.23 Los valores singulares de A son las longitudes de los semiejes del
hiperelipsoide E definido, a partir de la esfera unidad y el operador A, por
E D fy W y D Ax; kxk2 D 1g :
En la figura 3.4 se describe grficamente el caso en que m D n D 2.

2 1

x Ax
Ax
Figura 3.4: Representacin en dos dimensiones de una transformacin lineal de la esfera
unidad

Teorema 3.11 Descomposicin en valores singulares. Si A 2 Rmn es una matriz de


rango r existen matrices ortogonales U 2 Rmm y V 2 Rnn tales que

A D U V T ;
h i
donde D r 0 , 2 Rmn y r D diag.1 ; 2 ; : : : ; r /, con 1  2     
0 0
r > 0. Si las matrices U y V se escriben como U D u1 ; : : : ; um y V D v1 ; : : : ; vn ,
los ui y vi son los vectores singulares izquierdos y derechos, respectivamente, corres-
pondientes a los valores singulares i , i D 1; : : : ; r.

Demostracin. Sean x 2 Rn e y 2 Rm dos vectores tales que

kxk2 D kyk2 D 1 y Ax D y; con  D kAk2 :


46 j 3-Matrices

La existencia de estos vectores x e y est garantizada por la definicin de kAk2 .


Sean las dos matrices ortogonales

V D x V 1 2 Rnn y U D y U 1 2 Rmm

(siempre es posible ampliar un conjunto de vectores ortogonales hasta formar una base
ortonormal de Rn ). Como U T1 Ax D U T1 y D 0, la matriz U T AV tiene la siguiente
estructura:  T   
y  wT
A1 D U T AV D A x V 1 D ;
U T1 0 B
donde
h B Di U T1 AV 1 2 R.m 1/.n 1/
y wT D y T AV 1 . Dado que kA1 w

k2 D
 2 CwT w
Bw
  2 C wT w, como
2
q
 
2
kA1 w k2  kA1 k2 k w k2 D kA1 k2  2 C wT w ;

se cumple que kA1 k2  . 2 C wT w/1=2 . Como las matrices U y V son ortogonales,


kA1 k2 D kAk2 D  y por consiguiente w D 0. La argumentacin de la demostracin
se completa por induccin.
La matriz A mn D U V T , de rango r, se puede escribir como la suma de r matrices
de rango uno as
Xr
AD i ui viT ;
iD1

donde los ui y vi son los vectores columna i -simos de U y V .


La mejor aproximacin de A de rango p  r, en el sentido de mnimos cuadrados,
se obtiene de la suma de los primeros p trminos de esta ltima suma. Por ejemplo
de Sauer [2013], el mejor subespacio de dimensin uno de los puntos 3; 2, 2; 4,
2; 1 y 3; 5 en el sentido de mnimos cuadrados se obtiene de
 
32 2 3
AD D U V T
24 1 5 " #
 0;5886 0;8084  8;2809 0 0 0  0;6741
0;4085 0;5327 0;2398 0;7014
0;3985 0;5554 0;2798
D 0;8084 0;5886 0 1;8512 0 0 0;5743 0;1892 0;7924 0;0801 :
0;2212 0;7223 0;0780 0;6507

Como p D 1, la mejor aproximacin de A es u1 D 0;5886; 0;8084. Del sumatorio


anterior, haciendo 2 D 0,
" #
 0;5886 0;8084  8;2809 0 0 0  0;4085 0;5327 0;2398 0;7014
0;6741 0;3985 0;5554 0;2798
A1 D 0;8084 0;5886 0 000 0;5743 0;1892 0;7924 0;0801
0;2212 0;7223 0;0780 0;6507
 1;9912 2;5964 1;1689 3;4188

D 2;7364 3;5657 1;6052 4;6951 :

El proceso se esquematiza en la figura 3.5.


3-Matrices j 47
PTER 12 Eigenvalues and Singular Values

Figura 3.5: Proyeccin


(a) de cuatro vectores en el subespacio de dimensin
(b) uno que mejor
los representa: recta de trazos
Figure 12.4 Dimension reduction by SVD. (a) Four data vectors to be projected to
best one-dimensional subspace. (b) The dotted line represents the best subspace. The
Dadaarrowheads
la descomposicin en valores
show the orthogonal singulares
projections down de
to the de rango r, los vectores singula-
A, subspace.
res ap la izquierda fu
= 1 means setting ; : : : ; u g conforman una base ortonormal
1 s = 0r and reconstituting the matrix. In other dewords,
Im.A/A1y= losU restantes,
S1 V T ,
2
furC1 ;
where: : : ; um g, otra base ortonormal de ker.A T
/. Igualmente, fvrC1 ; : : : ; vn g es una
base ortonormal de ker.A/ y fv1 ; : :: ;8.2809 vr g una 0base0 0

ortonormal de Im.A T
/.
S1 = .
Definicin 3.24 El nmero de condicin 0 de0una0 matriz
0 es la relacin entre sus valo-
resThus,
singulares mayorofy menor. Una matriz se dice mal condicionada si ese nmero es
the columns

grande o muy grande. Unamatriz singular tiene un nmero de condicin infinito.
1.9912 2.5964 1.1689 3.4188
A1 = (12.34)
2.7346 3.5657 1.6052 4.6951
Definicin 3.25 Si A es una matriz n  n, j det.A/j D 1  2    n . Para una matriz
are the four projected vectors corresponding to the original four data vectors. They are
A 2 Rmn cuya descomposicin en valores singulares es A D U V T , se define su
shown in Figure 12.4(b). 
matriz pseudoinversa, A , como

12.4.3 Compression A D V U T ;

donde
Property 4 can also be used to compress the information in a matrix. Note that each term in
D
the rank-one expansion diag.1 41 ;is: :specied
of Property : ; r 1 ; 0;
by:using
: : ; 0/two Rnm :ui , vi and one more
2 vectors
number si . If A is an n n matrix, we can attempt lossy compression  of A by throwing
1
Si away
A 2the termses
Rmn de rango
at the completo
end of the y m > 4,n,theAones
sum in Property
DwithA Tsmaller
A sA T
; si term
i . Each m <in n,
the expansion 
requires
1 2n + 1 numbers to store or transmit.

A D A AA T T
.
For example, if n = 8, the matrix is specied by 64 numbers, but we could transmit
or store the rst term in the expansion
Para cualquier matriz A 2 Rmn , by la using
matrizonly A+
A 2n es1la=matriz
17 numbers. If most of the
n  n de proyeccin
information is captured by the rst termfor example, if the rst singular value is much
ortogonal sobre el subespacio de los vectores fila de A, AA la m  m de proyeccin
larger than the restthere may be a 75 percent savings in space by working this way.
ortogonal sobre la imagen de la matriz A (subespacio de sus vectores
As an example, return to the 8 8 pixel block shown in Figure 11.6. After columna) y .I
subtracting
128 la
A A/ to de proyeccin
center ortogonal
the pixel values sobre
around 0, theelmatrix
ncleois de A,inker.A/.
given equation (11.16). The singular
values of this 8 8 matrix are as follows:
387.78
216.74
83.77
62.69
34.75
21.47
48 j 3-Matrices

3.4 Formas cuadrticas


Definicin 3.26 Una forma cuadrtica, o forma bilineal simtrica, en n variables
es un polinomio homogneo de segundo grado en esas variables. La expresin ms
general de una forma cuadrtica es

q.x/ D x T Qx ;

donde Q D QT es una matriz simtrica de orden n.


Nos limitaremos al anlisis de formas cuadrticas con coeficientes reales.
Mediante una transformacin lineal de variables, x D T y, una forma cuadrtica se
puede reducir a la forma cannica de suma de cuadrados siguiente:

X
p X
pCq
q.x/ D yi2 yi2 :
iD1 i DpC1

El rango de la forma es p C q y la signatura p q (p nmeros positivos y q negativos).


Una forma cuadrtica real es definida positiva si para todo vector x 0, q.x/ > 0.
El rango y signatura de una forma cuadrtica definida positiva valen n. Si Q la forman
los coeficientes qij y se introducen los nmeros menores como
2 3
q11 q12  q1i
6q21 q22  q2i 7
i D det 6
4 ::: :: 7 ;
: 5
:: ::
: :
qi1 qi 2  qi i

la forma cuadrtica asociada a Q es definida positiva si y slo si todos los menores i


son positivos. Otros grficos de formas cuadrticas son estos los de la figura 3.6. En (a)
la matriz Q es definida positiva, en (b) definida negativa, en (c) semidefinida positiva
(singular) y en (d) indefinida.
Sean 1 ; : : : ; n los valores propios que sabemos son reales de la matriz Q. Por
el teorema espectral, existe una matriz ortogonal P tal que P T QP D diag.1 ; : : : ; n /.
Haciendo en la forma cuadrtica q.x/ D x T Qx el cambio de variables x D Py, se
tiene que
q.x/ D y T P T QPy D 1 y12 C    C n yn2 ;

por lo que el rango de la forma cuadrtica es el nmero total teniendo en cuenta las
multiplicidades de valores propios no nulos de Q, mientras que la signatura coincide
con la diferencia entre los nmeros de valores propios positivos y negativos. En particu-
lar, la forma cuadrtica asociada a Q es definida positiva si y slo si todos los valores
propios de Q son positivos.
En ciertos casos es importante acotar el cociente de una forma cuadrtica al cuadrado
 Se pueden dar otros casos: 3-Matrices j 49
The Quadratic Form 5

(a) (b)

x2
x1
Q.x/
(c) (d)

Figura 3.6: Formas de funciones cuadrticas


 En (a) la matriz A es definida positiva, en (b) definida negativa, en (c)
Figure 5: (a) Quadratic form for a positive-definite matrix. (b) For a negative-definite matrix. (c) For a
singular (and positive-indefinite) matrix. A line that runs through the bottom of the valley is the set of
semidefinida
desolutions.
la norma (d)positiva
eucldea, (singular)
es decir,
For an indefinite y en (d)
el cociente
matrix. Because indefinida.
the solution is a saddle point, Steepest Descent and CG
will not work. In three dimensions or higher, a singular matrix can also have a saddle.
T
fH DcanxbeTQx
; M 1 r.x/ ; x 0:  ; . <1 . (If  is not
48/108

solution is a minimum of . , so x solved 6


 
x by finding an that 1minimizes
symmetric, then Equation 6 hints that CG will find a solution to the system 2 .
G
 g
1 Yh . Note that
1 6 G
 1 )
a2.
Mediante
b) unac transformacin ortogonal x D Py, este cociente se escribe como
is symmetric.) 1 2 3

; atWhy 1 y1W
2 
this
C  8  1 C
d e fdo symmetric
g positive-definite
9 4 6 matrices
5 have nice property? Consider the relationship between
2
n yEquation
j arbitrary point i 10

n
h i some and at8 ther.x/
7 D
solution point . From ; 3 one can show (Appendix C1)
that if is symmetric (be it positive-definite or not), y12 C    C yn2

de manera que se deducen las; acotaciones


.ji ; . ) 1 .ji 1= M1 *Y<1   .ji *kM1 (8)
2
 4
the latter term is positive for all iYl . It follows that
 is a global minimum of ; . mi n .Q/  x T2,Qx
If is positive-definite as well, then by Inequality
 max .Q/ :
xT x
; M
 1
fact that . is a paraboloid is our best intuition of what it means forTa matrix to be positive-definite.
 Thenot  v Qv
Estas
If isacotaciones no se pueden
positive-definite, there are mejorar ya possibilities.
several other que si Qv Dcould  v D  . the result
v, bevnegative-definite
T
of negating a positive-definite matrix (see Figure 2, but hold it upside-down). might be singular, in which
; 

case no solution is unique; the set of solutions is a line or hyperplane having a uniform value for . If
is none of the above, then is a saddle point, and techniques like Steepest Descent and CG will likely fail.
Figure 5 demonstrates the possibilities. The values of and @ determine where the minimum point of the
paraboloid lies, but do not affect the paraboloids shape.

Why go to the trouble of converting the linear system into a tougher-looking problem? The methods
under study Steepest Descent and CG were developed and are intuitively understood in terms of
minimization problems like Figure 2, not in terms of intersecting hyperplanes such as Figure 1.
50 j 3-Matrices
4-Funciones, sucesiones y series de funciones j 51

4 | Funciones, sucesiones y series de funcio-


nes
5.1 Preliminaries 131

R
A function f is called strictly convex if
ECORDEMOS que una funcin es un caso particular de aplicacin entre espacios
vectoriales o conjuntos f (x donde )xconjuntos
+ (1 los ) < f (x) +origen
(1 )f (x )
e imagen son conjuntos
(5.5) de
nmeros.whenever x = x .
El grfico de una funcin f W Rn ! R se define como el conjunto f.x; f .x// W
x dom.fIn /g,fact,
donde thedom.f
above /denition
es una can be
forma extended
abreviada deto show that
referirse al elifconjunto
f is a convex
de puntos
function and i 0 with i = 1 then
dominio de definicin de la funcini f . Es un subconjunto de R nC1
. El epigrafo de la
funcin es el conjunto epi.f / D f.x; t / W x 2 dom.f /; f .x/  tg. Tambin es un

subconjunto de RnC1 . Es el conjunto f xi situados


deipuntos i f (xen
i ). o por encima de la(5.6)funcin.
i i
Igualmente el hipografo es el conjunto de punto situados en o por debajo de la funcin.
The4.1
En la figura above inequality
se muestra is called
el grafo the funciones
de dos Jensens inequality (problem
y, sombreados, sus ).epigrafos.

0
0







0 0 0 0
0 0

Figura 4.1:
Fig. Grfico
5.2. de una
A convex funcin
function (convexa)
(left) satisesy(5.4);
su epigrafo. Otraregion
the shaded funcin sinusoidal
denotes (no
its epi-
graph.
convexa) y suAepigrafo
nonconvex function (right) does not satisfy (5.4).

If f : X R is dierentiable, then f is convex if, and only if,


Definicin 4.1 Una funcin
f (x ) f W R+n !
f (x) sef
R x
x (x)continua
dice enxx
for all x si para toda sucesin
X. (5.7)
fxk g que converge a x (expresado xk ! x), se cumple que f .xk / ! f .x/. De forma
In other
equivalente, f sewords, the rst order
dice continua en x Taylor
si dadoapproximation
un " > 0, existelower
un bounds theque
> 0 tal convex
function universally
ky xk (see
< Figure
H)5.4). kf Here
.y/ and in the
f .x/k < "rest
: of the chapter
x y denotes the Euclidean dot product between vectors x and y, that is,
Definicin 4.2 Una funcin f W R ! R se
:= dicexsatisface la condicin de Lipschitz

x y i yi . (5.8)
con constante en un conjunto X si para todo xi e y pertenecientes a X se cumple que
If f is twice dierentiable, then f is convex if, and only if, its Hessian is
positive semi-denite,jf .x/is, f .y/j  jx yj:
that
2 f (x) 0. (5.9)
For twice dierentiable strictly convex functions, the Hessian matrix is pos-
itive denite, that is, 2 f (x) 0. We briey summarize some operations
which preserve convexity:
52 j 4-Funciones, sucesiones y series de funciones

Una funcin que satisface la condicin de Lipschitz en un conjunto X se dice continua


-Lipschitz en ese X, designndose f 2 Lip .X /. Si nos referimos a una funcin
diciendo que es Lipschitz, o continua-Lipschitz, se est diciendo que es algo ms que
continua, que no cambia radicalmente.
Esta condicin debe su nombre a Rudolf Otto Sigismund Lipschitz, Alemania 1832-
1903.

Definicin 4.3 Dada una norma vectorial k  k en Rn y otra matricial k  k en Rmn ,


m; n > 0, una funcin g W Rn ! Rmn se dice satisface la condicin de Lipschitz con
constante en un abierto D  Rn , si para todo x e y pertenecientes a D se cumple
que
kg.x/ g.y/k  kx yk:
Una funcin g que satisface la condicin de Lipschitz en D se dice continua -
Lipschitz en ese D, designndose g 2 Lip .D/. Una vez ms, si nos referimos a
una funcin diciendo que es Lipschitz, o continua-Lipschitz, se est diciendo que es
algo ms que continua, que no cambia radicalmente a lo largo de todas las direcciones
posibles.
Un conjunto de funciones f1 ; f2 ; : : : ; fm de Rn en R se puede considerar como una
funcin vectorial
f D f1 ; f2 ; : : : ; fm T :
Esta funcin asigna a todo vector x 2 Rn otro vector f .x/ D f1 .x/; f2 .x/; : : : ;
fm .x/T de Rm . Tal funcin vectorial se dice continua si lo es cada uno de sus compo-
nentes f1 ; f2 ; : : : ; fm .
Si cada una de las funciones de f D f1 ; f2 ; : : : ; fm T es continua en algn conjunto
abierto de Rn , se dice f 2 C . Si adems cada funcin componente tiene derivadas
parciales de primer orden continuas en ese abierto, se dice que f 2 C 1 . En general,
si las funciones componentes tienen derivadas parciales de orden p continuas, se indica
f 2 C p.
Teorema 4.1 Teorema de Weierstrass. Dada una funcin continua definida en un con-
junto compacto C 2 Rn , existe un punto donde alcanza un mnimo en C . Es decir,
existe un x  2 C tal que para todo x 2 C , f .x/  f .x  /. Tambin otro donde
alcanza un mximo.
Volvemos a dos conceptos esenciales del clculo: la derivada y la integral definida.
4-Funciones, sucesiones y series de funciones j 53

4.1 Derivada y diferenciabilidad

Definicin 4.4 Una funcin f W R ! R tiene como derivada la funcin

df .x/ f .x C h/ f .x/
f 0 .x/ D D lKm ;
dx h!0 h
si ese lmite existe. Una funcin f que es derivable en un punto x D a es continua en
a.
La derivada es una medida de la rapidez, o tasa (gradiente), con la que cambia el
valor de dicha funcin segn cambie el valor de su variable independiente. Representa,
desde el punto de vista geomtrico, la pendiente de la recta tangente a la funcin en el
punto x D a.
En el caso de funciones escalares de varias variables, f W Rn ! R, o funciones
vectoriales, f W Rn ! Rm , definidas en un entorno de x, se introduce el concepto de
diferenciabilidad.
Una funcin de varias variables en general, f , es diferenciable en un entorno de un
punto x si existen todas las derivadas parciales de la funcin, la aplicacin Df .x/ y
adems se verifica que

kf .x C h/ f .x/ Df .x/hk
lKm D D 0:
h!0 khk

Si f W Rn ! R la aplicacin Df .x/ es el vector gradiente de la funcin,

 T
@f .x/ @f .x/ @f .x/
rf .x/ D ; ;:::; :
@x1 @x2 @xn

Si f W Rn ! Rm la aplicacin Df .x/ es la matriz Jacobiana de la funcin, por


Carl Gustav Jacob Jacobi, Alemania (Prusia), 1804-1851,
2 3
@f1 .x/ @f1 .x/ @f1 .x/
6 @x1 
6 @x2 @xn 7 7
6 @f2 .x/ @f2 .x/ @f2 .x/ 7
6 7
6  7
rf .x/ D J .x/ D 6 @x1 @x2 @xn 7
6 : : : 7
6 :: :: : :: :: 7
6 7
4 @fm .x/ @fm .x/ @fm .x/ 5

@x1 @x2 @xn

Este concepto de diferenciabilidad, que es el que se usa habitualmente, es debido a


54 j 4-Funciones, sucesiones y series de funciones

Maurice Frchet, Francia 1878-1973,

y da lugar a la derivada de Frchet. Existe otro que conocemos como derivada direc-
cional, o derivada de Gteaux por Ren Eugne Gteaux, Francia 1889-1914

(muerto en la primera gueera mundial muy joven), que dice que la funcin f es diferen-
ciable Gteaux a lo largo de cualquier vector h de Rn si existe la funcin
f .x C th/ f .x/
g.h/ D lKm :
t!0 t
Si una funcin es Frchet diferenciable en x es tambin Gteaux diferenciable en ese
punto. Lo contrario no siempre es as. Esto es anlogo al hecho de que la existencia de
derivadas en todas las direcciones en un punto no garantiza la total diferenciabilidad (e
incluso la continuidad) en ese punto.
Ejemplo 4.1 La funcin f W R2 ! R definida por
(
x3
2 Cy 2 si .x; y/ .0; 0/
f .x; y/ D x
0 si .x; y/ D .0; 0/

cuya grfica es la de la figura 4.2, es continua y diferenciable Gteaux en el punto .0; 0/,
con derivada ( 3
a
si .a; b/ .0; 0/
g.a; b/ D a2 Cb 2
0 si .a; b/ D .0; 0:/
La funcin g no es un operador lineal y no es diferenciable en el sentido de Frchet.

Ejemplo 4.2 La funcin f W R2 ! R dada por


( 3
x y
si .x; y/ .0; 0/
f .x; y/ D x 6 Cy 2
0 si .x; y/ D .0; 0/
4-Funciones, sucesiones y series de funciones j 55

Figura 4.2: Funcin del ejemplo 4.1

cuya grfica es la de la figura 4.3, es diferenciable Gteaux en el punto .0; 0/, con deri-
vada g.a; b/ D 0 en todas las direcciones. Sin embargo f no es continua en .0; 0/, lo
que se puede ver acercndose al origen de coordenadas a lo largo de la curva y D x 3 ,
por lo que f no puede ser diferenciable Frchet en el origen.

Figura 4.3: Funcin del ejemplo 4.2

Si se tiene la funcin escalar de varias variables f W Rn ! R, con derivadas parciales


hasta segundo orden y f 2 C 2 , se define la matriz Hessiana de f en x por Ludwig
Otto Hesse, Alemania 1811-1874
56 j 4-Funciones, sucesiones y series de funciones

como la matriz n  n
2 3
@2 f .x/ @2 f .x/ @2 f .x/

6 @ 2 x1 @x1 @x2 @x1 @xn 7
6 7
6 @2 f .x/ @2 f .x/ @2 f .x/ 7
6 7
6  7
r 2 f .x/ D 6 @x2 @x1 @ 2 x2 @x2 @xn 7 :
6 7
6 :: :: :: :: 7
6 : : : : 7
4 @2 f .x/ 2
@ f .x/ @ f .x/ 5
2

@xn @x1 @xn @x2 @2 xn
A esta matriz tambin se la puede ver designada como F .x/.
Definicin 4.5 Una funcin f W Rn ! Rm es afn si es la suma de una funcin lineal
y una constante; es decir, tiene la forma f .x/ D Ax Cb, donde A 2 Rmn y b 2 Rm .

4.1.1 Subgradiente y subdiferencial

Definicin 4.6 Se dice que g 2 Rn es un subgradiente de f W Rn ! R en un entorno


de un punto x que pertenece al dominio de definicin de esta funcin si para todo z del
dominio de definicin deSubgradient
la funcin se cumple quefunction
of a
f .z/  f .x/ C g T .z x/;
subgradient
gSiislaa funcin of fdiferenciable
es convexa (not necessarily convex)enatx x
su gradiente es ifel subgradiente.
En la figura 4.4, de Boyd y Vandenberghe [2004], se ilustra grficamente esta de-
finicin. En ella, si g es un subgradiente
f (y) f (x) + g Tde en elfor
(y f x) punto
all yx la funcin afn (de z),
f .x/ C g .z x/ es un subestimador global de f .
T

f (x )

f (x 1) + g 1T (x x 1)
f (x 2) + g 2T (x x 2)
f (x 2) + g 3T (x x 2)

x1 x2

gFigura 4.4:subgradients
2 , g3 are f .x/ es diferenciable
at x2;eng1x1is. Su derivada, g1 , esatel x
a subgradient nico
1 subgradiente. En x2
la funcin no es diferenciable pero tiene mltiples subgradientes, adems de g2 y g3
Prof. S. Boyd, EE364b, Stanford University 2
Geomtricamente, g es un subgradiente de f en x si el vector g; 1T soporta lo
que se denomina el epigrafo de la funcin f (conjunto de puntos situados en o por
encima de la funcin), epi.f /, en el punto .x; f .x//. Ver figura 4.5
derivative of f at x1 ) is the unique subgradient at x1 . At the point x2 , f is not
differentiable. At this point, f has many subgradients: two subgradients, g2 and g3 ,
T
f (x1 ) + gare x1 )
1 (zshown.
4-Funciones, sucesiones y series de funciones j 57

f (x2 ) + g2T (z x2 )

f (x2 ) + g3T (z x2 )
epi( f )

x1 x2
(g, 1)
Figure 1: At x1 , the convex n function f is differentiable, and g1 (which is the
Figure 2: A vector g R is a subgradient of f at x if and only if (g, 1) defines
Figura 4.5:
derivative ofUn
f vector
a supporting Rntoes
x1 )gis2 the
athyperplane unf subgradiente
unique
epi f (x)). de fat
subgradient
at (x, enxx1 .si At
y slo
thesi point
el vector
x2g; 1Tnot
, f is
define un hiperplano
differentiable. At thissoporte,
point,ofdehas apoyo,
many delsubgradients:
epi.f / en x; ftwo T
.x/subgradients, g2 and g3 ,
are shown.
f (z) = |z| f (x)
Definicin 4.7 Una funcin se denomina subdiferenciable en un punto x si existe al
menos un subgradiente de la funcin en ese punto. El1conjunto de todos los subgra-
dientes de f en el punto x se denomina subdiferencial de f en x y se designa por
f .x/. x
z epi f
La idea del subdiferencial generaliza la diferenciabilidad. 1 La funcin f es diferen-
ciable en un punto x si y slo si f .x/ D frf .x/g. La importancia de los subgradientes,
sobre todo en optimizacin,
Figure 3: The absoluteradica
valueen que el(left),
function mnimo
and de
its una funcin ffen
subdifferential (x) un
as punto
a x se
function of x (right).
da cuando 0 2 f .x/.
(g, 1)
Ejemplo 4.3 La funcin valor absoluto, f .x/ D jxj. Para x < 0 el subgradiente es
nico: f .x/ D 1. Para x > 0, igualmente,2 elofsubgradiente es nico: f .x/ D 1. En
Figure 2: A vector g Rn is a subgradient f at x if and only if (g, 1) defines
0 el subdiferencial
x aDsupporting est definido por la
hyperplane to epi f at (x, f (x)).
desigualdad jzj  gz, para todo z, lo que se
satisface siempre y cuando g 2 1; 1. Es decir f .0/ D 1; 1. Ver figura 4.6.

f (x) = |x| f (x )

x
x
1

Figura 4.6:
Figure La funcin
3: The valorvalue
absolute absoluto y su subdiferencial
function (left), and its en funcin def
subdifferential
f .x/ Ejem-
x.(x) as a
plo 4.1.1of x (right).
function

2
58 j 4-Funciones, sucesiones y series de funciones

4.2 Integral
Definicin 4.8 Si f W C ! C, se define la integral definida de esta funcin en el
intervalo a; b,
l b
I.f / D f .x/ dx;
a
P
como el lmite de las sumas de Riemann Rn D niD1 .xi C1 xi /f .ti /; x1 D a; xnC1 D
b; xi  ti  xiC1 ; cuando la particin en subintervalos se hace muy fina.
La integracin, proceso inverso a la derivacin, se basa en la idea de sumar todas las
partes constituyentes de un todo.
Teorema 4.2 Teorema fundamental del clculo. Supongamos f W R ! R una funcin
continua en el intervalo
Rx a; b.
1. Si g.x/ D a f .t / dt entonces g 0 .x/ D f .x/.
Rb
2. a f .x/ dx D F .b/ F .a/, donde F es la funcin primitiva de f , es decir,
F0 D f .

4.3 Sucesiones de funciones, series funcionales y de poten-


cias. Convergencia
Si suponemos un intervalo I  R, que podemos empezar pensando en 0; 1, una suce-
sin de funciones en este intervalo no es ms que una coleccin de funciones ffn gn2N (o
en algunos casos .fn /n2N ), donde, para cada n 2 N, fn es una funcin fn W 0;1 ! R.
En una sucesin de funciones ffn g hay dos variables en juego: la n, que va tomando
valores naturales, y la x que, fijado un n0 2 N, le asigna a cada valor x 2 0; 1 el nmero
fn0 .x/.

4.3.1 Convergencia puntual


Consideremos el intervalo I  R y, para cada n 2 N, la funcin fn W I ! R. La
sucesin de funciones ffn g converge puntualmente a la funcin f W I ! R si para cada
x0 2 I se tiene
lKm fn .x0 / D f .x0 /:
n!1

Ese lmite es un nmero, como el de una sucesin numrica. Todas las funciones de
la sucesin deben estar definidas en el mismo intervalo, as como la funcin lmite. El
lmite de una sucesin de funciones continuas no tiene por qu ser una funcin continua.
Lo mismo ocurre con la derivabilidad y la integrabilidad, que no se mantienen.
4-Funciones, sucesiones y series de funciones j 59

4.3.2 Convergencia uniforme


Alguna de las circunstancias mencionadas en la convergencia puntual hace que sea con-
veniente en ocasiones trabajar con otro tipo de convergencia la convergencia uniforme
que s mantiene las buenas propiedades de las funciones. Lgicamente esta convergencia
es ms restrictiva: si una sucesin de funciones converge uniformemente tambin lo hace
puntualmente; lo contrario no siempre ocurre.
La idea detrs de la convergencia uniforme es trabajar en torno a la norma infinito o
norma del supremo. Si fan g  R es una sucesin de nmeros reales, decir lKmn!1 an D
a es lo mismo que lKmn!1 an a D 0 o

lKm jan aj D 0:
n!1

Es decir el lmite de una sucesin es a si y slo si la distancia de la sucesin a a tiende a


0.
Podemos pasar esta definicin a funciones sustituyendo escalares por funciones y el
valor absoluto por la norma. Si escogemos para sta la norma infinito se tiene lo que
sigue
Definicin 4.9 Sea I  R un intervalo y la funcin fn W I ! R, para cada n 2 N.
Decimos que la sucesin de funciones ffn g converge uniformemente a la funcin f W
I ! R si
lKm kfn f k1 D 0
n!1

o, de forma equivalente, si

lKm supfjfn .x/ f .x/jg D 0:


n!1 x2I

Es fcil comprobar que la convergencia uniforme implica la convergencia puntual.


Proposicin 4.3 Sea I  R un intervalo y la funcin fn W I ! R, para cada n 2 N.
Si la sucesin de funciones ffn g converge uniformemente a la funcin f W I ! R,
entonces ffn g tambin converge puntualmente a la misma funcin f .

Demostracin. Sea x0 2 I . Puesto que sabemos por hiptesis que lKmn!1 supx2I f
jfn .x/ f .x/jg D 0; y adems

jfn .x0 / f .x/j  supfjfn .x/ f .x/jg D 0;


x2I

se sigue que lKmn!1 jfn .x0 / f .x0 /j D 0, lo que implica que lKmn!1 fn .x0 / D
f .x0 /.
La implicacin recproca no es cierta. Una sucesin puede converger puntualmente y
no hacerlo uniformemente.
60 j 4-Funciones, sucesiones y series de funciones

Teorema 4.4 Sea ffn g una sucesin de funciones fn W a; b ! R para cada n 2 N.


Supongamos que ffn g converge uniformemente a la funcin fn W a; b ! R. Entonces
se tiene que:
1. Si fn es continua en a; b para cada n 2 N entonces f es continua.
2. Si fn es integrable en a; b para cada n 2 N entonces f es integrable.

Teorema 4.5 Sea ffn g una sucesin de funciones fn W a; b ! R para cada n 2 N.


Supongamos que para cada n 2 N, fn es derivable en a; b y sea fn0 su derivada.
Supongamos adems que la sucesin ffn0 g converge uniformemente a una funcin g W
a; b ! R y que existe x0 2 a; b tal que el lKmn fn .x0 / existe. Entonces existe f W
a; b ! R derivable en a; b tal que f 0 D g y tal que ffn g converge uniformemente
af.
Sentado el patrn para estudiar la convergencia uniforme se pueden estudiar otras
forma de convergencia como la convergencia en norma 2.
Definicin 4.10 Sea I  R un intervalo y para cada n 2 N la funcin fn W I ! R.
Decimos que la sucesin de funciones ffn g converge en media cuadrtica, o en norma
2, a la funcin f W I ! R si lKmn!1 kfn f k2 D 0 o, de forma equivalente, si
Z  12
2
lKm .fn .t / f .t // dt D 0:
n!1 I

Aunque pueda parecer lo contrario, las relaciones de esta convergencia con las otras
que hemos formulado anteriormente no son sencillas.
Proposicin 4.6 Si I es un intervalo acotado, para toda f W I ! R la norma 2 de f
en I es menor o igual que una constante por la norma del supremo de f en I .

Proposicin 4.7 Para cada n 2 N, sea fn W I ! R. Si la sucesin ffn g converge


uniformemente a f W I ! R, tambin converge en media cuadrtica.
La recproca no es cierta.
Proposicin 4.8 Supongamos que la sucesin de funciones ffn g converge en norma 2
a la funcin f . Entonces existe una subsucesin ffnk g que converge a f en casi todo
punto.

Corolario 4.9 Si la sucesin ffn g converge puntualmente a la funcin f y sabemos


kk2
que la sucesin ffn g converge en norma 2, entonces necesariamente fn !f
4-Funciones, sucesiones y series de funciones j 61

4.3.3 Series funcionales

Definicin 4.11 Sea I  R un intervalo y sea ffn g una sucesin de Pfunciones fn W


m
I ! R. Se definenP las funciones S m W I ! R como S m .x/ D nD1 fn .x/. Se
dice que la serie 1nD1 fn converge puntualmente a f W I ! R si, para cada x 2 I,
lKmm Sm .x/ D f .x/ escribindose

X
1
fn .x/ D f .x/:
nD1

Si adems
P la sucesin fSm g converge uniformemente a f , entonces decimos que la
serie 1 nD1 fn converge uniformemente a f W I ! R.
P
Si n fn converge uniformemente a f en un intervalo a; b y las funciones fn son
continuas (integrables) en ese intervalo, por lo enunciado antes f es continua (integra-
ble) en a; b. Igual se razona para la derivabilidad.
Teorema 4.10 Criterio de Weierstrass. Sea ffn g una sucesin de funciones fn W I !
R y sea fMn g  R una sucesin numrica que verifica las dos condiciones siguientes:
1. Para cada n 2 N y para cada x 2 I ,

jfn .x/j  Mn :
P
2. La serie Mn converge.
P
n
Entonces existe una funcin f W I ! R tal que, para todo x 2 I la serie n fn .x/
converge absolutamente a f .x/. Adems, dicha serie converge uniformemente a f .

4.3.4 Series de potencias


Una serie de potencias centrada en a (en lo sucesivo suponemos a D 0) tiene la expre-
sin
X1
an .x a/n :
nD0

P1
Definicin 4.12 Dada una serie de potencias nD0 an x n , su radio de convergencia
es el nmero
( )
X
1
 D sup jx0 j 2 R tales que an xon converge :
nD0

Si el conjunto entre llaves no es acotado decimos que  D C1.


62 j 4-Funciones, sucesiones y series de funciones

El teorema que sigue fue formulado por Niels Henrik Abel, Noruega 1802-1829. En
su nombre se da anualmente desde 2003, por la La Academia Noruega de Ciencias y
Letras, el Premio Abel, que es considerado como el Premio Nobel de Matemticas. De
hecho, su montante es el mismo que un equivalente Nobel.

P
Teorema 4.11 Teorema de Abel. Sea unaP serie de potencias 1 nD0 an x de modo que
n
1
existe un x0 2 R tal que la serie numrica nD0 an x0n es convergente.P Sea ahora r 2 R
tal que r < jx0 j. Entonces, para todo x 2 R tal que jxj  r la serie 1nD0 n x conver-
a n

ge absolutamente. Adems se tiene que la serie de potencias converge uniformemente


en el intervalo r; r. Adems la funcin f W r; r ! R definida como

X
1
f .x/ D an x n
nD0

es derivable y
X
1
0
f .x/ D nan x n 1
;
nD1

es decir, la derivacin se puede hacer trmino a trmino.


P
Teorema 4.12 Sea  el radio de convergencia de una serie de potencias 1 nD0 an x .
n

Ocurre uno de los tres casos siguientes:


1.  D 0. En ese caso la serie converge par x D 0 y diverge para todo x 0.
2. 0 <  < 1. En ese caso, para todo r <  la serie converge uniformemente en
r; r y diverge si jxj > , En los puntos frontera ./ la serie puede converger
o diverger.
3.  D 1. En ese caso la serie converge para todo x 2 R y para todo r > 0 la serie
converge uniformemente en r; r.

4.4 Resultados importantes de anlisis funcional


Dada la funcin f W R ! R n veces derivable en x0 de un intervalo I  R, se llama
polinomio de Taylor de f de grado n en el punto x0 a
X
n
f .k/ .x0 /
Pn;x0 .x/ D .x x0 /k :
k
kD0
4-Funciones, sucesiones y series de funciones j 63

Se debe a Brook Taylor, Reino Unido, 1685-1731,

Se define el resto de Taylor como Rn;x0 .x/ D f .x/ Pn;x0 .x/.


Teorema 4.13 Teorema de Taylor (1712). Si f W Rn ! R y f 2 C 1 en una regin
que contiene el segmento x1 ; x2 , es decir puntos x1 C .1 /x2 ; 0   1,
existe un  , 0    1, tal que f .x2 / D f .x1 / C r T f  x1 C .1  /x2 .x2 x1 /:
Adems, si f 2 C 2 , existe un ; 0    1, tal que f .x2 /Df .x1 / Cr Tf .x1 /.x2
x1 / C 12 .x2 x1 /TF x1 C .1  /x2 .x2 x1 /; donde F denota la matriz Hessiana
de f . Si la funcin f W R ! R es continua y derivable k C 1 veces en un intervalo, o
segmento, x; x0 , existe un b entre x y x0 tal que
 f 00 .x0 / 2 f 000 .x0 / 3
f .x/Df .x0 /Cf 0 .x0 / x x0 C x x0 C x x0
2 3
f .k/ .x0 / k f .kC1/ .b/ kC1
C C x x0 C x x0 :
k .k C 1/

Las siete primeras aproximaciones de la funcin sen.x/ por este teorema se pueden
ver en la figura 4.7.
El teorema de Taylor nos dice que el polinomio de Taylor aproxima a la funcin f
tanto mejor cuanto mayor es n y ms cerca estemos de x0 . Tambin, que si conocemos
el valor de una funcin y sus derivadas en un punto x0 , entonces podemos aproximar el
valor de la funcin en un punto x por un polinomio y la aproximacin ser tanto mejor
cuanto ms cerca est el punto y cuantas ms derivadas consideremos.
Resulta natural extender la nocin de polinomio de Taylor, dejando que n tienda a
infinito, a la de serie de Taylor centrada en x0 como
X
1
f .k/ .x0 /
.x x0 /k :
k
kD0

Tambin, preguntarse si, dada una funcin infinitamente derivable f , la serie de Taylor
converge en todo punto a la funcin f .
Existe una clase muy amplia de funciones f , denominadas analticas, que verifican
que su serie de Taylor converge al menos puntualmente a la funcin f . Obviamente
X
1
f .k/ .x0 /
f .x/ D .x x0 /k
k
kD0
64 j 4-Funciones, sucesiones y series de funciones

Figura 4.7: Funcin sen.x/ y, en x D 0, las aproximaciones por Taylor de primer orden,
de orden 3, 5, 7, 9, 11 y 13

si y slo si Rn;x0 .x/ ! 0.


La funcin, por ejemplo
( 1
e x2 si x 0
f .x/ D
0 si x D 0

es infinitamente derivable y sin embargo la serie de Taylor no converge a f .x/ en ningn


x 0.
Teorema 4.14 Teorema del valor intermedio. Si f W R ! R es una funcin continua
en el intervalo a; b, toma todos los valores entre f .a/ y f .b/. Ms concretamente, si
y es un nmero entre f .a/ y f .b/, existe un nmero c dentro de a; b, es decir, tal
que a  c  b, en el que f .c/ D y.
El grfico de la figura 4.8 esquematiza este resultado.

Teorema 4.15 Teorema del valor medio. Si f W R ! R es una funcin continua


y derivable en el intervalo a; b, existe un nmero c entre a y b tal que f 0 .c/ D
f .b/ f .a/ =.b a/.
El grfico de la figura 4.9 ayuda a la comprensin de este resultado.
20 | CHAPTER 0 Fundamentals4-Funciones, sucesiones y series de funciones j 65

f(c)

a c b a c b

Fundamentals (a) del valor intermedio


Figura 4.8: Teorema (b)

Figure 0.1 Three important theorems from


a and b such that: (a) f (c) = y, for any given
0.4, the Intermediate Value Theorem (b) the
f (c) (f (b) f (a))/(b a) by Theorem 0.6, the Me
f (c)
region is equal in area to the horizontally sh
Value Theorem for Integrals, shown in the sp

THEOREM 0.4 (Intermediate Value Theorem) Let f be a con


f realizes every value between f (a) and f (b
f (a) and f (b), then there exists a number c w

c b a c b a c
 EXAMPLE 0.7 Show f (x) = x2 3 on the interval (c)[1, 3
(a) (b) del
Figura 4.9: Teorema valorthat
medio
Because f (1) = 2 and f (3) = 6, a
Figure 0.1 Three important theorems 1, must from calculus.
be taken on by fThere
. For exist numbers
example, settin
Teoremaa4.16 and Teorema de Rolle.
b such that: (a) fSi R for
(c)f =W y, R es una
!secondly,
any ffuncin
given y=
(2) 1.continua
between y derivable
f (a) and f (b), by T
en el intervalo
0.4, the b y suponemos
a;Intermediate que Theorem
Value f .a/ D f(b) existe
.b/,the un nmero c,
instantaneous entreofa fy at c eq
slope
b, tal que f 0 .c/ D 0. G ENERALIZACIN Si f es continua y derivable n 1 veces
en a; b (f
y (b) f (a))/(b
la derivada de a) by
orden Theorem
n existe el0.6, the Mean b/,Value Theorem (c) the vertic
THEOREM 0.5en (Continuous
abierto .a;Limits) y existen
Let f nbeintervalos
a continuous fu
a1 < b1  a2 < b2  : : :  an < bn en a;lim
region is equal in area to the tales que
horizontally
b, n shaded
xn =f x.ak/ region,
0 . Then
by para
D f .bk/ todo 0.9, th
Theorem
: n, existe
k D 1 : : Value un nmero
Theorem c en .a; b/shown
for Integrals, tal queinlathe
derivada
specialde case
ordeng(x)
n de=f 1.en c es 
cero. lim f (x n ) = f
n n
Fue formulado por Michel Rolle, Francia 1652-1719.
REM 0.4 (Intermediate Value Theorem) Let f beInaother
continuous function
words, limits may beonbrought
the inte
ins
f realizes every value between f (a) and f (b). More precisely, if y is a n
THEOREM 0.6 (Mean Value Theorem) Let f be a continuo
f (a) and f (b), then there exists a number c with a c b such that f (c
[a, b]. Then there exists a number c between
(b a).

PLE 0.7 Show that f (x) = x 2 3 on the interval [1, 3] must take on the values 0 2
 EXAMPLE 0.8 Apply the Mean Value Theorem to f (x) = x
Because f (1) = 2 and f (3) = 6, all values
between 2 and 6,
The content of the theorem is that be
66 j 4-Funciones, sucesiones y series de funciones

El grfico de la figura 4.10 esquematiza lo obtenido por este teorema.

Figura 4.10: Teorema de Rolle

Teorema 4.17 Primer teorema del valor medio de las integrales. Si f W R ! R es una
funcin continua en el intervalo a; b, existe entonces al menos un nmero c entre a y
b tal que
Z b
f .x/ dx D f .c/.b a/:
a

La figura 4.11 ayuda a entender grficamente este teorema.

f (c)

a c b a c b
(b) Figura 4.11: Teorema del(c)
valor medio de las integrales

important theorems from calculus. There exist numbers c between


(a) f (c) =Teorema
y, for any4.18
givenSegundo teorema
y between del valor
f (a) and medio
f (b), by de las integrales. Si f W R ! R es
Theorem
una funcin continua en el intervalo a; b y g W R ! R una funcin integrable que no
te Value Theorem (b) the instantaneous slope of f at c equals
a) by Theoremcambia0.6,
dethe
signo en a;
Mean existe entonces
b, Theorem
Value (c) the un nmeroshaded
vertically c entre a y b tal que
area to the horizontally shaded region,Z b by Theorem 0.9, the Z b
Mean
Integrals, shown in the special case g(x) = 1. dx D f .c/
f .x/g.x/ g.x/ dx:
a a

heorem) Let f be a continuous function on the interval [a, b]. Then


between f (a) and f (b). More precisely, if y is a number between
4-Funciones, sucesiones y series de funciones j 67

Teorema 4.19 Si f W R ! R es una funcin continua en el intervalo a; b y a  c 


b, entonces Z x
d
f .t / dt D f .x/
dx c
para todo x en a; b.

Teorema 4.20 Integracin por partes. Sean u.x/ y v.x/ funciones reales continuas con
Z Entonces
derivadas continuas. Z
u0 .x/v.x/ dx D u.x/v.x/ u.x/v 0 .x/ dx.

Supngase que se tiene una funcin vectorial f W Rn ! Rm que cumple que


fi .x/ D 0, i D 1; 2; : : : ; m: El teorema de la funcin implcita que sigue estudia, si
n m de las variables son fijas, si el problema se puede resolver en m incgnitas. Es
decir, si x1 , x2 ; : : : ; xm se pueden expresar en funcin de las restantes n m de la forma

xi D i .xmC1 ; xmC2 ; : : : ; xn / ; i D 1; 2; : : : ; m:

A las funciones i W Rn m
! R, si existen, se las denomina funciones implcitas.
Teorema 4.21 Teorema de la funcin implcita. Sea x0 D x01 ; x02 ; : : : ; x0n T un
punto de Rn que satisface:
1. Las m funciones fi 2 C p , i D 1; 2; : : : ; m, en algn entorno de x0 , para alguna
p  1.
2. fi .x0 / D 0; i D 1; 2; : : : ; m: 2 3
@f1 .x0 / @f1 .x0 /
6 @x1    @xm 7
6 :: :: :: 7
3. La matriz Jacobiana de la funcin vectorial, rf .x0 /D6 7,
4 @fm:.x0 / : @fm:.x0 / 5

@x1 @xm
es regular.
Entonces existe un entorno de xO 0 D x0mC1 ; x0mC2 ; : : : ; x0n T 2 Rn m tal que para
xO D xmC1 ; xmC2 ; : : : ; xn T en ese entorno existen funciones i .x/,
O i D 1; 2; : : : ; m
tales que:
1. i 2 C p .
2. x0i D i .xO 0 /; i D 1; 2; : : : ; m.
3. fi .1 .x/;
O 2 .x/;O : : : ; m .x/;
O x/ O D 0; i D 1; 2; : : : ; m.

Este teorema, formulado por Cauchy, sirve para caracterizar puntos ptimos en pro-
gramacin matemtica con y sin condiciones, solucin de ecuaciones lineales y no linea-
les y otras bastantes cosas.
Ejemplo 4.4 Consideremos la ecuacin x12 C x2 D 0. Una solucin de la misma es
x1 D x2 D 0. En un entorno de esta solucin, sin embargo, no hay funcin  tal que
x1 D .x2 /. En esta solucin no se cumple la condicin .c/ del teorema de la funcin
68 j 4-Funciones, sucesiones y series de funciones

implcita. En cualquier otra solucin si existe dicha .

Ejemplo 4.5 Sea A una matriz m  n, m < n, y considrese el sistema de ecuaciones


lineales Ax D b. Si A se estructura as, A D B; C , donde B es m  m, entonces se
satisface la condicin .c/ del teorema de la funcin implcita si, y slo si, B es regular.
Esta condicin se corresponde con los requisitos y enunciados de la teora de ecuaciones
lineales.
De acuerdo con este ltimo ejemplo, la teora de la funcin implcita se puede consi-
derar como una generalizacin no lineal de la teora lineal.
5-Optimizacin y Programacin Matemtica j 69

5 | Optimizacin y Programacin Matem-


tica

L A Optimizacin o Programacin Matemtica tiene por objeto el estudio del pro-


blema
minimizar f .x/
nx2R
(1)
sujeta a ci .x/ D 0; i 2 E;
cj .x/  0; j 2 I:

Si no existen las condiciones ci y cj , o restricciones, el problema es de optimizacin


sin condiciones. La funcin objetivo f y las condiciones ci y cj son, en general, no
lineales, continuas y tienen derivadas parciales continuas hasta al menos primer orden.
Los conjuntos E y I contienen los ndices de las condiciones que son de igualdad y de
desigualdad, respectivamente. El conjunto de puntos que satisfacen todas las condiciones
se denomina regin factible. Como referencia bsica de la temtica de esta seccin est
Boyd y Vandenberghe [2004]. Tambin se puede seguir a Luenberger y Ye [2016].

5.1 Condiciones necesarias y suficientes de existencia de


un punto mnimo de una funcin
Cuando el problema de optimizacin no tiene restricciones es importante conocer cules
son las condiciones necesarias y suficientes en que se puede determinar si dada f W  !
R,  2 Rn , un punto x  hace mnima esa funcin.
Una funcin f W Rn ! R se dice convexa (figura 5.1) si cumple que f .x C y/ 
f .x/ C f .y/ para todo x; y 2 Rn y todo ; 2 R, con C D 1,  0,  0.
Si S  Rn es un conjunto convexo y f W Rn ! Rm es una funcin afn, la imagen de
f .S/ D ff .x/ W x 2 S g es un conjunto convexo. De forma similar, si f W Rk ! Rn
es una funcin afn, la imagen inversa f 1 .S / D fx W f .x/ 2 S g tambin es convexa.
Un punto x  2  se dice que es un mnimo local de la funcin f W  ! R si existe
un  > 0 tal que f .x/  f .x  / para todo x 2  a una distancia menor que  de x  .
Es decir, para todo x 2  tal que jx x  j < . Si f .x/ > f .x  / para todo x 2 ,
x x  , a una distancia menor que  de x  , se dice que x  es un mnimo local estricto
de f en .
Teorema 5.1 Condiciones necesarias de primer orden. Teorema de Fermat, por Pierre
de Fermat, Francia 1607-1665. Sea  un subconjunto de Rn y una funcin f W  ! R,
f 2 C 1 . Si x  en un mnimo local de f en , se cumple que rf .x  / D 0.
70 j 5-Optimizacin y Programacin Matemtica

y = f(x)
y

x
convex
Figura 5.1: Funcin
(a) convexa

Si en x  se cumple que rf .x  / D 0, x  se denomina punto estacionario.


Teorema 5.2 Condiciones necesarias de segundo orden. Sea x un subconjunto de Rn
convex
y una funcin f W  ! R, f 2 C 2 . Si x  en un mnimo local de f en , se cumple
  (b)
que rf .x / D 0 y r f .x / es semidefinida
2
positiva.
f
Teorema 5.3 Condiciones suficientes de segundo orden. Sea  un subconjunto de Rn
y una funcin f W  ! R, f 2 C 2 . Si se cumple que rf .x  / D 0 y r 2 f .x  / es
definida positiva, x  en un mnimo local estricto de f en .

Teorema 5.4 Si f es convexa, cualquier mnimo local x  es un mnimo global de f .


Si adems f es derivable, cualquier mnimo local x  es un mnimo global.

5.2 Conjuntos convexos y geometra de la convexidad


En optimizacin se presta una atencin fundamental a los conjuntos x
convexos. En ellos
es ms fcil caracterizar las soluciones de los problemas y definir algoritmos y procedi-
nonconvex
mientos de resolucin robustos. En la figura (c) 5.2 se ilustran algunos conjuntos que son
convexos y otros que no lo son. Volveremos sobre la cuestin de cmo saber si hay
Fig. 7.3 Convex and nonconvex functions
convexidad o no ms adelante.
Si el entorno en el que se define un problema de optimizacin es convexo, se puede
tener la seguridad de conseguir un ptimo del problema, con los algoritmos adecuados,
y que ste sea el nico. Si hay condiciones no convexas o la funcin objetivo no lo es,
Examples of non-convex sets
Examples of convex sets
The union of two non-overlapping
A line segment is a convex
set.
Non-convex sets can have indenta
5-Optimizacin y Programacin Matemtica j 71

Fig. 4.9. Convex


with pairs of
joined by line segm

Figura 5.2: Conjuntos convexos a la izquierda; no convexos a la derecha


Title Page     Title Page
38 of 156

Go Back
 
Full Screen
 39
Close
of 156

puede que no se pueda conseguir nada del problema ni saber si hay uno o varios ptimos.
El anlisis de la convexidad de funciones y de problemas de optimizacin fue funda-
do en la segunda mitad del siglo XX por Moritz Werner Fenchel, Alemania 1905-1988,
Jean Jaques Moreau, Francia 1923-2014, y Ralph Tyrrell Rockafellar, EE.UU. 1935.

Se refiere esencialmente a conjuntos, espacios y funciones convexas y sus aplicaciones


en optimizacin.
Un conjunto C  Rn se dice convexo si y slo si para todo par de puntos x1 ; x2 2 C
todas las combinaciones de la forma x D x1 C .1 /x2 , con 0    1, estn en C .
Es decir, cuando para cada par de puntos del conjunto convexo todos los de la recta que
los une estn en el conjunto.
La expresin x D x1 C .1 /x2 , 0    1, define la combinacin convexa de
x1 y x2 . Si 0 <  < 1, es decir  2 .0; 1/, la combinacin se denomina estrictamente
convexa. En la figura 5.3 se ilustra la fundamental diferencia que hay entre optimizar una
funcin en una regin factible convexa y en otra que no lo es.
El concepto de combinacin convexa se puede generalizar a cualquier nmero finito
de puntos de la siguiente manera:

X
p
xD i xi ;
i D1
Pp
donde i D1 i D 1, i  0, i D 1; : : : ; p.
Definicin 5.1 El conjunto interseccin de todos los conjuntos convexos que contie-
nen a un subconjunto S  Rn se llama envoltura convexa convex hull de S
(figura 5.4) y se designa por conv.S /.
Optimizing a Convex Function Over a
72 j Convex
5-Optimizacin y Programacin and a Non-Convex Set
Matemtica

24 f(x,y) = - x - y 2 Convex sets


ptimo local

Figure 2.2 Some simple ptimo global


convex and nonconvex sets. Left. The hexagon,
which includes its boundary (shown darker), is convex. Middle. The kidney
shaped set is not convex, since the line segment between the two points in
Figurathe
5.3:setOptimizacin (minimizacin)
shown as dots deinf .x;
is not contained the y/
set.DRight. y ensquare
x The un conjunto convexo
contains
some boundary points but not others, and is not convex.
y en otro que no lo es

FiguraFigure
5.4: Envoltura
2.3 The convexa de dos
convex hulls of conjuntos 22
two sets indeRR. .Left.
La deThe
la izquierda de of
convex hull 15 apuntos;
la de la derecha de un conjunto no convexo
set of fifteen points (shown as dots) is the pentagon (shown shaded). Right.
The convex hull of the kidney shaped set in figure 2.2 is the shaded set.

Un conjunto C  Rn se dice que es afn (tambin se dice que C es una variedad


afn o una variedad lineal) si para cualesquiera x; y 2 C y cualquier  2 R se tiene
queRoughly
.1 /xspeaking, C y 2a Cset is convex if every point in the set can be seen by every other
. El conjunto vaco es afn. Una combinacin afn de vectores
point, along an unobstructed straight path between them, where unobstructed
v1 ; v 2 ; : : : ; vn es una
means lying in the set.
combinacin lineal c1 v1 C    C cn vn en la que c1 C    C cn D 1.
n Every affine set is also convex, since it contains the entire
Un conjunto C  R es afn
line between any two distinct points si y slo si
in es
it,deand
la forma
therefore also the line segment
between the points. Figure 2.2 illustrates somen simple convex and nonconvex sets
in R2 . C D fa C l W a 2 R ; l 2 Lg ;
We call a point of the form 1 x1 n+ + k xk , where 1 + + k = 1 and
donde L0,esiun
i subespacio
= 1, vectorial
. . . , k, a convex de R asociado
combination of the apoints
C . Esxdecir, un conjunto afn es un
1 , . . . , xk . As with affine
subespacio desplazado
sets, it can be shown delthat
origen.
a setLa
is dimensin de un
convex if and conjunto
only afn x every
if it contains C L es la de su
convex
correspondiente
combination of subespacio
its points.L.AUn planocombination
convex afn en Rn ofes points
un traslado
can bedethought
un subespacio
of as a de
Rn .mixture
Una rectaor en Rn es average
weighted un planoofafn
thede dimensin
points, with 1. Es evidente
i the fraction of que
xi cualquier conjunto
in the mixture.
afn es convexo aunque el recproco no es cierto en general.
Si SThe Rn , la envoltura
 convex hull of a setafn de S , aff.S
C, denoted conv es islathe
/, C, interseccin de todos
set of all convex los conjuntos
combinations
of points in C:
afines que contienen a S . Como se puede comprobar, aff.S / D aff.conv.S //.
Un conjunto
conv C = {de puntos o vectores fv1 ; ::i :; v0,p gi de
1 x1 + + k xk | xi C,
R.n. .es, k,afnmente
= 1, 1 + +dependiente
k = 1}. si
existen nmeros reales c1 ; : : : ; cp no todos cero tales que c1 C    C cp D 0 y c1 v1 C
Ascpthe
 C vp name suggests,
D 0. De the convex
lo contrario hull conv C
ser afnmente is always convex. It is the smallest
independiente.
Un simplex o simplejo es la envolvente convexathat
convex set that contains C: If B is any convex set contains
de un conjuntoC, then
finitoconv C
de vectores
B. Figure 2.3 illustrates the definition of convex hull.
The idea of a convex combination can be generalized to include infinite sums, in-
tegrals, and, in the most general form, probability distributions. Suppose 1 , 2 , . . .
5-Optimizacin y Programacin Matemtica j 73

7KH*HRPHWU\RI9HFWRU6SDFHV
afnmente independientes.

v1 v1 v1 v4

v1 v2 v2 v3 v2 v3

S0 S1 S2 S3
Figura 5.5: El simplex
'*(63& S1 es un segmento de recta. El tringulo S2
proviene de seleccio-
nar un punto v3 que no est en la recta que contiene a S 1 y despus formar la envolvente
convexa con S 1 . El tetraedro S 3 se produce al elegir un punto v4 que no est en el plano2
)LJ  7KHWHWUDKHGURQ S3 LVSURGXFHGE\FKRRVLQJDSRLQW Y4 QRWLQWKHSODQHRI S
de S 2 y despus formar la envolvente convexa con S 2
DQGWKHQIRUPLQJWKHFRQYH[KXOOZLWK S 2 
%HIRUHFRQWLQXLQJ FRQVLGHUVRPHRIWKHSDWWHUQVWKDWDUHDSSHDULQJ 7KHWULDQJOH
SPara
2 construir un simplex
KDVWKUHHHGJHV k-dimensional o k-simplex se procede
(DFKRIWKHVHHGJHVLVDOLQHVHJPHQWOLNH como sigue (ver
S 1  :KHUHGRWKHVH
figura 5.5):
WKUHHOLQHVHJPHQWVFRPHIURP" 2QHRIWKHPLV S 1  2QHRIWKHPFRPHVE\MRLQLQJWKH
HQGSRLQW Y2 WRWKHQHZSRLQW Y3  7KHWKLUGFRPHVIURPMRLQLQJWKHRWKHUHQGSRLQW Y1 WR
0-simplex S 0 W un solo punto Sfv1 1LVVWUHWFKHGRXWLQWRDOLQHVHJPHQWLQ
Y3  <RXPLJKWVD\WKDWHDFKHQGSRLQWLQ g S 2
3
7KHWHWUDKHGURQ S1 LQ)LJ KDVIRXUWULDQJXODUIDFHV 2QHRIWKHVHLVWKHRULJLQDO
1-simplex S W conv.S 0 [ fv2 g/ con v2 no en aff.S 0 / 2
WULDQJOH S 2  DQGWKHRWKHUWKUHHFRPHIURPVWUHWFKLQJWKHHGJHVRI S RXWWRWKHQHZ
SRLQW Y4  2-simplex S 2 W conv.S 1 [ fv3 g/S 2con
1RWLFHWRRWKDWWKHYHUWLFHVRI v3 no en aff.S 1 /
JHWVWUHWFKHGRXWLQWRHGJHVLQ S 3  7KH
RWKHUHGJHVLQ S 3 FRPHIURPWKHHGJHVLQ
:: S 2
 7KLVVXJJHVWVKRZWRYLVXDOL]HWKH
IRXUGLPHQVLRQDO S 4  :
4
7KHFRQVWUXFWLRQRI  FDOOHGDSHQWDWRSH LQYROYHVIRUPLQJWKHFRQYH[KXOORI S3
k-simplex S k WSconv.S k 1
[3 fvkC1 g/ con vkC1 no en aff.S k 1 /:
ZLWKDSRLQW Y5 QRWLQWKHVSDFHRI S  $ FRPSOHWHSLFWXUHLVLPSRVVLEOH RIFRXUVH
EXW)LJ LVVXJJHVWLYH S 4 KDVYHYHUWLFHV DQGDQ\IRXURIWKHYHUWLFHVGHWHUPLQHD
Un smplex unidad es un subconjunto particular del ortante no negativo que se define
IDFHWLQWKHVKDSHRIDWHWUDKHGURQ )RUH[DPSOH WKHJXUHHPSKDVL]HVWKHIDFHWZLWK
asYHUWLFHV Y  Y  Y  DQG Y DQGWKHIDFHWZLWKYHUWLFHV Y  Y  Y  DQG Y  7KHUHDUHYH
1 2 4 5 2 3 4 5
S D fs j s  0; 1> s  1g  RnC :
v5
Es un poliedro convexo acotado con n C 1 vrtices y n C 1 y de dimensin n. En la
figura 2.12.
5.6 seCONVEX
ve uno dePOLYHEDRA
R3 : un tetraedro slido pero no regular. 119

v1 v4
s 0 , 1T s 1}

v2 v3
1
v5 v5

v1Figura 5.6: Simplex unidad en Rv4. Un


3
v1 tetraedro slido aunque no regular
v4
Figure 57: Unit simplex S in R3 is a unique solid tetrahedron but not regular.
4 3 12 4 3 12

%DU\FHQWULFFRRUGLQDWHVKDYHERWKSK\VLFDODQGJHRPHWULFLQWHUSUHWDWLRQV 7KH\
74 j5-Optimizacin y Programacin Matemtica
ZHUHRULJLQDOO\GHQHGE\$ ) 0RHELXVLQIRUDSRLQW S LQVLGHDWULDQJXODU
UHJLRQZLWKYHUWLFHV D E DQG F +HZURWHWKDWWKHEDU\FHQWULFFRRUGLQDWHVRI S DUH
Sea S D fv1 ; : : : ; vk gm
WKUHHQRQQHJDWLYHQXPEHUV un ;conjunto afnmente independiente. Para cada punto p en
D mE  DQG mF VXFKWKDW S LVWKHFHQWHURIPDVVRIDV\VWHP
aff.S/ los coeficientes c1 ; : : : ; ck de la representacin (nica) p D c1 v1 C  Cck vk son
FRQVLVWLQJRIWKHWULDQJOH ZLWKQRPDVV DQGPDVVHV mD  mE  DQG mF DWWKHFRUUHVSRQGLQJ
las coordenadas baricntricas de p. Estas coordenadas tienen interpretaciones fsicas y
YHUWLFHV 7KHPDVVHVDUHXQLTXHO\GHWHUPLQHGE\UHTXLULQJWKDWWKHLUVXPEH 7KLV
geomtricas de inters. Fueron originalmente definidas en 1827 por August F. Mbius,
YLHZLVVWLOOXVHIXOLQSK\VLFVWRGD\
Alemania 1790-1868.
)LJXUHJLYHVDJHRPHWULFLQWHUSUHWDWLRQWRWKHEDU\FHQWULFFRRUGLQDWHVLQ([DPSOH
 VKRZLQJWKHWULDQJOH "DEF DQGWKUHHVPDOOWULDQJOHV "SEF "DSF DQG "DES 7KH
DUHDVRIWKHVPDOOWULDQJOHVDUHSURSRUWLRQDOWRWKHEDU\FHQWULFFRRUGLQDWHVRI S ,QIDFW
1
DUHD."SEF/ D ! DUHD."DEF/
4
    9  
Si a D 17 , b D 30 , c DDUHD 3 ." D / 53D, 1
y pDSF el !punto p en
DUHD." DEFel/centro de la figura 5.7 tiene 
por coordenadas baricntricas tres nmeros 3 no negativos ma , mb y mc tales que p es el
centro de masa de un sistema que consiste en le tringulo (sin masa) y las masas ma , mb
y mc en los vrtices correspondientes.
5
DUHD."DES/ Las D masas estn
! DUHD unvocamente
."DEF / determinadas al
requerir que su suma sea 1. 12
a

rea = srea(abc )

rea = t rea(abc ) p
c

rea = rrea(abc )
b
'*(63&  S D r D C s E C t F +HUH r D1 14  1 5
Figura 5.7: Punto p 5 sb C t c. En este caso r D 4 , s D 3 y t D 12 :
1 D ra C
s D 3 t D 12


7KHIRUPXODVLQ)LJ DUHYHULHGLQ([HUFLVHV
Proposicin 5.5 El conjunto $QDORJRXVHTXDOLWLHVIRU
de soluciones de un sistema de ecuaciones lineales, C D
fx W Ax D b; A 2 Rmn ; b 2 Rm g, es un conjunto
YROXPHVRIWHWUDKHGURQVKROGIRUWKHFDVHZKHQ afn.
S LVDSRLQWLQVLGHDWHWUDKHGURQLQ R3 
ZLWKYHUWLFHV D E F DQG G
Demostracin. En efecto, supongamos que x1 ; x2 2 C , es decir, Ax1 D b, Ax2 D b.
Entonces, para cualquier ,
6HH([HUFLVHLQ6HFWLRQ ,QDVWURQRP\ KRZHYHU EDU\FHQWULFFRRUGLQDWHVXVXDOO\UHIHUWRRUGLQDU\
R3 FRRUGLQDWHVRISRLQWVLQZKDWLVQRZFDOOHGWKH
A .x1 C .1  / x2 /,QWHUQDWLRQDO&HOHVWLDO5HIHUHQFH6\VWHP
D Ax1 C .1  / Ax2 D&DUWHVLDQ
FRRUGLQDWHV\VWHPIRURXWHUVSDFH ZLWKWKHRULJLQDWWKHFHQWHURIPDVV WKHEDU\FHQWHU RIWKHVRODUV\VWHP
D b C .1 / b
D b;

lo que prueba que la combinacin afn  x1 C .1  /x2 est tambin en el conjunto


C . El subespacio asociado con el conjunto afn C en este caso es el espacio nulo de A,
ker.A/.
Definition. Let S be a subset of E n . The convex hull of S, denoted co(S), is
5-Optimizacin y Programacin Matemtica j 75
the set which is the intersection of all convex sets containing S. The closed
convex hull of S is defined as the closure of co(S).
Definicin
26 5.2 Un conjunto C  Rn se dice un cono si para 2todo C y todo escalar
x 2sets
Convex

0   2 R, se tiene que x 2 C . Un cono que tambin es convexoconvex


Finally, we conclude this section by defining a cone and a cone. Acono
se denomina
convex cone is a special kind of convex set that arises quite frequently.
convexo. En este caso, para todo x1 ; x2 2 C y 1 ; 2  0, 1 x1 C 2 x2 2 C .

x1
0

x2

0
Figure 2.4 The pie slice shows all points of the form 1 x1 + 2 x2 , where
1 , 2 0. The0apex of the slice (which corresponds to 1 = 2 =0 0) is at
Not convex 0; its edges (which correspond to 1 = 0 or 2 = 0) pass through the points
x1 and x2 . Not convex Convex
Figura 5.8: Tres conos: el primero y el segundo no son convexos; el tercero si
Fig. B.3 Cones
El conjunto fx 2 Rm W x D A; A 2 Rmn ; 2 Rn ;  0g es un cono convexo
generado por los vectores columna de la matriz A.
El conjunto de todas las combinaciones cnicas de los puntos de un conjunto C ,
1 x1 C    C k xk , 1 ; : : : ; k  0, es la envoltura cnica de C , cone.C /.

0 0
FiguraFigure
5.9:2.5
Envoltura cnica de los dos conjuntos de la figura 5.4
The conic hulls (shown shaded) of the two sets of figure 2.3.

Definicin 5.3 Un punto x es un punto extremo o vrtice de un conjunto convexo C


si y slo si no es interior a un segmento de recta contenido en C . Es decir, si y slo si

x D .1 /y C z con 0 < < 1 y y; z 2 C ) x D y D z:

Dos resultados importantes de Constantin Carathodory Alemania, 1873-1950


Teorema de Carathodory para convexos
de Carathodory
en
76Cj. Es
para conos
Un punto x es un punto extremo de un conjunto convexo C si y slo si no es interior a un segmento de recta contenido
decir, si y sloysiProgramacin Matemtica
5-Optimizacin
Teorema 2.2. Si X Rn y x conv (X), existen xi X y 0, i = 1 i
2.1. Si X Rn yn+1x cone x D .1 (X),
/y Cexisten
z con 0 < xi< 1n+1
yXy; z y
2C i)x 0, D yiD= z: 1, 2, , n,

P P P
n dicen que si X  Rn y x 2 cone.X /, existen x iy  , i D 1; : : : ; n, tales que x D
.con 1, cualquier
tales que dicen
x =quedesi Xlacnica
i x . de
Ri y xEs decir, cualquier
x y  , i D 1; : :elemento de
Pi xnque i . Es
Dosi resultados
P importantes debido
=decir, a Carathodory 2i cone.X
n
/, existen : ; n,
= tales Es
xDxdecir, x cualquier
n elemento envoltura
i i . Es decir, como expresa la figura 5.10, cualquier elemento de P
elemento de la envoltura cnica
X es combinacin dede,Xlaa loes
cnica
i i
envoltura
sumo,
iD1
i=1 n puntos i=1
iD1 i i
i=1
de X. Igualmente, si X  Rn y x 2 conv.X /, existen xi y i , i D 1; : : : ; n C 1, tales que x D nC1
iD1 i xi .
convexa
n cnica de, de X neselementos
a lo sumo, combinacin
de X.convexa de, a lo sumo, n + 1 puntos de
Es decir, cualquier elemento de la envoltura convexa de X es combinacin convexa de, a lo sumo, n C 1 puntos de X. La
figura 8.9 ilustra estos resultados.

Figura 5.10: El teorema de Carathodory


de Carathodory para convexos
Figura 8.9: El teorema de Carathodory

Llamaremos hiperplano H de vector caracterstico a 2 Rn ; a 0, al conjunto H D fx 2 Rn W aT x D cg, con


n i
2.2. Si ccnica
X2 R.UnRde yx
hiperplano
X es n+1 conjunto(X),
es elconv
combinacin
existen
de soluciones
cnica dede,unax Xlineal
a ecuacin
lo sumo,
yneni R. 0,dei X.
puntos
n 1, . . . , n +si1,X  Rn
= Igualmente,
Un hiperplano en RP es un espacio afn o una variedad lineal .n 1/-dimensional.
n PnC1
y Dado
= 1, tales 2unconv.X
x que x = /,Hexisten
hiperplano , axi x
i xi y i , i D 1; : : : ; n C 1, tales que x D
D .c,Es
T decir,
llamaremos cualquier
semiespacios cerradoselemento D1Dixx2i .REs

de la ienvoltura
de borde H a los conjuntos H
decir,
Wa xcn T
C
cualquier
elemento
y H D x 2 Rn W aTi=1
de
la envoltura convexa de X es combinacin convexa
de, a lo sumo,
x  c , y semiespacios abiertos de borde H a H C D x 2 Rn W aT x > c y H D x 2 Rn W aT x < c .
eX es Los
combinacin
nC 1 puntosdede
semiespacios convexa de,laaunin
X.H son convexos;
borde lo desumo,
HC y H nes+ 1 puntos
el espacio Rn . de X.
En la figura 8.10 se representa el hiperplano x1 C 4x2 D 11, su vector caracterstico a D 1; 4T y los semiespacios
HDefinicin
C yH .
5.4 Llamaremos hiperplano H de vector caracterstico a 2 Rn ; a 0,
alEnconjunto
un hiperplanoHaTD x Dfx Rn W acTdetermina
c, la2constante x D cg, con c 2 R.delUn
el desplazamiento hiperplano
hiperplano es Un
del origen. el hiperplano
conjuntose de
soluciones
puede expresar dede una fx
la forma ecuacin
W a .x xlineal
T
0 / D 0g,en R
donde .
nx0 es cualquier punto del hiperplano (aT x0 D c). Esa ltima
expresin se puede trabajar un poco ms pues fx W aT .x x0 / D 0g D x0 C a? , donde a? es el complemento ortogonal
de a, es decir fv W aT v D 0g. Lo que lleva a que un hiperplano consiste en un desplazamiento x0 ms todos los vectores
Definicin
ortogonales 5.5caracterstico
al vector Un hiperplano en de
a: el conjunto es un de
Rsoluciones
n
espacio
aT x D c:afn
x0 C o una recordemos.
ker.a/, variedad lineal .n 1/
dimensional.
Un politopo es un conjunto formado por la interseccin de un nmero finito de semiespacios cerrados. Un politopo
cnico es un conjunto formado por la interseccin de un nmero finito de semiespacios cerrados que pasan por un punto.
Un poliedro es un politopo acotado y no vaco. Es fcil comprobar que la interseccin de conjuntos convexos es convexa
Definicin
y que, por lo tanto,5.6 Dado yun
los politopos loshiperplano H , aTconvexos.
poliedros son conjuntos un politopo P essemiespacios
x D c,Sillamaremos cerrados
un poliedro, cualquier punto
sede borde
puede expresarH comoa combinacin
los conjuntos
convexaH deCsusD 2 Rn W aT x  cg y H D fx 2 Rn W
fxextremos.
puntos

aT x  8.1 cg. Semiespacios abiertos de borde H a HV C D x 2 Rn W aT x > c y
Teorema
Sea C un conjunto
aTVy < Knfx2C aT x. n
e y un punto exterior a la adherencia de C . Existe un vector a tal que
convexo
H D x 2 R W a x < c . Los semiespacios de borde H son convexos; la unin de
T

HC y H es el espacio Rn . 21

En la figura 5.11 se representa el hiperplano x1 C4x2 D 11, su vector caracterstico


a D 1; 4T y los semiespacios HC y H .
En un hiperplano aT x D c la constante c determina el desplazamiento del hiperplano
del origen. Un hiperplano se puede expresar de la forma fx W aT .x x0 / D 0g, donde
x0 es cualquier punto del hiperplano (aT x0 D c). Esa ltima expresin se puede trabajar
un poco ms pues fx W aT .x x0 / D 0g D x0 C a? , donde a? es el complemento
ortogonal de a, es decir fv W aT v D 0g. Lo que lleva a que un hiperplano consiste en
un desplazamiento x0 ms todos los vectores ortogonales al vector caracterstico a: el
conjunto de soluciones de aT x D c: x0 C ker.a/, recordemos.
Hacemos en este punto una incursin en Dattorro [2016] para incluir la figura 5.12
que aclara lo expresado de forma compacta.
5-Optimizacin y Programacin Matemtica j 77

H+
y
x0
H

a H

Figura 5.11: Hiperplano x1 C 4x


Figura 8.10: Hiperplano x1 2 D2 D1111yy los
C 4x lossemiespacios
semiespacios
en los que en los
divide R2 que divide R
2

En un hiperplano aT x D c, la constante c determina el desplazamiento del hiperplano del origen.


Un hiperplano se puede expresar de la forma fx W aT .x x0 / D 0g, donde x0 es cualquier punto del
hiperplano (aT x0 D c). Esa ltima expresin se puede trabajar un poco ms pues fx W aT .x x0 / D
0g D x0 C a? , donde a? es el complemento ortogonal de a, es decir fv W aT v D 0g. Lo que lleva
a que un hiperplano consiste en un desplazamiento x0 ms todos los vectores ortogonales al vector
caracterstico a: el conjunto de soluciones de aT x D c: x0 C ker.a/, recordemos.
60 Un politopo es un conjunto formado por la interseccinCHAPTER 2. deCONVEX
de un nmero finito GEOMETRY
semiespacios cerra-
dos. Un politopo cnico es un conjunto formado por la interseccin de un nmero finito de semiespa-
cios cerrados que pasan por un punto.
B.3y no
Un poliedro es un politopo acotado avaco. Es fciland
Separating Supporting
comprobar Hyperplanes
que la interseccin de conjuntos 519
convexos es convexa y que por lo tanto los politopos y los poliedros son conjuntos convexos. En esta
T
figura se muestran varios politopos; el del centro es un + = {y | a (y y p ) 0}
Hpoliedro.

yp c
H = {y | aT(y y p ) = 0} = N (aT ) + y p
y d


Si un politopo P es un poliedro, cualquier puntoPolytopes
Fig. B.5 se puede expresar como combinacin convexa de
sus puntos extremos.
| aT(y 8.1
H = {yTeorema ySea
p)
C 0}
un conjunto convexo e y un punto exterior a la adherencia de C . Existe un
vector a tal que aT y < Knfx2C aT x.
It is easy to see that half spaces areT convex sets and that the union of H+ and
H is D EMOSTRACIN . Sea
the whole space. N (a ) = {y | aTy = 0}
Figura 5.12: De Dattorro [2016] con suDnotacin:Knf kx ykun
x2C
2 >hiperplano
0: @H, desplazado del origen
y los A
Definition.
una distancia set which can
semiespacios HCbeyexpressed as the
H 26; el ker.a > /intersection
D N .a> /,ofcontenido
a finite number
en H .
La zona
Figure 28:ofsombreada
closed half
Hyperplane es spaces
una is said
pieza
illustrated to beis aaconvex
rectangular
H de polytope.bounding
semiespacio
line partially H con respecto H
al cual
halfspaces el and
in R2a.We
H+vector esShaded
normal, rectangular
saliendo de esa piece
zona, of semiinfinite
hacia H . Los H
see that convex polytopes are the setsCobtained as the family of solutionsvector
is a with
puntos
c y respect
d son to which
equidistantes
a del
is outward-normal
hiperplano
to to bounding
y el vector
a set of linear hyperplane;
c d esofnormal
inequalities the formal mismo vector a is inward-normal with respect
to H+ . Halfspace H contains nullspace N (aT ) (dashed line through origin) because
aTyp > 0. Hyperplane, halfspace, and nullspace a1T x  b1are each drawn truncated. Points c and
2 x  b2
d are equidistant from hyperplane, and avector T c d is normal to it. is distance from
origin to hyperplane.

2.4.1 Halfspaces H+ and H
78 j 5-Optimizacin y Programacin Matemtica

Definicin 5.7 Un politopo es un conjunto formado por la interseccin de un nmero


finito de semiespacios cerrados. Un politopo cnico es un conjunto formado por la
interseccin de un nmero finito de semiespacios cerrados que pasan por un punto.

Definicin 5.8 Un poliedro es B.3


un politopo acotado
Separating y no vacoHyperplanes
and Supporting (figura 5.13). 519

Figura 5.13: DiversosFig.


politopos; el del centro es un poliedro
B.5 Polytopes

Definicin 5.9 Se denomina hiperplano soporte o hiperplano de apoyo de un con-


It is easy to see that half spaces are convex sets and that the union of H+ and
junto convexo C a un hiperplano H tal que H \ C ; y C  HC o C  H . Es
H is the whole space.
decir, a un hiperplano que contiene al conjunto C en uno de sus semiespacios cerrados
de borde Definition.
H y algn punto frontera
A set which cande
beCexpressed as the intersection of a finite number
of closed half spaces is said to be a convex polytope.
Definicin We5.10 Si Pconvex
see that es un polytopes
politopo convexo yH
are the sets cualquier
obtained hiperplano
as the soporte de P ,
family of solutions
la interseccin F DP
to a set of linear \ H define
inequalities una
of the cara de P .
form
Existen tres tipos especiales de caras.
a1T x  b1
 b2 T
Definicin 5.11 Un vrtice, una aristaa2yxuna faceta son caras de un politopo convexo

n-dimensional de dimensiones cero, uno y n 1, respectivamente.
Es fcil comprobar que la interseccin de conjuntos convexos es convexa y que, por
mx 
T
lo tanto, los politopos y los poliedros ason bm 
conjuntos convexos. Si un politopo P es un
poliedro, cualquier punto se puede expresar como combinacin convexafamily
since each individual inequality defines a half space and the solution de susispuntos
extremos o vrtices.
the intersection of these half spaces. (If some ai = 0, the resulting set can still, as
Yathe
conocemos
reader mayelverify,
concepto de esferaas
be expressed o bola unidad. sta
the intersection of asefinite
puede definiroftambin
number half en
el espacio eucldeo n-dimensional Rn como
spaces.)
Several polytopes are illustrated in Fig. B.5. We note that a polytope may be
empty, bounded, or unbounded.
B.xc ; r/ The
D fx case of a nonempty bounded polytope is of
c C ru j kuk  1g:
special interest and we distinguish this case by the following.
Una bola Definition.
eucldea es Aunnonempty
conjuntobounded
convexo. Si kx1is called
polytope xc k2a polyhedron.
 r, kx2 xc k2  r y
0    1, se tiene que

B.3 kSEPARATING
x1 C .1  /x2 xAND
c k2 D k.x xc / C .1  /.x2 xc /k2
SUPPORTING
1
HYPERPLANES   kx1 xc k2 C .1  /kx2 xc k2
The two theorems in this section are perhaps
r the most important results related to
convexity. Geometrically, the first states that given a point outside a convex set, a
hyperplane can be passed through the point that does not touch the convex set. The
second, which is a limiting case of the first, states that given a boundary point of a
5-Optimizacin y Programacin Matemtica j 79

Una familia de conjuntos convexos similar es la de los elipsoides. Se definen as


Norm
E D fx j .x x / Conesc
> 1
P .x x /  1g; c

donde la matriz P  0, es decir es simtrica y definida positiva. Los valores singulares


races cuadradas positivas de los valores propios de P, como apuntamos antes en
este apndice, son las longitudes de los semiejes del hiperelipsoide E. Una bola es un
m, norm cone is a convex cone:
elipsoide en el que P D r 2 I. Otra forma de definir el elipsoide es

E D fxc C Au j kuk2  1g;


C = {(x, t) Rn+1 |kxk t}
donde A es cuadrada y regular. Asumiendo que A es simtrica y definida positiva,
1
A D P 2 proporciona el elipsoide E. Si A es semidefinida positiva y regular, la l-
tima definicin de E da un elipsoide degenerado. Un elipsoide degenerado es tambin
cond order cone:
convexo.
Definicin 5.12 Dada una norma cualquiera k  k en Rn , se define la norma bola de
radio r y centro xc como fx j kx xc k  rg. Es convexa. La norma cono asociada a
n+1
= {(x, t) R
k  k es el conjunto |kxk t} 2
82 C D f.x; t / j kxk  tg  RnC1 :
3 2 3T 2 32 3
Ejemplox x de segundo ordenI con respecto x es
0 a la norma eucldea
>
< 5.1 La norma cono
= 4 5 | C4D f.x; t /5 4
j kxk  tg
54 5 0, t
2
: t (t     0  1 ) t
>
>
x x I 0 x
D  0; t  0 :
t t 0 1 t

Su forma geomtrica se puede ver en la figura 5.14.

1
t

0.5

0
1
1
0
0
x2 1 1 x1
1
Figura 5.14: Frontera de la norma cono en R3 : f.x1 ; x2 ; t/ j .x12 C x22 / 2  t g
80 j 5-Optimizacin y Programacin Matemtica

5.2.1 Conos apropiados y desigualdades generalizadas

Definicin 5.13 Un cono K  Rn se denomina cono verdadero, o cono apropiado


proper cone, si es convexo, cerrado, slido, en el sentido de que su interior no es vaco
(K C . K/ D Rn ), y puntiagudo (pointed) lo que significa que no contiene una lnea
o que x 2 K; x 2 K H) x D 0, o K \ K D f0g.
Un cono apropiado o verdadero induce desigualdades generalizadas, que son una
ordenacin parcial, K , de Rn , con muchas de las propiedades de un orden estndar de
Rn , definida as
x K y y x 2 K:
Tambin se escribe x K y si y K x. De forma similar se define la ordenacin
parcial estricta asociada
x K y y x 2 int K:
Si nos referimos como cono apropiado al ortante RnC la ordenacin parcial K pasa a
ser RnC que es la usual  de Rn (y la estricta <). Formalmente x RnC y si xi  yi
para todo i .
El cono semidefinido positivo SnC es un cono apropiado que induce la desigualdad
generalizada X SnC Y si y slo si Y X es semidefinida positiva.
Una forma de pensar en un cono convexo cerrado y puntiagudo es como un nuevo
tipo de sistema de coordenadas cuya base es generalmente no ortogonal. Un sistema
cnico sera muy parecido al sistema cartesiano habitual cuyo cono es anlogo al primer
cuadrante u ortante no negativo.
Las desigualdades generalizadas son un medio para determinar la pertenencia o no a
cualquier cono convexo cerrado, mientras que la denominada expansin biortogonal se-
ra simplemente una expresin de las coordenadas en un sistema cnico de coordenadas
cuyos ejes sin linealmente independientes pero no necesariamente ortogonales.
Cuando el cono K es el ortante no negativo de Rn , estos tres conceptos se correspon-
den con el prototipo cartesiano. La expansin biortogonal se convierte en la ortogonal.

5.2.2 Elementos mnimos y minimales. Cono dual


Se dice que un x 2 S es el elemento mnimo de S con respecto a la desigualdad
generalizada K si para todo y 2 S se cumple que x K y. Es decir, si
S  x C K:
En esta expresin x C K se refiere a todos los puntos que son comparables con x y
mayores o iguales que x de acuerdo con K . El elemento mximo se define de manera
similar. Si un conjunto tiene un elemento mnimo es nico.
Se dice que un x 2 S es un elemento minimal de S con respecto a la desigualdad
generalizada K si para un y 2 S se cumple que y K x slo si y D x. Es decir, si y
slo si
.x K/ \ S D fxg:
yS = x K y
5-Optimizacin y Programacin Matemtica j 81

En esta expresin x K se refiere a todos los puntos que son comparables con x y
mal element of S with respect to  if
menores o iguales que x de acuerdo con K. El nico punto en comn con S es x. El
K
elemento mnimo es un elemento minimal.
y S,Si K yDde
tradicional RC el concepto de elemento mnimo y minimal coinciden en el sentido
K x En
mnimo.
= y=x
la figura 5.15 se describen geomtricamente estos ltimos
conceptos. Tambin, con algn detalle ms general, en 5.16.

R2+)
S2
S1 x2
m element of S1
element of S2 x1

Figura 5.15: El conjunto S1 tiene un elemento mnimo x1 con respecto a la desigualdad


componente a componente en R2 . El conjunto x1 C K es el sombreado ms tenuemente;
218
x1 es el elemento mnimo de S1 dado que S1  x1 C K. El punto x2 es un elemento
minimal de S2 . El conjunto x2 K se muestra en esa parte de la figura de forma ms
tenue. El punto x2 es minimal pues x2 K y S2 slo tienen como elemento comn x2

Definicin 5.14 Si K es un cono, se define el cono dual de K como el conjunto


K  D fy j x > y  0 para todo x 2 Kg.
El cono dual siempre es convexo aunque el original K no lo sea. En la figura 5.17 se
ve la construccin geomtrica del cono dual en dos y tres dimensiones.
Un vector y pertenecer al cono dual K  si y slo si y es normal de un hiperplano
que soporta a K en su origen. La geometra de eso se ilustra en la figura 5.18.
Si el cono K es apropiado tambin lo es su cono dual. Si K tiene un interior no vaco
su cono dual es puntiagudo. Si K es convexo y cerrado, K  D K.
Ejemplo 5.2 El cono dual de un subespacio V  Rn es su complemento ortogonal
V ? D fy j y > v D 0 para todo v 2 V g:
Ejemplo 5.3 El cono dual del ortante no negativo RnC es el propio ortante no negativo:
y > x  0 para todo x  0 y  0:

Ejemplo 5.4 El cono dual de SnC es el propio SnC .


Ejemplo 5.5 Si k  k es una norma en Rn , el cono dual del cono K D f.x; t / 2
RnC1 j kxk  t g es el cono definido por la norma dual, es decir,

K  D f.u; v/ 2 RnC1 j kuk  vg:


82 j 5-Optimizacin y Programacin Matemtica

C1 x +K
R2
(a)

x
C2

(b)

124 CHAPTER 2. CONVEX GEOMETRY

y-K

Figura 5.16: De Dattorro [2016]. El conjunto C1 tiene


Figure 43: (confer Figure 73) (a) Point x is the
un elemento mnimo x con respecto
minimum element of set C1 with respect
al cono
to cone K because cone translated to x C1 contains entire el
K pues dicho cono trasladado a x contiene todo set.conjunto C1 . Eltruncated.)
(Cones drawn conjunto C2
tiene(b)
un Point
punto yminimal en y con
is a minimal respecto
element of setalCcono pues eltonegativo
2 withKrespect de este trasladado
cone K because negative a
C2 slo
y 2 cone contiene
translated to a
y yC2 contains only y . These concepts, minimum/minimal, become
equivalent under a total order.

R2 R3
1

0.8

0.6

K (b)
0.4 (a) K
K
0.2 K
0 q
0.2

0.4

0.6
K
0.8

1
0.5 0 0.5 1 1.5

Figura 5.17: De Dattorro [2016]. Cmo se construyen los conos duales de sendos conos
K en R2 a partir de los ngulos rectos de los extremos de K

x K hy , xi 0 for all y G(K) (367)


52 2 Convex
5-Optimizacin y Programacin Matemtica sets
j 83

y K K
z

Figura 5.18: El semiespacio con normal hacia dentro y contiene al cono K por lo que
y 2 K  . El semiespacio con normal hacia dentro z no contiene a K por lo que z K 
Figure 2.22 Left. The halfspace with inward normal y contains the cone K,
so y K . Right. The halfspace with inward normal z does not contain K,
Si un
so cono
z 6 KK
. es apropiado e induce la desigualdad generalizada K , su dual K  es
tambin apropiado e induce por consiguiente una desigualdad generalizada K  dual de
K . Algunas de sus propiedades son

x K y si y slo si > x  > y para todo  K  0


Example 2.23 Nonnegative orthant. The cone Rn
+ is its own dual:
x K y si y slo si > x < > y para todo  K  0;  0:
xT y 0 for all x  0 y  0.
Es interesante poder caracterizar un elemento mnimo o minimal de un conjunto
mediante desigualdades
We call duales. Un x es el elemento mnimo de un conjunto S , con
such a cone self-dual.
respecto a la desigualdad generalizada K si y slo si para todo  K  0 x es el
nico mnimo de > z, con z 2 S . Geomtricamente esto significa que para cualquier
 KExample 2.24 Positive semidefinite cone. On the P
 0, el hiperplano
set of symmetric n n matrices
n
Sn , we use the standard inner product
> tr(XY ) = Xij Yij (see A.1.1). The
n fz j  .z x/ D 0g i,j=1
n
positive semidefinite cone S+ is self-dual, i.e., for X, Y S ,
es un hiperplano que soporta estrictamente a S en x (slo en el punto x). Esto el lo que
ilustra la figura 5.19. tr(XY ) 0 for all X  0 Y  0.
and minimal elements via dual inequalities
We will establish this fact.
6 Sn n
+ . Then there exists q R with
ment w.r.t. Suppose
K
Y

q T Y q = tr(qq T Y ) < 0.
element of S iff for all
Hence the positive semidefinite matrix X = qq T
he unique minimizer satisfies tr(XY ) < 0; it follows that
n
Y 6 (S+ ) .
S
n
Pn X, Y S+ . We can express X in terms of its eigenvalue decomposition
Now suppose
x eigenvalues) i 0, i = 1, . . . , n. Then we have
as X = i=1 i qi qiT , where (the
!
ent w.r.t. Figura
K Xn
Xn
5.19: Un elemento mnimo caracterizado mediante
T desigualdades
T duales. El punto
tr(Y X) = tr Y i q i q i = i qi Y qi 0.
T x es el elemento mnimo del conjunto S con respecto a R2C . Esto es equivalente a que
es z overpara
S for some K 0, fzthen

cada   0 el hiperplano
x is minimal
i=1 i=1
j > .z x/ D 0g soporta estrictamente a S en x. Ese
This shows
1 that Y (S n
+ ) .
hiperplano contiene a S en uno de sus lados y lo toca slo en x

De forma similar veamos cmo caracterizar un elemento minimal. Si  K  0 y


x
Example
1 2.25 cone. Let k k be a norm on Rn . The dual of the
S Dual of a norm n+1
associated cone K = {(x, t) R | kxk t} is the cone defined by the dual norm,
i.e.,
T z over S
84 j 5-Optimizacin y Programacin Matemtica x

inimalx element
minimiza >w.r.t. K z
z para todo 2 S , entonces x es minimal. Esto es lo que expresa la
figura 5.20.
if x minimizes T z over S for some K 0, then x is minimal
1
56 2 Convex sets

x1 S
1 2
x2

x1
Figura 5.20: El conjunto de puntos minimales
S de S  R2 con respecto a R2C estn en la
if x is alnea
minimal element
ms oscura inferior delof a convex
borde de S . El queset >
S, then
minimiza2 1 z enthere
S es x1exists a nonzero
y es minimal
>
porque 1  0. El que minimiza 2 z enTS es el punto x2 , otro punto minimal de S pues
x 2
K 0 such that x minimizes z over S
2 0
Figure 2.24 A set S R2 . Its set of minimal points, with respect to R2+ , is
shown as the darker section of its (lower, left) boundary. The minimizer of
>
vex sets Para probarlo, supongamos que   0 y que x minimiza  z para todo z 2 S
T1 z over S is x1 , and is minimalK  1 0. The minimizer of T
since 2 z over
222
S is x2 , which is another minimal point of S, since 2 0.
pero x no es minimal, es decir, existe un z 2 S , z x tal que z K x. Entonces
> .x z/ > 0, lo que contradice la suposicin de que x es el que minimiza > z en S
para todo z 2 S .
Lo contrario es en general falso: un punto x puede ser minimal en S pero no el que
minimize > z en S para todo z 2 S . El ejemplo que lo demuestra es el de la figura 5.21.
Este ejemplo pone de manifiesto la importancia de la convexidad. Si S es convexo, se

Figura 5.21: El punto


Figure x esThe
2.25 un point
punto x isminimal
a minimal de S 2
element of SR2Rcon
2
respect toa R2 . Sin embar-
respecto
with
R2+ . However there exists no for which x minimizes T z over z S. C
>
go, no existe un  para el cual x minimiza  z para todo z 2 S .

puede decir que para cualquier elemento minimal x existe un  K  0, no cero, tal que
x minimiza > z en S para todo z 2 S .

5.2.3 Hiperplano separador. Lema de Farkas

Teorema 5.6 Sea C un conjunto convexo e y un punto exterior a la adherencia de C .


Existe un vector a tal que aT y < Knfx2C aT x.
5-Optimizacin y Programacin Matemtica j 85

Demostracin. Sea
D Knf kx yk2 > 0:
2.5 Separating and supporting hyperplanes
x2C 47
Existe un x0 en la frontera de C tal que kx0 yk2 D . Esto es as pues la funcin
continua f .x/ D kx yk2 alcanza su mnimo en cualquier conjunto cerrado y acotado
por lo que slo es necesario considerar x en la interseccin de la adherencia de C y la
bola abierta de centro y y radio 2.
A continuacin probaremos que a D x0 y satisface las condiciones del enunciado
del teorema. En efecto, para cualquier , 0  E2  1, al ser C un conjunto convexo, el
punto x0 C .x x0 / 2 C , por lo que

kx0E1C .x x0 / yk22  kx0 yk22 :


E3
Desarrollando,
2.x0 y/T .x x0 / C 2 kx x0 k22  0:
Considerando esta expresin cuando ! 0C, se tiene que

Figure 2.18 Three ellipsoids.x in0 R2y/ T


, centered  0origin (shown as the
.x xat0 /the
lower dot), that contain the points shown as the upper dots. The ellipsoid
E1 is not minimal, since there exist ellipsoids that contain the points, and
o que are smaller (e.g., E3 ). E3 is not minimal for the same reason. The ellipsoid
E2 is minimal, since no other ellipsoid (centered at the origin) contains the
T . T x0 D .x0
points
.xand
0 is x  .xin
y/contained 0 E2y/ y/T y C .x0 y/T .x0 y/
T 2
D .x0 y/ y C :

Haciendo a D x0 y queda probado el teorema.

La interpretacin geomtrica de este teorema es que dado un conjunto convexo C


y un punto y exterior a la adherencia de C existe un hiperplano que contiene a y, sin
tocar a C , estando C en uno de sus semiespacios abiertos. Ese hiperplano, de vector

aT x b aT x b

D
C

Figura 5.22:
Figure 2.19 The hyperplane {x Hiperplano separadorthe
| aT x = b} separates entre C yD
disjoint convex sets
C and D. The affine function aT x b is nonpositive on C and nonnegative
on D.
caracterstico a en el teorema, se denomina hiperplano separador de C e y.
86 j 5-Optimizacin y Programacin Matemtica

Si C y D son dos conjuntos convexos disjuntos, C \ D D ;, existe entonces un


a 0578y un b tales que aT x  b, para todo x 2 C , y aT x  b, para todo x 2 D.
APPENDIX E. PROJECTION

Dicho de otra
manera, la funcin
a T
x b es no positiva en C y no negativa en D. El
hiperplano x W aT x D b es un hiperplano separador de los conjuntos C y D como se
ve en la figura 5.22.
Existen H
bastantes principios

C
de dualidad (en especial en la teora y tcnicas de opti-
mizacin) que relacionan un problema en trminos(a)de vectores en un espacio vectorial
con otro en trminos de subespacios en ese espacio. En varios de esos principios est
presente la relacin que se ilustra en la figura 5.23 que indica que la distancia ms corta
de un punto a un conjunto
P x
convexo esH igual al mximo de las distancias desde el punto
C

a los hiperplanos
H + que separan el conjunto convexo del punto. El problema original de
minimizacin sobre vectores se convierte en otro de maximizacin sobre hiperplanos.
PH x
a

(b)

Figure 183: Dual


interpretation
of projection of point x on convex set C in R2 .
Figura
(a) =5.23:
(a a) Distancia
T 1 T
a x (a) . ms
C corta de
(b) Minimum un from
distance puntox toaC un conjunto
is found by convexo en trminos de hi-
maximizing distance to all hyperplanes supporting C and separating it from x . A convex
perplanos
problem forseparadores. Dattorro
any convex set, distance [2016]
of maximization is unique.

Teorema 5.7 Sea C un conjunto convexo e y un punto frontera de C . Existe un hiper-


plano que contiene a y y a C en uno de sus semiespacios cerrados.

Demostracin. Sea fy .k/ g una sucesin de puntos exteriores a la adherencia de C . Sea


fa.k/ g la sucesin de puntos normalizados, ka.k/ k2 D 1, obtenida de aplicar el teorema
anterior a la sucesin anterior, tales que,
 T  T
a.k/ y .k/ < Knf a.k/ x:
x2C

Como fa.k/ g es una sucesin acotada, una subsucesin fa.k/ g, k 2 H, converger a un


lmite a. Para este a se tiene que, para cualquier x 2 C ,
 T  T
aT y D lKm a.k/ y .k/  lKm a.k/ x D aT x:
k2H k2H
$ SRO\WRSH LQ Rn LVWKHFRQYH[KXOORIDQLWHVHWRISRLQWV ,Q R2  DSRO\WRSH
5-Optimizacin y Programacin Matemtica j 87
LVVLPSO\DSRO\JRQ ,Q R3  DSRO\WRSHLVFDOOHGDSRO\KHGURQ ,PSRUWDQWIHDWXUHVRI
DSRO\KHGURQDUHLWVIDFHV HGJHV DQGYHUWLFHV )RUH[DPSOH WKHFXEHKDVVTXDUH
Un hiperplano
IDFHV HGJHV que contiene un 7KHIROORZLQJGHQLWLRQVSURYLGHWHUPLQRORJ\IRU
DQGYHUWLFHV conjunto convexo C en uno de sus semiespacios
cerrados R2 DQG
y que contiene algn punto
KLJKHUGLPHQVLRQVDVZHOODV R3  5HFDOOWKDWWKHGLPHQVLRQRIDVHWLQ
frontera de C se denomina hiperplano de apoyo Rn LV o
hiperplano soporte de C .
WKHGLPHQVLRQRIWKHVPDOOHVWDWWKDWFRQWDLQVLW $OVR QRWHWKDWDSRO\WRSHLVDVSHFLDO
W\SHRIFRPSDFWFRQYH[VHW EHFDXVHDQLWHVHWLQ
De acuerdo con esta definicin, Rn LVFRPSDFWDQGWKHFRQYH[KXOORI
el teorema anterior dice que dado un conjunto con-
WKLVVHWLVFRPSDFW
vexo E\WKHWKHRUHPLQWKHWRSRORJ\WHUPVDQGIDFWVER[LQ6HFWLRQ
C y un punto frontera y de C existe un hiperplano de apoyo de C que contiene
y.
En la figura 5.24
2.6 Dual cones W aTgeneralized
x and 0 esn el hiperplano de apoyo de C en el punto
x D aT xinequalities 51
'*/*5*0/ /HW S EHDFRPSDFWFRQYH[VXEVHWRI R  $ QRQHPSW\VXEVHW F RI S LVFDOOHG
D SURSHU IDFH RI S LI F S DQGWKHUHH[LVWVDK\SHUSODQH H D f  d ! VXFK
WKDW F D S \ H DQGHLWKHU f .S/ ' d RU f .S / & d  7KHK\SHUSODQH H LVFDOOHG
D VXSSRUWLQJK\SHUSODQH WR S  ,IWKHGLPHQVLRQRI F LV k  WKHQ F LVFDOOHGD
a
NIDFH RI S 
,I P LVDSRO\WRSHRIGLPHQVLRQ k  WKHQ P xLVFDOOHGD
0
NSRO\WRSH $ IDFH
RI P LVFDOOHGD YHUWH[ SOXUDO YHUWLFHV  CDIDFHLVDQ HGJH DQGD .k " 1/
GLPHQVLRQDOIDFHLVD IDFHW RI S 

&9".1-&  6XSSRVH S LVDFXEHLQ R3  :KHQDSODQH H LVWUDQVODWHGWKURXJK


Figura 5.24: Hiperplano
T soporte de C en x
Figure 2.21 The hyperplane {x | a x = a x0 } supports C 0
T
R3 XQWLOLWMXVWWRXFKHV VXSSRUWV WKHFXEHEXWGRHVQRWFXWWKURXJKWKHLQWHULRURIWKH
at x0 .

FXEH WKHUHDUHWKUHHSRVVLELOLWLHVIRU H \ S  GHSHQGLQJRQWKHRULHQWDWLRQRI H  6HH


x0 :)LJXUH
el punto
 x0 y el conjunto C estn separados por el hiperplanoTfx W a T
x D aT x0 g.
that the point x0 and the set C are separated by the hyperplane {x | a Tx = aT x0 }.
Geomtricamente quiere decir que el hiperplano fx W a x D a x g es tangente al
T
The geometric interpretation is that the hyperplane {x | aT x = aT x0 } is 0tangent
conjunto Ctoen CH x0\
at x0y,Sand
elPD\EHDGLPHQVLRQDOVTXDUHIDFH IDFHW RIWKHFXEH
semiespacio x |W aaT Tx x
the halfspace {x aT aT x contiene a C .
x0 } contains
0 C. This is illustrated in
Si S esfigure
un H
politopo
2.21. de dimensin 3 en R 3
un
\ S PD\EHDGLPHQVLRQDOHGJHRIWKHFXEH cubo y H un plano que se traslada
A basic result, called the supporting hyperplane theorem, states that for any
en R3 hasta que apenas
H \ convex
nonempty se apoya en el cubo, pero
S PD\EHDGLPHQVLRQDOYHUWH[RIWKHFXEHno corta el interior
set C, and any x0 bd C, there exists a supporting de ste,
hyperplane to hay tres
posibilidades
C atpara \ S dependiendo
H supporting
x0 . The hyperplanede la orientacin
theorem de Hfrom
is readily proved . Setheven en la figura 5.25.
separating
hyperplane theorem. We distinguish two cases. If the interior of C is nonempty,
the result follows immediately by applying the separating hyperplane theorem to
the sets {x0 } and intHC. If the interior of C is empty, then C must lie in an affine
set of dimension less than n, andHany hyperplane containing that affine set contains
C and x0 , and is a (trivial) supporting hyperplane.
There is also a partial converse of the supporting hyperplane theorem: If a set
is closed, has nonempty interior, and has a supporting hyperplane at every point
S S S
in its boundary, then it is convex. (See exercise 2.27.)

2.6 Dual cones and generalized inequalities H


2.6.1 Dual cones
H ! S es bidimensional H ! S es unidimensional H ! S es de dimensin 0
Let K be a cone. The set
'*(63& 
Figura 5.25: H \ S es una caraK cuadrada
= {y | xT ybidimensional del cubo, una arista (2.19)
0 for all x K} unidimensio-
nal del cubo o un
is called thevrtice de dimensin
dual cone 0 del
of K. As the cubo
name suggests, K is a cone, and is always
0RVWDSSOLFDWLRQVRISRO\WRSHVLQYROYHWKHYHUWLFHVLQVRPHZD\
convex, even when the original cone K is not (see exercise 2.31). EHFDXVHWKH\KDYH
Geometrically, y K if and only if y is the normal of a hyperplane that
DVSHFLDOSURSHUW\WKDWLVLGHQWLHGLQWKHIROORZLQJGHQLWLRQ
Lema 5.8supports
Lema K deatFarkas. El This
the origin. sistema de ecuaciones
is illustrated in figure 2.22.

SD{y x  0; V V}.R (which is a cone)


Example 2.22 Subspace. The dual cone of a subspace is
' * / * 5 * 0 / .I / /HW S EHDFRQYH[VHW Ax
$ SRLQW
its orthogonal complement V = LQb;| S

y vLVFDOOHGDQ
T
= 0 for all v H[WUHPHSRLQW RI S LI S LV
QRWLQWKHLQWHULRURIDQ\OLQHVHJPHQWWKDWOLHVLQ S  0RUHSUHFLVHO\ LI [; \ 2 S
DQG S 2 xy  WKHQ S D [ RU S D \ 7KHVHWRIDOOH[WUHPHSRLQWVRI S LVFDOOHGWKH
SUROH RI S 
88 j 5-Optimizacin y Programacin Matemtica

no tiene solucin si y slo si la tiene el sistema

.II / y T A  0T ; bT y > 0;

donde A 2 Rmn .
Se debe a Gyula Farkas, Hungra 1847-1930.

Demostracin. El lema se puede reformular de la siguiente manera. Si existe un x  0


tal que Ax D b, no existe ningn y tal que y T A  0T y bT y > 0. Recprocamente, si
no existe ningn x  0 tal que Ax D b, existe un y tal que y T A  0T y bT y > 0.
Supongamos que el sistema (I) tiene una solucin x tal que Ax D b y x  0. Sea
y un punto tal que y T A  0T . En este caso bT y D x T A T y  0 pues x  0 y
y T A  0T . Esto demuestra que bT y no puede ser positivo y, por lo tanto, el sistema
(II) no tiene solucin.
Supongamos ahora que el sistema (I) no tiene solucin. Esto quiere decir que b
S D fv D Ax W x  0g; es decir que b no pertenece al politopo cnico S . Observando
la figura 5.26, est claro que si b S , existe un hiperplano separador definido por un y,
que separa S y b, y para el cual y T ai  0, i D 1; : : : ; n y y T b > 0, es decir, y forma
un ngulo de ms de 90 grados con cada uno de los vectores columna de A y de menos
de 90 grados con b (el hiperplano separador del politopo cnico S de la figura debera
casi tocar a ste a lo largo de a5 . El hiperplano de apoyo correspondiente, s tocara a
a5 ). Esto verifica que el sistema (II) tiene solucin.
El lema de Farkas es un resultado importante para el estudio de sistemas lineales de
inecuaciones. Su interpretacin geomtrica es la siguiente:
1. Si ai ; i D 1; : : : ; n, son los n vectores columna de P
la matriz A, que se cumpla
que b D Ax, x  0, quiere decir que el vector b D niD1 ai xi , xi  0; en otras
palabras, que b pertenece al politopo cnico generado por los vectores columna
de A. En la figura 5.27, a la izquierda, se muestra un ejemplo donde el sistema (I)
no tiene solucin: el vector b no pertenece al cono generado por a1 , a2 , a3 y an .
La interseccin del cono fy W y T A  0T g (conjunto formado por los vectores y
que forman un ngulo mayor o igual de 90 con los vectores columna de la matriz
A) y el semiespacio abierto fy W bT y > 0g, no es el conjunto vaco: el sistema
(II) tiene solucin, pues b y cualquier y en el cono que define la zona sombreada
forma un ngulo menor de 90 y, por lo tanto, bT y > 0.
2. El sistema (II) no tiene solucin si la interseccin del cono fy W y T A  0T g y
el semiespacio abierto fy W bT y > 0g es el conjunto vaco. En la figura 5.27 a la
5-Optimizacin y Programacin Matemtica j 89

8.1 Dualidad y condiciones de optimo 473

Politopo c
onico S

2 a a3
474 Captulo 8. Dualidad y an a4
alisis de sensibilidad

a1
a5
Semiespacio abierto {y : bT y > 0}

a2
an
a1 Hiperplano
a3

b
/S

y
Cono {y : y T A 0T }
Figura 5.26: Demostracin
Figura 8.2 del lema de Farkas
Captulo 8. Dualidad y an
alisis de sensibilidad
Descripci on geometrica de la existencia de un hiperplano separador

Figura 8.3
El par (P)-(D) se denomina habitualmente, en la literatura especializada, forma simetrica
El sistema (I) del lema de Farkas no tiene soluci
on. La tiene (II)
de la dualidad. Semiespacio abierto {y : bT y > 0}
A continuacion exponemos dos teoremas que caracterizan las soluciones optimas del par de
problemas primal-dual. a a2
2
an
Teorema 8.3 (Complementariedad de Holguras) Sean x e y soluciones factibles
an
del par de
programas aprimal-dual
1 a3
en forma simetrica (P)-(D) de (8.8). Las condiciones necesarias y
sucientes para que sean o
ptimos de sus respectivos
a1 problemas
b son:
b
(cT y T A)x = 0 (8.9)
Semiespacio abierto {y : bT y > 0}
y
y T (Ax b) = 0. (8.10)

Demostracio n. Como x e y son soluciones factibles de (P) y (D), respectivamente, se tiene


queCono {y : y T A 0 T } Cono {y : y T A 0T }
s = Ax b 0, x 0 (8.11)
y
wT = cT y T A 0T , y Figura 0. 8.4 (8.12)
El sistema (II) del lema de Farkas no tiene soluci
on. La tiene (I)
Figura
Figura 5.27: Izquierda: 8.3
El sistema (I) del lema de Farkas no tiene solucin; si (II). Dere-
El sistema
cha: (I) del lema(II)
El sistema de no
Farkas
tieneno tiene soluci
solucin; on. La
la tiene (I) tiene (II)

a2

an
90 j 5-Optimizacin y Programacin Matemtica

derecha se muestra un ejemplo donde el sistema (II) no tiene solucin. Todo vector
y en la zona que define el cono indicado forma un ngulo mayor de 90 con b. La
tiene sin embargo (I) pues b pertenece al cono generado por a1 , a2 y an .

5.3 Caracterizacin de las soluciones del problema de op-


timizacin y condiciones que cumple un punto ptimo
Volvamos al problema general de Optimizacin

minimizar
n
f .x/
x2R
sujeta a ci .x/ D 0; i 2 E;
cj .x/  0; j 2 I;

donde las funcin objetivo f y las condiciones ci y cj son, en general, no lineales, conti-
nuas y tienen derivadas parciales continuas hasta al menos primer orden. Los conjuntos
E y I contienen los ndices de las condiciones que son de igualdad y de desigualdad, res-
pectivamente. El conjunto de puntos que satisfacen todas las condiciones se denomina
regin factible.
Un punto x que satisfaga todas las condiciones se dice regular si los vectores gra-
diente del conjunto de condiciones activas en ese punto son linealmente independientes.
Teorema 5.9 Condiciones de ptimo de primer orden de Karush-Kuhn-Tucker. Supn-
gase que x  es un punto regular y mnimo local del problema general de programacin
matemtica anterior. Existe un vector de multiplicadores de Lagrange,  , con coefi-
cientes i , i 2 E [ I, tal que se cumple que
rx L.x  ;  / D rf .x  / T c.x  / D 0;
ci .x  / D 0; para todo i 2 E;
ci .x  /  0; para todo i 2 I;
i  0; para todo i 2 I;

i ci .x  / D 0; para todo i 2 E [ I:
Estas condiciones fueron formuladas por Harold William Kuhn, EE.UU., 1925-2014,
y Albert William Tucker, Canad, 1905-1995, en 1951, con el fin de extender la teora
de Lagrange a la caracterizacin de los puntos ptimos de problemas de programacin
lineal y no lineal sometidos a restricciones. Posteriormente se descubri que en 1939
William Karush, EE.UU., 1917-1997, ya haba trabajado sobre estas condiciones, por lo
que desde ese momento
264
se les pas a denominar condiciones de Karush-Kuhn-Tucker.
Richard W. Cottle

William Karush, circa 1987 Fritz John at NYU, circa 1987


5-Optimizacin y Programacin Matemtica j 91

Un caso particular del problema de programacin matemtica enunciado es el de


Programacin Lineal:
min. c T x
s. a Ax D b
x  0:
As expresado se denomina en forma estndar. La regin factible, o conjunto de solu-
ciones del programa lineal, P D fx 2 Rn W Ax D b; x  0g, es un politopo convexo.

Teorema 5.10 Equivalencia entre puntos extremos y soluciones bsicas. Sean A 2


Rmn una matriz de rango m, b 2 Rm y el politopo convexo

P D fx 2 Rn W Ax D b; x  0g :

Un x 2 P es un punto extremo de P si y slo si los vectores columna de A asociados


a los coeficientes positivos de x son linealmente independientes.

Demostracin. x D xN T ; 0T T , xN > 0, y designamos por A N las p primeras columnas


de la matriz A, se tiene que Ax D A N xN D b.
Probemos primero la necesidad de la condicin enunciada. Supongamos que las co-
lumnas de A N no son linealmente independientes. En este caso existir un vector w N 0
tal que ANwN D 0. De aqu que A. N xN "w/N D A N xN D b y, para un " suficientemente
  
pequeo, que .xN "w/N  0. Los puntos y 0 D xC" N
0
wN
y y 00 D xN 0"wN estn, por con-
siguiente, en P . Adems, dado que x D .y 0 C y 00 /=2, x no puede ser un punto extremo
de P . Como consecuencia de esto, si x es un punto extremo, las columnas de la matriz
AN son linealmente dependientes.
Probemos ahora la suficiencia. Supongamos que x no es un punto extremo de P .
Esto quiere decir que x D y 0 C .1 /y 00 , donde y 0 ; y 00 2 P; y 0 y 00 y 0 <  < 1.
Como x e y 0 estn en P , A.x y 0 / D Ax Ay 0 D b b D 0. Adems, dado
que  y 1  son estrictamente positivos, los ltimos n p coeficientes de y 0 y, por
consiguiente, de x y 0 , han de ser cero pues lo son los de x. Las columnas de la matriz
N en consecuencia, son linealmente dependientes. De aqu que, si las columnas de A
A, N
son linealmente independientes, x es un punto extremo.

Definicin 5.15 Una direccin del politopo P D fx 2 Rn W Ax D b; x  0g es un


vector no nulo, d 2 Rn , tal que para todo x0 2 P el rayo fx 2 Rn W x D x0 Cd;  
0g pertenece a P .
Una direccin d de un politopo P se dice extrema si no puede ponerse como com-
binacin lineal no negativa de dos direcciones diferentes de P . Es decir, no existen dos
direcciones d1 y d2 en P , d1 d2 , y unos 1 ; 2 > 0, tales que d D 1 d1 C 2 d2 .
Cualquier direccin de un politopo se puede expresar como combinacin lineal no
negativa de las direcciones extremas del politopo. Si P es un poliedro, obviamente, no
tiene direcciones.
92 j 5-Optimizacin y Programacin Matemtica

Teorema 5.11 Teorema de la representacin. Todo punto del politopo P D fx 2 Rn W


Ax D b; x  0g se puede expresar de la forma
X
xD i vi C d;
i2I
P
donde fvi W i 2 I g es el conjunto de puntos extremos o vrtices de P , i 2I i D 1,
i  0, y d, o es una direccin de P , o d D 0.

Demostracin. La haremos por induccin en p, nmero de coeficientes positivos de x.


Si p D 0, el teorema es obvio, pues x D 0 es un punto extremo. Supongamos que se
cumple lo enunciado para puntos con menos de p coeficientes positivos y que x tiene p
coeficientes positivos.
Si x es un punto extremo, como x D vi para algn i 2 I , el teorema es obvio.
Supongamos por tanto que x no es un punto extremo. En este caso existe un vector
w 0, con wi D 0 si xi D 0, tal que Aw D 0. Se pueden dar los tres casos siguientes:
(a) Que w tenga coeficientes positivos y negativos. Consideremos los puntos x. / D
x C  w en la recta que pasa por x que determina w, y sean  0 y  00 el menor valor
positivo y mayor valor negativo, respectivamente, de  para los que x. / tiene
al menos un coeficiente cero ms que los que tiene x. Los puntos x 0 D x. 0 / y
x 00 D x. 00 / pertenecen claramente a P por lo que, por la hiptesis de induccin,
al tener un coeficiente nulo ms, se pueden expresar segn lo enunciado en el
teorema. En consecuencia, como x est en la recta que une x 0 y x 00 , se puede
expresar de la siguiente manera

x D x 0 C .1 /x 00 donde  D  00 =. 0  00 /


! !
X X
D 0i vi C d 0 C .1 / 00i vi C d 00
X 
i2I i2I
00
D 0i C .1 /i vi C d 0 C .1 /d 00 :
i2I
P P
Como 0 <  < 1, 0i  0 y 00i  0 para todo i 2 I , i 2I 0i D i2I 00i D 1 y
Ad 0 D Ad 00 D 0, d 0  0 y d 00  0. Se deduce entonces que
00
X
i D 0i C .1 /i  0 para todo i 2 I; i D 1;
i 2I
d D d 0 C .1 /d 00  0 y Ad D 0;

quedando probado que x se puede expresar de la forma enunciada.


(b) Que w  0. Definamos x 0 como en el caso (a). El punto x se puede expresar como
x D x 0 C  0 . w/, con  0 > 0. Como x 0 se puede expresar por induccin en la
forma deseada y . w/ es una direccin en P , x tambin se puede expresar de la
forma enunciada.
5-Optimizacin y Programacin Matemtica j 93

(c) Que w  0. Este caso se prueba igual que el caso (b) sin ms que sustituir x 0 ,  0 y
w por x 00 ,  00 y w, respectivamente.

Corolario 5.12 Si el politopo P D fx 2 Rn W Ax D b; x  0g es no vaco, tiene al


menos un punto extremo o vrtice.

Corolario 5.13 Si el politopo P D fx 2 Rn W Ax D b; x  0g es cerrado y acotado


(es un poliedro), todo punto x 2 P se puede expresar como combinacin convexa de
sus puntos extremos.

x4

x3

x5
x2
y
x1

Figura 5.28: Representacin de un punto de un politopo (poliedro) como combinacin


convexa de puntos extremos

Teorema 5.14 Teorema fundamental de la Programacin Lineal. Dado un politopo no


vaco P D fx 2 Rn W Ax D b; x  0g de soluciones de un PL, el valor mnimo de
la funcin objetivo c T x, para x 2 P , se alcanza en un punto extremo de P (solucin
bsica factible ptima), o c T x no est acotada inferiormente en P .

Demostracin. Sea V D fvi W i 2 I g el conjunto de puntos extremos de P . Como P


es no vaco, al menos tiene un punto extremo vi 2 V . De acuerdo con el teorema de la
representacin, o el politopo P posee una direccin d tal que c T d < 0, o tal direccin
no existe. Consideremos estos dos casos.
(a) El politopo P tiene una direccin d tal que c T d < 0. En este caso P no est
acotado y el valor de la funcin objetivo tiende a 1 en la direccin d.
(b) El politopo P no tiene una direccin d tal que c T d < 0. En este caso cualquier
x 2 P se puede expresar de una de las dos maneras siguientes:
X X
xD i v i donde i D 1; i  0 o
i2I i 2I
X X
xD i vi C dN donde i D 1; i  0 y c T dN  0:
i2I i 2I
94 j 5-Optimizacin y Programacin Matemtica

En ambos casos, suponiendo que c T vmi n es el menor de los elementos del con-
junto fc T vi W i 2 I g, se tiene que
!
X  X
T T T
c x i c vi  c vmi n i D c T vmi n :
i2I i 2I

DUALITY
Es decir, el mnimo de c T x se alcanza en un punto extremo de P : vmi n .

Two different views of the same object.


5.4 Dualidad en optimizacin
Las variables duales y los conjuntos de elementos duales tienen interpretaciones y sig-
nificaciones muy relevantes en optimizacin. Se dan en muchos problemas matemticos
yExample: Dualfsicas,
modelos de realidades description of decisiones
donde se toman signals.u optimizan recursos. Por
ejemplo:
A La tensiones
union (variables
of points Anprimales) y las intensidades
intersection (duales) en circuitos elctricos
of hyperplanes
donde se optimizan los flujos de energa y los costes para satisfacer la demanda.
Time domain FrequencyTime domain domain Frequency domain
La descripcin de seales en el dominio del tiempo (problema primal) y en el de
frecuencia (dual).
Los niveles de produccin de productos (variables primales) y los precios (duales)
a los que los pagan los consumidores o clientes.
La tensiones (variables primales) y los desplazamientos (duales) en el anlisis o
diseo de estructuras mecnicas.
Los conjuntos, o unin de elementos, convexos (variables primales) y la intersec-
Dual
cindescription of closed
de semiespacios (duales) convexcomo
que los delimitan, setsse ve en la figura 5.29.

Figura 5.29: Unin de puntos e interseccin de semiespacios que lo delimita

A union of points
A union Anofintersection
its points An of hyperplanes
intersection of halfspaces
Los problemas duales,Min-Common/Max-Crossing
Abstract en general, posibilitan acotar los valores alcanzables por los
Theorems
Time domain
primales. Frequency
Permiten poder saber domain
cundo una aproximacin a la solucin de un problema
es suficientemente buena.
La solucin ptima de un problema dual de otro primal, en optimizacin, certifica
que se ha alcanzado o se pude alcanzar la del primal.
5-Optimizacin y Programacin Matemtica j 95

Por estas consideraciones y porque los problemas duales en optimizacin a menudo


tienen una estructura ms agradable o manejable que los primales es por lo que pasa-
mos a exponer a grandes rasgos sus principales caractersticas y cmo deben ser
estudiados.
La Dualidad juega un papel destacado en la optimizacin de problemas de programa-
cin lineal y de programacin no lineal. Sirve para caracterizar y verificar la condicin
de un ptimo de un proceso iterativo, y las condiciones en que se da, para analizar la
sensibilidad de una solucin a la variacin de los parmetros del problema, para estudiar
la velocidad de convergencia de determinados algoritmos de optimizacin que usan su
formulacin y para contemplar diversos aspectos geomtricos que permiten interpretar
mejor lo que se est haciendo en la bsqueda de una solucin.
Las ideas y formulacin que exponemos a continuacin siguen muy de cerca lo que
se presenta en los libros de Boyd y Vandenberghe [2004], Luenberger [1969] y Luenber-
ger y Ye [2016]. Se basa en una forma elegante y global de contemplar la dualidad en
trminos de conjuntos e hiperplanos que tocan esos conjuntos.
Los mtodos numricos basados en la dualidad siguen el enfoque o punto de vis-
ta de que las incgnitas fundamentales asociadas a un problema de optimizacin con
condiciones son los Multiplicadores de Lagrange por Joseph-Louis Lagrange, Turin,
1736-Pars, 1813.

Una vez se conocen estos multiplicadores la determinacin del punto de solucin es


simple (al menos en algunas situaciones). Los mtodos duales, por lo tanto, no acometen
el problema original con condiciones problema primal, sino que atacan un problema
alternativo, el problema dual, cuyas incgnitas son los multiplicadores de Lagrange del
problema primal. Para un problema con n variables y m restricciones o condiciones de
igualdad, los mtodos duales trabajan en el espacio m-dimensional de los multiplicadores
de Lagrange. Debido a que estos multiplicadores miden sensibilidades del problema,
a menudo tienen interpretaciones intuitivas significativas, como precios asociados con
recursos escasos, por lo que su bsqueda es a menudo la materializacin de un problema
prctico de la vida cotidiana, y tan atractivo o ms como el de buscar los valores del
ptimo del problema original o problema primal.
Los multiplicadores de Lagrange definen hiperplanos que pueden ser considerados
los duales de puntos en un espacio vectorial. Esta forma terica de interpretar la dualidad
proporciona una simetra entre los problemas primal y dual, la cual pude considerarse
perfecta si los problemas son convexos. Si no lo son, la imperfeccin la plasma el de-
nominado gap de dualidad, o brecha dual, que tiene una interpretacin geomtrica muy
sencilla en este contexto y mucha importancia en los algoritmos actuales de programa-
cin lineal y no lineal.
96 j 5-Optimizacin y Programacin Matemtica

Los multiplicadores de Lagrange del problema primal, que miden las sensibilidades
del problema original a variaciones en los coeficientes que determinan las condiciones
de este problema, determinan una especie de penalizaciones que se introducen en su
funcin objetivo por no utilizar adecuadamente los recursos que fijan esas condiciones.
La funcin de Lagrange incorpora as toda la informacin disponible del problema.
La teora que se expone en este apartado es la base general sobre la que construir
dualidades de tipo local de los diversos problemas lineales y no lineales, incluso sin la
existencia de convexidad. Sirve tambin para comprender mejor los algoritmos de punto
interior especializados en problemas de Programacin Lineal, el dual del Smplex y otros
afines.
De momento vamos a referirnos a problemas de programacin matemtica como

minimizar
n
f .x/
x2R
sujeta a g.x/  0 (2)
x 2 ;

donde  2 Rn es un conjunto convexo y las funciones, la escalar f W Rn ! R y la


vectorial g W Rp ! Rn , estn definidas en . Este problema no es necesariamente
convexo pero se asume que tiene al menos un punto factible. Esta notacin es perfecta-
mente compatible con otras que se utilizan sin ms que adoptar la convencin de signos
adecuada.
La funcin primal asociada al problema (2) se define, para un z 2 Rp , como

!.z/ D Knf ff .x/ W g.x/  z; x 2 g: (3)

Se llega a ella dejando que el trmino de la derecha de la inecuacin que definen las con-
diciones pueda tomar valores arbitrarios. Se entiende que (3) est definida en el conjunto
D D fz W g.x/  z; para algunos x 2 g.
Si el problema (2) tiene una solucin x  con un valor de la funcin objetivo igual a
f D f .x  /, entonces f  es el punto de eje vertical de RpC1 donde la funcin primal


se cruza con ese eje. Si (2) no tiene solucin ese punto de cruce es f  D Knf ff .x/ W
g.x/  0; x 2 g.
El principio de dualidad se deduce de la consideracin de todos los hiperplanos que
quedan por debajo de la funcin primal. Como ilustra la figura 5.30, todos los hiperplanos
que se indican se cruzan con el eje vertical por debajo de f  , o en f  .
Para expresar esta propiedad se define la funcin dual en el cono positivo de Rp ,
p
RC , como

./ D Knf f .x/ C Tg.x/ W x 2  :
En general,  puede que no sea finita dentro del ortante el equivalente en n dimen-
siones a un cuadrante en el plano o un octante en tres dimensiones positivo, R pC , pero
la regin donde est definida y es finita es convexa.
Proposicin 5.15 La funcin dual es cncava en la regin donde es finita.
The duality principle is derived from consideration of all hyperplanes that lie
below the primal function. As illustrated in Fig. 14.1 the intercept with the vertical
axis of such a hyperplanes lies below (or at) the value f . y Programacin Matemtica
5-Optimizacin j 97

r
w(z)

f*

Hiperplano
debajo de w(z)

Figura 5.30: Hiperplano por debajo de !.z/.


Fig. 14.1 Hyperplane below z

Demostracin. Supngase que 1 y 2 estn en la regin finita y sea 0   1.


Entonces

.1 C .1 2 // D Knf ff .x/ C .1 C .1 /2 /T g.x/ W x 2 g


 Knf ff .x1 / C T1 g.1 / W x1 2 g
C Knf f.1 /f .x2 / C .1 /T2 g.x2 / W x2 2 g
D .1 / C .1 /.2 /;

lo que concluye la demostracin.


Se define   D sup f./ W   0g, suponindose que el supremo se extiende a
toda la regin donde  es finita.
Proposicin 5.16 Forma dbil de dualidad.    f  .

Demostracin. Para todo   0 se tiene que

./ D Knf ff .x/ C T g.x/ W x 2 g


 Knf ff .x/ C T g.x/ W g.x/  0; x 2 g
 Knf ff .x/ W g.x/  0; x 2 g D f  :

Tomando supremos en el miembro de la izquierda, .x/, se llega a que    f  .


De acuerdo con este resultado la funcin dual proporciona cotas inferiores del va-
lor ptimo de f , lo cual es muy interesante desde el punto de vista de su aplicacin a
problemas prcticos.
La funcin dual tiene una interpretacin geomtrica muy interesante. Si se considera
el vector 1 T T 2 RpC1 , con   0 y la constante c, el conjunto de vectores r zT T 2
RpC1 tales que el producto interior 1 T r zT T  r C T z D c define un hiperplano
en RpC1 . Para diferentes valores de c se tiene diferentes hiperplanos, todos paralelos
entre si.
98 j 5-Optimizacin y Programacin Matemtica

Para un vector dado 1 T T consideremos el hiperplano ms bajo posible de esa


forma que casi toca soporta la regin de encima de la funcin primal del problema
(2). Supongamos que x1 define ese punto de contacto y que r D f .x1 / y z D g.x1 /. Se
tendr que c D f .x1 / C T g.x1 / D ./.
Ese hiperplano se cruzar con el eje vertical en un punto de la forma r0 0T . Este
punto tambin satisfar que 1 T T r0 0T D c D ./. Lo que lleva a que c D r0 .
Por lo que ese punto dar ser el valor ./ directamente. La funcin dual en  es igual
al punto donde se cruzan el hiperplano definido por  que justo toca el epigrafo el
conjunto de puntos situados en o por encima del grfico de una funcin de la funcin
primal.
Adems, como indica la figura 5.31, ese punto de cruce (y el valor de la funcin
dual) se maximiza con el multiplicador de Lagrange que corresponde al hiperplano ms
alto posible que intercepta el eje vertical y casi toca a la funcin, siendo el punto de esa
438 Chapter 14 Dual and Cutting Plane Methods
intercepcin menor o igual que el valor ptimo f  . La diferencia constituye el gap de
dualidad.

w (z)

f gap de dualidad

hiperplano ms alto

Figura 5.31: Hiperplano ms alto


Fig. 14.2 The highest hyperplane
Si se incorporan suposiciones de convexidad el anlisis que estamos haciendo se
completa con el teorema de la dualidad fuerte cuando no hay gap de dualidad y la inter-
Furthermore,
seccin thiscon
de esos planos intercept (and dual
el eje vertical function
es el propio f  .value) is ver
Se puede maximized by5.32.
en la figura the
Lagrange multiplier which corresponds to the largest possible intercept, at a point
no higher than siguiente
El teorema the optimal value alf problema
se refiere . See Fig. 14.2.
By introducing convexity assumptions, the foregoing analysis can be
strengthened to give the strongminimizarduality theorem,
f .x/ with no duality gap when the
x2Rn
intercept is at f . See Fig. 14.3.sujeta a h.x/ D 0
(4)
We shall state the result for the moreg.x/ general
 0 problem that includes equality
constraints of the form hx = 0, as in Section x 2 ;11.9.
Specifically, we consider the problem
donde h W Rm ! Rn es afn, g W Rp ! Rn es convexa y  es convexo. La funcin dual
de este problema es maximize fx (4)
D Knf ffto.x/ hx
.; / subject = 0 C gx
C Th.x/ 0W x 2 g;
Tg.x/
x
(z)
5-Optimizacin y Programacin Matemtica j 99

y   D sup f.; / W  2 Rm ;  2 Rp ;   0g.


f Duality gap
Teorema 5.17 Teorema de la dualidad fuerte. Supongamos que en el problema (4) h es

regular con respecto a  y que existe un punto x 2  en el que h.x/ D 0 y g.x/  0.
Supongamos que el problema tiene como solucin x  con un valor de la funcin obje-
tivo f .x  / D f  . Entonces, para todo ,   0 se cumple que
Highest hyperplane

  f : z

Adems, existen unos ,   0 tales que .; / D f  y por lo tanto   D f  . Los


vectores  y  son los multiplicadores
Fig. 14.2 Thedehighest
Lagrange del problema.
hyperplane
Un punto x que satisfaga todas las condiciones que se cumplen se dice regular si
los vectores gradiente
Furthermore, thisdelintercept
conjunto(and
de condiciones activas
dual function en eseispunto
value) son linealmente
maximized by the
independientes. Una funcin h.x/
Lagrange multiplier which corresponds es regular
to con
the respecto
largest a  si
possible el conjunto
intercept, C aDpoint
at fy W
h.x/ D y para algn x 2 g de R n
contiene una bola abierta en torno a 0; es decir, C
no higher than the optimal value f . See Fig. 14.2.
contiene un conjunto de la forma fy W jyj < "g para algn " > 0. Esto viene a decir que
By introducing convexity assumptions, the foregoing analysis can be
h.x/ puede hacerse 0 y variar arbitrariamente en torno a 0 en cualquier direccin. Esta
strengthened to give the strong duality theorem, with no duality gap when the
condicin es similar a la definicin de punto regular en el contexto de las condiciones de
intercept is at f . See Fig. 14.3.
ptimo de primer orden.
We shall state the result for the more general problem that includes equality
constraints of the form hx = 0, as in Section 11.9.
Specifically, we consider the problem
5.4.1 Dualidad Lagrangiana
maximize
Es una forma de denominar fx de exponer. La funcin de Lagrange (4)
lo que acabamos del
problema (4) escrito subject to hx = 0 gx 0
minimizar
x n f .x/
x2R
sujeta a h.x/ D 0 (5)
g.x/ofdimension
where h is affine of dimension m, g is convex 0 p, and  is a convex
set. x 2 ;

r
w (z)

f * =
hiperplano ptimo

Figura 5.32: Expresin grfica del teorema de la dualidad fuerte . No hay gap de dualidad
Fig. 14.3 The strong duality theorem. There is no duality gap
100 j 5-Optimizacin y Programacin Matemtica

es L.x; ; / D f .x/ C Th.x/ C Tg.x/. Esta funcin penaliza que g.x/ sea positiva
y que h.x/ no sea cero. La funcin de Lagrange dual es
def
q.; / D Knf L.x; ; /:
x

Esta funcin es cncava por ser afn, aunque no lo sean ni h.x/ y g.x/. Puede ser 1
para algunos valores de  y . La funcin de Lagrange dual define una cota inferior
del valor ptimo de la funcin objetivo de (5). Es decir q.; /  p  si   0. El
problema dual de 5 es este:
maximizar q.; /
sujeta a   0;
que es siempre convexo.

5.4.1.1 Interpretacin geomtrica


En este apartado seguimos lo que exponen Boyd y Vandenberghe [2004], J-P Vert y
R. Freund. Consideraremos una versin bastante simple del problema 5 con una sola
condicin:
minimizar f .x/
sujeta a g.x/  0
x 2 ;
donde f; g 2 Rn ! R. Y a este respecto el subconjunto de R2 definido as:

S D f.g.x/; f .x//jx 2 Rn g:

El valor ptimo del problema, f  , estar determinado por

f  D Knf ftj.t; u/ 2 S; u  0g;

como se puede ver en la figura 5.33, pues es el punto en t ms bajo en la parte de la regin
factible (fijada por los valores a la izquierda del eje t en el conjunto S ). El planteamiento
de este problema sera, por ejemplo, la abstraccin de uno de determinar el coste mnimo
global de una planta de fabricacin de productos diversos con varios tipos de recursos,
el balance global de los cuales a lo largo de un periodo de tiempo debe ser menor o igual
que cero. Es decir, que no se consuman ms de los disponibles.
La funcin de Lagrange de este problema es L.x; / D f .x/ C g.x/. La funcin
de Lagrange dual, o simplemente la funcin dual, es

q./ D Knf ft C ug:


.u;t /2S

Segn la figura 5.34, el punto donde corta al eje t en su punto ms bajo posible el hiper-
plano soporte del conjunto S que define t C u D cte. en este caso una lnea recta
ser el valor de la funcin dual.
f = inf {t | (u, t) S, u 0} .
5-Optimizacin y Programacin Matemtica j 101

Dual function

q()
f

The dual function for 0 is:


q() = infn {f (x) + g(x)} u
xR Nonlinear optimization
c 2006 Jean-Philippe Vert, (Jean-Philippe.Vert@mines.org)
Figura 5.33: Sencillo esquema de un problema de optimizacin para interpretar geomtri-
= inf {u + t} .
camente la dualidad lagrangiana
(u,t)S

S
u+t=cte

u+t=q() q()

u
Figura 5.34: Funcin dual del problema para interpretar geomtricamente la dualidad la-
grangiana Nonlinear optimization
c 2006 Jean-Philippe Vert, (Jean-Philippe.Vert@mines.org) p.34/67

De todos esos hiperplanos soporte, con   0, el que obtiene el ptimo del proble-
ma dual,

d  D maximizar q./ D maximizar Knf ft C ug;


0 .u;t /2S

lo dar la interseccin con el eje t del que se esquematiza en la figura 5.35 que toca los
dos punto mas bajos de S que se ven. El gap de dualidad en este ejemplo es la diferencia
entre f  y d  : d   f  , dualidad dbil.
En el caso de dualidad fuerte, sin gap de dualidad, se daran formas como la de la
figura 5.36.
0
= sup inf {u + t} .
102 j 5-Optimizacin y Programacin Matemtica
0 (u,t)S

t
(,1)
S


(,1)
f
d

Strong duality
u
For convex
Figura problems
5.35: ptimo with
de la funcin dualstrictly feasible
del problema points:geomtricamente
para interpretar
Nonlinear optimization
c 2006 Jean-Philippe la
Vert, (Jean-Philippe.Vert@mines.org) p.35/67

dualidad lagrangiana
d = f
t t

S S

f
d
f
d
u u

Figura 5.36: Dualidad fuerte: f  D d

5.4.2 Dualidad de Wolfe


Nonlinear optimization
c 2006 Jean-Philippe Vert, (Jean-Philippe.Vert@mines.org) p.37/67

Es ligeramente distinta de las anteriores. Se debe a Philip Starr Wolfe, EE.UU. 1927-.

Es la que sirve de referencia a los mtodos de punto interior. El problema dual es

max. L.x; ; /
s. a rx L.x; ; / D 0
  0:
5-Optimizacin y Programacin Matemtica j 103

Ejemplo 5.6 En el caso de un problema de Programacin Lineal en forma estndar

minimizar
n
cT x
x2R
sujeta a Ax D b
x  0;

la funcin de Lagrange es L.x; ; / D c T x T .Ax b/ T x, o


T
L.x; ; / D T b C c AT   x:

Su problema dual
n T o
max. q.; / D Knf fL.x; ; /g D T b C Knfx c A T   x
(
T b si c A T   D 0
D
1 si c A T   0
s. a   0:

Si c A T   0 el nfimo es claramente 1, por lo que hay que excluir del


problema aquellos  para los que se den esos casos. De acuerdo con ello, el problema
dual queda
maximizar T b
s. a c A T   D 0;   0:
El dual de Wolfe sera exactamente el mismo. El gap de dualidad es

c T x T b D c T x T Ax D x T c A T  D x T :

5.5 Funciones conjugadas-funciones de Fenchel


Al introducir este apartado dedicado a la dualidad nos referamos a los pares primal-dual,
y concretamente a La Transformada de Fourier para analizar seales en el dominio de
tiempos y, o, de frecuencias. Una contrapartida en el caso de anlisis y optimizacin de
funciones convexas la constituye la Conjugada de Fenchel o Funcin Conjugada, y la
transformacin conjugada.
Definicin 5.16 Si consideramos la funcin f W Rn ! 1; 1, se define la funcin
conjugada de f tambin conjugada de Fenchel o transformacin de Fenchel,
a la funcin f  W Rn ! 1; 1 dada por

f  .y/ D sup fx > y f .x/g:


x2Rn

La funcin conjugada es de mucha utilidad en optimizacin para convexificar una


funcin y para el clculo del subdiferencial de una funcin convexa .
104 j 5-Optimizacin y Programacin Matemtica

DUALLa DESCRIPTION
transformacin de Fenchel coincide con la transformacin
OF CONVEX de Legendre, por
FUNCTIONS
Andrien-Marie Legendre, Francia, 1752-1833.

Define a closed convex function by its epigraph.

Describe the epigraph by hyperplanes.

Associate
cuando hyperplanes
se refieren a funciones convexas with crossing
y diferenciables points
en todas (the (existen
direcciones
todas sus derivadas parciales).
conjugate function).
En la figura 5.37 se proporciona una interpretacin geomtrica de esta definicin.
La funcin (convexa en este caso) f .x/ y su epigrafo estn descritos por hiperplanos

(-y,1)

f(x)

Pendiente = y

x 0 x x


inf { f (x ) xTy} = f ( y),
x n

Figura 5.37: Visualizacin de la conjugada de Fenchel


Primal Description Dual Description
Dual
soporte. Uno Description
de estos, la Crossing
funcin conjugada, Values ( )punto
Crossing points
Values f (x)
points est) asociado
>
Crossingconpoints
un de cruce
f (y) con el
eje vertical que es f .y/ D Knfx2Rn ff .x/ x yg:
Una interpretacin econmica de la funcin conjugada identifica x > y f .x/ con
el beneficio de producir la cantidad x de bienes cuando los precios estn dados por el
vector y. El mximo de ese beneficio asociado a y es la funcin conjugada f  .y/.
Cualquiera que sea la estructura de f , su funcin conjugada f  es convexa y cerrada
pues es el supremo, punto a punto, de la coleccin de funciones afines

x>y f .x/; para todo x tal quef .x/ es finita.

Si la funcin f .x/ no es convexa, el correspondiente grfico para interpretar la fun-


cin conjugada sera el de la figura 5.38.
Conjugate function 5-Optimizacin y Programacin Matemtica j 105

f (x )
xy
e of a function f is

up (y T x f (x))
om f
x

(0,f (y ))

nd convex even if f isFigura


not 5.38: Conjugada de Fenchel de una funcin no convexa

Una consecuencia inmediata de la definicin de funcin conjugada es la desigualdad


de Fenchel-Young,
quality
f .x/ C f  .y/  x > y;
fpor + f (y)
(x)Fenchel xTHenry
y William y x, yReino Unido 1863-1942.
Young,

uality xT x/2 + y T y/2 xT y to non-quadratic convex f )

8-6

Para que esta desigualdad se haga igualdad en necesario y suficiente que

f .x/ C f  .y/ D x > y , y 2 f .x/ , x 2 f  .y/:

En la figura 5.39 se indican algunos ejemplos de funciones conjugadas habituales.


Son de Bertsekas [2009]. Se puede verificar en cada una de ellas que la conjugada de la
conjugada es la funcin original.
Ejemplo 5.7 La funcin cuadrtica f .x/ D 21 x > Qx, donde Q  0. La expresin
y > x 21 x > Qx es estrictamente cncava con respecto a y y tiene un punto mximo en
y D Q 1 x por lo que
1
f  .y/ D y > Q 1 y:
2
Ejemplo 5.8 La funcin f .x/ Dlog.x/.
(
 >
 1 log. y/ y<0
f .y/ D sup x y C log.x/ D
x>0 1 en cualquier otro caso:
xn

106 j 5-Optimizacin y Programacin Matemtica


f (x) = x if y =
f ( y) =
if y =

Slope =

0 x 0 y


f (x ) = |x | (y) 0 if |y| 1
f =
if |y| > 1

0 x 1 0 1 y

f (x) = (c/ 2)x 2 f ( y ) = (1/2c)y 2

0 x 0 y

Figura 5.39: Ejemplo de funciones conjugadas de funciones habituales

Ejemplo 5.9 La funcin f .x/ D kxk, una norma en Rn , siendo su norma dual asociada
kxk D supkuk1 u> x, tiene por funcin conjugada
( 7

 0 kyk  1
f .y/ D
1 en cualquier otro caso:

Esto se denomina funcin indicador de la norma dual de la esfera unidad. La norma dual
de la norma eucldea es la propia norma eucldea.

5.6 Optimizacin SDP


O, realmente, Programacin Semidefinida. Se refiere a un problema de optimizacin
convexa que trata de maximizar o minimizar una funcin objetivo lineal de una incgnita,
que es una matriz simtrica a la que se impone la condicin de ser semidefinida positiva.
El ptimo tambin debe satisfacer el encontrarse en la interseccin del cono que genera
5-Optimizacin y Programacin Matemtica j 107

la condicin de la matriz y un subespacio afn. El diagrama de la figura 5.40 muestra


dnde se ubica
220
la Programacin Semidefinida en un entorno de programas convexos.
CHAPTER 4. SEMIDEFINITE PROGRAMMING

PC
semidefinite program

quadratic program second-order cone program

linear program

Figura 5.40: Jerarqua de los problemas o programas convexos y su tratamiento. Dattorro


[2016] Figure 88: Venn diagram of programming hierarchy. Semidefinite program is a subset
of convex program PC . Semidefinite program subsumes other convex program classes
excepting geometric program. Second-order cone program and quadratic program each
subsume linear program. Nonconvex program \PC comprises those for which convex
Uno de los elementos que lanzaron al estrellato este tipo de problemas
equivalents have not yet been found.
fue el con-
tar con la potencia de los algoritmos de punto interior para tratar problemas de grandes
dimensiones. Hay una amplia variedad de problemas de optimizacin convexa no lineal
on the boundary, are rendered more difficult to find as numerical error becomes more
que se pueden presentar
prevalent there. como problemas de este tipo que implican desigualdades de-
nominadas de matriz lineal (LMI) y resolverse hoy en da muy eficientemente usando
esos mtodos de punto interior.
4.1.2.1 Reduced-rank solution

La programacin
A simple ranksemidefinida es una
reduction algorithm, importante
for construction of a herramienta numrica
primal optimal solution
(693P) satisfying an upper bound on rank governed by Proposition 2.9.3.0.1, is presented
X to para el an-

lisis y resolucin
in 4.3. de problemas
That en sistemas
proposition asserts existence ofy feasible
teorasolutions
de control.
with an Tambin
upper boundse usan cada
on their rank; [27, II.13.1] specifically, it asserts an extreme point (2.6.0.0.1) of primal
da ms en la optimizacin n combinatoria
feasible set A S+ satisfies upper bound
como una tcnica valiosa para obtener lmites
en la solucin de problemas NP-duros (de toma de decisiones). Sus aplicaciones crecen
8m + 1 1
da a da en geometra computacional, rank X diseo de experimentos,
2
(275) teora de informacin
y comunicacin, optimizacin de valores propios en diseo de estructuras, diagnstico
where, given A Rmn(n+1)/2 and b Rm ,
mdico y otros.
A , {X S n | A svec X = b } (696)

5.6.1 Definiciones y planteamiento del problema


is the affine subset from primal problem (693P).

4.1.2.2 Coexistence of low- and high-rank solutions; analogy


Se designa el espacio vectorial de matrices reales de orden n simtricas por
That low-rank and high-rank optimal solutions {X } of (693P) coexist may be grasped
3
> cone S+ in R (illustrated
3
with the following analogy: We compare a proper polyhedral in
S n WD
Figure 89) to the positive fM 2 cone
semidefinite Rnn WM
S3+ in D Misomorphic
isometrically g: R6 , difficult
to visualize. The analogy is good:

A la parte de este S3+ isque


intS
n
forman
constituted la matrices
by rank-3 matrices. simtricas semidefinidas positivas como
3
int S+ has three dimensions.
n
SC WD fM 2 S n W M < 0g;

donde mediante M < 0 se designa una tal matriz y a


n
SCC WD fM 2 S n W M  0g

como la parte de S n que definen la matrices definidas positivas.


108 j 5-Optimizacin y Programacin Matemtica

El espacio S n est dotado de un producto escalar o producto interior


X
h; i W .M ; N / 2 S n  S n 7! hM ; N i D tr.M N / D Mij Nij ;
ij

donde tr.M N / denota la traza del producto matricial M N .


El producto interior de matrices generales se calcula de forma similar al de vec-
tores: Primero transformando o vectorizando la matriz Rpk , donde p es el nmero
de filas de la matriz y k el nmero de columnas, en un vector de Rpk concatenando
para ello los vectores columna en un orden natural. Por ejemplo, la vectorizacin de
Y D y1 y2    yk 2 Rpk es
2 3
y1
6y2 7
6 7
vec Y , 6 : 7 2 Rpk :
4 :: 5
yk
De acuerdo con esto, el producto interior de dos matrices no necesariamente simtricas
Y y Z es
hY ; Z i , tr.Y > Z / D vec.Y /> vec Z :
Adems
tr.Y > Z / D tr.Z Y > / D tr.Y Z > / D tr.Z > Y / D 1> .Y Z /1;
donde el signo indica el producto de Hadamard, por Jacques Salomon Hadamard,
Francia 1865-1963.

De igual manera vec.Y Z / D vec.Y / vec.Z /.


2
Si las matrices son simtricas en S n la vectorizacin transforma la matriz en Rn .
Como antes, si Y D y1 y2    yn 2 Rnn la vectorizacin simtrica es
2 3
py11
6 2y12 7
6 7
6 y22 7
6p 7
6 2y13 7
6p 7
svec Y , 6 2y 7 2 Rn.nC1/=2 :
6 23 7
6 y33 7
6 7
6 :: 7
4 : 5
ynn
5-Optimizacin y Programacin Matemtica j 109

Para ignorar coeficientes redundantes, y reducir el subespacio a Rn.nC1/=2 , en la trans-


formacin se han escalado los coeficientes que no estn en la diagonal principal. En este
caso, si Y ; Z 2 S n ,

hY ; Z i , tr.Y > Z / D vec.Y /> vec Z D 1> .Y Z /1 D svec.Y /> svec Z :

Volviendo a los conos apuntados ms arriba, SC


n
y SCC
n
, tienen las siguientes propie-
dades:
1. M < 0 8N < 0, se tiene que hM ; N i > 0:
2. M  0 8N < 0 no nula, se tiene que hM ; N i > 0
3. Si M y N 2 SC
n
, se tiene que hM ; N i D 0 M N D 0:
Con la notacin y definiciones expuestas, el problema SDP se plantea as.
4.1. CONIC PROBLEM 221
minimizar hC ; X i
X 2S n
sujeta a hA; X i D b
X < 0;

donde C 2 S n , A W S n ! Rm es una aplicacin lineal y b 2 Rm . Es el problema primal


de SDP. Se trata de minimizar en l un criterio lineal en la interseccin del cono de
matrices semidefinidas positivas y un subespacio afn como esquematiza la figura 5.41.
La funcin objetivo es lineal as como las condiciones. El requisito de pertenencia al
cono SCn
es no lineal y en algn caso no derivable.

+0 P
3
S+

A = H

Figura
Figure 89: 5.41: Visualizacin
Visualizing positivedesemidefinite
un cono semidefinido positivo
cone in high en 3D. Dattorro
dimension: [2016]
Proper polyhedral
cone S+ 3
R3 representing positive semidefinite cone S3+ S3 ; analogizing its intersection
S3+ H with hyperplane. Number of facets is arbitrary (an analogy not inspired by
La aplicacin
eigenvalue lineal se puede
decomposition). representar
The rank-0 mediante
positive m matrices,
semidefinite Ai 2 S n teorema
matrix corresponds to origin
in R3 , rank-1 positive semidefinite matrices correspond to edges of polyhedral cone, rank-2
to facet relative interiors, and rank-3 to polyhedral cone interior. Vertices 1 and 2 are
110 j 5-Optimizacin y Programacin Matemtica

de Riesz-Frchet, por Frigyes Riesz, Hungra 1880-1956,

y Maurice Frchet, as
2 3
hA1 ; X i
6 :: 7
hA; X i D 4 : 5:
hAm ; X i
Si el espacio Rm est dotado de un producto escalar, o producto interior, tambin
expresado mediante h; i, y se introduce el operador A  W Rm ! S n , adjunto a A y
definido as
8X 2 S n ; 8y 2 Rm W hA.X /; yi D hX ; A  .y/i
el problema dual de SDP se plantea as

maximizar hb; yi
.y;S /2Rm S n
sujeta a hA  ; yi C S D C
S < 0;

Ejemplo 5.10 De Freund [2009]. Estudiemos un ejemplo de SDP con n D 3, m D 2 y


las matrices
2 3 2 3 2 3
101 028 123
A1 D 40 3 75 ; A2 D 42 6 05 y C D 42 9 05 :
175 804 307

El vector b D 11 19> .
La variable del problema es la matriz simtrica 3  3
2 3
x11 x12 x13
X D 4x21 x22 x23 5 :
x31 x32 x33

Calculemos el producto
2 3
x11 2x12 3x13
C X D 42x21 9x22 0x23 5
3x31 0x32 7x33
5-Optimizacin y Programacin Matemtica j 111

La funcin objetivo sale de

1> C C 1 D x11 C 2x21 C 3x31 C 2x12 C 9x22 C 0x32 C 3x13 C 0x23 C 7x33
D x11 C 4x12 C 6x13 C 9x22 C 0x23 C 7x33 :

Se ha tenido en cuenta ya la simetra de la matriz X .


El problema de optimizacin SDP es pues

minimizar x11 C 4x12 C 6x13 C 9x22 C 0x23 C 7x33

sujeta a x11 C 0x12 C 2x13 C 3x22 C 14x23 C 5x33 D 11


0x11 C 4x12 C 16x13 C 6x22 C 0x23 C 4x33 D 19
2 3
x11 x12 x13
X D 4x21 x22 x23 5 < 0:
x31 x32 x33

Su dual,
maximizar 11y1 C 19y2

2 3 2 3 2 3
101 028 123
sujeta a y1 40 3 75 C y2 42 6 05 C S D 42 9 05
175 804 307
S < 0:
Formulacin que puede tener sus ventajas en muchos casos frente a la del primal.

5.7 Optimizacin vectorial y multicriterio o multiobjetivo


Los avances actuales de la tcnicas de optimizacin e inteligencia artificial permiten
extender la toma de decisiones a diversos criterios u objetivos en los que, en trminos
matemticos, la funcin a optimizar es vectorial. En lo que presentamos a continuacin
seguimos a Boyd y Vandenberghe [2004].
Un problema de optimizacin vectorial tiene la forma

minimizar (con respecto a K) f0 .x/


sujeta a fi .x/  0; i D 1; : : : ; m (6)
hi .x/ D 0; i D 1; : : : ; p:

Aqu x 2 Rn es el vector a optimizar, K  Rq es un cono no vaco convexo, f0 W Rn !


Rq , fi W Rn ! R son la condiciones de desigualdad y hi W Rn ! R las condiciones
de igualdad. El cono K tiene por objeto comparar los diversos valores de las funciones
objetivo.
112 j 5-Optimizacin y Programacin Matemtica

Esta forma de expresar el problema se suele denominar as en contraposicin al pro-


blema de optimizacin escalar que definamos en 1.
Se dice que el problema de optimizacin vectorial 6 es convexo si la funcin objetivo
f0 es convexa en K, las condiciones de desigualdad son convexas y las de igualdad
afines (usualmente expresadas mediante Ax D b, donde A 2 Rpn ).
De acuerdo con lo visto hasta ahora, qu interpretacin tiene el problema de optimi-
zacin vectorial. Supongamos que x y y son dos puntos del problema factibles y que por
lo tanto cumplen las condiciones. Sus valores asociados de la funcin objetivo son f0 .x/
y f0 .y/, respectivamente, y se compararn mediante la desigualdad generalizada K ,
de tal manera que f0 .x/ K f0 .y/ si x es mejor o igual que y de acuerdo con todos y
cada uno de los valores de la funcin objetivo. El aspecto clave que introduce una cierta
confusin en este anlisis es que los valores f0 .x/ y f0 .y/ puede que no necesiten ser
comparados.
Consideremos el conjunto de valores factibles del problema

O D ff0 .x/j9x 2 D; fi .x/  0; i D 1; : : : ; m; hi .x/ D 0; i D 1; : : : pg  Rq ;

denominado de valores objetivo alcanzables. Si este conjunto tiene un elemento mnimo,


ello quiere decir que existe un x  factible tal que f0 .x  / K f0 .y/ para todo y factible
por lo que x  es el ptimo de 6 con un valor de la funcin objetivo ptimo nico igual a

176
f0 .x /. Es ptimo si y slo si O  f0 .x  / C K. 4 Convex optimization problems

f0 (x )

Figura 5.42: Conjunto


Figure 4.7
OThede valores
set O ofobjetivo alcanzables
achievable values for ay vector
ptimo, x  , de unwith
optimization problema
objective values in R2 , with cone
2 K = R2+ , is shown shaded. In this case,
de optimizacinthe
vectorial con valores
en R
point labeled f0 (x ) is the optimal value of the problem, and x is an
optimal point. The objective value f0 (x ) can be compared to every other
achievable  value f0 (y), and is better than or equal to f0 (y). (Here, better
El conjunto Othan
 for0 .x
equal/CK se puede
to means interpretar
is below and to thecomo el de
left of.) valores
The lightly que son peores,
shaded
region is f0 (x )+K, which is the set of all z R2 corresponding to objective
o iguales, a f0 .x /. La mayora de los problemas de optimizacin vectorial no tienen un
values worse than (or equal to) f0 (x ).
punto ptimo ni valor ptimo.

5.7.1 ptimo y ptimos de Pareto


(see 2.4.2). The set f0 (x ) + K can be interpreted as the set of values that are
En el caso deworse
que than,
el conjunto
or equalde
to,puntos
f0 (x ), factibles del problema
so the condition no tenga
(4.57) states un valor
that every mnimo
achievable
y por lo tanto el problema no tenga un
value falls in this set. This is punto ptimo
illustrated ni valor
in figure ptimo,
4.7. Most losoptimization
vector elementos m-
problems do not have an optimal point and an optimal value, but this does occur
nimos en el sentido de Pareto por Vilfredo Federico Pareto, Paris 1848-Cligy 1923
in some special cases.

Example 4.9 Best linear unbiased estimator. Suppose y = Ax + v, where v Rm is


5-Optimizacin y Programacin Matemtica j 113

del conjunto O adquieren una importancia fundamental. Un punto factible x es ptimo


de Pareto, por Vilfredo Federico Pareto Italia, 1848-1923,
imal and Pareto optimal points

jective values

O = {f0(x) | x feasible}
si f0 .x/ es un mnimo de O. En este caso decimos que f0 .x/ en un valor ptimo de
Pareto1 del problema 6. Esto quiere decir que x es un ptimo de Pareto si es factible y
para cualquier otro y factible, el que f0 .y/ K f0 .x/ implica que f0 .y/ D f0 .x/. En
mal if fotras
0 (x) is thecualquier
palabras, minimum valuey que
punto factible of esOmejor que x, es decir f0 .y/ K f0 .x/,
tiene el mismo valor de la funcin objetivo que x. Esto se ilustra en la figura 5.43. El
eto optimal
conjuntoifdefpuntos is a minimal
0 (x) ptimos value
de Pareto del of O
problema de optimizacin vectorial como se
ve en la figura est en la frontera (frontera de Pareto) o borde de O.

f 0 (x op )

timal Figura 5.43: Conjunto O de x po objetivo alcanzables de un problema de optimizacin


valores
is Pareto optimal
2
vectorial con valores en R y ptimos de Pareto (en el borde o frontera de ese conjunto).
El punto f0 .x op / es ptimo de Pareto con ese valor de la funcin objetivo del problema.
La zona sombreada mas tenue es f0 .x op / K, el conjunto de puntos de R2 que tienen
un valor de la funcin objetivo mejor o igual que f0 .x op /
441

La frontera de Pareto puede ser lineal, cncava, convexa, continua o discontinua de-
pendiendo de las funciones objetivo integrantes del problema. Todas las soluciones per-
tenecientes a la frontera son igualmente buenas y no se puede especificar si alguna de
las soluciones es preferible a las otras, excepto en aquellos casos en que se haya definido
una preferencia a priori.

1 En anlisis econmico se denomina ptimo de Pareto a aquel punto de equilibrio en el que ninguno de los

agentes afectados podr mejorar su situacin sin reducir el bienestar de cualquiera de los otros agentes.
114 j 5-Optimizacin y Programacin Matemtica

5.7.2 Escalarizacin
La escalarizacin es una tcnica para encontrar puntos ptimos de Pareto en un problema
de optimizacin vectorial. Se basa en la caracterizacin de puntos mnimos y minimales
va desigualdades generalizadas duales tal como se introdujeron antes en este apndice.
Si se escoge un  k  0 que es positivo en las desigualdades duales generalizadas,
consideremos el problema escalar

minimizar > f0 .x/


sujeta a fi .x/  0; i D 1; : : : ; m (7)
Scalarization hi .x/ D 0; i D 1; : : : ; p;

y en l sea x un punto ptimo. Este punto es ptimo de Pareto del problema 6 de opti-
o optimal points:
mizacin vectorial. seKdeduce
chooseEsto 0 and solve scalar problem
de la caracterizacin mediante desigualdades duales
de los puntos minimales de las desigualdades de la pgina 84, as como de un observa-
T
cin directa.Si
minimize fno lo fuera, existira un y factible, que satisfara f0 .y/ K f0 .x/ y
0 (x)
que adems
subject .x/
to ffi0(x) 0, i =Como
f0 .y/. 1, . . f
. ,0m.x/ f0 .y/ K 0 y no es cero, se tiene que
> .f0 .x/ hfi0(x)
.y//=>0,0, esidecir, > >
= 1, . . . , p.x/ >  f0 .y/. Lo que contradice el supues-
 f 0
to de que x es ptimo del problema escalar 7. El mtodo de la escalarizacin se puede

O
l for scalar problem,
eto-optimal for vector f 0 (x 1)
problem
f 0 (x 3 )
1
f 0 (x 2 ) 2

Figura 5.44:
ctor optimization Escalarizacin.
problems, El conjunto
can find O de all
(almost) valores alcanzables para un problema de
Pareto
optimizacin vectorial en el cono K D R2C y los valores ptimos de Pareto f0 .x1 /,
s by varying 2
f0 .x 0 3 /. Los primeros dos puntos se pueden obtener mediante escalarizacin:
/ yKf0 .x
f0 .x1 / minimiza > >
1 u para todo u 2 O y f0 .x2 / minimiza 2 u para todo u 2 O, donde
oblems 1 ; 2  0. El valor f0 .x3 / es ptimo de Pareto pero no se 445
puede obtener mediante
escalarizacin

interpretar geomtricamente con la ayuda de la figura 5.44. Un punto x es ptimo del


problema escalar 7, es decir minimiza > f0 .x/ en el conjunto de puntos factibles, si y
slo si > .f0 .y/ f0 .x//  0 para todos los y factibles. Esto es lo mismo que decir
que el conjunto fu j > .u f0 .x// D 0g es un hiperplano soporte o de apoyo del
conjunto de soluciones alcanzables O en el punto f0 .x/. En particular,

fu j > .u f0 .x// < 0g \ O D ;:


5-Optimizacin y Programacin Matemtica j 115

En consecuencia, cuando se encuentre un punto ptimo del problema escalar no slo se


encuentra un punto ptimo de Pareto del problema vectorial original sino un semiespacio
en Rq como el de esta ltima expresin, de valores de la funcin objetivo que no se
pueden alcanzar.
Si el problema vectorial 6 es convexo el problema escalar es tambin convexo por lo
que se pueden obtener todos (casi) los ptimos de Pareto resolviendo el problema escalar
convexo. Para cada eleccin del vector de pesos  K  0 se obtiene un punto ptimo de
Pareto (normalmente) diferente.

5.7.3 Optimizacin multicriterio


Cuando un problema de optimizacin vectorial tiene que ver con el cono K D RqC
se denomina multicriterio o multiobjetivo. Los componentes de la funcin vectorial f0
son funciones F1 , F2 ; : : : ; Fq W Rn ! R que se pueden interpretar como q diferentes
requisitos escalares que hay que optimizar o mejorar. El problema ser convexo si lo son
cada una de esas funciones u objetivos a cumplir.
Lo expuesto antes sirve para este caso pues el conjunto de funciones objetivo es una
funcin vectorial en si misma. No obstante, para los problemas de multicriterio podemos
extendernos un poco en su interpretacin. Si x es factible, podemos pensar en cada
Fi .x/ en trminos del valor que toma el objetivo i simo. Si x e y son ambos factibles,
el que Fi .x/  Fi .y/ significa que x es al menos tan buena como y, de acuerdo con
el objetivo i simo; Fi .x/ < Fi .y/ significa que x es mejor que y, o que x supera a
y, de acuerdo con el objetivo i simo. Si x e y son ambos factibles, decimos que x es
mejor que y, o que x domina a y, si Fi .x/  Fi .y/, para i D 1; : : : ; q, y, para al menos
un j , Fj .x/ < Fj .y/. En trminos aproximados, x es mejor que y si x supera a y en
todos los objetivos y lo domina en al menos un objetivo.
En un problema de optimizacin multicriterio un punto ptimo x  cumple que

Fi .x  /  Fi .y/; i D 1; : : : ; q;

para cada y. Es decir, x  es simultneamente ptimo para cada problema escalar

minimizar Fj .x/
sujeta a fi .x/  0; i D 1; : : : ; m
hi .x/ D 0; i D 1; : : : ; p;

con j D 1; : : : ; q. Cuando existe un punto ptimo, decimos que los objetivos son no
competidores, ya que no hay que establecer compromisos o hacer concesiones entre los
objetivos: cada objetivo es tan pequeo como es posible hacerlo, incluso si se ignorasen
los dems.
Un punto ptimo de Pareto x op cumple lo siguiente: si y es factible y Fi .y/ 
Fi .x po /, para i D 1; : : : ; q, entonces Fi .x po / D Fi .y/, i D 1; : : : ; q. Lo que se puede
expresar de esta manera: un punto en ptimo de Pareto si y slo si es factible y no hay
un punto factible mejor. En particular, si un punto factible no es ptimo de Pareto, al
116 j 5-Optimizacin y Programacin Matemtica

menos existe otro punto factible que es mejor. Todo esto conduce a que para determinar
el ptimo del problema nos podemos limitar a analizar los puntos que son ptimo de
Pareto.
Supongamos pues que x y y son ptimos de Pareto y que
Fi .x/ < Fi .y/; i 2A
Fi .x/ D Fi .y/; i 2B
Fi .x/ > Fi .y/; i 2 C;
donde A [ B [ C D f1; : : : ; qg. Dicho de otra forma, A es el conjunto de ndices de las
funciones objetivo para las cuales x domina a y, B el de aquellas en las que x iguala
a y y C el de las que y bate a x. Si A y C estn vacos, los dos puntos x e y tiene
exactamente los mismos valores de la funcin objetivo. Si no es el caso, A y C deben
ser simultneamente no vacos. Es decir, al comparar dos puntos ptimos de Pareto, u
obtienen las mismas prestaciones en trminos de funcin objetivo, o uno mejora al otro
en al menos uno de los objetivos.
Al comparar los puntos x e y decimos que hemos intercambiado mejores valores
de funciones objetivos de i 2 A por los peores de i 2 C . El anlisis del intercambio
ptimo es el estudio de cunto peor pueden resultar diversas funciones objetivo haciendo
otras mejor, o ms en general, el estudio de qu conjuntos de funciones objetivo son
alcanzables y cules no.
Como ejemplo, consideremos un problema con dos funciones objetivo (dos criterios
de optimizacin). Supongamos que x es un punto ptimo de Pareto con valores de las
funciones objetivo F1 .x/ y F2 .x/. La pregunta que se podra uno hacer es cunto ms
grande debera ser F2 .z/ para determinar un punto factible z tal que F1 .z/  F1 .x/ a,
donde a > 0 es cualquier constante. Grosso modo, nos preguntamos cunto debemos
pagar a la segunda funcin objetivo para obtener una mejora de a en la primera. Si se de-
be admitir un incremento importante en F2 para obtener un pequeo decremento en F1 ,
decimos que existe una contrapartida fuerte entre objetivos cerca de los puntos ptimos
de Pareto de valor .F1 .x/; F2 .x//. Si, por otro lado, se puede conseguir un decremento
grande de F1 con un pequeo incremento de F2 , decimos que la contrapartida entre esos
objetivos es dbil cerca de los puntos ptimos de Pareto de valor .F1 .x/; F2 .x//.
De igual manera se puede considerar el caso de qu contrapartidas negativas se consi-
guen en la primera funcin objetivo mejorando la segunda. Aqu buscamos cunto menor
se puede hacer F2 .z/ para obtener un punto factible z en el que F1 .z/  F1 .x/ C a, con
a > 0 una constante como antes. En este caso se obtiene una mejora (reduccin) en F2
comparada con F2 .x/. Si esa mejora o beneficio es grande (aumentando un poco F1 se
obtiene una reduccin importante de F2 , decimos que los objetivos presentan contra-
partidas fuertes. Si es pequeo, contrapartidas dbiles cerca del valor ptimo de Pareto
.F1 .x/; F2 .x//.
El conjunto de valores ptimos de Pareto de un problema de optimizacin multi-
criterio se denomina superficie ptima de contrapartida, si q > 2, o curva ptima de
contrapartidas cuando q D 2. En general, su anlisis se reduce a los puntos ptimos de
Pareto.
5-Optimizacin y Programacin Matemtica j 117

Ejemplo 5.11 Consideraremos como ejemplo de todo esto el problema de mnimos


cuadrados regularizado definido as: dada A 2 Rmn y b 2 Rm , encontrar un x 2 Rn
que cumpla estos dos criterios u objetivos:
F1 .x/ D kAx bk22 D x > A > Ax 2b> Ax C b> b. Una medida de la bondad
del ajuste.
F2 .x/ D kxk22 D x > x. Una medida del tamao del vector solucin.
Vector Optimization Examples
La idea es encontrar un vector x para el cual el ajuste sea bueno y su norma no muy
Regularized
grande. Least-Squares (Continued)
En la figura 5.45 se puede ver la superficie o curva de contrapartidas de este problema.
For La zona sombreada
example es el conjunto
problem data de valores
A R10010 and balcanzables
R100 , wepor el problema.
have La lnea
the following set ms
of
2
gruesa elvalues
achievable la ptima de contrapartidas
||Ax b||2 , ||x||2 formada
2
por puntos
and optimal ptimos
trade-off de Pareto.
curve.

0.25
F 2 (x ) = ||x || 22

0.2

O
0.15

0.1

0.05
= 100

0
80 85 90 95 100 105 110 115 120

F 1 (x ) = ||Ax b || 22
Figura 5.45: Curva ptima de contrapartidas del problema de mnimos cuadrados regula-
The shaded set is the set of achievable values, while the thick line is the optimal
rizado. La zona sombreada es el conjunto de puntos alcanzables, .kAx bk22 ; kxk22 /, que
trade-off curve formed by Pareto optimal10010 points. 10
considera el problema con A 2 R y b 2 R . La curva de ptimos de Pareto es la
Andre Tkacenkoen(JPL)
destacada la parte EE/ACM 150 - Lecture 10
inferior izquierda May 3, 2012 9 / 11

Es esta curva se puede destacar:


El punto ms a la derecha de la curva indica el valor ms pequeo posible de F2
(sin tener en cuenta F1 ).
El punto ms a la izquierda de la curva indica el valor ms pequeo posible de F1
(sin tener en cuenta F2 ).
La interseccin de la curva con la lnea vertical que define F1 D muestra lo
grande que tiene que ser F2 para conseguir un F1  .
La interseccin de la curva con la lnea horizontal que define F2 D muestra lo
grande que tiene que ser F1 para conseguir un F2  .
La pendiente de la curva en la zona de puntos ptimos de Pareto indica las con-
trapartidas locales ptimas entre los dos objetivos del problema. Una pendiente
118 j 5-Optimizacin y Programacin Matemtica

pronunciada indica que pequeos cambios en F1 van acompaados de cambios


elevados en F2 .
Un punto de curvatura pronunciada es aquel en el que pequeas reducciones en
uno de los objetivos slo lo pueden obtener grandes incrementos en el otro.
El problema que se plantea es entonces

minimizar (con respecto a R2C ) f0 .x/ D .F1 .x/; F2 .x//:

Su escalarizacin lleva a una ponderacin de los dos objetivos as

T f0 .x/ D 1 F1 .x/ C 2 F2 .x/



D x > 1 A > A C 2 I x 21 b> Ax C 1 b> b;

lo que da como resultado


 1  1
x. / D 1 A > A C 2 I 1 A > b D A > A C I A > b;

donde D 2 =1 . Cualquier > 0 determina un punto ptimo de Pareto del problema.
Multiple Integrals 6-Elementos de clculo integral, campos escalares y campos vectoriales j 119

In much the same way that our attempt to solve the area problem led to the definition of

6 | Elementos de clculo integral, campos es-


a definite integral, we now seek to find the volume of a solid and in the process we arrive
at the definition of a double integral.

calares y campos vectoriales


Review of the Definite Integral
First lets recall the basic facts concerning definite integrals of functions of a single vari-

V able. OLVIENDO
If f sxd is defined
fx i21
finida
intervals
theselongitud
igual subintervals.
x Then
a lafor
integral
en, xeli g intervalo
a < x definida
of equal width
D .b we a/=n,
form the
de funciones
< b, we start
a  xDxb sby se
by dividing
2 divide
Riemann
y de
ste
adyn and
dethe
una
weenchoose
variable,
interval fa, bgsiinto
n subintervalos
sample points
sumde ellos se escogen puntos de muestra
cada uno
est de-
n sub-
f .x/
xi x1*i ; in
xi de

xi , conformando la suma de Riemannn


1 o
Xn
i1
f sx*i d Dx
f .xi /x
and take the limit of such sums as n li D1
` to obtain the definite integral of f from a to b:
n
y tomando el lmite de esas sumas cuando n ! 1, se obtiene la integral definida de f
y f sxd dx lim o f sx*i d Dx
b
2
entre a y b a n l ` i1
Z b Xn
In the special case where f sxdf>.x/ 0, dx
the D
Riemann .xi /x:
lKm sumf can be interpreted as the sum of
i D11, and ya f sxd dx represents the area
b
a rectangles inn!1
the areas of the approximating Figure
under the curve y f sxd from a to b.
Como sabemos la interpretacin geomtrica es la de la figura 6.1.
y
x

f(x *)
i

0 a xi-1 xi xn-1 b x

FIGURE 1 x* x* x* x i* x n*
Figura 6.1: Integral definida como suma de Riemann. Stewart [2015]
Volumes and Double Integrals
De la misma manera, consideremos ahora la funcin f de dos variables definida en
In a similar manner we consider a function f of two variables defined on a closed rectangle
el rectngulo cerrado

RR D fa, b
a; bg 
3c; hsx,
fc,ddg D .x;ydy/[2RR2| jaa<xx<b,b;c c<y y
2
<d jd :

deand
la we
figura 6.2. Supongamos
first suppose that f sx, yd de momento
> 0. The graphque
of ffis.x; y/  with
a surface 0. La grficaz
equation de fla
sx,funcin
yd.
d esLet
la Ssuperficie
be the solid
z that
D flies y/ que
.x;above se ve
R and en esa
under figura.ofLlamemos
the graph f , that is, S al volumen slido
y comprendido entre la superficie R y que toca a f , es decir
S hsx, y, zd [ R 3 | 0 < z < f sx, yd, sx, yd [ R j
S D .x; y; z/ 2 R3 j 0  z  f .x; y/; .x; y/ 2 R :
(See Figure 2.) Our goal is to find the volume of S.
The first step is to divide the rectangle R into subrectangles. We accomplish this by
FIGURE 1 x*

120 j 6-Elementos de clculo integral, campos escalares y campos vectoriales


Volumes and Double
z In a similar manner we consi
z=f(x, y)

R fa, bg 3 f

0 and we first suppose that f sx,


c Let S be the solid that lies ab
a d
y
b R S hsx, y
x

(See Figure 2.) Our goal is t


FIGURE
Figura 2
6.2: Volumen e integral. Stewart [2015]
The first step is to divide
dividing the interval fa, bg in
Calculemos el volumen de S . and dividing fc, dg into n
Para ello dividimos el rectngulo R en pequeos subrectngulos comolines
drawing se aprecia
parallel to the
en la figura 6.3. El intervalo a; b lo dividimos en m subintervalos xi 1 ; xi , de igual
longitud x D .b a/=m, y c; d enCopyright
n subintervalos y ; y de igual longitud y D
2016 Cengage Learning.iAll1Rightsi Reserved. May not be copied, scanned, or duplicated, in whole
.d c/=n. Cada subrectngulo REditorial
ij D xi 1 ; xi  yj 1 ; yj D f.x; y/ j xi 1  x 
review has deemed that any suppressed content does not materially affect the overall learning experience.

xi ; yj 1  y  yj g tiene un rea A D xy.


Si de cada Rij escogemos un punto de muestra .xij ; yij /, la parte de S encima de
ese trocito se puede aproximar por una columna
40621_ch15_p01_hr_1027-1043.indd 1028 o paraleleppedo rectangular de base
Rij y altura f .xij ; yij /. El volumen de esta columna es f .xij ; yij /A. Siguiendo este
 

patrn de actuacin con todos los rectngulos de R el volumen aproximado de S ser

X
m X
n
V  f .xij ; yij /A:
iD1 j D1

Aproximacin que ser tanto mejor cuanto ms se amplen las divisiones m y n, es decir,

X
m X
n
V D lKm f .xij ; yij /A:
m;n!1
i D1 j D1

Definicin 6.1 La integral doble de f sobre el rectngulo R es


X
m X
n
f .x; y/ dA D lKm f .xij ; yij /A;
m;n!1
i D1 j D1
R

si existe ese lmite existe.


Rij fx i21, x i g 3 f yj21, yj g hsx, yd |x i21 < x < x i , yj21 < y < yj j
0 a x i-1 x i
FIGURE 3
6-Elementos de clculo integral, campos escalares y campos vectoriales j 121
Dividing R into subrectangles
each with area DA Dx Dy. x
If we choose a sample point sx ij*, y ij*d in each Rij, then
y S that lies above each Rij by a thin rectangular box (or co
Rf ijsx ij*, yij*(x
d as
i,yjshown
) in Figure 4. (Compare with Figure 1
d height of the box times the area of the base rectangle:

yj (x *ij ,y *ij ) f sx ij*, yij*d DA


y yj-1
If we follow this procedure for all the rectangles and add
ing boxes, we get an approximation to the total volume o
c m n
(x *,y*) 3 V< o o f sx ij*, yij*d DA
i1 j1

0 a x i-1(See
x i Figure 5.) This
b double
x sum means that for each sub
FIGURE 3 chosen point and multiply by the area of the subrectang
R into subrectangles x
z z
If we choose a sample point sx ij*, y ij*d in each Rij, then we can approximate the part of
S that lies above each Rij by a thin rectangular box (or column) with base Rij and height
f sx ij*, yij*d as shown in Figure 4. (Compare with Figure 1.) The volume of this box is the
height of the box times the area of the base rectangle:

f sx ij*, yij*d DA f(x *ij , y *ij )


0 0
c
a
If we follow this procedure for all the rectangles and add the d of
volumes the correspond-
y
ing boxes, we get an approximation to the total volume of S:
b
x m n
x
3 V< o o f sxRij*, yij*d DA
i1 j1
ij

FIGURE 4 FIGURE 5
Figura 6.3: Divisin o mallado de R. Stewart [2015]
(See Figure 5.) This double sum means that for each subrectangle we evaluate f at the
chosen point and multiply by the area of the subrectangle, and then we add the results.
Copyright 2016 Cengage Learning. All Rights Reserved. May not be copied, scanned, or duplicated, in whole or in part. Due to electronic rights, some third party content may be suppre
Editorial review has deemed that any suppressed content does not materially affect the overall learning experience. Cengage Learning reserves the right to remove additional content at any ti

Teorema 6.1 Teorema de Fubini. Si f esz continua en el rectngulo R D f.x; y/ 2


40621_ch15_p01_hr_1027-1043.indd 1029
R2 j a  x  b; c  y  d g entonces
Z b Z d Z d Z b
f .x; y/ dA D f .x; y/ dy dx D f .x; y/ dx dy:
a c c a
R
f(x *ij , y *ij )
0
En
c general, esto es cierto si se supone que f est acotada en R, f es discontinua slo
d de curvas y las integrales existen.
en un nmero finito
y y
Se debe a la formulacin que hizo Guido Fubini, Venecia, 19 de enero de 1879-Nueva
x
York, 6 de junio de 1943.
R ij

FIGURE 5

ng. All Rights Reserved. May not be copied, scanned, or duplicated, in whole or in part. Due to electronic rights, some third party content may be suppressed from the eBook and/or eChapter(s).
suppressed content does not materially affect the overall learning experience. Cengage Learning reserves the right to remove additional content at any time if subsequent rights restrictions require it.

4/10/15 11:45 AM
122 j 6-Elementos de clculo integral, campos escalares y campos vectoriales

6.1 Integrales de lnea


La integral de lnea es una integral similar a la definida en un intervalo a; b pero cuya
funcin es evaluada sobre una curva C . En el caso de una curva cerrada en dos dimen-
siones, o del plano complejo, tambin se denomina integral de contorno.
Los ejemplos prcticos de su utilizacin estn en el clculo de la longitud de una
curva en el espacio, longitud o peso de un cable tendido en el espacio que une dos
puntos, o tambin en el clculo del trabajo que se realiza para mover algn objeto a lo
largo de una trayectoria teniendo en cuenta campos de fuerzas (descritos por campos
vectoriales) que acten sobre dicho objeto.
Para modelizar y simular estas y otras realidades fsicas, econmicas y sociales que
nos rodean, es natural trabajar con magnitudes escalares y vectoriales que representan
fuerzas y otras magnitudes de regiones conexas planas, o del espacio al que estamos
habituados.
Definicin 6.2 Un campo escalar es una funcin real de varias variables f W A 
Rn ! R que a cada punto de su dominio le asigna el valor que toma una determinada
magnitud escalar en dicho punto. Ejemplos de estos son la temperatura, la densidad, la
altura de un cuerpo, en nuestro espacio tridimensional. Si un campo escalar no depende
del tiempo se denomina estacionario.

Definicin 6.3 Un campo vectorial es una funcin vectorial de varias variables F W


A  Rn ! Rn que a cada punto de su dominio le asigna el vector correspondiente
a una determinada magnitud vectorial que acta en dicho punto. Representa la distri-
bucin espacial de una magnitud vectorial. Ejemplos son los campos elctricos, los
gravitatorios, los del movimiento del viento, las corrientes ocenicas, los flujos de un
fluido, del calor, etc. Si un campo vectorial no depende del tiempo se denomina esta-
cionario. En los campos vectoriales se definen las lneas de fuerza o lneas de campo,
como las curvas tangentes en cada punto a los vectores definidos en ellos.
Un campo vectorial en un dominio tridimensional se puede definir como F.x; y; z/ D
M.x; y; z/ i C N.x; y; z/ j C P .x; y; z/ k. Es continuo si lo es cada una de las funcio-
nes o campos escalares que lo conforman, M , N y P ; es derivable si lo es cada una
de las funciones. En el caso bidimensional, los vectores tendran la forma F.x; y/ D
M.x; y/ i C N.x; y/ j:
Estos conceptos tienen sentido fsico si n D 2 o n D 3. En ocasiones los campos
vectoriales se refieren a F W A  Rn ! Rm , siendo en general m n.
Tambin son campos vectoriales los vectores T tangentes y los N normales a lo largo
de una determinada curva en el espacio, el de vectores gradiente de una funcin escalar
f .x; y; z/ a un determinado nivel, etc. En la figura 6.4 se ilustran algunos ejemplos de
campos vectoriales.
Empezamos con una curva C D f .x; y; z/ definida por las ecuaciones paramtricas

x D g.t /; y D h.t /; z D k.t /; a  t  b


16.2Vector Fields and Line Integrals: Work, Circulation, and Flux Generally, a vector
A vector field on a three
Figure 16.8Gravitational
Vectors in anda electric forces have both a direction and a mag
6-Elementos de clculo
sentedintegral, campos
by a vector escalares
at each y campos
point in theirvectoriales j 123 a F(x,
domain, producing vect
gravitational field point toward
we show how to compute the work done inThe fieldan
moving continuous
is object throug
the center of massa linethat gives
integral the the vector field. Weferentiable
involving also discussif each of thfi
velocity
field representing the velocity of a flowingtwo-dimensional
source of the field. vectors
fluid in its domain. A li
to find the rate at which the fluid flows along or across a curve with

We encountered ano
Vector Fields normal vectors N for a
Suppose a region in the plane or in spacecurve r(t) theybymight
is occupied hav
a movin
water. The fluid is made up of a large number of particles, and a
Figurehas
particle 16.7 Streamlines
a velocity v. Atin different
a points of the region at a gi
contractingcan
velocities channel.
vary.The
We water speedsofupa velocity Ifvector
can think we attach
beingthe gra
attach
Figure 16.6 Velocity vectors of a
as therepresenting
fluid channel narrows
the and of a particle level
the velocity
velocity at thatsurface of thea flui
point.Figure
Such fun1
avectors
vectorincrease 16.6 shows a velocityattach
in length.
field. Figure vectorthe velocity
field vecto
obtained f
an airfoil in a wind tunnel. Figure 16.7 shows a vectorvector field offiel
flow around an airfoil in a wind tunnel.
vel
streamlines of water moving through a contracting channel. arrows sho
Vecto
ated with forces such as gravitational attraction (Figure 16.8), and
electric fields, and there are also purely mathematical fields.
Generally, a vector field is a function that assigns a vector to e
A vector field on a three-dimensional domain in space might have y
F(x, y, z) = M(x, y, z)i + N(x, y, z)j + P(x, y,
M16_THOM8960_CH16_pp938-1032.indd 945

f (x, y, z) = c The field is continuous if the component functions M, N, and P a


ferentiable if each of the component functions is differentiable. Th
two-dimensional vectors could look like
Figura 6.4: Distintos camposFigure 16.10
vectoriales: The
El flujo de field
viento alrededorF(x,
dey)un= ala,
M(x,ely)iagua
+ N(x, y)j.
al pasar por el estrechamientoofde
gradient
un canalvectors on agradiente rf de una superficie
y los vectores
We encountered another type of vector field in Chapter 13. Th
f .x; y; z/ D c surface (x, y, z) = c.vectors N for a curve in space both form vector fields alo
normal
curve r(t) they might have a component formula similar to the velo
v(t) = (t)i + g(t)j + h(t)k.
Figure 16.7 Streamlines in a
pues puede ser conveniente pensar en C y en tIfcomo
contracting channel. The water speeds up
la trayectoria de un objeto en el
we attach the gradient vector of a scalar function (x,
tiempo y en espacio.
as the channel narrows and the velocity level surface of the function, we obtain a three-dimensional field
Tambin vectors
se puede definir
increase z attach
in length.por la ecuacin vectorial r.t/vector
the velocity D g.tto each h.tof/ jaFigure
/ i Cpoint Cflowing k,16.11
k.t/fluid, we ha
a  t  b. Los valores de f a lo largo de la curva son los dados por f .g.t /; h.t/; F =k.t + y j of p
x i //.
in the plane. Noti
Para integrar la curva C entre a y b se divide en un arrow isse
nmero de subarcos n como drawn w
x2 + y2 a2
point where F
ve en la figura 6.5, cada uno de longitud sk y representado por el punto dethemuestra
.xk ; yk ; zk /. Si se forma la suma
M16_THOM8960_CH16_pp938-1032.indd 945
z = a2 r2
X
n
Sn D f .xk ; yk ; zk / sk ; Gradient Fields
kD1
The gradient vector
0
y se cumple que f es continuax y las funciones g, h y k tienen derivadas deof greatest
primer increase
orden
gradients
continuas, esta suma tiende a un lmite cuando n tiende a infinito y las longitudes vectors
k a of
cero. y ferentiable function
Definicin 6.4 Si la funcin f est definida en la curva C , paramtricamente dada por
r.t/ D g.t / i C h.t / j C k.t /Figure
k, a  t 16.13
 b, la integral
The flowde oflnea
fluid de f en C es
I X n
in a long cylindrical pipe. The vectors
f .x; y; z/ D2 lKm2 f .xk ; yk ; zk / sk ;
C v = ( a n!1- r ) k inside the cylinder that At each point (x, y,
kD1
supuesto exista ese lmite. have their bases in the xy-plane have increase of , with m
their tips on the paraboloid z = a2 - r 2. The gradient field is
integrals might be more
124 j 6-Elementos de clculo integral, campos escalares y campos vectoriales
curves in the xy-plane be
Suppose that (x, y,
z lying within the domain o
t=b
The values of along the
are going to integrate th
begin, we first partition
r(t) typical subarc has length
C sum

s k
y
(x k , yk , z k )
t=a
x

Figura 6.5: Curva C troceada entre a y b en n porciones de arco


Figure 16.1 The curve r(t) partitioned which is similar to a Rie
into small arcs from t = a to t = b. The (xk , yk , zk) in the kth suba
La longitud de C length
se sabeofque es
a typical subarc is sk . functions g, h, and k have
s
l b    2  2 n increases and the leng
dx 2 dy dz
LD C C dt similar to that for a singl
dt dt dt
a sk S 0 as n S q.
por lo que
s
I l b  2  2  2
dx dy dz
f .x; y; z/ D f .xk ; yk ; zk / C C dt:
C dt dt dt
a

En forma vectorial 938


I Z b
f .x; y; z/ D f .r.t // jr0 .t /j dt:
C a

6.1.1 Integrales de lnea en campos vectoriales


El trabajo realizado por una fuerza constante F moviendo un objeto de un punto P a otro
M16_THOM8960_CH16_pp938-1032.indd 938
!
Q en el espacio es W D F  D, donde D D PQ es el vector de desplazamiento.
Si suponemos que F D P i C Q j C R k es un campo de fuerzas en R3 , como por
ejemplo el campo gravitatorio o un campo elctrico, para calcular el trabajo que realiza
esa fuerza para mover una determinada partcula a lo largo de una curva continua C en
el intervalo paramtrico a; b (que se corresponde con los puntos de la curva P0 y Pn )
se ve en la figura 6.6, se divide ese intervalo en subintervalos de igual longitud, que
se correspondern con subarcos Pi 1 Pi de longitudes si . Cada uno de estos subar-
cos estarn representados por un punto de muestra Pi .xi ; yi ; zj / correspondiente al
parmetro ti .
Si si es pequeo, al moverse la partcula entre pi 1 y pi sigue aproximadamente
la direccin T.ti /, tangente a la curva en Pi . El trabajo que hace F entre Pi 1 y Pi es
F.xi ; yi ; zi /  si T.ti / D F.xi ; yi ; zi /  T.ti /si
field on R could
on x and y.) We wi
6-Elementos de clculo integral, campos escalares y campos vectoriales j 125
a smooth curve C.
z We divide C in
fa, bg into subinte
F(x *i ,y*i ,z *i ) Figure 11 for the t
T(t *i ) arc corresponding
Pi-1 from Pi21 to Pi alo
Pi unit tangent vector
0 Pi21 to Pi is approx
P n
P i*(x *i ,y*i ,z *i ) y
Fsx
x
P
and the total work
Figura 6.6: Integral de lnea en un campo de fuerzas. Stewart [2015]
FIGURE 11

y en el total en toda la curva C , aproximadamente 11


X
n
F.xi ; yi ; zi /  T.xi ; yi ; zi /si
i D1
where Tsx, y, zd is
donde T.x; y; z/ es el vector unitario tangente a C en el punto .x; y; z/. Esta aproxima-
that these approxi
cin ser tanto mejor cuanto ms grande sea n y en el lmite cuanto n ! 1 el trabajo
ser (el lmite de las sumas de Riemann) define the work W
I I namely,
RD F.x; y; z/  T.x; y; z/ ds D F  T ds:
C C

El trabajo es pues la integral de lnea con respecto a la longitud del arco del12
componente
tangencial de la fuerza.
Si la curva se expresa paramtricamente mediate r.t / D x.t / i C y.t / j C z.t / k,
entonces T.t / D r0 .t /=jr0 .t /j por lo que la expresin del trabajo queda
Equation 12 says t
b   Z b component of the f
r0 .t /
l
W D F.r.t //  0 jr0 .t /j dt D F.r.t //  r0 .t / dt:
jr .t /j a If the curve C
|
a
Tstd r9stdy r9std
Definicin 6.5 Sea F un campo vectorial continuo definido en una curva C dada por
la funcin r.t /, a  t  b. La integral de lnea de F a lo largo de C es
I l b I W
F  dr D F .r.t //  r0 .t / dt D F  T ds
C a C

Copyright 2016 Cengage Learning. All Rights Reserved. May not be copied, scanned, or d
Editorial review has deemed that any suppressed content does not materially affect the overall l
126 j 6-Elementos de clculo integral, campos escalares y campos vectoriales

Teorema 6.2 Teorema fundamental de las integrales de lnea. Sea C una curva conti-
nua dada por la funcin r.t /, a  t  b. Sea f una funcin derivable de dos o tres
variables cuyo vector gradiente rf es una funcin continua en C . Entonces
I
rf  d r D f .r.b// f .r.a//:
C

6.2 El teorema de Green


Formulado por George Green, Reino Unido 1793-1841.

Este teorema proporciona la relacin entre la integral de lnea alrededor de una curva
cerrada C y la integral doble, de superficie,
1136 chapterde 16
laregin D contenida en C y adherida
Vector Calculus
a sta. Supondremos que la regin D consiste en todos los puntos interiores a C y los
de esta curva. Tambin que su orientacin es positiva, segn indica la figura 6.7. Este
teorema es la contrapartida del teorema fundamental del clculo para integrales dobles.

y Greens Theorem gives the relationshi


curve C and a double integral over the
assume that D consists of all points insi
D Theorem we use the convention that th
refers to a single counterclockwise trav
C tion rstd, a < t < b, then the region D
(See Figure 2.)
0 x
Figura 6.7: Curva C de orientacin positiva y regin D. Stewart [2015]y
FIGURE 1

Teorema 6.3 Teorema de Green. Sean C , una curva continua por tramos, orientadaD
positivamente y cerrada en el espacio R2 , y D la unin de la regin acotada por C ,
(@D D C ), y la propia C . Si F D .P; Q/ W D ! R2 es un campo vectorial expre- C
sado por F.x; y/ D P .x; y/ i C Q.x; y/ j , en el que las dos funciones P 0y Q tienen x
derivadas parciales continuas en una regin abierta que contiene a D, se tiene que
FIGURE 2 (a) Positive orientation
 
@Q @P
P dx C Q dy D F  dr D dA:
C C @x @xGreens TheoremLet C be a posit
D closed curve in the plane and let D b
continuous partial derivatives on an
Recall that the left side of this equation
is another way of writing y F  dr,
6-Elementos de clculo integral, campos escalares y campos vectoriales j 127

Algunas veces se puede encontrar la notacin



P dx C Q dy en vez de P dx C Q dy:
@D C

Simplemente @D indica el contorno de D, que es la curva C .


Ejemplo 6.1 Sea C el crculo unidad orientado en el sentido contrario a las agujas del
reloj y el campo vectorial
F.x; y/ D y i C x j:
Comprobemos que se cumple el teorema de Green. Primero calculamos el flujo de F
alrededor de la frontera de C . La regin que define C se puede expresar en forma para-
mtrica como
r.t / D cos.t / i C sen.t / j 0  t  2:
Entonces r0 .t / D sen.t / i C cos.t / j y F.x.t /; y.t // D sen.t / i C cos.t / j. Lo que
hace que
Z 2
F  dr D .sen2 .t / C cos2 .t // dt D 2:
C 0

Calculemos ahora la integral doble del teorema de Green en la que P D y y Q D x.


Se obtiene que
 
@Q @P
dA D .1 . 1// dA
@x @x
D D

D2 1 dA
D
D 2  .rea del crculo unidad/
D 2:

Esto hace que


 

@Q @P
F  dr D dA D 2:
C @x @x
D

Definicin 6.6 Si F D P i C Q j C R k es un campo vectorial en R3 y las funciones P ,


Q y R tienen derivadas parciales de primer orden, se define el rotacional de F como el
campo vectorial en R3 que expresa
     
@R @Q @P @R @Q @P
rot F D iC jC k:
@y @z @z @x @x @y
128 j 1148
6-Elementos de clculo integral, campos escalares y campos16
Chapter vectoriales
Vector Calculus

Si se piensa en el operador r como un vector de coeficientes @=@x, @=@y y @=@z, el


producto vectorial de r con el campo vectorial F es Vector Forms of Greens
The curl and divergence opera
i j k
will be useful in our later work
@ @ @
r  F D @x @y @z C, and the functions P and Q s

P Q R sider the vector field F P i 1
     
@R @Q @P @R @Q @P
D iC jC k
@y @z @z @x @x @y
D rot F: and, regarding F as a vector fie

De aqu que
rot F D r  F:
curl F

Definicin 6.7 La divergencia de un campo vectorial F es el campo escalar de tres
Ps
variables
@P @Q @R Therefore
div F D C C :
@x @y @z
Como r D .@=@x/ i C .@=@y/ j C .@=@z/ k, la divergencia de F se puede escribir as scurl Fd  k
div F D r  F
Con estos conceptos, la expresin del teorema de Green puede
and adoptar estas rewrite
we can now dos the eq
nuevas formas

y
s
12 
F  dr D .rot F/  k dA C
C
D

s Equation 12 expresses the


F  n ds D div F.x; y/ dA the double integral of the verti
C
We now derive a similar formu
D
If C is given by the vector e
donde el vector n es el que se indica en la figura 6.8.
rstd
y then the unit tangent vector (se
T(t)
T
r(t) n(t)
D
You can verify that the outwar
C
0 x n

Figura 6.8: Regin


FIGURE 2 D y vector n. Stewart [2015](See Figure 2.) Then, from Eq

y F  n ds y sF
b

C a
 et S be the part of the sphere x 2 1 y 2 1 z 2 25 that lies
42.  L
above the plane
6-Elementos 4. If campos
z integral,
de clculo S hasescalares
constant density
y campos k, find
vectoriales j 129
(a) the center of mass and (b) the moment of inertia about
6.3 El teorema dethe Stokes
z-axis.
3
Este teorema, debido a 43.  A fluid
George has Stokes,
Gabriel 870 kgym
densityIrlanda, and flows with velocity
1819-1903,
2 2
v z i 1 y j 1 x k, where x, y, and z are measured in
metersand the components of v in meters per second. Find
the rate of flow outward through the cylinder x 2 1 y 2 4,
0 < z < 1.

es un versin del de Green para dimensiones superiores a las que se define ste. Relaciona
un integral de superficie en una superficie S con una integral de lnea alrededor de una
curva que acota S .

z Stokes Theorem can


n Whereas Greens The
gral around its plane
n
S surface S to a line int
ure 1 shows an orien
C
the positive orientat
0 if you walkin the pos
x y
n, then the surface w
Figura 6.9: Teorema de Tokes. Superficie S y vector n. Stewart [2015]
FIGURE 1
Stokes Theorem
Teorema 6.4 Teorema de Stokes. Sea S una superficie orientada, continua bounded by a simp
a tramos
y acotada por una curva C continua por tramos, orientada positivamente y cerrada
orientation.en Let F
el espacio R3 . Si F es un campo vectorial en R3 cuyos funciones tienen derivadas
derivatives on an o
parciales continuas en una regin abierta de R3 que contiene a S , se tiene que


C F  dr D rot F  d S.

El caso especial en el que la superficie S sea bidimensional y est en el plano .x; y/,
con orientacin hacia arriba (en el sentido contrario a las agujas del reloj), su vector
unitario normal es k, la integral de superficie es una integral doble y elSince
teorema de Stokes
se convierte en
F  dr y
 
C
F  dr D rot F  d S D .rot F/  k dA
C
S S
Copyright 2016 Cengage Learning. All Rights Reserved. May not be copied, scanned, or duplic
Editorial review has deemed that any suppressed content does not materially affect the overall learnin
130 j 6-Elementos de clculo integral, campos escalares y campos vectoriales

que es la forma vectorial del teorema de Green que se formulaba anteriormente.


7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 131

7 | Sobre el mtodo de los elementos finitos


de Ritz-Galerkin para resolver ecuacio-
nes en derivadas parciales

D ESDE tiempos de C.F. Gauss, Alemania 1777-1855 y W. Thompson, Irlanda 1775-


1833, la equivalencia entre los problemas de ecuaciones en derivadas parciales con
condiciones de contorno y los de clculo de variaciones ha ocupado un puesto destacado
en el anlisis matemtico. En un principio el esfuerzo se concentr en los aspectos teri-
cos de los problemas; posteriormente, dos fsicos, Lord Rayleigh John William Strutt,
Reino Unido 1842-1919 y Walther Ritz, Suiza 1878-1909,

independientemente al parecer, concibieron la idea de utilizar esa equivalencia para cal-


cular numricamente soluciones de problemas habituales de fsica mediante la sustitu-
cin de los problemas de clculo de variaciones por otros ms simples de obtencin de
extremos con un nmero finito de parmetros por determinar.
Sus mtodos atrajeron pronto a ingenieros y fsicos los principios fsicos de la me-
cnica son ms sugestivos que las ecuaciones diferenciales y se empezaron a aplicar
a muchos problemas cercanos. El resultado era lgica consecuencia del esquema con-
ceptual de cmo se tratan en anlisis matemtico y en muchos aspectos de la vida
cotidiana los problemas difciles: Un problema P con solucin S se reemplaza por
otro ms o menos relacionado o prximo, Pn , ms simple de resolver, cuya solucin es
Sn . Luego se mejora la aproximacin Pn de P de tal forma que la solucin Sn , paso a
paso, tienda a la deseada S . Lo esencial es escoger la sucesin de aproximaciones Pn de
una manera adecuada.
Una de las cuestiones ms interesantes y con ms posibilidades de futuro que con-
templan las aplicaciones de las matemticas para simular y resolver muchos problemas
de la vida cotidiana es el de utilizar modelos matemticos expresados en forma de ecua-
ciones diferenciales e integrales que reproducen procesos y fenmenos complejos de la
fsica y otras ciencias naturales y sociales cuyos orgenes y evolucin suelen estar distri-
buidos en el tiempo y en el espacio. Se modelan de esta forma la propagacin del sonido
o del calor, la electrosttica, la electrodinmica, la dinmica de fluidos, la elasticidad, la
132 j 7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales

mecnica cuntica, las emisiones de contaminantes, los fenmenos meteorolgicos, la


valoracin de opciones y derivados financieros y muchos otros. El enfoque para resol-
verlos de forma prctica sigue exactamente el principio enunciado ms arriba.

La idea esencial que seguiremos en estas notas es la de convertir el problema


con ecuaciones diferenciales, integrales o ecuaciones en derivadas parciales,
suponiendo que tiene solucin con unas determinadas caractersticas, en uno
formulado en trminos de clculo de variaciones de funciones continuas
la minimizacin de un funcional para as caracterizar en qu condiciones
se da una solucin u ptimo del mismo. Luego se discretiza ese problema
continuo con un nmero infinito de grados de libertad mediante un problema
discreto, o sistema de ecuaciones, con un nmero de variables finito y ms
fcil de resolver y se resuelve mediante alguna de las diversas tcnicas que
existen para ello.

Cuando se empieza a trabajar y aprender mtodos numricos para resolver proble-


mas matemticos el de las diferencias finitas sigue ideas muy intuitivas: simplemente
se aproxima una derivada de una curva en un punto de ella por una lnea secante. Si se
estudia el mtodo del volumen finito, tambin su idea es bastante sencilla: cada elemento
de volumen es simplemente un pequeo equilibrio del flujo o de fuerzas. El mtodo de
los elementos finitos sigue esa senda ms o menos, con alguna pequea modificacin.
La base matemtica para el mtodo de los elementos finitos se encuentra en el entorno
de los espacios de Hilbert. Un espacio de Hilbert es una manera de tratar una funcin
como un vector, por lo que podemos hacer algunos trucos de matemticas vectoriales
con l. Recordemos que un vector es una serie de valores, o escalares, multiplicados por
un conjunto de vectores de una base ortogonal (como los vectores unitarios que definen
la direcciones x, y y z, o los i , j y k). Podemos utilizar una tcnica paralela para definir
una funcin. Primeramente seleccionamos un conjunto de funciones de base en vez de
aquellos vectores (esas funciones deben ser ortogonales entre s) y luego definimos la
funcin original como una suma de unos coeficientes multiplicados por las funciones de
la base: de esta forma
X1
uD k k ;
kD1

donde cada una de las k es una funcin de la base.


El siguiente paso es convertir nuestra ecuacin diferencial en algo llamado su for-
mulacin dbil. Esto se hace bsicamente multiplicando por una funcin de prueba y
luego integrando en el espacio. Sin entrar en los detalles de momento, se trata de hacer
lo mnimo necesario para convertir nuestra ecuacin diferencial en algo en lo que poda-
mos utilizar nuestras matemticas de espacios vectoriales. Esencialmente, donde exista
una forma de "producto interior", en nuestro caso con funciones como la de prueba en
vez de vectores, y la solucin. Este producto interior ser una integral y podremos usar
integracin por partes para convertirlo en formatos ms manejables.
7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 133

FEA Fundamentals
Despus nos desharemos de alguna manera de la abstraccin empleada y comproba-
remos que realmente
Define estamos tratando con un espacio vectorial de dimensin finita: los
the domain
vectores funcin no son infinitos ni estamos sumando infinitos trminos.
FEA Fundamentals
Discretize the domain

Figura 7.1: Discretizacin en malla de una pieza de geometra sencilla

Este proceso es lo que se entiende por discretizacin en las tcnicas de los elementos
finitos. La discretizacin que se utiliza est determinada por una malla o retcula (una
retcula de por ejemplo 20  20 dara como resultado 441 funciones base nicas) mesh
como la de la figura 7.1 y normalmente se emplean dos funciones de base a cada lado
de un elemento de la malla.
Con esas funciones de base la solucin de nuestra ecuacin diferencial se represen-
tara de esta manera
X n
u0 D k k :
kD1
La nica diferencia con la expresin anterior es el lmite superior del sumatorio.
El siguiente paso es hacer que nuestra funcin de prueba sea una funcin de base.
Tambin habr que asegurarse que las funciones base no se superpongan, lo cual ga-
rantiza el que sean ortogonales como pretendamos antes y nos permite aproximar ms
fcilmente la solucin en el dominio de inters. Las funciones de base que se suelen usar
son polinomios (especialmente polinomios lineales o cuadrticos).
Despus de lo que puede parecer que es complicar el problema original agregando
toda esta abstraccin y matemticas para llegar a lo que hemos llegado, qu hemos
conseguido realmente? Pues convertir el problema en una ecuacin algebraica matricial
sencilla para poderlo resolver por medio del lgebra que conocemos. Si el problema
fuese lineal, simplemente tendremos que resolver la ecuacin Ax D b.
Para un problema simple como el de la ecuacin de Poisson

@2 u @2 u
u.x; y/ D 2
C 2 D f .x; y/;
@x @y

por Simon Denis Poisson, Francia, 1781-1840. la matriz A es muy fcil de calcular y se
denomina la matriz de rigidez en homenaje a los principios de las tcnicas de elementos
134 j 7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales

finitos en problemas de elasticidad. Esta matriz muy dispersa (con pocos coeficientes
distintos de cero) y diagonal dominante est formada por el producto interior de las
funciones de base con ellas mismas, multiplicadas si es el caso por la constante que
aparezca en la ecuacin original. El vector solucin de ese sistema se multiplica por el
de las funciones de base y se obtiene la del problema original, o una que se aproxima
mucho a la misma.
Resumiendo, el procedimiento de resolucin del mtodo de los elementos finitos
consta de las siguientes fases u operaciones:
Conversin del problema original de dimensin infinita, mediante las propiedades
de los espacios de Hilbert, en uno similar prximo en un espacio vectorial de
dimensin finita. En ste se estudia la existencia y unicidad de la solucin.
Creacin de una formulacin dbil del problema original con la que podamos usar
las herramientas de producto interior y medida.
Discretizacin del dominio de definicin del problema y eleccin de una base de
funciones que sean ortogonales entre si.
Conversin de los productos interiores entre funciones de base en sistemas lineales
de ecuaciones.
Resolucin de ese sistema lineal resultante mediante tcnicas de matrices disper-
sas.
Las ventajas de este mtodo frente a otros son muchas en bastantes mbitos de la in-
geniera, la ciencia y la investigacin por lo que su extensin y precisin, as como los
algoritmos que emplea, cada vez son ms amplios, ambiciosos y potentes.
Para concretar con cierto detalle los pasos del mtodo, vamos a desarrollar el estu-
dio de un problema preciso habitual. Seguiremos esencialmente el trabajo de Francisco
Javier Sayas [2015].

7.1 Solucin de una ecuacin en derivadas parciales


Consideraremos en lo que sigue el siguiente problema de una ecuacin en derivadas
parciales elptica de segundo orden con condiciones de contorno:
u.x; y/ C cu.x; y/ D f .x; y/ dentro de 
u.x; y/ D g0 .x; y/ en la frontera D
@n u.x; y/ D g1 .x; y/ en la frontera N :

Esta forma de formularlo se denomina formulacin fuerte.


La geometra del entorno fsico esquemtico en el que se desenvolver ser tan
simple como la de la figura 7.2, o una generalizacin de ella. En este caso con-
creto es un subconjunto abierto  2 Rd representado por un polgono en el plano
R2 , pegado o adherido en su frontera a la curva que define , dividida sta en
dos partes: la que define D , que materializan unas condiciones de contorno de
1.1 The physical domain
7-Sobre
Theelfirst
mtodo
thingdewe
loshave
elementos finitos is
to describe dethe
Ritz-Galerkin
geometry para
(the resolver
physicalecuaciones
setting ofen derivadas
the parciales
problem). j 135
You have a sketch of it in Figure 1.1.

D
N

Figura 7.2: Dominio de definicin  y condiciones de contorno


Figure 1.1: The domain and the Dirichlet and Neumann boundaries

We are thus given a polygon in the plane R2 . We call this polygon . Its boundary
is a closed polygonal curve . (There is not much difference if we suppose that there is
Dirichlet por Johann Peter Gustav Lejeune Dirichlet, Alemania 1805-1859
3

y la N , con condiciones de contorno de Neumann por Karl Gottfried Neu-


mann, Alemania 1832-1925. En trminos fsicos, las condiciones de Dirichlet
determinan unos posibles desplazamientos fsicos de esa frontera, mientras que las
de Neumann unas posibles tensiones mximas o mnimas.
La ecuacin en derivadas parciales propiamente dicha, la primera en la formula-
cin, se denomina habitualmente ecuacin difusin-reaccin. El trmino que re-
presenta la difusin es u y el de reaccin cu, cuando c > 0. La constante c es
no negativa; en principio puede adoptar los valores 0 1.
La funcin escalar u.x; y/ W R2 ! R, definida en el dominio , es la incgnita
de este problema.
La funcin f .x; y/ est definida en  y se puede considerar como una densidad
superficial de fuerzas.
Las dos funciones que expresan las condiciones de contorno, g0 .x; y/ y g1 .x; y/,
estn definidas en dos partes diferentes de la frontera. La funcin g0 deber ser
continua; la g1 puede ser discontinua.
El smbolo @n designa la derivada normal hacia afuera, es decir

@n u D ru  n;

donde n es el vector unidad hacia afuera en puntos de la frontera y ru es el


gradiente de u. Supondremos que existe.
136 j 7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales

7.1.1 El problema en forma dbil o variacional


Siguiendo cada uno de los pasos de la estrategia enunciada para resolver este problema,
vamos a formularlo de una forma diferente de la original denominada forma dbil o
forma variacional.
Para ello utilizaremos el teorema de Green, a menudo denominado primera frmula
o identidad de Green, derivada del teorema de la divergencia, que no es sino una forma
de integracin por partes. Aplicado a nuestro caso dice que
Z Z Z
.u/ v C ru  rv D .@n u/ v:
 

La funcin v es una funcin de prueba, continua, en principio definida en  D  [ .


En esa expresin hay dos tipos de integrales: las dos del miembro de la izquierda son
integrales de superficie, en el dominio . La del derecho es una integral lineal en el borde
o frontera . Hemos prescindido de los diferenciales correspondientes para compactar
la notacin. El punto de la segunda integral del miembro de la izquierda se refiere al
producto interior de dos vectores, es decir ru  rv D @u @v
@x @x
C @u @v
@y @y
.
El resultado sera aplicable tambin a tres dimensiones: las dos integrales de la iz-
quierda seran de volumen; la de la derecha de superficie.

Figura 7.3: Regin o volumen V acotada por la superficie o frontera S D @V con la


normal a la superficie n

La identidad expresada es una consecuencia del resultado del teorema de la diver-


gencia que dice que para un subconjunto V 2 Rn en el caso de tres dimensiones V
representa un volumen como el de la figura 7.3, en principio compacto, de superficie,
o borde, S continua a trozos (expresada por @V D S ), si F es un campo vectorial con
derivadas parciales de primer orden continuas definido en un entorno de V , se cumple
que
.r  F/ d V D .F  n/ dS:
V S
Aplicado a una funcin escalar f W Rn ! R y un vector constante c distinto de cero

c  rf d V C f .r  c/ d V D .cf /  d S;
V V S
7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 137

donde d S expresa de forma compacta ndS .


Haciendo f D ru y c D v se tiene la expresin anterior de la primera identidad de
Green.
Si sustituimos u D f cu en la expresin obtenida a partir de la identidad de
Green en donde se integra en  y que @n u D g1 en N , despus de reordenar un poco
se llega a
Z Z Z Z Z
ru  rv C c uv D fv C g1 v C .@n u/ v:
   N D

Como no sabemos el valor de @n u en D imponemos que la funcin v sea cero en esa


parte de la frontera o borde: v D 0 en D . A partir de ah,
Z Z Z Z
ru  rv C c uv D fv C g1 v; si v D 0 en D :
   N

La expresin del miembro de la izquierda es lineal en las funciones u y v. Es una forma


bilineal de las variables u y v. La de la derecha es lineal en v. Todava no hemos hecho
uso de la condicin de Dirichlet en la frontera, u D g0 en D .
La formulacin dbil del problema queda por fin as:
u D g en D Z
Z 0
R R
Determinar una funcin u tal que: ru  rv C c uv D  f v C N g1 v;
 
para todo v tal que v D 0 en la frontera D :
En esta formulacin la condicin de Dirichlet desplazamientos dados se impone
como una condicin aparte que ha de cumplir la funcin de prueba v. Se denomina
condicin esencial de borde o frontera. La condicin de Neumann fuerzas normales
aparece como una condicin de frontera natural dentro de la formulacin del problema.
Como indicbamos anteriormente, la funcin de prueba v chequea la ecuacin que
satisface u. Juega un papel de funcin de ponderacin para comprobar el comportamien-
to medio de la ecuacin. En alguna referencia interesante se la denomina desplazamiento
virtual para enfatizar que no es una incognita sino algo utilizado para formular el pro-
blema de esta manera: mediante desplazamientos virtuales de la realidad, si se llega a
conocer.

7.1.2 Espacios de trabajo


Hasta ahora hemos dado por hecho que el contexto matemtico donde se desenvuelve
este problema y las formulaciones que estamos utilizando cumplen una serie de requisi-
tos matemticos que permiten su existencia y solucin. Vamos a formalizarlo un poco.
El primer espacio que estamos utilizando es el espacio vectorial de las funciones al cua-
drado integrables en , es decir,
 Z 

2
L ./ D f W  ! R jf j < 1 : 2

138 j 7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales

Como vimos en la seccin dedicada a espacios vectoriales, la definicin requiere la in-


tegral de Lebesgue,
R la mtrica o medida de Lebesgue y el espacio de Lebesgue. Sim-
plificadamente, si  f .x/ dx es la integral de Lebesgue de f .x/ y se define la norma
R
kf kLp ./ D .  f p dx/1=p , para 1  p < 1, los espacios de Lebesgue son

Lp ./ D f .x/ W kf kLp ./ < 1 :

El segundo es el espacio de Sobolev por Sergi Lvvich Sobolv, Rusia 1908-


1989. Es une espacio vectorial de funciones dotado de una norma que es combinacin
de normas Lp de la funcin y de sus derivadas hasta un orden dado. Formalmente para
dos dimensiones es
 
@u @u
H 1 ./ D u 2 L2 ./ ; 2 L2 ./ :
@x1 @x2

Las derivadas de este espacio se entienden en un sentido dbil que hagan que el espa-
cio sea completo si toda sucesin de Cauchy en l tiene lmite y por lo tanto sea
un espacio de Banach. En sentido dbil no es sino una generalizacin del concepto de
derivada a funciones no necesariamente derivables pero si integrables localmente en el
sentido de Lebesgue en un dominio dado  de Lp ./.
La norma correspondiente de este espacio completo es
Z Z 1=2 Z Z Z !1=2
@u 2 @u 2
kuk1;D 2
jruj C juj2
D C C juj2
;
   @x1  @x2 

denominada en ingeniera norma de energa. Las funciones que usan esta forma fini-
ta son funciones de energa finita. Intuitivamente, un espacio de Sobolev es un espacio
de funciones con derivadas de orden suficiente para un dominio de aplicacin determi-
nado y equipado con una norma que mida adecuadamente tamao y regularidad en las
funciones. Un subespacio de inters de ese espacio H 1 ./ es

H1D ./ D v 2 H 1 ./ jv D 0 en D :

Establecido todo este aparato matemtico, la formulacin dbil del problema original
queda as:
Determinar una funcin u 2 H ./ tal que 1

u D g0 en D Z
Z Z Z
ru  rv C c uv D fv C g1 v; para todo v 2 H1D ./:
   N

La condicin que se impone a la funcin de prueba, v 2 H1D ./, es la misma que

v 2 H 1 ./ tal que v D 0 en D ;


7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 139

lo que quiere decir que v est en el mismo espacio de la funcin que se busca u pero
satisface una versin homognea de la condicin esencial de borde o frontera.
Los datos del problema estn en los siguientes espacios f 2 L2 ./, g1 2 L2 .N /
y g0 2 H 1=2 .D /. El segundo espacio restringe el dominio de las integrales en la l-
nea que marca N en vez de en . Que g0 2 H 1=2 .D / quiere decir que existe al
menos una funcin u0 2 H 1 ./ tal que u0 D g0 en D . De n hecho, todas las dems
o
que cumplen esta condicin pertenecen a u0 C HD ./ D u0 C vjv 2 H1D ./ D
1

w 2 H 1 ./jw D g0 en D . Que g0 pertenezca a H 1=2 .D / significa que no se busca
la solucin en el conjunto vaco.

7.1.3 Discretizacin del problema en un subespacio de elementos fi-


nitos lineales
Como venimos anunciando, la resolucin del problema que estudiamos con el concur-
so de elementos finitos est basada en la aproximacin, debida a Boris Grigoryevich
Galerkin, Rusia 1871-194,

del espacio H 1 ./ mediante funciones polinomiales sencillas por tramos o trozos. Esto
transformar el espacio original de dimensin infinita en un subespacio de dimensin
finita de funciones admisibles fciles de obtener.
Para conseguirlo se utiliza una particin del dominio de clculo  en subdominios,
a los que se denomina mallado. El ms sencillo es aquel en el que  es un intervalo de
la recta real, por ejemplo el abierto .0; 1/, en el que se tiene la particin 0 D x0 < x1 <
   < xn D 1 dividida en subintervalos Ij D .xj 1 ; xj / de longitud hj D xj xj 1 ,
j D 1; : : : ; n. Si h D mKax hj y Vh es el espacio lineal de funciones v tal que v 2
C 0 .0; 1/, vjxi 1 ;xi es un polinomio lineal, i D 1; : : : ; n, perteneciente por tanto a P1 ,
y v.0/ D 0.
Para cada i D 1; : : : ; n se define la funcin i como una delta de Kronecker,

Leopold Kronecker, Polonia 1823-Alemania 1891


Let 0 = x0 < x1 < ... < xn = 1 be a partition of [0, 1], and let S be the
linear space of functions v such that
140 j 7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales
i) v C 0 ([0, 1])
ii) v|[x
de tal forma que
i1 ,x i]
is a linear polynomial, i = 1, ..., n, and
(
iii) v(0) = 0. 1 si i D j
We will see later that S iV D ijeach
.xj. /For D i = 1, .., ;n dene by the require-
0 si i j i
ment that i (xj ) = ij = the Kronecker delta, as shown in Fig. 0.1.
segn se indica en la figura 7.4.
0.4 Piecewise Polynomial Spaces 7
i
0.4 Piecewise Polynomial Spaces The Finite Element
Method
Let 0 = x0 < x1 < ... < xn = 1 be a partition of [0, 1], and let S be the
linear space 0
of functions v such that xi 1
i) v C 0 ([0, 1]) Figura 7.4: Funcin de base lineal por tramos
ii) v|[xi1 ,xi ] isFig. a linear polynomial,
0.1. piecewise lineari basis
= 1, ..., n, andi
function
Se tiene que f i W 1  i  ng es una base de Vh . El conjunto fi g es una base nodal
iii)
de Vv(0) = 0.
h y fv.xi /g son los valores nodales de una funcin v. Los puntos .xi / se denominan
We will
nodos
(0.4.1) see later{that
o nudos.
Lemma. i : 1S i V .n}For is each i =for
a basis S.n dene i by the require-
1, ..,
ment that Dadauna(x
i j funcin
) = v
ij 2
= C 0
the.0; el interpolante,
Kronecker
1/,
P delta,o funcin de interpolacin,
as shown in Fig. 0.1.vh 2
Vh de v se obtiene mediante vh D niD1 v.xi /i como se aprecia en la figura 7.5. Si
(0.4.2) Vh ) v D {
v 2Remark. vi . i } is called a nodal basis for S, and {v(xi )} are the nodal
values of a function v. (The points {xi } are called the nodes.)
Vh n
Proof. The set {i } is linearly independent since i=1 ci i (xj ) = 0 implies
cj = 0. To see that it spans S, consider the following:

0
(0.4.3) Denition.
0 n v C ([0, 1]),xithe interpolant vI1 S of v is
Given
determined by vI : = i=1 v(xi )i .
Figura 7.5: Aproximacin mediante vh de una funcin de base lineal por tramos

Clearly, the set {Fig.


i } spans S if the following
0.1. piecewise linear basisisfunction
true. i
Otra particin quizs la ms utilizada consiste en triangularizar un dominio de
dos dimensiones, como , en pequeos tringulos que lo cubran enteramente. En la
(0.4.4)
(0.4.1) Lemma.
figura 7.6 se vev laicorrespondiente
{ :S1 vi
= n}
vIal. isdominio
a basisconfor
el queS.venimos experimentando en
estas notas.
vsimplificar
Proof. vPara I is linear on each
que la[xfrontera
i1 , xio] borde,
and zero at the endpoints,
es una curvahence
(0.4.2) Remark. {i }se issupone
called a nodal basis for,S,deland dominio
{v(xi )} are the nodal
mustpoligonal.
be identically zero.
Si no lo es, primero se le aproxima a un polgono. La triangularizacin con-

values of a function v. (The points
siste en dividir  en un conjunto de tringulos{x } are called the nodes.)
i Th D K1 ; : : : ; Km que no se solapen y
que solo compartan lados completos, o lo que es lo mismo, que ningn
n vrtice de ningn
We will
Proof. nowset
The prove
{ }the followingindependent
is linearly approximation
tringulo caiga eni algn lado de otro. Se cumplir que
since theorem
i=1 cifor the
i (x j ) interpolant.
= 0 implies
cj = 0. To see that it spans S, [
consider  the following: 
(0.4.5) Theorem. Let h = D K D K1x[
max1in i   [ K.mThen
K2x i1 :
0
n v uCuI ([0,
(0.4.3) Denition. Given 1]), the interpolant vI S of v is
K2Th
E Ch u
determined by vI : = i=1 v(xi )i .
7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 141

Figura 7.6: Triangularizacin del dominio 


Figure 1.5: A triangulation of

x
El subespacio Vh de H 1 ./ es ahora 2

 


Vh D funciones v 2 C./vjK es lineal para todo K 2 Th ; v D 0 en ;
K K

donde vjK 2 P1 se refiere a la funcin v restringida


x1 a K. Recordemos que P1 es el
espacio de polinomios lineales del tipo a0 C a1 x1 C a2 x2 , donde los coeficientes a0 , a1
y a2 seran los parmetros de cada tringulo.
Figure 1.6: Two triangles with a common edge
Los parmetros que definirn la funcin v 2 Vh sern los valores v.Ni / de v en los
nodos Ni ; i D 1; : : : ; M de Th excluyendo aquellos en los bordes pues v D 0 en .
There
Los is a particularly
valores de los nodosinteresting aspect of this del
de la triangularizacin basis of Vh that
dominio son makes it especial.
los grados In
de libertad
general if you have a basis of Vh you know that you can decompose elements of Vh as a
que determinan un elemento de Vh . Una numeracin de esos nodos para nuestro dominio
unique linear combination of the elements of the basis, that is,
de trabajo sera la de la figura 7.7. Los nodos se indican mediante el vector xi , donde
i D 1; : : : ; M , el nmero de nodos. XN
uh = uj j
j=1 14
10
5
is a general element of Vh . With this basis, the coefficients are precisely the values of uh
on the nodes, that is, uj = uh (pj ). Hence, the coefficients
11
of
15 uh in this basis are something
6
more than coefficients: there
2 are values of the function on points.

16
12 18
An important result. As you 3 can see,
7
when defining the space Vh we have just glued
together P1 functions 1on triangles. Thanks to the way we have made the triangulation
and to the way we chose the local degrees of freedom, what we obtained was a continuous
8 17
function. One can think, is this4
so important? Could I take something discontinuous? At
this level, the answer is a very load and clear NO!
13 The reason is the following result that
allows us to know whether certain functions
9 are in H 1 () or not.

Theorem. Let uh be a function defined on a triangulation of such that


Figura 7.7: Numeracin de los nodos del dominio 
Figure 1.7: Global numbering of nodes.
14
Si se fija un nodo del dominio y se le asocia el valor 1 y 0 a todos los dems, existe
3

1
142 j 7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales
8 17

una funcin nica, i 2 V4 h , funcin de base de13nodo, tal que


(
9 1 si i D j
i .xj / D ij D ; i; j D 1; : : : ; M:
0 si i j

El aspecto de una de estas funciones es el de la figura 7.8. Si un tringulo K no tiene a


Figure 1.7: Global numbering of nodes.
i

xi

Figura 7.8: Grfica de la funciones de base de los nodos del dominio 


Figure 1.8: The graph of a nodal basis function: it looks like a camping tent.
xi como uno de sus vrtices, i es cero en todo el tringulo pues el valor de la funcin
en todos sus vrtices es cero. El soporte por tanto de i la envoltura del conjunto
restricted
de puntostodonde
eachtriangle it is a polynomial (or smooth) function. Then
i no es cero es la misma que la unin de todos los tringulos que
comparten xi como vrtices. Ver figura 7.9.
uh H 1 () uh is continuous.

here is certain intuition to be had on why this result is true. If you take a derivative of
piecewise smooth function, you obtain Dirac distributions along the lines where there
re discontinuities. Dirac distributions are not functions and it does not make sense to
e if the are square-integrable or not. Therefore, if there are discontinuities, the function
ils to have a square-integrable gradient.

.4 Dirichlet nodes
Figura 7.9: Soporte de dos funciones de base del dominio 
Figure 1.9: Supports of two nodal basis functions

o far we have taken into account the discrete version of the domain but not the partition
Una funcin cualquiera uh 2 Vh se representa entonces como
its boundary into Dirichlet and Neumann sides. We first need some terminology. A
irichlet edge is an edge X M
of a triangle that X M
lies XM
on D . Similarly a Neumann edge is an
uh D uh .xj /j .xi / D uh .xj /j i D uh .xj /j :
dge of a triangle that is contained in N . The vertices of the Dirichlet edges are called
j D1 j D1 j D1
irichlet nodes. The doubt may arise in transitions from the Dirichlet to the Neumann
El conjunto
art of the fi ; iIfDa1;node
boundary. g es una to
: : : ; Mbelongs baseboth
de Vh. N and D , it is a Dirichlet node.
Hasta ahora no hemos tenido en cuenta si los nodos de la frontera estn en el seg-
mento de borde tipo Dirichlet o Neumann. Si tenamos hasta ahora el espacio
15
H1D ./ D v 2 H 1 ./v D 0; en D ;
Figure 1.10: Dirichlet nodes corresponding to the domain as depicted in Figure 1.1

In truth, in parallel to what happens with how the Dirichlet and Neumann boundary
7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 143

ahora nos interesa



VhD D Vh \ H1D ./ D vk 2 Vh vh D 0; en D :
La idea es llevar constancia de qu nodos son Dirichlet Dir y cules no, indepen-
dientes, Ind. En el caso del ejemplo que tratamos,
Dir D f9; 13; 14; 15; 17; 18g
Ind D f1; 2; 3; 4; 5; 6; 7; 8; 10; 11; 12; 16g :
Entonces, un elemento de Vh se podra escribir como
X X
uh D uj j C uj j ; uj D uh .xj /
j 2Ind j 2Dir

y uno de VhD as
X
uh D uj j :
j 2Ind

7.1.4 Reformulacin del problema como un sistema de ecuaciones li-


neales
Recapitulando, el mtodo nos ha hecho llegar a la siguiente formulacin:

u .x / D g .x / 8j 2 Dir
Obtener una funcin uh 2 Vh
h j 0 j
tal que Z Z Z Z
ruh  ri C c uh i D f i C g1 i ; 8i 2 Ind:
   N

Para ello:
Hemos convertido el espacio de Sobolev en el que buscamos la funcin solucin
en uno de dimensin finita, Vh . Es decir, hemos reducido el problema a calcular
uh en los vrtices de una triangularizacin los nodos y a un nmero finito de
incgnitas.
Hemos sustituido las condiciones tipo Dirichlet fijando condiciones a los nodos
Dirichlet, lo que reduce an ms el nmero de incgnitas: a los nodos indepen-
dientes.
Hemos reducido el espacio de prueba de H1D ./ a un subespacio discreto VhD ,
lo que reduce un nmero infinito de pruebas en la formulacin dbil a un nmero
finito de ecuaciones lineales.
Para obtener finalmente el sistema de ecuaciones lineales escribimos uh en trminos
de las funciones de base de los nodos:
X X
uh D uj j C uj j :
j 2Ind j 2Dir
144 j 7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales

Luego sustituimos en esta expresin las condiciones de Dirichlet discretizadas:


X X
uh D uj j C g0 .xj /j :
j 2Ind j 2Dir

Finalmente incorporamos esta expresin en la formulacin variacional discreta:


Z Z Z Z
ruh  ri C c u h i D f i C g1 i ;
   N

linealizando, teniendo en cuenta que


X X
ruh D uj rj C g0 .xj /rj
j 2Ind j 2Dir

y reordenando llegamos a
i Z Z  Z Z
rj  ri C c j j uj D f i C g1 i
   N
j 2Ind
i Z Z 
rj  ri C c j j g0 .xj /:
 
j 2Dir

Este es un sistema de ecuaciones lineales con un nmero de ecuaciones igual al nmero


de incgnitas (# Ind D dim VhD ), que son precisamente los valores de la funcin uh en
los nodos libres de la triangularizacin llevada a cabo.
Hay dos matrices importantes en este sistema de ecuaciones, la matriz de rigideces,
Z
W ij D rj  ri


y la matriz de masas Z
M ij D j i :

Ambas son simtricas. La Rde masas es
R definida positiva. La de rigideces semidefinida
positiva. Si hacemos bi D  f i C N g1 i , i 2 Ind, se llega a
i ! i !
W ij C cM ij uj D bi W ij C cM ij g0 .xj /; i 2 Ind:
j 2Ind j 2Dir

Estas matrices poseen patrones de dispersidad muy pronunciados pues slo interactan
nodos que estn unidos entre si por lados de tringulos. Ello las hacen propicias para
ordenaciones en torno a la diagonal principal. Su manipulacin es sencilla y las ope-
raciones necesarias para resolver los gigantescos sistemas de ecuaciones lineales a que
pueden dar lugar son perfectamente tratables por los ordenadores disponibles actualmen-
te.
7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 145

7.2 Fundamentos de funcionales y clculo de variaciones


Definicin 7.1 Un funcional es una funcin que tiene funciones como argumento a
las que asigna un valor real. Es decir, una funcin cuyo dominio es un conjunto de
funciones.
En la figura 7.10 se esquematiza2 la diferencia entre una funcin ordinaria y un fun-
cional.
Chapter 1: VARIATIONAL CALCULUS OVERVIEW

Input: argument x Output: function


Function value y (dependent
(independent operator
variable) variable)

(a) x f y=y(x)=f(x)
FUNCIONES
Input 1: argument x Input 2: function
(independent y=y(x) (primary Functional Output: functional
variable) dependent variable) operator value J (a scalar)

(b) x f y=f(x) J J(y)=J(x,y)

Input 1: argument x Input 2: function


(independent y=y(x) (primary Functional Output: functional
variable) dependent variable) operator value J (a scalar)
(c)
x f y=f(x) J J(y)=J(x,y,y')

Input 3: derivative
of primary y'=dy/dx
dependent variable
FUNCIONALES

Figure
Figura1.1.7.10:
BlockDiagrama
diagrams that
de illustrate
bloqueskeyquedifferences
ilustra labetween functions
diferencia anden
formal functionals in one dimension.
una dimensin entre
(a) An ordinary function y = y(x) = f (x) of the independent variable x; (b) a functional J [y] = J (x, y) of
una funcin ordinaria y un funcional. (a) Una
 funcin ordinaria y D y.x/ D  f .x/ de
the function y(x); (c) a functional J [y] = J (x, y, y ) of the function y(x) and its derivative y = dy/d x.
una variable independiente x; (b) Un funcional J.y/ D J.x; y/ de la funcin y.x/; Un
funcional J.y/ D J.x; y; y 0 / de la funcin y.x/ y su derivada y 0 D dy=dx
1.2.3. Basic 1D Functional
El funcional bsico unidimensional lineal ms tpico tiene la forma
To keep things simple, in this Chapter we focus on one specific type of functional, called the basic
one-dimensional Zfunctional.
b It has theform (1.2), under additional restrictions:
J.y/ D F x; y.x/; y 0 .x/ dx; x D a; b; a  b; y.a/ D yOa ; y.b/ D yOb :
 b a
 
J [y] = F x, y(x), y  (x) , x = [a, b], a b, y(a) = ya , y(b) = yb . (1.3)
En palabras, a la funcin y D y.x/ est definida en el segmento x 2 a; b, a  b, de la
recta real. Dado un x, y.x/ se supone real y nico. Adems, y.x/ es continua y derivable
por lo the
In words: y 0 .x/ existe
quefunction y = al igual
f (x) que la over
is defined integral enunciada.
the segment x La[a,funcin
b], a debe
b, ofsatisfacer
the real line.
Given x, y is assumed real and unique; that is, y(x) is single-valued. Furthermore y(x) possesses
2 Fuente: http://www.colorado.edu/engineering/CAS/courses.d/AVMM.d/AVMM.Ch01.d/AVMM.Ch01.pdf.
the appropriate smoothness so that y  (x), as well as the integral in (1.3), exist. That function must
satisfy the stated end conditions at x = a and x = b, at which ya = y(a) and yb = y(b) are given.3
Those boundary conditions will be called essential.
146 j 7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales

en x D a y en x D b unas determinadas condiciones de contorno: concretamente,


yOa D y.a/ y yOb D y.b/.
As era cmo la palabra funcional fue utilizada inicialmente en el clculo de varia-
ciones, donde el integrando a ser minimizado deba ser un funcional, aplicada a una
todava desconocida funcin que satisfaca solamente una cierta condicin de contorno,
y condiciones de derivabilidad.
Otro funcional lineal habitual es la funcin delta de Dirac, t f ./ D f .t /, por
Paul Adrien Maurice Dirac, Reino Unido, 1902-1984

que se puede escribir tambin como


Z b
t f ./ D f .x/.x t / dt:
a

Un problema de clculo de variaciones o problema variacional tpico sera el de


encontrar la funcin y 2 a; b ! R que minimiza el funcional anterior, J.y/, con las
condiciones de contorno indicadas.
En varios campos de la ingeniera, la fsica matemtica, el reconocimiento de im-
genes y otros muchos, el clculo de variaciones es un interesante problema matemti-
co consistente en buscar mximos y mnimos (o ms generalmente extremos relativos)
de funcionales continuos definidos sobre algn espacio funcional. Constituyen una ge-
neralizacin del clculo elemental de mximos y mnimos de funciones reales de una
variable. Muchos problemas de este tipo3 son fciles de formular pero sus soluciones
implican a menudo, a su vez, difciles procedimientos de clculo diferencial, los cuales
generalmente suponen usar ecuaciones diferenciales ordinarias Ordinary Differential
Equations, as como las ecuaciones (diferenciales) en derivadas parciales Partial
Differential Equations.
En la figura 7.11 se pueden ver algunos problemas clsicos de funcionales en una
dimensin.
Por regla general, no todas las funciones pueden encajar en un funcional. La figu-
ra 7.12 ilustra grosso modo algunos tipos de funciones permitidas y otras no admisibles.
Si se considera un funcional general
Z x2
I D F .x; y; y 0 / dx
x1

3 Por ejemplo el de encontrar la curva de longitud ms corta que una dos puntos.
1.2 FUNCTIONALS VERS
7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 147

y y y

;;;;;
(a) (b) (c)
Arclength L

;;;;;
A y=y(x) A A
Straight

;;;;;
y(a)=y^a B B Cycloid
1.2 FUNCTIONALS VERSUS
y(b)=y^ b FUNCTIONS

;;;;;
Area A Parabol

x=a x=b x x=a x=b x x=a


y (b) (c)y
Constant functionals used in the examples of ?. (a) ar
Arclength L Figure 1.2. Canonical one-dimensional
gravity g
A A curve; (b) curve arclength, (c) brachistochrone.
Straight line

B Cycloid B
Example 1.1. Area Under Curve. The area subtented by y(x) and the real axis is given by
b)=y^ b Parabola  b
x x=a x=b x x=a A=
x=b x y(x) d x.
a

Figura
one-dimensional functionals 7.11: Ejemplos
used unidimensionales
in the examples de funcionales:
of ?. (a) area (a) rea1.1(b).
underp in Figure debajo de una curva,
R b See Figure 1.2(a). This has the form illustratedRb
urve; (b) curve arclength,
y.x/ (c)
dx; (b) Longitud
brachistochrone. de un arco de curva, 1 C .y 0 .x//2 dx; (c) Curva braquis-
R b q 1C.y
a a
Example
tcrona, 1.2. 0 .x//
Curve
2
dxLength. The length of the curve y(x) between x [a, b] and satisf
a 2gy
The area subtented conditions
by y(x) andisthe
given
realbyaxis is given by  b
 L= 1 + (y  )2 d x.
donde F b
es una funcin conocida con derivadas continuas hasta segundo orden respecto
Aa =
x, y yiny(x) 0 d x.
. El the
ywhich valor de I depender de la trayectoria(1.4)
a
de la funcin entre .x ; y1 / y defi
a + sign of the square root is taken. See Figure 1.2(b). (If this L 1is uniquely
.x2 ; y2 /;theescurve
decir,isdepender de la funcin y.x/ que se escoja.
said to be rectifiable.) This functional has the form illustrated in Figure 1.1(c
m illustrated in Si seisintroduce
no explicitcomo prueba la
onfamilia
y; onlyde
ontrayectorias
Figure 1.1(b).
dependence its slope.
length of the curve y(x) between x [a, b]y.x/ Qand satisfying
D y.x/ Cthe ".x/;
given end
Example 1.3. Brachistochrone. This is illustrated in Figure 1.2(c). A point-mass body is r
 b "time.
donde es unItparmetro
is constrained y .x/ una funcin
to move under thederivable
influenceaof laconstant
que se legravity
pide que / D y a
.x1along
g acting
L = 2 1 + (y ) d x.
.x / Dalong
0, resulta

a curve
2 que
y = se pueden
y(x) that generar
ends at una
B, infinidad
which is lowerde
(1.5) trayectorias
than A. (The para
mass unais pictured
.x/ as a
dada
a sinfigure,
ms que butvariar el parmetro
it is actually a sliding ". Todas
point ellasnopasan
rotation poris.xinvolved.)
1 ; y1 / y The
.x 2 ; ycurve
2 /. Consi-
y(x) is call
oot is taken. deremos path.
See Figure 1.2(b). Z xthis
The traversal
(If L time taken by
is uniquely Z
mass
defined to
bygo thisfrom A to B is given by the functional
integral
x2
 0
2
This functional has the form IQ Dillustrated F .x;iny;
QFigure
yQ 0 / dx1.1(c),
D except F .x;thatyCthere
b "; y C "
0
/ dx
ly on its slope. x1 x1 T B = 1 + (y  )2
A d x.
Q alcanzarn el mismo 2g y
Es evidente que los funcionales I y I
his is illustrated in Figure 1.2(c). A point-mass body is released at A at zero
a valor extremo (valor mximo
o mnimo) cuando
in whch gravity
er the influence of constant " D 0. Desarrollando,
g is the gacceleration
acting along ofy se
gravity.tiene que
This functional
and without friction,fits the form illustrated in Figure 1.1
!an Exercise. An!important feature is to find the trajectory
at B, which is lowerofthanthis A.functional
(The mass is the matter of
is pictured as a rolling
d IQ problem. We disk IQ in the
d 2shall "2
oint no rotation is this is called
involved.) IQ Dthe
The Qcurve
.Ibrachistochrone
/"D0 C y(x) is called C trajectory
"the 2
later
or show C   that the solution of this fas
mass to go from A to a cycloid,
B is given colored
by thered in 1.2(c).
functional d" d" 2
"D0 "D0
 Q
 b que
Para 1 I+sea
Example(y  )extremo cuando
2 1.4. Action es analytical
" D 0 In
Integral. necesario dynamics
que (including both Newtonian and qua
=
TAB functional dlike
x. (1.3), with the integral! taken over a(1.6)
time interval t [ta , tb ] is called the a
a 2g y
F is known as the Lagrangian, dwhich IQ is often denoted by L or L.
D 0:
vity. This functional fits the form illustrated in Figure d "1.1(c). The derivation
"D0
1.2.4.
n Exercise. An important featureAdmissible Functions
is to find the trajectory that minimizes T ;
roblem. We shall later show that the solution of this fastest descent time is
Key question: what sort of function can be fed into a functional? The question is
148 j 7-Sobre el Chapter
mtodo de los 1: VARIATIONAL
elementos CALCULUS
finitos de Ritz-Galerkin OVERVIEW
para resolver ecuaciones en derivadas parciales

(a) (b)
1
y B y
2 1
2
3
A A
y(b)=y^b 3
4
y(a)=y^a y(a)=y^ a 4
5
L CALCULUS OVERVIEW 5

x=a x=b x x=a


(b)
Figure 1.3. Visualization of function admissibity concept as regards (1.3): (a) samp
B B tangent at each point), and essential BC
y(x) over ythat satisfy: C 1 continuity (i.e., unique
1
(b) sample inadmissible functions that violate one or more of the foregoing conditio
2
corners, curve 2 is discontinuous, curve 4 is multivalued, and curve 5 violates the
A
y(b)=y^b 3 y(b)=y^ b
y(a)=y^
function rather
a than just
4 a number. A function that is permissible as input

admissible. The set of5 such functions is the admissible class with respec
x=b x x
The following generalx=b
consideration.x=a guidelines may be offered.
n of functionFigura
admissibity Function
7.12: Muestrario
concept Smoothness.
as de funciones
regards Admissible
admisibles
(1.3): (a) functions
en un
sample admissible funcional: are
(a) usually
functions Funcioneschosen
conti- to have the
1
nuas, C , con un slo
ontinuity (i.e., unique tangent
which at thevalor
each para cadaover
point), and
integration x y que
essentialthecumplen
BC, and las domain
single
problem condiciones
valuedness; de contorno;
makes sense.(b)For example
unctions that Inadmisibles:
violate one orLamore
form 1(1.2)
y laof3the
tienen
the derivadas
foregoing
presence y  means
discontinuas;
conditions:
of lathat
curves 21esand
itdiscontinua
have y admite varios
is3reasonable to ask that y(x) hav
valores4 para
continuous, curve un x; la 4 admite
is multivalued, and curvevarios valores para
5 violates un x essential
the right y la 5 no cumple
BC. las condiciones de
contorno
For this to happen, it is sufficient that y (x) be piecewise continuous. Requ
domain would be overkill but safe.
number. A function that is permissible as input to a functional is called
End Conditions. Prescribed end values, such as y(a) = y , and y(b) = yb i
Es decir
ch functions the admissible class with respect to the functional under a
is que
a priori.ZAs 2previously
 noted, this  kind  of specification is called an essent
ing general guidelines may bexoffered. @F d yQ @F d yQ 0
Single Valuedness. C requirement dx is D 0:
missible functions are usuallyxchosen 1
d "This
@yQ to have@ytheQ 0 dminimal
" optional.
smoothness for
"D0
It is often stipulated
formulation and analysis. But it must be abandoned for certain problems.
the problem
Dado quedomain makes
Qinvolved
d y=d sense. For
0
que d yQcurves
" D ,closed =d "example, 0 if the
y que
Dorspirals. 4 functional
quitar las tildeshas the
de yQ y de yQ 0 en las
y  means
derivadas dereasonable
that it is F es lo mismo to askquethat
hacery(x)" Dhave 0 segn se requera
integrable ms arriba, la ecuacin
derivatives.
y  (x)
anterior
ficient that beReal
se puede or Complex
reescribir
piecewise as: Values.
continuous. Requiring y(x) C 1isover
If the functional intended
the to model a physi
but safe. should be obvious.
Z x2  Else it is a fielders
 choice re generality.
@F @F 0
= yillustrates
a , and  C 0in dx D
@y = y@y
d end values, such as Figure
y(a)1.3 y(b)admissible  (1.3),
function 0: classes
must for the basicfunctional (1
be satisfied
x1
b
(1) y(x) is real and C 1
ted, this kind of specification is called an essential boundary condition. the function must be
are laid down: [a, b], whence
Integrando por partes el segundo
It is oftentrmino,
continuous first derivatives; (2) satisfy essential BC at both ends; and (3
requirement is optional. stipulated a priori to simplify the
curves drawn in Figure 1.3(a) are admissible in this sense, whereas those
But it must be abandoned Z x2 for certain problems. x2 example,
Z For  those that
x2
see figure@Flegend
0
as@Fto why. d @F
spirals.4  dx D   dx:
x1
0 @y 0 @y x1 dx 0 @y
x1
If the functional is intended
1.2.5. to model
Variation anda Extrema
physical problem, the choice
of a Function
Cuando  D 0 en los extremos la primera expresin del miembro de la derecha de esta
is a fielders choice re generality.
The concept of variation is fundamental since it gives variational calculus it
ssible function classes forwell
of the the known
basicfunctional
concept of(1.3). Three requirements
differential in standard calculus. This is brie
1
7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 149

ecuacin se hace cero. Sustituyendo lo que queda en la anterior se tiene que


Z x2   
@F d @F
 dx D 0:
x1 @y dx @y 0

Cualquiera que sea la funcin .x/ entre los puntos extremos, segn la frmula de Euler-
Lagrange se tiene que
d @F @F
D0
dx @y 0 @y

que es la condicin que debe cumplir y.x/ para ser un mximo o un mnimo: un extremo.
Si en esta expresin se sustituye F por su expresin F .x; y; y 0 / resulta una ecuacin
diferencial de segundo orden en y.x/.

7.2.1 Proposiciones esenciales

Lema 7.1 Lema fundamental del Clculo de Variaciones. Sea M.x/ una funcin con-
tinua definida en el intervalo a  x  b. Supongamos que para cualquier funcin
continua .x/ se tiene que
Z b
M.x/.x/ dx D 0:
a

Se cumple entonces que


M.x/ D 0 para todo x 2 a; b.

Demostracin. Supongamos que M.x/ no es cero en algn punto x0 2 .a; b/. Concre-
tamente que M.x0 / > 0. Por la continuidad de M.x/, existe un > 0 tal que

M.x0 / M.x0 /
< M.x/ M.x0 / < para jx x0 j < con x 2 a; b:
2 2
En consecuencia, M.x/ > M.x0 /=2 en ese intervalo. Escojamos una funcin .x/ tal
que, como se ve en la figura 7.13,
0 si a  x  a1 D mKax.x0 ; a/
.x/ D > 0 si jx x0 j < ; x 2 a; b
0 si mKn.x0 C ; b/ D b1  x  b:

Se tiene entonces que


Z b Z b1 Z b1
1
0D M.x/.x/ dx D M.x/.x/ dx > M.x0 / .x/ dx > 0;
a ai 2 a1
(x) = >0 if |x x0 | < , x [a, b]

0 if min(x0 + , b) = b1 x b.
150 j 7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales
See the Figure 15.17. Then

M( x0 )

M( x0)
2
.x/

a x 0 x0 x 0 + b

FIGURE 15.17
Figura 7.13: Lema fundamental del Clculo de Variaciones
 b  b1  b1
1
0= M (x)(x)dx = M (x)(x)dx > M (x0 ) (x)dx > 0,
lo cual es una contradiccin.
a a1 a1 2
Si M.x0 / < 0 el argumento sera idntico sustituyendo M.x/ por M.x/. Si x0 D a
o x0 D b la demostracin sera casi igual con pequeas modificaciones en la lnea
argumental.

Corolario 7.2 El resultado del Lema 7.2.1 sigue siendo aplicable si
.a/ D .b/ D 0:

Corolario 7.3 Supngase que M.x/ es continua en el intervalo I D a; b y que


f'n .x/g1
nD1 es un conjunto de funciones base. Supngase adems que
Z b
M.x/'n .x/ dx D 0 para n D 1; 2; : : :
a

Se cumple entonces que M.x/ D 0 para todo x 2 a; b.

Lema 7.4 Sea M.x/ una funcin continua en a  x  b. Supongamos que para
cualquier funcin continua .x/, de derivada continua, se tiene que
Z b
M.x/ 0 .x/ dx D 0
a

para .a/ D .b/ D 0. Se cumple as que M.x/ D ct e para todo x 2 a; b:

Lema 7.5 Sea M.x/ una funcin continua definida en el intervalo a  x  b. Su-
pongamos que para cualquier funcin continua .x/, de derivadas continuas al menos
7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 151

hasta segundo grado, se tiene que


Z b
M.x/ 00 .x/ dx D 0
a

para .a/ D .b/ D 0 y  .a/ D  0 .b/ D 0. Se cumple entonces que M.x/ D c0 Cc1 x
0

para todo x 2 a; b, donde c0 y c1 son constantes.


152 j 7-Sobre el mtodo de los elementos finitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales
8-Anlisis de componentes principales j 153

8 | Anlisis de componentes principales


E L anlisis de componentes principales ACP en espaol, PCA en ingls tie-
ne como objetivo representar la informacin de n observaciones de p variables
con un nmero sustancialmente menor de unas nuevas variables construidas como com-
binaciones lineales de las originales. Sirve para hallar las causas fundamentales de la
variabilidad de un conjunto de datos y ordenarlas por importancia. Es uno de los instru-
mentos bsicos del anlisis de datos y del Big_Data que tanto inters terico y prctico
despiertan en la actualidad para explicar multitud de tendencias y comportamientos de
la vida cotidiana.
Tcnicamente el ACP busca la proyeccin del espacio original de variables en un
subespacio en el cual los datos queden adecuadamente representados en trminos de
mnimos cuadrados lineales de unos componentes principales (variables artificiales in-
dependientes entre s), perdindose la menor cantidad de informacin original posible.
Comporta el clculo de la descomposicin en valores propios de la matriz de covarianza
de los datos, una vez centrados en la media de cada atributo. La PCA Es una exten-
sin inmediata de lo apuntado en la seccin 3.3.2, en la pgina 45, dedicada a valores
singulares.
El anlisis de componentes principales fue formulado por Harold Hotelling, EE.UU.
1895-1973.

Sus orgenes se remontan al trabajo sobre ajustes ortogonales por mnimos cuadrados de
Karl Pearson, Reino Unido, 1857-1936.

Como apuntbamos, permite transformar las variables originales de los datos de un pro-
blema, en general correladas, en un nmero menor de nuevas variables incorreladas,
facilitando as la interpretacin de esos datos.
154 j 8-Anlisis de componentes principales

8.1 Algunos conceptos de estadstica


Sea X 1    X n una matriz p  n de n observaciones de p variables. La media de esta
muestra es Pn
Xi
X D i D1 :
n
La desviacin tpica, o estndar,
s
Pn 2
i D1 Xi X
 .X / D :
n
La varianza, medida de la dispersidad de la muestra, es la desviacin tpica al cuadrado,
esto es,
Pn 2
i D1 X i X
Var.X / D :
n
El grado de asociacin lineal ms simple de cada variable con las dems, dos a dos, es
lo que configura la matriz de covarianzas, de dimensin p  p,
Pn  2
iD1 Xi X Yi Y
cov.X ; Y / D D :
n
Si la covarianza entre dos variables es positiva, cuando una de ellas se incrementa la otra
hace lo mismo. Si es negativa, cuando una de ellas se incrementa, la otra decrece. Si es
cero, las dos variables son independientes entre si. Los coeficientes de la diagonal prin-
cipal de la matriz de covarianzas son las varianzas de cada variable individual. La matriz
de covarianzas es simtrica. La varianza total de los datos es la suma de cada varianza
individual por lo que la traza de la matriz de covarianzas es precisamente esa varianza
total. En la figura 8.1 se ilustran unos patrones de datos y las matrices de covarianzas
correspondientes.
La matriz de covarianzas es semidefinida positiva, es decir, x Tcov.X ; Y /x  0 para
cualquier vector x 0.
La covarianza como medida de asociacin tiene el inconveniente de que depende de
las unidades de medida de las variables. Si por ejemplo la covarianza entre la estatura de
una persona, medida en centmetros, y su peso, en gramos, es 200, si se expresa el peso
en kilogramos, la covarianza ser 0;002. Para construir una media adimensional se divide
la covarianza por un trmino con sus mismas dimensiones. Se define as el coeficiente
de correlacin y a partir de l la matriz de correlacin, de dimensin tambin p  p,
es
cov.X ; Y /
corr.X ; Y / D D R:
 .X / .Y /
Esta matriz se utiliza para estandarizar los diversos datos. Es tambin semidefinida po-
sitiva.
8-Anlisis de componentes principales j 155

Figura 8.1: La matriz de covarianzas expresa la forma de los datos. La variabilidad en


torno a la diagonal la determina la covarianza mientras que alrededor de los ejes la define
la varianza

La matriz de covarianzas y la matriz de correlacin estn relacionadas mediante la ex-


presin corr.X ; Y / D D 1 cov.X ; Y /D 1 , donde D es una matriz diagonal construida
con las desviaciones tpicas de las variables.
Una medida global escalar de la variabilidad conjunta de k variables es la varianza
generalizada, que es el determinante de la matriz de covarianzas. Mide aproximadamente
el rea, volumen o hipervolumen ocupado por el conjunto de datos.
La matriz de covarianzas o la matriz de correlacin determinar si existen altas
correlaciones entre las variables y por tanto existe informacin redundante entre ellas,
es decir, una misma informacin vista desde varios perspectivas. Cuanto mayor sea la
variabilidad de los datos (varianza), ms rica la informacin disponible.
Si
1
M D .X 1 C    C X n /
n
O k D Xk
yX M , la matriz de covarianzas es
2 3
O T1
X
6 7
1hO O i6XOT
O n 6 :2
7
7 D 1 BB T :
cov.X ; Y / D X 1X 2    X 6 : 7
n 4 : 5 n
O Tn
X
156 j 8-Anlisis de componentes principales

8.2 Planteamiento del problema matemtico


Se trata de encontrar un subespacio de dimensin menor a p tal que al proyectar sobre
l los puntos de la muestra se conserve su estructura con la menor distorsin posible.
Para conseguirlo se construye una transformacin lineal que determina un nuevo sis-
tema ortogonal de coordenadas para el conjunto de datos original en el cual la varianza
de mayor tamao de los datos define el primer eje primer Componente Principal ,
la segunda varianza el segundo eje y as sucesivamente. Esto se lleva a efecto mediante
la descomposicin espectral de la matriz de covarianzas,

cov.X ; Y / D D U U T ;

donde U , U T U D U U T D I, es una matriz ortogonal p  p formada por los vectores


propios correspondientes a los valores propios 1 ;    p y D diag.1 ; : : : ; p /. Se
cumple que 1      p y que los Componentes Principales son los p vectores fila de
la matriz, p  n, U T B.
El subespacio generado por los k primeros vectores propios es, de todos los posibles
del espacio de dimensin p, el que mejor representa los datos originales en trminos de
mnimos cuadrados lineales.
Si la matriz de covarianzas de los datos es diagonal las varianzas son iguales a los
valores propios de esa matriz y los vectores propios coinciden con los ejes x e y las
covarianzas son cero. Si la matriz de covarianzas no es diagonal, la covarianzas no
son cero pero los valores propios siguen indicando la magnitud de la varianza en las
direcciones ortogonales de los vectores propios, de mayor a menor, que ya no coinciden
con x e y. Esto se ilustra en la figura4 8.2 donde un mismo conjunto de datos est rotado
diversos ngulos para visualizar en qu consiste la matriz de covarianzas. La matriz de
covarianzas, desde el punto de vista del lgebra lineal, representa una transformacin
lineal. El utilizarla en estos algoritmos es como tratar de descorrelar los datos originales
para encontrar sus componentes subyacentes o principales llevar los datos a unos ejes
donde se perciba el menor ruido posible.
Para proceder numricamente con este mtodo y obtener la transformacin que se
busca primero se adaptan los datos originales para tratarlos segn convenga. Luego de
construye la matriz de covarianzas. A continuacin, como esquematiza5 el diagrama de
bloques numricos de la figura 8.3, se puede proceder de dos maneras:
Se calculan los valores propios y los correspondientes vectores propios de la matriz
de covarianzas. Luego se proyectan en esos vectores propios los datos. Una versin
de esta forma de actuar en M ATLAB sera el programa pca1 del cuadro 8.1.
Se calcula la descomposicin en valores singulares de pBn y se obtienen las varian-
zas. El programa pca2 materializa esta variante.
Como ejemplo de introduccin a este anlisis por componentes principales estudia-
mos los datos del cuadro 8.2. En l se presenta informacin sobre pisos construidos por
4 Fuente: http://www.visiondummy.com/2014/04/geometric-interpretation-covariance-matrix/.
5 Fuente: http://mengnote.blogspot.com/2013/05/an-intuitive-explanation-of-pca.html.
8-Anlisis de componentes principales j 157

Figura 8.2: Valores y vectores propios de un mismo conjunto de datos pero rotado ngulos
distintos

10 constructoras distintas en diversos lugares de Espaa. Se trata de considerar slo tres


variables X1 , X2 y X3 . La salida que proporciona una sesin de M ATLAB con los datos
de la tabla y los programas apuntados es la que se puede ver en la figura 8.4.
Como se puede ver en el listado, la matriz de covarianzas de los datos estudiados es
2 3
56;9685 5;1705 30;4775
D 4 5;1705 0;8941 3;64795 :
30;4775 3;6479 18;7641

Los valores propios son D diag.74;3739; 2;1580; 0;0948/.


Los componentes principales de este ejemplo son

P C1 D 0;8714X1 C 0;0853X2 C 0;4832X3 ;


P C2 D 0;4798X1 0;3542X2 0;8027X3 y
P C3 D 0;1026X1 C 0;9313X2 C 0;3495X3 :
158 j 8-Anlisis de componentes principales

Figura 8.3: Esquema de la transformacin del ACP mediante descomposicin en valores


propios y descomposicin en valores singulares

Los porcentajes de variabilidad que explica cada componente principal son


74;3739 2;1580 0;0948
 100 D 97;06 %;  100 D 2;82 % y  100 D 0;12 %:
76;6267 76;6267 76;6267
Con el primer componente, y por supuesto con los dos primeros, sera suficiente para
representar casi perfectamente este conjunto de datos.
Consideremos la distancia eucldea (al cuadrado) entre los individuos
i-esimo y j-esimo, en las nuevas coordenadas:
8-Anlisis de componentes principales j 159

d2Euclid (i, j) = (yi yj )(yi yj ) = (xi T xj T)(T xi T xj )


= (xi xj ) T T (xi xj ) = (xi xj )(xi xj )
function [signals,PC,V] = pca1(data)
% Se analizan datos por Componentes Principales
Ignorando orientaciones, podemos pensar la transformaci
on como
% Datos: data-matriz MxN, M dimensiones y N datos
% signals: matriz MxN de datos proyectados;
on en R .
una rotaci p
% PC: componentes en columnas
% V: Mx1 matriz de varianzas
%
El primero de los nuevos ejes (la primera componente principal) es la
[~,N] = size(data);
mn = mean(data,2); data = data-repmat(mn,1,N); % datos-media
direcci
on a lo largo de la cual la dispersi
on de los puntos-individuos
covariance = 1/N * (data*data) % Matriz covarianzas
[PC,V] = eig(covariance); % Valores y vectores propios
es maxima. Sucesivamente, cada componente principal es aquella
V = diag(V); % Diagonal principal
[~,rindi] = sort(-1*V); % Orden decreciente varianzas
direcci
on, ortogonal a las anteriores, a lo largo de la cual hay
V = V(rindi); PC = PC(:,rindi);
signals = PC*data; % Proyecta datos de origen
dispersion m
axima. end

function [signals,PC,V] = pca2(data)


% Se analizan datos por Componentes Principales
% Datos: data-matriz MxN, M dimensiones y N datos
% signals: matriz MxN de datos proyectados;
% PC: componentes en columnas
% V: Mx1 matriz de varianzas
%
[~,N] = size(data);
mn = mean(data,2); data = data-repmat(mn,1,N); % datos-media
Y = data/sqrt(N); % matriz Y
[u,S,PC] = svd(Y); % Valores singulares
Diplomatura en Estadstica S = diag(S); V = S.* S; % Varianzas
signals = PC * data; % Proyecta datos de origen
end

Cuadro 8.1: Dos programas


Ejemplo de M1: para llevar a 4.2
Problema
ATLAB cabo un anlisis PCA

La Tabla siguiente contiene informaci


on sobre chalets construidos por
diez promotoras que operan a lo largo de la costa espa
nola:
X1 =Duracion media X2 =Precio medio X3 =Supercie media
Construccin
nos)
hipoteca (a (millones euros) (m2 ) de cocina
1 8,7 0,3 3,1
2 14,3 0,9 7,4
3 18,9 1,8 9,0
4 19,0 0,8 9,4
5 20,5 0,9 8,3
6 14,7 1,1 7,6
7 18,8 2,5 12,6
8 37,3 2,7 18,1
9 12,6 1,3 5,9
10 25,7 3,4 15,9

Considerando solamente las variables X y X realizar un an alisis de


Cuadro 8.2: Datos sobre pisos que promocionan 1diversas2constructoras en Espaa
componentes principales.
160 j 8-Anlisis de componentes principales

>> datos=[1 2 3 4 5 6 7 8 9 10;


8.7 14.3 18.9 19.0 20.5 14.7 18.8 37.3 12.6 25.7;
0.3 0.9 1.8 0.8 0.9 1.1 2.5 2.7 1.3 3.4;3.1 7.4 9.0 9.4 8.3 7.6 12.6 18.1 5.9 15.9]

datos =
1.0000 2.0000 3.0000 4.0000 5.0000 6.0000 7.0000 8.0000 9.0000 10.0000
8.7000 14.3000 18.9000 19.0000 20.5000 14.7000 18.8000 37.3000 12.6000 25.7000
0.3000 0.9000 1.8000 0.8000 0.9000 1.1000 2.5000 2.7000 1.3000 3.4000
3.1000 7.4000 9.0000 9.4000 8.3000 7.6000 12.6000 18.1000 5.9000 15.9000

>> [signal PC V]=pca1(datos(2:4,1:10))

covariance =
56.9685 5.1705 30.4775
5.1705 0.8941 3.6479
30.4775 3.6479 18.7641

signal =
-12.3303 -5.3219 -0.4638 -0.2687 0.5154 -4.8597 1.2482 20.0429 -7.4938 8.9318
0.8063 -0.1713 0.4326 0.5136 2.0809 -0.2107 -2.7532 1.6367 0.0756 -2.4105
-0.0723 0.2971 -0.4540 0.6069 -0.0247 0.1397 0.1627 -0.0000 -0.4252 -0.2302

PC =
0.8714 0.4798 -0.1026
0.0853 -0.3542 -0.9313
0.4832 -0.8027 0.3495

V =
74.3739
2.1580
0.0948

>> [signal PC V]=pca2(datos(2:4,1:10))


signal =
-12.3303 -5.3219 -0.4638 -0.2687 0.5154 -4.8597 1.2482 20.0429 -7.4938 8.9318
0.8063 -0.1713 0.4326 0.5136 2.0809 -0.2107 -2.7532 1.6367 0.0756 -2.4105
-0.0723 0.2971 -0.4540 0.6069 -0.0247 0.1397 0.1627 -0.0000 -0.4252 -0.2302

PC =
0.8714 0.4798 -0.1026
0.0853 -0.3542 -0.9313
0.4832 -0.8027 0.3495

V =
74.3739
2.1580
0.0948
>>
Figura 8.4: Sesin de M ATLAB para analizar los datos sobre pisos construidos
9-Nmeros complejos, funciones e integracin j 161

9 | Nmeros complejos, funciones e integra-


cin

L OS nmeros del cuerpo


nmeros negativos,
y problemas en p
p C de lo p
a2 D a
complejos surgen para dar sentido a races de
1 pues as se usan para representar modelos
muchas reas de la ciencia e ingeniera. Para ello se utiliza la unidad
imaginaria i D 1.
Cualquier nmero complejo z D x C yi , donde x es la parte real e y la imaginaria
(ambas reales), se representa geomtricamente
p en el plano complejo como se ve en la
figura 9.1. El mdulo de z, jzj D r D x 2 C y 2 .

Figura 9.1: Un nmero en el plano complejo

Las operaciones elementales con nmeros complejos, si z D a C i b y w D c C id ,


son la suma, zCw D .aCc/C.bCd /i y la multiplicacin, zw D .ac bd /Ci.ad Cbc/.
Como i  i D i 2 D 1, 1i D i y i. i / D 1.
El complejo conjugado de un nmero complejo z D x C iy es zN D x iy. Slo
si z es real se cumple que z D z. Es decir, su imagen en el espejo que define el eje x.
Adems, z C w D z C w, zw D z w y z D z. Estas frmulas se extienden a sumas
y productos de ms de don nmeros complejos y a integrales (recordemos que son el
lmite de una suma de infinitos sumandos), as
Z Z
f .t /g.t / d t D f .t / g.t / dt:

El cociente z=w es
z a C bi
D
w c C di
a C bi c d i
D
c C di c di
.a C bi /.c d i / .ac C bd / C .bc ad /i
D D :
c Cd
2 2 c2 C d 2
162 j 9-Nmeros complejos, funciones e integracin


En su forma polar un nmero complejo se escribe z D re i' D r cos ' C i sen ' ,
p
donde r D x 2 C y 2 y ' D arctan.y=x/. A e i' D cos ' C i sen ' se la conoce como
identidad de Euler.
La circunferencia de radio unidad en el plano complejo es el lugar geomtrico de los
nmeros complejos con r D 1 figura 9.2. Si se multiplican dos nmeros e i y e i
de esa circunferencia,
 
e i e i D cos  C i sen  cos C i sen

D cos  cos sen  sen C i sen  cos C sen cos  :

Reordenando, y recordando que cos  D e Ce


i i i i
2
y sen  D i e 2 e , resulta que
e i. C / D cos. C / C i sen. C /. Por tanto, el producto de dos nmeros complejos
en la circunferencia de radio unidad es otro nmero de la misma circunferencia cuyo
ngulo es la suma de los dos precedentes. 10.1 The Fourier Transform | 469

i
e2 = i
i
e4

e i= 1 + 0i e0= 1 + 0i
x

Figura 9.2: Circunferencia de radio unidad en el plano complejo


Figure 10.2 Unit circle in the complex plane. Complex numbers of the form ei for some

Los nmeros Moivre, z tales que z n unit circle.


angle have magnitude one and lie on the
1 D 0, races n-simas de la unidad, por
Abraham de Moivre, Francia, 1667-1754,

z = a + bi = rei , (10.1)

where r is the complex magnitude |z| = a + b and = arctan b/a.
2 2
The unit circle in the complex plane corresponds to complex numbers of magnitude
r = 1. To multiply together the two numbers ei and ei on the unit circle, we could convert
to trigonometric functions and then multiply:
ei ei = (cos + i sin )(cos + i sin )
= cos
tienen un especial inters cos sin sin
en aplicaciones + i(sin cos + sin cos ).
prcticas:
Recognizing the cos addition formula and the sin addition formula, we can rewrite this as
En la recta de nmeros reales slo hay dos: 1 y 1.
En el plano complejocos(
hay muchos. Por ejemplo,
+ ) + i sin( i es) . una raz cuarta de 1: i 4 D
+ ) = ei(+
p 4
1 Djust
Equivalently, 1/2 the
. add D exponents:
1.
ei ei = ei(+ ) . (10.2)
Equation (10.2) shows that the product of two numbers on the unit circle gives a new
9-Nmeros complejos, funciones e integracin j 163

Estn localizados en la circunferencia del plano complejo de radio la unidad: forman los
vrtices de un polgono regular de n lados con un vrtice en 1 como se ve en la figura 9.3
para n D 5.
 )LIWKURRWVRIXQLW\

L

  

Figura 9.3: Circunferencia de radio unidad en el plano complejo y nmeros de Moivre


para n D 5

Una raz n-sima de la unidad se denomina primitiva si no es una raz k-sima para
k < n. As, 1 es una raz segunda primitiva de la unidad y cuarta no primitiva de ella.
Visto de otra manera, la raz n-sima de la unidad es primitiva, si slo si sus k-
simas potencias, k D 0; 1; : : : ; n 1 son distintas. Las races cuartas de 1 son: 1, 1,
i, i. En el caso de 1 sus potencias de grado 0, 1, 2 y 3 son iguales; no es raz primitiva.
Para i , se calcula que las potencias de grado 0, 1, 2, 3 son, respectivamente, 1, i , 1, i ,
distintas, luego i es una raz cuarta primitiva de 1.
Lema 9.1 Sea ! una raz primitiva n-sima de la unidad y k un nmero entero. En-
tonces (
X
n 1
n si k=n es un entero;
jk
! D
j D0
0 en cualquier otro caso.

Es fcil ver que, para una n cualquiera, el nmero complejo !n D e i 2=n es una
ILOH''URSER[(VFXHOD$B7UDEDMRB(VFXHOD2QH5RRWVYJ
raz n-sima primitiva de la unidad (tambin lo es !n D e i 2=n ). En la figura 9.4 se ve
la raz cuarta primitiva de la unidad, !4 D e i 2=4 , y las otras tres. Son, en general, las
potencias !4k , k D 0; 1; 2; 3. Las !nk se denominan tambin factores twiddle. Se puede
verificar que la raz n-sima de la unidad, ! D e i 2=n , con n > 1, cumple que
1 C ! C !2 C !3 C    C !n 1
D 0;
k or
factors in this context, are then given by n
k
by complejos,
164 j 9-Nmeros n , kfunciones
= 0, ...,n 1
e integracin

i = 3 = 1 4 4
....
...
....
...................
.... ......2/4
... ...
.
42 = 42 = 1 .............................................................................................
.. 1 = 40 = 44
....
....
....
....
..
0 Trigonometric Interpolation and the FFT
..
i = 41 = 43
y

6
4
5 7

4 /4 0 = 8 = 1
x

i2
3 =e 8

Figura 9.4: Raz cuarta primitiva de la unidad !4 D e i 2=4 y las otras tres. Nmeros de
Figure 10.3
Moivre de nRoots
D 8 of unity. The eight 8th roots of unity are shown. They are generated by
= e2/8 , meaning that each is k for some integer k. Although and 3 are primitive
8th roots of unity, 2 is not, because it is also a 4th root of unity.

1 C ! 2 C ! 4 C ! 6 C    C ! 2.n 1/ D 0;
Here is a key identity that we
1 will
C !need
3 later
C! 6 to simplify
C ! 9 C    our
C !computations
3.n 1/
D 0; of the Discrete
Fourier Transform. Let denote the nth root of unity = ei2/n where n > 1. Then
::
1 + + 2 + 3 + + n1 = 0. : (10.3)
n 1 .n 1/2 .n 1/3 .n 1/.n 1/
1 Cidentity
The proof of this ! Cfollows
! C!
from C  C
the telescoping !
sum D 0:
(1 )(1 + + 2 + 3 + + n1 ) = 1 n = 0. (10.4)
Tambin que 1 C ! n C ! 2n C ! 3n C    C ! n.n 1/ D 1 C 1 C 1 C 1 C    C 1 D n:
Since thesi rst
Adems, k esterm on the left
un nmero is not zero, the second must be. A similar method of proof
entero,
shows that
n 1 1 + 2+ 4 + 6 + + 2(n1) = 0,
X n si k=n es entero,
!1j+
k
D
3 +0 en6
+ + + 3(n1) = 0,
9caso.
otro
j D0 ..
.
1 + n1 + (n1)2 + (n1)3 + + (n1)(n1) = 0. (10.5)
The next one is different:
n 2n 3n n(n1)
9-Nmeros complejos, funciones e integracin j 165

9.1 Integracin. Teorema de Cauchy


Las funciones de nmeros reales se integran en intervalos. Las de nmeros complejos en
o sobre curvas y tienen muchas de sus propiedades en comn con las integrales de lnea
de los campos vectoriales
El teorema de Cauchy es una de las piezas esenciales de la teora de integracin de
las funciones de nmeros complejos.
Si hay una curva continua, simple y cerrada en el plano, , la misma separa a ese
plano en tres partes: la curva en s misma, una zona de nominada interior de , que no es
sino una regin abierta y acotada por la propia curva, y la zona exterior a , que es una
regin o conjunto no acotada ver figura 9.5. 20.2 Cauchys Theorem 701

Exterior
y

Interior
x

FIGURE 20.5 Interior and exterior


Figura 9.5: Interior y exterior de una curva
of a closed curve.

Nos referiremos en lo que sigue a una curva simple, continua por tramos, como ca-
mino o ruta. Un camino en un conjunto S es un camino cuya trayectoria y grfica queda
We will refer to a simple, piecewise smooth curve as a path. A path in a set S is a path
enteramente
whose graphdentro
lies indeS.S .
Un conjunto de nmeros complejos est conectado si cualesquiera dos puntos de
S son principio y final de un camino de S . En trminos ms coloquiales esto quiere
decir que desde cualquier punto de S podemos llegar a cualquier otro, tambin de S ,
movindonos a travsnumbers
A set S of complex de algniscamino sinifabandonar
connected every two S . Un of
points conjunto abierto yofconectado
S are endpoints a path
se denomina dominio. Por ejemplo, el cuadrante del plano
in S. This means that we can get from any point of S to any other point by0.moving along
x > 0, y >
Un conjunto
some S de
path without nmeros
leaving S. Ancomplejos es simplemente
open, connected set is called aconexo
domain.siFor
cualquier
example, camino
any
cerrado en Sisencierra
open disk a domain, dentro deright
and the l puntos
quarterde S . x > 0, y > 0 is a domain.
plane
Teorema 9.2 Teorema integral de Cauchy. Si la funcin f es derivable en un dominio
simplemente
We encounteredconexo
domainsG,inentonces
connection with potential functions in Chapter 12.
I
f .z/ dz D 0
A set S of complex numbers is simply connected if every closed path in S encloses only
points of S.
para todo camino cerrado de G.
Este teorema quiere decir que f .z/ dz D 0 si f es derivable en el camino y
This
en concept
todos los was also que
puntos discussed in Chapter
encierra . Las12. Everyoopen
curvas disk issesimply
caminos connected.
suponen However,
orientados en el
let S be an open disk with the center removed (a punctured disk). Then a closed path about the
center in the disk encloses a point not in the set, so this set is not simply connected (although it
is open and connected, hence is a domain).
166 j 9-Nmeros complejos, funciones e integracin

sentido contrario a las agujas del reloj.


douard Goursat Francia, 1858-1936

demostr que el teorema es vlido igualmente aunque dentro de G haya un nmero


finitos de puntos que aun siendo derivables su derivada no es continua, como se exiga
previamente. El teorema se conoce en la actualidad como de Cauchy-Goursat.
10-Anlisis de Fourier j 167

10 | Anlisis de Fourier
L AS series y polinomios de Taylor permiten aproximar funciones mediante polino-
mios, o hallan una serie de potencias que converja a una determinada funcin.
El anlisis de Fourier va en esa misma lnea de intenciones, pero aproximando la
funcin mediante combinaciones de funciones seno y coseno adecuadamente elegidas.
Lo que sigue sale bsicamente de Villanueva [2016] y Contreras [2016].
En muchas ramas de la ingeniera y de la ciencia anlisis de circuitos, tratamiento
digital de seales, compresin de imgenes y archivos digitales, etc. las funciones que
se analizan son peridicas (o van moduladas sobre funciones peridicas), es decir, existe
un perodo T > 0 tal que

f .t C T / D f .t C nT / D f .t / para cualquier t 2 R y n 2 Z:

Conocido el valor que adopta la funcin en un intervalo de longitud T , por ejemplo el


0; T , o T2 ; T2 , se conoce en todo R.
Ejemplos tpicos de funciones peridicas son las funciones trigonomtricas sen.t / y
cos.t/, que son peridicas con perodo 2. Las funciones sen.2t / y cos.2t / tambin tie-
nen perodo 2. En general, para w0 > 0 y n 2 N, las funciones sen.nw0 t / y cos.nwo t /
son peridicas de perodo
2
T D :
nw0
Para medir la velocidad de repeticin de una funcin con perodo T se utiliza la frecuen-
cia, a veces denominada frecuencia angular, definida por
2 2
frecuencia D D ;
perodo T
que se mide en radianes por segundo (en algunos textos la palabra frecuencia se reserva
para la inversa del perodo, 1=T , y se mide en ciclos por segundo o hertzios).
Definicin 10.1 Un polinomio trigonomtrico con perodo T y frecuencia w0 D
2=T es una funcin de la forma

1 Xn0
f .t / D a0 C an cos.nw0 t / C bn sen.nw0 t /:
2 nD1

Es decir, una combinacin lineal de senos y cosenos que tienen un perodo comn T .
Los coeficientes a0 , an y bn se denominan coeficientes de Fourier del polinomio, w0
es la frecuencia fundamental y el ndice n0 , el grado del polinomio.
168 j 10-Anlisis de Fourier

10.1 Series de Fourier


Jean Baptiste Joseph Fourier, Francia, 1768-1830,

fue pionero en el anlisis de funciones peridicas para describir fenmenos fsicos. Na-
cido en Auxerre y profesor de la cole Polytechnique, en 1807 formul la ecuacin
de difusin del calor mediante ecuaciones matemticas. Concretamente, la ecuacin en
derivadas parciales (parablica):

@u 1 @2 u
D o u t D Duxx :
@t 2 @x 2
La constante D > 0 se denomina coeficiente de difusin y representa la difusividad
trmica del material del cuerpo que se estudia.
Para resolver el problema de la distribucin de temperaturas en el cuerpo a partir de la
distribucin en un instante inicial necesitaba escribir la funcin que da el dato inicial co-
mo suma de una serie trigonomtrica. Este es el aspecto de sus mltiples contribuciones
al conocimiento cientfico que vamos a considerar aqu brevemente.
Aunque se presenta de varias maneras segn el tipo de problema estudiado, en ge-
neral, para una funcin de periodo T , el problema consiste en, dada una funcin f .x/,
encontrar una serie trigonomtrica de Fourier

a0 X
1
C an cos.nw0 x/ C bn sen.nw0 x/ ;
2 nD1

donde w0 D 2 T
, que converja a aproximar a f .x/ en cada punto x. Para todo w0 > 0
2
las funciones sen.w0 x/ y cos.w0 x/ son peridicas de periodo T D w 0
. Si conocemos
una funcin en un intervalo de longitud T conocemos su valor en todo R.
Para determinar adecuadamente esa serie, lo primero es obtener los coeficientes an y
bn . Para ello hay que usar de nuevo la nocin de ortogonalidad y el ngulo entre vectores.
Recordemos que dos vectores del espacio eucldeo n dimensional son ortogonales si se
cruzan formando un ngulo de 90 grados. Es decir, si su producto interior hji es cero:
f ? g y hf jgi D 0. La ortogonalidad y las bases ortogonales de espacios vectoriales son
el fundamento de mltiples tcnicas numricas, estadsticas y cientficas a las que nos
referimos en este libro.
Para construir el razonamiento necesitamos introducir un producto interior (escalar)
que sea conveniente para espacios de funciones de dimensin infinita. Con ese objetivo
10-Anlisis de Fourier j 169

utilizaremos el del espacio de Lebesgue L2 .I /, concreta el que define


Z
1
hf jgi D f .x/g.x/ dx
2 I
de funciones integrables en el intervalo I . La norma asociada a partir de ese producto
interior es s Z
p 1
kf k D hf jf i D f .x/2 dx:
 I

Lema 10.1 Con el producto interior (escalar) de L2 definido por


Z T
1 2
hf jgi D f .x/g.x/ dx
2 T
2

la familia de funciones trigonomtricas

f1; sen.nw0 x/; cos.mw0 x/I n; m 2 Ng

satisface las relaciones de ortogonalidad

hcos.kw0 x/j cos.lw0 x/i D hsen.kw0 x/j sen.lw0 x/i D 0 para kl


p hcos.kw 0 x/j sen.lw0 x/i D 0 para todo k; l
k1k D 2; k cos.kw0 x/k D k sen.kw0 x/k D 1 para k 0;

T
por lo que esa familia es ortogonal sobre 2
; T2 , con T D 2
w0
y para k; l  0.

Demostracin. Las frmulas de las relaciones se obtienen inmediatamente de estas in-


tegrales:

Z T
0; kl
2
cos.kw0 x/ cos.lw0 x/ dx D 2; kDl D0
T
2
; k D l 0;
Z T
(
2 0; k l
sen.kw0 x/ sen.lw0 x/ dx D
T
2
; k D l 0;
Z T
2
cos.kw0 x/ sen.lw0 x/ dx D 0
T
2

que son vlidas para todos los enteros k; l  0.


Si de momento dejamos a un lado los asuntos de convergencia, estas relaciones de
ortogonalidad permiten el clculo de los coeficientes de Fourier. En efecto, tomando el
170 j 10-Anlisis de Fourier

producto
P1interior por cos.lw0 x/, l > 0, en los dos trminos de la ecuacin f .x/ D
a0
2
C nD1 an cos.nw0 x/ C bn sen.nw0 x/ se tiene que

a0
hf j cos.lw0 x/i D h1j cos.lw0 x/iC
2
X
1
C an hcos.nw0 x/j cos.lw0 x/i C bn hsen.nw0 x/j cos.lw0 x/i
nD1
D al hcos.lw0 x/j cos.lw0 x/i D al ;

obtenindose as el coeficiente al . De la misma manera, operando con sen.lw0 x/ se


obtiene el coeficiente bl . Tomando el producto interior en la misma ecuacin por la
funcin constante 1 se tiene que

a0 X1
hf j1i D h1j1i C an hcos.nw0 x/j1i C bn hsen.nw0 x/j1i
2 nD1
a0
D k1k2 D a0 :
2
Esta expresin de a0 explica tambin el por qu de introducir en la formulacin de la
serie el sumando a0 dividido por 2.
En consecuencia, si la serie de Fourier converge a la funcin f .x/, los coeficientes
de la misma resultan de tomar productos interiores con las funciones trigonomtricas
bsicas; es decir, son
Z T
2 2
a0 D f .x/ dx
T T
2
Z T
2 2
ak D hf j cos.lw0 x/i D f .x/ cos.kw0 x/ dx; k D 0; 1; 2;   
T T
2
Z T
2 2
bk D hf j sen.lw0 x/i D f .x/ sen.kw0 x/ dx; k D 1; 2; 3;   
T T
2

Las integrales deben estar bien definidas y ser finitas. Queda por demostrar que existe
convergencia hacia f .x/.
Ejemplo 10.1 Consideremos la funcin f .x/ D x en 2 ; 2 . Calculemos los coefi-
cientes de Fourier se su aproximacin por series trigonomtricas:
Z 
2 2
a0 D x dx D 0
 
2
Z    2
2 2 2 x sen.kw0 x/ cos.kw0 x/
ak D x cos.kw0 x/ dx D C D0
 
2
 k k2 xD 
2
10-Anlisis de Fourier j 171

Z    2
2 2 2 x cos.kw0 x/ sen.kw0 x/
bk D x sen.kw0 x/ dx D C D
 
2
 k k2 xD 
2
2
D . 1/kC1 :
k
La serie de Fourier es pues
 
sen 2x sen 3x sen 4x
f .x/  2 sen x C C  :
2 3 4

Demostrar que es convergente (que lo es) dista mucho de ser evidente y ms de ser trivial
el hacerlo.

Ejemplo 10.2 Otro ejemplo interesante para la aplicabilidad de las series de Fourier lo
constituye la funcin escaln definida as:
(
0;  < x < 0;
f .x/ D
h; 0 < x < :

El coeficiente a0 D h dado que el valor medio de f .x/ en el intervalo completo es h=2.


Los dems coeficientes son
Z
1 C
an D h cos nx dx D 0
 0
y
Z C
1 h
bn D h sen nx dx D .1 cos n/;
 0 n
que simplificando es (
2h
n
; si n es impar,
bn D
0; si n es par.
La serie de Fourier es pues
 
h 2h sen 3x sen 5x
f .x/  C sen x C C C  :
2  3 5

En la figura 10.1 se presenta esta funcin y los cuatro primeros trminos de la serie de
Fourier, lo que esboza el denominado fenmeno de Gibbs.

10.1.1 Expresin compleja de la serie de Fourier


Recordemos la expresin
e i D cos  C i sen :
2 1 3 5
The first172four terms of this Fourier series are shown in Figure 3.
j 10-Anlisis de Fourier

1.2

0.8

0.6

0.4
f(x)

0.2

0.2

0.4

0.6

0.8
4 3 2 1 0 1 2 3 4
x
Figura 10.1: Cuatro primeros trminos de la serie de Fourier de la funcin escaln, con
Figure 3:
h DFirst four terms
1, y fenmeno of the Fourier series describing a step function with h = 1.
de Gibbs

De la misma se derivan
2.3 Discussion
e i C e i e i e i
cos  D
y sen  D :
There are a couple of immediate observations
2 to be made here.
2i A Fourier series is a summa
ion of fixed-frequency sine peridica
Si f .t/ es una funcin or cosinedefunctions withdesarrollo
perodo T con argument nx. de
en serie AsFourier
such, the coefficient
describe the amplitude of the component with natural frequency n. For the step func
ion, the series converges very 0
X1
aslowly, which implies X1
that there are significant high-frequency
f .t / D C an cos.nw0 t / C bn sen.nw0 t /;
omponents necessary to accurately 2 nD1describe the function.nD1 This is generally true with any
discontinuous function, or other function with sharp features. A function which is very
sustituyendo los senos y cosenos por la expresiones anteriores se tiene que
ounded and sinusoidal converges quickly in the Fourier series, while something like the step
unction or triangle wave a0 needsX
1
many
e i nwmany X1
0 t C e high-frequency
i nw0 t components.
e i nw 0t e i nw0 t
f .t / D C an C bn :
2 nD1
2 nD1
2i
2.4 Exponential Form
Reordenando un poco
An alternative, more compact X1representation X1 of the Fourier Xseries can be made by usin
C1
Eulers formula f .t / D c0 C cn e i nw0 t C cn e i nw0 t D cn e i nw0 t ;
inx
nD1 e = cosnD
nx1+ i sin nx. nD 1 (6
donde
Using this 0 Da
weccan 0 =2, cn Equation
rewrite as y c
D .an i bn1/=2 n D .an C i bn /=2
Como en el caso de funciones reales definimos ahora un producto escalar de funcio-
X
nes complejas f; g W I  R ! C como
f (x) =Z cn einx , (7
hf jgi D n= f .t /g.t / dt
I
4
10-Anlisis de Fourier j 173

donde z denota el complejo conjugado de z.


Las funciones f y g son ortogonales si su producto escalar (interior) es 0. La norma
2 de una funcin compleja f W I ! C es

p Z 2: 1

kf k2 D hf jf i D f .t /f .t / dt
I

Proposicin 10.2 La familia fe i nw0 t gn2Z es ortogonal en el intervalo T


2
; T2 (o en
2
0; T ), donde T D w 0
.

Demostracin. Sea n m. Entonces


Z T Z T
2 2
i nw0 t i nw0 t
he je iD e i nw0 t e i mw0 t dt D e i nw0 t e i mw0 t
dt D
T T
2 2
Z T
2
.cos nw0 t C i sen nw0 t /.cos mw0 t i sen mw0 t / dt D 0:
T
2

Con este resultado podemos calcular los coeficientes cn para representar una funcin
f W T2 ; T2 ! C de la forma

X
C1
f .t / D cn e i nw0 t :
nD 1

Son
Z T
2
f .t /e i nw0 t dt
T
cn D : 2

T
Muchas seales se representan de manera natural como una funcin con valores reales
por ejemplo una seal sonora mientras que otras, en particular los campos electro-
magnticos, se representan como una funcin de valores complejos.

10.1.2 Convergencia de las series de Fourier


A falta de demostraciones sobre sus resultados, lo que Fourier leg fue un problema en
el que estaban implicados los conceptos de funcin integral, suma de series y tipo de
convergencia. La influencia de este problema en el desarrollo posterior de conceptos de
anlisis matemtico ha sido muy importante.
Los intentos de probar la convergencia de la serie de Fourier aparecieron pronto.
Poisson y Cauchy publicaron sendas pruebas incorrectas. Fue Dirichlet en 1829 el que
public el primer resultado correcto.
174 j 10-Anlisis de Fourier

Definicin 10.2 Sea f W R ! R una funcin peridica de perodo T . Se dice que f


satisface las condiciones de Dirichlet si en cada perodo la funcin f W 0; T ! R es
continua salvo un nmero finito de discontinuidades de salto y slo tiene una cantidad
finita de mximos y mnimos locales estrictos.
Prcticamente todas las funciones seales de inters en las aplicaciones cotidia-
nas verifican las condiciones de Dirichlet.
Teorema 10.3 Convergencia de Dirichlet de la serie de Fourier. Sea f W I ! R una
funcin peridica de perodo T que satisface las condiciones de Dirichlet. La serie de
Fourier de f converge a f .t0 / en todo t0 2 I en el que f sea continua. En los puntos
t0 2 I en los que f no sea continua se tiene que la serie de Fourier converge al punto
medio del salto,
f .t0C / C f .t0 /
;
2
donde f .t0C / D lKm t !t C f .t / y f .t0 / D lKm t!t0 f .t /.
0

El teorema de Dirichlet nos dice que, en los puntos de discontinuidad, la grfica


de la suma de la serie de Fourier pasa por el punto medio del salto. Si se dibujan las
sumas parciales se ve que en las cercanas de los puntos de discontinuidad se reduce la
velocidad de convergencia de la serie y que la grfica de la suma parcial oscila alrededor
de la grfica de la funcin. Cuando se aumenta el nmero de trminos, las oscilaciones
se condensan a ambos lados del punto pero su amplitud no parece decrecer.
Esto se conoce como el fenmeno de Gibbs Josiah Willard Gibbs, EE.UU. 1839-
1903,

quien lo analiz en 1899. Este fenmeno ocurre en las proximidades de una disconti-
nuidad importante de la seal. Apunta a que no importa cuntos trminos de la serie de
Fourier se incluyan, siempre se producir un error o salto en esa discontinuidad. Ese salto
es un porcentaje adicional al valor de la seal en ese punto.
R  senLa amplitud de la oscilacin
1 t
a cada lado de la grfica de la funcin tiende a ser 2 0 t
dt 1  0;0895 veces el
tamao del salto: en torno al 9 % de ese salto. Consideramos la funcin onda cuadrada
de perodo 2 definida en ;  por

(
1 si  < t < 0;
f .t / D
1 si 0 < t < 
10-Anlisis de Fourier j 175

y extendida peridicamente a R. Su serie de Fourier es


 
4 sen 3t sen 5t sen 7t sen 9t
sen t C C C C C  :
 3 5 7 9

En la figura 10.2 se ilustra esta seal de onda cuadrada y cmo las series de Fourier se
ajustan bien en todos los puntos pero es muy perceptible el salto aludido. En la figura
max n=9 quiere decir que se han incluido los trminos n D 1; 3; 5; 7 y 9 en la serie de
Fourier.
Para la convergencia en norma 2 consideramos este resultado.
Teorema 10.4 Teorema de la mejor aproximacin y convergencia en media cuadrtica
de la serie de Fourier. Sea f W I ! R una funcin peridica de perodo T que satisface
las condiciones de Dirichlet. Sea la serie de Fourier de f

1 X1 X1
f .t /  a0 C an cos.nw0 t / C bn sen.nw0 t / D cn e i nw0 t
2 nD1 nD 1

y el polinomio trigonomtrico obtenido como la suma m-sima de dicha serie:

1 Xm Xm
fm .t / D a0 C an cos.nw0 t / C bn sen.nw0 t / D cn e i nw0 t :
2 nD1 nD m

Entonces fm es, de todos los polinomios trigonomtricos de grado m y perodo T ,


el que mejor se aproxima a f en media cuadrtica. Es decir, si gm es un polinomio
trigonomtrico de grado m distinto de fm , entonces
Z T Z T
2 2
2
jf .t / fm .t / dt < jf .t / gm .t /2 dt
T T
2 2

R T
y, adems, lKmm!1 2
T jf .t / fm .t /2 dt D 0.
2

10.1.3 Propiedades de las series de Fourier


En lo que sigue se supone que f y g son funciones peridicas de perodo T (reales
o complejas) que verifican las condiciones de Dirichlet y cuyos desarrollos o series de
Fourier son, respectivamente,

X
1 X
1
i nw0 t
f .t / D cn e y g.t / D dn e i nw0 t ;
nD 1 nD 1

siendo w0 D 2=T .
We illustrate with the example. of the square wave sq(t). The Fourier
series of sq(t) ts it well at points of continuity. But there is always an
176 j 10-Anlisis de Fourier
overshoot of about .18 (9% of the jump of 2) near the points of discontinuity.
1.18 1.18
1 1

t t
1 1 1 1

1 1
1.18 1.18

Gibbs: max n = 1 Gibbs: max n = 3

1.18 1.18
1 1

t t
1 1 1 1

1 1
1.18 1.18

Gibbs: max n = 9 Gibbs: max n = 33

In these gures, for example,


Figura max de
10.2: Fenmeno n=9 means
Gibbs wecuadrada
en la onda we included the terms
for n = 1, 3, 5, 7 and 9 in the Fourier sum

4
10.1.3.1 Linealidadsin t +
sin 3t sin 5t sin 7t sin 9t
+ + + .
3 5 7 9
Si p y q son nmeros complejos, entonces la serie de Fourier de pf .t / C qg.t / es

X
1
pf .t / C qg.t / D .pcn C qdn /e i nw0 t :
nD 1

10.1.3.2 Traslacin en el tiempo


Si t0 es un nmero real, entonces la serie de Fourier de la funcin trasladada f .t t0 / es

X
1 X
1
i nw0 t i nw0 t
f .t t0 / D cn e e D cn e i nw0 .t t0 /
:
nD 1 nD 1
10-Anlisis de Fourier j 177

10.1.3.3 Escalado en el tiempo


Si p es un nmero real, entonces funcin f .pt / es peridica de perodo T =p y frecuen-
cia pw0 . Su serie de Fourier es
X
1
f .pt / D cn e i n.pw0 /t :
nD 1

Es decir, f .t / y f .pt / tienen las mismas amplitudes y fases pero correspondientes a


frecuencias distintas.

10.1.3.4 Derivacin
La regla de la cadena muestra que la derivada de una funcin peridica es peridica
y tiene el mismo perodo. Si f es una funcin continua y peridica de perodo T y
su derivada f 0 verifica las condiciones de Dirichlet, entonces, la serie de Fourier de f
puede derivarse trmino a trmino de manera que si

1 X1
f .t / D a0 C an cos.nw0 t / C bn sen.nw0 t /;
2 nD1

entonces
X
1
f 0 .t / nbn w0 cos.nw0 t / nan w0 sen.nw0 t /
nD1

para cada t 2 R.

10.1.3.5 Integracin
A diferencia de la derivacin, la integral de una funcin no necesariamente vuelve a ser
peridica. Sea f una funcin peridica con perodo T y consideremos la funcin F .t / D
Rt RT
t0 f . / d . La funcin F es T -peridica si y slo si a0 D 2=T 0 f .t / dt D 0. En
Rt
caso contrario, se tiene que la funcin t0 f . / d  1=2a0 .t t0 / es T -peridica. Si la
funcin f verifica las condiciones de Dirichlet, entonces la serie de Fourier de f puede
integrarse trmino a trmino de manera que si

1 X1
f .t / D a0 C an cos.nw0 t / C bn sen.nw0 t /
2 nD1

y t0 ; t 2 T =2; T =2, entonces


Z t
f . / d  1=2a0 .t t0 / D
t0
1 
X 
bn .cos.nw0 t0 / cos.nw0 t // an .sen.nw0 t / sen.nw0 t0 //
D C :
nD1
nw0 nw0
178 j 10-Anlisis de Fourier

10.1.3.6 Convolucin
P1
Los coeficientes complejos de Fourier de la convolucin f .t /g.t / D nD 1 hn e i nw0 t
son
X1 X1
hn D ck dn k D cn k dk :
kD 1 kD 1

10.1.3.7 Multiplicacin
Se verifica que
Z T
X
1
1 2
f .t /g.t / dt D cn dn :
T T
2 nD 1

10.1.3.8 Igualdad de Parseval


Un resultado muy interesante en anlisis de Fourier es el Teorema de Parseval, por Marc-
Antoine Parseval des Chnes, Francia 1755-1836.

Fsicamente se puede leer como que la energa de una seal peridica es igual a la suma
de las energas de sus componentes. Geomtricamente se puede interpretar como una
consecuencia de una versin infinito dimensional del Teorema de Pitgoras.
Proposicin 10.5 Sean f1 ; f2 2 L2 . T
2
; T2 / y .cn1 /n2Z , .cn2 /n2Z sus respectivos
coeficientes de Fourier. Entonces
Z T
X
1 2
f1 .t /f2 .t / dt D cn1 cn2 ;
T T
2 n2Z

Teorema 10.6 Teorema de Parseval. Sean f 2 L2 . T


2
; T2 / y .cn1 / sus coeficientes
de Fourier. Entonces
Z T
X
1 1 2
.kf k2 /2 D f .t /f .t / dt D jcn j2 :
T T T
2 n2Z
10-Anlisis de Fourier j 179

Cuando f .t / es una seal peridica de perodo fundamental T , la igualdad de Parseval


puede interpretarse de la siguiente manera
Z T
1 2
P D jf .t /j2 dt:
T T
2

Esta integral se denomina media cuadrtica o potencia media de f . Por ejemplo, si f .t /


representa la tensin en voltios que se aplica a una resistencia de 1 ohmio, entonces la
potencia media de f coincide con la potencia elctrica media (energa por unidad de
tiempo medida en watios) disipada por la resistencia en cada perodo. Ahora bien, la
potencia media de cada uno de los armnicos presentes en la seal es
Z T
1 2 1 2
P0 D a0 =22 dt D a ;
T T
2
4 0
Z T
1 2 1 2
Pn D an cos.nw0 t / C bn sen.nw0 t /2 dt D b D 2jcn j2 ;
T T
2
2 n

para n D 1; 2; : : : La igualdad de Parseval nos dice que la potencia mediaPde la seal


es la suma de las potencias medias de sus componentes armnicos, P D 1
P nD0 Pn D
1
nD 1 jcn j2
. Por eso, la representacin de los valores jcn j2
cuando situamos las fre-
cuencias en el eje de abcisas se llama espectro discreto de potencias.

10.2 La Transformada de Fourier


Lo visto hasta ahora sobre anlisis de Fourier se aplicaba al estudio de funciones peri-
dicas, o funciones definidas en un intervalo a; b. Para ciertas aplicaciones esto no es
suficiente y necesitamos estudiar funciones f W R ! R C no peridicas. Este tipo
de funciones no puede ser representado por medio de una serie de Fourier, pero si por
medio de una integral de Fourier. Un ejemplo tpico es la funcin f W R ! R dada por
(
1 si t 2 12 ; 12
f .t / D
0 si jtj > 12 :

La idea, ms o menos intuitiva, que utiliz Fourier fue considerar una funcin no
peridica como una funcin peridica de perodo infinito, lo que le llev a representarla
no como una serie cuyos trminos corresponden a mltiplos de la frecuencia fundamental
0; w; 2w; 3w; : : : ; sino como una integral cuya variable de integracin es una frecuencia
que se mueve de manera continua.
CuandoP hablbamos del espectro de una funcin peridica, representada por una serie
de Fourier n cn e i nw0 t , con la frecuencia fundamental w0 D 2=T , apuntbamos que
los coeficientes cn podan ser entendidos como una funcin c.w/ W R ! C( R/ que
toma valores distintos de 0 slo en los puntos w D nw0 , con n 2 Z , en los que vale cn .
180 j 10-Anlisis de Fourier

Al hacer tender el perodo T a infinito, la frecuencia fundamental, w0 , tiende a 0, por


lo que los puntos nw0 los armnicos estn cada vez ms prximos. Parece razonable
pensar que en el lmite el espectro se hace continuo, por lo que podemos definir c.w/
para todo w. Las amplitudes cn D c.nw0 / tendern tambin a 0.
Concretando, sea f .t / una funcin peridica de perodo T . Su serie de Fourier es

X
1
f .t / D cn e i nw0 t ;
nD 1

donde
Z T
1 2
i nw0 t 2
cn D f .t /e dt y w0 D :
T T
2
T
Sustituyendo estas dos expresiones en la serie
Z !
X
1
1
T
2
i nw0 x
f .t / D f .x/e dx e i nw0 t D
nD 1
T T

!
2

X
1 Z T
1 2
i nw0 x
D f .x/e dx w0 e i nw0 t :
nD 1
2 T
2

Recordando la definicin de integral de Riemann y el paso de las sumas de Riemann


a la integral, si tenemos una funcin h W a; b ! R integrable y suponemos elegida
una particin equiespaciada P .w0 / D fa D x0 ; x1 ; : : : ; xk D bg de a; b en la que
xi xi 1 D w0 para cada i 2 f1; : : : ; kg, tenemos que

X
k Z b
lKm h.a C nw0 /w0 D h.t / dt:
w0 !0 a
nD1

Con esto en la memoria y volviendo a la ltima expresin de f .t /, llamemos


Z T !
1 2
iwx
h.w/ D f .x/e dx e iw t :
2 T
2

Haciendo el paso a una integral impropia tenemos que, cuando w0 tiende a 0 o cuando
T tiende a infinito
Z 1 Z C1 
1 iwx
f .t / D f .x/e dx e iw t dw:
2 1 1

Si se define la transformada de Fourier F.w/ de f como


Z C1
F.w/ D f .t /e iwx
dt;
1
10-Anlisis de Fourier j 181

entonces Z 1
1
f .t / D F.w/e iwx dt:
2 1

Definicin 10.3 Sea f W R ! R ( C). Su transformada integral de Fourier es una


funcin
F.f / D F W R ! C
dada por Z 1
F.f /.w/ D F.w/ D f .t /e iw t
dt:
1

Definicin 10.4 Sea F W R ! C. Su transformada inversa de Fourier es una funcin


1
F .F/ W R ! R . C/

dada por Z 1
1
F 1
.F/.t / D F.w/e iw t dt:
2 1

10.2.1 Propiedades de la transformada de Fourier


Las que siguen son algunas de sus propiedades y resultados ms interesantes. En cual-
quier caso, hay que tener en cuenta que la transformada de Fourier viene definida por
una integral impropia que puede ser convergente o no serlo.
Teorema 10.7 Sea f 2 L2 .R/. Entonces existe la transformada de Fourier de f y es
una funcin F W R ! C.
La condicin f 2 L2 .R/ es suficiente pero no necesaria para la existencia de la
transformada F. Algunas propiedades bsicas de la transformada de Fourier son las que
siguen:

10.2.1.1 Linealidad
Si f; g 2 L2 .R/ y ; 2 R, entonces F.f C g/ D F.f / C F.g/.

10.2.1.2 Escalado en el dominio del tiempo


Si 0 2 R, f 2 L2 .R/ y g.t / D f .t / entonces

1 w 
F.g/.w/ D F.f / :
jaj a
182 j 10-Anlisis de Fourier

10.2.1.3 Desplazamiento en el dominio de la frecuencia


Si g.t/ D f .t /e it entonces F.g/.w/ D F.f / .w /.

10.2.1.4 Desplazamiento en el dominio del tiempo


Si f 2 L2 .R/, t0 2 R y g.t / D f .t t0 / entonces F.g/.w/ D F.f /.w/e iw t0 .
Los dos resultados que siguen son interesantes para la resolucin de ecuaciones dife-
renciales pues garantizan el buen comportamiento de la transformada de Fourier.
Proposicin 10.8 Sea f W R ! R una funcin derivable que admite transformada
de Fourier F.f / y tal que lKm t!1 f .t / D 0 (esta condicin se verifica siempre que
f 2 L2 .R/). Entonces F.f 0 /.w/ D iwF.f /.w/.

Teorema 10.9 Si f 2 L2 .R/ entonces F.f / es continua y

lKm F.f /.w/ D 0:


w!1

Aunque f 2 L2 .R/ puede no ser continua, su transformada siempre lo es. El hecho


de que
lKm F.f /.w/ D 0
w!1

indica que, para cualquier seal, la amplitud de sus componentes en frecuencia tiende a
0 cuando la frecuencia tiende a infinito.
Teorema 10.10 Inversin. Si f 2 L2 .R/ entonces F.f / 2 L2 .R/ y adems la fun-
cin Z 1
1
g.t / D F.f /.w/e iw t dw;
2 1
la transformada inversa de la transformada de f , verifica que f .t / D g.t / en casi todo
punto.
La expresin en casi todo punto tiene un significado matemtico muy preciso.
Quiere decir que f .t / D g.t / excepto en, a lo sumo, un conjunto de medida cero.
Aunque esto habra que desarrollarlo un poco ms, la idea intuitiva es que cualquier in-
tervalo no vaco no es de medida cero, mientras que un slo punto, o una cantidad finita,
o incluso numerable, de puntos, s forman un conjunto de medida cero. Por tanto, el teo-
rema de inversin nos dice que si tomo una funcin f 2 L2 .R/, hallo su transformada
de Fourier F.f / y a continuacin hallo la transformada inversa de F.f /, entonces re-
cupero f salvo quizs en unos pocos puntos, que no van a tener ninguna importancia en
la gran mayora de las aplicaciones. Esto es lo que nos permite decir que no perdemos
informacin al considerar F.f / en lugar de f , puesto que podemos recuperar f (salvo
quizs en unos pocos puntos) a partir de F.f /.
10-Anlisis de Fourier j 183

Definicin
688 TH E F10.5 Sean f; g W R ! R. Se define su convolucin f  g como
O URI E R T RA N SF O RM
Z 1
.f  g/.x/ D f .x
|F( j)| of a band-limited signal y/g.y/
f (t); that dy;whose spectrum is zero for | |  m.
is, a signal
Figures 8.26(b e) show 1 the amplitude spectrum |Fs( j)| of the sampled version for
increasing values of the sampling interval T. Clearly, as T increases, the spectrum of
siempre y cuando la integral impropia
F( j), as observed exista.
using |Fs( j)| in m m, becomes more and more misleading
because of interaction from neighbouring copies.
Teorema 10.11 Sean f;Asgwe2 saw L2 .R/. Entonces
in Section 8.6.2, the  g existe,
f periodicity in the
f amplitude 2
 g 2 Lspectrum |Fs( j)| of fs(t)
.R/ y adems
is inevitable as a consequence of the sampling process, and ways have to be found to
1. F.f  g/.w/ D F.f /.w/
minimize  F.g/.w/
the problems paraThe
it causes. todo w 2 R.observed in Figure 8.26 between the
interaction
2. F.f  g/.w/ Dperiodic repeatsisF.g/.w/
F.f /.w/ para todo
known as aliasing 2 R.
w and
error, it is clearly essential to minimize this
effect. This can be achieved in an obvious way if the original unsampled signal f (t) is
Estos ltimos resultados tienen
band-limited as inuna importancia
Figure 8.26(a). It is fundamental
apparent that wepara must la realizacin
arrange de
that the periodic
filtros en frecuencia, que permitan,
repeats of |F( j)|dada
be faruna
enoughseal,
apartquedarnos con sus between
to prevent interaction componentes enThis
the copies.
cierto rango de frecuencias y desechar
implies that we have las dems. Junto con el teorema de Nyquist, o
teorema de muestreo, que proporciona
0  2 m informacin esencial para el paso de una seal
analgica, o continua,ataanuna seal digital, conforman
absolute (and impractical!) la base
minimum. Sincepara
0 = el
2 estudio y procesado
/T, the constraint implies that
digital de seales DSP, digital signal processing.
T  / m
where T is the interval between samples. The minimum time interval allowed is
10.2.2 La Transformada
Tmin = de
/ m Fourier discreta

La Transformada de Fourier
which is known discreta se refiere
as the Nyquist al tratamiento
interval de funciones
and we have discretas
in fact deduced a formen of the
NyquistShannon sampling theorem. If T  Tmin then the copies of F( j) are
el tiempo y frecuencia. Su objetivo es transformar una sucesin discreta de valores, fn ,
isolated from each other, and we can focus on just one copy, either for the purpose of
n D 0; : : : ; N 1, ensignal
otra F k , k D 0; : or
reconstruction, : : for
; Nthe purposes
1. of the estimation of F( j) itself. Here we are
Las sucesiones objeto de anlisis
concerned only with pueden
the latterserproblem.
el resultado de un
Basically, we registro de una aseal
have established condition
propiamente dicha, con valores
under whichperidicos,
the spectrumoofelthe resultado
samples de unaband-limited
of the seal continua
signal que
f (t), se
thathais the
spectrum of fs(t), can be used to estimate F( j).
digitalizado. Esto ltimo consiste en muestrearla, o samplearla, es decir, no quedarse
Suppose we have drawn N samples from a continuous signal f (t) at intervals T, in
con toda la seal sinoaccordance
con la sucesin de valores
with the Nyquist de la
criterion, seal
as in Figuretomados
8.27. We cada T segundos
then consider
(este es el caso del muestreo uniforme N1
en el tiempo), aunque para ciertas seales puede
ser ms interesante un muestreo
f s ( t ) = no uniforme.
f ( kT ) ( t En
kT )la figura 10.3 se ve una muestra de esta
idea. k=0

Figure 8.27
Sampling of a
continuous-time signal.

N-1)T

0 T 2T 3T 4T 5T (N-1)T

Figura 10.3
184 j 10-Anlisis de Fourier

Definicin 10.6 Para un vector de coeficientes reales, x D x0 ; x1 ; : : : ; xn 1 T , su


Transformada de Fourier Discreta, TFD, es el vector n-dimensional y D y0 , y1 ,
: : : ; yn 1 T tal que
1 X
n 1
yk D p xj ! j k ;
n j D0

donde ! D e i2=n
.
De acuerdo con el Lemap 9, de la pgina 163, la transformada de Fourier discreta de
x D 1, 1, : : : ; 1T es y D n, 0, : : : ; 0T .
En forma matricial, la definicin dice que
2 3 2 3 2 32 3
y0 a0 C ib0 !0 !0 !0    !0 x0
6 y 7 6 a C ib 7 6! 0 1 !2  ! n 1 76 x 7
6 1 7 6 1 1 7 6 ! 76 1 7
6 7 6 7 6 0 2 !4    ! 2.n 1/ 7 6 7
6 y2 7 D 6 a2 C ib2 7 D p1 6! ! 7 6 x2 7.
6 : 7 6 7 n6 : 7 6 7
6 : 7 6 :: 7 6 : :: :: :: 7 6 :: 7
4 : 5 4 : 5 4 : : : : 54 : 5
2
yn 1 an 1 C ibn 1 !0 ! n 1 ! 2.n 1/    ! .n 1/ xn 1
A la matriz simtrica
2 3
!0 !0 !0    !0
6! 0 1 !2  ! n 1 7
6 ! 7
6! 0 2 !4 2.n 1/ 7
Fn D p1n 6
6 :
!  ! 7
7
6 : :: :: :: 7
4 : : : : 5
!0 ! n 1 ! 2.n 1/    ! .n 1/2

se la denomina matriz de Fourier. Todas sus filas y columnas, excepto las primeras,
suman cero. La inversa de la matriz de Fourier es
2 0 3
! !0 !0  !0
6! 0 ! 1 ! 2    ! .n 1/ 7
6 7
6 0 2 ! 4    ! 2.n 1/ 7
Fn 1 D p1n 6!
6 :
! 7
7
6 : :: :: :: 7
4 : : : : 5
2
! 0 ! .n 1/ ! 2.n 1/    ! .n 1/

y la Transformada Discreta de Fourier inversa de y es x D Fn 1 y.


El algoritmo por excelencia para calcular la transformada de Fourier discreta es el co-
nocido por Transformada Rpida de Fourier FFT, debido a James William Cooley,
EE.UU. 1926 y John Tukey, EE.UU. 1915-2000.
10-Anlisis de Fourier j 185

Las frmulas para el clculo de la transformada de Fourier discreta son generales y


se pueden aplicar a cualquier conjunto de datos fx0 ; x1 ; x2 ; : : : ; xn 1 g, sin que necesa-
riamente provengan del muestreo de una seal continua.
Volviendo a ese muestreo de seales continuas, su digitalizacin, o sampleo, tiene
una ventaja evidente, que permite trabajar con una sucesin de nmeros en lugar de
con toda la seal, lo que es muy til sobre todo para el tratamiento digital de la seal.
Tambin un inconveniente obvio, la seal muestreada no contiene, en principio, toda la
informacin que haba en la seal original. Parece claro que cuantas ms muestras por
segundo se tomen (esto es, cuanto menor sea T ) menos informacin se perder, pero
tambin costar ms muestrear, almacenar y manipular la informacin. Entonces cul
es intervalo de muestreo que debemos usar? La respuesta a esto la da el teorema de
Nyquist-Shannon, que veremos a continuacin.
Antes, veamos un ejemplo concreto muy prximo en nuestro devenir cotidiano: un
CD de msica. Hasta hace no muchos aos la msica se almacenaba siempre en vinilo
o en cinta magntica, y ambos soportes partan de una seal analgica y almacenaban
tambin una seal analgica. El progreso de la tecnologa y la relativamente baja calidad
y durabilidad de ambos soportes llevaron a plantearse el almacenamiento digital de la
msica en forma de CD, ya que el soporte fsico es muchsimo ms duradero y el tra-
tamiento de la seal digital ms verstil. El problema una vez ms es a qu velocidad
hemos de muestrear una seal sonora para que la seal muestreada sea de la mxima
calidad?
Primero un par de consideraciones biolgicas: nuestro odo oye en frecuencias (al
igual que nuestros ojos ven en frecuencias) y est limitado en frecuencia: nadie oye
seales de frecuencia superior a 20KHz, al igual que nadie ve luz infrarroja o ultravio-
leta. Este lmite no es comn a todos los animales: algunos, como ratas y perros tienen
la capacidad de or seales de frecuencia superior, y los famosos ultrasonidos usados
en ocasiones para intentar ahuyentar ratas no son sino sonidos de frecuencia superior a
20KHz y gran volumen, que nosotros no omos pero ellas s. Esta limitacin de nuestro
odo tiene consecuencias prcticas: si consideramos una seal sonora y le quitamos sus
componentes de frecuencias superiores a 20 KHz, nuestros odos no son capaces de per-
cibir ninguna diferencia entre ambas seales. Por tanto la respuesta a la pregunta anterior,
a qu velocidad hemos de muestrear una seal sonora para que la seal muestreada sea
gran calidad?, es A la velocidad necesaria para mantener las componentes de la seal
de frecuencias inferiores a 20 KHz. Y aqu es donde interviene por fin el teorema de
Nyquist-Shannon.
Teorema 10.12 Teorema de Nyquist-Shannon. Sea f W R ! C una seal que admite
transformada de Fourier F (lo que ocurre por ejemplo si f 2 L2 .R/). Si F.!/ D 0
para todo ! > !M D 2fM entonces se puede determinar f en casi todo punto por
medio de sus valores separados por intervalos uniformes menores que 2f1M segundos.

Este teorema es fruto del trabajo de Harry Nyquist, Suecia 1889-EE.UU. 1976 y
186 j 10-Anlisis de Fourier

Claude Elwood Shannon, EE.UU. 1916-2001.

Al parecer, no obstante, cientficos como E. T. Whittaker, Vladimir Kotelnikov y otros


estaban trabajando tambin sobre este mismo asunto, por lo que en algunos casos se
referencia en la literatura especializada como teorema de Nyquist-Shannon-Kotelnikov,
Whittaker-Shannon-Kotelnikov o Whittaker-Nyquist-Kotelnikov-Shannon, adems de
teorema cardinal de interpolacin.
A partir de este teorema se puede demostrar que la manera de recuperar f .t/, a partir
de los datos muestreados y el resultado, es

X
1
sen !M .t nT /
f .t / D f .nT / ;
nD 1
!M .t nT /

para el caso de que !M D 2fM y T D 2f1M .


Est demostrado que para evitar el fenmeno conocido como aliasing efecto que
causa que seales continuas distintas se tornen indistinguibles cuando se muestrean
digitalmente es necesario asegurarse de que en la seal analgica a muestrear, con
una frecuencia fs , no tenga componentes sinusoidales de frecuencia mayor a fs =2. Esta
condicin es llamada el criterio de Nyquist, y es equivalente a decir que la frecuencia de
muestreo fs s debe ser al menos dos veces mayor que el ancho de banda de la seal. En
la figura 10.4 se ven dos sinusoides que pueden ser representados por la misma muestra
y que dara lugar al efecto aliasing.

Figura 10.4

El Teorema de Nyquist indica que la frecuencia de muestreo mnima que tenemos que
utilizar debe ser mayor que 2fM (frecuencia crtica de Nyquist), donde fM es la frecuen-
cia mxima de la seal compleja. Si utilizamos esa frecuencia de muestreo, podremos
10-Anlisis de Fourier j 187

reproducir posteriormente la seal a partir de las muestras tomadas. En la prctica, debi-


do a las limitaciones de los circuitos, la utilizacin de una frecuencia ms alta que la que
nos dice Nyquist permite obtener una representacin ms exacta de la seal de entrada.
188 j 10-Anlisis de Fourier
11-La Transformada del coseno discreta j 189

11 | La Transformada del coseno discreta


A lo largo de este libro estamos constatando lo til que es el concepto de ortogona-
lidad par representar y comprimir datos de diversos tipos.
La Transformada del coseno discreta DCT o TCD se utiliza habitualmente para
la compresin de imgenes y vdeo. Los formatos JPEG, MP3 y AAC son conocidos,
para compresin de imgenes, audio y vdeo, y utilizan esencialmente las tcnicas de la
transformada del coseno discreta.
La transformada del coseno discreta es una transformada basada en la de Fourier dis-
creta que utiliza nicamente nmeros reales. Aunque la parte real de la TFD y la TCD
estn relacionadas, la DCT no es la parte real de la TFD. Como la TFD, la TCD consiste
en dividir una seal (discreta) en la suma de una serie de funciones (tambin discretas)
ponderadas por unos coeficientes. Estas funciones, llamadas funciones base, son ortogo-
nales y por tanto independientes (no existe la posibilidad de que una de estas funciones
pueda representarse a travs de una combinacin de las dems, sin embargo, el conjunto
completo pueden representar cualquier seal cuando se ponderan mediante coeficientes
y se suman entre si). Las funciones base slo dependen del nmero de muestras de la se-
al, y fijado ste las funciones base siempre son iguales. El conjunto de coeficientes que
ponderan las funciones base son el resultado de la transformacin directa. Al proceso de
reconstruir la seal a partir de los coeficientes de la transformada directa se denomina
transformacin inversa.
La diferencia entre la TFD y la TCD es que sta utiliza nicamente funciones coseno,
y por lo tanto sus coeficientes son nmeros reales. Formalmente, la transformada de
coseno discreta unidimensional es una funcin lineal invertible de Rn en Rn , equivalente
a una matriz cuadrada n  n ortogonal de coeficientes reales.
Existen ocho variantes diferentes de TCD unidimensionales. Las utilizadas en com-
presin de imgenes son la DCT-II, cuya inversa es la DCT-III, tambin llamadas trans-
formada directa del coseno, FDCT Forward Discrete Cosine Transform, y transfor-
mada inversa del coseno, IDCT Inverse Discrete Cosine Transform, respectivamen-
te.
La transformada de coseno discreta unidimensional es una funcin lineal f W RN !
R , equivalente a una matriz cuadrada N  N , invertible, que transforma un vector x D
N

x0 ; : : : ; xN 1 > en otro y D y0 ; : : : ; yN 1 > de acuerdo con las siguientes frmulas:


DCT-I

1  X2 h i
N

yk D x0 C . 1/k xN 1 C xn cos nk ; k D 0; : : : ; N 1:
2 nD1
N 1
190 j 11-La Transformada del coseno discreta

DCT-II
X1
N    
 1
yk D xn cos nC k ; k D 0; : : : ; N 1:
nD0
N 2
DCT-III
X1
N   
1  1
yk D x0 C xn cos n kC ; k D 0; : : : ; N 1:
2 nD1
N 2

DCT-IV
X1
N    
 1 1
yk D xn cos nC kC ; k D 0; : : : ; N 1:
nD0
N 2 2

Tambin existen frmulas DCT de V a VIII, para otras tantas transformaciones.


La transformacin se puede expresar matricialmente de la forma

y D C x:

Para que la matriz C sea una matriz ortonormal (y por tanto su inversa coincida con
su transpuesta) se han de multiplicar las ecuaciones anteriores por unos coeficientes de
escalado y normalizacin que pueden depender de k y n. Para la DCT-II son
   ( 1
 1 p si j D 0
ck n D w.k/ cos k nC ; con w.k/ D N
2
N 2 p si j 0:
N

Se pueden componer dos (o ms) grupos de funciones bsicas para crear transfor-
madas de dos (o ms) dimensiones. La DCT bidimensional (DCT-2D) es una funcin
lineal invertible de RN N ! RN N que descompone el bloque de imagen en una suma
de frecuencias espaciales. Los coeficientes ykl de la DCT para bloques xij de 8  8 se
expresan como:
   
c.k/c.l/ X X
7 7
.2i C 1/k .2j C 1/l
ykl D xij cos cos ;
4 16 16
i D0 j D0
(
1
si x D 0
donde k; l D 0; 1; : : : ; 7 y c.x/ D 2 : Su inversa, IDCT-2D,
1 si x 0

X
7 X
7    
c.k/c.l/ .2i C 1/k .2j C 1/l
xij D ykl cos cos :
4 16 16
kD0 lD0

El bloque de coeficientes de la DCT est ordenado de modo que la componente continua


corresponde al elemento y00 y la frecuencia espacial crece con los ndices k y l siendo
y77 el coeficiente correspondiente a la mayor frecuencia.
11-La Transformada del coseno discreta j 191

En la figura 11.1 se representa un conjunto de 64 funciones base bidimensionales


(imgenes base) que se generan multiplicando un conjunto de funciones base unidimen-
sionales de ocho puntos (N=8) orientadas horizontalmente, por un conjunto verticalmen-
te orientado de las mismas funciones. Las imgenes base orientadas horizontalmente
representan las frecuencias horizontales y las orientadas verticalmente representan las
frecuencias verticales. La fila superior y la columna de la izquierda tienen variaciones de
intensidad en una sola dimensin. Para propsitos de ilustracin, un gris neutro represen-
ta cero en estas figuras, el blanco representa amplitudes positivas, y el negro representa
amplitudes negativas.

Figura 11.1

La ventaja que tiene la DCT frente a la DFT para la compresin de imgenes, a parte
de solo utilizar nmeros reales, es que produce una mejor compactacin de la energa
(consigue concentrar la mayor parte de la informacin en pocos coeficientes) y un menor
efecto de bloque. Este efecto se esquematiza en la figura 11.2.
El efecto de bloque se produce cuando se divide la imagen en bloques de 88 pxeles
o macrobloques de 16  16 pxeles para poder ejecutar los algoritmos de transformacin.
Cuando se lleva a cabo la DFT del bloque, se asume la periodicidad del mismo (que se
repite a lo largo de todo el plano bidimensional que contiene la imagen). En la trans-
formada de Fourier el pxel B del borde derecho ser tratado por el algoritmo como si
estuviera seguido por el pxel A. Si los niveles de gris en cada pxel difieren considera-
blemente cualquier reconstruccin del bloque a partir de nicamente un nmero limitado
de coeficientes de Fourier dar lugar a valores errneos en A y B. Este fenmeno es lo
que se conoce como efecto de bloque, que tiende a hacer muy visibles los lmites de los
bloques en la compresin, especialmente cuando la proporcin de compresin es eleva-
da. Sin embargo, mientras que la teora de Fourier implica la repeticin de los bloques
LxL, la teora de la DCT impone esta repeticin sobre bloques 2Lx2L, que estn relacio-
nados con los bloques originales LxL a travs de simetras especulares. La consecuencia
192 j 11-La Transformada del coseno discreta

Figura 11.2: Compactacin de la energa de una TCD comparada con una TFD

de esta simetra
Introduccin yespecular
estado del arte es que despus del pxel B, le sigue otro pxel 25
B, eliminando
as la discontinuidad, esto provoca una reduccin considerable del efecto de bloque. En
pxel B, le sigue otro pxel B, eliminando as la discontinuidad, esto provoca una
la figurareduccin
11.3 seconsiderable
muestra la del periodicidad
efecto de bloque. de un bloque 4  4 en la TFD y la TCD.

Bloque de A B A B Rplica de pixels debido


pixels 4x4 a la periodicidad de la DFT

(a)

2L
L
A B B A

2L

(b)

Figura 11.3:
FiguraPeriodicidad supuesta
15. Periodicidad supuesta de un de un4x4bloque
bloque  4yde
4 DFT
por (a) una unaDCT.
(b) una TFD (a) y una TCD (b)
La transformacin lineal ptima que minimiza el error cuadrtico medio entre la
La transformacin
imagen original y lalineal
imagen ptima
recuperadaque minimiza
(despus el error
de transformar cuadrtico
y comprimir la medio entre la
imagen) es la transformada de Karhunen-Love (KLT). La KLT realiza una descom-
imagen original
posicin deycomponentes
la imagenprincipales
recuperada (PCA)(despus de de
de los bloques transformar
la imagen, porylocomprimir
que la imagen)
es la transformada de Karhunen-Love
las funciones bases (KLT). La
(y la matriz de la transformacin) KLTderealiza
dependen una descomposicin de
las propiedades
estadsticas de la imagen. Las funciones base (y su matriz de transformacin) de la
componentes principales
DCT dependen (PCA)
nicamente de los
del orden bloques
N. Por de selamencion
lo que como imagen, porfijado
antes, lo que las funciones
bases (yellanmero
matriz de laestas
de puntos transformacin)
son siempre igualesdependen
sea cual sea de las propiedades
la imagen. Una de las estadsticas de
ventajas de la DCT es que siendo fija la transformacin su eficiencia de compresin
la imagen. Las funciones
se aproxima a la de la KLT base (y supara
(la ptima) matriz decon
imgenes transformacin) de la DCT dependen
alto grado de correlacin
espacial.
11-La Transformada del coseno discreta j 193

nicamente del orden N. Por lo que como se mencion antes, fijado el nmero de puntos
estas son siempre iguales sea cual sea la imagen. Una de las ventajas de la DCT es que
siendo fija la transformacin su eficiencia de compresin se aproxima a la de la KLT (la
ptima) para imgenes con alto grado de correlacin espacial.
194 j 11-La Transformada del coseno discreta
12-La Transformada de Laplace j 195

12 | La Transformada de Laplace
E NUNCIADA por Pierre-Simon Laplace, Francia, 1749-1827,

esta transformada integral es similar a la de Fourier. Mientras sta es una funcin com-
pleja de una variable real, la frecuencia, la de Laplace es una funcin compleja de una
variable compleja.
Definicin 12.1 Dada una funcin f .t / definida en 0; 1/, su Transformada de La-
place es la funcin Z 1
st
F .s/ D Lff g D e f .t / dt:
0

La transformada de Laplace es un operador: definido para funciones y que transforma


funciones en otras funciones. En general s es una variable compleja.R Como la integral de
c
la definicin es impropia, al evaluarla hay que considerar lKmc!1 0 e st f .t / dt.
La transformada de Laplace mejora algunas de las prestaciones de la Transformada
de Fourier al no exigir que la seal f .t / sea absolutamente integrable. La Transformada
de Laplace es invertible en un gran nmero de funciones.
Ejemplo 12.1 Consideremos la funcin f .t / definida por
(
0 si t < 0
f .t / D
Ae at
si t  0:

Su transformada de Laplace es
Z 1
at st
Lff .t /g D Ae e dt
Z
0
1
.sCa/t
D Ae dt
0
1
e .sCa/t A
A D ;
.s C a/ sCa
0
196 j 12-La Transformada de Laplace

supuesto que s C a > 0. Es decir se lleva a cabo la correspondencia

at A
Ae .t  0/ , :
sCa

Ejemplo 12.2 Sea ahora f .t / D 1. La transformada de Laplace es


Z 1
1 st 1 1
Lf1g D e st dt D e D :
0 s 0 s

Ejemplo 12.3 Sea ahora f .t / D t . La transformada de Laplace es


Z 1 Z
t st 1 1 1 st 1
Lft g D e st t dt D e C e dt D 2 :
0 s 0 s 0 s

Algunas funciones tiles para ingeniera y control de procesos, y sus transformadas


de Laplace, se listan en la tabla del cuadro 12.1.
La Transformada de Laplace hace sombra a la de Fourier en algunas aplicaciones
ingenieriles como el control de procesos industriales, el anlisis de sistemas lineales,
la electrnica industrial y otros afines. Su uso y estudio est ampliamente extendido
para ayudar a entender problemas donde las funciones que surgen estn definidas en
un tiempo finito y estn acotadas. Tambin para integracin numrica de ecuaciones
diferenciales ordinarias.
El operador transformada de Laplace permite transformar un problema de funciones
en un problema de sus respectivas transformadas. ste se resuelve si se puede mediante
ecuaciones algebraicas y despus se vuelve hacia atrs (problema inverso) recobrando
la solucin original ahora en funciones. Por ejemplo, la transformada de Laplace per-
mite cambiar el dominio tiempo por el dominio frecuencia en problema de ecuaciones
diferenciales, convirtindolo en ecuaciones lineales, la convolucin en multiplicacin,
etc.
Para terminar con una osada comparativa rpida general:
La transformada de Laplace mapea o transforma una funcin en otra en el plano
complejo con variable compleja; la de Fourier transforma una funcin en otra com-
pleja con variable real (la frecuencia).
La transformada de Laplace se usa para estudios de estabilidad de seales y siste-
mas mientras que la de Fourier para analizar el comportamiento de sistemas ante
entradas sinusoidales.
La primera para seales permanentes; la segunda para seales dinmicas o transi-
torias.
La transformada de Fourier se usa para integrar ecuaciones diferenciales de pro-
blemas de contorno en la recta real; la de Laplace para problemas de valor inicial.
12-La Transformada de Laplace j 197

f .t /; t 2 0; 1/ Lff g

1
1 s

1
e at ; a 2 R s a

n
t n; n 2 N s nC1

w
sen wt; w 2 R s 2 Cw 2

s
cos wt; w 2 R s 2 Cw 2

w
senh wt; w 2 R s2 w 2

s
cosh wt; w 2 R s2 w 2

w
e at sen wt; a; w 2 R .s a/2 Cw 2

s a
e at cos wt; a; w 2 R .s a/2 Cw 2

2ws
t sen wt; w 2 R .s 2 Cw 2 /2

s2 w 2
t cos wt; w 2 R .s 2 Cw 2 /2

Cuadro 12.1
198 j 12-La Transformada de Laplace
13-Clculo estocstico y simulacin j 199

13 | Clculo estocstico y simulacin


U N proceso estocstico o aleatorio se puede concebir en trminos de variables alea-
torias ligadas al paso del tiempo (en la escala que sea), o a la ubicacin en el
espacio. Muchos modelos matemticos de realidades econmicas, fsicas, ambientales,
sociales, financieras o ingenieriles consideran cantidades que cambian aleatoriamente
con el paso del tiempo. Tales modelos se suelen formular y analizar en trminos de pro-
cesos estocsticos.
En este apartado perseguimos dos objetivos. El primero es proporcionar al lector
cierta base terica sobre procesos estocsticos y espacios de probabilidad, que se usan
para modelizar matemticamente fenmenos aleatorios en el tiempo o el espacio, y sus
herramientas de clculo bsicas. El segundo, repasar algunos fundamentos matemticos
de los algoritmos ms usados para generar muestras con las que utilizar o analizar esos
modelos. Sigo esencialmente a Nualart [2017] y Sauer [2012].

13.1 Variables aleatorias y espacios de probabilidad


Cada resultado posible de un experimento o experiencia aleatoria, !, es un evento o
suceso elemental. El conjunto de todos los posibles sucesos es el conjunto muestral,
designado habitualmente por .
Ejemplo 13.1 En una sucesin de clculos realizados con un ordenador observamos los
primeros 9 dgitos no tenidos en cuenta al truncar los resultados de las operaciones con
una cierta cifra decimal. En este caso el conjunto muestral es  D f.a1 ; : : : ; ak / W ai 2
Z; 0  ai  9g.
Ejemplo 13.2 Se lanza un dado varias veces y se cuenta el nmero de lanzamientos
hasta que salga el 6 por primera vez. En este caso el conjunto muestral es el conjunto de
nmeros naturales, N. Es decir  D f1; 2; 3; : : :g.
Ejemplo 13.3 Si se mide la presin y la temperatura en una estacin meteorolgica,
 D f.p; t / W p > 0; t 2 Rg.
En la prctica, al realizar un experimento, suele interesar saber si algn subconjunto
de sucesos de  se repite o se da bajo distintas formas. Interesa por lo tanto en considerar
familias de subconjuntos de , significadas por F.
Definicin 13.1 Una familia F de subconjuntos de un conjunto muestral  se dice
que tiene una estructura de -lgebra si satisface estas condiciones:
1. ; 2 F;
2. Al realizar un experimento algo ocurre, es decir  2 F. A  se le denomina
200 j 13-Clculo estocstico y simulacin

evento o suceso cierto;


3. Si A 2 F su complemento Ac (no ocurre A), tambin pertenece a F: Ac 2 F;
4. Si los sucesos A1 ; A2 ; : : : ; An ; : : : ocurren, el suceso ocurre alguno
S de los An
tambin es un suceso o evento. Es decir, A1 ; A2 ; : : : 2 F H) 1 iD1 i 2 F.
A

Definicin 13.2 La -lgebra generada por los conjuntos abiertos de Rn se denomina


-lgebra de Borel de Rn , representndose por BRn .
Debe su nombre a Flix douard Justin mile Borel, Francia 1871-1956.

Ahora definamos el entorno general de probabilidad en el que nos vamos a enmarcar.


Definicin 13.3 Un espacio de probabilidad es una terna .; F; P / formada por
I Un conjunto muestral  que representa el conjunto de posibles resultados de un
experimento aleatorio.
II Una familia F de subconjuntos de  que tiene estructura de  -lgebra.
III Una aplicacin P W F ! 0; 1, denominada probabilidad, que cumple que:
a) P .;/ D 0, P ./ D 1.
b) Para todo A 2 , P .A/  0. La probabilidad de un suceso cualquiera A
es un nmero real no negativo.
c) Si A1 ; A2 ; : : : 2 F son conjuntos disjuntos dos a dos (es decir, Ai \Aj D ;
si i j ), entonces
!
[
1 X1
P Ai D P .Ai /:
i D1 iD1

Si P .F / D 1 diremos que el suceso F ocurre con probabilidad uno, o casi segura-


mente. Algunas reglas bsicas del clculo de probabilidades son:
P .A \ B/ D P .A/ C P .B/ si A [ B D ;
P .Ac / D 1 P .A/
A  B H) P .A/  P .B/
Ejemplo 13.4 Elegimos un nmero al azar en el intervalo 0; 2.  D 0; 2, F es la
-lgebra de Borel generada por los intervalos de 0; 2. La probabilidad de cualquier
intervalo a; b  0; 2 ser
a b
P .a; b/ D :
2
13-Clculo estocstico y simulacin j 201

Se dice que un espacio de probabilidad .; F; P / es completo si dado un suceso A


de probabilidad cero, todos los subconjuntos de A pertenecen a la  -lgebra F.
Definicin 13.4 Una variable aleatoria definida sobre un espacio de probabilidad
.; F; P / es una aplicacin X.!/ W  ! R que es F-medible, es decir, X 1 .B/ 2 F,
para todo conjunto B de la -lgebra de Borel de R, BR .
De forma ms sencilla, una variable aleatoria es una funcin real definida en el espacio
de probabilidad .; F; P / que otorga un valor numrico a un experimento aleatorio.
Una variable aleatoria determina una  -lgebra fX 1 .B/; B 2 BR g  F que se
denomina -lgebra generada por X.
Una variable aleatoria determina una probabilidad en la  -lgebra de Borel BR defi-
nida por PX D P X 1 , es decir,
1
PX .B/ D P .X .B// D P .f! W X.!/ 2 Bg/:

El smbolo denota composicin de funciones y X 1


la preimagen. La probabilidad PX
se denomina la ley o distribucin de la variable X.
Definicin 13.5 Se dice que una variable aleatoria X tiene una densidad de probabi-
lidad fX si fX .x/ es una funcin positiva, medible respecto de la -lgebra de Borel
y tal que
Z b
P .a < X < b/ D fX .x/ dx;
a

para todo a < b.

Ejemplo 13.5 Una variable aleatoria tiene ley normal N.m;  2 / si


Z b
1 .x m/2
P .a < X < b/ D p e 2 2 dx;
2 2 a

para todo par de nmeros reales a < b.


Las variables discretas que toman un conjunto finito o numerable de valores distin-
tos xk no tienen densidad de probabilidad y su ley est determinada por la funcin de
probabilidad
pk D P .X D xk /:
Ejemplo 13.6 Una variable aleatoria tiene ley binomial B.n; p/ si
 
n
P .X D k/ D p k .1 p/n k ;
k

para k D 0; 1; : : : ; n.
202 j 13-Clculo estocstico y simulacin

Definicin 13.6 La distribucin de una variable aleatoria X puede caracterizarse me-


diante su funcin de distribucin definida como la probabilidad acumulada

FX .x/ D P .X  x/ D PX .. 1; x/:

La funcin FX W R ! 0; 1 es creciente, continua por la derecha y con lmites iguales


a cero en 1 y 1 en C1. Si la variable tiene densidad fX , entonces
Z x
FX .x/ D fX .y/ dy;
1

y si la densidad es continua, FX0 .x/ D fX .x/:

Definicin 13.7 La esperanza matemtica de una variable aleatoria X se define como


la integral de X con respecto a la probabilidad P , considerada como una medida en
el espacio .; F/. En particular, si X es una variable elemental que toma los valores
1 ; : : : ; n en los conjuntos A1 ; : : : ; An , su esperanza matemtica valdr

X
n
E.X / D i P .Ai /:
i D1

El clculo de la esperanza matemtica de una variable aleatoria se efecta integrando


la funcin X respecto de la ley de probabilidad de la variable. Es decir, si X es una
variable que tiene esperanza (E.jXj/ < 1) se tiene que
Z Z 1
E.X / D X.!/ dP .!/ D x dPX .x/:
 1

En general, si g W R ! R es una funcin medible respecto de la  -lgebra de Borel y


E.g.X// < 1 entonces la esperanza de la variable g.X / se puede calcular integrando
la funcin g respecto de la ley de la variable X, es decir
Z Z 1
E.g.X // D g.X.!// dP .!/ D g.x/ dPX .x/:
 1
R1
La integral 1 g.x/ dPX .x/ se calcula utilizando la densidad o funcin de probabilidad
de la variable X :
Z 1
Z 1 g.x/fX .x/ dx fX .x/ es la densidad de X
1
g.x/ dPX .x/ D X
1 g.xk /P .x D xk / X es variable discreta.
k
13-Clculo estocstico y simulacin j 203

Ejemplo 13.7 Si X es una variable aleatoria con ley normal N.0;  2 / y  es un nmero
real,
1
1 x2
E.e X / D p e x e 2 2 dx
2 2 1
1
.x  2 /2
1  2 2
Dp e 2 e 2 2 dx
2
2 1

 2 2
De 2 :

Definicin 13.8 La varianza de una variable aleatoria X se define por



X2 D Var.X / D E .X E.X //2 D E.X 2 / E.X /2 :

La varianza mide el grado de dispersin de los valores de la variable respecto de su


esperanza.
Por ejemplo, si X es una variable aleatoria con ley normal N.m;  2 / se tiene que

X m
P .m 1;96  X  m C 1;96 / D P . 1;96   1;96/

.1;96/ . 1;96/ D 0;95;

donde es la funcin de distribucin de la ley N.m;  2 /. Es decir, la probabilidad de


que la variable X tome valores en el intervalo m 1;96; m C 1;96 es igual a 0;95.
Definicin 13.9 Se dice que X D X1 ; : : : ; Xn > es un vector aleatorio n-dimensional
si sus coeficientes, o componentes, son variables aleatorias.
La esperanza matemtica de un vector aleatorio n-dimensional X ser el vector
E.X / D .E.X1 /; : : : ; E.Xn //
Definicin 13.10 La matriz de covarianzas de un vector aleatorio n-dimensional X
es la matriz 
X D cov.Xi ; Xj / 1i;j n ;
 
donde cov.Xi ; Xj / D E .Xi E.Xi //.Xj E.Xj // :
Es decir, los coeficientes de la diagonal principal de esta matriz son las varianzas de
las variables Xi y fuera de la diagonal estn las covarianzas entre dos variables Xi y Xj .
La ley o distribucin de un vector aleatorio n-dimensional X es la probabilidad
definida en el -lgebra de Borel BRn por PX .B/ D P .X 1 .B// D P .X 2 B/, para
todo conjunto B de la -lgebra de Borel de R.
204 j 13-Clculo estocstico y simulacin

Se dice que un vector aleatorio n-dimensional X tiene una ley normal N.m; /,
donde m 2 Rn y es una matriz simtrica y definida positiva, si

P .ai  Xi  bi ; i D 1; : : : m/ D
Z bn Z b1 Pn
1
n
i;j D1 .xi mi /.xj mj /ij 1
D  .2 det / 2 e 2 dx1    dxn :
an a1

En tal caso, se tiene que m D E.X / y D x . Si la matriz es diagonal,


2 3
12    0
6 : :: 7
D 4 :: : : : : 5
0  n2

entonces la densidad del vector X ser el producto de n densidades normales unidimen-


sionales: 0 1
Y n
B 1
.x mi /2
C
fX .x1 ; : : : ; xn / D @q e 2 2
i A:
i D1 2i2

Existen tambin leyes normales degeneradas en las que la matriz es singular. En este
caso no existe la densidad de probabilidad y la ley de X queda determinada por su
funcin caracterstica:  0 
E e i t X D e .i t m 2 t t / ;
0 1 0

donde t 2 Rn . En esta frmula t 0 es un vector fila 1  n y t uno columna n  1.


Si X es un vector normal n-dimensional con ley N.m; / y A es una matriz m  n,
entonces AX es un vector normal n-dimensional con ley N.Am; AA 0 /.
Se dice que una variable tiene media de orden p  1 si E.jXjp / < 1. En tal caso
se define el momento de orden p de la variable aleatoria X como mp D E.X p /.
El conjunto de las variables que tienen media de orden p se representa por

Lp .; F; P /:

Sea X una variable aleatoria con funcin caracterstica 'X .t / D E.e i tX /. Los mo-
mentos de la variable aleatoria pueden calcularse a partir de las derivadas de la funcin
caracterstica en el origen
1
mn D n 'X.n/ .t / :
i tD0
Un concepto fundamental en probabilidades en el de la independencia.
Definicin 13.11 Dos sucesos A; B 2 F se dicen independientes si

P .A \ B/ D P .A/P .B/:
13-Clculo estocstico y simulacin j 205

Si se tiene una sucesin finita o infinita de sucesos fAi ; i 2 I g, se dice que los sucesos
de la coleccin son independientes si

P .Ai1 \    \ Aik / D P .Ai1 /    P .Aik /

para todo conjunto finito de ndices fi1 ; : : : ; ik g  I .


Una coleccin de conjuntos de sucesos fGi ; i 2 I g se dice ques es independiente
si cualquier coleccin de sucesos fAi ; i 2 I g tal que Ai 2 Gi para todo i 2 I es
independiente.
Una coleccin de variables aleatorias fXi ; i 2 I g se dice que es independiente si la
coleccin de -lgebras fXi 1 .BRn /; i 2 I g lo es. Esto significa que
P .Xi1 2 Bi1 ; : : : ; Xik 2 Bik / D P .X1 2 Bi1 /    P .Xik 2 Bik /;
para todo conjunto finito de ndices fi1 ; : : : ; ik g  I , donde los Bj son conjuntos de
Borel.
Si dos variables aleatorias reales X e Y son independientes y tienen esperanza finita,
el producto X Y tiene esperanza finita y se cumple que E.X Y / D E.X /E.Y /.
En general, si las variables X1 ; : : : ; Xn son independientes,
Eg1 .X1 /    gn .Xn / D Eg1 .X1 /    Egn .Xn /:
donde las gi son funciones medibles tales que Ejgi .Xi /j < 1.
Las componentes de un vector aleatorio de variables aleatorias son independientes s
y slo s su densidad o funcin de probabilidad es igual al producto de las densidades o
funciones de probabilidad de cada componente.
Definicin 13.12 La probabilidad condicionada de un suceso A por un suceso B,
suponiendo P .B/ > 0, se define como

P .A \ B/
P .AjB/ D :
P .B/

Dos sucesos A y B son independientes si y slo si P .AjB/ D P .A/. La probabili-


dad condicionada P .AjB/ representa la probabilidad del suceso A suponiendo sabemos
que B ha ocurrido. La aplicacin A 7 ! P .AjB/ define una nueva probabilidad en el
-lgebra F que se concentra en el conjunto B. Se puede calcular la esperanza condi-
cionada por B de una variable aleatoria integrable X:
1
E.XjB/ D E.X 1B /;
P .B/
donde 1B representa la funcin indicatriz del suceso B, definida por
(
1 si ! 2 B
1B D
0 si ! B:
206 j 13-Clculo estocstico y simulacin

13.2 Procesos estocsticos


Definicin 13.13 Un proceso estocstico es una familia de variables aleatorias reales
fXi ; t  0g, es decir, de funciones medibles, X t .!/ W  ! R, definidas en une espacio
de probabilidad .; F; P /, e indexadas en un conjunto T 2 0; 1/. A t ! X t .!/ se
le denomina funcin de muestra o trayectoria del proceso estocstico.
Si T D N el proceso estocstico se dice discreto. Si T D 0; 1/ el proceso se deno-
mina continuo.
En la figura 13.1 se ven cuatro muestras de un proceso estocstico. El valor de X.t /
cambia con el tiempo y de muestra a muestra.

X(t) 0

5
4
3 100
50
Muestra nmero 2 t
1 0

Figura 13.1
Figure 4.1. Four samples of a stochastic process.
Si fijamos un conjunto finito de instantes f0  t1 <    < tn g tendremos un vector
aleatorio .X t1 ; : : : ; X tn / W  ! Rn . Las distribuciones de probabilidad P t1 ;:::;tn D
P .X t1 ; : : : ; X tn / 1 se denominan distribuciones en dimensin finita del proceso.
La media (muestral) y la autocovarianza de un proceso estocstico se definen as:
mX .t / D E.X t /
X .s; t / D Cov.Xs :X t /
1 D E..Xs mX .s//.X t mX .t //: Sample 1
Sample 2
La varianza (muestral) del proceso X se define por X2 .t / D Var.X
D X .t; t /Sample 3 t /.
Se dice que un proceso estocstico fX t ; t  0g es gaussiano o normal si sus distri-
bucionesX(t)
en dimensin
0 finita son leyes normales multidimensionales. En el caso de un
proceso estocstico gaussiano, la media mX .t / y la autocovarianza X .s; t / determinan
las distribuciones de dimensin finita del proceso.
La media1mX .t / y la varianza X2 .t / nos permiten conocer dnde se concentran los
valores de la variable
0 X t as0.25
como su grado de 0.5 dispersin, para
0.75 cada instante1t fijo. Por
ejemplo, en el caso de un proceso gaussiano, t

P .mX .t / 2X .t /  X t  mX .t / C 2X .t // ' 0;95:


Figure 4.2. Three samples of stochastic process X(t) =
A cos (10t). fX ; t  0g es continuo en probabilidad si para todo " > 0
Un proceso estocstico t
y todo t  0, lKms!t P .jXy Xs j > "/ D 0: Si el proceso tiene una E.jX t jp / < 1
13-Clculo estocstico y simulacin j 207

para todo t  0, con p  1, se dice que el proceso es continuo en media de orden p si


lKmx!t E.jX t Xs jp / D 0: La continuidad en media de orden p implica la continui-
dad en probabilidad. La continuidad de media de orden p no implica necesariamente la
continuidad de las trayectorias.
Acotaciones adecuadas de los momentos de los incrementos del proceso, permiten
deducir la continuidad de las trayectorias. Este es el contenido del siguiente criterio de
continuidad, debido a Kolmogorov.
Proposicin 13.1 Criterio de continuidad de Kolmogorof. Supongamos que un proce-
so estocstico fX t ; t  0g cumple la condicin siguiente:

E.jX t Xs jp /  cT jt sj

para todo 0  s < t  T , donde a > 1 y p > 0. Entonces existe una versin del
proceso estocstico X t que tiene trayectorias continuas.
Toma su nombre
5 de Andri Nikolyevich Kolmogrov, Rusia 1903-1987.
X(t) 0

5
4
3 100
2 50
1 0
Sample # t

Figure 4.1. Four samples of a stochastic process.


13.2.1 Ejemplos
Sea X.t / D A cos.10t /, t  0, donde A es una variable aleatoria uniformemente distri-
buida en el intervalo 0; 1. X.t / es un proceso estocstico pues para cada tiempo dado
t0 , X.to / es una variable aleatoria uniforme. En la figura 13.2 se ven tres ejemplos de
X.t/, para 0  t  1.

1 Muestra 1
Muestra 2
Muestra 3

X(t) 0

1
0 0.25 0.5 0.75 1
t
Figura 13.2
Figure 4.2. Three samples of stochastic process X(t) =
A cos (10t).
208 j 13-Clculo estocstico y simulacin

13.2.1.1 Proceso de Bernoulli


Debido a Daniel Bernoulli, Groningen (Pases Bajos), 1700-Basilea, Suiza, 1782.

Es uno de los procesos estocsticos ms simples. Los constituyen secuencias de variables


aleatorias independientes e idnticamente distribuidas, cada una de las cuales toma el
valor 1, con probabilidad p, o el 0, con probabilidad 1 p.
Un ejemplo tpico es el de lanzar al aire una moneda un nmero de veces. Cada
lanzamiento lo representa una variable aleatoria de Bernoulli con probabilidad p de que
salga cara y 1 p de que salga cruz.

13.2.1.2 Paseo aleatorio


Bajo esta denominacin tan general se encuentran un buen nmero de procesos estocs-
ticos.
P
Definicin 13.14 Un paseo aleatorio es una sucesin Sn D niD1 i , donde las i
son variables aleatorias independientes idnticamente distribuidas y definidas sobre
el mismo espacio de probabilidad .; F; P /. Cuando las variables i toman valores
enteros se dice que el paseo aleatorio lo es en valores discretos y cuando i 2 1; 1
el paseo aleatorio se denomina simple.
Un paseo aleatorio S t se define en la recta real comenzando en S0 D 0 y avanzando
un paso de longitud i en cada unidad de tiempo entera i . Asumiremos que cada i es
C1 o 1 con la misma probabilidad, igual a 1=2.
El movimiento browniano discreto fue observado por primera ver por Robert Brown,
Reino Unido, 1773-1857, en el movimiento irregular de los granos de polen en suspen-
sin.

Se define como el paseo aleatorio dado por la sucesin de pasos acumulados


S t D S0 C 1 C 2 C    C  t ; t D 0; 1; 2; : : : :
En la figura 13.3 se pueden ver dos desarrollos tpicos de movimiento browniano discre-
to. El programa de M ATLAB del cuadro 13.1 lleva a cabo un paseo aleatorio de 10 pasos.
ws two different trajectories of a simple -4

2 of 11
orresponds to a (different) frozen , -6
13-Clculo estocstico y simulacin j 209
We will define the simple random walk later. For
follows. It starts at x = 0 for t = 0. After that a fair
wo vari- 6 6

= 1) if heads is observed and down to x = 1 is we


variable,

4 4
t t = 1, 2, . . . and the position at t + 1 is determined
point of

all the coin tosses 2 before (note that the position at


function
2

= k, x = k + 2, .. . , x = k 2, x =k). ,

tions are 5 10 15 20

5 10 15

20

above, Figure -22. on the right shows two

-2

m process; in each graph, the time t is


athesimple -4
various values random variables X15
-4

, the -6probability mass functions.


ndthrough -6

later. For
that a fair Figura 13.3: Paseos aleatorios tpicos
NONICAL PROBABILITY SPACE
6 Figure 1: Two (truncated) trajec-
= 1 is we
tories
de 10ofpasos
a random walk.

4 % Movimiento browniano
etermined
it sounds too abstract. When one deals
%
with
t=10; w=0;
position at
chastic processes, the construction of the
2 for i=1:t
0.30
if rand>1/2
o support a given
model

5
is usually
10
quite
else
15
w=w+1;

20
0.25

urse does not suffer from that problem


ows two

w=w-1;
0.20
-2 end

be implemented
ime t is on a special probability
end 0.15

bles X15 :
ple-space -4 0.10

Cuadro 13.1
unctions.
0.05
-6

[0, 1] = [0, 1] , 0.00


-20 -10 0 10 20
0.30

SPACE LaFigure
will be a sequence esperanza 1: =Two
(0(truncated)
matemtica
, 1 ,de
2cada trajec-
, . . .paso
) i del0.25 paseo aleatorio S es E. / D .0;5/.1/C
t i
.0;5/. 1/
tories D of0. aSu
n N0 we define the mapping n : varianza
random Var./
walk. D E. i
0.20 0/ 2
D .0;5/.1/ 2
C .0;5/. 1/2 D 1.
La esperanza matemtica del paseo aleatorio0.15despus de t pasos es E.S t / D E.1 C
healsn-th
withcoordinate :
   C  t / D E.1 / C    C E. t / D 0 y la varianza Var.S t / D Var.1 C    C  t / D
on of the Var.0.30 1 / C    C Var. t / D t, pues la
0.10
varianza es aditiva sobre las variables aleatorias
n (
lly )=
quite n . 0.25
independientes.
0.05

problem El0.20hecho de que la media de S t sea 0 y su varianza


-20 t indica
0.00
-10 que0 al calcular
10 n diferentes
20

eorem can be0.15found


desarrollos invariable
de la advanced proba-
aleatoria S t , la media muestral
obability
0.10
Figure
S t1 C  2:
 CTwo
S tn time-slices, corre-
mS .t / D E.S t / Dsponding
0.05 n to t = 15 and t = 20,
algebra F and a0.00probability P on0 such10 that 20 of the random walk.
y la varianza muestral
-20 -10
0.30

m
2variable
, . . . ) with0.25 the uniform distribution on .S t1 Es /2 C    C .S tn Es /2
S .t; t / D Var.S t / D
n : 0.20 n 1

dependent.deberan aproximarse a 0 y t, respectivamente. La desviacin estndar muestral, que es


0.15

0.10

0.05
210 j 13-Clculo estocstico y simulacin

la raz cuadrada de la varianza muestral, tambin se conoce como el error estndar de la


media.
Si se reduce cada paso p del paseo aleatorio en trminos de amplitud y altura del mis-
mo, por factores k y 1= k respectivamente, se conseguir que la esperanza matemtica
del proceso siga siendo la misma, al igual que la varianza. Esto es as pues la multiplica-
cin de una variable aleatoria por una constante hace que su varianza cambie en trminos
de la raz cuadrada de esa constante. p
Si S tk es la variable aleatoria de paso 1=k del de S t , y de altura un 1= k, con igual
probabilidad, la esperanza matemtica despus de t pasos es

X
kt X
kt
E.S tk / D E.Sik / D 0 D 0:
i D1 i D1

La varianza ser

"    #
X
kt X kt
1 2 1 2 kt
Var.S tk / D Var.Sik / D p .0;5/ C p .0;5/ D D t:
k k k
i D1 i D1

La figura 13.4 muestra un paseo aleatorio discreto con 10 pasos y otro con k D 25, es
decir con and
andom Numbers 250.Applications

y y

5 5

x x
5 10 5 10

5 5

(a) (b)
Figura 13.4
Figure 9.10 Discrete Brownian motion. (a) Random walk Wt of 10 steps. (b) Random walk Wt25

using 25 times more steps than (a), but with step height 1/ 25. The mean and variance of the
El lmite
height at timedet =esta subdivisin
10 are identical (0deand cuando
S t 10, k!1
respectively) forda lugar al(a)movimiento
processes and (b). browniano
continuo en el que t es una variable real y W t D S t1 es una variable aleatoria para cada
t  0. Se conoce ms concretamente como Proceso de Wiener, kpor Norbert Wiener,
Therefore,
EE.UU. Wtk is dened
1894-1964, que fueto be the random walk that takes a step s of horizontal length
quien estableci en los aos 20 del isiglo XX el modelo
1/k, and with step height 1/ k with equal probability. Then the expected value at time t
is still
13-Clculo estocstico y simulacin j 211

matemtico del movimiento browniano basado en la teora de los procesos estocsticos.

Definicin 13.15 Un proceso estocstico fW t ; t  0g es un proceso de Wiener o


movimiento browniano continuo en el espacio .; F; P / si se cumplen estas condi-
ciones:
I W0 D 0.
II Fijados unos instantes 0  t1 <    < tn , los incrementos W tn W tn 1 ; : : : ; W t2
W t1 son variables aleatorias independientes.
III Si s < t, el incremento W t Ws tiene una ley normal N.0; t s/.
IV Las trayectorias del proceso son funciones continuas.
La condicin III es consecuencia del teorema central del lmite.
El proceso de Wiener es un proceso gaussiano ya que la ley de un vector aleato-
rio .W t1 ; : : : ; W tn / es normal ya que ste es una transformacin lineal de .W t1 ; W t2
W t1 ; : : : ; W tn W tn 1 / que tiene ley normal ya que tiene las componentes independientes
y normales.
La esperanza matemtica o media y la autocovarianza son

E.W t / D 0
E.Ws W t / D E.Ws .W t Ws C Ws //
D E.Ws .W t Ws // C E.Ws2 / D s D mi n.s; t /

si s  t . Si un proceso gaussiano tiene media cero y funcin de autocovarianza X .s; t / D


mi n.s:t /, cumple las condiciones I, II y III.
El programa de M ATLAB del cuadro 13.2, que utiliza el generador de numeros alea-
torios normales randn, genera un proceso de Wiener con un paso t D 1=25 como se
vea en la figura 13.4.

% Proceso de Wiener de 250 pasos


%
k=250;
sqdelt=sqrt(1/25);
b=0:
for i=1:k
b=b+sqdelt*randn;
end

Cuadro 13.2
212 j 13-Clculo estocstico y simulacin

13.2.1.3 Procesos de Poisson


Toman su nombre de Simon Denis Poisson, Francia, 1781-1840.
Definicin 13.16 Un proceso de Poisson fN t ; t  0g es un proceso estocstico carac-
terizado por las siguientes propiedades:
I N0 D 0.
II Fijados unos instantes 0  t1 <    < tn , los incrementos N tn N tn 1 ; : : : ; N t2
N t1 son variables aleatorias independientes.
III Si s < t, el incremento N t Ns tiene una ley de Poisson de parmetro .t s/,
es decir

.t s/ .t s/k


P .N t Ns D k/ D e ; k D 0; 1; 2; : : :
k

Un proceso de Poisson se construye a partir de una sucesin fYn ; n  1g de variables


aleatorias independientes y con una ley geomtrica de parmetro . Es decir, para todo
x  0, P .Yn  x/ D e x : Si se hace T0 D 0 y para n  1, Tn D Y1 C    C Yn ,
entonces el proceso N t definido por N t D n si Tn  t < TnC1 es un proceso de Poisson
de parmetro , denominado intensidad.
Las trayectorias del proceso de Poisson tienen saltos de amplitud 1 y son constantes
en cada par de saltos. Los tiempos entre cada par de saltos son variables aleatorias inde-
pendientes con leyes exponenciales de parmetro . Las trayectorias no son continuas,
aunque si lo son en media cuadrtica:

X
1 2
.t s/k
.t s/ k
E.N t Ns /2 D e
k
kD1
s!t
D .t s/ C .t s/2 ! 0:

13.2.1.4 Procesos de Markov


Toman su nombre de Andrey Andreyevich Markov, Rusia 1856-1922.

Definicin 13.17 Un proceso estocstico fXn ; n  og, en el que las variables alea-
torias estn definidas en un espacio medible, es un proceso o cadena de Markov si
para cualquier n y cualquier conjunto A se cumple que P .XnC1 2 AjX0 ; : : : ; Xn / D
13-Clculo estocstico y simulacin j 213

P .XnC1 2 AjXn /. A los procesos que se comportan de esta manera se dicen, en gene-
ral, que cumplen la propiedad de Markov.
Lo que quiere decir que dado el presente cualquier otra informacin del pasado es re-
dundante o irrelevante para predecir el futuro. La definicin es equivalente a la identidad
E.f .XnC1 /jX1 ; : : : ; Xn / D E.f .XnC1 /jXn /.
Los procesos de Bernoulli, Wiener, brownianos y de Poisson son procesos que cum-
plen esta propiedad.

13.3 Simulacin
Los modelos matemticos, para ser crebles y robustos ante distintos escenarios de ac-
tuacin, necesitan simular sus prestaciones a partir de patrones de situaciones ya dadas
o de datos imaginados. Esto permite analizarlos para conocer sus debilidades numricas
o tericas y as mejorarlos. Si se alimentan con datos que fijen un punto de partida ade-
cuado y unas condiciones de contorno previsibles, pueden permitir, con el resultado de
su operacin, tomar decisiones con un grado de certeza o riesgo ms o menos aceptable
de acuerdo con el grado de dificultad o entidad de la decisin.
Los modelos de procesos estocsticos se basan en situaciones probables, aunque in-
ciertas, dentro de unos determinados mrgenes de actuacin. Su evolucin es aleatoria y
dotada de ruido por lo que para simular su comportamiento es necesario generar nmeros
aleatorios que imiten o reproduzcan hasta donde sea posible ese ruido o aleatoriedad. En
los apartados anteriores hemos presentado unos ejemplos muy sencillos de cmo hacer
unas modestas simulaciones con la ayuda de M ATLAB para generar paseos aleatorios,
procesos de Wiener, etc.
Aunque todos disponemos intuitivamente de una cierta nocin de un nmero aleato-
rio, no es nada fcil definirlo con precisin. Tampoco en fcil imaginar cmo generarlos
mediante una mquina y que su patrn de ocurrencia responda a una distribucin con-
creta como la normal, la exponencial, la gaussiana, etc.

13.3.1 Generacin de nmeros aleatorios


Aunque el objetivo a alcanzar sera producir nmeros aleatorios sucesivamente de tal
manera que cualquiera de ellos fuese absolutamente independiente de los anteriores y
su distribucin idntica, independientemente de su posicin en el orden dado, lo cierto
es que tal aspiracin, con los medios finitos de que disponemos y con el sistema de nu-
meracin implcito en los ordenadores actuales tan limitado, es imposible. S se pueden
conseguir nmeros pseudo-aleatorios o cuasi-aleatorios con patrones de aproximacin
a las caractersticas ideales ms o menos adecuadas al objetivo en cada caso.
La mayora de los nmeros aleatorios generados por los ordenadores actuales son
pseudo-aleatorios, donde la secuencia se repite a partir de un cebado inicial con una
frecuencia determinada. Las prestaciones de estos nmeros es buena en general, pero no
son tan aleatorios como, por ejemplo, los sofisticados nmeros generados por el ruido
214 j 13-Clculo estocstico y simulacin

atmosfrico electromagntico utilizado como fuente de entropa.


La serie de valores pseudo-aleatorios generados est generalmente determinada por
un nmero fijo llamado semilla (seed), que desencadena la sucesin. Uno de los algo-
ritmos ms comunes es el denominado congruencial lineal que utiliza la frmula de
recurrencia xnC1 D .axn C b/ mod m, donde a, b y m son nmeros enteros grandes. El
nmero mximo de nmeros que la frmula puede producir es el mdulo m.
La mayora de los lenguajes de programacin informtica incluyen funciones o ruti-
nas que proporcionan nmeros aleatorios. El generador de nmeros aleatorios ms uti-
lizado y reconocido en la actualidad se basa en el algoritmo Mersenne Twister, del
tipo minimal standard random number generator. Se suele inicializar utilizando como
semilla el reloj de tiempo real del ordenador. Su nombre proviene de un monje, Marin
Mersenne, Francia 1588-1648, que estudi los nmeros primos que llevan su nombre
(primos iguales a una potencia de 2 menos 1).

Ejemplo 13.8 Vamos a utilizar este generador de nmeros aleatorios para, siguiendo a
Sauer [2012], y adelantndonos a la introduccin de la tcnica Monte Carlo, calcular el
rea del conjunto de puntos .x; y/ que satisfacen

4.2x 1/4 C 8.2y 1/8 < 1 C 2.2y 1/3 .3x 2/2 :

La idea es generar 10.000 pares de puntos .x; y/ de tal manera que los que cumplan esta
inecuacin se registran. Al final del proceso se cuentan cuntos de estos hay en total,
y esa cantidad dividida por 10.000 nos dar el rea ms probable que encierra a ese
conjunto de puntos. En la figura 13.5 se puede ver el resultado de la simulacin que
numricamente es 0;547 y el rea cubierta por los puntos que cumplen la inecuacin.

Un pequeo cdigo de M ATLAB para llevar a efecto estos clculos se lista en el


cuadro 13.3. Se puede ensayar con diversos valores de n para comprobar el resultado.

13.3.2 Simulacin de variables aleatorias


Teniendo un generador de nmeros aleatorios (o pseudo-aleatorios), rand, suficiente-
mente bueno, podremos simular variables aleatorias con distribuciones diferentes de la
uniforme en 0; 1. Esto se logra casi siempre mediante transformaciones de lo producido
por ese generador con mtodos como los que siguen.
13-Clculo estocstico y simulacin j 215
9.1 Random Numbers | 435

0.8

0.6

y
0.4

0.2

0
0 0.5 1
x

Figure 9.2 Monte Carlo calculation of area. From 10,000 random pairs in [0, 1] [0, 1], the
Figura 13.5
ones that satisfy the inequality in Example 9.2 are plotted. The proportion of plotted random
pairs is an approximation to the area.
function x=MoCa_1(n)
xy=rand(n,2); k=0;
for i=1:n
EXAMPLE 9.2 Find theifarea of the set of points (x, y) that satisfy
4*(xy(i,1)*2-1)^4+8*(2*xy(i,2)-1)^8<1+2*(2*xy(i,2)-1)^3*(3*xy(i,1)-2)^2
k=k+1;
end 4(2x 1)4 + 8(2y 1)8 < 1 + 2(2y 1)3 (3x 2)2 .
end
x=k/n;
We will call this a Monte Carlo Type 2 problem. There is no clear way to describe
thisend
area as the average value of a function of one variable, since we cannot solve for
y. However, given a candidate (x, y), we can easily check whether or not it belongs to
the set. We will equate the desired area with 13.3
Cuadro the probability that a given random pair
(x, y) = (ui , ui+1 ) belongs to the set and try to approximate that probability.
Figure 9.2 shows this idea carried out with 10,000 random pairs generated by the
Minimal Standardaleatorias
13.3.2.1 Variables LCG. The proportion
discretas of pairs in the unit square 0 x, y 1 that satisfy
the inequality, and are plotted in the gure, is 0.547, which we will take as an approximation
Si X to
tiene una distribucin de probabilidad discreta dada por los pares suceso-probabi-
the area. 
lidad de la matriz que sigue
Although we have made a distinction  between twotypes of Monte Carlo problems,
there is no rm boundary between them.xWhat  x
x2 they have
n in common is that they are both
X DThis1is explicit
computing the average of a function. ;
p1 p2    pn the previous type 1 example. In
in
the type 2 example, we are trying to compute the average of the characteristic function
se definen
of the unos nmeros
set, the 0 < q1 <    < qn D 1 tales que
D qtakes
function0that the value 1 for points inside the set and 0 for points
outside. The main difference here is that unlike the function f (x) = x 2 in Example 9.1, the
q0 D 0;
characteristic q1 D of
function q2isD
p1a;set p1 C p2 ; : : : ; qnisDanpabrupt
discontinuousthere 1Cp 2 C    at
transition pntheDboundary
1:
of the set. We can also easily imagine combinations of types 1 and 2. (See Computer
Para simular la variable aleatoria discreta X se utiliza el generador rand y se hace igual
Problem 8.)
a x1 si 0 One
rand< q1 , infamous
of the most x2 si q1random
rand< q2 ,generators
number y as sucesivamente. Si la distribucin
is the randu generator, used on de
many early
probabilidad esIBM
muycomputers
extensa,and ported from
se puede thereatoun
truncar many
valorothers.
de nTraces of it can be easily
suficientemente grande.
found on the Internet with a search engine, so it is apparently still in use.
The randu generator
13.3.2.2 El mtodo de las funciones inversas
xi = ax
Se basa en que si X es una variable i1 (mod
aleatoria conm)una funcin de distribucin FX , la
xi
variable aleatoria Y D FX .X / est
ui =uniformemente
, distribuida en 0; 1. Invirtiendo
(9.4) la
m
funcin de distribucin FX y aplicndola a Y se puede recuperar X.
where a = 65539 = 216 + 3 and m = 231 .
216 j 13-Clculo estocstico y simulacin

Si se quiere simular una variable aleatoria con una funcin de distribucin invertible
F , primero se simula una variable aleatoria uniforme en 0; 1 y luego se le aplica al
resultado la funcin F 1 . El mtodo falla, por supuesto, si no se puede explicitar F 1 .
Ejemplo 13.9 Apliquemos este mtodo para simular una variable aleatoria X con dis-
tribucin exponencial y parmetro . Recordemos que la funcin de densidad de proba-
bilidad en este caso es fX .x/ D e x , x > 0, por lo que FX D 1 e x , x > 0,
y
1
FX 1 .y/ D log.1 y/:

Como 1-rand tiene la misma distribucin en 0; 1 que rand, se deduce que log.rand)
= tiene la distribucin exponencial con parmetro  que se desea obtener.

13.3.2.3 El mtodo de Box-Mller


Este mtodo se usa para simular variables aleatorias con distribucin normal. Toma su
nombre del trabajo de George Edward Pelham Box, Reino Unido 1919-EE.UU. 2013,

y Mervin Edgar Mller. Se basa en este resultado.


Proposicin 13.2 Dadas dos variables Y1 e Y2 uniformemente distribuidas en 0; 1,
las variables aleatorias
p p
X1 D 2 log.1 Y1 / cos.2Y2 / y X2 D 2 log.1 Y1 / sen.2Y2 /

son independientes y de distribucin normal N.0; 1/.


De acuerdo con l, para simular una variable aleatoria de distribucin normal de
media  D 0 y varianza  2 D 1, se pude utilizar rand para obtener dos nmeros,
rand1y rand2 de tal manera que
p p
X1 D 2 log.rand1/ cos.2rand2/ y X2 D 2 log.rand1/ sen.2rand2/

sean dos variables aleatorias normales independientes.

13.3.2.4 Mtodo basado en el teorema central del lmite


Habitualmente se usa este procedimiento para simular una variable aleatoria normal:
1. Simular doce variables independientes X1 ; X2 ; : : : ; X12 uniformemente distribui-
das mediante rand.
13-Clculo estocstico y simulacin j 217

2. Hacer Y D X1 C X2 C    X12 6.
La distribucin de la variable aleatoria Y es muy prxima a una normal pero no exacta-
mente (pues P .Y > 6/ D 0 pero P .Z > 6/ 0 para una autntica normal). Esto es as
como consecuencia de este resultado.
Teorema 13.3 Sea X1 ; X2 ; : : : una sucesin de variables aleatorias independientes que
tienen la misma distribucin. Sea  D E.X1 / D E.X2 / D    y  2 D Var.X1 / D
Var.X2 / D    . La sucesin de variables aleatorias normales

.X1 C X2 C    Xn / n
p
 n
converge a una variable aleatoria normal.
El que se escojan 12 u otro nmero de variables depende de la experiencia y de la
bondad de los resultados con la que se simulen los datos que se requieran.

13.3.2.5 Vector de variables


El esquema general para simular un vector de variables aleatorias normales de media 
y matriz de covarianzas sera este:
1. Simular n variables aleatorias independientes y con ellas construir el vector .
2. Calcular la descomposicin de Cholesky A T A D .
3. El vector que se necesita se obtiene haciendo Y D A C .

13.3.3 El mtodo Montecarlo


Este mtodo materializa mediante un procedimiento de clculo el conocimiento de pro-
cesos estocsticos y sus resultados a base de llevar a cabo mltiples muestreos de los
datos esenciales de las variables que constituyen los problemas que estudian y analizan.
Contra ms muestras se hagan del problema, y de la dinmica de como evoluciona ste,
mejores sern los resultados que el procedimiento consiga. Ya hemos visto alguna de sus
prestaciones y posibilidades para calcular el rea dentro de una determinada curva.
En su versin moderna se debe al trabajo de Stanislaw Marcin Ulam, Lemberg,
Austria-Hungra 1909-EE.UU. 1984 y John von Neumann, Budapest, Austria-Hungra
1903-EE.UU. 1957.

Von Neumann es, como deca Newton, uno de los grandes gigantes que ha dado la
naturaleza humana. Sus contribuciones en los 53 aos de su vida a mltiples disciplinas
relacionadas con las matemticas son absolutamnte portentosas. No cabe duda de que a
218 j 13-Clculo estocstico y simulacin

hombros de l los avances de muchas reas a las que dedicamos este libro han permitido
ver e ir mucho ms lejos de lo que l comenz.
El mtodo Montecarlo est basado en este interesante resultado.
Teorema 13.4 Ley de los grandes nmeros. Sea X1 ; X2 ; : : : una sucesin de variables
aleatorias independientes que tienen la misma distribucin y la funcin g W R ! R tal
que  D Eg.X1 / D Eg.X2 / D    . Se cumple que
l 1
g.X1 / C g.X2 / C    C g.Xn /
!D g.x/fX1 .x/ dx al n ! 1:
n
1

De acuerdo con l, la estrategia de clculo del mtodo de Montecarlo es la siguiente:


SupngaseR1que una cantidad que se quiere determinar se puede escribir co-
mo y D 1 g.x/fX .x/ dx para alguna variable aleatoria X con funcin
de densidad de probabilidad fX , y para alguna funcin concreta g. Tambin,
que los nmeros x1 ; x2 ; : : : son muestras aleatorias de la distribucin de fX .
Entonces, la media
1
.g.x1 / C g.x2 / C    C g.xn //
n
p
aproxima el valor de y con una precisin aproximada dada por 1= n.
En la actualidad se usa masivamente para calcular expectativas de precios de de-
rivados financieros, predicciones de evolucin en bolsa de determinados productos y
posiciones, procesos estocsticos complicados, etc.

13.4 Ecuaciones diferenciales estocsticas


Una variante de las ecuaciones diferenciales cada da ms extendida surge cuando la
dinmica del proceso que modelizan est afectada por movimientos aparentemente alea-
torias, o ruidos. En tal caso nos encontraremos con ecuaciones diferenciales estocsticas.
Lo que sigue es una breve introduccin a la solucin de las mismas, que son procesos
estocsticos continuos como, por ejemplo, el movimiento browniano que acabamos de
ver un poco ms arriba.
La resolucin de una ecuacin diferencial ordinaria, convertida en ecuacin diferen-
cial estocstica EDS, trata de obtener la solucin de
(
dy D r dt C  dB t
y.0/ D 0;

donde r y  son constantes coeficiente de deriva y coeficiente de difusin, respecti-


vamente y B t un proceso estocstico, como el movimiento browniano. La solucin
tendr la forma y.t / D rt C B t .
13-Clculo estocstico y simulacin j 219

Muchos procesos estocsticos, como el movimiento browniano, son continuos pero


no diferenciables. La EDS

dy D f .t; y/ dt C g.t; y/ dB t

expresa por definicin la ecuacin


Z 1 Z 1
y.t / D y.0/ C f .s; y/ d C g.s; y/ dBs ;
0 0

donde la segunda integral se denomina integral de Ito. Su nombre proviene de Kiyosi


It, Japn 1915-2008.

La integral de Ito, de forma parecida a como se define la integral de Riemann, es


Z b X
n
f .t / dB t D lKm f .ti 1 /Bi ;
a t!0
iD1

donde Bi D B ti B ti 1 , es un paso browniano a lo largo del intervalo de integracin.


Rb
La integral de Ito, I D a f .t / dB t es una variable aleatoria. El diferencial dI es
dI D f dB t . El diferencial dB t se denomina ruido blanco.
Si en la ecuacin diferencia estocstica dy.t / D r dt C  dB t , y D f .t; x/, la regla
de la cadena en trminos estocsticos define la frmula de Ito

@f @f 1 @2 f
dy D .t; x/ dt C .t; x/ dx C .t; x/ dx dx;
@t @x 2 @x 2
donde dx dx se puede interpretar en trminos de dt dt D 0, dt dB t D dB t , dt D 0 y
dB t dB t D dt .
La frmula de Ito permite resolver explcitamente algunas ecuaciones diferenciales
estocsticas.
Ejemplo 13.10 Comprobemos si la ecuacin de movimiento browniano geomtrico
1 2
y.t / D y0 e .r 2  /t CB t

satisface la ecuacin diferencial estocstica

dy D ry dt C y dB t :
220 j 13-Clculo estocstico y simulacin

1 2
Hagamos y D f .t; x/ D y0 e x , donde x D .r 2
 /t C B t . Mediante la frmula

1
dy D y0 e x C y0 e x dx dx;
2
donde dx D .r 1=2 2 /dt C  dB t . Haciendo uso de los valores diferenciales de la
frmula de Ito, se tiene que dx dx D  2 dt . En consecuencia,
 
1 2 1
dy D y0 e x r  dt C y0 e x  dB t C y0  2 e x dt
2 2
D y0 e x r dt C y0 e x  dB t
D ry dt C y dB t :

Esta ecuacin se utiliza habitualmente en modelos financieros. En concreto, es la frmula


detrs del modelo de Black-Scholes para poner precio a los derivados financieros.
Muchas ecuaciones diferenciales estocsticas no pueden resolverse explcitamente.
Por ello es conveniente disponer de mtodos numricos que permiten la simulacin de
soluciones.

13.4.1 Integracin numrica de ecuaciones diferenciales estocsticas


El mtodo de Euler-Maruyama, similar al de Euler para integrar EDO, toma su nombre
de Gisiro Maruyama, Japn 1916-1986.

Se trata de resolver el problema


(
dy.t / D f .t; y/ dt C g.t; y/ dB t
y.a/ D ya

Se subdivide el intervalo de integracin a; b en n subintervalos de longitud ti .


La frmula de recurrencia que utiliza es

wiC1 D wi C f .ti ; wi /ti C g.ti ; wi /Bi :

En ella ti D tiC1 ti , Bi D B tiC1 B ti y w0 D ya .


Lo crucial es modelizar el movimiento browniano Bi . Para ello basta con obtener
valores de n
pvariables aleatorias 1 ; : : : ; n independientes con ley N.0; 1/ y substituir
Bi por i ti .
13-Clculo estocstico y simulacin j 221

El error que comete este procedimiento al aproximar y.T / por w.T /, en funcin del
t escogido es
e D Ejy.T / w.T /j2  c.t /1=2 :
El mtodo de Euler-Maruyama puede mejorarse mediante una correccin adicional
como la que introduce el mtodo de Grigori N. Milstein. Su idea es incorporar ms infor-
macin de segundas derivadas a los procesos f .t; y/ y g.t; y/ de la ecuacin diferencial
estocstica, con el concurso de la frmula de Ito. La frmula de recurrencia que utiliza
es esta:
1 @g
wiC1 D wi C f .ti ; wi /ti C g.ti ; wi /Bi C g.ti ; wi / .ti ; wi /..Bi /2 ti /:
2 @y

El error que se comete en este caso es e D Ejy.T / w.T /j2  c.t /.


Una mejora de esta variante la constituye la que incorpora la idea de los mtodos de
Runge-Kutta en el caso de ecuaciones diferenciales ordinarias. Su objetivo es evitar la
necesidad del clculo de las derivadas parciales que requiere lo propuesto por Milstein,
aproximndolas mediante la frmula
p
@g g.ti ; wi C g.ti ; wi / ti / g.ti ; wi /
.ti ; wi /  p :
@y g.ti ; wi / ti

La frmula de recurrencia queda as:

wiC1 D wi C f .ti ; wi /ti C g.ti ; wi /Bi C


1 h p i 
C p g.ti ; wi C g.ti ; wi / ti / g.ti ; wi / .Bi /2 ti :
2 ti

13.5 Aplicacin del clculo estocstico a la cobertura y va-


loracin de derivados financieros. El modelo de Black
y Scholes
El rea financiera, tan omnipresente en nuestras vidas en la actualidad, es donde proba-
blemente ms uso se hace de la simulacin y optimizacin de procesos estocsticos.
Los derivados financieros son instrumentos cuyo valor deriva de otro instrumento.
En particular, una opcin es el derecho a llevar a efecto una determinada transaccin
financiera sin estar obligado a ello.
Una opcin de compra (European call option) da a su comprador el derecho a com-
prar una accin o activo a un precio predeterminado strike price en una fecha con-
creta exercise date. El vendedor de la opcin de compra tiene la obligacin de ven-
der el activo en el caso de que el comprador ejerza el derecho a comprar. Las opciones se
usan por las empresas para gestionar el riesgo de sus operaciones especulativas y posi-
ciones financieras. Los particulares las usan como estrategias de inversin y para cubrir
222 j 13-Clculo estocstico y simulacin

riesgos en otras operaciones. Todo esto conforma todo un entramado hoy en da dif-
cilmente controlable y entendible por sus infinidad de ramificaciones e interpretaciones.
Ni qu decir tiene que los clculos para valorar opciones y los datos en qu basarlos no
estn al alcance de cualquiera, por lo que son las grandes corporaciones o los analistas y
gestores especializados los que saben cmo usarlos y cundo.
En estas breves lneas simplemente esbozamos cmo se puede calcular el precio de
esas opciones y el modelo de Black y Scholes, por Fischer Sheffey Black, EE.UU. 1938-
1995, y Myron Samuel Scholes, EE.UU. 1941,

que a la postre les vali para conseguir el Premio Nobel de Economa.


Un sencillo ejemplo para contextualizar las frmulas que emplearemos se refiere a
una opcin de compra de acciones de la compaa IBD por 15 e el 1 de diciembre. Si el
precio de las acciones de esta compaa, tan aparentemente atractiva, el 1 de junio est
en 12 e, la pregunta es cul es el valor de esa opcin o derecho de compra? El valor o
precio de la accin el da del vencimiento ser K euros. Si X es el valor de la accin en
un momento dado, el de la opcin esperable ser el mKax fX K; 0g. Si X > Z, el valor
de la opcin el da de la ejecucin es positivo e igual a X K euros. Si X < K el valor
ser cero para el comprador de la opcin.
El modelo para valorar estos derivados se basa en un movimiento browniano de tipo
geomtrico con la frmula

dX D mX dt C X dB t ;

donde m es la deriva, o tasa de crecimiento del precio de la accin, y  es la constante


de difusin, o volatilidad. Estos dos parmetros se pueden estimar estadsticamente en
funcin de los valores a los que ha cotizado la accin los ltimos tiempos.
El razonamiento de Black y Scholes para deducir su frmula se basa en considerar
una propuesta de arbitrage al respecto, nada ms que el valor correcto de esa opcin,
a T meses o aos vista, debera ser el valor presente del valor esperado de la opcin el
da de su vencimiento teniendo en cuenta que el valor real de la accin subyacente X.t /
satisface la ecuacin diferencial estocstica

dX D rX dt C X dB t :

Esto resulta en que si el precio de la accin objeto de anlisis es X D X0 en el instante


t D 0, el valor esperable de la opcin en el instante de su vencimiento t D T es
rT
C.X; T / D e EmKax .X.T / K; 0/;
13-Clculo estocstico y simulacin j 223

donde X.t / es el valor determinado por la ecuacin diferencial estocstica anterior. Lo


sorprendente de esta frmula es que la deriva m se reemplaza por la tasa de inters o
rentabilidad r. De hecho, el previsible crecimiento de la cotizacin de la accin es irre-
levante para el valor de la opcin, lo cual se desprende de la suposicin de no arbitrage,
base de la teora de Black y Scholes, que viene a decir que no existen ganancias libres
de riesgos en un mercado realmente eficiente.
La ltima frmula depende del valor de la esperanza matemtica de la variable alea-
toria X.t /, que slo se puede conocer mediante simulacin, como sabemos. Si se aporta
esa informacin, la expresin compacta del valor de la opcin que dedujeron Black y
Scholes es
C.X; T / D XN.d1 / Ke rT N.d2 /;
Rx s 2 =2
donde N.x/ D p1 1e ds es la funcin de distribucin normal acumulada,
2
 
ln.X=K/ C r C 21  2 T ln.X=K/ C r 1 2
2
 T
d1 D p y d2 D p :
 T  T
224 j 13-Clculo estocstico y simulacin
Bibliografa

[1] A ASEN , J.O. 1971. On the Reduction of a Symmetric Matrix to Tridiagonal Form. BIT 11,
pp. 233-242.
[2] A BADIE , J. ED . 1970. Integer and Nonlinear Programming. North-Holland.
[3] A BERTH , O. 2007. Introduction to Precise Numerical Methods. Elsevier.
[4] A BELL , M.L. Y B RASELTON , J.P. 2004. Mathematica by Example. Elsevier.
[5] ACTON , F.S. 1990. Numerical Methods that Work. The Mathematical Association of Ame-
rica.
[6] A DAMS , J.C., B RAINERD , W.S., M ARTIN , J.T., S MITH , B.T. Y WAGENER , J.L. 1992.
Fortran 90 Handbook. Complete ANSI/ISO Reference. McGraw-Hill.
[7] A DOBE S YSTEMS I NCORPORATED . 1986. PostScript Language. Tutorial and Cookbook.
Addison-Wesley.
[8] A DOBE S YSTEMS I NCORPORATED . 1990. PostScript Language. Reference Manual.
Addison-Wesley.
[9] A HUJA , R.K., M AGNATI , T.L. Y O RLIN , J.B. 1989. Network Flows. En Handbooks in
Operations Research and Management Science. Volume 1: Optimization. Nemhauser, G.L.,
Rinnooy Kan, A.H.G. y Todd, M.J. eds. North-Holland.
[10] A LJ , A. Y FAURE , R. 1988. Investigacin operativa. Elementos fundamentales. Vol. 1.
Masson.
[11] A LVARADO , F.L. 1979. A Note on Sorting Sparse Matrices. Proceedings of the IEEE 67,
pp. 1362-1363.
[12] A LVARADO , F.L. 1990. Manipulation and Visualization of Sparse Matrices. ORSA J. Com-
puting 2, pp. 186-207.
[13] A LLAIRE , G. Y K ABER , S.M. 2008. Numerical Linear Algebra. Springer.
[14] A NDERS , G.J. 1990. Probability Concepts in Electric Power Systems. Wiley.
[15] A NDERSON , E., BAI , Z., B ISCHOF, C., D EMMEL , J., D ONGARRA , J., D U C ROZ , J.,
G REENBAUM , A., H AMMARLING S., M C K ENNEY, A., O STROUCHOV, S. Y S ORENSEN ,
D. 1992. LAPACK Users Guide. SIAM.
[16] A NDERSON , E., BAI , Z., B ISCHOF, C., D EMMEL , J., D ONGARRA , J., D U C ROZ , J.,
G REENBAUM , A., H AMMARLING S., M C K ENNEY, A., O STROUCHOV, S. Y S ORENSEN ,
D. 1995. LAPACK Users Guide. Second Edition. SIAM.
[17] A NTONIOU , A. Y L U , W-S. 2007. Practical Optimization. Algorithms and Engineering
Applications. Springer.
226 j Bibliografa

[18] A RBEL , A. 1993. Exploring Interior-Point Linear Programming. Algorithms and Software.
MIT Press.
[19] A RMIJO , L. 1966. Minimization of Functions Having Lipschitz Continuos First Partial
Derivatives. Pacific J. Math. 16, pp. 1-3.
[20] A RRILLAGA , J. Y A RNOLD , C.P. 1990. Computer Analysis of Power Systems. Wiley.
[21] A SCHER , U.M. Y G REIF, C. 2011. A First Course in Numerical Methods. SIAM.
[22] ATKINSON , K. 1993. Elementary Numerical Analysis. Wiley.
[23] ATKINSON , K. Y H AN , W. 2009. Theoretical Numerical Analysis. A Functional Analysis
Framework. Third Edition, Springer.
[24] ATKINSON , K., H AN , W. Y S TEWART, D.E. 2009. Numerical Solution of Ordinary Diffe-
rential Equations. Wiley.
[25] ATKINSON , L.V., H ARLEY, P.J. Y H UDSON , J.D. 1989. Numerical Methods with Fortran
77. A Practical Introduction. Addison-Wesley.
[26] ATTAWAY, S. 2012. MATLAB. A Practical Introduction to Programming and Problem Sol-
ving. Elsevier.
[27] ATTEIA , M. Y P RADEL , M. 1990. lments dAnalyse Numrique. Cepadues-Editions.
[28] AUZINGER , W. 2013. Iterative Solution of Large Linear Systems. TU Wien, Institute for
Analysis and Scientific Computing.
http://www.asc.tuwien.ac.at/~winfried/teaching/101.403/SS2012/downloads/iter.pdf
[29] AVRIEL , M. 1976. Nonlinear Programming. Analysis and Methods. Prentice Hall.
[30] A XELSSON , O. 1996. Iterative Solution Methods. Cambridge.
[31] BARRETT, R., B ERRY, M., C HAN , T.F., D EMMEL , J., D ONATO , J.M., D ONGARRA , J.,
E IJKHOUT, V., P OZO , R., ROMINE , C. Y VAN DER VORST, H. 1994. Templates for the
Solution of Linear Systems: Building Blocks for Iterative Methods. Secon Edition. SIAM.
[32] BRSOV, A.S. 1988. Qu es la Programacin Lineal. Editorial Mir.
[33] BARTELS , R.H. Y G OLUB , G.H. 1969. The Simplex Method of Linear Programming Using
LU Decomposition. Communications of the ACM 12, pp. 266-268.
[34] BASHIROV, A.E. 2014. Mathematical Analysis Fundamentals. Elsevier.
[35] BAZARAA , M.S. Y JARVIS , J.J. 1977. Linear Programming and Network Flows. Wiley.
[36] BAZARAA , M.S., JARVIS , J.J. Y S HERALI , H.D. 1990. Linear Programming and Network
Flows. Wiley.
[37] BAZARAA , M.S. Y S HETTY, C.M. 1979. Nonlinear Programming. Theory and Algorithms.
Wiley.
[38] BAZARAA , M.S., S HERALY, H.D. Y S HETTY, C.M. 1994. Nonlinear Programming.
Theory and Algorithms. Second Edition. Wiley.
[39] B EALE , E.M.L. 1954. An Alternative Method for Linear Programming. Proceedings of the
Cambridge Philosophical Society 50, pp. 513-523.
[40] B EASLEY, J.E. 1996. Advances in Linear and Integer Programming. Oxford University
Press.
[41] B ECKMANN , M.J. 1968. Dynamic Programming of Economic Decisions. Springer.
[42] B ELLMAN , R. Y D REYFUS , S.E. 1962. Applied Dynamic Programming. Princeton Uni-
versity Press.
[43] B ELLMAN , R. 1970. Introduction to Matrix Analysis. SIAM.
Bibliografa j 227

[44] B ELLMAN , R. 1972. Dynamic Programming. Princeton University Press.


[45] B ELLMAN , R. 1985. Introduccin al anlisis matricial. Editorial Revert.
[46] B ERGE , C. 1970. Graphes et Hypergraphes. Dunod.
[47] B EN -TAL , A. Y N EMIROVSKI , A. 2001. Lecture Notes on Modern Convex Optimization.
Analysis, Algorithms, and Engineering Applications. SIAM.
[48] B ERGEN , A.R. 1986. Power Systems Analysis. Prentice Hall.
[49] B ERMAN , A. Y P LEMMONS , R.J. 1974. Codes and Iterative Methods for Best Least Squa-
res Solutions of Linear Systems. SIAM J. Numer. Anal. 11, pp. 145-154.
[50] B ERTSEKAS , D.P. 1982. Constrained Optimization and Lagrange Multiplier Methods.
Academic Press.
[51] B ERTSEKAS , D.P. 1991. Linear Newtwork Optimization: Algorithms and Codes. The MIT
Press.
[52] B ERTSEKAS , D.P. 1995. Nonlinear Programming. Athena Scientific.
[53] B ERTSEKAS , D.P. 2003. Convex Analysis and Optimization. Athena Scientific.
[54] B ERTSEKAS , D.P. 2009. Convex Optimization Theory. Athena Scientific.
[55] B ERTSEKAS , D.P. 2015. Convex Optimization Algorithms. Athena Scientific.
[56] B ERTSEKAS , D.P. Y T SITSIKLIS , J.N. 1989. Parallel and Distributed Computation. Nu-
merical Methods. Prentice Hall.
[57] B ERTSIMAS , D.P. Y T SITSIKLIS , J.N. 1997. Introduction to Linear Optimization. Athena
Scientific.
[58] B EST, M.J. Y R ITTER , K. 1985. Linear Programming. Active Set Analysis and Computer
Programms. Prentice Hall.
[59] B HATTI , M.A. 2000. Practical Optimization Methods. Springer.
[60] B IEGLER , L.T. 2010. Nonlinear Programming. Concepts, Algorithms, and Applications to
Chemical Processes. SIAM.
[61] V 1990. Least Squares Methods. En Handbook of Numerical Analysis. Volume
B JRK , A.
1: Finite Difference Methods (Part 1); Solution of Equations in Rn (Part 1). Ciarlet, P.G. y
Lions, J.L. eds. North-Holland.
[62] V 1996. Numerical Methods for Least Squares Problems. SIAM.
B JRK , A.
V 2015. Numerical Methods in Matrix Computations. Springer.
[63] B JRK , A.
V Y E LFVING , T. 1979. Accelerated Projection Methods for Computing Psudoin-
[64] B JRK , A
verse Solutions of Systems of Linear Equations. BIT 19, pp. 145-163.
[65] B LACKFORD , L.S., C HOI , J., C LEARY, A., DA ZEVEDO , E., D EMMEL , J., D HILLON ,
I., D ONGARRA , J., H AMMARLIG , S., H ENRY, G., P ETITE , A., S TANLEY, K., WALKER ,
D. Y W HALEY, R.C. 1997. ScaLAPACK Users Guide. SIAM.
[66] B LANCHARD , P., D EVANEY, R.L. Y H ALL , G.R. 1999. Ecuaciones diferenciales. Thom-
son.
[67] B LAND , R.G. 1977. New Finite Pivoting Rules for the Simplex Method. Mathematics of
Operations Research 2, pp. 103-107.
[68] B OGGS , P.T., B YRD , R.H. Y S CHNABEL , R.B. EDS . 1985. Numerical Optimization 1984.
SIAM.
[69] B ORSE , G.J. 1997. Numerical Methods with MATLAB. PWS.
228 j Bibliografa

[70] B OT, R.I., G RAD , S.M. Y WANKA , G. 2009. Duality in Vector Optimization. Springer.
[71] B OYCE , W.E. Y D I P RIMA , R.C. 2009. Elementary Differential Equations and Boundary
Value Problems. Ninth Edition. Wiley.
[72] B OYD , S. Y VANDENBERGHE , L. 2004. Convex Optimization. Cambridge.
[73] B ONNANS , J.F., G ILBERT, J.C., L EMARCHAL , C. Y S AGASTIZBAL , C.A. 2006. Nu-
merical Optimization. Theoretical and Practical Aspects. Second Edition. Springer.
[74] B RADLEY, G.H., B ROWN , G.G. Y G RAVES , G.W. 1977. Design and Implementation of
Large Scale Transshipment Algorithms. Management Science 24, pp. 1-34.
[75] B RAINERD , W.S., G OLDBERG , C.H. Y A DAMS , J.C. 1990. Programmers Guide to For-
tran 90. McGraw-Hill.
[76] B RAINERD , W.S., G OLDBERG , C.H. Y A DAMS , J.C. 1996. Programmers Guide to For-
tran 90. Springer.
[77] B RAESS , D. 2007. Finite Elements. Theory, Fast Solvers, and Applications in Elasticity
Theory. Cambridge.
[78] B RANDIMARTE , P. 2006. Numerical Methods in Finance and Economics. A MATLAB-
Based Introduction. Wiley.
[79] B RENNER , S.C. Y S COTT, L.R. 2008. The Mathematical Theory of Finite Element Meth-
ods. Springer.
[80] B RIGGS , W.L. Y H ENSON , V.E. 1995. The DFT. An owners manual for the Discrete
Fourier Transform. SIAM.
[81] B RIGHAM , E.O. 1988. The Fast Fourier Transform and its Applications. Prentice Hall.
[82] B ROOKE , A., K ENDRICK , D. Y M EERAUS , A. 1988. GAMS. A Users Guide. The Scien-
tific Press.
[83] B ROWN , H.E. 1975. Solution of Large Networks by Matrix Methods. Wiley.
[84] B ROYDEN , C.G. 1965. A Class of Methods for Solving Nonlinear Simultaneous Equations.
Mathematics of Computation 19, pp. 577-593.
[85] B UNCH , J.R. Y K AUFMAN , L. 1977. Some Stable Methods for Calculating Inertia and
Solving Symmetric Linear Systems. Mathematics of Computation 31, pp. 163-179.
[86] B UNCH , J.R. Y PARLETT, B.N. 1971. Direct Methods for Solving Symmetric Indefinite
Systems of Linear Equations. SIAM J. Numer. Anal. 8, pp.639-655.
[87] B UNCH , J.R. Y ROSE , D.J. EDS . 1976. Sparse Matrix Computations. Academic Press.
[88] B UNCH , J.R., K AUFMAN , L. Y PARLETT, B.N. 1976. Decomposition of a Symetric Ma-
trix. Numerische Mathematik 27, pp. 95-109.
[89] B UNCH , J.R. 1971. Analysis of the Diagonal Pivoting Method. SIAM J. Numer. Anal. 8,
pp. 656-680.
[90] B UNCH , J.R. 1974. Partial Pivoting Strategies for Symmetric Matrices. SIAM J. Numer.
Anal. 11, pp. 521-528.
[91] B URDEN , R.L. Y FAIRES , J.D. 1985. Anlisis numrico. Grupo Editorial Iberoamrica.
[92] B URDEN , R.L. Y FAIRES , J.D. 2011. Numerical Analysis. Ninth Edition. Brooks/Cole.
[93] B UTCHER , J.C. 2008. Ordinary Differential Equations. Wiley.
[94] B UTT, R. 2010. Introduction to Numerical Analysis using MATLAB. Jones and Barlett.
[95] B UZZI -F ERRARIS , G. 1993. Scientific C++. Building Numerical Libraries the Object-
Oriented Way. Addison-Wesley.
Bibliografa j 229

[96] B YRD , R.H., G ILBERT, J.C. Y N OCEDAL , J. 1996. A Trust Region Method Based on
Interior Point Techniques for Nonlinear Programming. INRIA.
[97] C AJORI , F. 1991. A History of Mathematics. Fifth Edition. Chelsea Publishing Company.
[98] C ANUTO , C. Y TABACCO , A. 2015. Mathematical Analysis Vols I y II. Second Edition.
Springer.
[99] C ARREIRA -P ERPIAN , M.A. 2016. Lecture Notes on Optimization-EECS260. University
of California Merced, Electrical Engineering and Computer Science Dpt.
[100] C HAITIN -C HATELIN , F. Y F RAYSS , V. 1996. Lectures on Finite Precision Computations.
SIAM.
[101] C HAMBERLAND , L. 1995. Fortran 90. A Reference Guide. Prentice Hall.
[102] C HAN , T.F. 1982. Algorithm 581: An Improved Algorithm for Computing the Singular
Value Decomposition. ACM Trans. on Mathematical Software 8, pp. 84-88.
[103] C HAN , T.F. 1982. An Improved Algorithm for Computing the Singular Value Decomposi-
tion. ACM Trans. on Mathematical Software 8, pp. 72-83.
[104] C HAPRA , S.C. 2012. Applied Numerical Methods with MATLAB for Engineers and Scien-
tists. McGraw-Hill.
[105] C HAPRA , S.C. Y C ANALE , R.P. 2002. Numerical Metthods for Engineers with Applica-
tions and Programming Applications. Fourth Edition. McGraw-Hill.
[106] C HENEY, W. Y K INCAID , D. 1985. Numerical Mathematics and Computing. Brooks/Cole.
[107] C HIVERS , I. Y S LEIGHTHOLME , J. 1995. Introducing Fortran 90. Springer.
[108] C HONG , E.K.P. Y Z AK , S.H. 2001. An Introduction to Optimization. Second Edition. Wi-
ley.
[109] C HU , E., G EORGE , A., L IU , J, Y N G , E. 1984. SPARSPAK: Waterloo Sparse Matrix Pac-
kage. Users Guide for SPARSPAK-A. Research Report CS-84-36, Department of Computer
Science, University of Waterloo, Waterloo, Ontario, Canad.
[110] C HVTAL , V. 1983. Linear Programming. W.H. Freeman and Company.
[111] C IARLET, P.G. Y L IONS , J.L. EDS . 1990. Handbook of Numerical Analysis. Volume 1:
Finite Difference Methods (Part 1); Solution of Equations in Rn (Part 1). North-Holland.
[112] C IARLET, P.G. 1988. Introduction LAnalyse Numrique Matricielle et LOptimisation.
Masson, S.A.
[113] C IARLET, P.G. 1989. Introduction to Numerical Linear Algebra and Optimisation. Cam-
bridge.
[114] C IARLET, P.G. 2002. The Finite Element Method for Elliptic Problems. SIAM.
[115] C IRIANI , T.A. Y L EACHMAN , R.C. 1993. Optimization in Industry. Mathematical Pro-
gramming and Modeling Techniques in Practice. Wiley.
[116] C LINE , A.K., M OLER , C.B., S TEWART, G.W. Y W ILKINSON , J.H. 1979. An Estimate
for the Condition Number of a Matrix. SIAM J. Numer. Anal. 16, pp. 368-375.
[117] C ODDINGTON , E.A. Y C ARLSON , R. 1997. Linear Ordinary Differential Equations.
SIAM.
[118] C OLEMAN , T.F. Y L I , Y. EDS . 1990. Large-Scale Numerical Optimization. SIAM.
[119] C OLEMAN , T.F. Y VAN L OAN , C. 1988. Handbook for Matrix Computations. SIAM.
[120] C OLEMAN , T.F., E DENBRANDT, A. Y G ILBERT, J.R. 1986. Predicing Fill for Sparse
Orthogonal Factorization. Journal ACM 33, pp. 517-532.
230 j Bibliografa

[121] C ONTE , S.D. Y DE B OOR , C. 1987. Elementary Numerical Analysis. An Algorithmic Ap-
proach. McGraw-Hill.
[122] C ONTRERAS , M. 2016. Anlisis de Fourier. Universidad de Sevilla.
http://personal.us.es/contreras/
[123] C OOK , T.M. Y RUSSELL , R.A. 1977. Introduction to Management Science. Prentice Hall.
[124] C ORDENO , A., H UESO , J., M ARTNEZ . E. Y T ORREGOSA , J.R. 2006. Problemas resuel-
tos de mtodos numricos. Thomson.
[125] C ORMEN , T.H., L EISERSON , C.E. Y R IVEST, R.L. 1992. Introduction to Algorithms. The
MIT Press.
[126] C OWELL , W.R. ED . 1984. Sources and Development of Mathematical Software. Prentice
Hall.
[127] C OURANT, R. 1943. Variational Methods for the Solutions of Problems of Equilibrium and
Vibrations. Bulletin of the American Mathematical Society, Vol. 49, No. 1, pp. 1-23.
[128] C UTHILL , E. Y M C K EE , J. 1969. Reducing the bandwidth of Sparse Symmetric Matrices.
Proceedings of the 24th Nationeal Conference of the Association for Computing Machinery
(ACM), pp. 157-172. Brandon Systems Press.
[129] DAHLQUIST, G. Y B JRK , A. V 1974. Numerical Methods. Prentice Hall.
[130] DACOROGNA , B. 2004. Introduction to the Calculus of Variations. Imperial College Press.
[131] DAKIN , R.J. 1965. A Tree-Search Algorithm for Mixed Integer Programming Problems.
Computer Journal 8, pp. 250-255.
[132] DANAILA , I., J OLY, P., K ABER , S.M. Y P OSTEL , M. 2007. A, Introduction to Scientific
Computing. Twelve Computational Projects Solved with MATLAB. Springer.
[133] DANILINA , N.I., D UBROVSKAYA , N.S., K VASHA , O.P. Y S MIRNOV, G.L. 1988. Compu-
tational Mathematics. Mir Publishers.
[134] DANTZIG , G.B. 1963. Linear Programming and Extensions. Princeton University Press.
[135] DANTZIG , G.B. 1987. Origins of the Simplex Method. Technical Report SOL 87-5. Sys-
tems Optimization Laboratory, Department of Operations Research, Stanford University.
[136] DANTZIG , G.B. Y W OLFE , P H . 1960. Decomposition Principle for Linear Programming.
Operations Research 8, pp. 101-111.
[137] DARST, R.B. 1991. Introduction to Linear Programming: Applications and Extensions.
Marcel Dekker.
[138] DATTA , B.N. 1995. Numerical Linear Algebra and Applications. Brooks/Cole.
[139] DATTORRO , J. 2016. Convex Optimization Euclidean Distance Geometry 2". M"oo
Publishing.
[140] DAVENPORT, J.H. S IRET, Y. Y T OURNIER , E. 1993. Computer Algebra. Systems and Al-
gorithms for Algebraic Computation. Academic Press.
[141] DAVIS , T.A. 2006. Direct Methods for Sparse Linear Systems. SIAM.
[142] DAVIS , P.J. Y R ABINOWITZ , P. 1984. Methods of Numerical Integration. Second Edition.
Academic Press.
[143] DAVIS , T.A. Y S IGMAN , K. 2005. MATLAB Primer. Seventh Edition. Chapman and Ha-
ll/CRC.
[144] DE LA F UENTE , J.L. Y L UMBRERAS , J. 1987. A New Implementation of an Optimal Power
Flow System Based on a General Purpose Nonlinear Programming Program. Proc. IEEE
PICA, pp. 422-428.
Bibliografa j 231

[145] DE LA F UENTE , J.L. 1986. Programacin en redes no lineales. El problema de redes elc-
tricas. Actas Optimizacin de Flujos en Redes86.
[146] DE LA F UENTE , J.L. 1987. Programacin no lineal: Aplicaciones en anlisis, gestin
y planificacin de sistemas elctricos. Actas I Seminario Internacional de Investigacin
Operativa-Programacin Matemtica86. J.P. Vilaplana y L.F. Escudero eds., pp. 255-278.
[147] DE LA F UENTE , J.L. 1988. Application of Nonlinear Network Optimization Techniques to
Large Scale Power Schedulling Problems. TIMS/ORSA National Meeting.
[148] DE LA F UENTE , J.L. 1989. La programacin matemtica y la planificacin de redes elc-
tricas. Actas Programacin Matemtica89.
[149] DE LA F UENTE , J.L. 1998. Tcnicas de clculo para sistemas de ecuaciones, programa-
cin lineal y programacin entera. Segunda edicin. Revert.
[150] DE LA F UENTE , J.L. 2016. Matemticas y algoritmos numricos. Definiciones, notacin y
proposiciones esenciales para un curso avanzado. Cculo Rojo.
[151] DE LA F UENTE , J.L. 2017. Ingeneira de los algoritmos y mtodos numricos. Un acerca-
miento prctico y avanzado a la computacin cientfica e ingenieril con MATLAB. Cculo
Rojo.
[152] D EMBO , A. 2013. Stochastic Processes. Department of Statistics. Stanford University.
http://statweb.stanford.edu/~adembo/math-136/nnotes.pdf
[153] D EMMEL , J.W. 1997. Applied Numerical Linear Algebra. SIAM.
[154] D EMIDOVICH , B.P. Y M ARON , I.A. 1985. Clculo Numrico Fundamental. Paraninfo.
[155] D ENNIS , J.E. Y S CHNABEL , R.B. 1983. Numerical Methods for Unconstrained Optimiza-
tion and Nonlinear Equations. Prentice Hall.
[156] D ENNIS , J.E. Y S CHNABEL , R.B. 1996. Numerical Methods for Unconstrained Optimiza-
tion and Nonlinear Equations. SIAM.
[157] D OMMEL , H.W. Y T INNEY, W.F. 1968. Optimal Power Flow Solutions. IEEE Trans. on
Power Apparatus and Systems PAS-87, pp. 1866-1876.
[158] D ONGARRA , J.J., B UNCH , J.R., M OLER , C.B. Y S TEWART, G.W. 1979. LINPACK
Users Guide. SIAM.
[159] D ONGARRA , J.J., D UFF , I.S., S ORENSEN , D.C. Y VAN DER VORST, H.A. 1991. Solving
Linear Systems on Vector and Shared Memory Computers. SIAM.
[160] D ORFMAN , R., S AMUELSON , P. Y S OLOW, R. 1958. Linear Programming and Economic
Analysis. McGraw-Hill.
[161] D UBIN , D. 2003. Numerical and Analytical Methods for Scientists ans Engineers Using
Mathematica. Wiley.
[162] D UFF , I.S. 1981. MA32 - A Package for Solving Sparse Unsymmetric Systems Using the
Frontal Method. AERE Harwell Report AERE-R 10079. Computer Science & Systems
Division, AERE Harwell.
[163] D UFF , I.S., E RISMAN , A.M. Y R EID , J.K. 1986. Direct Methods for Sparse Matrices.
Oxford University Press.
[164] D UFF , I.S., G RIMES , G. Y L EWIS , J.G. 1989. Sparse Matrix Test Problems. ACM Trans.
on Mathematical Software 15, pp. 1-14.
[165] D UFF , I.S. Y R EID , J.K. 1979. Some Design Features of a Sparse Matrix Code. ACM
Trans. on Mathematical Software 5, pp.18-35.
[166] D UFF , I.S. Y S TEWART, G.W. EDS . 1979. Sparse Matrix Proceedings 1978. SIAM.
232 j Bibliografa

[167] D UOANDIKOETXEA , J. 2007. 200 aos de convergencia de las series de Fourier. La Gaceta
de la RSME, Vol. 10, No. 3.
[168] E ISELT, H.A. Y S ANDBLOM , C.L. 2007. Linear Programming and its Applications. Sprin-
ger.
[169] E ISENTAT, S.C., S CHULTZ , M.H. Y S HERMAN , A.H. 1981. Algorithms and Data Struc-
tures for Sparse Symmetric Gaussian Elimination. SIAM J. Sci. and Statist. Comput. 2, pp.
225-237.
[170] E LDN , L., W ITTMEYER -KOCH , L. Y B RUUN N IELSEN , H. 2004. Introduction to Nume-
rical Computation. Analysis and MATLAB Illustrations. Studentlitteratur AB.
[171] E LGERD , O.I. 1983. Electric Energy Systems Theory: An Introduction. McGraw-Hill.
[172] E L -H AWARY, M.E. Y C HRISTENSEN , G.S. 1979. Optimal Economic Operation of Electric
Power Systems. Academic Press.
[173] E LLIS , T.M.R., P HILIPS , I.R. Y L AHEY, T.M. 1994. Fortran 90 Programming. Addison-
Wesley.
[174] E NGELN -M LLGES , G. Y U HLIG , F. 1996. Numerical Algorithms with Fortran. Springer.
[175] E NGELN -M LLGES , G. Y U HLIG , F. 1996. Numerical Algorithms with C. Springer.
[176] E PPERSON , J.F. 2013. An Introducton to Numerical Methods and Analysis. Second Edition.
Wiley.
[177] E RISMAN , A.M., N EVES , K.W. Y DWARAKANATH , M.H. EDS . 1980. Electric Power
Problems: The Mathematical Challenge. SIAM.
[178] E VANS , L.C. 1997. Partial Differential Equations. American Mathematical Society.
[179] E VANS , J.R. Y M INIEKA , E. 1992. Optimization Algorithms for Network and Graphs.
Marcel Dekker.
[180] FAIRES , J.D. Y B URDEN , R.L. 1993. Numerical Methods. PWS.
[181] FANG , S.C., P UTHENPURA , S. 1993. Linear Optimization and Extensions. Theory and
Algorithms. Prentice Hall.
[182] FARIN , G. 1988. Curves and Surfaces for Computer Aided Geometric Design. Acaddemic
Press.
[183] FARKAS , J. 1902. Theorie der Einfachen Ungleichungen. Journal fr die Reine und Ange-
wandte Mathematik 124, pp. 1-27.
[184] F ERRIS , M.C., M ANGASARIAN , O.L. Y W RIGHT, S.J. 2007. Linear Programming with
MATLAB. SIAM.
[185] F IACCO , A.V. Y M C C ORMICK , G.P. 1968. Nonlinear Programming: Sequential Uncons-
trained Minimization Techniques. Wiley.
[186] F IACCO , A.V. Y M C C ORMICK , G.P. 1990. Nonlinear Programming: Sequential Uncons-
trained Minimization Techniques. SIAM.
[187] F IELD , R.V. 2008. Stochastic Models: Theory and Simulation. Sandia National Laborato-
ries.
http://prod.sandia.gov/techlib/access-control.cgi/2008/081365.pdf
[188] F ILBERT, F. 2009. Analyse numrique. Algorithme et tude mathmatique Dunod.
[189] F LETCHER , R. 1987. Practical methods of optimization. Wiley.
[190] F LOWERS , B.H. 1995. An Introduction to Numerical Methods in C++. Clarendon Press.
[191] F ORD , L.R. Y F ULKERSON , D.R. 1962. Flows in Networks. Princeton University Press.
Bibliografa j 233

[192] F ORREST, J.H. Y T OMLIN , J.A. 1972. Updated Triangular Factors of the Basis to Main-
tain Sparsity in the Product Form Simplex Method. Mathematical Programming 2, pp. 263-
278.
[193] F ORSGREN , A., G ILL , P.E. Y W RIGHT, M.H. 2002. Interior Methods for Nonlinear Op-
timization. SIAM Review, Vol. 44, No. 4, pp. 525-597.
[194] F ORSYTHE , G.E., M ALCOLM , M.A. Y M OLER , C.B. 1977. Computer Methods for Mat-
hematical Computations. Prentice Hall.
[195] F ORTIN , A. 2011. Analyse numrique pour ingnieurs. Presses internationales Polytechni-
que.
[196] F OURER , R., G AY, D.M. Y K ERNIGHAM , B.W. 1993. AMPL. A Modeling Language for
Mathematical Programming. Boyd and Fraser.
[197] F RANDSEN , P.E., J ONASSON , K., N IELSEN , H.B. Y T INGLEFF , O. 2004. Unconstrained
Optimization. Technical University of Denmark, Informatics.
[198] F REUND , R.M. 2009. Introduction to Semidefinite Programming (SDP). MIT Open Course
Ware.
https://ocw.mit.edu/courses/electrical-engineering-and-computer-science/6-251j-
introduction-to-mathematical-programming-fall-2009/readings/MIT6_251JF09_SDP.pdf
[199] G AL , T. 1979. Postoptimal Analysis, Parametric Programming, and Related Topics.
McGraw-Hill.
[200] G ANDER , W. Y H REB

CEK , J. 1993. Solving Problems in Scientific Computing Using Ma-
ple and MATLAB. Springer.
[201] G ANDER , W. Y H REB

CEK , J. 1997. Solving Problems in Scientific Computing Using Ma-
ple and MATLAB. Third Edition. Springer.
[202] G ANDER , W., G ANDER , M.J. Y K WOK , F. 2014. Scientific Computing. An Introduction
using Maple and MATLAB. Springer.
[203] G ANDER , M.J. Y WANNER , G. 2012. From Euler, Ritz, and Galerkin to Modern Compu-
ting. SIAM Review, Vol. 54, No. 4. SIAM.
[204] G ARBOW, B.S., B OYLE , J.M., D ONGARRA , J.J. Y M OLER , C.B. 1977. Matrix Eigensys-
tem Routines-EISPACK Guide Extension. Springer.
[205] G ARCA , C.B. Y Z ANGWILL , W.I. 1981. Pathways to Solutions, Fixed Points, and Equili-
bria. Prentice Hall.
[206] G ARFINKEL , R.S. Y N EMHAUSER , G.L. 1972. Integer Programming. Wiley.
[207] G AUTSCHI , W. 2012. Numerical Analysis. Second Edition. Springer
[208] G ENTLE , J.E. 2007. Matrix Algebra. Springer
[209] G ENTLE , J.E. 2007. Matrix Algebra. Theory, Computations, and Applications in Statistics.
Springer
[210] G EORGE , A. Y H EATH , M.T. 1980. Solution of Sparse Linear Least Squares Problems
Using Givens Rotations. Linear Algebra and its Applications 34, pp. 69-83.
[211] G EORGE , A. Y L IU , J.W. 1979. An Implementation of a Pseudoperipherial Node Finder.
ACM Trans. on Mathematical Software 5, pp. 284-295.
[212] G EORGE , A. Y L IU , J.W. 1979. The Design of a User Interface for a Sparse Matrix Pac-
kage. ACM Trans. on Mathematical Software 5, pp. 139-162.
[213] G EORGE , A. Y L IU , J.W. 1981. Computer Solution of Large Sparse Positive Definite Sys-
tems. Prentice Hall.
234 j Bibliografa

[214] G EORGE , A. Y N G , E. 1984. SPARSPAK: Waterloo Sparse Matrix Package. Users Guide
for SPARSPAKB. Research Report CS-84-37, Department of Computer Science, University
of Waterloo, Waterloo, Ontario, Canad.
[215] G EORGE , A. Y N G , E. 1985. An Implementation of Gaussian Elimination with Partial
Pivoting for Sparse Systems. SIAM J. Sci. and Statist. Comput. 6, pp. 390-409.
[216] G EORGE , A. 1971. Computer Implementation of the Finite Element Method. Ph.D. Disser-
tation, Computer Science Department Report STAN-CS-71208, Stanford University.
[217] G EORGE , A. 1980. An Automatic One-way Disecction Algorithm for Irregular Finite Ele-
ment Problems. SIAM J. Numer. Anal. 17, pp. 740-751.
[218] G ERALD , C.F. Y W HEATLEY, P.O. 1994. Applied Numerical Analysis. Addison-Wesley.
[219] G IBBS , N.E., P OOLE , W.G. Y S TOCKMEYER , P.K. 1976. An Algorithm for Reducing the
Bandwidth and profile of a Sparse Matrix. SIAM J. Numer. Anal. 13, pp. 236-250.
[220] G ILL , P.E. Y M URRAY, W. 1974. Numerical Methods for Constrained Optimization. Aca-
demic Press.
[221] G ILL , P.E., M URRAY, W. Y W RIGHT, M.H. 1981. Practical Optimization. Academic
Press.
[222] G ILL , P.E., M URRAY, W. Y W RIGHT, M.H. 1991. Numerical Linear Algebra and Optimi-
zation. Volume 1. Addison-Wesley.
[223] G ILL , P.E., M URRAY, W., S AUNDERS , M.A. Y W RIGHT, M.H. 1986. Maintaining LU
Factors of a General Sparse Matrix. Technical Report SOL 86-8. Systems Optimization
Laboratory, Department of Operations Research, Stanford University.
[224] G ILL , P.E., M URRAY, W., S AUNDERS , M.A., T OMLIN , J.A. Y W RIGHT, M.H. 1986. On
Projected Newton Barrier Methods for Linear Programming and an Equivalence to Kar-
markars Projective Method. Technical Report SOL 85-11R, revision of May 1986. Systems
Optimization Laboratory, Department of Operations Research, Stanford University.
[225] G ILLETT, B.E. 1976. Introduction to Operations Research: A Computer Oriented Algo-
rithmic Approach. McGraw-Hill.
[226] G OLDBERG , S. 1958. Introduction to Difference Equations. Wiley.
[227] G OLDFARB , D. Y T ODD , M.J. 1989. Linear Programming. En Handbooks in Operations
Research and Management Science. Volume 1: Optimization. Nemhauser, G.L., Rinnooy
Kan, A.H.G. y Todd, M.J. eds. North-Holland.
[228] G OLDSTEIN , A.A. 1965. On Steepest Descent. SIAM J. Control 3, pp. 147-151.
[229] G OLOVINA , L.I. 1974. Algebra lineal y algunas de sus aplicaciones. Editorial Mir.
[230] G OLUB , G.H. Y M EURANT, G.A. 1983. Rsolution Numrique des Grands Systemes
Linaires. Editions Eyrolles.
[231] G OLUB , G.H. Y OL EARY, D.P. 1989. Some History of the Conjugate Gradient and Lan-
czos Algorithms: 1948-1976. SIAM Review 31, pp.50-102.
[232] G OLUB , G.H. Y O RTEGA , J.M. 1992. Scientific Computing and Differential Equations.
An Introduction to Numerical Methods. Academic Press.
[233] G OLUB , G.H. Y R EINSCH , C. 1970. Singular Value Decomposition and Least Squares
Solutions. Numerische Mathematik 14, pp. 403-20.
[234] G OLUB , G.H. Y VAN L OAN , C.F. 1983. Matrix Computations. The Johns Hopkins Uni-
versity Press.
Bibliografa j 235

[235] G OLUB , G.H. Y VAN L OAN , C.F. 1989. Matrix Computations. Second Edition. The Johns
Hopkins University Press.
[236] G OLUB , G.H. Y VAN L OAN , C.F. 1996. Matrix Computations. Third Edition. The Johns
Hopkins University Press.
[237] G OLUB , G.H. Y VAN L OAN , C.F. 2013. Matrix Computations. Fourth Edition. The Johns
Hopkins University Press.
[238] G OMORY, R.E. 1960. An Algorithm for the Mixed Integer Problem. RAND Corporation
paper RM-2597.
[239] G OMORY, R.E. 1963. An Algorithm for Integer Solutions to Linear Programs. Recent Ad-
vances in Mathematical Programming. Graves, R. y Wolfe, Ph. eds. McGraw-Hill.
[240] G ONDRAN , M. Y M INOUX , M. 1979. Graphes et Algorithmes. Editions Eyrolles.
[241] G ONIN , R. Y M ONEY, A.H. 1989. Nonlinear Lp Estimation. Marcel Dekker.
[242] G OOSSENS , M., M ITTELBACH , F. Y S AMARIN , A. 1994. The LATEX Companion. Addison-
Wesley.
[243] G OOSSENS , M., M ITTELBACH , F. Y S AMARIN , A. 2004. The LATEX Companion. Second
Edition. Addison-Wesley.
[244] G OOSSENS , M., R AHTZ , S. Y M ITTELBACH , F. 1997. The LATEX Graphics Companion.
Illustrating Documents with TEX and PostScript. Addison-Wesley.
[245] G RAINGER , J.J. Y S TEVENSON J R ., W.D. 1994. Power Systems Analysis. McGraw-Hill.
[246] G RAN , A. Anlisis de Componentes Principales. Departamento de Estadstica, Universi-
dad Carlos III de Madrid.
[247] G REENBAUM , A. 1997. Iterative Methods for Solving Linear Systema. SIAM.
[248] G REENBERG , H. 1971. Integer Programming. Academic Press.
[249] G RIFFITHS , D.F. Y H IGHAM , D.J. 2010. Numerical Methods for Ordinary Differential
Equations. Initial Vaue Problems. Springer.
[250] G RIGORIADIS , M.D. 1986. An Efficient Implementation of the Network Simplex Method.
Mathematical Programming Study 26, pp. 83-111.
[251] G RIVA , I., NASH , S.G. Y S OFER , A. 2009. Linear and Nonlinear Optimization. SIAM.
[252] G RTSCHEL , M., L OVSZ , L. Y S CHRIJVER , A. 1988. Geometric Algorithms and Com-
binatorial Optimization. Springer.
[253] G UTKNECHT, M.H. 2008. Iterative Methods. ETH Zurich, Seminar for Applied MAthe-
matics.
http://www.sam.math.ethz.ch/~mhg/unt/SWNLA/itmethSWNLA08.pdf
[254] H FELE , W. Y K IRCHMAYER , L.K. EDS . 1981. Modeling of Large-Scale Energy Systems.
Pergamon Press.
[255] H ABERMAN , R. 2013. Applied Partial Differential Equations with Fourier Series and
Boundary Value Problems. Pearson.
[256] H AGER , W.W. 1984. Condition Estimates. SIAM J. Sci. and Statist. Comput. 5, pp. 311-
316.
[257] H AGER , W.W. 1988. Applied Numerical Linear Algebra. Prentice Hall.
[258] H AHN , B. Y VALENTINE , D.T. 2007. Essential MATLAB for Engineers and Scientists.
Third Edition. Elsevier.
[259] H EATH , M.T. 2002. Scientific Computing. An Introductory Survey. Second Edition.
McGraw-Hill.
236 j Bibliografa

[260] H ALL , M. 1956. An Algorithm for Distinct Representatives. Amer. Math. Monthly 63, pp.
716-717.
[261] H ALMOS , P.R. 1974. Finite-Dimensional Vector Spaces. Springer.
[262] H AMMER , P.L., J OHNSON , E.L. Y KORTE , B.H. EDS . 1979. Discrete Optimization III.
North-Holland.
[263] H MMERLIN , G. Y H OFFMANN , K. H. 1991. Numerical Mathematics. Springer.
[264] H AMMING , R.W. 1986. Numerical Methods for Scientists and Engineers. Dover Publica-
tions.
[265] H ANSELMAN , D. Y L ITTLEFIELD , B. 1998. Mastering MATLAB 5. A Comprehensive Tu-
torial abd Reference. Prencite Hall.
[266] H ARMAN , T.L., DABNEY. J. Y R ICHERT, N. 2000. Advanced Enginerring Mathematics
with MATLAB. Second Edition. Brooks/Cole.
[267] H ARWELL L ABORATORY 1987. HARWELL Subroutine Library: A Catalogue of Subrouti-
nes (1987). Computer Science and Systems Division, AERE Harwell.
[268] H EATH , M.T. 2002. Scientific Computing. An Introductory Survey. Second Edition.
McGraw-Hill.
[269] H ELLERMAN , E, Y R ARICK , D. 1971. Reinversion with the Preassigned Pivot Procedure.
Mathematical Programming 1, pp. 195-216.
[270] H ELLERMAN , E, Y R ARICK , D. 1972. The Partitioned Preassigned Pivot Procedure (P4 ).
En Sparse Matrices and their Applications. Rose, D.J. y Willoughby, R.A. eds. Plenum
Press.
[271] H ERDRIX , E.M.T. Y T TH , B.G. 2010. Introduction to Nonlinear and Global Optimiza-
tion. Springer.
[272] H ENRICI , P. 1982. Essentials of Numerical Analysis with Pocket Calculator Demonstra-
tions. Wiley.
[273] H RON , B., I SSARD -ROCH , F. Y P ICARD , C. 2005. Analyse numrique. Exercices et pro-
blmes corrigs. Dunod.
[274] H ESTENES , M. 1980. Conjugate Direction Methods in Optimization. Springer.
[275] H IAI , F. Y P ETZ , D. 2014. Introduction to Matrix Analysis and Applications. Springer.
[276] H IGHAM , N.J. 1995. The Test Matrix Toolbox for MATLAB. Numerical Analysis Report
No. 276. The University of Manchester.
http://www.ma.man.ac.uk/MCMM.
[277] H IGHAM , N.J. 1996. Accuracy and Stability of Numerical Algorithms. SIAM.
[278] H IGHAM , N.J. 2002. Accuracy and Stability of Numerical Algorithms. Second Edition.
SIAM.
[279] H IGHAM , N.J. 2002. The Matrix Computation Toolbox for MATLAB. Numerical Analysis
Report No. 410. The University of Manchester.
http://www.ma.man.ac.uk/MCMM.
[280] H IGHAM , D.J. Y H IGHAM , N.J. 2000. MATLAB Guide. SIAM.
[281] H IGHAM , D.J. Y H IGHAM , N.J. 2005. MATLAB Guide. Second Edition. SIAM.
[282] H ILDEBRAND , F.B. 1987. Introduction to Numerical Analysis. Dover Publications.
[283] H ILLIER , F.S. Y L IEBERMAN , G.J. 1974. Introduction to Operations Research. Holden-
Day.
Bibliografa j 237

[284] H ILLIER , F.S. Y L IEBERMAN , G.J. 1995. Introduction to Mathematical Programming.


McGraw-Hill.
[285] H ILLIER , F.S. Y L IEBERMAN , G.J. 2010. Introduccin a la Investigacin de Operaciones.
McGraw-Hill.
[286] H IMMELBLAU , D.M. ED . 1973. Decomposition of Large-Scale Problems. North-Holland.
[287] H OCKNEY, R.W. 1996. The Science of Computer Benchmarking. SIAM.
[288] H OFFMAN , J.D. 2001. Numerical Methods for Engineers and Scientists. CRC Press.
[289] H OLMES , M.H. 2007. Introduction to Numerical Methods in Differential Equations. Sprin-
ger.
[290] H OPCROFT, J.E. Y K ENNEDY, K.W. C HAIRS 1989. Computer Science. Achievements and
Opportunities. SIAM.
[291] H ORN , R.A. Y J OHNSON , C.R. 1985. Matrix Analysis. Cambridge.
[292] H OUSEHOLDER , A.S. 1975. The Theory of Matrices in Numerical Analysis. Dover Publi-
cations.
[293] H U , T.C. 1970. Integer Programming and Network Flows. Addison-Wesley.
[294] H UNT, B.R., L IPSMAN , R.L. Y ROSENBERG , J.M. 2006. A Guide to MATLAB for Begin-
ners and Experienced Users. Second Edition. Cambridge.
[295] H URLBERT, G. 2010. Linear Optimization. The Simplex Workbook. Springer.
[296] H UYNH , H.T., L AI , V.S. Y S OUMARE , I. 2008. Stochastic Simulation and Applications in
Finance with MATLAB Programs. Wiley.
[297] H WANG , K. Y B RIGGS , F.A. 1985. Computer Architecture and Parallel Processing.
McGraw-Hill.
[298] I GNIZIO , J.P. Y C AVALIER , T.M. 1994. Linear Programming. Prentice Hall.
[299] I LI C , M.D. Y L IU , S. 1996. Hierarchical Power Systems Control. Its Value in a Changing
Industry. Springer.
[300] I NFANGER , G. 1994. Planning under Uncertainty. Solving Large-Scale Stochastic Linear
Programs. Boyd & fraser Publishing Company.
[301] I SAACSON , E. Y K ELLER , H.B. 1994. Analysis of Numerical Methods. Dover Publications.
[302] JACOBS , D. ED . 1977. The State of the Art in Numerical Analysis. Academic Press.
[303] JAMES , G. 2011. Advanced Modern Engineering Mathematics. Fourth Edition. Pearson.
[304] JAMES , G. 2015. Modern Engineering Mathematics. Fifth Edition. Pearson.
[305] JAHN , J. 2007. Introduction to the Theory of Nonlinear Optimization. Springer.
[306] JARRE , F. Y S TOER , J. 2004. Optimierung. Springer.
[307] J ENNINGS , A. Y M C K EOWN , J.J. 1992. Matrix Computation. Second Edition. Wiley.
[308] K ARLOFF , H. 1991. Linear Programming. Birkhuser.
[309] K ARMARKAR , N. 1984. A New Polynomial-Time Algorithm for Linear Programming.
Combinatorics 4, pp. 373-395.
[310] K ARRIS , S.T. 2004. Numerical Analysis using MATLAB and Spreadsheets. Orchard Publi-
cations.
[311] K ARUSH , W. 1939. Minima of Functions of Several Variables with Inequalities as Side
Constraints. M.Sc. Dissertation, Department of Mathematics, University of Chicago.
[312] K AUFMANN , A. Y H ENRY-L ABORDRE , A. 1974. Mthodes et Modles de la Recherche
Oprationnelle. Dunod.
238 j Bibliografa

[313] K ELLEY, C.T. 1995. Iterative Methods for Linear and Nonlinear Equations. SIAM.
[314] K ELLEY, C.T. 1999. Iterative Methods for Optimization. SIAM.
[315] K ENNINGTON , J.L. Y H ELGASON , R.V. 1980. Algorithms for Network Programming. Wi-
ley.
[316] K ERN , M. 2005. lments finis aspects mathmatiques. INRIA.
http://mms2.ensmp.fr/ef_paris/formulation/transparents/f_MathMef.pdf
[317] K HARAB , A. Y G UENTHER , R.B. 2012. An Introduction to Numerical Methods. A
MATLAB Approach. CRC Press.
[318] K INCAID , D.R. Y H AYES , L.J. EDS . 1990. Iterative Methods for Large Linear Systems.
Academic Press.
[319] K IUSALAAS , J. 2010. Numerical Methods in Engineering with MATLAB. Cambridge.
[320] K LEE , V. Y M INTY, G.J. 1972. How good is the Simplex Algorithm? En Inequalities III.
Shisha, O. ed. Academic Press.
[321] K LINGMAN , D., NAPIER , A. Y S TUTZ , J. 1974. NETGEN-A Program for Generating
Large-scale (Un)Capacitated Assigment, Transportation and Minimum Cost Flow Network
Problems. Management Science 20, pp. 814-821.
[322] K NIGHT, A. 2000. Basics of MATLAB and Beyond. Chapman and Hall/CRC.
[323] KOLMAN , B. Y B ECK , R.E. 1995. Elementary Linear Programming with Applications.
Academic Press.
[324] KOLMOGOROV, A.M. Y F OMIN , S.V. 1972. Elementos de la teora de funciones y del
anlisis funcional. Editorial Mir.
[325] KOLMOGOROV, A.M. Y F OMIN , S.V. 1975. Introductory Real Analysis. Dover Publica-
tions.
[326] KOPCHENOVA , N.V. Y M ARON , I.A. 1975. Computational Mathematics. Worked Exam-
ples and Problems with Elements of Theory. Mir Publishers.
[327] KOPKA , H. Y DALY, P.W. 1995. A Guide to LATEX 2" . Document Preparation for Beginners
and Advanced Users. Addison Wesley.
[328] KOROVKIN , P.P. 1976. Desigualdades. Editorial Mir.
[329] K RANTZ , S.G. Y PARKS , H.R. 2003. The Implicit Function Theorem. History, Theory, and
Applications. Birkhuser.
[330] K RESSNER , D. 2005. Numerical Methods for General and Structured Eigenvalue Pro-
blems. Springer.
[331] K REYSZIG , E. 2011. Advanced Engineering Mathematics. Wiley.
[332] K UESTER , J.L. Y M IZE , J.H. 1973. Optimization Techniques with Fortran. McGraw-Hill.
[333] K UHN , H.W. Y T UCKER , A.W. 1951. Nonlinear Programming. En Proceedings of the
Second Berkeley Symposium on Mathematical Statistics an Probability. University of Ca-
lifornia Press.
[334] K NZI , H.P. Y K RELLE , W. 1969. La Programmation Non Linaire. Gauthier-Villars.
[335] L AMPORT, L. 1994. LATEX. A Document Preparation System. Users Guide and Reference
Manual. Addison-Wesley.
[336] L AND , A. Y P OWELL , S. 1973. Fortran Codes for Mathematical Programming. Wiley.
[337] L ANG , S. 1968. Analysis. Vols. I y II. Addison-Wesley.
[338] L ANG , S. 1983. Linear Algebra. Addison-Wesley.
Bibliografa j 239

[339] L ARSON , R.E. 1968. State Increment Dynamic Programming. American Elsevier.
[340] L ARSSON , S. Y T HOME , V. 2009. Partial Differential Equations with Numerical Meth-
ods. Springer.
[341] L ASCAUX , P. Y T HODOR , R. 1986. Analyse Numrique Matricielle Applique a lArt de
lIngnieur. Vols. I y II. Masson, S.A.
[342] L ASDON , L.S. 1970. Optimization Theory for Large Systems. Macmillan Publishing Com-
pany.
[343] L AWLER , E.L. 1976. Combinatorial Optimization: Networks and Matroids. Holt, Rinehart
and Winston.
[344] L AWSON , C.L. Y H ANSON , R.J. 1974. Solving Least Squares Problems. Prentice Hall.
[345] L AWSON , C.L. Y H ANSON , R.J. 1995. Solving Least Squares Problems. SIAM.
[346] L AY, D.C. 2012. lgebra lineal y sus aplicaciones. Cuarta edicin. Pearson educacin.
[347] L AY, D.C. 2015. Linear Algebra and its Applications. Fourth Edition. Addison-Wesley.
[348] L AY, D.C. Y L AY, S.R. 2015. Linear Algebra and its Applications. Fifth Edition. Pearson.
[349] L EIFMAN , L.J. ED . 1990. Functional Analysis, Optimization, and Mathematical Econo-
mics. Oxford University Press.
[350] L EBOUCQ , R.B., S ORENSEN , D.C. Y YANG , C. 1998, ARPACK Users Guide: Solution
of Large-Scale Eigenvalue Problems with Implicitly Restarted Arnoldi Methods. SIAM.
[351] L EMKE , C.E. 1954. The Dual Method of Solving the Linear Programming Problem. Naval
Research Logistics Quarterly 1, pp. 36-47.
[352] L ERMAN , S.R. 1993. Problem Solving and Computation for Scientists and Engineers. An
Introduction Using C. Prentice Hall.
[353] L EW, A. Y M AUCH , H. 2007. Dynamic Programming. A Computational Tool. Springer.
[354] L EYFFER , S. Y M AHAJAN , A. 2010. Software for Nonlinear Constrained Optimization.
Argonne National Laboratory, Mathematics and Computer Science Division.
[355] L EVENBERG , K. 1944. A Method for the Solution of Certain Problems in Least Squares.
Quart. Appl. Math. 2, pp. 164-168.
[356] L IEBMAN , J., L ASDON , L., S CHRAGE , L. Y WAREN , A. 1986. Modeling and Optimiza-
tion with GINO. The Scientific Press.
[357] L INDFIELD , G. Y P ENNY, J. 1995. Numerical Methods Using MATLAB. Ellis Horwood.
[358] L OEHR , N 2014. Advanced Linear Algebra. CRC Press.
[359] L ONGLEY, J.W. 1984. Least Squares Computations Using Orthogonalization Methods.
Marcel Dekker.
[360] L UENBERGER , D.G. 1969. Optimization by Vector Space Methods. Wiley.
[361] L UENBERGER , D.G. 1984. Linear and Nonlinear Programming. Addison-Wesley.
[362] L UENBERGER , D.G. 1989. Programacin lineal y no lineal. Addison-Wesley Iberoameri-
cana.
[363] L UENBERGER , D.G. Y Y E , Y. 2016. Linear and Nonlinear Programming. Fourth Edition.
Springer.
[364] L USTIG , I.J., M ARSTEN , R.E. Y S HANNO , D.F. 1992. On Implementing Mehrotras
Predictor-Corrector Interior-Point Method for Linear Programming. SIAM J. Optimiza-
tion, Vol. 2, No. 3, pp. 435-449.
240 j Bibliografa

[365] M ADDEN , N. 2012. Numerical Solution to Differential Equations using MATLAB: Part 2.
Finite Element Methods. National University of Ireland Galway, School of Mathematics,
Statistics and Applied Mathematics.
http://www.maths.nuigalway.ie/~niall/teaching/Archive/1112/Finite-V02.pdf
[366] M ADDEN , N. 2012. Numerical Solution to Differential Equations using MATLAB: Part
3. A finite element implementation for 2D elliptic problem. National University of Ireland
Galway, School of Mathematics, Statistics and Applied Mathematics.
http://www.maths.nuigalway.ie/~niall/teaching/Archive/1112/Finite-V01.pdf
[367] M ADSEN , K. Y N IELSEN , H.B. 2010. Introduction to Optimization and Data Fitting. Tech-
nical University of Denmark, Informatics.
[368] M ADSEN , K., N IELSEN , H.B. Y T INGLEFF , O. 2004. Methods for Nonlinear Least Squa-
res Problems. Technical University of Denmark, Informatics.
[369] M ADSEN , K., N IELSEN , H.B. Y T INGLEFF , O. 2004. Optimization with Constraints.
Technical University of Denmark, Informatics.
[370] M ANDL , C. 1979. Applied Network Optimization. Academic Press.
[371] M ANASSAH , J.T. 2001. Elementary Mathematical and Computational Tools for Electrical
and Computer Engineers Using MATLAB. CRC Press.
[372] M ANGASARIAN , O.L. 1994. Nonlinear Programming. SIAM.
[373] M ANNEBACK , P. 1985. On Some Numerical Methods for Solving Large Sparse Linear
Least Squares Problems. Ph.D. Dissertation, Facults Iniversitaires Notre-Dame de la Paix,
Namur, Blgica.
[374] M ARCHUK , G.I. Y DYMNIKOV, V.P. 1985. Problems of Computational Mathematics and
Mathematical Modelling. Mir Publishers.
[375] M ARCUS , M. Y M ING , H. 1964. A Survey of Matrix Theory and Matrix Inequalities. Allyn
and Bacon.
[376] M ARTINEZ , W.L. Y M ARTNEZ , A.R. 2002. Computational Statistics Handbook with
MATLAB. Chapman and Hall/CRC.
[377] M ARKOWITZ , H.M. 1957. The Elimination Form of the Inverse and its Application to
Linear Programming. Management Science 3, pp. 255-269.
[378] M ARQUARDT, D. 1963. An Algorithm for Least Squares Estimation of Nonlinear Parame-
ters. SIAM J. Appl. Math. 11, pp. 431-441.
[379] M ATHEWS , J.H. 1992. Numerical Methods for Mathematics, Science, and Engineering.
Prentice Hall.
[380] M ATHEWS , J.H. Y F INK , K.D. 2000. Mtodos numricos con MATLAB. Prentice Hall.
[381] M C M AHON , D. Y T OPA , D.M. 2006. A Beginnerss Guide to Mathematica. Chapman and
Hall/CRC.
[382] M C C ORMICK , G.P. 1983. Nonlinear Programming. Wiley.
[383] M EHROTRA , S. 1992. On the Implementation of a Primal-Dual Interior Point Method.
SIAM J. Optimization, Vol. 2, No. 4, pp. 575-601.
[384] M ESIROV, J.P. ED . 1991. Very Large Scale Computation in the 21st Century. SIAM.
[385] M ETCALF, M. Y R EID , J. 1990. Fortran 90 Explained. Oxford University Press.
[386] M ETCALF, M. Y R EID , J. 1996. Fortran 90/95 Explained. Oxford University Press.
[387] M EYER , C.D. 2000. Matrix Analysis and Applied Linear Algebra. SIAM.
Bibliografa j 241

[388] M EYER , Y. 1993. Wavelets. Algorithms and Applications. SIAM.


[389] M IERSEMANN , E. 2012. Partial Differential Equations. Lecture notes. Department of Mat-
hematics, Leipzig University.
http://www.math.uni-leipzig.de/~miersemann/pdebook.pdf
[390] M INOUX , M. Y BARTNIK , G. 1986. Graphes, Algorithmes, Logiciels. Dunod.
[391] M INOUX , M. 1986. Mathematical Programming: Theory and Algorithms. Wiley.
[392] M OIN , P. 2010. Fundamentals of Engineering Numerical Analysis. Cambridge.
[393] M OLER , C.B. 2004. Numerical Computing with MATLAB. SIAM.
[394] M OLER , C.B., L ITTLE , J.N. Y BANGERT, S. 1987. PC-MATLAB Users Guide. The Math-
Works.
[395] M OR , J.J. Y W RIGHT, S.J. 1993. Optimization Software Guide. SIAM.
[396] M ORGAN , S.S. 1997. A Comparison of Simplex Method Algorithms. University of Florida,
Computer and Information Science and Engineering Dept.
[397] M OTZ , L. Y W EAVER , J.H. 1993. The Story of Mathematics. Avon Books.
[398] M ORGANSTERN , R.E. 2014. Numerical Anlisis I. Self Edition.
[399] M ORGANSTERN , R.E. 2014. Numerical Anlisis II. Self Edition.
[400] M URTAGH , B.A. Y S AUNDERS , M.A. 1978. Large Scale Linearly Constrained Optimiza-
tion. Mathematical Programming 14, pp. 41-72.
[401] M URTAGH , B.A. Y S AUNDERS , M.A. 1982. A Projected Lagrangian Algorithm and its
Implementation for Sparse Nonlinear Constraints. Mathematical Programming Study 16,
pp. 84-117.
[402] M URTAGH , B.A. Y S AUNDERS , M.A. 1987. MINOS 5.1 Users Guide. Systems Optimi-
zation Laboratory, Department of Operations Research, Stanford University.
[403] M URTY, K.G. 1983. Linear Programming. Wiley.
[404] M URTY, K.G. 1992. Network Programming. Prentice Hall.
[405] NAG 1992. C Library Manual. Numerical Algorithms Group, Mark 2, Oxford, England.
[406] NAG 1993. Fortran Library Manual. Numerical Algorithms Group, Mark 16, Oxford, En-
gland.
[407] NAGLE , R.K., S AFF , E.B. Y S NIDER , A.D. 2005. Ecuaciones diferenciales y problemas
con valores en la frontera. Pearson.
[408] NAKAMURA , S. 1996. Numerical Analysis and Graphic Visualization with MATLAB. Pren-
tice Hall PTR.
[409] NASH , S.G. Y S OFER , A. 1996. Linear and Nonlinear Programming. McGraw-Hill.
[410] N EMHAUSER , G.L. Y W OLSEY, L.A. 1988. Integer and Combinatorial Optimization. Wi-
ley.
[411] N EMHAUSER , G.L. Y W OLSEY, L.A. 1989. Integer Programming. En Handbooks in Ope-
rations Research and Management Science. Volume 1: Optimization. Nemhauser, G.L.,
Rinnooy Kan, A.H.G. y Todd, M.J. eds. North-Holland.
[412] N EMHAUSER , G.L., R INNOOY K AN , A.H.G. Y T ODD , M.J. EDS . 1989. Handbooks in
Operations Research and Management Science. Volume 1: Optimization. North-Holland.
[413] N ERING , E.D. Y T UCKER , A.W. 1993. Linear Programs and Related Problems. Academic
Press.
242 j Bibliografa

[414] N ESTEROV, Y. Y N EMIROVSKII , A. 1994. Interior-Point Polynomial Algorithms in Convex


Programming. SIAM.
[415] N IEDERREITER , H. 1992. Random Number Generation and Quasi-Monte Carlo Methods.
SIAM.
[416] N OCEDAL , J. Y W RIGHT, S.J. 2006. Numerical Optimization. Springer.
[417] N UALART, D. 2017. Stochastic Processes The University of Kansas.
https://www.math.ku.edu/~nualart/StochasticCalculus.pdf
[418] O LVER , P.J. 2014. Introduction to Partial Differential Equations. Springer.
[419] O LVER , P.J. Y S HAKIBAN , C. 2006. Applied Linear Algebra. Pearson.
[420] ON EIL , P.V. 2010. Advanced Engineering mathematics. Brooks/Cole.
[421] O RCHARD -H AYS , W. 1968. Advanced Linear Programming Computing Techniques.
McGraw-Hill.
[422] O RTEGA , J.M. Y R HEINBOLDT, W.C. 1970. Iterative Solution of Nonlinear Equations in
Several Variables. Academic Press.
[423] O RTEGA , J.M. 1988. Introduction to Parallel and Vector Solution of Linear Systems. Ple-
num Press.
[424] PADBERG , M. 1995. Linear Programming and Extensions. Springer.
[425] PAI , M. A. 1986. Computer Techniques in Power System Analysis. McGraw-Hill.
[426] PAIGE , C.C. 1979. Computer Solution of Perturbation Analysis of Generalized Linear
Least Squares Problems. Mathematics of Computation 33, pp. 171-184.
[427] PAIGE , C.C. 1979. Fast Numerically Stable Computations for Generalized Linear Least
Squares Problems. SIAM J. Numer. Anal. 16, pp. 165-171.
[428] PANIK , M.J. 1996. Linear Programming: Mathematics, Theory and Algorithms. Kluver
Academic Publishers.
[429] PANNELL , D.J. 1997. Introduction to Practical Linear Programming. Wiley.
[430] PARKER , R.G. Y R ARDIN , R.L. 1988. Discrete Optimization. Academic Press.
[431] PARTER , S.V. 1961. The Use of Linear Graphs in Gaussian Elimination. SIAM Review 3,
pp. 119-130.
[432] PATEL , R.V., L AUB , A.J. Y VAN D OOREN , P.M. EDS . 1994. Numerical Linear Algebra
Techniques for Systems and Control. IEEE Press.
[433] P EDREGAL , P. 2004. Introduction to Optimization. Springer.
[434] P ETERSEN , K.B. Y P EDERSEN , M.S. 2012. The Matrix Cookbook.
http://matrixcookbook.com
[435] P EA S NCHEZ DE R IVERA , D. 1986. Estadstica. Modelos y mtodos. 1. Fundamentos.
Alianza Universidad Textos.
[436] P FAFFENBERGER , R.C. Y WALKER , D.A. 1976. Mathematical Programming for Econo-
mics and Business. The Iowa State University Press.
[437] P HAN , D. 2010. Introduction au calcul des variations. EPFL.
[438] P HILLIPS , C. Y C ORNELIUS , B. 1986. Computational Numerical Methods. Ellis Horwood
Limited.
[439] P HILLIPS , D.T., R AVINDRAN , A. Y S OLBERG , J. 1976. Operations Research: Principles
and Practice. Wiley.
Bibliografa j 243

[440] P HILLIPS , G.M. Y TAYLOR , P.J. 1996. Theory and Applications of Numerical Anaylis.
Second Edition. Academic Press.
[441] P IERRE , D.A. Y L OWE , M.J. 1975. Mathematical Programming Via Augmented Lagran-
gians. An Introduction with Computer Programs. Addison-Wesley.
[442] P IERRE , D.A. 1986. Optimization Theory with Applications. Dover Publications.
[443] P IKE , R.W. 1986. Optimization for Engineering Systems. Van Nostrand Reinhold Com-
pany.
[444] P ISSANETZKY, S. 1984. Sparse Matrix Technology. Academic Press.
[445] P LATO , R. 2003. Concise Numerical Mathematics. American Mathematical Society.
[446] P LYBON , B.F. 1992. An Introduction to Applied Numerical Analysis. PWS-Kent Publishing
Company.
[447] P OWELL , M.J.D. ED . 1982. Nonlinear Optimization. Academic Press.
[448] P RESS , W.H., F LANNERY, B.P., T EUKOLSKY, S.A. Y V ETTERLING , W.T. 1986. Nume-
rical Recipes in Fortran. The Art of Scientific Computing. Cambridge.
[449] P RESS , W.H., T EUKOLSKY, S.A., V ETTERLING , W.T. Y F LANNERY, B.P. 1992. Nume-
rical Recipes in C. The Art of Scientific Computing. Second Edition. Cambridge.
[450] P RESS , W.H., T EUKOLSKY, S.A., V ETTERLING , W.T. Y F LANNERY, B.P. 1996. Nume-
rical Recipes in Fortran 90. The Art of Parallel Scientific Computing. Cambridge.
[451] P RESS , W.H., T EUKOLSKY, S.A., V ETTERLING , W.T. Y F LANNERY, B.P. 2007. Nume-
rical Recipes. The Art of Scientific Computing. Third Edition. Cambridge.
[452] P YTLAK , R. 2009. Conjugate Gradient Algorithms in Nonconvex Optimization. Springer.
[453] Q UARTERONI , A., S ACCO , R. Y S ALERI , F. 2000. Numerical Mathematics. Springer.
[454] Q UARTERONI , A., S ALERI , F. Y G ERVASIO , P. 2010. Scientific Computing with MATLAB
and Octave. Springer.
[455] R AO , S.S. 2002. Applied Numerical Methods for Engineers and Scientists. Prentice Hall.
[456] R AO , K.R., K IM , D.N. Y H WANG , J.J. 2010. Fast Fourier Transform: Algorithms and
Applications. Springer.
[457] R AVINDRA , A., R AGSDELL , K.M. Y R EKLAITIS , G.V. 2006. Engineering Optimization.
Methods and Applications. Second Edition. Wiley.
[458] R EDFERN , D. Y C AMPBELL , C. 1998. The MATLAB 5 Handbook. Springer.
[459] R ECKTENWALD , G. 2000. Numerical Methods with MATLAB. Implementation Applica-
tion. Prentice Hall.
[460] R EDWINE , C. 1995. Upgrading to Fortran 90. Springer.
[461] R EGISTER , A.H. 2007. A Guide to MATLAB Object Oriented Programming. Chapman and
Hall/CRC.
[462] R EID , J.K. ED . 1971. Large Sparse Sets of Linear Equations. Academic Press.
[463] R EID , J.K. 1982. A Sparsity-Exploiting Variant of the Bartels-Golub Decomposition for
Linear Programming Bases. Mathematical Programming 24, pp. 55-69.
[464] R EKLAITIS , G.V., R AVINDRAN , A. Y R AGSDELL , K.M. 1983. Engineering Optimization.
Methods and Applications. Wiley.
[465] R HEINBOLDT, W.C. 1988. Methods for Solving Systems of Nonlinear Equations. SIAM.
[466] R IAZA , R. Y LVAREZ , M. 1996. Clculo infinitesimal. Vols. I y II. Sociedad de Amigos
de la Escuela Tcnica Superior de Ingenieros Industriales de Madrid.
244 j Bibliografa

[467] R BNIKOV, K. 1987. Historia de las matemticas. Editorial Mir.


[468] R ICE , J.R. 1966. Experiments on Gram-Schmidt Orthogonalization. Mathematics of
Computation 20, pp. 325-328.
[469] R ICE , J.R. 1983. Matrix Computations and Mathematical Software. McGraw-Hill.
[470] R ICE , J.R. 1993. Numerical Methods, Software, and Analysis. Academic Press.
[471] ROCKAFELLAR , R.T. 1970. Convex Analysis. Princeton University Press.
[472] ROOS , C. T ERLAKY, T. Y V IAL , J. 1997. Theory and Algorithms for Linear Optimization.
An Interior Point Approach. Wiley.
[473] ROOS , C. T ERLAKY, T. Y V IAL , J. 2005. Interior Point Methods for Linear Optimization.
Springer.
[474] ROSE , D.J. Y W ILLOUGHBY, R.A. EDS . 1972. Sparse Matrices and Their Applications.
Plenum Press.
[475] ROSEN , J.B., M ANGASARIAN , O.L. Y R ITTER , K. EDS . 1970. Nonlinear Programming.
Academic Press.
[476] RUTISHAUSER , H. 1990. Lectures on Numerical Mathematics. Birkhuser.
[477] S AAD , Y. 1994. SPARSKIT: A Basic Tool Kit for Sparse Matrix Computations. Version 2.
Computer Science Department, University of Minnesota, Minneapolis, EE. UU.
[478] S AAD , Y. 1996. Iterative Methods for Sparse Linear Systems. PWS.
[479] S AIGAL , R. 1995. Linear Programming. A Modern Integrated Analysis. Kluver Academic
Publishers.
[480] S ALKIN , H.M. 1975. Integer Programming. Addison-Wesley.
[481] S ALKIN , H.M. Y M ATHUR , K 1989. Introduction to Integer Programming. North-Holland.
[482] S ALKIN , H.M. Y S AHA , J. EDS . 1975. Studies in Linear Programming. North-Holland.
[483] S ARGENT, R.W.H. Y W ESTERBERG , A.W. 1964. Speed-up in Chemical Engineering De-
sign. Trans. Inst. Chem. Eng. 42, pp.190-197.
[484] S AUER , T. 2012. Numerical Analysis. Second Edition. Pearson.
[485] S AUER , T. 2013. Anlisis numrico. Segunda edicin. Pearson educacin.
[486] S AUNDERS , M.A. 1976. A Fast Stable Implementation of the Simplex Method using
Bartels-Golub Updating. En Sparse Matrix Computations. Bunch, J.R. y Rose, D.J. eds.
Academic Press.
[487] S AVILLE , D.J. Y W OOD , G.R. 1991. Statistical Methods: The Geometric Approach. Sprin-
ger.
[488] S AYAS , F.J. 2015. A Gentle Introduction to the Finite Element Method.
[489] S CHATZMAN , M. 1991. Analyse numrique. Cours et exercices pour la licence. InterEdi-
tions.
[490] S CHENDEL , U. 1989. Sparse Matrices. Numerical Aspects with Applications to Scientists
and Engineers. Ellis Horwood Limited.
[491] S CHERER , C.R. 1977. Estimating Electric Power System Marginal Costs. North-Holland.
[492] S CHITTKOWSKI , K. ED . 1985. Computational Mathematical Programming. Springer.
[493] S CHITTKOWSKI , K. 1980. Nonlinear Programming Codes. Information, Tests, Performan-
ce. Lecture Notes in Economics and Mathematical Systems, 183. Springer.
[494] S CHITTKOWSKI , K. 1981. Test Examples for Nonlineal Programming Codes. Lecture No-
tes in Economics and Mathematical Systems, 187. Springer.
Bibliografa j 245

[495] S CHITTKOWSKI , K. 2009. Test Examples for Nonlinear Programming Codes. All Problems
from the Hock-Schittkowski-Collection. Department of Computer Science, University of
Bayreuth.
[496] S CHRAGE , L. 1989. Users Manual for Linear, Integer, and Quadratic Programming with
LINDO. The Scientific Press.
[497] S CHRAGE , L. 1991. LINDO. An Optimization Modeling System. Boyd and Fraser Publis-
hing Company.
[498] S CHRIJVER , A. 1986. Theory of Linear and Integer Programming. Wiley.
[499] S COTT, L.R. 2011. Numerical Analysis. Princeton University Press.
[500] S EDGEWICK , R. 1992. Algorithms in C++. Addison-Wesley.
[501] S EN , R. 2013. A First Course in Functional analysis. Theroy and Applications. Anthem
Press.
[502] S ENIOR , T.B.A. 1986. Mathematical Methods in Electrical Engineering. Cambridge.
[503] S HAMPINE , L.F., G LADWELL , I. Y T HOMPSON , S. 2003. Solvin ODEs with MATLAB.
Cambridge.
[504] S HAPIRO , J.F. 1979. Mathematical Programming. Structures and Algorithms. Wiley.
[505] S HEWCHUK , J.R. 1994. An Introduction to Conjugate Gradient Method without the Ago-
nizing Pain. School Of Computer Science, Carnegie Mellon University.
[506] S IDDALL , J.N. 1982. Optimal Engineering Design. Principles and Applications. Marcel
Dekker.
[507] S IERKSMA G. 1996. Linear and Integer Programming: Theory and Practice. Marcel Dek-
ker.
[508] S IMONNARD , M. 1972. Programmation Linaire. Technique du Calcul conomique. Fon-
dements. Dunod.
[509] S IMONNARD , M. 1973. Programmation Linaire. Technique du Calcul conomique. Ex-
tensions. Dunod.
[510] S KORNIAKOV, L.A. 1988. Sistemas de Ecuaciones Lineales. Editorial Mir.
[511] S MITH , B.T., B OYLE , J.M., D ONGARRA , J.J., G ARBOW, B.S., I KEBE , Y., K LEMA , V.C.
Y M OLER , C.B. 1976. Matrix Eigensystem Routines-EISPACK Guide. Springer.
[512] S BOL , I.M. 1983. Mtodo de Montecarlo. Editorial Mir.
[513] S OLODVNIKOV, A.S. 1980. Sistemas de Desigualdades Lineales. Editorial Mir.
[514] S ORDET, J. 1970. La Programmation Linaire Applique lEntreprise. Dunod.
[515] S ORENSEN , D.C. 2015. CAAM 454 Lecture Notes: Iterative Methods for Linear Systems.
Rice University, Department of Computational and Applied Mathematics
http://www.caam.rice.edu/~caam551/NOTES/Notes454.pdf
[516] S PEDICATO , E. ED . 1991. Computer Algorithms for Solving Linear Algebraic Equations.
The State of the Art. Springer, NATO Scientific Affairs.
[517] S TAGG , G.W. Y E L -A BIAD , A.H. 1968. Computer Methods in Power Systems Analysis.
McGraw-Hill.
[518] S TAHEL , A. 2012. Numerical Methods.
[519] S TEVENSON , W. D. 1984. Elements of Power System Analysis. McGraw-Hill.
[520] S TEWART, G.W. 1973. Introduction to Matrix Computations. Academic Press.
[521] S TEWART, G.W. 1996. Afternotes on Numerical Analysis. SIAM.
246 j Bibliografa

[522] S TEWART, G.W. 1998. Matrix Computations. Vol 1: Basic Decompositions. SIAM.
[523] S TEWART, J. 2015. Calculus. Eighth Edition. Brooks/Cole.
[524] S TOER , J. Y B ULIRSCH , R. 1980. Introduction to Numerical Analysis. Springer.
[525] S TOTT, B. Y A LSAC , O. 1974. Fast Decoupled Load Flow. IEEE Trans. on Power Appa-
ratus and Systems PAS-93, pp. 859-869.
[526] S TRANG , G. 1976. Linear Algebra and its Applications. Academic Press.
[527] S TRANG , G. 1988. Linear Algebra and its Applications. Harcourt Brace Jovanovich.
[528] S TRAUSS , W.A. 2008. Partial Differential Equations. An Introduction. Second Edition.
Wiley.
[529] S LI , E. Y M AYERS , D. 2003. An Introduction to Numerical Analysis. Cambridge.
[530] S ULTAN , A. 1993. Linear Programming. An Introduction with Applications. Academic
Press.
[531] S LLI , E. 2012. Lecture Notes on Finite Element Methods for Partial Differential Equa-
tions. Mathematical Institute University of Oxford.
http://people.maths.ox.ac.uk/suli/fem.pdf
[532] S UN , W. Y Y UAN , Y-X. 2006. Optimization Theory and Methods. Nonlinear Program-
ming. Springer.
[533] TARJAN , R. 1972. Depth-First Search and Linear Graph Algorithms. SIAM J. Computing
1, pp. 146-160.
[534] T EWARSON , R.P. 1973. Sparse Matrices. Academic Press.
[535] T HOMAS , B.J. 1996. The Internet for Scientists and Engineers. Oxford University Press.
[536] T HOMAS , G.B. 2014. Thomas Calculus. Thirteenth Edition. Pearson.
[537] T INNEY, W.F. Y WALKER , J.W. 1967. Direct Solution of Sparse Network Equations by
Optimally Ordered Triangular Factorizations. Proceedings of the IEEE 55, pp.1801-1809.
[538] T ITS , A.L., WCHTE , A., BAKHTIARI , S., U RBAN , T.J. Y L AWRENCE , G.T. 2003. A
Primal-Dual Interior-Point Method for Nonlinear Programming with Strong and Local
Convergence Properties. SIAM J. Optimizaton, Vol. 14, No. 1, pp. 173-199.
[539] T OMLIN , J.A. 1970. Branch-and-Bound Methods for Integer and Non-Convex Program-
ming. En Integer and Nonlinear Programming. Abadie, J. ed. North-Holland.
[540] T OMLIN , J.A. 1972. Pivoting for Size and Sparsity in Linear Programming. J. Inst. Maths.
Applics. 10, pp. 289-295.
[541] T REFETHEN , L.N. Y BAU , D. 1997. Numerical Linear Algebra. SIAM.
[542] T REFETHEN , L.N. 2005. Who invented the great numerical algorithms? Oxford University
Mathematical Institute, Oxford University.
http://www.maths.ox.ac.uk/~trefethen
[543] T YRRELL ROCKAFELLAR , R. 1972. Convex Analysis. Princeton University Press.
[544] T YRRELL ROCKAFELLAR , R. Y W ETS , R.J-B. 1997. Variatonal Analysis. Springer.
[545] U EBERHUBER , C.W. 1995. Numerical Computation. Methods, Software, and Analysis.
Vols I y II. Springer.
[546] VAN DE PANNE , C. 1976. Linear Programming and Related Techniques. North-Holland.
[547] VAN DER VORST, H.A. 2003. Iterative Krylov Methods for Large Linear Systems. Cam-
bridge.
Bibliografa j 247

[548] VAN L OAN , C.F. 1997. Introduction to Scientific Computing. A Matrix-Vector Approach
Using MATLAB. Prentice Hall.
[549] VANDERBEI , R.J. 2001. Linear Programming. Foundations and Extensions. Princeton Uni-
versity, Operations Research and Financial Engineering Dept.
[550] VANDERBEI , R.J. 1999. LOQO: An Interior Point Code for Quadratic Programming. Jour-
nal on Optimization Methods and Software, Vol. 11, pp. 451-484
[551] VARGA , R.S. 1962. Matrix Iterative Analysis. Prentice Hall.
[552] V ENKATARAMAN , P. 2002. Applied Optimization with MATLAB Programming. Wiley.
[553] V ILENKIN , N.YA . 1984. Mtodo de Aproximaciones Sucesivas. Editorial Mir.
[554] V ILLANUEVA , I. 2016. Apuntes de Ampliacin de Clculo. Universidad Complutense de
Madrid.
http://www.mat.ucm.es/~cruizb/Informatica-2/Apuntes-i/Otros-Grupos/AC-Fourier.pdf
[555] WCHTER , A. Y B IEGLER , L.T. 2006. On the Implementation of a Primal-Dual Interior
Point Filter Line Search Algorithm for Large-Scale Nonlinear Programming. Mathematical
Programming 106, pp. 25-57.
[556] WALSH , G.R. 1975. Methods of Optimization. Wiley.
[557] WATKINS , D.S. 1991. Fundamentals of Matrix Computations. Wiley.
[558] WATKINS , D.S. 2002. Fundamentals of Matrix Computations. Second Edition. Wiley.
[559] WATKINS , D.S. 2007. The Matrix Eigenvalue Problem. GR and Krylov Subspace Methods.
SIAM.
[560] W ELLIN , P., K AMIN , S. Y G AYLORD , R. 2005. An Introduction to programming with
Mathematica. Cambridge.
[561] W ENTZEL , E.S. 1983. Operations Research. A Methodological Approach. Mir Publishers.
[562] W HEEDEN , R.L. Y Z YGMUND , A. 2015. Measure ans Integral. An Introduction to Real
Analysis. Second Edition. CRC Press.
[563] W HITE , R.E. 1985. An Introduction to Finite Element Method with Applications to Nonli-
near Problems. Wiley.
[564] W HITEHOUSE , G.E. Y W ECHSLER , B. 1976. Applied Operations Research: A Survey.
Wiley.
[565] W ILKINSON , J.H. 1965. The Algebraic Eigenvalue Problem. Oxford University Press.
[566] W ILKINSON , J.H. 1994. Rounding Errors in Algebraic Processes. Dover Publications.
[567] W ILSON , D.I. 2015. Numerical Methods with MATLAB for Engineers. Auckland Univer-
sity of Technology.
[568] W ILSON , H.B., T URCOTTE , L.H. Y H ALPERN , D. 2003. Advanced Mathematics and
Mechanics Applications Using MATLAB. Third Edition. Chapman and Hall/CRC.
[569] W INSTON , W.L. 1994. Operations Research. Applications and Algorithms. Duxbury Press.
[570] W OLFE , M.A. 1978. Numerical Methods for Unconstrained Optimization. An Introduction.
Van Nostrand Reinhold Company.
[571] W OLFE , P. 1961. A Duality Theorem for Non-Linear Programming. Quart. Appl. Math. 19,
N 3.
[572] W OLFE , P. 1967. Methods of Nonlinear Programming. En Nonlinear Programming. Abadie
J. ed. North-Holland.
248 j Bibliografa

[573] W ONNACOTT, T.H. Y W ONNACOTT, R.J. 1972. Introductory Statistics for Business and
Economics. Wiley.
[574] W OOD , A.J. Y W OLLENBERG , B.F. 1984.cc Power Generation Operation and Control.
Wiley.
[575] W RIGHT, M.H. 2004. The Interior-Point Revolution in Optimization: History, Recent De-
velopments, and lasting Consequences. Bulletin of The American Mathematical Society,
Vol. 42, No. 1, pp. 39-56.
[576] W RIGHT, M.H. 1991. Interior Methods for Constrained Optimization. ATT Bell Laborato-
ries. Acta Numerica.
[577] W RIGHT, S.J. 1997. Primal-Dual Interior Point Methods. SIAM.
[578] YANG , W.Y., C AO , W., C HUNG , T.-S. Y M ORRIS , J. 2005. Applied Numerical Methods
Using MATLAB. Wiley.
[579] YOUNG , D.M. Y G REGORY, R.T. 1988. A Survey of Numerical Mathematics. Vols. I y II.
Dover Publications.
[580] Z IENKIEWICZ , O.C., TAYLOR , R.L. Y Z HU , J.Z. 2005. The Finite Element Method: Its
Basis and Fundamentals. Second Edition. Elsevier.
[581] ZL ITKOVI C , G. 2017. Introduction to Stochastic Processes. Lecture notes. Department of
Mathematics. The University of Texas at Austin.
https://www.ma.utexas.edu/users/gordanz/notes/introduction_to_stochastic_processes.pdf
ndice de materias y autores

A cerrada, en un espacio vectorial normado,


Abierto, conjunto o subconjunto, 13 12
Adherencia, 13 eucldea, 78
de un conjunto, 13 norma, 79
punto de, 13 Borel, F.E.J.E. 200
Afinmente dependiente, independiente, 72 Box, G.E.P. 216
lgebra, 32 Brown, R. 208
Teorema fundamental del lgebra, 39 Browniano, movimiento, 208
-lgebra de Borel, 200
Algoritmo, 1 C
Mersenne Twister, 214 C, cuerpo de los nmeros complejos, 1, 3
Aliasing, fenmeno en seales, 186 Campo escalar, 122
Aplicacin, 2 Campo vectorial, 122
biyectiva, 3 Cannica,
dominio de definicin, origen, 3 base de un espacio vectorial, 8
dominio de valores, 3 Cantor, G.F.L.P. 1
imagen, 3 Cara, de un politopo, 78
inyectiva, 3 Carathodory, C. 75
lineal, 17 Cauchy, A.L. 15
ncleo, 17 sucesin de, 15
permutaciones, 3 Cauchy-Schwarz, desigualdad de 22
suprayectiva, 3 Cayley, A. 40, 29
traspuesta, 17 Combinaciones convexas, 71
Autovalor, o valor propoio, 34 estrictamente, 71
Combinacin lineal, de vectores, 7
B Compacto, subconjunto o conjunto, 14
Banach, S. 15 Complemento, de un subconjunto, 2
espacio vectorial de, 15, 19 Completo, espacio vectorial, 15
Base, de un espacio vectorial, 8 Componenetes principales, 153
cannica, 8 Compresin de imgenes y vdeo, JPG, MP3,
Bernoulli, D. 208 189
Bilineal, forma, 21 Condicin,
Biyectiva, aplicacin, 3 de complementariedad de holguras, en
Black, F.S. 222 programacin lineal, 90
Bola, de Lipschitz, R.O.S. 52
abierta, en un espacio vectorial normado, 12 nmero de, de una matriz, 253
250 j ndice de Materias y Autores

Condiciones, convexo, 75
necesarias y suficientes de primer y dual, 81
segundo orden de un mnimo, 69 norma, 79
Conjugada de Fenchel, 103 puntiagudo 79
Conjunto(s), 1 verdadero o apropiado, 79
N, 1 Continuidad, 51
Z, 1 de Lipschitz, 52
R, 1 Convergencia, de una sucesin en espacio
C, 1 vectorial normado, 13
Q, 1 Convergencia puntual, 58
abierto, subconjunto de un espacio Convergencia uniforme, 58
normado, 13 Convexo,
entorno, 12 conjunto, 70, 71
afn, 72 cono, 75
aplicacin, funcin, trasnformacin o Convolucin, de dos funciones, 183
mapeo entre conjuntos, 1 Cooley, J.W. 185
imagen, cionjunto imagen, 3 Coordenadas baricntricas, 73
origen o dominio de definicin, 3 Correlacin, 154
dominio de valores, 3 coeficiente, matriz, 154
inyectiva, 3 Cota
suprayectiva, 3 inferior mxima, o nfimo, 2
biyectiva, 3 superior mnima, o supremo, 2
cerrado, 13 Criterio o regla
compacto, 14 de Weierstrass, 61
complemento, de un subconjunto, 2 de Nyquist, 186
convexo, 70, 71 Cuadrtica, forma, 48
cota superior mnima o supremo, 1
cota inferior mxima o nfimo, 1 D
elemento o miembro, 1 Definida positiva,
elemento mnimo, 80 forma cuadrtica, 48
elemento mximo, 80 matriz, 36
elemento minimal, 80 Desnsidad de probabilidad, 201
estructura algebraica en conjuntos, 3 Dependencia lineal, vectores de espacio
grupo, 3 vectorial, 7
anillo, 3 Derivada de una funcin, 53
cuerpo, 3 Derivada de Frchet, 54
espacio vecctorial, 3 Derivada de Gteaux, 54
frontera o borde de, 13 Descomposicin,
interior de, 13 o triangularizacin de Schur, 42
interseccin, 1 de Jordan, 42
numerable, 3 en valores singulares, 45
sucesin de elementos, 3 espectral, 42
lmite superior de la sucesin, 3 Desigualdad,
lmite inferior de la sucesin, 3 de Cauchy-Schwarz, 22
unin, 1 de Fenchel-Young, 105
vaco, 1 Desigualdades generalizadas, 80
Cono, 75 Diagonal dominante, matriz de, 37
ndice de Materias y Autores j 251

Diferenciabilidad, 53 combinacin lineal de vectores, 7


Dimensin, de espacio vectorial, 8 completo, 15
Dirac, P.A.M. 146 de Lebesgue, 26
funcin delta de, 146 de Sobolev, 28
Direccin, de probabilidad, 200
de un politopo, 91 dimensin, 8
extrema, 91 distancia en espacio vectorial, 10
Dirichlet, P.G.L. 135 elementos o vectores, 5
Distancia, elemento neutro o nulo, 5
en espacio vectorial normado, 10, 19 familia libre, 8
Divergencia, de un campo vectorial 128 fucional, elementos son funciones, 15
Dominio generado o engendrado por un subconjunto,
de definicin, de una aplicacin, 2 8
de valores, de una aplicacin, 2 parte generadora, 8
Dual, dual, 17
espacio vectorial, 17 mtrico, 10, 19
Dualidad, en programacin lineal, 100, 102 norma vectorial, 10
dbil, 97 norma eucldea, 11
norma infinito o norma del suprefmo, 11
E p de Hlder, 11
Ecuacin de Poisson, 133 normado, 10
Ecuacin caracterstica, de una matriz, 39 bola abierta, en un espacio vectorial
Elemento de un conjunto, 1 normado, 12
Elemento minimal, 80 bola cerrada, en un espacio vectorial
Elemento mnimo, 80 normado, 12
Elemento mximo, 80 completo, 15
Eipsoide(s), 78 de Banach, 19
degenerado, 78 de Hilbert, 22
Endomorfismo, 17 eucldeo, 11, 22
Entorno, de un punto en un conjunto, 13 prehilbertiano, 21
Envoltura afn, 72 subespacio vectorial, 7
Envoltura cnica, 75 subespacios suplementarios, 8
Envoltura convexa, 71 variedad lineal o subespacio afn, 76
Epigrafo de una funcin, 51 vectores linealmente independientes, 7
Escalar(es), 5 vectores linealmente dependientes, 7
Espacio afn, o variedad lineal, 76 Esperanza matemtica, de variable aleatoria,
Espacio(s) vectorial(es), 5 202
Pn , 7 Espectral, norma de una matriz, 34
Rn , 7 Espectro de una matriz, 39
`p , 18 Estrictamente dominante, matriz, 37
Lp , 18 Eucldeo, espacio vectorial, 22
aplicacin, funcin o transformacin, 17 Euclides de Alejandra, 11
imagen y ncleo, 17 European call option, 222
variedad lineal, 17
contnua, 17 F
base, 8 Faceta, de un politopo, 78
base cannica o base estndar, 8 Factores twiddle, 162
252 j ndice de Materias y Autores

Familia libre, en espacio vectorial, 8 fenmeno de, 174


Farkas, G. 88 Goursat, . 165
Farkas, lema, 88 Gradiente, vector gradiente de una funcin, 53
Fenchel, M.W. 71 Grfico de una funcin, 51
desigualdad de Fenchel-Young, 105 Green, G. 136
funcin conjugada de, 103
Fermat, P. 70 H
Forma, Hadamard, J.S. 108
bilineal, 21, 48 Hamilton, W.R. 40
cuadrtica, 48 Hermtica, forma, 21
rango, 48 Hessenberg, K.A. 38
signatura, 48 matriz de, 38
hermtica, 21 Hesse, L.O. 55
lineal, 17 matriz hessiana, 55
sesquilineal, 21 Hessiana, matriz de una funcin, 55
Frmula de Black y Scholes, 222 Hilbert, D. 22
Formulacin dbil, 133, 135, 137 espacio vectorial, 22
Formulacin fuerte, 134 Hiperplano, variedad lineal, 76
Fourier, J.B.J. 167 separador, 85
Frchet, M. 54 teorema de existencia, 84
Frecuencia de Nyquist, 186 soporte, o de apoyo 78, 87
Frobenius, F.G. 33 teorema de existencia, 86
norma de, 33 vector caracterstico, 76
Frontera, o borde de un conjunto, 13 Hipografo de una funcin, 51
Fubini, G. 121 Hlder, O. 11
Funcin, 2 normas p de Hlder, 11
afn, 52 Homomorfismo, 17
conjugada, 103 Hotelling, H. 153
de distribucin, 202
dual, 96, 97, 98, 100 I
continua, 52 Imagen,
continua de Lipschitz, 52 de una aplicacin, 2
convexa, 70 de una matriz, 31
matriz Hessiana de, 55 subespacio, 17
objetivo, de un programa lineal, 69 Independencia lineal, vectores en espacio
subdiferenciable, 56 vectorial, 7
Funcional, funcin de funciones, 145 Infimo, o cota inferior mxima, 2
Integral definida, 25, 58
G Integral doble, 120
Galerkin, B.G. 133 Integral de Cauchy, 165
Gap de dualidad, 95, 98, 101, 103 Integral de Fourier, 179
en condiciones de punto ptimo de Integral de It, 219
Programacin Lineal, 90 Integral de Riemann, 58
Gteaux, R.E. 54 Integral de Lebesgue, 25
Gerschgorin, S.A. 44 Integral en lnea, 122, 123, 125
teorema de, 44 Interior, de un conjunto, 13
Gibbs, J.W. 174 punto, 13
ndice de Materias y Autores j 253

Interseccin, de conjuntos, 1 de proyeccin, 39


Inyectiva, aplicacin, 3 de proyeccin ortogonal, 39
Isomtrico, operador, 22 de Vandermonde, 38
It, K. 219 ecuacin caracterstica, 39
espectro, 39
J estrictamente dominante, 37
Jacobi, C.G.J. 53 hermtica, 36
Jacobiana, matriz, 53 Hessiana, de una funcin, 55
Jordan, M.E.C. 43 imagen, 31
indefinida, 37
K Jacobiana, de una funcin vectorial, 53
Karush, W. 90 normal, 36
Karush-Kuhn-Tucker, condiciones en ncleo, 31
programacin lineal, 90 nmero de condicin,
Kolmogorof, A.N. 207
ortogonal, 36
Kronecker, L. 140
pseudoinversa, 47
Krylov, A. 40
radio espectral, 39
subespacio de, 40
rango, 31
Kuhn, H.W. 90
completo, 31
L regular, 31
`p , espacio vectorial, 18 semejante a otra, 42
Lp , espacio vectorial, 18 semidefinida negativa, 36
Lagrange, J.L. 95 semidefinida positiva, 36
multiplicadores, 100 simtrica, 36
Laplace, P.S. 195 singular, 31
Lebesgue, H.L. 26 unitaria, 36
integral de, 25 Matriz simtrica, 36
espacio de, 26 definida negativa, 36
Libre, familia, en espacio vectorial, 8 definida positiva, 36
Lmite, de una sucesin, 19 indefinida, 36
Lineal, forma, 17 semidefinida positiva, 36
Lipschitz, R.O.S. 52 semidefinida negativa, 36
condicin de, 52 Matriz compaera, de un polinomio, 41, 40
funcin continua, 52 Matriz diagonalizable por semejanza, 42, 43
Matriz de proyeccin, 39
M Matriz de proyeccin ortogonal, 39
Markov, A.A. 212 Matriz pseudoinversa, 47
Maruyama, G. 220 Menores, nmeros de una matriz, 48
Matriz, 29 Mtodo Box-Mller, 216
congruente ortogonal, 43 Mtodo de Euler-Maruyama, 220
definida negativa, 36 Mersenne, M. 214
de covarianzas, 154, 203 Mtrico, espacio vectorial, 19
de diagonal dominante, 37 Mnimo global, 69
de diagonal estrictamente dominante, 37 Mnimo local, 69
de Hankel, 38 Mnimo local estricto, 69
de Hessenberg, 38 Minkowski, H.M. 10
de permutacin, 39 desigualdad de, 10
254 j ndice de Materias y Autores

Modelo de Black y Scholes, 222 Optimizacin, 69


Moivre, A. 162 sin condiciones, existencia de punto
nmeros de Moivre, 162 mnimo, 69
Montecarlo, mtodo, 217 con condiciones, lineles, 69
Moreau, J.J. 71 con condiciones, no lineles, 69
Movimiento Browniano, 208 escalar, 111
Muestreo de seales, 185 optimizacin vectorial, 111
Multiplicadores de Lagrange, en optimizacin ptimo de Pareto, 113
lineal, 90 Ortante no negativo RnC , 81, 96
en optimizacin, 90, 95, 99 Ortogonal(es),
matriz, 36
N subespacio, 22
N, conjunto de los nmeros naturales, 1 vectores, 22
Neumann, K.G. 135 Ortonormales, vectores, 22
Norma,
bola, 79 P
cono, 79 Parte generadora, de un espacio vectorial, 7
de nerga, 28 Pareto, V.F. 113
matricial, 31, 32 Parseval, M-A. 178
consistente, 32 Paseo aleatorio, 208
de Frobenius, 32 Pearson, K. 153
espectral, 34 Permutacin, matriz de, 36
inducida, 34 Plano afn, 72
kAk1 , 34 Poliedro, 78
kAk1 , 34 Polinomio caracterstico, de una matriz, 39
vectorial, 10 Polinomio de Taylor, 63
kxk1 , 11 Polinomio mnimo de una matriz, 41
kxk1 , 11 Polinomio mnico, 40
eucldea, 11 Polinomio trigonomtrico, 167
p de Hlder, 11 coeficientes de Fourier, 167
Ncleo, frecuencia fundamental, 167
de una aplicacin, 17 grado, 167
de una matriz, 31 Politopo(s), 78
Numerable, conjunto, 3 arista, 78
Nmero de condicin de una matriz, 253 cara, 78
Nyquist, H. 186 cnico, 78
direccin de un politopo, 91
O extrema, 91
Opcin de compra, 222 faceta, 78
Operador, y regin factible de un programa lineal, 91
adjunto, 22 vrtice, 78
autoadjunto, 22 Poisson, S.D. 133
hermtico, 22 Prehilbertiano, espacio vectorial, 21
isomtrico, 22 Probabilidad, 200
lineal 17 condicionada, 205
simtrico, 22 densidad, 201
unitario, 22 espacio de, 200
ndice de Materias y Autores j 255

Problema de optimizacin escalar, 111 Rolle, M. 65


Problema de optimizacin vectorial, 111
Proceso, de Markov, 212 S
Proceso, de Poisson, 212 Sampleo de seales, 185
Proceso, de Wiener, 210 Scholes, M.S. 222
Proceso estocstico, 206 Schur, I. 42
Producto escalar, o producto interior, en un Schwarz, K.H.A. 22
espacio vectorial, 22 Schwarz, desigualdad de Cauchy-Shwarz, 22
Producto exterior, 31 Semidefinida negativa,
Programa dual, de uno lineal, 100, 102 matriz, 36
Proyeccin, Semidefinida positiva,
matriz de, 39 matriz, 36
ortogonal de un vector, 39 Semiespacio,
matriz de, 39 abierto, 76
teorema de la, 23 cerrado, 76
Proyector suplementario, 39 Separador, hiperplano, 85
Punto, Serie de Taylor, 63
de acumulacin, 13 Serie trigonomtrica de Fourier, 167
de adherencia, 13 Sesquilineal, forma, 21
extremo de una regin factible, 75 en un espascio vectorial, 21
de conjunto convexo, 75 Shannon, C.E. 186
estacionario, 69 Signatura, de una forma cuadrtica, 48
interior, 13 Smplex, o simplejo, 72
Punto extremo o vrtice de una regin factible, smplex unidad, 73
75 Stokes, G.G. 129
Subconjunto, 1
Q abierto, 13
Q, conjunto de los nmeros racionales, 1 cerrado, 13
compacto, 13
R Subespacio(s),
R, cuerpo de los nmeros reales, 1, 3 de Krylov, 40
Radio espectral de una matriz, 39 imagen, de una aplicacin, 17
Rango, ortogonal, 23
de una forma cuadrtica, 48 propio, 39
de una matriz, 31 suplementarios, 8
completo, 31 vectorial, 7
Regin factible, Subdiferencial, de una funcin, 56
punto extremo, o vrtice, 75 Subgradiente, de una funcin, 56
y politopo, 91 Sucesin, 3
Regla, convergencia en un espacio vectorial
del tringulo, 10 normado, 19
desigualdad de Mnkowski, 10 de Cauchy, 15
Resto de Taylor, 63 de elementos de un conjunto, aplicacin, 3
Riemann, G.F.B. 58 lmite de, 19
Riesz, F 110 Suma directa, de dos subespacios vectoriales, 8
Ritz, W. 131 Suprayectiva, aplicacin, 3
Rockafellar, R.T. 71 Supremo, o cota superior mnima, 2
256 j ndice de Materias y Autores

Sylvester, J.J. 29 U
Ulam, S.M. 217
Unidad imaginaria, 161
T Unin, de conjuntos, 1
Taylor, B. 63
teorema de, 63 V
desarrollo en serie de, 63 Valor(es) propio(s), 39
polinomio de, 63 defectuoso, 39
resto de, 63 dominante, 41
serie de, 63 multiplicidad algebraica, 39
Teorema, multiplicidad geomtrica, 39
central del lmite, 217 Valor(es) singular(es), 43
de Abel, 62 descomposicin en, 45
de Cayley-Hamilton, 39 Vandermonde, A.T. 38
de Fermat, 70 Vandermonde, matriz de, 38
de Fubini, 120 Variable aleatoria, 201
de Green, 127 desnsidad de probabilidad, 201
de Nyquist-Shannon, 186 esperanza matemtica, 202
de Parseval, 178 funcin de distribucin, 202
de Riesz-Frchet, 110 varianza, 202
de Rolle, 65 Variedad afn, variedad lineal, 72
de Stokes, 129 Variedad lineal, hiperplano, 76
de Taylor, 63 separador, 85
de la divergencia, 136 teorema de existencia, 84
de la dualidad fuerte, 99 soporte, 78, 87
de la funcin implcita, 67 teorema de existencia, 86
del valor intermedio, 64 vector caracterstico, 76
Vector(es), 3
del valor medio, 64
aleatorio, 203
espectral, 42
alineados, 23
fundamental del lgebra, 39
caracterstico, de un hiperplano o variedad
fundamental del clculo, 58
lineal, 76
fundamental de la Programacin Lineal, 93
formado ngulo obtuso, 23
fundamental de las integrales en lnea, 125
formado ngulo agudo, 23
Weierstrass, 52 gradiente, 53
Transformacin, linealmente dependientes, 7
de Fenchel, 103 linealmente independientes, 7
Transformada de Fourier, 181 opuestos, 23
Transformada de Fourier discreta, 183 ortogonales, 22
Transformada de Karhunen-Love, 192 ortonormales, 22
Transformada de Laplace, 195 Vector propio, 41
Transformada del coseno discreta, 189 Vrtice de una regin factible, 75
Transformada inversa de Fourier, 181 de un politopo, 78
Transformada rpida de Fourier, 185 Von Neumann, J. 217
Tringulo, regla, 10
Tucker, A.W. 90 W
Tukey, J. 185 Weierstra, K.T.W. 14
ndice de Materias y Autores j 257

criterio de, 61
teorema de, 52
Wiener, N. 210
Wiener, Proceso de, 210
Wolfe, P.S. 102

Z
Z, conjunto (anillo) de los nmeros enteros, 1

S-ar putea să vă placă și