Sunteți pe pagina 1din 61

Captulo 1

INTRODUCCION A LOS
PROBLEMAS INVERSOS
Los problemas inversos aparecen cuando se busca la causa de efectos ob-
servados o deseados. Se dice que dos problemas son inversos uno del otro si la
formulacin de uno involucra la solucin del otro y viceversa. Estos problemas
recprocos se separan propiamente entre el problema directo y el problema inver-
so. De los dos, el problema directo generalmente ha sido estudiado antes y por
lo tanto es el que se conoce con mayor detalle. Por ejemplo, en el campo de las
ecuaciones diferenciales parciales, el problema directo podra ser el predecir la
evolucin de un sistema a partir del conocimiento de su estado actual, de las leyes
fsicas y de parmetros relevantes para el sistema tales como la conductividad
elctrica o calrica, densidad,etc. Un problema inverso podra ser el determinar
algunos de los parmetros (causas!) del sistema a partir de observaciones de la
evolucin del sistema(efectos!). Algunas veces, la distincin no es del todo obvia.
Por ejemplo, la diferenciacin y la integracin son problemas inversos uno del
otro.Cul debera ser el inverso?. La respuesta est en que el problema de la
diferenciacin es inestable, mientras que la integracin es un problema estable.
De hecho, la integracin adems es un proceso suavizante; toma, por ejemplo
una funcin de C(\) y la transforma en otra funcin de C
1
(\). De aqu que se
considere a la integracin como el problema directo y a la diferenciacin como
el inverso. Esta propiedad de ser inestables es una caracterstica comn de la
mayora de los problemas inversos que aparecen en la prctica. Mostraremos
que efectivamente la diferenciacin es un problema inestable:
Ejemplo 1 Consideremos el operador integracin : 1
2
(0, 1) 1
2
(0, 1) tal
que:
n(r) :=
_
r
0
n(t)dt
Notemos que:
(1
2
(\)) =
_
n H
1
(0, 1),n(0) = 0
_
1
2 CAPTULO 1. INTRODUCCION A LOS PROBLEMAS INVERSOS
Consideremos la sucesin )
n

nN
C
1
(0, 1) 1
2
(0, 1) tal que:
)
n
(r) := )(r)
1
:
:c:(:
2
r) , con ) C
1
(0, 1)
Luego:
)
t
n
(r) = )
t
(r) :cos(:
2
r)
As:
|)
n
)|
J
2
(0,1)
=
_
_
1
0
_
1
:
:c:(:
2
r)
_
2
dr
_1
2
=
1
:
_
1
2

1
4:
:c:(2:
2
)
_1
2
= O(
1
:
)
mientras que:
|)
t
)
t
n
|
J
2
(0,1)
=
__
1
0
(:cos(:
2
r))
2
dr
_
1
2
= :(
1
2

1
4:
:c:(2:
2
))
1
2
= O(:)
De esta manera, )
n
) en 1
2
(0, 1) mientras que la distancia entre )
t
n
y )
t
puede hacerse arbitrariamente grande. Esto muestra que la derivacin no es un
operador continuo . Puede mostrarse lo mismo si se considera el espacio C [0, 1[
con la norma del mximo.
Hadamard introdujo en 1923 la nocin de un problema matemtico Bien
puesto(well posed). Este deba satisfacer las siguientes condiciones:
1. Existencia: Para todos los datos admisibles, existe una solucin del prob-
lema (en algn sentido)
2. Unicidad: La solucin es nica.
3. Estabilidad: La solucin depende continuamente de los datos.
De acuerdo con esta denicin , un problema es Mal puesto(ill posed) si
una de las tres condiciones no se cumple. Sin embargo, en general se pone ms
atencin en particular en problemas que violan la tercera condicin, es decir,
que no dependen de los datos en forma estable. La primera y segunda condicin
pueden ser forzadas de alguna manera tanto ampliando como restringiendo los
espacios.
3
El modelo de un problema inverso ser una ecuacin de la forma:
1(r) = j
con 1 lineal o no lineal, actuando en general entre espacios de Hilbert o de
Banach. El problema es determinar r A, conociendo el dato j. Si no se cumple
la tercera condicin , la solucin numrica del problema inverso por los mtodos
usuales es muy difcil, aunque se conozca el dato exacto j, lo cual no es el caso
dado el error inherente al proceso de medicin o tambin a las inexactitudes del
modelo en s. An si la desviacin de los datos exactos es pequea, los algoritmos
desarrollados para problemas bien puestos fallan si no hay estabilidad , dado que
los errores pueden resultar amplicados for un factor arbitrariamente grande.
Por esta razn se han desarrollado tcnicas especiales , llamadas mtodos de
regularizacin(Cap.3), para lograr estabilidad en la solucin.
Dentro de los campos donde los problemas inversos juegan un rol importante,
podemos citar:
1. Imaginera mdica: Ecografa, scanners, rayos x ,tomografa computariza-
da, que envuelven la reconstruccin de una funcin, usualmente una fun-
cin de densidad, a partir de valores de integrales de lnea . Tienen aplica-
ciones muy importantes en aplicaciones mdicas y en testeo no destructivo.
Matemticamente, estn relacionados con la inversin de la Transformada
de Radom.
2. Ingeniera petrolera: prospeccin por mtodos ssmicos,magnticos, iden-
ticacin de permeabilidades en un depsito,etc.
3. Hidrogeologa: Identicacin de permeabilidades hidrulicas.
4. Qumica: Detrminacin de constantes de reaccin.
5. Radar: Determinacin de la forma de un obstculo.
6. Acstica submarina: Mismo objeto.
7. Mecnica Cuntica: Determinacin del potencial.
8. Tratamiento de imgenes: Restauracin de imgenes borrosas.
Desde el punto de vista matemtico, los problemas inversos de dividen
en dos grandes grupos:
Problemas lineales(ecografa, tratamiento de imgenes,etc) , que general-
mente tratan de la resolucin de una ecuacin integral.
Problemas no lineales: Principalmente tienen que ver con la estimacin de
parmetros en las ecuaciones diferenciales, ya sean ordinarias o parciales.
Los problemas de identicacin de parmetros a la vez se dividen en dos
subcategoras: Cuando el parmetro a estimar es un vector(dimensin nita!) o
una funcin (dimensin innita!). El segundo caso es evidentemente ms difcil
de tratar que el primero.
4 CAPTULO 1. INTRODUCCION A LOS PROBLEMAS INVERSOS
1.0.1. Ejemplos de problemas inversos en ecuaciones difer-
enciales
Ecuacin del calor
Para determinar la distribucin de temperatura dentro de un material que
ocupa un dominio \ R
3
, de acuerdo a la ley de conservacin de la energa, se
tiene que:
jc
0T
0t
oiv(

) = )(r, j, .) en \
donde T es la temperatura, j la densidad del material, c el calor especco,

representa el ujo de calor y ) es una fuente de calor( volmica).


La ley de Fourier nos dice que:

= 1 giaoT
donde 1 es la conductividad trmica (que puede ser un tensor, y depender
de la posicin). Fianalmente, eliminando

se obtiene la ecuacin del calor en
un medio heterogneo:
jc
0T
0t
oiv(1 giaoT) = )(r, j, .) en \
Esta ecuacin se completa con condiciones de frontera y una condicin inicial.
El problema directo es determinar T conociendo los coecientes j, c, 1 y
la fuente de calor ).Este problema es bien conocido, tanto desde el punto de
vista terico(Existencia y unicidad de solucin) como desde el punto de vista
numrico. Algunos problemas inversos relacionados con este problema son:
1. Dada la medida de la temperatura de un cuerpo en un instante t
}
, deter-
minar la temperatura inicial (Ecuacin del calor retrgrada)
2. Dada la medida de la temperatura, determinar algunos coecientes de la
ecuacin. Este es un problema de identicacin de parmetros.
La ecuacin del calor tambin se utiliza en problemas ms generales de
difusin, por ejemplo, dispersin de contaminantes. En su forma esta-
cionaria, se obtiene la ecuacin elptica:
oiv(a _n) = ) en \ R
n
que modela, por ejemplo, la ltracin de agua en el suelo.El coeciente a se
llama permitividad hidrulica. El problema directo consiste en resolver la
ecuacin para n dado a y condiciones de frontera apropiadas. El problema
inverso consiste en reconstruir la funcin a(problema distribuido!) en \
dado el dato perturbado:
n
o
(r) = n(r) :
o
(r), r \
5
Si la solucin del problema directo es nica para cada parmetro a , lo cual se
cumple en este caso para condiciones de frontera apropiadas, entonces se puede
introducir el llamado operador parmetro-solucin a n
o
,donde n
o
es la solu-
cindel problema directo para cada parmetro a. Observemos que aun cuando
el problema directo es lineal( en n), c|jro/|c:a i:cr:o dc idc:ti)icaci o: dc
jar a:ctro j c| ojcrador jar a:ctro :o|nci o: :o: n:na|:c:tc :o |i:ca|c:.Por
ejemplo, n
2o
=
1
2
n
o
, es decir, n
2o
,= 2n
o
,no lineal. Ms concretamente, en el
caso unidimensional, con \ = [0, 1[ y condiciones de frontera:
dn
dr
(0) = 0, n(1) = 0
se puede calcular fcilmente la solucin integrando con respecto a r y obtener
la frmula:
a(r)
dn
dr
(r) =
_
r
0
)(j)dj
luego, el parmetro a est determinado unvocamente \r tal que
Ju
Jr
(r) ,= 0.
Por otro lado,hay varias suposiciones realistas sobre ) que garantizan que
Ju
Jr
,= 0
a.e. Por ejemplo, si la antiderivada de ) es positiva en (0, 1)m, entonces la
frmula de arriba indica que
Ju
Jr
,= 0. Otra suposicin posible es que )(r) ,= 0
a.e, entonces
Ju
Jr
no puede anularse en un intervalo abierto 1 [0, 1[ , pues sino:
0 =
d
dr
(a(r)
dn
dr
(r)) = )(r), r 1
lo cual es una contradiccin. Por otro lado, si ) = 0, entonces n = 0 y
Ju
Jr
= 0
para cualquier a y luego el parmetro no es identicable.
La frmula solucin:
a(r) =
_
r
0
)(j)dj
Ju
Jr
(r)
muestra claramente que el problema inverso es no lineal y adems que los
errores para valores pequeos de
Ju
Jr
son amplicados ms fuertemente que los
errores en valores ms grandes, es decir, si
Ju
Jr
(r/ ) es muy pequeo en un inter-
valo 1, entonces todava tenemos diferenciabilidad, pero en la prctica debemos
esperar errores grandes debido a la amplicacin del ruido.
1.0.2. Scattering inverso
Los problemas de scattering inverso son, en general, problemas inversos en
los que se trata de recuperar informacin sobre un objeto desconocido a partir
de medidas de ondas (o campos) esparcidas por el objeto. Los problemas de
scattering existen para todo tipo de ondas(ej, acsticas y electromagnticas) y
para todo tipo de modelos(ej,ecuacin de ondas,ecuacin de Helmhotz, ecuacin
de Schrdinger, ecuaciones de maxwell).
En scattering inverso, se enva una onda n
I
que incide sobre el objeto. En
ausencia del scatterer, esta onda satisface la ecuacin:
n
I
/
2
n
I
= 0
6 CAPTULO 1. INTRODUCCION A LOS PROBLEMAS INVERSOS
La onda esparcida(scattered) por el objeto, la cual es la diferencia entre lo
observado y la onda incidente, es decir:
n
s
= n n
I
satisface la ecuacin:
_n /
2
n
s
= /
2
)(n
I
n
s
)
FALTA TERMINAR ESTE CAPITULO!
Captulo 2
ELEMENTOS DE TEORIA
DE OPTIMIZACION
Este captulo resume resultados del clculo diferencial en espacios de Banach
y de optimizacin que se usan ms adelante.
2.0.3. Diferencial de Frchet
Denicin 2 Se dice que un operador : A 1 , con A, 1 espacios de
Banach, es diferenciable Frchet en r A si existe un operador lineal y acotado

t
(r) : A 1 tal que:
(r /) = (r)
t
(r)/ |/| o(/)
o,de otra manera:
lim
|0
(r /) (r)
t
(r)/
|/|
= 0
Se ve fcilmente que
t
(r) si existe, es nico.
t
(r) se llama la derivada de
Frchet de en r.
Denicin 3 Se dice que : A 1 es derivable Frchet en A, si es derivable
Frchet \r A. Se puede entonces denir la aplicacin:

t
: A /(A, 1 )
Si esta ltima es continua, entonces se dice que es continuamente difer-
enciable Frchet o C
1
(A)
Ejemplo 4 Si : A 1 /(A, 1 ), entonces
t
(r) = , \r A. En
efecto:
(r /) = r / |/| 0
7
8 CAPTULO 2. ELEMENTOS DE TEORIA DE OPTIMIZACION
Ejemplo 5 Si A es un espacio de Hilbert, entonces la funcin ) : A R tal
que:
)(r) = |r|
2
es derivable Frchet y adems:
)
t
(r)/ = 2 r, / o tambin: )
t
(r) = 2r
En efecto:
)(r /) = |r /|
2
= r /, r /
= |r|
2
2 r, / |/|
2
= )(r) 2 r, / o(/)
Lema 6 Si : A 1 es diferenciable Frchet en r A, entonces:

t
(r)n = lim
|0
(r tn) (r)
t
, \n A
Demostracin. En efecto, basta con hacer / = tn en la denicin.
Observacin 7 La expresin del lado derecho se llama la derivad de Gateaux
o la derivada direccional de en r en la direccin n.
Denicin 8 La segunda derivada se puede denir en forma recursiva como:

t
(r /) =
t
(r)
tt
(r)/ o(|/|)
Luego:

tt
(r)/ /(A, 1 )
y por lo tanto:

tt
(r) /(A, /(A, 1 ))
La aplicacin (/, /) (
tt
(r)/)/ es una aplicacin bilineal continua de
A 1 en 1 . Se puede mostrar que esta aplicacin es simtrica, es decir:
(
tt
(r)/)/ = (
tt
(r)/)/
lo que podemos escribir como:

tt
(r)(/, /) =
tt
(r)(/, /), \/, / A
El operador se dice dos veces derivable Frchet en A si es dos veces
derivable \r A. Luego podemos denir la aplicacin segunda derivada como:

tt
: A /
2
(A, 1 )
Si esta aplicacin es continua , se dice que es dos veces continuamente
diferenciable y se escribe: C
2
(A).
9
Observacin 9 Con respecto al clculo efectivo de la segunda derivada, se
puede usar el resultado siguiente : Dados /, / A, entonces
tt
(r)(/, /) 1
es igual a la derivada en el punto r A de la aplicacin . A
t
(.)/ 1 ,
aplicada en /.
Teorema 10 (Regla de la cadena)
Sea : A 1 una aplicacin derivable en r A y 1 : 1 7 otra
aplicacin derivable en j = (r) .Luego la aplicacin compuesta,
C = 1o : A 7
es derivable en r y se tiene que:
C
t
(a) = 1
t
((r)
t
(r)
Teorema 11 (De la funcin implcita)
Sea 1 : A
1
A
2
1 una aplicacin de clase C
1
y (r
1
, r
2
) A
1
A
2
e
j 1 tales que:
1(r
1
, r
2
) = j y 1
2
1(r
1
, r
2
) : A
2
1 es invertible
Luego O
1
A
1
y O
2
A
2
abiertos y una aplicacin continua ,
: O
1
A
1
A
2
tales que (r
1
, r
2
) O
1
O
2
y adems:
(r, r
+
) O
1
O
2
: 1(r, r
+
) = j = (r, r
+
) O
1
A
2
: r
+
= (r)
Es decir la aplicacin resuelve implcitamente la ecuacin 1.Adems es
derivable Frchet en r
1
y:

t
(r
1
) = 1
2
1(r
1
, r
2
)
1
1
1
1(r
1
, r
2
)
Ejemplo 12 (DERIVADAS DEL FUNCIONAL DE TIKHONOV)
Consideremos el funcional J : A R tq:
J(r) = |1(r) j|
2
Y
c|r|
2

con 1 : A 1 un operador diferenciable Frchet , lineal o no lineal, entre


espacios de Hilbert. J se denomina el funcional de Tikhonov. Luego,como la
norma al cuadrado es diferenciable Frchet por ejemplo anterior y, de la regla
de la cadena, se sigue que J es diferenciable Frchet y adems:
J
t
(r)/ = 2 1(r) j, 1
t
(r)/
Y
2cr, /

= 2 (1
t
)
+
(1(r) j), /

2cr, /

, \/ A
As, podemos escribir:
J
t
(r) = 2(1
t
)
+
(1(r) j) 2cr
10 CAPTULO 2. ELEMENTOS DE TEORIA DE OPTIMIZACION
Observacin 13 El lado izquierdo es un operador lineal, es decir un elemento
de A
t
, mientras que el derecho es un elemento de A. Los identicamos en
virtud del teorema de representacin de Riesz. En general, dado J
t
(r) A
t
, al
elemento nico q
r
A
t
tal que J
t
(r)/ = q
r
, /,\r A se le llama el gradiente
de J en r y se anota como giaoJ(r) o \J(r).
Para el cculo de la segunda derivada, usaremos una observacin anterior.
Entonces, J
tt
(r)(/, /) R se puede calcular como la derivada en r de la apli-
cacin . J
t
(.)/ R aplicada en /. Usando la derivada de Gateux, tenemos
que:
J
tt
(r)(/, /) = lim
|0
J
t
(r t/)/ J
t
(r)/
t
= 2 lim
|0
1
t
1(r t/) j, 1
t
(r t/)/ cr t/, / 1(r) j, 1
t
(r)/
2cr, /
Pero la expresin en el parntesis puede escribirse, sumando y restando tr-
minos como;
(1(r t/ 1(r)) (1(r) j), [1
t
(r t/)/ 1
t
(r)/[ 1
t
(r)/
1(r) j, 1
t
(r)/
= 1(r t/) 1(r), 1
t
(r t/)/ 1
t
(r)/ 1(r t/) 1(r), 1
t
(r)/
1(r) j, 1
t
(r t/)/ 1
t
(r)/
Dividiendo por t, llevando al lmite y usando el hecho que 1 es continuo(pues
es diferenciable), se obtiene:
J
tt
(r)(/, /) = 2 1
t
(r)/, 1
t
(r)/ 2 1(r) j, 1
tt
(r)(/, /) 2cr, /
Observacin 14 Notemos que podemos escribir :
J
tt
(r)(/, /) =
r
/, /
con
r
/(A) dado por:

r
/ = 21
t+
(r)1
t
(r)/ 2(1
tt
(r)/)
+
(1(r) j) 2cr
Este operador adems es autoadjunto. En general, para un funcional J :
AR dos veces diferenciable, este operador siempre existe y es nico. Se le
llama el hessiano de J en r. Se escribe /c::J(r) o \
2
J(r).
Observacin 15 Notemos que si 1 es lineal,entonces 1
t
(r) = 1 y 1
tt
(r) = 0
. Luego las frmulas anteriores se reducen a:
J
t
(r) = 21
+
(1r j) 2cr
= 2 [(1 1
+
1)r 1
+
j[
2.1. MINIMIZACION DE FUNCIONALES 11
para la primera derivada, y:
J
tt
(r)(/, /) = 2 1(r)/, 1(r)/ 2c/, /
para la segunda derivada.
2.1. Minimizacion de funcionales
Consideraremos en forma particular la minimizacin de funcionales, dado
que en los problemas inversos, sobre todo en los de identicacin de parmet-
ros, es usual transformar el problema en un problema de mnimos cuadrados
regularizado.
El problema general a considerar es:
(1o)
_
minJ())
) C
con J : A R , A un espacio de Hilbert, C A.
Si C = A se dice que (1o) es no restringido, de otro modo es un problema
restringido.
Se dice que )
+
es un minimizador local si c 0 tal que:
J()
+
) _ J()), \) 1
o
()) C.
El minimizador es estricto si la desigualdad lo es.
Denicin 16 1. Se dice que el funcional J es dbilmente semicontinuo in-
ferior (dsci) si:
)
n
u
)
+
= J()
+
) _ lim
no
inf J()
n
)
2. J es un funcional convexo si:
J(`)
1
(1 `))
2
) _ `J()
1
) (1 `)J()
2
)
\ )
1
, )
2
C, 0 < ` < 1
Es estrictamente convexo si la desigualdad es estricta.
Observacin: Todo funcional convexo es dsci.
Denicin 17 1. J se dice coercivo si:
J()
n
)
]}n]
X
o
si
Teorema 18
_
J : A R dsci y coercivo
C A, cerrado y convexo
=
_
)
+
C minimizador deJ sobre C.
J estrictamente convexo = )
+
nico
12 CAPTULO 2. ELEMENTOS DE TEORIA DE OPTIMIZACION
Demostracin. Sea J
+
:= inf
}c
J()) y )
n
C tal que J()
n
) J
+
.
Se tiene que: J coercivo= )
n
acotada= )
n
k
)
n
tq: )
n
k
u
)
+
para
algn )
+
A
Ahora: C cerrado y convexo= C dbilmente cerrado. Luego, )
+
C/
As, J dsci= J()
+
) _ lim
|o
inf J()
n
k
) = limJ()
n
) = J
+
,se sigue que:
J()
+
) = J
+
Por ltimo, J estrictamente convexo y )
0
,= )
+
tq:J()
0
) = J()
+
) = J
+
= J(
1
2
)
0

1
2
)
+
) <
1
2
J()
0
)
1
2
J()
+
) = J
+
contradiccin pues J
+
es nmo.
Luego )
+
es nico.
2.2. Condiciones necesarias de primer orden para
(P
0
)
Teorema 19 (Caso no restringido) Sea J : A R diferenciable Frchet.
Luego:
)
+
minimizador local de J = giaoJ()
+
) = 0
Demostracin. Hagamos q = giaoJ()
+
).Por la denicin de diferencial,tenemos
que:
J()
+
tq) = J()
+
) t |q|
2
o(t). Si q ,= 0, entonces el lado derecho puede
hacerse ms pequeo que J()
+
) tomando t sucientemente pequeo. Esto con-
tradice la hiptesis de que )
+
es un minimizador local.
Teorema 20 (Caso restringido) Sea C A, cerrado y convexo y J diferencia-
ble Frchet en )
+
C.Luego:
)
+
minimizador local de J en C = giaoJ()
+
), ) )
+

1
_ 0, \) C
2.3. Caracterizacin de un funcional convexo
Teorema 21 Sea J : A R diferenciable Frchet en C convexo.Luego:
J convexo = giaoJ()
1
) giaoJ()
2
), )
1
)
2
_ 0, \)
1
, )
2
C, , )
1
,= )
2
J es estrictamente convexo si la desigualdad es estricta.
Teorema 22 Si J es dos veces diferenciable en C,entonces:
J convexo = Hc::J()) semidenido positivo,\) C
o
J estrictamente convexo = Hc::J()) denido positivo,\) C
o
2.4. CARACTERIZACINSUFICIENTE DE SEGUNDOORDENPARA(P
0
)13
2.4. Caracterizacin suciente de segundo orden
para (P
0
)
Tenemos que:
J() /) = J()) giaoJ()), /
1
2
Hc::J())/, / o(|/|
2
)
De esto se obtiene la siguiente condicin suciente para el mnimo:
Teorema 23 Si J es dos veces diferenciable en )
+
, giaoJ()
+
) = 0 y Hc::J()
+
)
es denido positivo, entonces )
+
es un minimizador local estricto para J.
14 CAPTULO 2. ELEMENTOS DE TEORIA DE OPTIMIZACION
Captulo 3
REGULARIZACION DE
PROBLEMAS INVERSOS
3.0.1. PROBLEMAS LINEALES
En lo que sigue, asumiremos un operador 1 :A 1 , lineal , inyectivo y
compacto entre espacios de Hilbert con oimA = .
Por la inyectividad, podemos denir el operador inverso 1
1
con dominio
1(A) y Rango A :
1
1
: 1(A) 1 A
El problema es que 1
1
no puede ser continuo. En efecto, si lo fuera, entonces
1
1
1 sera el operador identidad de A en A,que resultara ser compacto pues
sera la compuesta de un operador compacto con un operador continuo. Se sigue
de aqu que la bola unitaria 1 A sera un conjunto compacto en A.Esto es una
contradiccin pues la bola unitaria no es compacta en un espacio de dimensin
innita.De aqu tenemos el siguiente :
Lema 24 Si 1 : A 1,es lineal, inyectivo y compacto, con oim(A) <
,entonces (j
n
) 1(A) tal que:
|j
n
|
Y
= 1 y
_
_
1
1
j
n
_
_


Observacin 25 Lo anterior muestra que la inversin de un operador com-
pacto es siempre un problema mal puesto. Si queremos resolver el problema
1r = j y disponemos de un dato perturbado j
o
tq
_
_
j j
o
_
_
< c y r
o
es la
solucin de 1r
o
= j
o
, entonces el error
_
_
r r
o
_
_
=
_
_
1
1
j 1
1
j
o
_
_
puede
hacerse arbitrariamente grande. Esto muestra que el problema necesita ser reg-
ularizado antes de efectuar el proceso de inversin.
Observacin 26 La hiptesis de compacidad del operador 1 es realista, pues
la mayora de los operadores en problemas aplicados resultan ser compactos.
15
16 CAPTULO 3. REGULARIZACION DE PROBLEMAS INVERSOS
3.0.2. Suposiciones de regularidad y cotas de error
La discusin anterior nos sugiere que un problema inverso mal puesto no
puede ser resuelto en forma satisfactoria si no se asumen algunas hiptesis adi-
cionales. Una suposicin razonable es considerar que la solucin r del problema
1r = j es sucientemente regular.
Para precisar esta idea,consideremos el operador adjunto 1
+
: 1 1(1
+
)
A denido por:
1, n
Y
= , 1
+
n

, \, n A
Del anlisis funcional,sabemos que este operador est bien denido y que es
lineal,compacto e inyectivo si 1 tambin lo es.
Ahora supondremos que r,la solucin de nuestro problema,pertenece al rango
de 1
+
,es decir, . 1 tq r = 1
+
. y denimos la norma ms fuerte:
|r|
1
= |.|
Y
=
_
_
1
+
r
_
_
Y
Dado que 1
+
es un operador compacto y, por lo tanto, "suavizante", lo que
estamos haciendo es asumir que r tiene una regularidad adicional.
Podemos suponer, tambin, que r es an ms suave, asumiendo que r
1
+
1(A) , es decir, que . A tq r = 1
+
1. y denimos:
|r|
2
= |.|

=
_
_
(1
+
1)
1
r
_
_

Luego, se tiene el siguiente resultado:


Teorema 27 Sea r A tal que: |r|
1
_ 1 y |1r|
Y
_ c con 1, c
R
+
.Entonces se tiene la cota:
|r|

_
_
1c
Si adems |r|
2
_ 1, entonces se tiene la siguiente cota mejorada:
|r|

_ 1
1
3
c
2
3
Demostracin.
Sea . = 1
+
r , luego |.|
Y
= |r|
1
_ 1. Entonces:
Teorema 28 Caso 29 Demostracin. |r|
2

= r, 1
+
.

= 1r, .
Y
_
|1r|
Y
|.|
Y
_ c1 = |r|

_
_
1c
Por otra parte, sea ahora . A tal que . = (1
+
1)
1
r, luego |.|

=
|r|
2
_ 1. Entonces:
|r|
2

= r, 1
+
1.

= 1r, 1.
Y
_ |1r|
Y
|1.|
Y
_ c |1.|
Y
= c 1., 1.
1
2
Y
= c ., 1
+
1.
1
2

= c ., r
1
2

_ c1
1
2
|r|
1
2

= |r|

_ 1
1
3
c
2
3
3.1. ESTRATEGIAS DE REGULARIZACIN 17
Observacin 30 Segn el teorema anterior, el mximo error que podemos
cometer en la reconstruccin de la solucin ,est dado por las cotas obtenidas,suponiendo
que disponemos de un mtodo de inversin apropiado.
Ejemplo 31 Sea 1 : 1
2
(0, 1) 1
2
(0, 1) el operador integracin,
1r(t) =
_
|
0
r(:)d:, t (0, 1)
Se sabe que este operador es mal puesto(Cap.1). Calculando su adjunto
1
+,
tenemos que:
r, 1j
J
2
(0,1)
=
_
1
0
r(t)1j(t)dt =
_
1
0
r(t)
__
|
0
j(:)d:
_
dt
=
___
|
0
j(:)d:
___
|
0
r(:)d:
__
1
0

_
1
0
__
|
0
r(:)d:
_
j(t)dt
=
__
1
0
r(:)d:
___
1
0
j(t)dt
_

_
1
0
1r(t)j(t)dt
=
_
1
0
1r(1)j(t)dt
_
1
0
1r(t)j(t)dt
=
_
1
0
(1r(1) 1r(t)) j(t)dt
= 1r(1) 1r, j
J
2
(0,1)
Luego: 1
+
r(t) = 1r(1) 1r(t) H
1
(0, 1) e j 1
+
(1
2
(0, 1)) = j(1) =
0. As: 1
+
(1
2
(0, 1)) = A
1
:=
_
r H
1
(0, 1) : r(1) = 0
_
.De la misma
manera, se puede ver que : 1
+
1(1
2
(0, 1)) = A
2
:=
_
r H
2
(0, 1) : r(1) = 0, r
t
(0) = 0
_
.As,
si r A
1
o r A
2
, se tienen las cotas del teorema.
3.1. Estrategias de regularizacin
Ahora que sabemos que las perturbaciones pueden ser controladas ptima-
mente en la inversin,basados en la regularidad del objeto que queremos recon-
struir,se necesitan mtodos numricos que en efecto controlen la amplicacin
del ruido en la reconstruccin de la solucin.
En lo que sigue, asumiremos que el operador 1 es inyectivo y que j 1(A).
Sin embargo, en la prctica, el dato j nunca se cococe en forma exacta sino
con un error c 0. Luego,asumiremos que conocemos c y el dato perturba-
do(medicin) j
o
1 con
_
_
j j
o
_
_
Y
_ c y el problema que queremos resover es:
1r
o
= j
o
.Se requiere, para la reconstruccin numrica, que la solucin aprox-
imada r
o
dependa continuamente del dato j
o
,lo cual sugiere determinar un
18 CAPTULO 3. REGULARIZACION DE PROBLEMAS INVERSOS
operador 1 : 1 A que aproxime al operador inverso de 1.Para ello, deni-
mos una sucesin de operadores lineales y acotados 1
o

o,0
con 1
o
: 1 A
tal que:
lim
o0
1
o
1r = r, \r A
Esta denicin construye los 1
o
como aproximaciones puntuales de 1
1
.
Una sucesin as denida se denomina estrategia de regularizacin.
La denicin nos dice tambin que los operadores 1
o
1 convergen pun-
tualmente al operador identidad 1 : A A. Notemos que esta conver-
gencia no es uniforme. En efecto, los 1
o
1 son compactos, pues 1 lo es y
el lmite en /(A) de operadores compactos es compacto,lo cual contradice
la hiptesis oimA = . Adems, los operadores 1
o
no son uniformemente
acotados. En efecto, si as fuera,existira C 0 tal que |1
o
| _ C, entonces
|1
o
j| _ C |j| , \c 0, \j 1 .Tomando lmite en el lado izquierdo, obten-
emos:
_
_
1
1
j
_
_
_ C |j| , \j 1(A) lo que signicara que 1
1
es acota-
do.Contradiccin. De aqu, luego, c

tal que:
_
_
1
oj
_
_

Denimos:
r
o,o
:= 1
o
j
o
r
o,o
es construida como una aproximacin de la solucin r de 1r = j.
Usando la desigualdad triangular, tenemos que:
_
_
r
o,o
r
_
_
_
_
_
1
o
j
o
1
o
j
_
_
|1
o
j r|
_ |1
o
|
_
_
j
o
j
_
_
|1
o
1r r|
Es decir:
_
_
r
o,o
r
_
_
_ c |1
o
| |1
o
1r r|
Nos referiremos a esta expresin del error como a la estimacin fundamental.
Observemos que hay dos efectos diferentes en el error:
1) lim
o0
|1
o
| =
2) lim
o0
|1
o
1r r| = 0
Luego, por 1),el efecto de inestabilidad, c no debe ser muy pequeo y, por 2),
el efecto de regularizacin,c no debe ser muy grande. Slo valores intermedios
de c nos darn una reconstruccin ptima.
Diremos que una estrategia c = c(c) es admisible si c(c) 0 y
_
_
r
o,o
r
_
_

0 cuando c 0.
El teorema de descomposicin de valores singulares(TDVS)
Sean 1 : A 1 un operador compacto , 1
+
su operador adjunto y `

0,
, N los valores propios del operador simtrico 1
+
1. Entonces
_
j

:=
_
`

_
se llama la sucesin de valores singulares de 1. Se sabe que j

_ |1|
1(,Y )
y
3.1. ESTRATEGIAS DE REGULARIZACIN 19
que: j
1
_ j
2
_ j
3
_ ...... _ j
n
_ .... 0.De hecho: j

0 si oimA = .Se
tiene el siguiente resultado clsico del Anlisis Funcional,llamado el teorema de
descomposicin de valores singulares:
Teorema 32 Para 1 : A 1 con las hiptesis anteriores, se tiene que
existen dos sistemas ortonormales (r

)
N
A y (j

)
N
1 tal que:
1r

= j

y 1
+
j

= j

Observacin 33 El triple
_
j

, r

, j

_
N
se llama un "Sistema Singular"para
1.
Observacin 34 Recordemos que r =

N
(r, r

)r

e j =

N
(j, j

)j

si
r A e j 1. De aqu: 1r =

N
j

(r, r

)j

y 1
+
j =

N
j

(j, j

)r

Relacionado con el anterior y con el problema inverso, tenemos el


Lema 35 (De Picard) La ecuacin 1r = j es soluble en r si y slo si:
+)

N
1
j
2

[(j, j

)[
2
<
En cuyo caso la solucin est dada por:
r = 1
1
j =

N
1
j

(j, j

)r

Demostracin. j =

N
(j, j

)j

== r = 1
1
j =

N
(j, j

)1
1
j

. Pero
1r

= j

== 1
1
j

=
1

j
r

.Luego: r = 1
1
j =

N
1

j
(j, j

)r

. La condi-
cin (*) garantiza que j 1(A).
Observacin 36 Notemos que el mal condicionamiento del problema aparece
claramente en la descomposicin de r pues j

0 y, por lo tanto, los recpro-


cos
1

j
.Esto sugiere que para regularizar el problema debemos reemplazar
valores singulares muy pequeos por valores ms grandes.
3.1.1. Filtros y estrategias regularizadoras
Un ltro regularizante es una funcin : R
+
[0, |1|[ tal que:
(i) [(c, j)[ _ 1, \c 0 y 0 < j _ |1|
(ii) [(c, j)[ _ C(c)j, \ 0 < j _ |1|
(iii) (c, j) 1 cuando c 0, \0 < j _ |1|
20 CAPTULO 3. REGULARIZACION DE PROBLEMAS INVERSOS
Denimos entonces la sucesin de operadores 1
o
: 1 A
o,0
tal que:
1
o
j =

N
(c, j

)
j

(j, j

)r

, \j 1
Mostraremos que 1
o

o,0
es una estrategia regularizadora, suponiendo que
exista efectivamente alguna que satisfaga i),ii) y iii).
1. Los 1
o
son operadores acotados. En efecto,usando la identidad de Parseval
y (ii), tenemos que:
|1
o
j|
2
=

N
((c, j))
2
1
j
2

[(j, j

)[
2
_ C(c)
2

N
[(j, j

)[
2
= C(c)
2
|j|
2
Luego:
|1
o
| _ C(c)
2. 1
o
converge puntualmente a 1
1
cuando c 0. En efecto:
Como:
1
o
1r =

N
(c, j

)
j

(1r, j

)r

y r =

N
(r, r

)r

Se sigue por la igualdad de Parseval, que:


|1
o
1r r|
2
=

N
_
(c, j

)
j

(1r, j

) (r, r

)
_
2
=

N
_
(c, j

)
j

(r, 1
+
j

) (r, r

)
_
2
=

N
_
(c, j

) 1

2
[(r, r

)[
2
....(+)
Fijemos r A arbitario y sea - 0, luego N tal que:
o

=+1
[(r, r

)[
2
<
-
2
8
Dado que lim
o0
(c, j) = 1, se tiene que c
0
0 tal que:
_
(c, j

) 1

2
<
-
2
2 |r|
2
, \, 1, .., y 0 < c _ c
0
3.1. ESTRATEGIAS DE REGULARIZACIN 21
Luego, de (*), concluimos que \0 < c _ c
0
:
|1
o
1r r|
2
=

=1
_
(c, j

) 1

2
[(r, r

)[
2

=+1
_
(c, j

) 1

2
[(r, r

)[
2
<
c
2
2 |r|
2

=1
[(r, r

)[
2

-
2
2
<
-
2
2 |r|
2
|r|
2

-
2
2
< -
2
== |1
o
1r r| < -
Lo que signica que:
lim
o0
1
o
1r = r, \r A o bien: lim
o0
1
o
j = 1
1
j, \j 1(A)
Finalmente, de 1. y 2. se tiene que1
o
es una estrategia de regularizacin.
Nos interesa ahora estimar
_
_
r
o,o
r
_
_

usando la estimacin fundamental


y, en particular, obtener cotas de error del mismo orden de las obtenidas
antes bajo la suposicin adicional de regularidad sobre r.Asumiremos en-
tonces que r 1
+
(1 ) o r 1
+
1(A).Luego, se tiene el siguiente teorema:
Teorema 37 (a)Supongamos que r = 1
+
. con |r|
1
= |.|
Y
_ 1 y que
_
_
j j
o
_
_
_ c, donde j
o
representa el dato perturbado medido.
Si (c, j) es un ltro tal que:
[(c, j) 1[ _ C
1
_
c
j
, C(c) _
C
2
_
c
, c =
C
3
c
1
Entonces se tiene que:
_
_
r
o,o
r
_
_

_
_
C
2
_
C
3
C
1
_
C
3
_
_
c1 .......(*)
....
(b) Supongamos que r = 1
+
1. con |r|
2
= |.|

_ 1 y
_
_
j j
o
_
_
_ c.
Si (c, j) es un ltro tal que:
[(c, j) 1[ _ C
4
c
j
2
, C(c) _
C
5
_
c
, c = C
6
_
c
1
_2
3
Entonces se tiene que:
_
_
r
o,o
r
_
_

_
_
C
5
_
C
6
C
4
C
6
_
c
2
3
1
1
3
.........(**)
22 CAPTULO 3. REGULARIZACION DE PROBLEMAS INVERSOS
Demostracin. Para (a).Dado que r = 1
+
., se sigue que:
(r, r

) = (1
+
., r

)
= (., 1r

)
= j

(., j

)
Luego:
|1
o
1r r|
2

=
o

N
j
2

((c, j

) 1)
2
[(., j

)[
2
_ C
2
1
c|.|
2
Y
Lo que implica que:
c |1
o
| |1
o
1r r| _
C
2
c
_
c
C
1
_
c1
As, usando la estimacin fundamental y c =
c3o
J
, obtenemos la estimacin
(*). (**) se obtiene de un modo similar.
Ejemplos de Filtros Regularizantes
Algunos ejemplos de ltros regularizantes que satisfacen las hiptesis del
teorema anterior son:
11) (c, j) =
j
2
c j
2
12) (c, j) = 1 (1 `j
2
)
1

con 0 < ` <


1
|1|
2
En efecto, para 11), es evidente que :
i) (c, j) < 1 y iii) lim
o0
(c, j) = 1
Por otra parte:
__
c j
_
2
_ 0 == 2
_
cj _ c j
2
==
j
c j
2
_
1
2
_
c
As que:
ii)(c, j) _ C(c)j con C(c) =
1
2
_
c
Por lo tanto 1
1
) es un ltro regularizante. Adems ,satisface las hiptesis a) del
teorema anterior con
C
1
= C
2
=
1
2
y C
3
R
+
, i.c c(c) =
C
3
c
1
Tambin satisface las hiptesis b) con:
C
4
= 1, C
5
=
1
2
y C
6
R
+
, i.c c(c) = C
6
(
c
1
)
2
3
3.2. REGULARIZACIN DE TIKHONOV 23
Para 1
2
), es evidente que i) (c, j) _ 1. Por otro lado, de la desigualdad de
Bernoulli:
(1 r)
o
_ 1 ar, si r _ 1 y a < 0 . a 1
se sigue que:
(c, j) = 1 (1 `j
2
)
1

_ 1 (1
`j
2
c
) =
`j
2
c
De donde:
(c, j) _
_
[(c, j)[ _
_
`
c
j
As que:
ii)(c, j) _ C(c)j con C(c) =
_
`
c
Es inmediato que:
iii) lim
o0
(c, j) = 1, pues 1 `j
2
< 0
Luego, 1
2
) es un ltro regularizante. Satisface las hiptesis a)
con:
C
1
=
1
_
2`
, C
2
=
_
` y C
3
R
+
, i.c c(c) =
C
3
c
1
Y satisface las hiptesis b) con:
C
4
=
1
`
, C
5
=
_
` y C
6
R
+
, i.c c(c) = C
6
(
c
1
)
2
3
3.2. Regularizacin de Tikhonov
La principal desventaja de la teora desarrollada antes es la dicultad de
obtener un sistema singular, tanto analtica como numricamente, para la may-
ora de los operadores que aparecen en la prctica. Sin embargo,mostraremos
que las estrategias de regularizacin derivadas de los ltros 1
1
y 1
2
pueden in-
dependizarse de la DVS y dan origen a dos de los mtodos de regularizacin ms
conocidos y usados: El mtodo de Tikhonov y el mtodo iterativo de Landweber.
Una manera natural de resolver 1r = j es determinar r
0
A tal que:
|1r
0
j| _ |1r j| , \r A
para alguna norma en 1. Se dice que r
0
es una solucin de mnimos cuadrados
de 1r = j.
Lema 38 Si 1 : A 1 /(A, 1 ). Luego r A es una solucin de mnimos
cuadrados de 1r = j si y slo si:
1
+
1r = 1
+
j......(*)
24 CAPTULO 3. REGULARIZACION DE PROBLEMAS INVERSOS
Demostracin. En efecto:
r solucin de mnimos cuadrados de 1r = j
== r es la mejor aproximacin de j en 1(A)
== 1r j 1(A)
J
= (1
+
)
== 1
+
(1r j) = 0
De donde se obtiene (*).
Sin embargo, si 1 es compacto, 1
+
1 tambin lo es y si oimA = , (*) es
tambin un problema mal condicionado.
El mtodo de Tikhonov consiste en sustituir el problema anterior por la
minimizacin del funcional:
J
o
(r) = |1r j|
2
Y
c|r|
2

, r A, c 0
Notemos que la condicin necesaria de optimalidad de primer orden,
J
t
o
(r
o
) = 0
implica que:
21
+
(1r
o
j) 2ar
o
= 0
es decir:
(1
+
1 c1)r
o
= 1
+
j.......(T)
Adems , como:
J

o
(r)(,, ,) = 2 |1,|
2
2c|,|
2
0, \, ,= 0
se tiene que J
o
es estrictamente convexo y luego r
o
es el nico minimizador
global de J
o
.
La solucin r
o
de la ecuacin (T) se puede escribir como r
o
= 1
o
j con :
1
o
= (c1 1
+
1)
1
1
+
: 1 A
Sea (j

, r

, j

) un sistema singular para el operador compacto 1. Luego


como los 1
o
son lineales ,tenemos que (1
o
(j

), r

, j

) es un sistema singular
para 1
o
con 1
o
(`) = (c `
2
)
1
j

dado que los valores singulares de 1 y 1


+
son iguales.Luego:
1
o
j =

N
1
o
(j

)(j, j

)r

=

N
j

c j
2

(j, j

)r

, j 1
=

N
(c, j

)
j

(j, j

)r

3.3. EL MTODO DE LANDWEBER 25


con :
(c, j) =
j
2
c j
2
As que 1
o

o,0
es la estrategia de regularizacin asociada al ltro 1
1
para
resolver 1r = j.El mtodo de Tikhonov consiste, nalmente, en resolver la
ecuacin :
cr
o,o
1
+
1r
o,o
= 1
+
j
o
, c 0
La eleccin de c(c),en el mtodo de Tikhonov, est dada por la siguiente
aplicacin directa del teorema anterior:
Teorema 39 Si 1 : A 1 es un operador lineal y compacto,entonces con
respecto al mtodo de Regularixacin Tikhonov para resolver la ecuacin 1r =
j, se tiene que:
(a) Si r = 1
+
. con |r|
1
= |.|
Y
_ 1. Entonces eligiendo c(c) =
co
J
con
C 0, se tiene la estimacin:
_
_
r
o,o
r
_
_

_
1
2
(
1
_
C

_
C)
_
c1
(b)Si r = 1
+
1. con |r|
2
= |.|

_ 1. Entonces eligiendo c(c) = C


_
o
J
_2
3
con C 0, se tiene la estimacin:
_
_
r
o,o
r
_
_

_ (
1
_
2C
C)1
1
3
c
2
3
Luego, el mtodo de Tikhonov es optimal para la informacin
_
_
(1
+
)
1
_
_
Y
_
1 o
_
_
(1
+
1)
1
r
_
_
_ 1, respectivamente.
3.3. El mtodo de Landweber
Una de las desventajas del mtodo de Tikhonov es que requiere la inversin
del operador c1 1
+
1. Esta inversin puede resultar costosa en la prctica.
El mtodo de Landweber es una tcnica iterativa en la cual no se requieren
inversiones.
La idea es reescribir la ecuacin 1r = j en la forma:
r = (1 `1
+
1)r `1
+
j, con ` 0
e iterarla de la manera siguiente:
r
0
= 0, r
n
= (1 `1
+
1)r
n1
`1
+
j, : _ 1
Por induccin, se puede probar el siguiente:
26 CAPTULO 3. REGULARIZACION DE PROBLEMAS INVERSOS
Lema 40 Se tiene que:
r
n
= 1
n
1
donde
1
n
= `
n1

|=0
(1 `1
+
1)
|
1
+
, : _ 1
Sea ahora (j

, r

, j

) un sistema singular para 1.Luego (1


n
(j

), r

, j

) con
1
n
(c) = `
n1

|=0
(1 `c
2
)
|
c es un sistema singular para 1
n
.
As:
1
n
j =

N
1
n
(j

)(j, j

)r

=

N
_
`
n1

|=0
(1 `j
2

)
|
j

_
(j, j

)r

= `

N
j

_
n1

|=0
(1 `j
2

)
|
_
(j, j

)r

= `

N
j

_
1 (1 `j
2

)
n
`j
2

_
(j, j

)r

=

N
1
j

(1 (1 `j
2

)
n
)(j, j

)r

=

N
(c, j

)
j

(j, j

)r

= 1
o
j
Con
(c, j) = 1 (1 `j
2
)
1

con c =
1
:
Que corresponde a la estrategia de regularizacin con ltro 1
2
estudiado
antes.
El mtodo de Landweber,nalmente, queda denido por:
r
o,o
= 0 , r
n,o
= (1 `1
+
1)r
n1,o
`1
+
j
o
Con respecto a la convergencia del mtodo de Landweber y al nmero de
iteraciones adecuado, se tiene el siguiente resultado como aplicacin directa del
teorema de la seccin anterior:n,
Teorema 41 (a) Si r = 1
+
. con |r|
1
= |.|
Y
_ 1 y 0 < C
1
< C
2
. Entonces
para cada eleccin :(c) tal que:
C
1
1
c
_ :(c) _ C
2
1
c
3.4. PROBLEMAS NO LINEALES 27
se tiene que:
_
_
_r
n(o),o
r
_
_
_

_ C
3
_
c1
para algn C
3
(C
1
, C
2
, `) 0.
(b) Si r = 1
+
1. con |r|
2
= |.|

_ 1 y 0 < C
1
< C
2
. Entonces para cada
eleccin :(c) tal que:
C
1
(
1
c
)
2
3
_ :(c) _ C
2
(
1
c
)
2
3
se tiene que:
_
_
_r
n(o),o
r
_
_
_

_ C
3
1
1
3
c
2
3
para algn C
3
(C
1
, C
2
, `) 0.
3.3.1. Regla de detencin para el mtodo de Landweber
Comnmente, un mtodo iterativo est provisto de alguna regla de detencin
que funciona durante su ejecucin y no a priori como en el caso del teorema
anterior.Se puede usar la siguiente regla de detencin:
Sea r 1 jo. Luego:
Parar el algoritmo en : N tal que:
_
_
1r
n,o
j
o
_
_
_ rc
Se puede probar (Kirsch) que tal : existe y conduce a una estrategia de
regularizacin admisible.
3.4. PROBLEMAS NO LINEALES
Consideraremos ahora un operador 1 : A 1 no lineal y continuo,entre
espacios de Hilbert. La extensin de los mtodos de regularizacin lineales al
caso no lineal no es obvia,dado que ya no disponemos de sistemas singulares ni
operadores adjuntos.Nos centraremos principalmente en la extensin del mtodo
de Tikhonov, ya que es ampliamente usado en problemas de identicacin de
parmetros y este tipo de problemas son en su mayora no lineales.
3.4.1. El metodo de Tikhonov no lineal
La caracterizacin,en el caso lineal, de la solucin regularizada como mini-
mizador del funcional
J
o
(r) =
_
_
1r j
o
_
_
2
Y
c|r|
2

es la que sugiere la posibilidad de una generalizacin al caso no lineal. As


que podemos denir,en general, una solucin regularizada r
o,o
A de 1(r) = j
como:
r
o,o
aig min
r
_
_
_
1(r) j
o
_
_
2
Y
c|r r
+
|
2

_
28 CAPTULO 3. REGULARIZACION DE PROBLEMAS INVERSOS
Aqu, r
+
A es un dato conocido, que puede representar un conocimien-
to apriori sobre la solucin. La denicin tiene sentido porque, en general, no
podemos esperar unicidad de solucin, pues el funcional
J
o
(r) =
_
_
1(r) j
o
_
_
2
c|r r
+
|
2
generalmente no es convexo.
Si 1 es diferenciable Frchet , entonces sabemos que el funcional J
o
: A
R es diferenciable Frchet y adems:
J
t
o
(r), = 2 1(r) j, 1
t
(r), 2cr r
+
, , \, A
Una solucin regularizada r
o,o
satisface, entonces, la condicin necesaria
de primer orden:
(1
t
)
+
(r
o,o
)(1(r
o,o
) j
o
) c(r
o,o
r
+
) = 0
que es el anlogo no lineal de la ecuacin (T).Sin embargo,no toda solucin
de la ecuacin anterior es una solucin regularizada, pues podra ser tanto un
mnimo local,un punto de silla o incluso un mximo de J
o
.
Debido entonces a la no unicidad de solucin, denimos, ms generalmente
que en el caso lineal , el siguiente concepto de solucin.:
Denicin 42 Una solucin r

de 1(r) = j se dice de norma mnima-r


+
si:
_
_
r

r
+
_
_
=inf |r r
+
| , 1(r) = j
Observacin 43 As, r

es la solucin que est a la mnima distancia de un


r
+
prejado.
Denicin 44 Llamaremos o(r
+
) al conjunto de soluciones de norma-r
+
de
1(r) = j.Asumiremos que o(r
+
) ,= O
3.4.2. Existencia de solucin del problema regularizado
El mtodo de Tikhonov no lineal consiste ,entonces, en reemplazar el prob-
lema 1(r) = j por el problema de minimizacin :
min
r
_
J
o
(r) =
_
_
1(r) j
o
_
_
2
c|r r
+
|
2
_
, c 0, r
+
A...........(1)
Denotaremos por r
o
o
a cualquier solucin de (1).
Para probar existencia de solucin del problema regularizado, se necesita la
siguiente condicin:
Denicin 45 1 :A 1 se dice dbilmente cerrado si:
r
n
r A = 1(r
n
) j 1 = 1(r) = j
3.4. PROBLEMAS NO LINEALES 29
Observacin 46 Se sabe que todo operador no lineal compacto, es dbilmente
cerrado.
Teorema 47 (Existencia) Si 1 : A 1 es continuo y dbilmente cerrado,
entonces:
r
o
o
solucin de (1)
Demostracin. Consideremos los conjuntos de nivel
1
1
:= r A,J
o
(r) _ '
Dado que Jc(r
+
) =
_
_
1(r
+
) j
o
_
_
2
< , se tiene que 1
1
,= ?, para '
sucientemente grande. Adems:
r 1
1
== c|r r
+
|
2
_ '
y por la desigualdad triangular:
|r| _ |r
+
| |r r
+
|
_ |r
+
|
_
'
c
:= 1
Es decir:
1
1
1(r, 1), ' _ '
0
......(+)
Como 1(r, 1) es dbilmente compacta, se sigue que los 1
1
son dbilmente
relativamente compactos, \' _ '
0
.
Ahora, dado que J
o
(r) _ 0 :
r
n
sucesin minimizante tal que: r
n
inf
r
J
o
(r)
Adems, por (+) se tiene que r
n
k
r
n
tal que: r
n
k
r A cuando
/ .
Ms an, 1(r
n
k
es acotada,pues:
|1(r
n
k
| _
_
_
1(r
n
k
) j
o
_
_

_
_
j
o
_
_
_
_
'
_
_
j
o
_
_
Luego,
_
r
n
k
l
_
r
n
k
tal que 1(r
n
k
l
) . 1.
En resumen, se tiene una subsucesin
_
r
n
k
l
_
tal que:
r
n
k
l
r A
j
1(r
n
k
l
) . 1
Finalmente, como 1 es dbilmente cerrado, se sigue que . = 1(r).
Es decir:
J
o
(r) = lim
lo
J
o
(r
n
k
l
)
= inf
r
J
o
(r)
30 CAPTULO 3. REGULARIZACION DE PROBLEMAS INVERSOS
3.4.3. Estabilidad del mtodo de Tikhonov no lineal
Con respecto a la estabilidad , en el caso no lineal se obtiene el siguiente
resultado:
Teorema 48 Sea 1 : A 1 continuo y dbilmente cerrado e j
n
1 tal
que j
n
j
o
. Sea tambin r
o
n
A tal que:
r
o
n
aig min
r
_
J
n
o
(r) = |1(r) j
n
|
2
c|r r
+
|
2
_
Entonces :

_
r
o
n
k
_
r
o
n
tq: r
o
n
k
es cv
Adems, el lmite de cualquier subsucesin cv de r
o
n
es un minimizador
de J
o
.
Demostracin. Por la denicin de r
o
n
, se tiene que:
|1(r
o
n
) j
n
|
2
c|r
o
n
r
+
|
2
_ |1(r
+
) j
n
|
2
c|r
+
r
+
|
2
_ (|1(r
+
)| |j
n
|)
2
_ '
Luego, las sucesiones r
o
n
y 1(r
o
n
) son acotadas.
Por lo tanto,existen subsucesiones
_
r
o
n
k
:= r
o
n
_
y
_
1(r
o
n
k
) := 1(r
o
n
)
_
tq:
r
o
n
r y 1(r
o
n
) j
y como 1 es dbilmente cerrado, se sigue que: j = 1(r).
Dado que la norma es dbilmente semicontinua inferior ,tenemos que:
|r r
+
| _ liminf |r
o
n
r
+
|
_
_
1(r) j
o
_
_
_ liminf |1(r
o
n
) j
n
|
y as:
_
_
1(r) j
o
_
_
2
c|r r
+
|
2
_ liminf(|1(r
o
n
) j
n
|
2
c|r
o
n
r
+
|
2
)
_ limsup(|1(r
o
n
) j
n
|
2
c|r
o
n
r
+
|
2
)
_ lim
n0
(|1(r) j
n
|
2
c|r r
+
|
2
)
La ltima desigualdad es porque r
o
n
es un minimizador de J
n
o
.Se sigue que:
_
_
1(r) j
o
_
_
2
c|r r
+
|
2
_
_
_
1(r) j
o
_
_
2
c|r r
+
|
2
, \r A.....(+)
De aqu, r es un minimizador de J
o
.Adems:
lim
no
(|1(r
o
n
) j
n
|
2
c|r
o
n
r
+
|
2
) =
_
_
1(r) j
o
_
_
2
c|r r
+
|
2
Falta demostrar que r
o
n
r. En efecto si r
o
n
9r, entonces :
limsup|r
o
n
r
+
| |r r
+
|
3.4. PROBLEMAS NO LINEALES 31
luego, existe
_
r
o
n
k
:= r
o
n
_
r
o
n
tal que:
r
o
n
r
1(r
o
n
) 1(r) y
|r
o
n
r
+
| | := limsup|r
o
n
r
+
|
Finalmente, por (*):
lim
no
|1(r
o
n
) j
n
|
2
=
_
_
1(r) j
o
_
_
2
c(|r r
+
|
2
|
2
) <
_
_
1(r) j
o
_
_
2
Lo cual contradice el hecho que:
_
_
1(r) j
o
_
_
_ liminf |1(r
o
n
) j
n
|.
3.4.4. Convergencia del mtodo de Tikhonov no lineal
El prximo paso lgico en el estudio del mtodo de Tikhonov es ver su
convergencia a o(r
+
) A es decir, a alguna solucin de mnima norma-r
+
de
1(r) = j.Se tiene el siguiente resultado:
Teorema 49 Sea j 1 para el cual existe una solucin r

o(r
+
) de 1(r) =
j. Sea j
o
el dato perturbado tal que:
_
_
j j
o
_
_
_ c
y sea tambin r
o
o
aig minJ
o
(r). Si c = c(c) se elige tal que:
c(c) 0 y
c
2
c(c)
0 cuando c 0
Entonces existe una subsucesin r
on
on
( con c
n
0 ) convergente y el lmite
de cualquier subsucesin convergente es un elemento de o(r
+
), es decir, es una
solucin de norma mnima de 1(r) = j.
Demostracin. (Ver Engl y Hanke).
3.4.5. Cota de error y unicidad
Aun cuando sabemos que las soluciones de norma-r
+
no son nicas, slo hay
una que satisface ciertas condiciones y a la cual el mtodo de Tikhonov converge
con orden
_
_
r
o
o
r

_
_
= O(
_
c) , tal como en el caso lineal.
Teorema 50 Sea j
o
1 con
_
_
j j
o
_
_
_ c y sea r

o(r
+
). Supngamos
adems que r

satisface las siguientes condiciones:


(i) 1 es diferenciable Frchet
(ii) _ 0 tq
_
_
_1
0
(r

) 1
t
(r)
_
_
_
1(,Y )
_
_
_
r

r
_
_
, \r 1(r

, 1)
(iii) . 1 tal que: r

r
+
= 1
t
(r

)
+
. y
(i) |.| < 1
Entonces para la eleccin c(c) = c, se tiene que:
_
_
r
o
o
r

_
_
= O(
_
c) y
_
_
1(r
o
o
) j
o
_
_
= O(c)
32 CAPTULO 3. REGULARIZACION DE PROBLEMAS INVERSOS
Demostracin. (Ver Engl y Hanke)
Observacin 51 Si existe otra solucin r
t
o(r
+
) que satisface (ii), (iii) y
(i), entonces por la desigualdad triangular, se tiene que:
_
_
r
t
r

_
_
_
_
_
r
t
r
o
o
_
_

_
_
r
o
o
r

_
_
= O(c).
Es decir: r
t
= r

.
Observacin 52 Observemos que la eleccin c(c) = c es un caso particular de
o
2
o(o)
0 del teorema de convergencia.
Observacin 53 La condicin (iii) : r

r
+
1
t+
(1 ) del teorema anterior
es anloga a la de r 1
+
(1 ) del caso lineal para el orden de convergencia
O(
_
c). Se puede demostrar (Engl) que si r

r
+
1
t+
1
t
(A), entonces se
obtiene tambin el orden de convergencia ptimo
_
_
r
o
o
r

_
_
= O(c
2
3
).
3.5. Eleccin a posteriori del parmetro de reg-
ularizacin
Deseamos escoger un parmetro de regularizacin c tal que el error
_
_
r
o
o
r

_
_
sea el menor posible. Desgraciadamente,en la estrategia de seleccin a priori sug-
erida anteriormente, el parmetro de regularizacin depende mucho de la calidad
de la informacin sobre la solucin exacta r

. Como, en general, esta informa-


cin no est disponible, en la prctica estas estrategias son poco usadas. Por eso,
se desarroll una regla de eleccin de parmetro que no slo tomara en cuenta
el nivel de ruido c, sino que tambin considerase los valores de j
o
. La regla est
basada en el llamado Principio de discrepancia de Morozov, que es un mtodo
de regularizacin a posteriori en que el parmetro c se escoge como:
c(c, j) := sup
_
c 0;
_
_
1(r
o
o
) j
o
_
_
_ tc
_
Para mayores detalles, ver apndice. En nuestro caso de la regularizacin de
Tikhonov, el principio de discrepancia sugiere determinar c(c) como la solucin
de:
_
_
1(r
o
o
) j
o
_
_
= c
pues el teorema anterior produce la tasa de convergencia O(
_
c) bajo la
suposicin de que este c(c) exista.
FALTA TERMINAR ESTO!
3.6. GENERALIZACION DEL MTODO DE TIKHONOV 33
3.6. Generalizacion del mtodo de Tikhonov
El mtodo de Tikhonov puede ser generalizado con respecto a la eleccin del
funcional de regularizacin. En efecto, si:
J
1
: A R tal que J
1
(r) _ 0
podemos considerar el problema generalizado:
(TG) min
r
_
_
_
1(r) j
o
_
_
2
cJ
1
(r)
_
La idea es que J
1
tenga propiedades adecuadas que generalicen aquellas que
cumple el funcional cannico J(r) = |r|
2
. En particular, se pide que:
1. J
1
sea dbilmente semicontinuo inferior en alguna topologa T .Es decir:
J
1
(r) _ lim inf
no
J
1
(r
n
), \r
n
A tq: r
n

J
r
2. Los conjuntos de nivel J
1
M
= r A,J
1
(r) _ ' sean relativamente
compactos en la topologa T .
Con las condiciones 1 y 2, los resultados de existencia,estabilidad y conver-
gencia pueden ser generalizados al problema (TG) con modicaciones menores.
Ejemplo 54 Si 1 : 1
2
(\) 1
2
(\), \ R
n
,continuo ,entonces:
J
1
()) = |)|
2
1
1
(),
J
2
()) = [)[
2
1
1
()
=
_

I=1
_
0)
0r
I
_
2
son ejemplos de funcionales de regularizacin,asumiendo la informacin adi-
cional que )

H
1
(\).
Ejemplo 55 (Regularizacin de mxima entropa) Es un mtodo de regular-
izacin de particular inters para la reconstruccin de funciones de densidad de
probabilidad , es decir, funciones en el espacio:
111(\) :=
_
r 1
1
(\),r _ 0,
_

r(t)dt = 1
_
La entropa , tomada de la teora de la informacin ,est denida como el
funcional:
1(r) :=
_

r(t) log r(t)dt, \r 111


Luego, para un operador continuo 1 : 1
1
(\) 1 con 1 un espacio de
Hilbert, podemos considerar el problema regularizado:
34 CAPTULO 3. REGULARIZACION DE PROBLEMAS INVERSOS
min
r11J()
_
_
_
1(r) j
o
_
_
2
c1(r)
_
....(+)
Sin embargo,sabemos que 1
1
(\) es slo un espacio de Banach. El anlisis
de convergencia puede ser relacionado al de una regularizacin en espacios de
Hilbert mediante el siguiente truco: Hallar c : R
+
R tal que:
1(r) =
_

r(t) log r(t)dt =


_

(c(r(t))
2
dt
Luego, mediante el operador w : 1
2
(\) 1
1
(\) tal que:
w(.) = c
1
(.)
el problema (*) puede ser reescrito como:
min
r
_
_
_
1(w(.)) j
o
_
_
2
c
_

.(t)
2
dt
_
Finalmente,con suposiciones adecuadas sobre la solucin, se puede vericar
que el operador no lineal 1ow : 1
2
(\) 1 satisface todas las propiedades
que se necesitan para la regularizacin de Tikhonov y luego el anlisis de con-
vergencia sale de los teoremas anteriores. Para ms detalles, ver
Si se dispone de un dato a priori r
+
111, entonces se puede usar la
entropa relativa:
1
+
(r) :=
_

r(t) log
r(t)
r
+
(t)
dt, \r 111(\)
y el anlisis de convergencia es similar.
Ejemplo 56 ( Regularizacin de variacin total) Este tipo de regularizacin fue
introducida para los problemas inversos de restauracin de imgenes y su obje-
tivo principal es preservar las puntas en la imagen, es decir, discontinuidades
en la solucin.
El funcional de variacin total se dene como:
[n[
T\
=
_

[\n[ dt, n C
1
(\)
El espacio de las funciones de variacin acotada 1\ (\) se dene como:
1\ (\) :=
_
n 1
1
(\), [n[
T\
<
_
La regularizacin de variacin total queda denida como:
min
u1\ ()
_
_
_
1(n) j
o
_
_
2
c[n[
T\
_
3.6. GENERALIZACION DEL MTODO DE TIKHONOV 35
El anlisis de convergencia est basado en la inyeccin compacta: 1\ (\)
1

(\), donde j 1 depende de la dimensin espacial :. Se puede usar esta


propiedad para deducir que los conjuntos de nivel del funcional regularizado
son compactos en la topologa fuerte de 1

(\) y, si 1 es dbilmente cerrado


en esta topologa, se demuestra convergencia con un argumento anlogo a la
regularizacin de Tikhonov cannica.
36 CAPTULO 3. REGULARIZACION DE PROBLEMAS INVERSOS
Captulo 4
IDENTIFICACION DE
PARAMETROS
Los problemas inversos de identicacion de parmetros tratan con la recon-
struccin de constantes, funciones u objetos geomtricos(coecientes,lados dere-
chos,valores frontera) que aparecen como parmetros en ecuaciones o sistemas
de ecuaciones diferenciales, mediante observaciones sobre la solucin. Bsica-
mente hay dos tipos de problemas de identicacin: de parmetro puntual y
distribuido, en el primer caso un elemento de / 1
n
y en el segundo un elemento
de un espacio de funciones. Veremos este tipo de problemas desde una perspec-
tiva general. Los problemas de identicacin de parmetros son esencialmente
no lineales.
Tenemos dos tipos de incgnitas: el parmetro Q y la variable de estado
n l. Estn relacionadas mediante una ecuacin de la forma :
(n, ) = 0.....(1)
con : l Q 7,donde l, Q , 7 son espacios de Hilbert. La ecuacin (1)
,que usualmente representa una ecuacin diferencial o un sistema de ecuaciones
diferenciales ,se llama ecuacin de estado. La solucin de la ecuacin de estado
para un dado constituye el problema directo. Es razonable suponer que es
diferenciable Frchet con derivada continua. y que:
0
0n
(.; ) : l R
es un operador lineal continuo con inversa continua. De aqu, por el teorema
de la funcin implcita se tiene que la ecuacin (1) tiene una nica solucin
n = n(). Luego, se puede introducir un operador bien denido:
o : Q l
o() = n
j
que resuelve (1). o se llama el operador parmetro-solucin.
37
38 CAPTULO 4. IDENTIFICACION DE PARAMETROS
Los datos observados se relacionan con la variable de estado, en la mayora
de los ejemplos, mediante un operador lineal:
C : l 1
1 , un espacio de Hilbert, se llama espacio de medidas y C es el operador
de observacin. Este operador puede tomar diferentes formas, dependiendo de
la manera en que se tomen las medidas.
Usando el operador Parmetro-Solucin, se puede denir el operador no
lineal:
1 := Coo : Q 1
y formular el problema de identicacin de parmetro en una forma stndard
como la solucin de la ecuacin no lineal:
1() = j
Si el operador 1 es sobreyectivo, entonces el parmetro es identicable.
Para un dato perturbado j
o
1 , la formulacin de mnimos cuadrados ms
usada es la llamada "formulacin de mnimos cuadrados de salida "(output least
squares formulation):
min
jQ
J() =
1
2
_
_
1() j
o
_
_
2
Y
.....(O1o)
Esta formulacin es equivalente al problema restringido:
min
(u,j)IQ
1
2
_
_
Cn j
o
_
_
2
Y
:.a (n, ) = 0
Ejemplo 57 Consideremos el problema de difusin estacionario:
n = ) en \
n = 0 en 0\
donde es una constante. Luego, tenemos un problema de identicacin
puntual con Q = R, l = H
0
1
(\), 7 = H
1
(\) y:
(n, ) = n )
Para el operador de observacin C : l 1 se pueden considerar, por
ejemplo:
C
I
(n) = n(r
I
), i = 1, ...:
en este caso: 1 = R
n
. Aqu se toman medidas de n en varios puntos del
dominio. Tambin podra ser:
C
I
(n) =
_
i
nds , i = 1, .....|
4.1. ALGORITMOS DE OPTIMIZACIN 39
en este caso se usan medidas dadas por los valores medios de la variable de
estado n a lo largo de : lneas jas I
I
contenidas en el dominio. Aqu, 1 = R
l
.
Notemos que en ambos casos, 1 : R R
n
es un operador entre espacios
nitodimensionales.
Ejemplo 58 Consideremos ahora el problema estacionario:
oiv( _n) = ) en \
n = 0 en 0\
En este caso es una funcin de \., por ejemplo, 1
2
(\). Luego, es un
problema con parmetro distribuido. Adems de los operadores de observacin
anteriores, podra suceder que conociramos la temperatura en todo \ (por
supuesto menos realista) y en este caso tendramos un operador de observacin
de la forma:
C := 1d : H
1
0
(\) H
1
0
(\)
luego, 1 : 1
2
(\) H
1
0
(\), un operador entre espacios innitodimension-
ales.
Observacin 59 Puede suceder entonces que los espacios Q e 1 sean nito o
innitodimensionales. El espacio l de las variables de estado es siempre , sin
embargo, un espacio de funciones y por lo tanto innitodimensional.
Discutiremos ahora la aproximacin numrica del problema inverso, para lo
cual se debe discretizar nalmente tanto la variable de estado como el parmetro
si es continuo y derivar nalmente a un problema de optimizacin en dimensin
nita. Sin embargo, es deseable para el anlisis tratar los algoritmos en su versin
innita.
Luego, formularemos los algoritmos dentro del caso de los espacios de Hilbert.
Se discutirn brevemente las propiedades de algunos algoritmos de opti-
mizacin, como el BFGS, el ms importante de los mtodos cuasi-newton y el
mtodo de Gauss-Newton, utilizado frecuentemente para resolver problemas de
mnimos cuadrados no lineales, as como una variante conocida como el mtodo
de Levenberg-Marquardt.
4.1. Algoritmos de Optimizacin
Sabemos que el gradiente y el hessiano del funcional
J
O
() =
1
2
|1() j|
2
estn dados por las frmulas :
\J() = 1
t
()
+
(1() j)
40 CAPTULO 4. IDENTIFICACION DE PARAMETROS
y
\
2
J()
+
= 1
t
()
+
1
t
()
+
(1
tt
()
+
)
+
(1() j), \
+
Q
recordemos que la condicin necesaria de primer orden para el mnimo es
\J() = 0.
Denicin 60 Se dice que d Q es una direccin de descenso para J en si:
(\J(), d) < 0
esta denicin asegura que la funcin decrezca , al menos localmente, a lo
largo de una direccin de descenso.
Como debemos minimizar un funcional que depende de Q, un espacio
de Hilbert, y adems la variable debe satisfacer la ecuacin de estado,
(n, ) = 0
es necesario el resultado siguiente, que tiene que ver con la minimizacin de
un funcional J con restricciones de igualdad.
Teorema 61 (Multiplicador de Lagrange) sea un funcional J : Q R con-
tinuamente diferenciable. Q espacio de Hilbert. Supongamos que
+
Q es una
solucin del problema de minimizacin restringido:
min
jQ
J()
:.a G() = 0
con G : Q 1 diferenciable. 1 espacio de hilbert. Supongamos adems
que G
t
(
+
) es sobreyectiva. Entonces existe j 1, tal que:
\J(
+
) G
t
(
+
)
+
j = 0
Notemos que la ecuacin anterior equivale a la condicin extremal necesaria
de primer orden en
+
de la funcin :
/(, n, j) = J() (j, G())
El operador / se denomina como el Lagrangeano asociado al problema de
minimizacin restringido.
4.1.1. Mtodos Cuasi-Newton
Un mtodo ecaz para resolver la ecuacin \J() = 0 es el mtodo de
Newton. Este consiste en construir la sucesin
n
denida por:
H
n+1
(
n+1

n
) = \J(
n
)...(+)
4.1. ALGORITMOS DE OPTIMIZACIN 41
donde H
n
designa el hessiano de J en
n
. Para que el mtodo est bien
denido, debe cumplirse que H
n+1
sea invertible y mejor denido positivo, lo
que permite asegurar el mnimo. Denamos d
n
como la solucin del sistema:
H
n+1
d
n
= \J(
n
)....(++)
Se demuestra que si H
n+1
es denido positivo, entonces d
n
es una direccin
de descenso. Con esta notacin, la ecuacin (*) se escribe:

n+1
=
n
d
n
....(+ + +)
Se sabe que el mtodo de Newton posee convergencia cuadrtica. Sin em-
bargo, tiene las siguientes desventajas:
No es globalmente convergente.La convergencia es slo local, es decir, debe
partir de un punto sucientemente prximo de la solucin, lo cual es
una restriccin seria si no se cuenta con informacin adicional.sobre
la solucin.
El algoritmo no est denido en los puntos donde el hessiano es sin-
gular.
El algoritmo no genera necesariamente direcciones de descenso, dado
que el hessiano puede no ser denido positivo.
Es preciso resolver un sistema lineal en cada iteracin.
Las dicultades anteriores son corregidas por los mtodos cuasi-Newton.
En particular se tiene el mtodo BFGS ( de Broyden,Fletcher,Goldfarb y Shan-
non)con bsqueda lineal. Este mtodo funciona con aproximaciones del hessiano
que conserven la positividad y por lo tanto generen direcciones de descenso. Por
otra parte genera un paso para avanzar por la direccin de descenso para garan-
tizar un decrecimiento suciente de la funcin objetivo.
Luego, se reemplaza la ecuacin (***) por:

n+1
=
n
c
n
d
n
donde el paso c
n
es determinado para que asegure que entre
n
y
n+1
la funcin J decrezca. Sin embargo, no es necesario ni prctico determinar
el parmetro c
n
optimal, es decir, tal que c
n
= aig min
o,0

n
c
n
. Es
suciente , para asegurar la convergencia del algoritmo, que se veriquen las
llamadas condiciones de Wolfe:
J(
n
c
n
d
n
) J(
n
) _ .
1
c
n
(\J(
n
), d
n
)
(\J(
n
c
n
d
n
), d
n
) _ .
2
(\J(
n
), d
n
)
donde las constantes .
1
y .
2
verican que 0 < .
1
< .
2
< 1. La primera
desigualdad asegura que J disminuya en una fraccin signicativa entre un punto
y el siguiente. La segunda impide que el paso sea demasiado pequeo. En efecto,
no se verica para
n
= 0 si d
n
es una direccin de descenso y luego tampoco
42 CAPTULO 4. IDENTIFICACION DE PARAMETROS
en una vecindad cercana a cero, por continuidad. Se puede demostrar, por otra
parte, que si d
n
es una direccin de descenso y si la funcin c J(
n
cd
n
) es
acotada inferiormente , entonces existe un valor c
n
que satisface las condiciones
de Wolfe.
Para asegurar direcciones de descenso, el mtodo proporciona aproxima-
ciones iterativas del hessiano. Para ello, se denen las cantidades:
:
n
=
n+1

n
j
n
= \J(
n+1
) \J(
n
)
y luego los gradientes aproximados quedan como:
H
n+1
c = H
n
c
(j
n
, c)
(j
n
, :
n
)
j
n

(H
n
:
n
, c)
(H
n
:
n
, :
n
)
H
n
:
n
En particular, en dimensin nita, el producto escalar es el producto euclid-
iano usual y la frmula anterior queda en su forma conocida:
H
n+1
= H
n

j
n
(j
n
)
|
(j
n
)
|
:
n

(H
n
:
n
)(H
n
:
n
)
|
(H
n
:
n
)
|
:
n
Teorema 62 Si H
n
es simtrico y denido positivo y si (j
n
, :
n
) 0, entonces
H
n+1
es simtrico y denido positivo y luego d
n+1
= (H
n+1
)
1
\J(
n+1
) es
una direccin de descenso.
Finalmente se obtiene un mtodo globalmente convergente ( es decir, que
converge para cualquier punto de partida
0
):
Teorema 63 Si J es convexo en una vecindad de
_
Q, J() _ J(
0
)
_
y si
la sucesin J(
n
)
nN
es acotada inferiormente , entonces la sucesin generada
por el mtodo BFGS con regla de Wolfe para bsqueda lineal cumple que:
lim inf
no
|\J(
n
)| = 0
4.1.2. El mtodo de Gauss-Newton
El mtodo de Gauss-Newton explota la forma particular del problema de
mnimos cuadrados no lineal.
Supongamos que el problema de optimizacin:
min
jQ
J() =
1
2
|1() j|
2
es consistente, es decir que la solucin satisface 1( ) = j. Entonces si 1
es lineal , el hessiano se reduce a:
\
2
J( ) = 1
t
( )
+
1
t
( )
4.1. ALGORITMOS DE OPTIMIZACIN 43
Esto sugiere para el caso de 1 no lineal , aproximar el hessiano, en una
vecindad de por:
H
c
() = 1
t
()
+
1
t
()
Una iteracin de este mtodo conduce a la resolucin del sistema lineal:
1
t
()
+
1
t
()d = \J()
= 1
t
()
+
(1() d)
es decir, un problema de mnimos cuadrados lineales para el operador 1
t
().
Esta simplicacin posee las siguientes ventajas:
Evita el clculo de la derivada segunda de 1 , que puede ser muy difcil
en la prctica.
El costo de una iteracin de Gauss-Newton es del mismo orden que
el de una iteracin de descenso.
El hessiano aproximado es semidenido positivo, lo que no ocurre
necesariamente con el hessiano exacto.
El mtodo de Gauss-Newton, sin embargo tiene los mismos defectos del
mtodo de Newton, en particular la falta de convergencia global y el hecho
que el mtodo no est denido si 1
t
()
+
1
t
() no es invertible(denido positivo).
4.1.3. El mtodo de Levenberg-Marquardt
Este mtodo se basa en la idea de regularizar los problemas linealizados ,
usando el mtodo de Tikhonov.
Las iteraciones estn dadas por:

n+1
=
n
d
n
donde d
n
es la solucin del sistema lineal:
(c
2
1 1
t
(
n
)
+
1
t
(
n
))d
n
= 1
t
(
n
)
+
(1() d)
En vez de calcular el operador c
2
1 1
t
(
n
)
+
1
t
(
n
), se puede resolver el
problema de mnimos cuadrados:
min
1
2
_
_
_
_
_
1
t
(
n
)
-1
_
d
n

_
1(
n
) d
0
__
_
_
_
2
Este mtodo puede ser asociado con la regla de Wolfe para obtener un algo-
ritmo globalmente convergente.
Vemos que para aplicar los mtodos de optimizacin numrica, se debe calcu-
lar la derivada del operador no lineal 1 y la del funcional de mnimos cuadrados
asociado.
La idea es desarrollar un mtodo ecaz para el clculo del gradiente de J
que pueda ser aplicado a los diferentes problemas.
44 CAPTULO 4. IDENTIFICACION DE PARAMETROS
4.2. Calculo del Gradiente y el mtodo del ad-
junto
Las funciones de sensibilidad
Sabemos que:
\J() = 1
t
()
+
(1() j
o
)
donde j
o
1 es el dato medido.
De la ecuacin de estado:
(, n
j
) = 0
donde n
j
= o() es obtenido por el teorema de la funcin implcita. Por este
mismo teorema, se tiene que( bajo las hiptesis de diferenciabilidad adecuadas):
0
u
(, n)n
t
j
0
j
(, n) = 0....(,)
Como 1 = Coo, usando la regla de la cadena y la linealidad del operador
de observacin C , se tiene que:
1
t
() = C(n
j
)n
t
j
Finalmente, el gradiente de J sale de:
\J() = (1
t
())
+
(Cn
j
j
o
)
La principal desventaja de este mtodo es que para calcular n/
j
= o
t
() se
debe resolver la ecuacin de estado linealizada (,) para cada valor de .
El mtodo del adjunto
Expandiendo completamente la expresin del clculo anterior, llegamos a:
\J() = (0
j
(, n
j
)
+
(0
u
(, n
j
)
+
)
1
C
+
)(Cn
j
j
o
)
Se puede simplicar el clculo, reordenando los parntesis en la expresin
anterior:
\J() = (0
j
(, n
j
))
+
_
(0
u
(, n
j
)
+
_
1
_
C
+
(Cn
j
j
o
)

Es conveniente darle un nombre a la cantidad del parntesis interioru e in-


troducimos entonces el vector j solucin de:
0
u
(, n
j
)
+
j = C
+
_
Cn
j
j
o
_
.....()
Esta ltima ecuacin se denomina la Ecuacin Adjunta. Una vez resuelta
esta ecuacin, el gradiente de J se calcula como:
\J() = 0
j
(, n
j
)
+
j.....(G)
Resumimos el resultado anterior en el siguiente
4.2. CALCULO DEL GRADIENTE Y EL MTODO DEL ADJUNTO 45
Teorema 64 Si j es la solucin de la ecuacin adjunta (),entonces el gradi-
ente de J en est dado por la frmula (G), donde n = n() es la solucin de
la ecuacin de estado correspondiente al parmetro .
Observacin 65 Este mtodo es ms conveniente que el anterior. En la prc-
tica, sin embargo sigue siendo difcil de implementar. Veremos entonces otra
manera de efectuar este clculo, que se revela ms simple en la prctica y que
utiliza el lagrangeano del problema restringido.
Clculo por el Lagrangeano Consideramos entonces el problema restringi-
do:
min
(u,j)IQ
1
2
_
_
Cn j
o
_
_
2
:.a (, n) = 0
Introducimos el Lagrangeano:
/(, n, j) =
1
2
_
_
Cn j
o
_
_
2
(j, (, n)), Q, n l, j 7
Notemos que si n verica la ecuacin de estado correspondiente al parmetro
, se cumple la igualdad:
/(, n(), j) = J(), \j 7
Derivando esta relacin con respecto a , tenemos que:
J
t
()c = 0
j
/(, n(), j)c 0
u
/(, n(), j)n
t
()c....(+)
La parte difcil de la frmula anterior es el clculo de n
t
(). Hagamos cn =
n
t
()c y entonces el segundo sumando del lado derecho es un operador cn
0
u
/(, n, j). Si se puede elegir j 7 tal que el operador anterior se anule,
podemos denir entonces la ecuacin adjunta:
0
u
/(, n(), j)cn = 0, \cn l
Calculando la derivada en la expresin anterior, tenemos que:

Ccn, Cn() j
o
_
j, 0
u
(, n())cn = 0, \cn l...(1)
Ahora notemos que (*) queda como:
J
t
()c = 0
j
/(, n(), j)c
= j, 0
j
(, n())c .....(G1)
donde la ltima expresin sale de derivar directamente el Lagrangeano con
respecto a . As, el gradiente de J queda:
\J() = (0
j
(, n())
+
j...(++)
que es idntica a la expresin obtenida antes.
46 CAPTULO 4. IDENTIFICACION DE PARAMETROS
Observacin 66 En la prctica, la forma ms til de la ecuacin adjunta es la
formulacin (1). De la misma manera, es ms cmodo partir de la formulacin
(G1) y de proceder a manipulaciones para identicar el gradiente, que usar
directamente la frmula explcita (++).
Resumimos los resultados anteriores en los siguientes pasos:
1. Escribir el Lagrangeano del problema restringido.
2. Resolver la ecuacin adjunta (1) para determinar el estado adjunto j.
3. Identicar el gradiente de J a partir de la expresin (G1).
EJEMPLO DE DISCRETIZACION Y CALCULO DE GRADIENTE
Veremos un ejemplo de clculo de gradiente del problama discretizado para
una ecuacin elptica en dos dimensiones. La discretizacin se hace con elementos
nitos.
Consideremos el problema:
(1)
_
_
_
oiv( giaon) = ) en \
n = 0 sobre I
1
a
Ju
Jn
= q sobre I

con \ R
2 ,
I
1
'I

= 0\ poligonal, ) 1
2
(\) y q 1
2
(I

).El parmetro
a identicar es 1
2
(\),luego tenemos un problema de identicacin con
parmetro distribuido. Consideraremos el caso de un operador de medida C :
l 1 := 1
2
(I

)
C(n) = n
]
N
El funcional (O1o) es entonces:
J() =
1
2
_

n
j]
N
(r) j(r)

2
d(r)
.
Consideraremos la discretizacin de la ecuacin de estado (, n) :=oiv( giaon)
) = 0 por elementos nitos. En ese caso, el espacio de estado l est dado por:
l :=
_
n H
1
(\), n
]
D
= 0
_
La formulacin variacional de (1) est dada por:
_

(r) giaon(r) giao(r)dr =


_

)(r)(r)dr
_

N
q(r)(r)d(r), \ l
Observacin 67 Puede hacerse todo dentro del caso continuo y calcular el gra-
diente continuo de J, para proceder a discretizarlo despus.Segn la experiencia,
esto no es recomendable pues perjudica la convergencia de los mtodos de op-
timizacin. Es mejor discretizar antes y trabajar con el gradiente exacto del
funcional discretizado.
4.2. CALCULO DEL GRADIENTE Y EL MTODO DEL ADJUNTO 47
Consideremos una triangulacin regular T
|
y l
|
:=
_
n
|
C
0
(\, n
|]1
1
1
(T ), \T T
|
, n
|]
D
= 0
_
.
Notamos tambin por
|
al nmero de vrtices de la malla que estn sobre I
1
y por

al nmero de vrices sobre I

.
Discretizando tambin el parmetro , utilizaremos la misma malla de los
elementos nitos y tomaremos un valor por tringulo. Luego
|
= (
1
, 1 T
|
).
La discretizacin de la funcin medida ser d
|
= (d
1
, ' vrice de I

`
). El
problema (1) discretizado queda en la forma:

|
(, n
|
) = 1()n
|
.....(1
|
)
1. Identicaremos n
|
= (n
|
(r
I
), i = 1, ..), es decir, por sus valores en los
nodos de la malla, que equivalen a sus valores dentro de la base cannica
de elementos nitos. Es decir, aquella base ,
I
l
|
tal que: ,
I
(r
I
) = c
I
2. El operador discreto 1(
|
)(matriz de rigidez) queda denida implcita-
mente por:

|
|
1(
|
)n
|
=
_

|
(r) giaon
|
(r) giao
|
(r)dr
=

TJ
h

T
_
T
giaon
|
(r) giao
|
(r)dr, \n
|
,
|
l
|
..........(1
1
)
Cada elemento de la matriz es una suma de integrales, donde los n
|
y
|
son funciones de base del espacio l
|
( coinciden con ellas en cada nodo del
tringulo). Este proceso de formar los elementos de la matriz de rigidez
sumando contribuciones en cada tringulo, se denomina ensamblaje.
3. El segundo miembro 1 se calcula tambin por ensamblaje a partir de la
igualdad:

|
|
1 =
_

)(r)
|
(r)dr
_

N
q(r)
|
(r)d(r), \
|
l
|
El espacio discreto de observaciones 1
|
= l
]
N
. El operador de observacin
discreto consiste en extraer de un elemento n
|
sus componentes sobre I

.Se
puede representar como:
j
|
|
(Cn
|
) =
_

N
n
|
(r)j
|
(r)d(r), \n
|
l
|
, \j
|
1
|
Luego, el funcional de costo discreto J
|
est dado por:
J
|
(
|
) =
1
2
_

N
[n
|
(
|
) j
|
(r)[
2
d(r)
=
1
2
(Cn
|
(
|
) j
|
)
|
'(Cn
|
(
|
) j
|
)
48 CAPTULO 4. IDENTIFICACION DE PARAMETROS
donde la matriz ' est denida por:
.
|
|
'j
|
=
_

N
j
|
.
|
d(r)
El problema se reduce entonces a encontrar el mnimo de J
|
, siendo n
|
la
solucin de la ecuacin de estado discretizada( y linealizada). Notaremos n
|
=
n
|
(
|
).
Para calcular el gradiente, seguiremos el mtodo desarrollado anteriormente.
Derivando la ecuacin (1H) con respecto a n
|
, obtenemos:
0
u
h
(
|
, n
|
)cn
|
= 1(
|
)cn
|
Como es lineal tambin con respecto a
|
tenemos que:
0
j
h
(
|
, n
|
)c
|
= (1
t
(
|
)c
|
)n
|
Para dos vectores (n
|
,
|
) jos, podemos derivar la expresin (1
1
) y obten-
emos:

|
|
(1
t
(
|
)c
|
)n
|
=

TJ
h
ca
T
_
T
giaon
|
(r) giao
|
(r)dr
La ecuacin adjunta se escribe como:
1(
|
)
|
j
|
= C
|
(Cn
|
j
|
)
Luego:
c
|
|
\J(
|
) = c
|
|
0
j
h
(
|
, n
|
)
|
j
|
= j
|
|
0
j
h
(
|
, n
|
)c
|
= j
|
|
(1
t
(
|
)c
|
)n
|
=

TJ
h
ca
T
_
T
giaon
|
(r) giaoj
|
(r)dr
Finalmente, las derivadas parciales de J
|
estn dadas por:
0J
|
0
T
=
_
T
giaon
|
(r) giaoj
|
(r)dr = [T[ (giaon
|
giaoj
|
)
]T
, \T T
|
dado que los gradientes son constantes sobre cada tringulo de la malla.
Observacin 68 Estos resultados pueden extenderse, sin mucha dicultad, a
la formulacin regularizada.
4.3. PROBLEMAS DE IDENTIFICACIONCONPARAMETROS PUNTUALES49
4.3. PROBLEMAS DE IDENTIFICACIONCON
PARAMETROS PUNTUALES
En lo que sigue se expondr una sntesis de un enfoque general para re-
solver problemas de identicacin con parmetro puntual R
n
en ecuaciones
diferenciales elpticas, lineales o no lineales,mediante el mtodo de los elemen-
tos nitos. Est basado en una publicacin del ao 2004(Vexler) y resume el
aporte de diferentes autores en un enfoque sistemtico para la aproximacin de
problemas de identicacin por elementos nitos adaptativos.
4.3.1. FORMULACION DEL PROBLEMA
Se parte de una ecuacin diferencial parcial elptica en forma variacional(ecuacin
de estado):
a(n, )() = )(), \ \....(1)
donde R
n
es el parmetro a identicar.
Observacin 69 En el caso de condiciones Dirichlet, la variable de estado n
n\ , donde n describe las condiciones de frontera en algn espacio de Hilbert

\ \ .
Se asume que

\ = \ y n = 0 por simplicidad de notacin. \ es un espacio
de Hilbert.
Tenemos adems un operador de observacin C : \ 7 := R
n
que mapea
la variable de estado n en el espacio de medidas R
n
. Consideraremos : _ :.
El valor de los parmetros es estimado de un conjunto de medidas C
7 usando una aproximacin de mnimos cuadrados, de la cual obtenemos un
problema de optimizacin restringido y regularizado:
(1)
_
_
_
minJ(n, ) :=
1
2
_
_
C(n) C
_
_
2
2

o
2
| |
2
Q
:.a a(n, )() = )(), \ \
c _ 0, Q jos.
Podemos tener restricciones adicionales en los parmetros representadas por
el conjunto Q
oJ
Q de parmetros admisibles.
(n, ) se dice admisible si: Q
oJ
y (n, ) satisface la ecuacin de estado.
4.3.2. EXISTENCIA DE SOLUCION
Se prueba la existencia de soluciones de (1) para dos conjuntos tpicos de
suposiciones . Se introduce :
: \ Q \
t
(n, ),
\
0
\
= a(n, )(), \ \
50 CAPTULO 4. IDENTIFICACION DE PARAMETROS
esto nos permite escribir:
(n, ) = ).....(+)
Suposiciones de (+) :
A1 Q
0
Q, abierto, tal que: \ Q
0
, !n \ tal que: n es solucin de (1).
A2 Para Q
0
y n \ solucin de (1) :

t
u
(n, ) : \ \
t
es un homeomorsmo lineal.
Luego, si se cumplen (
1
) y (
2
) , entonces:
o : Q
0
\, o C
1
tal que:
(o(), ) = )
o, en forma equivalente:
a(o(), )() = )(), \ \
Lo anterior se demuestra con el teorema de la funcin implcita.
Suposicin (
3
) : Q
oJ
Q
0
, es decir, nos restringimos al caso que la
ecuacin de estado (1) tiene solucin \ Q
oJ
. Luego:
Teorema 70 Supongamos que se cumplen (
1
), (
2
), (
3
) y Q
oJ
Q, cerrado
y acotado. Luego:
(1) tiene solucin (n, ) \ Q
oJ
Demostracin. Denamos / := (n, ) \ Q
oJ
tq: (n, ) = )(espacio de
elementos admisibles). Ahora:
(
1
), (
3
) = / , = ?
adems:
J(/) R
0
+
= J
+
= inf
(u,j),
J(n, )
= (n
n
,
n
) / tal que limJ(n
n,

n
) = J
+
Por ser Q
oJ
compacto,
n
k
tq:
n
k
Q
oJ
. se hace n := o(). Luego
:
lim
|o
J(o(
n
k
),
n
k
) = J(n, )
= J
+
por la continuidad de o y de C.
4.3. PROBLEMAS DE IDENTIFICACIONCONPARAMETROS PUNTUALES51
Observacin 71 Notemos que el teorema anterior puede ser aplicado con c =
0 pues no se necesitan suposiciones sobre el parmetro de regularizacin c.
Ahora, en el caso que Q
oJ
no se suponga acotado, pero c 0 :
Teorema 72 Supongamos que se cumplen (
1
), (
2
), (
3
), c 0 y Q
oJ
cerra-
do. entonces (1) posee solucin.
Demostracin. J(n
n
,
n
) J
+
= J(n
n
,
n
) acotada=
1
2
_
_
C(n
n
) C
_
_
2
2

o
2
|
n
|
2
acotada=
n
acotada=
n
acotada y la demostracin sigue
como en el caso anterior.
Observacin 73 Estos dos teoremas garantizan la existencia de solucin de
muchos problemas de identicacin de parmetros.
4.3.3. FORMULACION NO RESTRINGIDA
Asumiremos que no hay restricciones adicionales en los parmetros. Es decir:
Q
oJ
= Q. Denimos :
1 : Q
0
Q := R
n
7 := R
n
, tal que:
1() : = C(o())
Luego, se tiene el siguiente problema no restringido:
(1
+
)
_
J : Q
0
Q := R
n
R
minJ() :=
1
2
_
_
1() C
_
_
2
2

o
2
| |
2
Q
, \ Q
4.3.4. CONDICIONES NECESARIAS Y SUFICIENTES
DE OPTIMALIDAD
Son las condiciones conocidas. suponiendo J diferenciable dos veces:
Teorema 74 (necesarias) Si Q solucin local de (1
+
) . Entonces:
i) J
t
()(c) = 0, \c Q
ii) J
tt
()(c, c) _ 0, \c Q , es decir, el hessiano es semidenido positivo.
Teorema 75 (sucientes) Sea Q un punto estacionario de J. Si la segunda
derivada J
tt
() es denida positiva, esto es:
R
+
tal que:
J
tt
()(c, c) _ |c|
2
, \c Q
Entonces es un mnimo local de J.
52 CAPTULO 4. IDENTIFICACION DE PARAMETROS
4.3.5. DERIVADAS
Derivando el funcional J e igualando a cero, la condicin necesaria de primer
orden queda como:
1
t+
()(1() C) c( ) = 0
es decir:
G
+
1() c = G
+
C c
donde G
+
es la matriz jacobiana del operador 1. Sus elementos se calculan
usando la regla de la cadena:
G
I
=
01
I
0

= C
t
I
(n)(o
t
j
()c

), i = 1, ...:. , = 1, ...:
donde la derivada parcial o
t
jj
() = o
t
j
()(c

) se obtiene como solucin n

del
problema tangente(ecuacin adjunta):
a
t
u
(n, )(n

, ) = a
jj
(n, )(c

, ), \ \.....(+)
En efecto, lo anterior se obtiene derivando directamente la ecuacin de estado
(o(), )() = )() con respecto a

para obtener:
a
t
u
(n, )o
t
jj
() a
t
jj
(n, )c

() = 0
es decir:
a
t
u
(n, )(o
t
jj
, ) a
t
jj
(n, )(c

, ) = 0
Adems, sabemos que(cap.2):
J
tt
()(/, /) = 1
t
()/, 1
t
()/

1() C, 1
tt
()(/, /)
_
c, /
lo que se puede escribir como:
\
2
J() = G
+
G' 1
donde 1 es la matriz identidad sobre Q y la matriz ' est dada por:
' :=
n

I=1
1
tt
I
()1
JS
I
y 1
JS
I
es la i-sima componente del residuo 1
JS
:= C C(n) y n = o().
Las componentes de la matriz ' se pueden calcular por:
'
|
= a
tt
uu
(n, )(n

, n
|
, .) a
tt
ujj
(n, )(n
|
, c

, .) a
tt
jjj
k
(n, )(c

, c
|
, .)
a
tt
uj
k
(n, )(n

, c
|
, .)

C
tt
(n)(n

, n
|
), 1
JS
(n)
_
2
donde n = o(). Adems n

, n
|
estn denidas por la ecuacin adjunta (*)
y . \ es la solucin de la siguiente ecuacin adjunta:
a
t
u
(n, )(, .) =

1
JS
(n), C
t
(n)()
_
2
, \ \.
El procedimiento para obtener lo anterior es similar al del gradiente.
4.3. PROBLEMAS DE IDENTIFICACIONCONPARAMETROS PUNTUALES53
4.3.6. Estabilidad y Unicidad
Se introduce una denicin de solucin estable del problema (1
+
). Se prueba
la unicidad local de las soluciones estables. Adems, se muestra que la unicidad
global no es posible en este problema.
Denicin 76 (Solucin estable)
Diremos que Q , solucin de (1
+
), es estable si se cumple la condicin
suciente de 2

orden, es decir:
R
+
tal que: J
tt
()(/, /) _ |/|
2
Q
, \/ Q.
Teorema 77 (Condicin suciente de solucin estable) Sea Q una solu-
cin de (1
+
) y G = 1
t
(). Sean tambin `
c

c
, -, o R
+
0
tales que:
1. `
c

c
= min` R,` es un valor propio de G
+
G .
2. - =
_
_
1() C
_
_
2
, es decir, la norma del residuo .
3. o = sup
|Q
|J
00
(j)(|,|)|
]|]
2
Q
.
Luego, si existe un nmero tal que: `
c

c
o- c _ 0, donde c es el
parmetro de regularizacin, entonces es una solucin estable de (1
+
).
Demostracin. Como la matriz G
+
G es simtrica y denida positiva, se tiene
que `
c

c
R
+
0
. Luego:
J
tt
()(/, /) = /
+
G
+
/

1
tt
()(/, /), 1() C
_
2
c/, /
Q
_ `
c

c
|/|
2
Q
|1
tt
()(/, /)|
2
_
_
1() C
_
_
2
c|/|
2
Q
_ (`
c

c
o- c) |/|
2
Q
_ |/|
2
Q
as, la solucin es estable segn la denicin anterior.
Observacin 78 Si el residuo es cero en la solucin, es decir, 1() = C, o
lo que es lo mismo, - = 0, entonces cada una de las siguientes condiciones es
suciente para que la solucin sea estable:
1. La matriz jacobiana G tiene rango completo n. Esto quiere decir que
`
c

c
0.
2. El parmetro de regularizacin es positivo.
El siguiente teorema establece lo que se espera de una solucin estable, es
decir, que pequeas perturbaciones en el funcional signiquen pequeas pertur-
baciones en la solucin.
Teorema 79 (De estabilidad)
54 CAPTULO 4. IDENTIFICACION DE PARAMETROS
Sea Q una solucin estable de (1
+
) y

J(, -) :Q1 R un funcional
perturbado con un parmetro de perturbacin - 1 = R
|
. Supongamos que

J
es continuamente diferenciable con:
J() =

J(, 0), \ Q
Luego, existe una vecindad de , \
j
Q, una vecindad de c = 0, \
0
1 y
una funcin ) : \
0
\
j
, continuamente diferenciable tal que:
)(0) = 0 y
:
= )(-) es un mnimo local de

J(, -), \- \
0
.
El siguiente teorema da un resultado ms preciso para perturbaciones en el
vector de medidas C.
Teorema 80 Sea Q una solucin estable de (1
+
) y cC una perturbacin de
C. Sea tambin una solucin del problema perturbado con C cC. Entonces,
para c = , se tiene que:
c

=
n

I=1
i
I
cC
I
C
I
O(
_
_
cC
_
_
2
2
)
donde los nmeros de condicin relativos i
I
estn dados por:
i
I
= (H
1
G
+
)
I
C
I

donde G = 1
t
() y H = \
2
J().
Corolario 81 Sean:
`
1
el valor propio ms pequeo de H.
`
c

c
el valor propio ms grande de G
+
G.
i = `
1
1
_
`
c

c
|c|
Z
]j]
Q
.
Luego:
| |
Q
||
Q
_ i
_
_
cC
_
_
2
_
_
C
_
_
2
O(
_
_
cC
_
_
2
2
)
Demostracin. En efecto, del teorema anterior , se obtiene que:
|c| _
_
_
H
1
G
+
cC
_
_
O(
_
_
cC
_
_
2
2
)
Adems:
_
_
H
1
G
+
cC
_
_
2
= (G
+
cC)
+
(H
1
)
2
(G
+
cC)
_ `
2
1
cC
+
(GG
+
)cC
_ `
2
1
`
cc

_
_
cC
_
_
2
2
de donde se obtiene la conclusin.
4.3. PROBLEMAS DE IDENTIFICACIONCONPARAMETROS PUNTUALES55
Unicidad Local
Teorema 82 Sea Q una solucin estable del problema (1
+
), entonces existe
una vecindad \
j
Q de tal que:
J( ) J() , \ \
j

Observacin 83 Luego, es inmediato que en la vecindad \
j
, la solucin es
nica.
Demostracin. Se sigue del teorema de Taylor.
Observacin 84 La unicidad local no garantiza la unicidad global, como lo
muestra el siguiente ejemplo:
minJ(n, ) = (n(0,) C)
2
c[[
2
:.a n
tt
n
t
= 1 en 1 := (0, 1)
n(0) = n(1) = 0
Aqu: \ = H
1
0
(0, 1), Q = R y C : \ R tal que C(n) = n(0,). Podemos
resolver fcilmente en forma analtica la ecuacin diferencial para obtener el
operador o : Q \ y se obtiene:
o()(r) = n
j
(r) =
rc
j
r c
jr
1
(c
j
1)
Notemos que:
o()(0,) = o()(0,) =
c
2,5
1
10(c
2,5
1)
luego,haciendo
1
= y
2
= y eligiendo
C =
c
2,5
1
10(c
2,5
1)
tenemos que el problema tiene al menos dos soluciones (
1
, o(
1
)) y (
2
, o(
2
)).Usando
el teorema de suciencia para soluciones estables con - = 0 , concluimos que las
dos soluciones son estables si, por ejemplo, c 0.
4.3.7. ASPECTOS NECESARIOS DEL METODODE EL-
EMENTOS FINITOS
Veremos algunos aspectos necesarios del MEF a usar ms adelante y una
breve introduccin a los elementos nitos adaptativos.
Consideraremos un dominio \ R
J
con frontera 0\ poligonal. Consider-
amos mallas bidimensionales formadas por cuadrilteros abiertos 1 que consti-
tuyen un cubrimiento no traslapado de \. Denotaremos la malla por T
|
= 1,
donde el parmetro / es una funcin tal que:
/
]1
= /
1
= dimetro de 1.
56 CAPTULO 4. IDENTIFICACION DE PARAMETROS
Tambin se usa el smbolo / para denotar el mximo dimetro, es decir:
/ = max
1T
h
/
1
.
Una malla T
|
se llama regular, si se cumplen las siguientes condiciones:
(M1) \ = '
1T
h
1.
(M2) 1
I
1

= ? o 1
I
= 1

, \1
I
, 1

T
|
.
(M3) Todo lado de cualquier elemento 1
I
T
|
es o bien parte de la frontera
de \ o bien es un lado de otro elemento 1

T
|
.
Sin embargo, para llevar a cabo el renamiento de la malla en el proceso adap-
tativo, relajaremos la condicin (M3) para admitir nodos en puntos medios
de lados de celdas adyacentes. Pero slo se permite un nodo con tal car-
acterstica para cada lado. As, una malla na T
|
se obtiene de otra ms
gruesa T
2|
, dividiendo una celda en cuatro subceldas, uniendo los puntos
medios de los lados de la celda madre.
En una malla regular, construimos espacios de elementos nitos nitodimen-
sionales \
|
\ tal que:
\
|
:=
_
C(\),
]1
1(1), 1 T
|
_
donde 1(1) denota un espacio de funciones polinomiales denidas en 1.
De esta manera,\
|
resulta ser un espacio de funciones seccionalmente polino-
miales. Se usarn elementos nitos bilineales o bicuadrticos sobre mallas de
cuadrilteros. Es decir, 1(1) = Q
:
(1), con r = 1, 2 tales que:
Q
1
(

1) = :ja:1, r
1
, r
2
, r
1
r
2
o Q
2
(

1) = Q
1
(

1):ja:
_
r
2
1
, r
2
2
, r
1
r
2
2
, r
2
1
r
2
, r
2
1
r
2
2
_
donde

1 representa el cuadrado de referencia

1 = (0, 1) (0, 1).
La malla T
|
se llama cuasi-uniforme si se cumple que:
(M4)
/
1
j
1
_ C
n
, \1 T
|
donde j
1
denota el dimetro de la mayor bola inscrita en la celda 1.
Las propiedades de aproximacin de los espacios de elementos nitos pueden
ser caracterizadas por estimaciones de errores de interpolacin. Uno de los op-
eradores de interpolacin ms usados es el puntual, dado por:
i
|
: \ \
|
i
|
n(r) = n
|
(r) =

I=0
n(r
I
),
I
(r)
donde r
I

I=1
son los nodos activos de la malla y ,
I

I=1
es base de \
|
. Se
tiene el siguiente resultado para elementos nitos bilineales:
4.3. PROBLEMAS DE IDENTIFICACIONCONPARAMETROS PUNTUALES57
Teorema 85 Sea T
|
una malla cuasi-uniforme y \
|
un espacio de elementos
nitos bilineales. Luego, existe C
1
0 que depende de C
1
tal que:
|n i
|
n|

_ C
1
/
2
_
_
\
2
n
_
_

|\(n i
|
n)|

_ C
1
/
_
_
\
2
n
_
_

ELEMENTOS FINITOS ADAPTATIVOS


Los mtodos adaptativos son tcnicas para renar la malla que discretiza
el dominio de un problema. Debido a que en las regiones del dominio donde
la solucin es menos regular, el mtodo es de menor orden, es razonable que
los elementos sean ms pequeos para que el error est equilibrado. En forma
breve, los mtodos adaptativos consisten en lo siguiente:
Suponiendo ,por simplicidad, un problema elptico lineal y la utilizacin de
funciones polinmicas 1
1
para aproximar, entonces si n es la solucin y n
|
la
aproximacin:
Se ja una tolerancia c tal que:
[n n
|
[
1
1
()
_ C
_

1T
h
(/
1
[n[
1
2
(1)
)
2
_1
2
w c....(+)
es decir:

1T
h
(/
1
[n[
1
2
(1)
)
2
w (
c
C
)
2
donde /
1
es el dimetro del elemento (tringulo,rectngulo)1. Para de-
terminar una malla adecuada T
|
se elige una malla inicial T
|
= 1 con
elementos y se evala
/
1
[n[
1
2
(1)
, \1 T
|
Los elementos 1 para los que:
(/
1
[n[
1
2
(1)
)
2

c
2
C
2
se parten en cuatro elementos uniendo los puntos medios de sus lados y los
elementos que no cumplan esta condicin, no se modican. Repitiendo el proceso
para la nueva malla, se llegar a equilibrar el error en todo el dominio.
4.3.8. DISCRETIZACION DEL PROBLEMA DE IDEN-
TIFICACION DE PARAMETROS
Para un espacio de elementos nitos \
|
, la solucin discreta (n
|
,
|
) \
|
Q
del problema restringido (1) est dada por la solucin de:
(1
|
)
_
minJ(n
|
,
|
)
:.a a(n
|,

|
)(
|
) = )(
|
), \
|
\
|
58 CAPTULO 4. IDENTIFICACION DE PARAMETROS
Observacin 86 Notemos que dado que Q es de dimensin nita, asumimos
que Q
|
= Q.
Asumimos los anlogos discretos de las suposiciones (1) y (2) para garan-
tizar la existencia de un operador o
|
: Q
0
\
|
tal que:
a(o
|
(
|
),
|
)(
|
) = )(
|
), \
|
\
|
Introducimos tambin el operador discreto 1
|
: Q
0
7 tal que:
1
|
(
|
) = C(o
|
(
|
))
y luego tenemos el problema no restringido:
(1
+
|
)
_
min
j
h
Q
J
|
(
|
) :=
1
2
_
_
1
|
(
|
) C
_
_
2
2

c
2
|
|
|
2
Q
La condicin necesaria de primer orden para este problema es:
J
t
|
(
|
) = 0
Anlogamente al caso continuo, haciendo G
|
:= 1
t
|
(
|
), esta condicin se
escribe como:
G
+
|
1
|
(
|
) c
|
= G
+
|
C c
La matriz G
|
puede ser calculada por:
01
I,|
0

(
|
) = G
I,|
= C
t
I
(n
|
)(n
,|
) , i = 1, ...:, , = 1...:
con n
|
= o
|
(
|
) y n
,|
\
|
es la solucin del siguiente problema:
a
t
u
(n
|
,
|
)(n
,|
,
|
) = a
t
jj
(n
|
,
|
)(c

,
|
)
Para el clculo del hessiano, tambin procedemos como en el caso continuo:
\
2
J
|
(
|
) = G
+
|
G
|
'
|
c1
donde la matriz '
|
puede ser calculada por:
'
|,|
= a
tt
uu
(n
|
,
|
)(n
,|
, n
|,|
, .
|
) a
tt
ujj
(n
|
,
|
)(n
|,|
, c

, .
|
)
a
tt
jjj
k
(n
|
,
|
)(c

, c
|
, .
|
) a
tt
uj
k
(n
|
,
|
)(n
,|
, c
|
, .
|
)

C
tt
(n
|
)(n
,|
, n
|,|
), 1
JS
(n
|
)
_
2
Adems , n
,|
\ est denida antes y .
|
\
|
es la solucin de la ecuacin
adjunta:
a
t
u
(n
|
,
|
)(
|
, .
|
) =

1
JS
(n
|
), C
t
(n
|
)(
|
)
_
2
4.3. PROBLEMAS DE IDENTIFICACIONCONPARAMETROS PUNTUALES59
EXISTENCIA DE SOLUCION
Con respecto a la existencia de solucin del problema discretizado (1
+
|
), se
tiene el siguiente resultado:
Teorema 87 Sea Q una solucin estable del problema continuo no re-
stringido (1
+
) y supongamos adems que:
i) lim
|0
|J
t
() J
t
|
()| = 0
ii) lim
|0
|J
tt
() J
tt
|
()| = 0
iii) :\
j
, vecindad de y 1 R
+
tal que:
|J
tt
|
() J
tt
(j)| _ 1| j| , \, j \
j
, \/ R
+
.
Luego, para / sucientemente pequeo , existe
|
Q solucin de (1
+
|
) tal
que:
J
tt
|
(
|
)(/, /) _
|
|/|
2
Q
, \/ Q
es decir,
|
es estable.
Observacin 88 Las condiciones de aproximacin i), ii) y la condicin de Lip-
schitz iii) son vlidas para una amplia clase de problemas de identicacin de
parmetros.
4.3.9. ALGORITMO DE OPTIMIZACION
Considerando un mtodo general de Newton para resolver el problema de
optimizacin discretizado (1
|
) , se tiene que las iteraciones estn dadas por:

|+1
|
=
|
|
c
|
con c
|
dado por:
H
|
c
|
= \J
|
(
|
|
)
y donde H
|
es alguna aproximacin del hessiano \
2
J
|
(
|
|
). Eligiendo ade-
cuadamente H
|
se obtienen las diferentes variantes del mtodo de Newton vistas
antes. Para calcular el gradiente, se usa:
\J
|
(
|
|
) = G
+
|
(1
|
(
|
|
) C) c(
|
|
)
con 1
|
(
|
|
) = C(o
|
(
|
|
)) = C(n
|
|
) y G
|
= 1
t
|
(
|
|
).
El algoritmo general queda como:
/(T
|
) :
(1) Elegir
0
|
Q, / = 0
(2) Calcular n
|
|
\
|
, solucin de: a(n
|
|
,
|
|
)(
|
) = )(
|
), \
|
\
|
.(Aprox. de
elementos nitos)
60 CAPTULO 4. IDENTIFICACION DE PARAMETROS
(8) Calcular n
|
,|
\
|
, , = 1, ...: ,soluciones de:
a
t
u
(n
|
|
,
|
|
)(n
|
,|
,
|
) = a
jj
(n
|
|
,
|
|
)(c

,
|
), \
|
\
|
.
(4) Calcular G
|
= 1
t
|
(
|
|
) por:
(G
|
)
I
= C
t
I
(n
|
|
)(n
|
,|
)
() Calcular el residuo:
r
|
= G
+
|
(C C(n
|
|
)) c(
|
|
) (= \J
|
(
|
|
))
(6) Si |r
|
|
Q
_ c. Salir.
(7) Calcular la matriz H
|
.(aproximacin del Hessiano)
(8) Calcular c
|
de:
H
|
c
|
= r
|
(0) Hacer
|+1
|
=
|
|
c
|
.
(10) Hacer / / 1 e ir a (2).
Observacin 89 T
|
designa la malla de elementos nitos usada para
aproximar los n
|
|
.
4.3.10. ERROR A POSTERIORI
La idea es derivar un estimador del error en los parmetros que sirva para
guiar un proceso de renamiento de la malla con el objeto de mejorar la con-
vergencia del algoritmo de optimizacin. El algoritmo de renamiento genera
una sucesin de mallas renadas localmente que son usadas por el mtodo de
elementos nitos hasta que el error estimado sea menor que una cierta tolerancia
prejada.
Para medir el error en los parmetros, se introduce un funcional 1 : Q R
que servir para medir la importancia relativa de los distintos parmetros. Se
prueba el siguiente resultado:
1() 1(
|
) = j
|

donde y
|
representan las soluciones del problema de optimizacin contin-
uo y discreto respectivamente, j
|
es el estimador propiamente tal y representa
un trmino adicional de orden cbico que puede ser despreciado. As :
1() 1(
|
) - j
|
Luego, el algoritmo de renamiento adaptativo queda como:
/
1
:
4.3. PROBLEMAS DE IDENTIFICACIONCONPARAMETROS PUNTUALES61
(1) Elegir una malla inicial T
|0
. Hacer i = 0.
(2) Construir el espacio de elementos nitos \
|,I
.
(3) Calcular n
|i
\
|i
y
|i
Q soluciones de (1
|
) aplicando el algoritmo
/(T
|i
) descrito antes.
(4) Evaluar el estimador del error a posteriori j
|i
.
(5) Si j
|i
_ TO1, entonces Salir.
(6) Renar T
|i
T
|i+1
, usando la informacin del estimador (localizado).
(7) Incrementar i i 1 e ir a (2).

S-ar putea să vă placă și