Documente Academic
Documente Profesional
Documente Cultură
El anlisis inverso es ms complejo que el directo, ya que el problema matemtico a resolver es el de la minimizacin de una funcin objetivo que en la practica no es lineal. El concepto de funcin objetivo es una generalizacin de una funcin error calculada como diferencia entre los datos medidos y los calculados con una combinacin cualquiera de parmetros.
La utilidad de estas tcnicas se acenta en los casos en que los parmetros calculados se pueden utilizar para efectuar predicciones para futuras etapas del mismo proyecto, disminuyendo por tanto las consecuencias de posibles incorrecciones del modelo adoptado. Los ejemplos ms claros dentro de la
60
Capitulo 4: El problema inverso: Tcnicas de identificacin de parmetros Ingeniera Geolgica ingeniera civil podran ser la construccin de una atagua o en la construccin de un tnel. En la construccin de una cierta entidad, longitud superior a 500m, es de suponer que se obtendrn medidas de desplazamientos y quizs de presiones de agua mientras se construye el mismo. Esto permitir mejorar las predicciones que se hagan posteriormente. Estos datos son los que nos pueden permitir llevar acabo el proceso de anlisis inverso y con ello podemos ajustar mejor el modelo. Tambin si la construccin se realiza por etapas con la correccin del modelo podemos hacer mejores predicciones de las futuras reacciones del terreno si el terreno sigue una configuracin ms o menos homognea y plantear con un nivel de precisin mayor el mtodo de realizacin de la excavacin.
donde M* representa el modelo, que se establece normalmente de forma numrica mediante el mtodo de los elementos finitos.
61
Capitulo 4: El problema inverso: Tcnicas de identificacin de parmetros Ingeniera Geolgica La relacin expresada por M* ser en principio no lineal. El problema inverso se reduce, pues, a encontrar un conjunto de parmetros p* tales que las variables calculadas con dichos parmetros x a travs del modelo (4.1) se ajusten lo mejor posible a las medidas realizadas x*. Este ajuste se realiza matemticamente a travs de un criterio de identificacin. La adopcin de un criterio permite definir una funcin objetivo, cuyo mximo o mnimo es la solucin del problema planteado. Existen diversos criterios de identificacin, pero los mas utilizados han sido el criterio de mnimos cuadrados y el de mxima verosimilitud. Cada criterio requiere de un cierto grado de informacin inicial y cuanto ms general ms informacin necesita ( por ejemplo, en el criterio del mnimo coste donde es necesario conocer la funcin de coste o de riesgo del problema a analizar).
Capitulo 4: El problema inverso: Tcnicas de identificacin de parmetros Ingeniera Geolgica Esta formulacin tiene ventajas tericas y conceptuales importantes [29]: elimina la necesidad de definir la probabilidad de una hiptesis no requiere que el modelo sea capaz de reproducir el sistema real exactamente [30]. La gran ventaja de esto aparece en problemas de identificacin del propio modelo. La diferencia entre medida y prediccin del modelo se atribuye entonces a un error cuyo sentido es puramente aleatorio. Suponiendo que la distribucin de probabilidad de estos errores es del tipo multivariante de Gauss, se tiene:
1 m
P ( x) = C x
(2 )
exp 1 ( x * x) t C x1 ( x * x) 2
(4.3)
donde Cx es la matriz de covarianzas de los errores de las medidas, m es el nmero de medidas y (x*-x) es el vector de diferencias entre variables medidas y calculadas con el modelo. Segn lo dicho anteriormente debemos maximizar la verosimilitud L(p)=kf(x*/p), lo que equivale a minimizar la funcin soporte S: S(p)=-2 ln L(p) (4.4)
Y, si se desarrolla la expresin anterior colocando explcitamente la verosimilitud usando (4.3) y aplicando la (4.4) queda:
S ( p ) = ( x * x) t C x1 ( x * x) + ln C x + m * ln(2 ) 2 * ln(k )
(4.5)
y el problema matemtico se reduce a minimizar una nueva funcin S cuyas variables x dependen a su vez, a travs del modelo escogido y segn la expresin (4.1) , de los parmetros p. Si la estructura del error no vara, en la expresin (4.5) lo nico que depende de x es el primer termino, y la funcin objetivo a minimizar es:
J ( p) = ( x * x) t C x1 ( x * x)
(4.6)
63
Capitulo 4: El problema inverso: Tcnicas de identificacin de parmetros Ingeniera Geolgica Esta expresin es una generalizacin de la funcin objetivo obtenida usando el criterio de los mnimos cuadrados. Pero con este nuevo planeamiento se introduce informacin sobre la fiabilidad relativa de las medidas a travs de su matriz de covarianzas, dando ms pesos a las medidas ms fiables. El criterio de los mnimos cuadrados resulta ser, pues, un caso particular de este criterio en el que los errores en las medidas son independientes (matriz de covarianza diagonal) y tienen una distribucin normal con la misma varianza; de esta forma la matriz de covarianzas resulta ser una constante por la matriz identidad: Cx=2I.
donde g(p)=J/pi es el jacobiano de J y G(p)=2J/pipj es el hessiano de J. O sea, que el jacobiano de la funcin debe ser cero en el mnimo y el hessiano definido positivo. Si no hay restricciones sobre el dominio de la funcin J, el mnimo global cumplir las mismas condiciones. Si el dominio fuese restringido, el mnimo global podr hallarse en la frontera del espacio de parmetros y no cumplir las condiciones anteriormente mencionadas. En cuanto a la hiptesis de
64
Capitulo 4: El problema inverso: Tcnicas de identificacin de parmetros Ingeniera Geolgica diferenciabilidad de la funcin objetivo J, se cumplir siempre por ser composicin de funciones diferenciables, ya que el modelo (4.1) que se usa es en principio diferenciable en el espacio de los parmetros. En torno al mnimo la funcin J es aproximadamente cuadrtica y, en el caso de que el nmero de parmetros sea de dos, puede representarse por curvas de nivel aproximadamente elpticas (Figura 4.1). Los vectores propios del hessiano forman un sistema de ejes ortogonales asociados con la mxima y mnima curvatura de la funcin en el mnimo. La magnitud de dicha curvatura es proporcional al valor propio correspondiente a cada vector propio. La relacin entre curvatura mxima y mnima proporciona una idea de identificabilidad del problema.
Figura 4.1: Contornos de J=cte. Direcciones asociadas con los valores mximo y mnimo del hessiano. Tomada de [23]
En el caso de dos parmetros cuanto ms se acerque la curva de nivel elptica a la forma circular, ms fcil ser la resolucin del problema y viceversa, cuanto mayor sea la relacin entre curvatura mxima y mnima, menos identificable ser
65
Capitulo 4: El problema inverso: Tcnicas de identificacin de parmetros Ingeniera Geolgica el problema. Esto ya plantea una dificultad aadida porque la identificabilidad del problema depende de la escala de las incgnitas. Existen numerosos algoritmos de minimizacin ms o menos adecuados segn el problema especfico. Los mtodos directos no requieren el clculo de las derivadas de las variables medidas x respecto a los parmetros p, pero su velocidad de convergencia en casos de funciones suaves y con pocas restricciones es ms lenta. Los mtodos de gradiente necesitan ese clculo y presentan variantes muy tiles para el tipo de funciones que se intenta minimizar en este tipo de problemas.
El proceso a seguir para la resolucin numrica del problema es el siguiente: el proceso iterativo empieza con una aproximacin inicial p0 el incremento a dicha aproximacin inicial se obtiene mediante la expresin resultado de la combinacin de varias expresiones que dan lugar a: pk=(AktAk + I)-1Aktxk a partir de aqu se obtiene la nueva aproximacin a la solucin: (4.10)
66
pk+1=pk+pk
(4.11)
se procede as de forma iterativa hasta convergencia, que se puede imponer exigiendo las siguientes condiciones, ya que con mtodos numricos iterativos difcilmente llegaremos a la solucin exacta:
p k < 1
(4.12)
J k J k +1 < 2
(4.13)
es decir que el mdulo del incremento de la aproximacin a los parmetros obtenidos por el mtodo en la iteracin sea muy pequeo, y que tambin la funcin objetivo vare poco. Ntese que ambas condiciones deben cumplirse a la vez ya que si el incremento de la aproximacin, aunque pequeo, produce una disminucin notable de la funcin objetivo, el proceso iterativo debe proseguir hasta minimizar dicha funcin. Y obviamente, si la variacin de la funcin objetivo es pequea pero el incremento en la aproximacin de los parmetros es grande, deberemos proseguir la bsqueda. 1 y 2 son valores en principio arbitrarios, ms pequeos cuanto mayor queramos que sea la precisin de la solucin, lo cual tiene como contrapartida un mayor tiempo de clculo computacional. La expresin (4.10) corresponde al caso en el que el criterio de identificacin usado sea l de mnimos cuadrados. Si se utiliza el criterio de mxima verosimilitud, la funcin objetivo a minimizar es la (4.6). En este caso el algoritmo de Levenberg-Marquardt toma la expresin:
o pk = Akt Ck1 Ak + C p + I
Akt C k1xk
(4.14)
que es la generalizacin de (4.10). Si se usa el criterio de identificacin de mxima verosimilitud con informacin previa, esta expresin pasa a ser ( [38]; [8]):
67
o pk = p o + Akt C k1 Ak + C p + I
Akt Ck1 xk Ak p o
(4.15)
donde es po= po-p y po es el vector inicial de parmetros procedente de la informacin previa, con una estructura de error definida por Cop-1. En el caso de que 0 en las expresiones anteriores se obtiene el mtodo de Gauss-Newton.
La metodologa descrita permite tambin realizar una estimacin de la fiabilidad de los parmetros identificados. La matriz
o C p = At C x1 A + C p
1 1
(4.16)
proporciona una medida de las varianzas de los parmetros identificados. Si no se dispone de informacin previa y las medidas son independientes entre ellas, la (4.16) queda igual a
68
C p = At A
(4.17)
Adems, el valor de la funcin objetivo en el mnimo permite estimar tambin el error asociado a las medidas, asumiendo el modelo correcto, a travs de la expresin
x =
J mn
(4.18)
69