Sunteți pe pagina 1din 36

Prediccin Geoestadstica: Kriging Simple,

Ordinario y con Tendencia


Salvador Pintos. Applied Computing Institute, University of Zulia
Noviembre/2012
Resumen
Este reporte contiene una formulacin alternativa basada en vectores aleatorios
de los resultados fundamentales de prediccin geoestadstica. Para evitar los
complejos sistemas lineales y el exceso de sumatorias que les estn asociados
-tal como aparecen en los textos habituales- se recurre al poder de sntesis del
algebra lineal. Si bien su aplicacin directa es en ciencias de la tierra, los resul-
tados de Kriging se presentan para cualquier dimensin nita, permitiendo su
uso en problemas de aproximacin y optimizacin en (R
p
) . El captulo 1 es una
introduccin a procesos estocsticos y a los conceptos de continuidad espacial y
estacionaridad. El captulo 2 contiene los resultados fundamentales de Kriging
Simple. El 3, Kriging Ordinario; el 4, Kriging con Tendencia. En el apndice
se incluye un resumen de algebra lineal y vectores aleatorios con los instrumen-
tos necesarios para derivar los resultados fundamentales de Kriging. Pensando
en aquel lector a quien las demostraciones le provocan pnico, stas aparecen
deliberadamente entre los smbolos y para que, en una primera lectura,
pueda conocer los resultados y sus consecuencias sin necesidad de atascarse en
el cmo.
Captulo 1
Procesos estocsticos en
ciencias de la tierra
Una de las caractersticas observables de las variables que se consideran en
ciencias de la tierra, como la porosidad o la permeabilidad en la caracterizacin
de yacimientos petrolferos, es la de presentar patrones de continuidad espacial
debido al proceso crono-depositacional. Por otra parte slo se conocen escasas
mediciones -directas o indirectas- de estas propiedades, por ejemplo, mediciones
en los pozos.
Figura 1.1: Imagen geolgica
Es as que la predicin de
estas variables en puntos ar-
bitrarios del campo en estu-
dio deber tener en cuenta
la incertidumbre intrnseca de
esas predicciones y establecer
una medida de la misma.
Los mtodos de prediccin
deterministicos como inter-
polacin inversa, el k-vecino
prximo o splines hacen nfa-
sis en la prediccin; en cam-
bio la propuesta geoestads-
tica, Kriging -que se fun-
damenta en los patrones de
continuidad- privilegia el con-
trol de la incertidumbre.
Antes de explicar los fundamentos de Kriging se presentarn algunos con-
ceptos bsicos de procesos estocsticos.
1
1.1. EL PARADIGMA ESTOCSTICO
1.1. El paradigma estocstico
Sea D un subconjunto del plano, R
2
o del espacio R
3
y z(x) una funcin
(propiedad petrofsica, por ejemplo) objeto de estudio denida en D. El pa-
radigma estocstico conciste en considerar a z(x) como una realizacin de un
proceso estocstico Z(x, w). Se entiende que es un proceso estocstico si pa-
ra cada x
o
D, jo, Z(x
o
, w) es una variable aleatoria, y para cada w
o
jo
Z(x, w
o
) -realizacin- es una funcin de x. Ms precisamente, existe w
k
tal que
la funcin de inters, z(x), es la realizacin z(x) = Z(x, w
k
). En lo que sigue
se notar z
k
a la variable aleatoria Z(x
k
, w) salvo que sea necesario enfatizar la
posicin x
k
y en cuyo caso se indicar el z(x).
Figura 1.2: Realizacin de un proceso estocstico
En la Figura 1.2 una variable F(x), por ejemplo saturacin de agua, se
la identica con una realizacin de un proceso estocstico; para un x jo la
incertidumbre acerca del verdadero valor de la saturacin queda contemplada
en la variable aleatoria Z(x).
1.1.1. La continuidad espacial
Lejos de ser un ruido blanco, estos procesos asociados a variables geofsicas
presentan una alta correlacin en puntos, x
1
, x
2
, cercanos del dominio, y la
covarianza entre las variables aleatorias Z(x
1
, w) y Z(x
2
, w) asociadas,
Cov(Z(x
1
, w), Z(x
2
, w)) para x
1
, x
2
arbitrarios (1.1)
caracteriza la continuidad espacial. La posibilidad de predecir en un punto arbi-
trario a partir de una muestra escasa dada -tal como es comn en ciencias de la
tierra- y reducir la incertidumbre inherente al proceso estocstico depende del
alcance de la covarianza.
1.1.2. Geoestadstica
Si el dominio D es una regin compacta y conexa del plano o el espacio,
(E = R
2
, o R
3
), como es el caso de una regin de la tierra, entonces los proce-
Salvador Pintos 2 ICA-LUZ-VE
1.2. PROCESOS ESTACIONARIOS
sos estocsticos fundamentales se les dene como Campos Aleatorios (Random
Fields) y son objeto de estudio de la Geoestadstica. Otro ejemplo de procesos
estocsticos son las Series de Tiempo donde el conjunto D es un conjunto de
tiempos igualmente espaciados D = {t : t = n t
o
}.
1.2. Procesos estacionarios
Si la funcin de covarianza, ecu. 1.1, es conocida para cualquier par de puntos
del dominio es posible realizar predicciones lineales ptimas tal como se presen-
tan en los captulos 2 y 3. Sin embargo, puesto que en general slo se dispone de
una muestra escasa de n pares A = {(z
k
, x
k
), 1 k n} de una realizacin
z(x), la inferencia de la estructura de covarianza ecu. 1.1, se fundamenta en una
hiptesis adicional, estacionaridad.
Se dene que el proceso Z(x, w) es estacionario si para cualquier conjun-
to nito {x
1
, ...x
j
, ...x
m
} arbitrario la distribucin conjunta de las variables
aleatorias asociadas {z
1
, ...z
j
, ...z
m
} es invariante a traslaciones del conjunto
{x
1
, ...x
j
, ...x
m
}.
Ms precisamente para cualquier vector h, los conjuntos {x
1
, ...x
j
, ...x
n
} y
{x
1
+h, ...x
j
+h, .., x
n
+h} tienen sus variables aleatorias asociadas {z
1
, ...z
j
, ...z
n
}
con idntica distribucin conjunta de probabilidad.
Figura 1.3: Proceso estacionario
La gura 1.3 presenta tres regiones que se corresponden en una traslacin.
Si el proceso es estacionario se cumple: que las medias y varianzas en pun-
tos homlogos son iguales E(Z(A)) = E(Z(A

)) = E(Z(A)); V ar(Z(A)) =
V ar(Z(A

)) = V ar(Z(A); que las covarianzas entre pares homlogos son igua-


les: Cov( Z(A), Z(B)) = Cov( Z(A

), Z(B

)) = Cov( Z(A), Z(B)). Estos


tres resultados dan origen a una condicin ms debil que la estacionaridad es-
tricta que se presenta a continuacin.
Salvador Pintos 3 ICA-LUZ-VE
1.2. PROCESOS ESTACIONARIOS
1.2.1. Procesos estacionarios de segundo orden
Si el conjunto nito se reduce a un punto, m = 1 todas las variables z
j
estn
igualmente distribuidas entonces:
E(z
j
) = constante z
j
V ar(z
j
) constante z
j
Si el conjunto nito se reduce a dos puntos {x
1
, x
2
}, m = 2 , las covarianzas
son iguales ante traslaciones:
cov(z(x
1
), z(x
2
)) = cov(z(x
1
+h), z(x
2
+h)) h (1.2)
El proceso es estacionario de segundo orden si se cumplen las 3 propiedades
arriba indicadas.
Si bien es una hiptesis ms debil que la estacionaridad es suciente pa-
ra mltiples propsitos en geoestadstica, por ejemplo prediccin por Kriging.
Adems, si el proceso es gaussiano (las distribuciones conjuntas Normalmente
distribuidas), estacionario de segundo orden y estacionario son equivalentes ya
que la Normal multivariada queda caracterizada por los momentos de primer y
segundo orden.
1.2.2. Existencia de una funcin de covarianza Cov(h)
La estacionaridad de segundo orden implica la existencia de una funcin de
covarianza Cov(h) tal que:
cov(z(x
1
), z(x
2
)) = Cov(h) h = x
2
x
1
(1.3)
siendo h el vector del espacio diferencia entre los puntos dados.
Demostracin
Fijado un punto arbitrario del dominio, x
fijo
, entonces, para k = x
fijo
x
1
sustituyendo en ecu. 1.2cov(z(x
1
), z(x
2
)) = cov(z(x
1
+k), z(x
2
+k))
luego, cov(z(x
fijo
), z(x
2
x
1
+x
fijo
)) = cov(z(x
fijo
), z(x
fiijo
+h))
Esta expresin slo depende de h; luego, la covarianza entre dos variables
z(x
1
), z(x
2
) depende del vector h = x
2
x
1
y no de las posiciones en s de x
1
, x
2

1.2.3. Positividad
Si el espacio es el habitual R
3
, entonces la funcin Cov es de R
3
R .
Cov(h) no es cualquier funcin ya que debe tener la caracterstica de generar
matrices denidas positivas. Cuando Cov es de R R (caso isotrpico, ver
punto siguiente) son modelos vlidos: exponencial, esfrico, gaussiano, Matern,
etc.
Salvador Pintos 4 ICA-LUZ-VE
1.3. ANLISIS Y MODELADO DE LA CONTINUIDAD ESPACIAL
1.2.4. Isotropa
El proceso es isotrpico si la dependencia es ms simple an y slo depende
de la distancia h y no de su direccin. Es decir cov(z(x
1
), z(x
2
)) = Cov(h)
y es una gran simplicacin ya que la funcin Cov en lugar de ser de R
3
R,
es de R R, y es una funcin ms simple y por ende ms facil de modelar.
La isotropa implica que las iso-supercies son esferas en R
3
o circunferencias
en R
2
. Si Cov es dependiente de la direccin del vector adems de su mdulo
se arma que el campo aleatorio es anisotrpico y existen distintos tipos de
anisotropa.
Figura 1.4: Realizaciones de un proceso isotrpico (izq) y anisotrpico (der)
La gura 1.4 muestra a la izquierda una realizacin de un proceso isotrpico,
y a la derecha un anisotrpico donde se observan extensas zonas horizontales
casi constantes en contraste con los rpidos cambios en vertical.
1.3. Anlisis y modelado de la continuidad espa-
cial
Este tema, fundamental en geoestdistica, que permite inferir un modelo de
la estructura de covarianza a partir de una muestra, no se incluye en estas notas
orientadas a prediccin por Kriging.
Salvador Pintos 5 ICA-LUZ-VE
Captulo 2
Kriging Simple
2.1. Introduccin
En este captulo se asume que la estructura de covarianza ya ha sido deter-
minada y que la media del proceso en cualquier punto del dominio es conocida.
Sea A = {(z
1
, x
1
), ...(z
j
, x
j
), ...(z
n
, x
n
)} una muestra del campo aleatorio (pro-
ceso estocstico) en el espacio R
p
, es decir: z
1
, ...z
j
, ...z
n
las variables aleatorias
denidas en los puntos x
1
, ...x
j
, ...x
n
del campo en consideracin.
El propsito de Kriging Simple es predecir -a partir de la muestra escasa
A- los valores de z en cualquier punto del dominio mediante una combinacin
lineal de loa valores de la muestra. Puesto que el mtodo se fundamenta en
minimizar la varianza del error -diferencia entre entre los valores de z y su
prediccin - simultaneamente se obtiene una medida del error en todos los puntos
de prediccin.
2.1.1. Hiptesis
El proceso es estacionario de segundo orden
Su estructura de covarianza es conocida
La media del proceso, E(z
j
) = (x
j
), es conocida para todo x
j
del domi-
nio.
Por ser estacionario la estructura de covarianza entre las variables z
1
, ...z
j
, ...z
n
est dada por la posicin relativa de las x
1
, ...x
j
, ...x
n
, es decir jadas stas,
la covarianza entre aqullas es conocida. Ms precisamente, existe una funcin
Cov(h) de R
p
R funcin del vector h:
cov(z
j
, z
k
) = Cov(h) donde h = x
j
x
k
6
2.2. NOTACIN VECTORIAL
2.1.2. Propsito
Dada la muestra A y un nuevo punto arbitrario x
0
, donde se desconoce z
0
,
construir un predictor lineal insesgado z
0
de z
0
a partir de los valores de la
muestra z
1
, ...z
j
, ...z
n
de modo de minimizar la varianza del error cometido,
donde se entiende por Error
0
= z
0
z
0
, la variable aleatoria diferencia entre
z
0
y el predictor z
0
.
Ntese que tanto z
0
como Error son variables aleatorias!! Slo cuando se
toma una muestra y z
1
, ...z
j
, ...z
n
son valores muestrales especcos de una rea-
lizacin, Kriging Simple genera un mapa de prediccin de la realizacin y otro
de la varianza del error.
Nota: los resultados que siguen corresponden a propiedades de las
variables aleatorias, es decir antes del proceso de tomar valores espe-
ccos de z
1
, ...z
j
, ...z
n
.
2.1.3. Por qu asumir media nula?
Como la media, (x), es conocida basta con considerar la variable z(x)(x)
cuyo valor esperado es 0. En lo que sigue se asume que el proceso estocstico
tiene media nula, = 0. En el caso genrico, basta con sumar la media (x)
para restablecer la variable original.
Notes, adems, que Kriging Simple no presupone que la media (x) sea
constante! slo que es conocida.
2.2. Notacin vectorial
Para simplicar el desarrollo y las demostraciones se usar la siguiente no-
tacin vectorial:
las variables aleatorias de la muestra A se incluyen en un vector aleatorio
Z = (z
1
, ...z
j
, ...z
n
)
T
, entonces la matriz de covarianza C = cov(Z) contiene la
covarianza entre las variables aleatorias asociadas a la muestra (ver gura 2.1 a
la izquierda)
C = Cov(Z) =
_

_
cov(z
1
, z
1
) ... cov(z
1
, z
j)
... cov(z
1
, z
n)
... ... ... ... ...
cov(z
i
, z
1
) ... cov(z
i
, z
j
) ... cov(z
i
, z
n
)
... ... ... ... ...
cov(z
n
, z
1
) ... cov(z
n
, z
j
) ... cov(z
n
, z
n
)
_

_
(2.1)
La diagonal principal de C est formada por el mismo valor, V (z
j
) =
2
(conocida) y constante por la estacionaridad. La matriz de correlacin entre las
variables Z, est dada por: R(Z) =
C(Z)

2
.
Salvador Pintos 7 ICA-LUZ-VE
2.3. PREDICCIN DE Z
0
Y VARIANZA DEL ERROR
Las covarianzas entre las variables de la muestra y la variable z
0
en un punto
a predecir, juega un rol esencial en las predicciones y se incluyen en el vector w,
(ver gura 2.1 a la derecha).
. El vector w contiene las covarianzas entre z
0
valor de la variable en el punto
x
0
de prediccin y las variables aleatorias de la muestra: z
1
, ...z
j
, ...z
n
:
w = (cov(z
0
, z
1
), .... cov(z
0
, z
j
), ..., cov(z
0
, z
n
))
T
(2.2)
Ntese que el vector de las correlaciones corr(z
0
, Z) =
w

2
.
Por ltimo, se notar L = (1, 1, 1, ...,1)
T
al vector de unos de igual dimensin
que Z. Con esta notacin, por ejemplo, la media muestral de Z est dada por
media =
L
T
Z
n
.
Figura 2.1: Covarianza entre puntos de la muestra y entre la muestra y el punto
a predecir
2.3. Prediccin de z
0
y varianza del error
Para predecir en un nuevo punto x
0
el valor z
0
del proceso, se asumir que
el predictor es una combinacin lineal ptima (Best Linear Unbiased Predictor)
de los valores de la muestra z
1
, ...z
j
, ...z
n
, z
0
=
T
Z =

n
h=1

h
z
h
; dnde
ptimo hace referencia a que de todos los posibles predictores lineales insesgados
se hallar aquel que haga mnima la varianza del error, Error
0
= z
0
z
0
.
Ntese que Error
0
es una variable aleatoria ya que para cada realizacin del
proceso, si bien los puntos x
1
, ...x
j
, ...x
n
y x
0
son jos los valores de la propiedad
z
1
, ...z
j
, ...z
n
z
0
son aleatorios y en consecuencia el error error
0
es aleatorio y
tiene una varianza asociada.
Puesto que E(
T
Z) =
T
E(Z) = E(z
0
) = 0 toda combinacin lineal es
insesgada; luego, es la minimizacin de la varianza del error, Error
0
= z
0
z
0
,
la que conduce a la determinacin de .
La siguiente proposicin resume los resultados de Kriging Simple: primero,
que la prediccin ptima depende de la estructura de covarianza de la muestra,
C, y de la covarianza entre los puntos de la muestra y el punto donde se desea
predecir , w; y segundo, que la varianza del error depende de estos ltimos y de
la varianza del proceso,
2
.
Salvador Pintos 8 ICA-LUZ-VE
2.3. PREDICCIN DE Z
0
Y VARIANZA DEL ERROR
2.3.1. Proposicin
El predictor ptimo z
0
es:
z
0
=
T
Z = w
T
inv(C) Z (2.3)
con
= inv(C)w (2.4)
y la varianza del error:
V ar(Error) = V ar(z
0

T
Z) =
2
w
T
inv(C) w (2.5)
Demostracin
Se desea minimizar el mean square error del Error = z
0

T
Z , que es
igual a la varianza del Error ya que E(Error) = 0
mn H() = V ar(Error) = Min V ar(z
0

T
Z)
La funcin H a minimizar es funcin del vector , que contiene los parme-
tros a determinar de la combinacin lineal.
Como
H() = V ar(z
0
) +
T
C 2
T
w (2.6)
para obtener su mnimo se anular el gradiente de H respecto de (ver
Captulo 5, 5.2.2.1):
H

= 2C 2w = 0
Puesto que
T
C es una forma cuadrtica denida positiva, por ser C una
matriz de covarianza, existe la inversa de C y despejando en C = w se obtienen
los resultados ecu.2.4 y ecu. 2.3.
Sustituyendo el valor de ecu. 2.4 en ecu. 2.6 se obtiene ecu. 2.5
2.3.2. Corolarios
2.3.2.1. es jo pero z
0
s es aleatorio
Ntese que es jo y depende de la posicin relativa de la muestra respecto
del punto a predecir, pero no depende de los valores de z. En cambio el predictor
z
0
s es aleatorio ya que depende de los valores de la propiedad en los puntos de
la muestra.
2.3.2.2. La informacin contenida en la muestra permite reducir la
incertidumbre del proceso
Como C es denida positiva tambin lo es inv(C), entonces la varianza
del error 0 V ar(Error)
2
; la informacin contenida en la estructura de
covarianza, (C, w), permite reducir el error intrnseco del proceso.
Salvador Pintos 9 ICA-LUZ-VE
2.4. PROPIEDADES RELEVANTES
2.3.2.3. La varianza del error es ja y depende de la posicin de los
puntos
La varianza del error no es un estimador, no depende de Z, se conoce a
partir de la estructura de covarianza que depende exclusivamente de la posicin
relativa de los x y de los parmetros del modelo de estructura de covarianza. Sin
embargo, en la realidad estos parmetros suelen ser estimados a partir de los
valores de Z, lo que induce a un sesgo en la estimacin de la varianza verdadera
del error. En general, la varianza del error dada por la ecu. 2.5 subestima el
verdadero error.
2.3.2.4. Los resultados anteriores son expresables en trmino de co-
rrelaciones:
= corr(z
0
, Z)
T
R
1
V ar(Error) =
2
_
1 corr(z
0
, Z)
T
R
1
corr(z
0
, Z)
_
2.3.2.5. Los pesos, , no dependen de la varianza,
2
, del proceso
Del corolario anterior se deduce que los coecientes de la combinacin lineal,
, no dependen de la varianza
2
del proceso ya que son funcin de las corre-
laciones de los puntos de Z entre s y de las correlaciones ente stos y el nuevo
punto z
0
. Es decir si se considera la variable Y = kZ, kconstante los coecientes
en la estimacin de Y sern los mismos de los de Z. En cambio la varianza del
error tiene el factor
2
delante, es decir la varianza del error depende del ruido
del proceso.
2.4. Propiedades relevantes
2.4.1. Kriging es interpolante
La prediccin en un punto de la muestra coincide con el valor en la muestra.
Demostracin:
Si z
0
coincide con z
1
, entonces w es la primera columna de C luego,
inv(C) w = (1, 0, ...,0)
T
ya que es la primera columna del producto inv(C)C =
I; resulta entonces que z
0
=
T
Z = w
T
inv(C) Z = z
1

2.4.2. En puntos de la muestra la varianza del error es


cero
La varianza del error en un punto de la muestra es nula.
Demostracin:
puesto que si z
0
coincide con z
1
, inv(C) w = (1, 0, ...,0)
T
entonces w
T
inv(C) w =

2
Sustituyendo en ecu. 2.5 queda V ar(error) =
2
w
T
inv(C) w = 0
Salvador Pintos 10 ICA-LUZ-VE
2.4. PROPIEDADES RELEVANTES
Figura 2.2: Kriging Simple es interpolante y la varianza del error es nula en la
muestra
En la gura 2.2, a la izquierda se observa que la prediccin pasa por los
puntos de la muestra, y a la derecha que en dichos puntos la varianza del error
es 0.
2.4.3. Independencia del Error y la muestra
Demostracin

La covarianza entre la prediccin z


0
= +w
T
C
1
(ZL) y Z es: cov( z
0
, Z) =
w
T
C
1
cov(Z, Z) = w
T
C
1
C = w = cov(z
0
, Z)
Luego, la diferencia entre el primero y ltimo trmino da cov(Error
0
, Z)=0
2.4.4. Independencia de la prediccin y el error en la pre-
diccin
Para cualquier punto arbitrario la prediccin y el error cometido, ambos alea-
torios!! son independientes ya que por el punto anterior el error es independiente
de la muestra y la prediccin es una combinacin lineal de la muestra.
2.4.5. La suma de las varianzas del error y de la prediccin
es constante,
2
Como z
0
= z
0
+z
0
z
0
= z
0
+Error , entonces por la independencia recin
probada y recordando que la varianza de la suma es igual a la suma de las
varianza en el caso de independencia, se cumple:

2
= V ar(z
0
) = V ar( z
0
) +V ar(Error) (2.7)
con ambos sumandos no negativos.
Salvador Pintos 11 ICA-LUZ-VE
2.5. ALGUNOS CASOS ESPECIALES
Figura 2.3: Kriging Simple suaviza pero no es un ltro pasa bajos
2.4.6. Suavidad de Kriging Simple
Por la ecu. 2.7 la prediccin de Kriging Simple siempre tiene una varianza
del error acotada superiormente por la del proceso,
2
, en consecuencia Kri-
ging Simple reduce la incertidumbre. Adems, en zonas ms all del rango la
prediccin es muy suave ya que es la media, constante. Sin embargo, Kriging
no es un ltro pasa bajos ya que en zonas donde la muestra es abundante la
heterogeneidad de la realizacin y la de Kriging Simple es la misma por ser
interpolante.
En la gura 2.3 se observa que por la proximidad de los primeros cuatro
puntos (a la izquierda en la gura) la verdadera funcin y la prediccin son
coincidentes y la heterogeneidad es la misma; en cambio, en la zona de la derecha
donde hay pocos puntos la prediccin por Kriging es suave.
2.5. Algunos casos especiales
2.5.1. Cuando los puntos de la muestra estn muy alejados
entre s
Si los puntos de la muestra estn sucientemente alejados como para que la
correlacin entre ello sea nula (ms all del rango) la prediccin est dada por:
z
0
=
1

2
w
T
Z = corr(z
0
, Z)
T
Z
y la varianza del error:
V ar(error) =
2

2
w
T
w
Demostracin:
Si corr(z
j
, z
k
) = 0 j = k, entonces C = C =
2
I
n
e inv(C) =
1

2
I
n
.
Sustituyendo en ecu. 2.3 y ecu. 2.5 se obtiene el resultado.
Salvador Pintos 12 ICA-LUZ-VE
2.6. DESAGRUPAMIENTO (DECLUSTERING)
Obsrvese que los pesos estn dados por la inuencia de cada variable de
la muestra z
1
, ...z
j
, ...z
n
en el nuevo punto (x
0
, z
0
) medida por la correlacin
existente entre cada z
j
y z
0
, que a su vez esta correlacin es funcin del vector
h
j
= x
j
x
0
.
2.5.2. Caso x
0
alejado de la muestra (ausencia de informa-
cin)
Si x
0
est sucientemente alejado de la muestra como para que las correla-
ciones entre z
0
y los valores muestrales z
1
, ...z
j
, ...z
n
sean nulas, Kriging Simple
predice con la media del proceso y la varianza del error es mxima,
2
.
Demostracin:
Si cov(z
0
, z
j
) = 0 j = 1 . . . n, entonces w = 0 y sustituyendo en ecu. 2.3 y
ecu.2.5, z
0
= 0, y V ar(error) =
2
.
2.5.3. Inuencia de las observaciones ms all de su rango
Figura 2.4: Inuencia de las observacio-
nes ms all del rango
Si el punto x
0
donde se desea pre-
decir z est fuera del alcance de las
observaciones excepto de la x
k
, es de-
cir, todas las covarianzas w
j
son nu-
las, salvo la w
k
podra pensarse que
la prediccin slo depender del pun-
to (z
k
, x
k
), sin embargo, la predic-
cin es z
0
= w
k
inv(C)
(k, )
Z, donde
inv(C)
(k, )
es la la k de inv(C). En
consecuencia, todos los valores de la
muestra inuyen en la determinacin
de la prediccin a travs de la matriz
inversa de la covarianza, y los valores
de Z de la muestra, a pesar de que
slo z
k
est correlacionado con z
o
. En
la gura 2.4 se desea predecir en x
0
;
x
1
es el nico punto que se encuentra
a menos del rango de x
0
, sin embargo
toda la muestra inuye en la predic-
cin.
2.6. Desagrupamiento (Declustering)
Cuando un subconjunto de la muestra est agrupado -formando un cluster
- Kriging Simple les asigna menos peso del que tendran por su posicin relativa
respecto del punto a estimar.
Salvador Pintos 13 ICA-LUZ-VE
2.7. KRIGING SIMPLE CUANDO LA MEDIA (X) ES CONOCIDA Y NO
NULA
Figura 2.5: Kriging Simple reconoce agrupamientos y reduce sus pesos
En la gura 2.5 se muestran los pesos asociados a los puntos de la muestra.
En el agrupamiento de la derecha se observa un punto con un peso de 0,01 a
pesar de estar ms cerca del punto a predecir (+) que el ubicado abajo a la
izquierda cuyo peso es 0,15. Es la conformacin de inv(C) la responsable de
reducir los pesos individuales y asignarle un peso a la clase.
2.7. Kriging Simple cuando la media (x) es co-
nocida y no nula
Si consideramos el proceso de media conocida, (x) = 0, la nueva variable
y = z (x) tiene media 0, y si se le aplica lo antes expuesto: y
0
= w
T
inv(C) Y ,
luego, se modica el predictor de z
0
y la varianza del error es la misma.
z
0
= w
T
inv(C) (Z (x) L) +(x) (2.8)
Este resultado indica que la prediccin es la media del proceso ms una
combinacin de los desvos de Z respecto de la media (x) = 0 , y que los
coecientes son los mismos del problema original de media nula.
Una expresin alternativa es la siguiente:
z
0
= w
T
inv(C)Z +coef (x) (2.9)
con
coef = 1 w
T
inv(C)L (2.10)
la prediccin es la misma expresin del caso de media nula ms el producto
de una constante, coef, por la media que permite que E( z
0
) = (x). Este
coeciente coef reaparecer en el captulo sobre Kriging Ordinario.
Salvador Pintos 14 ICA-LUZ-VE
2.8. KRIGING SIMPLE COMO PREDICTOR DETERMINSTICO
2.8. Kriging Simple como predictor determinsti-
co
Figura 2.6: Kriging Simple como predictor deterministico
Cuando la muestra A = {(z
1
, x
1
), ...(z
j
, x
j
), ...(z
n
, x
n
)} toma valores jos de
una realizacin, es decir los z
j
son nmeros dados y no variables aleatorias, la
prediccin z(x) en un punto arbitrario x del dominio, puede considerarse como
un predictor determinstico:
z(x) = w
T
(x)inv(C)Z +coef (x) = Z
T
inv(C)w(x) +coef (x)
Como d = Z
T
inv(C) es constante la prediccin es una combinacin lineal
d
T
w(x) de las covarianzas entre los valores de z en el punto a predecir y los de
la muestra dada, ms la constante coef (x) .
o su equivalente:
z(x) = w
T
(x)inv(C) (Z L) +(x)
siendo inv(C) (Z L) constante la prediccin es la media del proceso ms
una combinacin lineal de las covarianzas entre los valores de z en el punto a
predecir y los de la muestra dada.
Nota: el predictor determinstico suave, e interpolante, no es lineal
en x! -inclusive si la media es constante- ya que w(x) no es lineal en x.
Por ejemplo, en la gura 2.5 se observa que la realizacin tiene las caractersticas
de una spline. En cuanto a la suavidad, sta depende del tamao de la muestra
y del modelo de covarianza elegido.
2.9. Hiptesis de Normalidad
Si se presupone que para cualquier conjunto x
1
, ...x
j
, ...x
k
el vector Z aso-
ciado es normal multivariado es posible expresar las distribuciones de los pre-
dictores hallados en este captulo as como obtener intervalos de conanza, test
de hiptesis, etc.
Salvador Pintos 15 ICA-LUZ-VE
2.9. HIPTESIS DE NORMALIDAD
2.9.1. Distribucin de z
0
z
0
se distribuye N ( z
0
, V ar(Error)) y es posible obtener intervalos de con-
anza de z
0
, a partir de la funcin inversa de la distribucin acumulada de la
Normal.
Demostracin

El predictor de z
0
, z
0
es insesgado y es una combinacin lineal de Z
z
0
= w
T
inv(C) Z
donde la varianza del error, z
0
z
0
, es constante:
V ar(Error) =
2
w
T
inv(C) w
Luego, z
0
z
0
se distribuye Normal N (0, V ar(Error) )
2.9.2. distribucin condicional multivariada
Por lo expuesto en el apndice acerca de la distribucin Normal multiva-
riada la estimacin de la media y la varianza del error coinciden con las de la
distribucin Normal condicionada de z
0
dado Z.
Demostracin
Si
Zamp =
_
z
0
Z
_
y particionados:
=
_

1

2
_
de tamao
_
1
N
_
, respectivamente,
=

2
w
T
w C

de tamao
=

1 1 1 n
n 1 n n

entonces la distribucin de z
0
condicional a Z (conocido) es multivariada
normal N( , )
donde
=
1
+ w
T
inv(C) (Z
2
) y varianza =
2
w
T
inv(C)w que para el
caso de estacionaridad queda:
= +w
T
inv(C) (Z L)
Estos resultados coinciden con los de Kriging Simple sin la hiptesis de
Normalidad.
Resumiendo, cuando el proceso subyacente es gaussiano Kriging Simple es
equivalente a una prediccin normal multivariada condicionada a la muestra.
Salvador Pintos 16 ICA-LUZ-VE
2.10. KRIGING NO ES ESTACIONARIO
2.10. Kriging no es estacionario
Aunque el campo aleatorio original sea estacionario la prediccin por Kriging
Simple no lo es.
Si a y b son dos puntos del campo tal que b a = h
cov( z
a
. z
b
) = w
T
a
inv(C) cov(Z)inv(C)w
b
= w
T
a
inv(C)w
b
depende de la posicin de los puntos; por ejemplo, se anula si cualquiera de
los puntos est fuera del rango de la muestra. Tampoco es constante la varianza
de la prediccin ver ecu. 2.7 que oscila entre 0 y
2
.
Salvador Pintos 17 ICA-LUZ-VE
Captulo 3
Kriging Ordinario
Kriging Ordinario es similar a Kriging Simple y slo se diferencia en el hecho
que la media del proceso, E(z
j
) = , es constante pero desconocida y deber ser
estimada. La estimacin de tambin se construye a partir de una combinacin
lineal de la muestra; adems, como es un estimador se determinar su varianza
para poder hacer inferencia acerca del verdadero valor de .
Se sugiere ver previamente los Captulos I y II (Kriging Simple) ya que la
notacin y los resultados all presentados se usan en este captulo.
3.1. Objetivos de Kriging Ordinario
Dada la muestra A = {(z
1
, x
1
), ...(z
j
, x
j
), ...(z
n
, x
n
)} del campo aleatorio en
el espacio R
p
, es decir: z
1
, ...z
j
, ...z
n
las variables aleatorias denidas en los
puntos x
1
, ...x
j
, ...x
n
del campo en consideracin, y asumiendo como hiptesis
que:
El proceso es estacionario de segundo orden
Su estructura de covarianza es conocida
La media del proceso, E(z
j
) = , es desconocida
Kriging Ordinario persigue los siguientes objetivos:
1. Construir un estimador lineal insesgado de de varianza mnima
(BLUE), y determinar dicha varianza con la nalidad de hacer inferencia
sobre el verdadero valor de la media .
2. Dada la muestra A y punto arbitrario x
0
, donde se desconoce z
0
, cons-
truir un predictor lineal insesgado z
0
de z
0
de modo de minimizar la
varianza del error (BLUP), donde se entiende por error la variable
aleatoria error = z
0
z
0
, diferencia entre z
0
y el predictor z
0
. Adems,
determinar dicha varianza.
18
3.2. ESTIMACIN DE LA MEDIA DEL PROCESO Y SU VARIANZA
Ntese que tanto z
0
como error son predictores, es decir variables aleatorias!!
Slo cuando se toma una muestra y z
1
, ...z
j
, ...z
n
son valores muestrales espe-
ccos de una realizacin, Kriging Simple genera un mapa de prediccin de la
realizacin y otro de la varianza del error. Los resultados que siguen correspon-
den a propiedades de las variables aleatorias, es decir antes del proceso de tomar
valores especicos de z
1
, ...z
j
, ...z
n
.
3.2. Estimacin de la media del proceso y su
varianza
3.2.1. Estimacin de la media
La siguiente proposicin establece que el estimador ptimo de la media del
proceso depende de la posicin relativa de los puntos de la muestra, informacin
contenida en la matriz C de covarianza.
Proposicin
El estimador lineal insesgado ptimo es un promedio ponderado de los
valores de la muestra:
=
T
Z con =
inv(C) L
L
T
inv(C) L
(3.1)
Siendo la varianza mnima del error
V ar( ) = V ar(

T
Z) =
1
L
T
inv(C) L
(3.2)
Demostracin:
Se construye un estimador lineal de , (
T
Z), que sea insesgado y de
varianza mnima. Si es insesgado se cumple:
E(
T
Z) =
T
E(Z) =
T
L = , luego

T
L = 1 (3.3)
La suma de los
j
debe ser 1. Es decir, un promedio ponderado de Z.
La varianza del estimador es: V ar(
T
Z) =
T
C
Su optimizacin es un problema de minimizacin con la restriccin ecu.3.3,
que se resuelve mediante multiplicadores de Lagrange agregando un parmetro
2 por la restriccin
min H(, ) =
T
C + 2 (
T
L 1)
Salvador Pintos 19 ICA-LUZ-VE
3.2. ESTIMACIN DE LA MEDIA DEL PROCESO Y SU VARIANZA
donde por comodidad el multiplicador se expresa como 2. Si anulamos los
gradientes respecto de las dos variables de la funcin H(, ) a minimizar :

= 2C + 2L = 0

= 2(
T
L 1) = 0
de la primera:
= inv(C)L
y multiplicando a la izquierda por L
T
y usando la segunda igualdad:
1 = Linv(C)L =
1
L
T
inv(C)L
entonces:
=
inv(C)L
L
T
inv(C)L
En cuanto a su varianza
V ar(

T
Z) =

T
C =
L
T
inv(C)
L
T
inv(C)L
C
inv(C)L
L
T
inv(C)L
=
1
L
T
inv(C) L

3.2.2. Corolarios
3.2.2.1. es jo, independiente del muestreo y dado slo por la
estructura de covarianza, Cov(Z).
Como se ha supuesto que la matriz de covarianza depende de la posicin
de los x
j
, y para este conjunto {x
1
, ...x
j
, ...x
n
} la matriz de covarianza Cov(Z)
es conocida, el estimador no depende de la muestra Z, es decir es un vector
constante.
3.2.2.2. es aleatorio ya que es un promedio ponderado de los va-
lores de la muestra Z
Es un promedio ponderado ya que L
T
=
L
T
Cov(Z)
1
L
L
T
Cov(Z)
1
L
= 1
Salvador Pintos 20 ICA-LUZ-VE
3.3. PREDICCIN DE Z
0
Y VARIANZA DEL ERROR
3.2.2.3. Los pesos de dependen de la posicin relativa entre los
puntos x y de los parmetros del modelo de covarianza
3.2.2.4. V ar( ) es conocida previa al muestreo y es proporcional a la
varianza del proceso.
3.2.2.5. Si las observaciones de la muestra estn muy alejadas, C =

2
I
n
, entonces V ar( ) =

2
n
y = m =
L
T
Z
n
coinciden con los
clsicos de la media muestral.
3.3. Prediccin de z
0
y varianza del error
La proposicin que sigue resume las caractersticas del predictor (BLUP) de
Kriging Ordinario:
primero, que la prediccin ptima depende de la estructura de covarianza de
la muestra, C, de la covarianza entre los puntos de la muestra y el punto donde
se desea predecir , w y de la media estimada del proceso ; y segundo, que la
varianza del error depende de C, w, de la varianza de la media V ar( ) y de la
varianza del proceso,
2
.
Proposicin
Los pesos del predictor lineal ptimo de z
0
,
T
Z , estn dados por:
= +V ar( ) coef inv(C) L (3.4)
o su equivalente slo en funcin de C y w:
= inv(C)w +
1
L
T
inv(C) L
(1 w
T
inv(C)L)inv(C)L
el predictor por:
z
0
=
T
Z = +w
T
inv(C) (Z L ) (3.5)
y respecto del error cometido, la varianza del error est dada por:
V ar(Error
0
) =
2
w
T
inv(C)w +V ar( )(1 w
T
inv(C)L)
2
(3.6)
Demostracin:

Si el predictor es insesgado se cumple que E(


T
Z) = E(z
0
) =
T
E(Z) =

T
L =
T
L = 1 es decir un promedio ponderado.
Si Error = z
0

T
Z se desea minimizar la varianza del Error:
Min V ar(Error) = Min V ar(z
0

T
Z)
Salvador Pintos 21 ICA-LUZ-VE
3.3. PREDICCIN DE Z
0
Y VARIANZA DEL ERROR
De nuevo es un problema de minimizacin con restricciones, cuyo lagrangiano
es:
min H(, ) = V ar(z
0

T
Z) + 2(
T
L 1)
El primer trmino es:
V ar(z
0
) +V ar(
T
Z) 2cov(z
0
, Z) = V ar(z
0
) +
T
C 2
T
w (3.7)
Luego se minimiza:
min H(, ) = V ar(z
0
) +
T
C 2
T
w + 2(
T
L 1)
Si anulamos los gradientes de la funcin H(, )respecto de y se tiene :

= 2C 2w + 2L = 0

= 2(
T
L 1) = 0
quedando el sistema con dos ecuaciones:
C +L = w (3.8)
L
T
= 1 (3.9)
Este sistema se puede expresar matricialmente:
_
C L
L
T
0
_ _

_
=
_
w
1
_
(3.10)
Para simplicar los clculos que siguen se notar h =
_
L
T
inv(C) L
_
1
=
V ar( ).
El sistema 3.10 es:
_
C +L = w
L
T
= 1
_
luego de la primera ecuacin +inv(C) L = inv(C) w , que multiplicando
por L
T
y aplicando la segunda se tiene:
1 +L
T
inv(C) L = L
T
inv(C) w
usando 2.4 y despejando:
= h(L
T
1) (3.11)
= inv(C) L = +hcoef inv(C) L (3.12)
o su equivalente en funcin de

ecu, 3.1
= +hcoef inv(C) L =

+ L
T

(3.13)
Luego, el predictor ptimo de z
0
es:

T
Z =

Z +
T
(Z L

T
Z)
Salvador Pintos 22 ICA-LUZ-VE
3.3. PREDICCIN DE Z
0
Y VARIANZA DEL ERROR
y sustituyendo la media del proceso =

T
Z se obtiene ecu. 3.5.
En cuanto a la varianza del error mnima, se deduce de las ecuaciones 3.7,
3.8 y 3.9:
V ar(Error) = V ar(z
0
)
T
w
Sustituyendo ecu. 3.12 y ecu.3.11 se tiene
V ar(Error) = V ar(z
0
) ( +hcoef inv(C) L)
T
w +hcoef
V ar(Error) =
2
w
T
inv(C)w hcoef L
T
inv(C)w +hcoef
V ar(Error) =
2
w
T
inv(C)w +hcoef
2
(3.14)
y sustituyendo h y coef por su valor se obtiene ecu. 3.6
corolarios
3.3.1. El predictor es similar al de Kriging Simple
Ntese que la prediccin ecu. 3.5 es la media del proceso ms un promedio
ponderado de los desvos de los valores de Z respecto de la media . Estos pesos
son los mismos obtenidos en Kriging Simple ecu. 2.8.
3.3.2. La varianza del error tiene un trmino adicional a
la expresin de Kriging Simple
Los dos primeros trminos de la ecu. 3.6 corresponden a la frmula de Kriging
Simple a la que se le agrega el trmino positivo: V ar( )(1 w
T
inv(C)L)
2
,
es decir se tiene un incremento en la varianza del error que se deriva de la
incertidumbre en el predictor de la media .
3.3.3. El predictor depende de la estructura de correlacin
z
0
=
T
Z = corr(z
0
, Z)
T
R(Z)
1
(Z L ) + es decir, los coecientes de
prediccin dependen de la estructura de correlacin de los puntos de la muestra
Z entre s, y de la correlacin entre la nueva variable z
0
y los puntos de la
muestra Z.
3.3.4. Caso x
0
alejado de la muestra (ausencia de informa-
cin)
Si x
0
est sucientemente alejado como para que w = 0 entonces el modelo
predice con la media . En cuanto a la varianza del error: V ar(Error) =
2
+
V ar( ). A diferencia de Kriging Simple la varianza del error puede superar la
varianza del proceso!
Salvador Pintos 23 ICA-LUZ-VE
3.4. SOLUCIN NUMRICA EFICIENTE
3.4. Solucin numrica eciente
Los resultados establecidos en las proposiciones fundamentales de las seccio-
nes 3,2 y 3,3 , se obtienen ecientemente usando las ventajas de la solucin de
sistemas lineales cuando la matriz es denida positiva, como lo son las matrices
de covarianza.
Entrada:
La muestra {(z
1
, x
1
), ...(z
j
, x
j
), ...(z
n
, x
n
)} y el punto x
o
donde predecir z
o
La matriz de covarianza C entre las variables aleatorias de la muestra
El vector de covarianza w entre las variables de la muestra y z
o
El algoritmo es el siguiente:
1. Resolver el sistema C aux = L (es decir hallar aux = inv(C) L)
2. Resolver el sistema C = w (es decir hallar = inv(C) w)
3. Calcular coef = 1 L
T

4. Calcular h = (L
T
aux)
1
(Varianza de )
5. Calcular

= haux
6. Calcular = +coef

7. Calcular V ar(error) =
2
w
T
+hcoef
2
8. predecir =

T
Z ( media muestral)
9. predecir z
o
=
T
Z (prediccin del proceso en el punto x
o
)
Ntese
que los sistemas 1 y 2 se resuelven simultaneamente, y como C es denida
positiva la solucin de dichos sistemas es eciente (Cholesky, por ejemplo)
que los primeros 7 pasos se realizan previos al muestreo donde se deter-
minan la varianza de y la varianza del error!
Que los valores de z obtenidos en el muestreo son slo necesarios en los
pasos 8 y 9 para predecir la media muestral y la prediccin z
o
.
3.5. Kriging es interpolante y la varianza del error
es nula en la muestra
Si z
0
coincide con z
1
, entonces w es la primera columna de C luego, inv(C) w =
(1, 0, ...,0)
T
, L
T
inv(C) w = 1 y w
T
inv(C) w =
2
entonces
= (1, 0, ...,0)
T
Salvador Pintos 24 ICA-LUZ-VE
3.6. HIPTESIS DE NORMALIDAD
lo que implica que el predictor
T
Z = z
1
, es decir es interpolante ya que el
modelo de pronstico asigna el valor muestral.
En cuanto a la varianza del error de la ec. 3.14:
V ar(Error) =
2

2
= 0
es decir el modelo predice con exactitud en los puntos de la muestra.
3.6. Hiptesis de Normalidad
Si se presupone que para cualquier conjunto x
1
, ...x
j
, ...x
k
el vector Z aso-
ciado es normal multivariado es posible expresar las distribuciones de los pre-
dictores hallados en este captulo as como obtener intervalos de conanza, test
de hiptesis, etc. Sin embargo, debido a la estimacin de , los predictores de
Kriging Ordinario no coinciden con los resultados de la distribucin normal
multivariada vlidos para Kriging Simple.
3.6.1. Distribucin de
Por lo expresado en la estimacin de , Ecu. 3.1, es una combinacin lineal
de Z y es insesgado
=
T
Z =
L
T
CZ
L
T
CL
de varianza conocida, Ecu. 3.2
V ar( ) = V ar(
T
Z) =
1
L
T
CL
Luego, se distribuye normal N (, V ar() ) y es posible obtener intervalos
de conanza de la media, , del proceso a partir de la funcin inversa de la
distribucin acumulada de la Normal.
3.6.2. Distribucin de z
0
En cuanto al predictor de z
0
por la ecu. 3.5 z
0
es insesgado y es una C. Lineal
de Z
z
0
=
T
Z = w
T
inv(C) (Z L ) +
donde la varianza del error, z
0
z
0
, es constante:
Luego, z
0
z
0
se distribuye normal N (0, V ar(Error) ) y es posible obtener
intervalos de conanza de z
0
, a partir de la funcin inversa de la distribucin
acumulada de la Normal.
Salvador Pintos 25 ICA-LUZ-VE
Captulo 4
Kriging con Tendencia
Kriging con Tendencia es una extensin de Kriging Ordinario donde la me-
dia desconocida no es constante y se asume que es una combinacin lineal de
funciones base, jas, denidas para todo punto del dominio.
En lo que sigue se considera que la muestra A = {(z
1
, x
1
), ...(z
j
, x
j
), ...(z
n
, x
n
)},
C, w, L etc, tienen idntico signicado que el que tienen en Kriging Ordinario.
4.1. Hiptesis
Se presupone que el proceso en cada punto del dominio es la suma de un
modelo determinstico de Tendencia (regresin) ms un proceso estacionario de
segundo orden de media 0. Ms precisamente:
z(x
j
) =
p

k=1
f
k
(x
j
)
k
+e(x
j
) (4.1)
donde e(x
j
) es estacionario de segundo orden con E(e(x
j
)) = 0. Luego, la alea-
toriedad de z
j
est dada por el ltimo trmino y las p funciones, f, representan
aportes a la Tendencia existente en cada punto del campo; este aporte es deter-
minstico. Luego,
E(z
j
) =
p

k=1
f
k
(x
j
)
k
= m(x
j
)
donde m es la Tendencia(trend) en el punto x
j
.
Como la tendencia en ecu. 4.1 es determinstica la estructura de covarianza
de z es la de e. Luego, C = Cov(Z) = Cov(E) con E = (e
1
, ...e
j
, ...e
n
)
T
. Se
asume, adems, que la Tendencia se capta con un nmero pequeo de funciones
p n.
4.2. Propsitos de Kriging con Tendencia
Dada la muestra A y un punto arbitrario x
0
, donde se desconoce z
0
:
26
4.3. ESTIMACIN DE LA MEDIA DEL PROCESO
1. construir un predictor lineal insesgado z
0
de z
0
de modo de minimizar
la varianza del error (BLUP), donde se entiende por error la varia-
ble aleatoria Error = z
0
z
0
, diferencia entre z
0
y el predictor z
0
; y
simultneamente:
2. estimar el vector de los coecientes de la combinacin lineal que denen
la Tendencia m.
Para simplicar la notacin las componentes de la Tendencia se incluyen en una
matriz F : nxp:
F =
_

_
f
1
(x
1
) f
2
(x
1
) ... f
p
(x
1
)
f
1
(x
2
) ... ... ...
... ... ... ...
f
1
(x
n
) ... ... f
p
(x
n
)
_

_
donde cada la est formada por los valores de las componentes de la Ten-
dencia en un punto x
j
de la muestra.
4.3. Estimacin de la media del proceso
Una primera aproximacin al problema de estimacin de la media m(x
0
) es
su formulacin como un problema de regresin generalizado:
Z = F +E V ar(E) = C E(E) = 0 (4.2)
Sea F
0
el vector de los componentes f
k
(x
0
) de Tendencia en x
0
.
F
T
0
= [f
1
(x
0
), f
2
(x
0
), ......, f
p
(x
0
)]
Si la estructura de covarianza C es conocida la Ec. 4.2 expresa un modelo
lineal generalizado cuya solucin es:

= inv (F
T
inv(C) F) F
T
inv(C) Z (4.3)
Luego, el valor esperado de la media del proceso en un punto x
0
arbitrario
es:
m(x
0
) = F
T
0

= F
T
0
inv (F
T
inv(C) F) F
T
inv(C) Z
Lo que sigue es la solucin del problema de regresin generalizado que puede
omitirse.
NOTA: Solucin del modelo lineal generalizado 4.2
Si el modelo es Z = F +E V ar(E) = C E(E) = 0, sea una matriz A
raz cuadrada de la inversa, A = inv(C)

1
2
que existe por ser C denida positiva;
entonces si se premultiplica por A: AZ = AF + AE con V ar(AE) = I. Se
Salvador Pintos 27 ICA-LUZ-VE
4.4. PREDICCIN DE Z
0
Y VARIANZA DEL ERROR
tiene as un modelo lineal clsico Y = X + con AZ = Y AF = X AE =
cuya solucin clsica es:

= inv(X
T
X) X
T
Y
o su equivalente:

= (F
T
A
T
AF)
1
(F
T
A
T
)AZ = (F
T
inv(C)F)
1
F
T
inv(C)Z

4.4. Prediccin de z
0
y varianza del error
La proposicin que sigue muestra que el predictor ptimo tiene una estruc-
tura simular al de Kriging Ordinario; en la ecu. 4.6 el primer trmino tiene
los mismos pesos w
T
inv(C) que premultiplican el desvo de los valores de la
muestra, Z, respecto del modelo de Tendencia F

y el segundo trmino es sim-
plemente el valor de la Tendencia en x
0
. En cuanto a la varianza, es la misma
de Kriging Simple ms un trmino positivo asociado a la incertidumbre en la
determinacin de la Tendencia.
4.4.1. Proposicin
Los pesos del predictor lineal ptimo de z
0
,
T
Z , estn dados por:
= inv(C)
_
I FhF
T
inv(C)
_
w +inv(C) FhF
0
(4.4)
con
h =
_
F
T
inv(C) F
_
1
(4.5)
El predictor ptimo:

T
Z = w
T
inv(C)
_
Z F

_
+F
T
0

(4.6)
donde

es la expresin ecu. 4.3 que representa la Tendencia en x
0
.
La varianza del error asociada:
V ar(Error) =
2
0
w
T
inv(C) w +h
_
_
F
0
F
T
inv(C) w
_
_
2
(4.7)
Demostracin

1. Que sea insesgado para todo , E( z


0
) = E(z
0
)
T
E(Z) =
T
F =
F
T
0
; luego, para que sea vlido para todo se debe cumplir:

T
F = F
T
0
Salvador Pintos 28 ICA-LUZ-VE
4.4. PREDICCIN DE Z
0
Y VARIANZA DEL ERROR
Si Error = z
0

T
Z se desea minimizar la varianza del Error:
Min V ar(Error) = Min V ar(z
0

T
Z)
La primera condicin es un sistema de p ecuaciones en que tendr mltiples
soluciones en la medida que n > p.
El proceso de minimizacin tendr que satisfacer estas ecuaciones as que
su formulacin por Lagrange incluye un vector multiplicador , de dimensin p
(un multiplicador por cada restriccin) :
min H(, ) = V ar(z
0

T
Z) + 2(
T
F F
T
0
)
desarrollando el primer trmino
min H(, ) = V ar(z
0
) +
T
C 2
T
w + 2(
T
F F
T
0
)
Anulando su gradiente respecto de queda:
C +F = w
y respecto de queda :
F
T
= F
0
Ambas ecuaciones conforman un sistema de ecuaciones de n + p incgnitas
_

_
que se puede expresar matricialmente:
_
C F
F
T
0
_ _

_
=
_
w
F
0
_
luego la solucin es:
_

_
=
_
C F
F
T
0
_
1
_
w
F
0
_
y aplicando la frmula de inversin de una matriz particionada de ese tipo,
queda:
_

_
=
_
inv(C)
_
I FhF
T
inv(C)
_
inv(C) Fh
hF
T
inv(C) h
_ _
w
F
0
_
(4.8)
= inv(C)
_
I FhF
T
inv(C)
_
w +inv(C) FhF
0

= h
_
F
T
inv(C) w F
0
_
(4.9)
De donde el predictor ptimo de z
0
es:

T
Z = w
T
inv(C)
_
I FhF
T
inv(C)
_
Z +F
T
0
hF
T
inv(C) Z
Salvador Pintos 29 ICA-LUZ-VE
4.4. PREDICCIN DE Z
0
Y VARIANZA DEL ERROR
y sustituyendo la estimacin del parmetro Ec. 4.3

= hF
T
inv(C) Z

T
Z = w
T
inv(C)
_
Z F

_
+F
T
0

el resultado buscado. En cuanto a la varianza del error, sustituyendo el valor


de la estimacin de en
V ar(z
0

T
Z) = V ar(z
0
) +
T
C 2
T
w
queda expresada como:
V ar(Error) =
2
0
w
T
inv(C) w +
_
F
T
0
w
T
inv(C) F
_
h
_
F
0
F
T
inv(C) w
_
o su expresin equivalente dada en la ecu. 4.7.
Corolario
Si x
0
est alejado de la muestra, w = 0, entonces se predice con la Tendencia
F
T
0

y la varianza del error es mayor o igual a la del proceso V ar(Error)
2
0
.
Salvador Pintos 30 ICA-LUZ-VE
Apndice A
Algebra lineal y vectores
aleatorios
A.1. Vectores aleatorios
A.1.1. Deniciones
Sean X R
p
Y R
q
vectores aleatorios, es decir X un vector columna
cuyos componentes son variables aleatorias, se dene valor esperado del vector
X al vector columna: E(X) = [E(x
1
), ... , E(x
p
)]
T
y matriz de covarianza entre
X y Y :
Cov(X, Y ) =
_
_
cov(x
1
, y
1
) .... cov(x
1
, y
q
)
.... .... ....
cov(x
p
, y
1
) .... cov(x
p
, y
q
)
_
_
= E[(X x)(Y y)
T
]
o su equivalente: Cov(X, Y ) = E[XY
T
] x y
Ntese que Cov(X, Y ) = Cov(Y, X)
T
Si Y = X entonces se notar Cov(X) = Cov(X, X).
A.1.2. Estimacin
Si se dispone de una muestra de tamao n de los vectores aleatorios X e Y
donde la muestra de X est dada por la matriz n p , Xobs, y la muestra de
Y dada por la matriz n q , Y obs, las medias muestrales mx y my se obtienen
promediando las columnas de las matrices:
mx =
1
n
L
T
n
Xobs my =
1
n
L
T
n
Y obs
donde se nota al vector de n unos as: L
T
n
= [ 1 1 . . 1 ].
31
A.1. VECTORES ALEATORIOS
En cuanto a la covarianza muestral est dada por:
Cov(X, Y ) =
1
n
Xobs
T
Y obs mx my
T
A.1.3. Propiedades
Si A y B son matrices constantes: Cov(AX, BY ) = ACov(X, Y )B
T
si adems X = Y
Cov(AX, BX) = ACov(X)B
T
Cov(AX) = ACov(X)A
T
Si a R
p
y b R
q
son vectores columnas constantes entonces:
V (a
T
X) = a
T
Cov(X)a 0
cov(a
T
X, b
T
Y ) = a
T
Cov(X, Y )b
Si X = Y entonces cov(a
T
X, b
T
X) = a
T
Cov(X)b
Si A, B son matrices mp y mq constantes entonces:
Cov(AX+BY ) = ACov(X)A
T
+BCov(Y )B
T
+ACov(X, Y )B
T
+BCov(Y, X)A
T
Un caso particular es el siguiente: si a R
p
y b R
q
son vectores columnas
constantes entonces:
Cov(a
T
X +b
T
Y ) = a
T
Cov(X)a +b
T
Cov(Y )b + 2a
T
Cov(X, Y )b
Si u es una variable aleatoria y c R
n
, entonces:
Cov(u c) = V ar(u)c c
T
Esta expresin se aplica a las proyecciones de un vector aleatorio X R
p
so-
bre la direccin de un vector c, jo. Si se supone c unitario c = 1 la proyeccin
est dada por Px = (c
T
X)c entonces:
Cov(Px) = c c
T
V ar(c
T
X) = c c
T
(c
T
Cov(X)c)
ntese que el ltimo parntesis es un nmero real.
Si c es vector propio de Cov(X) de valor propio , entonces: Cov(Px) =
c c
T
c
T
c.
Y como c = 1 entonces Cov(Px) = c c
T
.
Salvador Pintos 32 ICA-LUZ-VE
A.2. ALGUNAS FRMULAS DE DERIVACIN
A.2. Algunas frmulas de derivacin
A.2.1. Denicin de gradiente
Si x R
n
z R
q
se dene como gradiente del vector z(x), z la matriz
n q donde la columna k est formada por el vector gradiente z
k
(x) del k
componente de z.
Regla de la cadena Si y R
p
es funcin de z, es decir y(z) entonces el
gradiente de la funcin compuesta y(z(x)), respecto de x, est dado por:

x
y =
x
z
z
y
ntese que el producto es conforme: n p = (n q)(q p).
Ejemplo: Si la matriz A (mq) es constante entonces Ax = A
T
; luego,
si y(x) R
q
es funcin de x , por la regla de la cadena:
Ay(x) =
x
y(x) A
T
.
A.2.2. propiedades:
Si y(x) R
q
entonces (z
T
y) = z y +y z
A.2.2.1. Corolarios
si z = y entonces (y
2
) = 2y y
(x
2
) = 2x
si z = constante entonces (z
T
y) = y z
(z
T
x) = z
Ay
2
= 2yA
T
Ay
Ax
2
= 2A
T
Ax
Hessiano(Ax
2
) = 2A
T
A
(x
T
Ax) = (A
T
+A)x , si A es simtrica: (x
T
Ax) = 2Ax
Hessiano (x
T
Ax) = A
T
+A, si A es simtrica: Hessiano (x
T
Ax) = 2A
A.3. Solucin de un sistema frecuente en Kriging
Sea el sistema cuadrado ya particionado de n + m ecuaciones, n > m, de
solucin
_

_
:
C F = e
F
T
0 = g
Salvador Pintos 33 ICA-LUZ-VE
A.3. SOLUCIN DE UN SISTEMA FRECUENTE EN KRIGING
con C (n n) denida positiva, F n m de rango m.
Este sistema tiene solucin nica, la matrz es invertible; si no lo fuera exis-
tira una solucin del sistema homogneo:
C +F = 0
F
T
= 0
con al menos uno de los dos, = 0 o = 0. Entonces por la primera
ecuacin si = 0 F = 0 pero como F es de rango m , = 0.
Por otra parte si = 0, multiplando la primera por
T
queda
T
C +

T
F = 0, pero por la segunda
T
F = 0; luego,
T
C = 0 que no puede ser
ya que C es denida positiva.
Habindose probado la existencia, resolvamos el sistema. Multiplicando la
primera por C
1
queda:
I C
1
F = C
1
e
F
T
0 = g
Multiplicando la primera por F
T
y sumando a la segunda queda:
I C
1
F = C
1
e
0 F
T
C
1
F = g F
T
C
1
e
Luego, la aolucin del sistema estea dada por
= inv(F
T
C
1
F) (F
T
C
1
e g)
y
= C
1
e C
1
F
_
_
_
= q
q = q
q = q
_
_
_
Si F = L entonces =
L
T
C
1
eg
L
T
C
1
L
es un escalar. En cuanto a = C
1
e
C
1
L.
Salvador Pintos 34 ICA-LUZ-VE

S-ar putea să vă placă și