Sunteți pe pagina 1din 33

Kriging

◼ Estimadores lineales ponderados


◼ Kriging Simple
◼ Kriging Ordinario
◼ Más sobre Kriging
Estimadores lineales ponderados
◼ La idea básica es estimar el valor de un atributo (digamos, la ley de
Au) en una posición donde no conocemos el valor verdadero
n
Z * (u ) =  i  Z (ui )
i =1
donde u se refiere a la posición, Z*(u) es una estimación en la posición
u, hay n valores de datos Z(ui), i=1,...,n, y i se refiere a los
ponderadores.

◼ ¿Qué factores podrían considerarse e la asignación de los


ponderadores?
◼ cercanía a la posición que está siendo estimada
◼ redundancia entre los valores de datos
◼ continuidad anisótropa (dirección preferencial)
◼ magnitud de la continuidad / variabilidad
Estimadores lineales ponderados
◼ Asignar todos los ponderadores a los datos más cercanos (estimador
tipo poligonal)
◼ Asignar los ponderadores inversamente proporcional a la distancia de la
posición que se está estimando (esquemas de inverso de la distancia)

1
c + d iw
i =
1
 i =1 c + d w
n

donde di es la distancia entre el dato i y la posición que se está


estimando, c es una constante pequeña, y  es una potencia
(usualmente entre 1 to 3).
◼ ¿Y si se usa el variograma? → kriging
Estimadores lineales ponderados
◼ Polígonos: ◼ Inverso de la distancia

La ley del punto corresponde a n(x)


z (x )
la de la muestra más cercana 
 =1 d
p
z ( x) = n ( x )
1

 =1 d
p

D
z(x)
d
Estimadores lineales ponderados
◼ Kriging es “una colección de técnicas generalizadas de regresión lineal
para minimizar una varianza de estimación definida de un modelo a
priori de covarianza” (R. Olea, 1991).
◼ Kriging es el mejor estimador lineal insesgado.
◼ “El mejor” solamente en el sentido del error de mínimos cuadrados
para un modelo dado de covarianza / varianza
◼ Varios tipos de kriging:
◼ Kriging Simple: media conocida m
◼ Kriging Ordinario: media desconocida
◼ Kriging con un modelo de deriva: media conocida en cada posición m(u)
◼ Kriging con una deriva externa: el modelo de deriva escalado a partir de
una variable secundaria m(u)=a0+a1y(u)
◼ Kriging Factorial: El modelo de FA Z(u) es separado en componentes
independientes (factores)
◼ Kriging no lineal: Lognornal, MG, Kriging de rangos, KI, KD, …
◼ Kriging de Indicadores: KIS, KIO, KIM, …
◼ Kriging de Probabilidades: Usa indicadores y orden estandarizado de los
datos
Kriging
◼ Considere los valores de residuos respecto a la media:
Y(ui)= Z(ui) - m(ui), i=1,…,n
donde m(u) podría ser constante, variable localmente o considerada
constante pero desconocida.
◼ El variograma se define como:
2 (h) = E{[ Y(u}) - Y(u + h]2}
◼ La covarianza se define como:
C(h) = E{ Y(u) Y(u + h)}
◼ Relación entre el variograma y la covarianza:
2 (h)= [ E{ Y2(u) + [ E{ Y2(u + h)}] - 2 [ E{ Y(u) • Y(u + h)]
= Var{Y(u)} + Var{Y(u + h)} - 2 C(h})
= 2 [ C(0) - C(h) ] C(0) = meseta

◼ Así, C(h) = C(0) - (h) (h)


C(h)
Kriging Simple
n
◼ Considere un estimador lineal: Y ( u ) =   i  Y( u i )
*

i =1

donde Y(ui) son los residuos e Y*(u) es el valor estimado (la


media debe agregarse posteriormente)
◼ La varianza del error se define como E{[Y * (u ) − Y (u )]2 }

E{[Y * ( u)]2 } − 2  E{Y * (u)  Y (u)} + E{[Y ( u)]2 } A2-2ab+b2


n n n

   E{Y ( u )  Y ( u )} − 2    E {Y ( u)  Y ( u )}
i =1 j =1
i j i j
i =1
i i + C (0)

n n n

   C ( u , u ) − 2    C ( u, u )
i =1 j =1
i j i j
i =1
i i + C (0)
Kriging Simple
◼ Los ponderadores óptimos (que minimizan la varianza del error) i,
i=1,…,n pueden determinarse tomando derivadas parciales con
respecto a los ponderadores
[ ] n
= 2    jC(u i , u j ) − 2  C(u, u i ) , i = 1,...,n
 i j= 1

e igualándola a cero
n

  C(u , u ) = C(u, u ) ,
j= 1
j i j i
i = 1,...,n

◼ Este sistema de n ecuaciones con n ponderadores desconocidos es el


sistema de kriging simple (KS)
Kriging Simple
◼ El kriging minimiza esta varianza de estimación para obtener los
ponderadores. Derivando e igualando a cero, se obtiene el
sistema de kriging simple:
 C (x1 − x1 )  C (x1 − x n )   1   C (x1 − x 0 ) 
    
     =  
 C (x − x )  C (x − x )      C (x − x ) 
 n 1 n n   n  n 0 

◼ Y por lo tanto:
n n
Z (x 0 ) =    Z (x  ) + ( 1 −   )  m
*

 =1  =1
n
 2
KS (x 0 ) = C (0) −   C (x  − x 0 )
 =1
Kriging Simple
◼ O en términos de variograma:
  (x1 − x1 )   (x1 − x n )   1    (x1 − x 0 ) 
    
     =  
  (x − x )   (x − x )       (x − x ) 
 n 1 n n   n  n 0 

◼ Y se obtiene: n n
Z (x 0 ) =    Z (x  ) + ( 1 −   )  m
*

 =1  =1

n
 2
KS (x 0 ) = − (0) +    (x  − x 0 )
 =1
Kriging Simple
 2,3
◼ Hay tres ecuaciones para determinar  1,2  1,3
los tres ponderadores:  0,1  0,2
 0,3

 1  C(1,1) +  2  C(1,2) +  3  C(1,3) = C(0,1)


 1  C( 2,1) +  2  C( 2,2) +  3  C( 2,3) = C(0,2)
 1  C( 3,1) +  2  C( 3,2) +  3  C( 3,3) = C(0,3)

◼ En notación matricial

 C(1,1) C(1,2) C(1,3)    1   C(0,1) 


C( 2,1) C( 2,2) C( 2,3)   = C(0,2)
  2   
C( 3,1) C( 3,2) C( 3,3)  3  C(0,3)

◼ Recordar que C(h) = C(0) - (h)


Kriging Simple
◼ Kriging simple con un efecto pepita cero y una variograma
esférico isótropo con tres alcances diferentes:
Cambio del alcance
alcance = 1 alcance = 5

 alcance = 10

Distancia

λ1 λ2 λ3
rango = 10 0.781 0.012 0.065
5 0.648 -0.027 0.001
1 0.000 0.000 0.000
Kriging Simple
◼ Kriging simple con un variograma esférico isótropo con un rango
de 10 unidades de distancia y tres diferentes efectos pepita:

Cambio del efecto pepita


100%
75%

pepita = 25%

Distancia

 1  2  3
pepita = 0% 0.781 0.012 0.065
25% 0.468 0.203 0.064
75% 0.172 0.130 0.053
100% 0.000 0.000 0.000
Kriging Simple
◼ Kriging simple con un variograma esférico con una efecto pepita
del 25%, un alcance principal de 10 unidades y alcances
menores diferentes:
Cambio de anisotropía

 1  2  3
anisotropía 1:1 0.468 0.203 0.064
2:1 0.395 0.087 0.141
5:1 0.152 -0.055 0.232
20:1 0.000 0.000 0.239
Propiedades del Kriging
Simple
◼ Escribamos una forma más general del estimador de kriging simple,
esto es, una estimación de ZV(u) con zv(ui), i=1, …, n:

◼ Existe solución única si la matriz C (v , v ) es definida


positiva
 
i j

◼ El estimador kriging es insesgado: E Z V − Z *


K =0
◼ Estimador de varianza del error mínima
◼ Interpolador exacto : si vi = V  i = 1,  j = 0 j  i
Propiedades del Kriging
Simple
◼ La varianza de kriging puede calcularse antes de tener la
información
◼ Kriging considera:
◼ Geometría del volumen a estimar: C (V , V )
◼ Distancia de la información: C (vi ,V )
◼ Configuración de los datos: C (vi , v j )
◼ Continuidad estructural de la variable considerada: C (h )
◼ El efecto suavizador de kriging puede predecirse
◼ La teoría de kriging es parte de la teoría probabilística de las
proyecciones: proyección ortogonal en el espacio de
combinaciones lineales de los n datos (espacio de Hilbert)
Kriging Ordinario
◼ En la mayoría de los casos la media es desconocida
◼ Kriging Ordinario: estimador lineal que no considera la media
conocida n
Z * (u ) =   Z (u ) 0 

=1
 

◼ Requiere imponer la condición de insesgo:


n
E [ Z * (u0 ) − Z (u0 )] =   E [ Z (u )] − E [ Z (u0 )]
    n


 =1
m m
 =1
n
(   − 1 )
 =1
=m
 =1

◼ Los ponderadores se encuentran planteando:


n n n
min Var Z * (u0 ) − Z (u0 ) =       C (u − u  ) + C (0) − 2   C (u − u  )
 =1  =1  =1
n
s.a. 

 = 1
=1
Kriging Ordinario
◼ Kriging ordinario (media desconocida)
◼ En este caso se minimiza la varianza sujeto a que la suma de los
ponderadores sea igual a 1.
◼ El sistema de kriging ordinario queda:
 C (x1 − x1 )  C (x1 − x n ) 1   1   C (x1 − x 0 ) 
    
         
=
 C (x − x )  C (x − x ) 1      C (x − x ) 
 n 1 n n
 n   n 0

    
0  −     
 1 1 1 
y n
Z * (x 0 ) =    Z (x )
 =1
n
 KO
2
(x 0 ) =  2 −   C (x  − x 0 ) + 
 =1
Kriging Ordinario
◼ O en términos de variograma:
  (x1 − x1 )   (x1 − x n ) 1   1    (x1 − x 0 ) 
    
         
  (x − x )   (x − x ) 1     =   (x − x ) 
 n 1 n n
 n  n 0

    
0      
 1 1 1 
y n
Z * (x 0 ) =    Z (x )
 =1

n
 KO
2
(x 0 ) =    (x  − x 0 ) + 
 =1
Efecto de Distancia
◼ Caso base y efecto del aumento en la distancia sobre los
ponderadores ( ( h) = 0,2 + 0,8  Sph (100))

Caso base Efecto de distancia

 
2 2
K = 0,1888 K = 0,2162

0,25 0,265

50 0,25 0,25 50 0,303 0,303

0,25
0,129

50 50
Efecto Pantalla y Anisotropia
◼ Efecto pantalla y de la anisotropía (Anis. Geom. 4 x 1) sobre los
ponderadores ( ( h) = 0,2 + 0,8  Sph (100))

Efecto pantalla Efecto de la anisotropía


2

2
K = 0,1668 K = 0,2248

0,247 0,074

50 0,233 0,233 50
50 0,426 0,426

0,174
0,080 0,074

0,033

50
50
Efecto de Declusterizacion y
Distancia
◼ Efecto de declusterización y declus. + distancia sobre los
ponderadores ( ( h) = 0,2 + 0,8  Sph (100))

Efecto de declusterización Efecto de decl. + distancia

 
2 2
K = 0,1668 K = 0,2107

0,215 0,3437

0,111 0,016
50 0,242 0,106 50 0,2674 0,013
0,111 0,016

0,215
0,3437

50 50 100 150
Cambio en efecto pepita
◼ Efecto sobre los ponderadores de un cambio en el efecto pepita
del modelo variográfico

Caso base Cambio en el efecto pepita

 
2 2
K = 0,0827 K = 0,1206

0,208 0,1044
50 50

0,042 0,1456

50 50
(h) = 0,2 + 0,8 Sph(100) (h) = 0,7 + 0,3 Sph(100)
Efecto suavizante de Kriging
◼ Kriging es localmente preciso y suave:
◼ Apropiado para visualizar derivas
◼ Inapropiado para evaluación de procesos donde los valores
extremos son importantes
◼ La “varianza” de los valores estimados de kriging es muy baja:

Var{Y*(u)}=2-2SK
◼ 2 es la varianza completa
◼ 2SK(u) es cero en la posición de los datos
no hay suavizamiento.
◼ 2SK(u) es la varianza 2 lejos de la posición de los datos
suavizamiento total
◼ Las variaciones espaciales de 2SK(u) dependen del variograma y el
espaciamiento de los datos
◼ La varianza perdida es la varianza de kriging 2SK(u)
Efecto suavizante de Kriging
◼ La idea de la simulación es corregir la varianza y obtener el
variograma correcto
Ys (u ) = Y * (u ) + R(u )

donde R(u) corrige la varianza perdida.


◼ La simulación reproduce el histograma, respeta la variabilidad
espacial (variograma), apropiada para evaluación
de procesos
◼ Permite una determinación de la incertidumbre con realizaciones
alternativas
◼ El efecto suavizante de kriging puede cuantificarse
Comentarios
◼ “Los valores krigeados nunca debieran ponerse en un mapa.” A.
G. Journel, 1984
◼ La variabilidad conjunta de los valores estimados con kriging es
incorrecta
◼ Kriging respeta los datos con una discontinuidad (si, kriging es
un interpolador exacto, pero …)
◼ Los ponderadores de kriging no dependen del valor de los
datos:
◼ las derivas se extrapolan con ponderadores negativos
◼ la varianza de kriging no depende de los valores de los datos
◼ Kriging a veces es llamado BLUE: Best Linear Unbiased
Estimator (Probablemente debiera llamarse GLUE: Good …)
Comentarios
◼ Kriging es un estimador suave:
◼ la variabilidad de escala más corta → más suavizamiento
◼ espaciamiento amplio de datos → más suavizamiento
◼ El efecto suavizante puede cuantificarse
◼ El kriging de bloques lleva a incluso más
suavizamiento (dependiendo del espaciamiento de los
datos).
◼ Los estimadores de los bloques de diferentes tamaños son a
menudo similares pero no realistas
◼ ¡No es una buena idea evaluar el uso de extracción selectiva
con kriging de bloques! (recordar el efecto información)
Kriging Lognormal Simple
◼ Kriging lognormal simple:
◼ Si la distribución de datos es lognormal, se hace un cambio de
variable:
 ( x ) = ln (Z ( x ) +  )
◼ El sistema de kriging y la varianza de estimación son idénticos al
caso del kriging simple (se debe usar el variograma de los
logaritmos).
◼ El estimador es:
n n
1 n
 (x 0 ) =     (x  ) + ( 1 −   )   (m) +     (C ( x − x ) − C ( x0 − x ) )
*

 =1  =1 2  =1
Kriging Lognormal Ordinario
◼ Kriging lognormal ordinario:
◼ Nuevamente, si la distribución de datos es lognormal, se hace el
cambio de variable:
 ( x ) = ln (Z ( x ) +  )
◼ El sistema de kriging y la varianza de estimación son idénticos al
caso del kriging ordinario (se debe usar el variograma de los
logaritmos).
◼ El estimador es:
n
1 n
 (x 0 ) =     (x  ) +     (C ( x − x ) − C ( x 0 − x ) ) +  
* 1
 =1 2  =1 2
Kriging con media que varía
localmente
◼ En presencia de una deriva, el KS no puede usarse, ya que
asume una media constante m en cualquier lugar
◼ La deriva debe modelarse (por ejemplo, usando una técnica de
media móvil), así en cada posición el valor m(u) es conocido
◼ Kriging con una media que varía localmente kriging
con los residuos
n
[Z (u ) − m(u )] =    (u )[Z(u  ) − m(u  )]
*
SK
 =1

◼ Se necesita un modelo de covarianza para los residuos


◼ Genera algunos problemas si se usa en modo simulación
Parámetros para KB2D
Parámetros para KT3D
Validaciones Cruzadas
◼ Parámetros de kriging.
◼ Criterios:
◼ Media compósitos = Media puntos estimados (sesgo global)
◼ Medias condicionales (sesgo condicional)
◼ Varianza (estimado-real) baja
◼ Distribución de errores estandarizados (debe estar centrada
en 0)
◼ Elección del mejor plan de kriging

S-ar putea să vă placă și