Sunteți pe pagina 1din 81

Soporte y estimación

MI5041 Evaluación de Yacimientos

Mauricio Garrido
Ingeniero Civil de Minas, Universidad de Chile
PhDc Departamento de Geología, Universidad de Chile
Technical Sales and Support Geoscience REFLEX, South America
Definición
• Soporte: El soporte es el volumen sobre el cual se mide o se considera la variable en estudio
(testigo, compósito, pozo de tronadura, unidad selectiva de explotación o “bloque”).

• Cambio de soporte o regularización: La variable regularizada sobre el bloque V, denotada


como Z(V), se define como el promedio de los valores puntuales en V:

1
Z( V) =
V 
V
Z(u)du

en donde |V| representa el volumen del bloque V

• Requisito: variable aditiva

28-04-2019 2
Ejemplo: compositación

• Los datos con los cuales uno trabaja


pueden tener soportes distintos:
– El muestreo y los análisis químicos son
operaciones caras.
– Mientras se perfora un sondaje, se
atraviesan zonas considerables de lastre
→ no interesa analizar leyes = 0
– Así, se genera la siguiente situación:

28-04-2019 3
Ejemplo: compositación
• El cálculo de estadísticas supone una cierta homogeneidad de lo que estamos analizando

¿Podemos calcular la media de dos muestras si una mide


40 m (baja ley) y la otra sólo 2m (alta ley)?

• Este problema se soluciona generando compósitos, que reemplazan los datos originales
(testigos) en el estudio de evaluación de recursos y reservas:
– De largo constante (desde el collar o desde el final del sondaje)
– De largo aproximadamente constante
– Según altura de banco

• Es frecuente que se pierda segmentos de la información inicial al compositar (en la frontera de


una unidad geológica o al final del sondaje)

28-04-2019 4
Ejemplo: compositación
• Al compositar, se supone que las leyes son uniformes en cada testigo inicial, para poder
reconstituir el perfil de leyes de cada sondaje.

• Aumentar la longitud de los compósitos tiene varios efectos:


– Reduce el número de datos
– Disminuye la dispersión de los valores: menos valores extremos, facilita el análisis
variográfico

• La longitud de los compósitos se escoge generalmente en base a la altura de los bloques usados
para modelar el depósito.

• Para variables categóricas no aditivas (ej: código de litología o mineralogía) se puede asignar al
compósito el código que más se repite entre las muestras del compósito o el código de la
muestra ubicada en su centro.

28-04-2019 5
Efecto de soporte
• Banco de una faena a rajo abierto conocido completamente, con altura de banco 12m. La
variable considerada es la ley de cobre.

soporte 1m × 1m soporte 5m × 5m soporte 25m × 25m

28-04-2019 6
Efecto de soporte
• Tanto la distribución estadística de los valores (histograma) como su correlación en el espacio
(variograma) dependen del soporte considerado

• Este efecto de soporte tiene importantes consecuencias en la evaluación de yacimientos, pues


los datos disponibles (sondajes, pozos de tronadura) no tienen el mismo soporte que las
unidades a estimar

28-04-2019 7
Efecto de soporte en el variograma

• Cambio en el variograma: El paso de un soporte pequeño a un soporte mayor es una operación


reguladora (→ suavizamiento de los mapas).

28-04-2019 8
Efecto de soporte en el variograma

• El variograma regularizado V(h) se relaciona con el variograma puntual (h). Para


distancias grandes, el primero difiere del segundo por una constante (V,V)
1
 ( V, V ) =
V
2 
V V
 (u − u)du du

caso estacionario (con meseta) caso intrínseco (sin meseta)

28-04-2019 9
Efecto de soporte en el variograma
Ejemplo de aplicación: efecto de cambiar el soporte de los datos al compositarlos:

• Mientras mayor sea el tamaño de los compósitos, más regular será su variograma cerca del
origen y más pequeña será su meseta

• La teoría predice que la amplitud del efecto pepita es inversamente proporcional al volumen del
dato. Por ejemplo, al pasar de compósitos de 1m de largo a compósitos de 2m de largo, el efecto
pepita debería disminuir a la mitad. La proporción del efecto pepa (en relación a la meseta total)
debería disminuir también

28-04-2019 10
Efecto de soporte en el histograma
• Cambio en el histograma:

soporte 1m × 1m soporte 5m × 5m soporte 25m × 25m

mínimo: 0.013 mínimo : 0.082 mínimo: 0.178


máximo: 12.77 máximo: 6.319 máximo: 3.181
media: 0.941 media: 0.941 media: 0.941
varianza: 0.497 varianza: 0.336 varianza: 0.260
28-04-2019 11
Efecto de soporte en el histograma

• Cambio en el histograma:
– Misma media que la variable puntual
– Varianza menor (efecto de soporte)
– Forma de la distribución cambia (se
simetriza)

28-04-2019 12
Efecto de soporte en el histograma

• Al conocer el variograma (h) (o la función de covarianza C(h)) de la variable de soporte


“puntual”, se puede calcular la varianza de la variable a un soporte mayor:

1
var[ Z( V )] = C ( V, V ) =
| V |2  
V V
C(u − u) du du

1
=  () −  (f V )]=  ()(V −    (u − u) du du
2
= ,
var[V
Z(V) = V
= 1−
, V)
2
var[ Z(u)]  2
u  ()| V | V V

• Se define el factor de reducción de varianza

28-04-2019 13
Efecto de soporte en el histograma
• Ejemplo: variable muy pepítica

28-04-2019 14
Efecto de soporte en el histograma
• Ejemplo: variable poco pepítica

28-04-2019 15
Efecto de soporte en el histograma
• Existen distintos modelos para tratar de estimar el histograma regularizado a partir del
histograma puntual, de modo de poder evaluar los recursos recuperables sobre determinadas
leyes de corte al soporte de las unidades de selección mineras:

– Corrección afín
– Corrección lognormal directa
– Corrección lognormal indirecta
– Corrección Gaussiana discreta

28-04-2019 16
Corrección afín

• Histograma de [Z(V) – m] / V = histograma de [Z(u) – m] / u

• Este modelo mantiene la forma del histograma puntual, por ende no toma en cuenta la
simetrización que acompaña el cambio de soporte

28-04-2019 17
Corrección Lognormal Directa

• Histograma puntual = lognormal de media m y varianza u2


• Histograma regularizado = lognormal de media m y varianza V2
histograma
• La transformación matemática es: Z(V)  a Z(u)b

con a = m1-b [1 + V2 / m2]-1/2 [1 + V2 / m2]b/2


b = [ln(1 + V2 / m2) / ln(1 + u2 / m2)]1/2

28-04-2019 18
Corrección Lognormal Indirecta

• Aplica la corrección lognormal (aunque el


histograma puntual no lo es), luego ajusta
el parámetro a de modo que la
transformación no altera la media:
histograma
Z(V)  a Z(u)b

con el mismo b que para la corrección


lognormal directa.

28-04-2019 19
Ejemplo
• Dos modelos de distribución de leyes de bloques 25m × 25m, obtenidos a partir de la
distribución puntual por corrección afín y corrección lognormal

28-04-2019 20
Aspectos prácticos
• Determinar el histograma de las leyes puntuales (media, varianza, forma)
– Irregularidades de muestreo: desagrupamiento
– Cuidado con el modelamiento de los valores extremos

• Determinar la varianza de las leyes de bloques


– Mediante el variograma modelado de las leyes puntuales

• Escoger un modelo de cambio de soporte (por ejemplo, la corrección lognormal directa) y


deducir el histograma de los bloques

28-04-2019 21
Curvas de selectividad
• Las curvas de selectividad son herramientas alternativas al histograma para visualizar la
distribución de los valores de una variable. Entre ellas, las más importantes son:

– Tonelaje - ley de corte: indica la proporción de valores (fracción del tonelaje total) que
supera una ley de corte
– Ley promedio - ley de corte: indica la media de los valores que superan una ley de corte
– Ley promedio - tonelaje
– Cantidad de metal - ley de corte: la cantidad de metal se define como el producto de la ley
promedio por el tonelaje
– Cantidad de metal - tonelaje

28-04-2019 22
Curvas de selectividad

• Curvas tonelaje-ley para distintos soportes:

28-04-2019 23
Curvas de selectividad

• Curvas ley promedio - ley de corte para distintos soportes:

28-04-2019 24
Curvas de selectividad

• Curvas ley promedio - tonelaje para distintos soportes. La jerarquía entre las
curvas indica la pérdida de selectividad al aumentar el soporte.

28-04-2019 25
Curvas de selectividad
• Curvas metal - tonelaje para distintos soportes. También se aprecia una jerarquía en
función del soporte.

28-04-2019 26
Curvas de selectividad
• Las curvas de selectividad cuantifican los recursos recuperables en un yacimiento (tonelaje,
cantidad de metal, etc.). Dependen de cuatro factores:
– El efecto de soporte: mientras más voluminoso el soporte, menos selectividad
– El efecto de información: algunos bloques de mineral son subestimados y enviados
equivocadamente a botadero; otros bloques estériles son sobreestimados y enviados a planta
– Las restricciones geométricas: algunos bloques de alta ley pueden ser abandonados si los
costos para alcanzarlos son demasiado altos
– La dilución operativa

28-04-2019 27
Efecto de información

• La decisión de enviar un bloque a planta o


botadero se efectúa en base a la ley
estimada del bloque en lugar de la ley
verdadera (desconocida).

28-04-2019 28
Efecto de información

Se buscará un estimador preciso e


insesgado (global y condicionalmente)

28-04-2019 29
Estimación geoestadística
Introducción
• Dado que el muestreo es parcial y sólo nos indica lo que sucede en las posiciones de los datos, es
necesario estimar el valor de la ley en puntos sin muestra
• Además, estamos interesados en saber el valor de la ley de un bloque de dimensiones diferentes a
las de la muestra → cambio de soporte
• Definiremos estimadores con ciertas características:
– Lineal: el valor estimado es una combinación lineal de los datos disponibles (usualmente en
una vecindad del punto a estimar)
– Insesgado: en promedio, el estimador entrega el valor correcto, sin sesgo sistemático (pero
con cierta imprecisión)
– Óptimo: el estimador será tal que minimice la varianza del error de estimación (será por lo
tanto el más preciso).

28-04-2019 31
Estimadores lineales ponderados

• La idea básica es estimar el valor de una variable regionalizada (por ejemplo, la ley de cobre total) en
una posición u donde no conocemos el valor verdadero, planteando:

n
Z (u) = a +   i  Z (u i )
*

i=1

Donde Z*(u) es el valor estimado para la posición u, {Z(ui), i=1...n} son los valores de los datos en
las posiciones {ui, i=1...n}, a es un coeficiente aditivo y {i, i=1...n} son ponderadores.

28-04-2019 32
Estimadores lineales ponderados

• ¿Qué factores podrían considerarse en la asignación de los ponderadores?

– Cercanía a la posición que está siendo estimada


– Redundancia entre los valores de datos
– Continuidad o variabilidad espacial
– Anisotropía (dirección preferencial)

28-04-2019 33
Vecino más cercano

• Vecino más cercano: atribuye toda la


ponderación al dato más cercano al sitio a
estimar (i = 1 para el dato más cercano, i = 0
para los otros datos, a = 0)

• También llamado “estimador por polígonos de


influencia”, puesto que el sitio a estimar se
encuentra en el polígono de influencia del dato
que se lleva toda la ponderación

28-04-2019 34
Inverso de la distancia

• Estimador del inverso de la distancia: atribuye a cada data una ponderación proporcional al
inverso de su distancia al sitio a estimar
• Existen variantes, donde se eleva la distancia a una cierta potencia:

1
c + d iw
a=0 i =
1
i=1 c + d w
n

Donde di es la distancia entre el dato i y la posición que se está estimando, c es una constante
pequeña, y w es un valor usualmente comprendido entre 1 y 3

28-04-2019 35
Inverso de la distancia

𝑤=1 𝑤=2
Inverso de la distancia Inverso del cuadrado de la distancia

𝑤 → ∞?

28-04-2019 36
Estimadores lineales ponderados

• Los estimadores anteriores son sencillos de aplicar, pero la asignación de la ponderación sólo
depende del criterio de cercanía.

• La idea del método de kriging es incorporar los otros criterios (redundancias entre datos,
continuidad espacial, anisotropía) mediante el uso del variograma.

• De este modo, se logra obtener estimaciones más precisas


→ Mejor planificación, mejor selección estéril / mineral, + $$$

28-04-2019 37
Ejemplo Simple - Datos

28-04-2019 38
Vecino más cercano

28-04-2019 39
Inverso de la distancia

28-04-2019 40
Estimadores lineales ponderados

• Kriging es el mejor estimador lineal insesgado (Best Linear Unbiased Estimator, BLUE)

– Lineal porque es una combinación lineal ponderada de los datos


– Insesgado porque el error de estimación tendrá una media igual a 0
– Mejor en el sentido del error de varianza mínima para un modelo dado de covarianza /
variograma

28-04-2019 41
Estimadores lineales ponderados

• Existen varios tipos de kriging:


– Kriging simple: media m conocida
– Kriging ordinario: media m desconocida
– Kriging con deriva: media desconocida que depende de cada posición m(u)
• Kriging universal - intrínseco: la deriva es un polinomio de las coordenadas
• Kriging trigonométrico: la deriva es una función periódica
• Kriging con deriva externa: la deriva es proporcional a una variable secundaria
– Kriging no lineal: aplica kriging a una transformada de la variable
• Kriging lognormal: cuando el logaritmo de los datos tiene una distribución normal
• Kriging de indicadores: aplica kriging a datos binarios (indicadores) que codifican probabilidades de pertenecer
a un tipo de roca o de sobrepasar una ley de corte
• Kriging disyuntivo: aplica kriging a factores que descomponen la variable a estimar
• Kriging multi-Gaussiano: aplica kriging a la transformada Gaussiana de los datos
– Kriging multivariable = cokriging

28-04-2019 42
Kriging Simple
Hipótesis

1) Se conoce el valor promedio m de la variable regionalizada

2) También se conoce el variograma (h), el cual presenta una meseta:

() = 2

→ existe una funcion de covarianza, dada por C(h) = 2 – (h)

28-04-2019 43
Kriging

• Considere los valores de residuos respecto a la media:


Y(ui)= Z(ui) - m(u), i=1,…,n
donde m(u) podría ser constante, variable localmente o considerada constante pero desconocida.

• El variograma se define como:


2 (h) = E{[Y(u) - Y(u + h)]2}
C(0) = meseta

(h)

• La covarianza se define como: C(h)


C(h) = E{Y(u) Y(u + h)}
• Relación entre el variograma y la covarianza:
C(h) = C(0) - (h)

28-04-2019 44
Kriging Simple

Queremos construir el “mejor estimador lineal insesgado” para estimar el valor en un sitio u:

n
Z (u) = a +   i  Z (u i )
*

i=1

Para determinar el coeficiente a y los ponderadores {i, i=1...n}, se examina las condiciones de
insesgo y de varianza mínima.

28-04-2019 45
Kriging Simple
Condición de insesgo

El valor esperado del error de estimación es:


n
E{Z (u) − Z (u)} = a +   i  E{Z (u i )}− E{Z (u)}
*

i=1
n
= a +  i m − m
i=1

n
→ Para que este valor esperado sea nulo, se debe plantear a = {1−   i } m
i =1

28-04-2019 46
Kriging Simple

Condición de varianza mínima


La varianza del error de estimación se expresa en función de la covarianza

= var{Z * (u)} − 2  cov{Z * (u), Z


var{(
Zu − Z (u)}+ var{Z (u )}
(u))} * a2-2ab+b2
n n n
=   i j cov{Z (u i ), Z (u j )} − 2   i cov{Z (u), Z (u i )} + C (0)
i=1 j =1 i =1

n n n
=   i j C (u i − u j ) − 2   i C (u − u i ) + C (0)
i=1 j =1 i =1

28-04-2019 47
Kriging Simple
• Los ponderadores óptimos (que minimizan la varianza del error) pueden determinarse
tomando derivadas parciales con respecto a los ponderadores

[ ] n
= 2   j C (u i − u j ) − 2  C (u − u i ), i =1,...n
 i j =1

e igualándola a cero:
n


j =1
j C (u i − u j ) = C (u − u i ), i =1,... n

• Este sistema de n ecuaciones con n ponderadores desconocidos es el sistema de kriging


simple (SK)

28-04-2019 48
Kriging Simple
• En notación matricial:

 C (u1 − u1 )  C (u1 − u n )   1   C (u1 − u) 


     
        =   
 C (u − u )  C (u − u )     C (u − u) 
 n 1 n n   n  n 

mide las correlaciones (redundancias) entre datos mide las correlaciones entre datos y valor a estimar

Ax = b ✓ Soluciones del problema lineal son los ponderadores del kriging

28-04-2019 49
Kriging Simple

• El estimador se escribe:

n n
Z (u) =   i  Z (u i ) +{1−   i } m
*

i=1 i=1

• La media aparece con un ponderador que es el complemento de la ponderación acumulada


de los datos. Mientras más lejos el sitio u de los datos, menores serán sus ponderadores y
mayor será la ponderación de la media. De cierto modo, la media “compensa” la falta de
información aportada por los datos

28-04-2019 50
Kriging Simple

Varianza del error

Asimismo, es posible determinar el valor de la varianza del error (que se minimizó). Esta
varianza lleva el nombre de “varianza de kriging”, y se refiere a la varianza del error de la
estimación con kriging:

n
 (u) =  −   i  C (u i − u)
2
KS
2

i=1

✓ Puede calcularse sin conocer los valores de los datos.


✓ Se observa que esta varianza siempre es menor o igual a 2.

28-04-2019 51
Kriging Simple: ejemplo

• Hay tres ecuaciones para determinar los tres ponderadores:

 1  C(1,1) +  2  C(1,2) +  3  C(1,3) = C(0,1)


 1  C( 2,1) +  2  C( 2,2) +  3  C( 2,3) = C(0,2)
 1  C( 3,1) +  2  C( 3,2) +  3  C( 3,3) = C(0,3)
 2,3
 1,2  1,3
• En notación matricial  0,2
 0,1  0,3

 C(1,1) C(1,2) C(1,3)    1   C(0,1) 


C( 2,1) C( 2,2) C( 2,3)   = C(0,2)
  2   
C( 3,1) C( 3,2) C( 3,3)  3  C(0,3)

• Recordar que C(h) = C(0) - (h)

28-04-2019 52
Kriging Simple: ejemplo
• Kriging simple con un efecto pepita cero y un variograma esférico isótropo con tres alcances
diferentes

Cambio del alcance


alcance = 1 alcance = 5
λ1 λ2 λ3
 alcance = 10 alcance = 10 0.781 0.012 0.065
5 0.648 -0.027 0.001
1 0.000 0.000 0.000

Distancia

28-04-2019 53
Kriging Simple: ejemplo

• Kriging simple con un variograma esférico isótropo con alcance 10 y tres diferentes efectos pepita

Cambio del efecto pepita


100%
75%  1  2  3
 pepita = 0% 0.781 0.012 0.065
25% 0.468 0.203 0.064
pepita = 25% 75% 0.172 0.130 0.053
100% 0.000 0.000 0.000

Distancia

28-04-2019 54
Kriging Simple: ejemplo
• Kriging simple con un variograma esférico con un efecto pepita del 25%, un alcance principal de
10 y alcances menores diferentes

Cambio de anisotropía

 1  2  3
anisotropía 1:1 0.468 0.203 0.064
2:1 0.395 0.087 0.141
5:1 0.152 -0.055 0.232
20:1 0.000 0.000 0.239

28-04-2019 55
Kriging Ordinario
Hipótesis

1) No se conoce el valor promedio m de la variable regionalizada. Esto permite generalizar el


kriging a situaciones donde esta media no es constante en el espacio: la media puede variar de
una región a otra, siempre que sea aproximadamente constante en cada vecindad de kriging.

2) Sólo se conoce el variograma (h) o la función de covarianza C(h)

28-04-2019 56
Kriging Ordinario

Condición de insesgo

El valor esperado del error de estimación es:


n
E{Z (u) − Z (u)} = a +   i  E{Z (u i )}− E{Z (u)}
*

i=1
n
= a +  i m − m
i=1

→ Siendo m desconocida, para que este valor esperado sea nulo se debe plantear
n
a=0 
i=1
i =1

28-04-2019 57
Kriging Ordinario

Condición de varianza mínima

La varianza del error de estimación se expresa en función de la covarianza

= var{Z * (u)} − 2  cov{Z * (u), Zvar{(Zu(u)} + var{Z (u)}


) − Z (u)}
*

n n n
=   i j cov{Z (u i ), Z (u j )} − 2   i cov{Z (u), Z (u i )} + C (0)
i=1 j =1 i =1

n n n
=   i j C (u i − u j ) − 2   i C (u − u i ) + C (0)
i=1 j =1 i =1

28-04-2019 58
Kriging Ordinario
• Los ponderadores óptimos (que minimizan la varianza del error sujeto a que la suma de
los ponderadores sea igual a 1) pueden determinarse introduciendo un multiplicador de
Lagrange

n n n
 n 
var{Z (u) − Z (u)} =   i  j C (u i − u j ) − 2    i C (u − u i ) + C (0) + 2    i −1
*

i=1 j =1 i=1 i


=1

=0

y anulando las derivadas parciales con respecto a los ponderadores y con respecto al
multiplicador de Lagrange

28-04-2019 59
Kriging Ordinario

• Las derivadas parciales son:

[ ] n
= 2    j C (u i − u j ) − 2  C (u − u i ) + 2  , i = 1,...n
 i j =1

[ ]  n 
= 2     i −1
  i=1 

• Se obtiene el sistema de kriging ordinario (OK)

 n
  j C (u i − u j ) +  = C (u − u i ), i = 1,... n
 j =1
 n


 i=1
 i =1

28-04-2019 60
Kriging Ordinario
• En notación matricial:

 C (u1 − u1 )  C (u1 − u n ) 1   1   C (u1 − u) 


     
          
 C (u − u ) =
 C (u n − u n ) 1     C (u − u) 
 n 1
  n  n

  0    
 1 1    1 

mide las correlaciones (redundancias) entre mide las correlaciones entre datos y
datos valor a estimar

28-04-2019 61
Kriging Ordinario

• Se puede escribir también en términos de variograma

  (u1 − u1 )   (u1 − u n ) 1   1    (u1 − u) 


     
          
  (u − u ) =
  (u n − u n ) 1      (u − u) 
 n 1
  n
 n

  0   −  
 1 1    1 

28-04-2019 62
Kriging Ordinario

El estimador se escribe: n
Z (u) =  i  Z (u i )
*

i =1

Varianza del error


La varianza del error (“varianza de kriging”) vale:
n
 (u) =  −   i C (u i − u) − 
2
KO
2

i=1
n
=   i   (u i − u) − 
i=1

✓ Puede calcularse sin conocer los valores de los datos.


✓ En ocasiones, esta varianza puede ser mayor que 2.

28-04-2019 63
Kriging de bloques

• El kriging (simple, ordinario…) puede ser extendido a la estimación directa del valor promedio
en un bloque:
1
Z(V) =  Z(u)du
V V

• El sistema de kriging sólo difiere del sistema de kriging puntual en el miembro de la derecha:
hay que reemplazar la covarianza punto-punto C(ui – u) por la covarianza punto-bloque:

1 1 N
C (u i , V) =
V V C (ui ,u) du  N 
k =1
C (u i , x k )

Donde {xk, k = 1… N} son puntos que discretizan el bloque V.


28-04-2019 64
Kriging de bloques
• Sistema puntual

 C (x1 − x1 )  C (x1 − x n ) 1   1   C (x1 − x 0 ) 


    
         
 C (x − x )  C (x − x ) =
1   n   C ( x n − x 0 ) 
 n 1 n n
   
    
0  −     
 1 1 1 
• Sistema bloques

 C (x1 − x1 )  C (x1 − x n ) 1   B1   C (x1 − x 0, j ) 


    
         
=
 C (x − x )  C (x − x ) 1   Bn   C (x n − x 0, j ) 
 n 1 n n
   
    
0   − B    
 1 1 1 

28-04-2019 65
Observaciones
• Los ponderadores y la varianza de kriging toman en cuenta:
– aspectos geométricos: distancias entre el sitio a estimar y los datos; distancias
(redundancias) entre los datos mismos
– aspectos variográficos: continuidad espacial, anisotropía, mediante la covarianza o el
variograma
• No toman en cuenta
– información local: valores de los datos (→ en particular, son indiferentes a la presencia de un
efecto proporcional)

• A continuación, se presenta un estudio de la sensibilidad de los resultados a cambios en la


configuración geométrica de los datos y del modelo variográfico.

28-04-2019 66
Efecto de Distancia
• Caso base y efecto del aumento en la distancia sobre los ponderadores  (h) = 0,2 + 0,8  Sph(100)

Caso base Efecto de distancia

2K = 0,1888 2K = 0,2162

0,25 0,265

50 0,25 0,25 50 0,303 0,303

0,25
0,129

50 50

28-04-2019 67
Efecto de Distancia
• Efecto pantalla y de la anisotropía (Anis. Geom. 4 x 1) sobre los ponderadores  (h) = 0,2 + 0,8  Sph(100)

Efecto pantalla Efecto de la anisotropía


2

2
K = 0,1668 K = 0,2248

0,247 0,074

50 0,233 0,233 50
50 0,426 0,426

0,174
0,080 0,074

0,033

50
50

28-04-2019 68
Efecto de Distancia
• Efecto de declusterización y distancia sobre los ponderadores  (h) = 0,2 + 0,8  Sph(100)

Efecto de declusterización Efecto de decl. + distancia

 
2 2
K = 0,1668 K = 0,2107

0,215 0,3437

0,111 0,016
50 0,242 0,106 50 0,2674 0,013
0,111 0,016

0,215
0,3437

50 50 100 150

28-04-2019 69
Efecto de Distancia
• Efecto sobre los ponderadores de un cambio en el efecto pepita

Caso base Cambio en el efecto pepita

 
2 2
K = 0,0827 K = 0,1206

0,208 0,1044
50 50

0,042 0,1456

50 50
(h) = 0,2 + 0,8 Sph(100) (h) = 0,7 + 0,3 Sph(100)

28-04-2019 70
Propiedades del Kriging
• Interpolación exacta: la estimación en un sitio con dato es igual al valor del dato y la varianza
de kriging en este sitio vale 0
• Aditividad: la estimación de la ley de un bloque es igual al promedio de las estimaciones de leyes
puntuales en este bloque
• Suavizamiento: la dispersión de los valores estimados es menor que la
dispersión de los valores verdaderos, sobre todo en las zonas donde hay pocos datos. En
consecuencia, se tiende a subestimar las zonas de altas leyes y sobreestimar las zonas de bajas
leyes. El kriging es inapropiado para evaluación de procesos donde los valores extremos son
importantes (→ simulaciones)
• Insesgo y precisión: por construcción
• Sesgo condicional: el error promedio puede no tener esperanza nula cuando se considera sólo
los sitios donde la ley estimada es alta (o baja). En general, el sesgo condicional es pequeño si se
usa suficientes datos (>15)

28-04-2019 71
Propiedades del Kriging
Ilustración del sesgo condicional

• Al tener sesgo condicional, se incurre en una mala apreciación del negocio. La ley media del
material mandado a planta (material cuya estimación supera una ley de corte) es inferior a la
ley media estimada de este material, mientras que la ley media del material mandado a
botadero es superior a la ley media estimada de este material.

28-04-2019 72
Propiedades del Kriging
Ilustración del suavizamiento

28-04-2019 73
Plan de Kriging
¿Cuáles son los datos a utilizar en la estimación?

• Vecindad única: se usa todos los datos


• Vecindad móvil: se usa sólo los datos cercanos al sitio (bloque) a estimar
– En general, se toma una vecindad en forma de elipse (2D) o elipsoide (3D), orientado
según la anisotropía observada en el variograma
– Se suele dividir la vecindad en sectores angulares (cuadrantes en 2D / octantes en 3D) y
buscar datos en cada sector
– Los radios del elipse (elipsoide) no necesariamente corresponden a los alcances del
variograma, sino que se definen de manera de poder encontrar suficientes datos para hacer la
estimación

28-04-2019 74
Plan de Kriging

28-04-2019 75
Validación del kriging
Se puede validar visualmente la estimación del modelo de bloques v/s las leyes de los sondajes.

28-04-2019 76
Validación del kriging
Para validar los parámetros del kriging (modelo de variograma, vecindad elegida), se puede usar los
siguientes métodos:

• Validación cruzada: se estima sucesivamente cada dato considerando solamente los datos
restantes
• Jack-knife: se divide la muestra inicial en dos partes (por ejemplo, cuando hay dos campañas de
sondajes), y se estima una parte a partir de la otra

Luego, se hace un estudio estadístico de los errores cometidos para saber si el kriging fue
“satisfactorio” (buena precisión, poco sesgo condicional…)

28-04-2019 77
Validación del kriging
Criterios de validación:

• Medias de los errores y de los errores estandarizados: deben ser cercanas a


cero → estimador sin sesgo

• Varianza de los errores: debe ser la más baja posible → estimador preciso

• Nube de dispersión entre valores reales y estimados: la regresión debe


acercarse a la diagonal → insesgo condicional

28-04-2019 78
Validación del kriging
Ejemplo: jack-knife entre dos campañas de sondaje de exploración, usando kriging ordinario. Se
busca poner a prueba distintas vecindades de kriging.

• Plan 1: estimar con los 2 datos más cercanos


• Plan 2: estimar con los 24 datos más cercanos (3 por octante)
• Plan 3: estimar con los 48 datos más cercanos (6 por octante)

28-04-2019 79
Validación del kriging

Histogramas de los errores cometidos

Las medias de los errores son casi nulas → insesgo


La mayor precisión se alcanza en los planes 2 y 3

28-04-2019 80
Validación del kriging
Nubes de correlación entre leyes reales y estimadas

El sesgo condicional y la dispersión de la nube son mínimos en los planes 2 y 3

28-04-2019 81

S-ar putea să vă placă și