Documente Academic
Documente Profesional
Documente Cultură
Mauricio Garrido
Ingeniero Civil de Minas, Universidad de Chile
PhDc Departamento de Geología, Universidad de Chile
Technical Sales and Support Geoscience REFLEX, South America
Definición
• Soporte: El soporte es el volumen sobre el cual se mide o se considera la variable en estudio
(testigo, compósito, pozo de tronadura, unidad selectiva de explotación o “bloque”).
1
Z( V) =
V
V
Z(u)du
28-04-2019 2
Ejemplo: compositación
28-04-2019 3
Ejemplo: compositación
• El cálculo de estadísticas supone una cierta homogeneidad de lo que estamos analizando
• Este problema se soluciona generando compósitos, que reemplazan los datos originales
(testigos) en el estudio de evaluación de recursos y reservas:
– De largo constante (desde el collar o desde el final del sondaje)
– De largo aproximadamente constante
– Según altura de banco
28-04-2019 4
Ejemplo: compositación
• Al compositar, se supone que las leyes son uniformes en cada testigo inicial, para poder
reconstituir el perfil de leyes de cada sondaje.
• La longitud de los compósitos se escoge generalmente en base a la altura de los bloques usados
para modelar el depósito.
• Para variables categóricas no aditivas (ej: código de litología o mineralogía) se puede asignar al
compósito el código que más se repite entre las muestras del compósito o el código de la
muestra ubicada en su centro.
28-04-2019 5
Efecto de soporte
• Banco de una faena a rajo abierto conocido completamente, con altura de banco 12m. La
variable considerada es la ley de cobre.
28-04-2019 6
Efecto de soporte
• Tanto la distribución estadística de los valores (histograma) como su correlación en el espacio
(variograma) dependen del soporte considerado
28-04-2019 7
Efecto de soporte en el variograma
28-04-2019 8
Efecto de soporte en el variograma
28-04-2019 9
Efecto de soporte en el variograma
Ejemplo de aplicación: efecto de cambiar el soporte de los datos al compositarlos:
• Mientras mayor sea el tamaño de los compósitos, más regular será su variograma cerca del
origen y más pequeña será su meseta
• La teoría predice que la amplitud del efecto pepita es inversamente proporcional al volumen del
dato. Por ejemplo, al pasar de compósitos de 1m de largo a compósitos de 2m de largo, el efecto
pepita debería disminuir a la mitad. La proporción del efecto pepa (en relación a la meseta total)
debería disminuir también
28-04-2019 10
Efecto de soporte en el histograma
• Cambio en el histograma:
• Cambio en el histograma:
– Misma media que la variable puntual
– Varianza menor (efecto de soporte)
– Forma de la distribución cambia (se
simetriza)
28-04-2019 12
Efecto de soporte en el histograma
1
var[ Z( V )] = C ( V, V ) =
| V |2
V V
C(u − u) du du
1
= () − (f V )]= ()(V − (u − u) du du
2
= ,
var[V
Z(V) = V
= 1−
, V)
2
var[ Z(u)] 2
u ()| V | V V
28-04-2019 13
Efecto de soporte en el histograma
• Ejemplo: variable muy pepítica
28-04-2019 14
Efecto de soporte en el histograma
• Ejemplo: variable poco pepítica
28-04-2019 15
Efecto de soporte en el histograma
• Existen distintos modelos para tratar de estimar el histograma regularizado a partir del
histograma puntual, de modo de poder evaluar los recursos recuperables sobre determinadas
leyes de corte al soporte de las unidades de selección mineras:
– Corrección afín
– Corrección lognormal directa
– Corrección lognormal indirecta
– Corrección Gaussiana discreta
28-04-2019 16
Corrección afín
• Este modelo mantiene la forma del histograma puntual, por ende no toma en cuenta la
simetrización que acompaña el cambio de soporte
28-04-2019 17
Corrección Lognormal Directa
28-04-2019 18
Corrección Lognormal Indirecta
28-04-2019 19
Ejemplo
• Dos modelos de distribución de leyes de bloques 25m × 25m, obtenidos a partir de la
distribución puntual por corrección afín y corrección lognormal
28-04-2019 20
Aspectos prácticos
• Determinar el histograma de las leyes puntuales (media, varianza, forma)
– Irregularidades de muestreo: desagrupamiento
– Cuidado con el modelamiento de los valores extremos
28-04-2019 21
Curvas de selectividad
• Las curvas de selectividad son herramientas alternativas al histograma para visualizar la
distribución de los valores de una variable. Entre ellas, las más importantes son:
– Tonelaje - ley de corte: indica la proporción de valores (fracción del tonelaje total) que
supera una ley de corte
– Ley promedio - ley de corte: indica la media de los valores que superan una ley de corte
– Ley promedio - tonelaje
– Cantidad de metal - ley de corte: la cantidad de metal se define como el producto de la ley
promedio por el tonelaje
– Cantidad de metal - tonelaje
28-04-2019 22
Curvas de selectividad
28-04-2019 23
Curvas de selectividad
28-04-2019 24
Curvas de selectividad
• Curvas ley promedio - tonelaje para distintos soportes. La jerarquía entre las
curvas indica la pérdida de selectividad al aumentar el soporte.
28-04-2019 25
Curvas de selectividad
• Curvas metal - tonelaje para distintos soportes. También se aprecia una jerarquía en
función del soporte.
28-04-2019 26
Curvas de selectividad
• Las curvas de selectividad cuantifican los recursos recuperables en un yacimiento (tonelaje,
cantidad de metal, etc.). Dependen de cuatro factores:
– El efecto de soporte: mientras más voluminoso el soporte, menos selectividad
– El efecto de información: algunos bloques de mineral son subestimados y enviados
equivocadamente a botadero; otros bloques estériles son sobreestimados y enviados a planta
– Las restricciones geométricas: algunos bloques de alta ley pueden ser abandonados si los
costos para alcanzarlos son demasiado altos
– La dilución operativa
28-04-2019 27
Efecto de información
28-04-2019 28
Efecto de información
28-04-2019 29
Estimación geoestadística
Introducción
• Dado que el muestreo es parcial y sólo nos indica lo que sucede en las posiciones de los datos, es
necesario estimar el valor de la ley en puntos sin muestra
• Además, estamos interesados en saber el valor de la ley de un bloque de dimensiones diferentes a
las de la muestra → cambio de soporte
• Definiremos estimadores con ciertas características:
– Lineal: el valor estimado es una combinación lineal de los datos disponibles (usualmente en
una vecindad del punto a estimar)
– Insesgado: en promedio, el estimador entrega el valor correcto, sin sesgo sistemático (pero
con cierta imprecisión)
– Óptimo: el estimador será tal que minimice la varianza del error de estimación (será por lo
tanto el más preciso).
28-04-2019 31
Estimadores lineales ponderados
• La idea básica es estimar el valor de una variable regionalizada (por ejemplo, la ley de cobre total) en
una posición u donde no conocemos el valor verdadero, planteando:
n
Z (u) = a + i Z (u i )
*
i=1
Donde Z*(u) es el valor estimado para la posición u, {Z(ui), i=1...n} son los valores de los datos en
las posiciones {ui, i=1...n}, a es un coeficiente aditivo y {i, i=1...n} son ponderadores.
28-04-2019 32
Estimadores lineales ponderados
28-04-2019 33
Vecino más cercano
28-04-2019 34
Inverso de la distancia
• Estimador del inverso de la distancia: atribuye a cada data una ponderación proporcional al
inverso de su distancia al sitio a estimar
• Existen variantes, donde se eleva la distancia a una cierta potencia:
1
c + d iw
a=0 i =
1
i=1 c + d w
n
Donde di es la distancia entre el dato i y la posición que se está estimando, c es una constante
pequeña, y w es un valor usualmente comprendido entre 1 y 3
28-04-2019 35
Inverso de la distancia
𝑤=1 𝑤=2
Inverso de la distancia Inverso del cuadrado de la distancia
𝑤 → ∞?
28-04-2019 36
Estimadores lineales ponderados
• Los estimadores anteriores son sencillos de aplicar, pero la asignación de la ponderación sólo
depende del criterio de cercanía.
• La idea del método de kriging es incorporar los otros criterios (redundancias entre datos,
continuidad espacial, anisotropía) mediante el uso del variograma.
28-04-2019 37
Ejemplo Simple - Datos
28-04-2019 38
Vecino más cercano
28-04-2019 39
Inverso de la distancia
28-04-2019 40
Estimadores lineales ponderados
• Kriging es el mejor estimador lineal insesgado (Best Linear Unbiased Estimator, BLUE)
28-04-2019 41
Estimadores lineales ponderados
28-04-2019 42
Kriging Simple
Hipótesis
() = 2
28-04-2019 43
Kriging
(h)
28-04-2019 44
Kriging Simple
Queremos construir el “mejor estimador lineal insesgado” para estimar el valor en un sitio u:
n
Z (u) = a + i Z (u i )
*
i=1
Para determinar el coeficiente a y los ponderadores {i, i=1...n}, se examina las condiciones de
insesgo y de varianza mínima.
28-04-2019 45
Kriging Simple
Condición de insesgo
i=1
n
= a + i m − m
i=1
n
→ Para que este valor esperado sea nulo, se debe plantear a = {1− i } m
i =1
28-04-2019 46
Kriging Simple
n n n
= i j C (u i − u j ) − 2 i C (u − u i ) + C (0)
i=1 j =1 i =1
28-04-2019 47
Kriging Simple
• Los ponderadores óptimos (que minimizan la varianza del error) pueden determinarse
tomando derivadas parciales con respecto a los ponderadores
[ ] n
= 2 j C (u i − u j ) − 2 C (u − u i ), i =1,...n
i j =1
e igualándola a cero:
n
j =1
j C (u i − u j ) = C (u − u i ), i =1,... n
28-04-2019 48
Kriging Simple
• En notación matricial:
mide las correlaciones (redundancias) entre datos mide las correlaciones entre datos y valor a estimar
28-04-2019 49
Kriging Simple
• El estimador se escribe:
n n
Z (u) = i Z (u i ) +{1− i } m
*
i=1 i=1
28-04-2019 50
Kriging Simple
Asimismo, es posible determinar el valor de la varianza del error (que se minimizó). Esta
varianza lleva el nombre de “varianza de kriging”, y se refiere a la varianza del error de la
estimación con kriging:
n
(u) = − i C (u i − u)
2
KS
2
i=1
28-04-2019 51
Kriging Simple: ejemplo
28-04-2019 52
Kriging Simple: ejemplo
• Kriging simple con un efecto pepita cero y un variograma esférico isótropo con tres alcances
diferentes
Distancia
28-04-2019 53
Kriging Simple: ejemplo
• Kriging simple con un variograma esférico isótropo con alcance 10 y tres diferentes efectos pepita
Distancia
28-04-2019 54
Kriging Simple: ejemplo
• Kriging simple con un variograma esférico con un efecto pepita del 25%, un alcance principal de
10 y alcances menores diferentes
Cambio de anisotropía
1 2 3
anisotropía 1:1 0.468 0.203 0.064
2:1 0.395 0.087 0.141
5:1 0.152 -0.055 0.232
20:1 0.000 0.000 0.239
28-04-2019 55
Kriging Ordinario
Hipótesis
28-04-2019 56
Kriging Ordinario
Condición de insesgo
i=1
n
= a + i m − m
i=1
→ Siendo m desconocida, para que este valor esperado sea nulo se debe plantear
n
a=0
i=1
i =1
28-04-2019 57
Kriging Ordinario
n n n
= i j cov{Z (u i ), Z (u j )} − 2 i cov{Z (u), Z (u i )} + C (0)
i=1 j =1 i =1
n n n
= i j C (u i − u j ) − 2 i C (u − u i ) + C (0)
i=1 j =1 i =1
28-04-2019 58
Kriging Ordinario
• Los ponderadores óptimos (que minimizan la varianza del error sujeto a que la suma de
los ponderadores sea igual a 1) pueden determinarse introduciendo un multiplicador de
Lagrange
n n n
n
var{Z (u) − Z (u)} = i j C (u i − u j ) − 2 i C (u − u i ) + C (0) + 2 i −1
*
y anulando las derivadas parciales con respecto a los ponderadores y con respecto al
multiplicador de Lagrange
28-04-2019 59
Kriging Ordinario
[ ] n
= 2 j C (u i − u j ) − 2 C (u − u i ) + 2 , i = 1,...n
i j =1
[ ] n
= 2 i −1
i=1
n
j C (u i − u j ) + = C (u − u i ), i = 1,... n
j =1
n
i=1
i =1
28-04-2019 60
Kriging Ordinario
• En notación matricial:
mide las correlaciones (redundancias) entre mide las correlaciones entre datos y
datos valor a estimar
28-04-2019 61
Kriging Ordinario
28-04-2019 62
Kriging Ordinario
El estimador se escribe: n
Z (u) = i Z (u i )
*
i =1
i=1
n
= i (u i − u) −
i=1
28-04-2019 63
Kriging de bloques
• El kriging (simple, ordinario…) puede ser extendido a la estimación directa del valor promedio
en un bloque:
1
Z(V) = Z(u)du
V V
• El sistema de kriging sólo difiere del sistema de kriging puntual en el miembro de la derecha:
hay que reemplazar la covarianza punto-punto C(ui – u) por la covarianza punto-bloque:
1 1 N
C (u i , V) =
V V C (ui ,u) du N
k =1
C (u i , x k )
28-04-2019 65
Observaciones
• Los ponderadores y la varianza de kriging toman en cuenta:
– aspectos geométricos: distancias entre el sitio a estimar y los datos; distancias
(redundancias) entre los datos mismos
– aspectos variográficos: continuidad espacial, anisotropía, mediante la covarianza o el
variograma
• No toman en cuenta
– información local: valores de los datos (→ en particular, son indiferentes a la presencia de un
efecto proporcional)
28-04-2019 66
Efecto de Distancia
• Caso base y efecto del aumento en la distancia sobre los ponderadores (h) = 0,2 + 0,8 Sph(100)
0,25 0,265
0,25
0,129
50 50
28-04-2019 67
Efecto de Distancia
• Efecto pantalla y de la anisotropía (Anis. Geom. 4 x 1) sobre los ponderadores (h) = 0,2 + 0,8 Sph(100)
2
2
K = 0,1668 K = 0,2248
0,247 0,074
50 0,233 0,233 50
50 0,426 0,426
0,174
0,080 0,074
0,033
50
50
28-04-2019 68
Efecto de Distancia
• Efecto de declusterización y distancia sobre los ponderadores (h) = 0,2 + 0,8 Sph(100)
2 2
K = 0,1668 K = 0,2107
0,215 0,3437
0,111 0,016
50 0,242 0,106 50 0,2674 0,013
0,111 0,016
0,215
0,3437
50 50 100 150
28-04-2019 69
Efecto de Distancia
• Efecto sobre los ponderadores de un cambio en el efecto pepita
2 2
K = 0,0827 K = 0,1206
0,208 0,1044
50 50
0,042 0,1456
50 50
(h) = 0,2 + 0,8 Sph(100) (h) = 0,7 + 0,3 Sph(100)
28-04-2019 70
Propiedades del Kriging
• Interpolación exacta: la estimación en un sitio con dato es igual al valor del dato y la varianza
de kriging en este sitio vale 0
• Aditividad: la estimación de la ley de un bloque es igual al promedio de las estimaciones de leyes
puntuales en este bloque
• Suavizamiento: la dispersión de los valores estimados es menor que la
dispersión de los valores verdaderos, sobre todo en las zonas donde hay pocos datos. En
consecuencia, se tiende a subestimar las zonas de altas leyes y sobreestimar las zonas de bajas
leyes. El kriging es inapropiado para evaluación de procesos donde los valores extremos son
importantes (→ simulaciones)
• Insesgo y precisión: por construcción
• Sesgo condicional: el error promedio puede no tener esperanza nula cuando se considera sólo
los sitios donde la ley estimada es alta (o baja). En general, el sesgo condicional es pequeño si se
usa suficientes datos (>15)
28-04-2019 71
Propiedades del Kriging
Ilustración del sesgo condicional
• Al tener sesgo condicional, se incurre en una mala apreciación del negocio. La ley media del
material mandado a planta (material cuya estimación supera una ley de corte) es inferior a la
ley media estimada de este material, mientras que la ley media del material mandado a
botadero es superior a la ley media estimada de este material.
28-04-2019 72
Propiedades del Kriging
Ilustración del suavizamiento
28-04-2019 73
Plan de Kriging
¿Cuáles son los datos a utilizar en la estimación?
28-04-2019 74
Plan de Kriging
28-04-2019 75
Validación del kriging
Se puede validar visualmente la estimación del modelo de bloques v/s las leyes de los sondajes.
28-04-2019 76
Validación del kriging
Para validar los parámetros del kriging (modelo de variograma, vecindad elegida), se puede usar los
siguientes métodos:
• Validación cruzada: se estima sucesivamente cada dato considerando solamente los datos
restantes
• Jack-knife: se divide la muestra inicial en dos partes (por ejemplo, cuando hay dos campañas de
sondajes), y se estima una parte a partir de la otra
Luego, se hace un estudio estadístico de los errores cometidos para saber si el kriging fue
“satisfactorio” (buena precisión, poco sesgo condicional…)
28-04-2019 77
Validación del kriging
Criterios de validación:
• Varianza de los errores: debe ser la más baja posible → estimador preciso
28-04-2019 78
Validación del kriging
Ejemplo: jack-knife entre dos campañas de sondaje de exploración, usando kriging ordinario. Se
busca poner a prueba distintas vecindades de kriging.
28-04-2019 79
Validación del kriging
28-04-2019 80
Validación del kriging
Nubes de correlación entre leyes reales y estimadas
28-04-2019 81