Documente Academic
Documente Profesional
Documente Cultură
Aplicación en la Caracterización
de Yacimientos
Ramón Giraldo H.
PhD Estadística
Universidad Nacional de Colombia
ENCUENTRE MÁS AQUI
https://ingenieriademinaswil.blogspot.com/
Contenido
Introducción
3
4. Predicción Espacial
5. Apéndice
7. Bibliografía.
4
Introducción
5
Capitulo Uno
Análisis Exploratorio de Datos Espaciales
Existen distintas categorías para las variables y se han propuesto numerosas clasificaciones
para expresar su variabilidad. Las dos más comunes son: 1) De doble estado o binarias,
que son aquellos que pueden tomar sólo dos valores, p.ej. los datos de presencia o ausencia
de un mineral. 2) De Multiestado, que son aquellas en que las medidas pueden tomar tres o
6
más valores, éstas pueden ser Cualitativas o Cuantitativas, y presentan diferentes escalas
de medida (Digby & Kempton, 1992).
1.2.1 Variables Cualitativas
1.2.2.2. Variables Continuas: Son aquellas en los que existe potencialmente un número
infinito de valores entre dos puntos de la escala. Pueden ser datos enteros o fraccionarios,
p. ej. Características físicas o químicas.
1.2.2.3. Variables Derivadas: Son aquellas en que los datos son generados a partir de
cálculos simples entre medidas de variables cuantitativas o cualitativas, p. ej. índices, tasas,
proporciones, etc.
Las variables continuas tienen dos posibles escalas de medida, estas son :
a) Escala de Intervalo: Es una escala ordinal en donde las distancias tienen un sentido
físico igual a todo lo largo de la escala, pero el punto de valor cero es fijado
arbitrariamente, p. ej. el tiempo (el tiempo inicial (t0) puede ser cualquier momento), la
altitud (cero se refiere al nivel del mar) y la temperatura en grados Celsius en la que por
ejemplo el valor de cero grados no indica ausencia de calor o de agitación de moléculas y
por consiguiente no es posible afirmar que un cuerpo de 20 grados tiene el doble de calor
que uno de 10.
b) Escala de Razón: Es una escala de intervalo en la que no hay que fijar un cero
arbitrario, entonces el resultado de dividir o multiplicar un valor de la escala por otro tiene
un sentido físico, p. ej. Las variables químicas.
7
1.3.Medidas Descriptivas.
Estas medidas indican alrededor de que valor se agrupan los datos, generando valores
representativos de las observaciones (tabla 1).
a) Media: Es el promedio aritmético de las observaciones y una medida representativa
cuando no hay valores muy extremos en los datos, porque en esos casos es afectada por
ellos, corriéndose hacia un lado de la distribución.
b) Mediana: Se define como el valor de la variable que supera el 50 % de las
observaciones y es superado por el restante 50 %. Esta medida tiene en cuenta sólo el
orden de los datos más no su magnitud, por esto no se deja afectar por los valores
atípicos (extremos) y puede ser más representativa que la media en muchos casos.
c) Cuantilas: Particionan en intervalos de igual amplitud la distribución. Particularmente
los cuartiles (Qi , i=1,2,3) son de gran utilidad, como se verá más adelante, en la
detección de observaciones atípicas
Media n
xi
i 1
x
n
Mediana Estadísticas de orden:
x( 0) x(1) x( 2 ) ... x( n)
Si n impar ~
x x( n 1 ) / 2
~ xn / 2 x( n / 2 1 )
Si n par x
2
8
1.3.2. Medidas de Variabilidad
Indican cuanto se alejan o dispersan los datos con respecto a las medidas de localización o
el grado de homogeneidad de los mismos (tabla 2).
a) Varianza: Es una medida de la dispersión en la distribución de probabilidad de una
variable aleatoria, expresada en unidades cuadradas.
b) Desviación Estándar: Indica en promedio cuánto se alejan las observaciones de la
media aritmética; está dada en las mismas unidades de la variable, a diferencia de la
varianza.
c) Coeficiente de Variación (C.V.): Es una medida relativa de variabilidad y, en
general, se acepta que un conjunto de datos es relativamente homogéneo si el C.V. es
menor del 30%, aunque algunos autores refutan este concepto.
d) Rango y Rango Intercuartílico: Representan el recorrido de la variable y la distancia
entre los cuartíles, respectivamente. Son útiles cuando se comparan dos o más
distribuciones.
Varianza n
xi X
2
i 1
S2
n1
Desviación Estándar
S S2
Error Estándar
S2
E .E
n
Coeficiente de Variación S
~x
Rango Xmáx - Xmin
9
a). Histogramas
10
Para datos con tres dígitos el tallo estará formado por los dígitos de las decenas y
centenas, que se escribirán a la izquierda, separados de las unidades. Por ejemplo, 127
será 127.
Cada tallo define una clase y sólo se escribe una vez. El número de hojas representa la
frecuencia de dicha clase (Figura a) de abajo). En algunas ocasiones, hay muchas
observaciones en cada fila y conviene abrir cada tallo en dos, y en algunas otras es
posible abrir cada fila en 5 clases (Figura b) de abajo). Las observaciones afuera y muy
afuera del diagrama de caja son indicadas en el diagrama de caja con las expresiones
bajo y alto (ver figura 4, sección 1.6).
a) 11 34 b) 11* 0011223333444
12 24577 11º 55567777788888999
13 345 12* 1112333344
14 27 12º 55567789
15 2 13* 00123
16 1 13º 6678
14* 22
Una clasificación de los datos en intervalos de clase, definidos por símbolos, dentro del
área de estudio, es útil en la identificación de posibles tendencias en los valores de la
variable, de zonas con mayor o menor magnitud o de observaciones extremas (ver figura 5
en la sección 1.6)
El coeficiente de correlación mide el grado de asociación lineal que existe entre dos
variables X y Y. Se calcula mediante:
n
COV ( X ,Y )
( xi x )( yi y )
i 1
r
Sx S y n n
( xi x )2 ( yi y )2
i 1 i 1
11
El coeficiente de correlación es un número en el intervalo [-1, 1]. Un valor de r = -1
indica una relación lineal negativa perfecta entre X y Y , mientras que una valor de r = 1
señalará una asociación positiva perfecta de X y Y. Si r = 0, entonces se concluirá que no
existe ninguna relación lineal entre X y Y.
b) Gráficos de Dispersión.
Son muy útiles tanto para la detección de relaciones entre las variables como para la
identificación de tendencias en el valor promedio de la variable en la región (relación entre
la variable medida y las coordenadas geográficas). Un supuesto fundamental en el análisis
geoestadístico es que el fenómeno sea estacionario, para lo cual, entre otros aspectos, el
nivel promedio de la variable de estudio debe ser constante en todos los puntos del área de
estudio. Una detección de tendencia en el gráfico de dispersión puede ser una muestra de
que no se satisface dicho supuesto. El gráfico se construye tomando como eje de las abcisas
la variable que representa la coordenada geográfica (latitud o longitud) y en el eje de las
ordenadas la variable cuantitativa de estudio. La observación de la nube de puntos
resultante o incluso el ajuste de una línea de regresión (Fox, 1984), permiten establecer si
existe dicha tendencia.
12
Capitulo Dos
Definiciones Básicas de Geoestadística
13
son apropiadamente determinados por la estructura espacial de correlación establecida en la
primera etapa y por la configuración de muestreo (Petitgas, 1996).
Los fundamentos básicos de estas etapas son presentados a continuación. Se realiza
también una revisión del caso en que se miden simultáneamente varias variables en cada
sitio de muestreo y se desea hacer predicción de una de ellas con base en información de las
otras. En este caso la técnica de predicción es conocida como cokriging (capitulo 4).
Algunos temas especiales como el diseño de una red de muestreo óptima, en términos de
varianza de predicción y costos, y el análisis de componentes principales regionalizado
también serán estudiados (capitulo 5).
Una variable distribuida en el espacio de forma que presente una estructura de correlación,
se dice que es una variable regionalizada. De manera más formal se puede definir como un
proceso estocástico con dominio contenido en un espacio euclidiano m-dimensional Rm,
{Z(x) : x D Rm }. Si m = 2, Z(x) puede asociarse a una variable medida en un punto x
del plano (Díaz-Francés, 1993). En términos prácticos Z(x) puede verse como una medición
de una variable aleatoria (por ejemplo concentración de un contaminante) en un punto x de
una región de estudio.
Recuérdese que un proceso estocástico es una colección de variables aleatorias indexadas;
esto es, para cada x en el conjunto de índices D, Z(x) es una variable aleatoria. En el caso
de que las mediciones sean hechas en una superficie (sólo se tengan longitud y latitud como
coordenadas), entonces Z(x) puede interpretarse como la variable aleatoria asociada a ese
punto del plano (x representa las coordenadas, planas o geográficas, y Z la medición de la
variable en cada una de ellas). Estas variables aleatorias pueden representar la magnitud de
una variable ambiental medida en un conjunto de coordenadas de la región de estudio.
2.3. Estacionariedad
El valor esperado de la variable aleatoria es finito y es una constante para todo punto
en el dominio (el valor promedio es igual en todo punto de la región).
Z (x) tiene covarianza finita y es una función única del vector de separación h entre
cada pareja de puntos.
14
Obviando la dirección de variación, el supuesto de estacionariedad en la media puede ser
estudiado a través de un gráfico del promedio en función de la distancia (Fig. 5).
19
Valor Promedio.
18
17
16
0 10000 20000 30000
Distancia (m)
La figura anterior fue elaborada con base en simulación. Se generaron datos de una variable
hipotética con valores uniformemente distribuidos entre 16 y 19. Luego estos fueron
asignados aleatoriamente a las coordenadas dadas en la matriz del anexo. En el proceso de
elaboración de la figura se tomaron vecindades, se calculó la media y la distancia
euclidiana promedio entre las correspondientes coordenadas dentro de la vecindad. El
gráfico corresponde a la nube de puntos de las dos variables. Se puede establecer que el
valor promedio está fluctuando alrededor de un valor entre 17 y 18 y que por consiguiente
la media no tiene ninguna tendencia de cambio en función de la distancia existente entre los
puntos de muestreo.
Generalmente se trabaja sólo con la hipótesis que pide que los incrementos [Z(x+h)- Z(x)]
sean estacionarios, esto es (Clark, 1979):
a. Z(x) tiene esperanza finita para todo punto en el dominio. Lo que implica que la
esperanza de los incrementos es cero.
E [ Z(x+h) - Z(x)] = 0
b. Para cualquier vector h, la varianza del incremento está definida y es una función única
de la distancia.
V [ Z(x+h) - Z(x)] = 2 (h)
15
El concepto de estacionariedad es muy útil en la modelación de series temporales (Box &
Jenkins, 1976). En este contexto es más fácil la identificación, puesto que sólo hay una
dirección de variación (el tiempo). En el campo espacial existen múltiples direcciones y por
lo tanto se debe asumir que en todas el fenómeno es estacionario. Cuando el nivel promedio
de la variable no es el mismo en todas las direcciones o cuando la covarianza o correlación
dependan del sentido en que se determinan, no habrá estacionariedad. Si la correlación
entre los datos no depende de la dirección en la que esta se calcule se dice que el fenómeno
es isotrópico, en caso contrario se hablará de anisotropía. En Journel & Huijbregts
(1978), se trata el caso de la anisotropía y se proponen algunas soluciones. Cressie (1986)
discute cual debe ser el tratamiento en caso de que la media no sea constante.
16
Capitulo Tres
Dependencia o Correlación Espacial
Z( x h) Z( x)
2
( h)
2 n ( h)
donde Z (x) es el valor de la variable en un sitio x, Z (x+h) es otro valor muestral separado
del anterior por una distancia h y n(h) es el número de parejas que se encuentran separadas
por dicha distancia.
17
3.1.2. Covariograma y Correlograma.
18
44 40 42 40 39 37 36
42 43 42 39 39 41 40 38
37 37 37 35 38 37 37 33 34
35 38 35 37 36 36 35 200
36 35 36 35 34 33 32 29 28
38 37 35 30 29 30 32
100
En primer lugar en sentido izquierda-derecha se encuentran todas las parejas de puntos que
están a una distancia de 100 unidades. Una vez detectados estos puntos se aplica la fórmula
del semivariograma experimental. De igual forma se procede para las distancias de 200,
300, 400 y 500 unidades. Específicamente en el caso de las distancias de 100 y 200
unidades se realiza la siguiente operación:
(100) = (38 - 37)2 + (37 - 35)2 + (29 - 30)2 + ... + (37 - 36)2 /2* 36 = 1.458
(200) = (40 - 44)2 + (40 - 40)2 + (42 - 39)2 + ... + (29 - 32)2 /2* 36 = 3.303
Similarmente procedemos para las otras distancias y para el sentido inferior-superior. Los
resultados se muestran en la siguiente tabla.
Tabla 5. Valores de la función de semivarianza experimental en dos direcciones para el
conjunto de datos hipotéticos de la configuración de datos dada arriba.
Distancia Semivarianza Sentido Este - Oeste Semivarianza Sentido Norte - Sur
100 1.45 5.34
200 3.30 9.87
300 4.31 18.88
400 6.69 27.53
19
Semivariogramas Experimentales
30
25
Semivarianza
20
15
10
5
Norte-Sur
0
Este-Oeste
100 200 300 400
Distancia
Es la cota superior del semivariograma. También puede definirse como el limite del
semivariograma cuando la distancia h tiende a infinito. La meseta puede ser o no finita. Los
semivariogramas que tienen meseta finita cumplen con la hipótesis de estacionariedad
fuerte; mientras que cuando ocurre lo contrario, el semivariograma define un fenómeno
natural que cumple sólo con la hipótesis intrínseca. La meseta se denota por C1 o por (C0 +
C1) cuando la pepita es diferente de cero. Si se interpreta la pepita como un error en las
mediciones, esto explica porque se sugiere que en un modelo que explique bien la realidad,
la pepita no debe representar mas del 50% de la meseta. Si el ruido espacial en las
20
mediciones explica en mayor proporción la variabilidad que la correlación del fenómeno,
las predicciones que se obtengan pueden ser muy imprecisas.
Rango
Tiene un crecimiento rápido cerca al origen (Fig. 9), pero los incrementos marginales van
decreciendo para distancias grandes, hasta que para distancias superiores al rango los
incrementos son nulos. Su expresión matemática es la siguiente:
3 h 1 h 3
C ha
( h) 1 2 a 2 a
C1 ha
21
30
25
Semivariograma
20
Esférico
15 Exponencial
Gaussiano
10
0
0 50 100 150 200 250 300
Distancia(h)
Corresponden a los modelos que no alcanzan la meseta (Fig. 10). Su uso puede ser delicado
debido a que en algunos casos indican la presencia de no estacionariedad en alguna
dirección. Su fórmula matemática es la siguiente:
( h) kh 02
Obviamente cuando el parámetro es igual a uno el modelo es lineal y k representa la
pendiente de la ecuación de regresión con intercepto cero. Gráficamente se pueden
representar así:
(h) 1< <2
=1
0< < 1
h
Figura 10. Comportamiento típico de los modelos de semivarianza monómicos.
22
3.2.5. Modelo Pepita Puro.
(h)
C0
Figura 11. Modelo de semivarianza teórico para variables sin correlación espacial.
23
Capitulo Cuatro
Predicción Espacial
expresión anterior indica que para encontrar el predictor óptimo se requiere conocer la
distribución conjunta de la n+1 variables aleatorias.
La palabra kriging procede del nombre del geólogo sudafricano D. G. Krige, cuyos trabajos
en la predicción de reservas de oro, realizados en la década del cincuenta, suelen
considerarse como pioneros en los métodos de interpolación espacial. El kriging es un
conjunto de métodos de predicción espacial que se fundamentan en la minimización del
error cuadrático medio de predicción. En la tabla 6 se mencionan los tipos de kriging y
algunas de sus propiedades. En la secciones 4.3 y 4.4, se hace una presentación detallada
de ellos.
1
La palabra estimación es utilizada exclusivamente para inferir sobre parámetros fijos pero desconocidos;
predicción es reservada para inferencia sobre cantidades aleatorias.
24
Los métodos kriging se aplican con frecuencia con el propósito de predicción, sin embargo
estas metodologías tienen diversas aplicaciones, dentro de las cuales se destacan la
simulación y el diseño de redes óptimas de muestreo (capitulo 5).
4.3. Kriging Ordinario
Suponga que se hacen mediciones de la variable de interés Z en los puntos xi de la región
de estudio, es decir se tienen las observaciones Z(x1), . . . , Z(xn), y se desea predecir Z(xo),
en el punto xo donde no hubo medición. Lo anterior puede representado en el siguiente
esquema:
Y
Z(x1) Z(x2) Z(x3)
Z(x4) * Z(x0) Z(x5)
Z(xj) Z(xi) Z(xn)
X
Los puntos negros representan las coordenadas de la región donde se hizo medición de la
variable de interés. El asterisco indica la ubicación del punto donde se requiere predecir la
variable. Asociado a cada punto hay una correspondiente coordenada X, Y. En esta
circunstancia, el método kriging ordinario propone que el valor de la variable puede
predecirse como una combinación lineal de los valores medidos así:
Asumiendo que el proceso es estacionario de media k y utilizando las propiedades del valor
esperado, se demuestra que la suma de las ponderaciones es igual a uno:
E [ Z * ( x0 )Z ( x0 )] 0
E [ Z * ( x0 )Z ( x0 )] E [ Z * ( x0 )] E [ Z ( x0 )]
25
n
E [ i Z ( xi )] k 0
i 1
1 E( Z ( x1 ) 2 E( Z ( x 2 ) ... n E( Z ( x n ) k
k k k
Se dice que Z*(x0) es el mejor predictor porque los pesos se obtienen de tal manera que
minimicen la varianza del error de predicción, es decir que minimicen la expresión:
VAR [ Z* ( x0 )Z ( x0 )]
Esta última es la característica distintiva del kriging , ya que existen otros métodos de
interpolación como el de distancias inversas o el poligonal que no garantizan varianza
mínima de predicción (Samper & Carrera, 1990). La estimación de los pesos se obtiene
n
minimizando V [Z* (x0 )Z(x0 )] sujeto a i 1 .
i 1
n n n
V [ Z * ( x0 )] V i Z ( xi ) i j COV [ Z ( xi ),Z ( x j )]
i 1 i 1 j 1
V [ Z ( x0 )] 2
n
COV [ Z * ( x0 ),Z ( x0 )] COV i Z ( xi ),Z ( x0 )
i 1
n n
iCOV [ Z ( xi ), Z ( x0 )] iCi0
i 1 i 1
n n n
V [ Z * ( x0 ) Z ( x0 )] i j Cij 2 iCi0 2
i 1 j 1 i 1
n
Luego se debe minimizar la función anterior sujeta a la restricción i 1 . Este problema
i 1
de minimización con restricciones se resuelve mediante el método de multiplicadores de
Lagrange:
26
n n n n
k2 i jCij 2 iCi0 2
2 i 1
i 1 j 1 i 1 Multiplicadori 1
deLagrange
0
n n n n n
( 12C11 21 j C1 j i j Cij ) 2 i Ci0 2 2 i 1
( k2 ) j 2 i 2 j 1 i 1 i 1
1 1
n
21C11 2 j C1 j 2C10 2
j 2
n n
2 j C1 j 2C10 2 0 j C1 j C10 ( 1 )
j 1 j 1
( k2 ) n n
2 j C 2 j 2C 20 2 0 j C 2 j C 20 ( 2 )
2 j 1 j 1
.
.
.
( k2 ) n n
2 j C nj 2Cn0 2 0 j Cnj Cn0 ( 3 )
n j 1 j 1
( k2 ) n n
2 i 20 1 1( 4 )
i 1 i 1
De (1), (2), (3), (4) resulta un sistema de (n + 1) ecuaciones con (n + 1) incógnitas, que
matricialmente puede ser escrito como:
C11 . . . C 1n 1 1 C10
. . . . . .
. . . . . .
. . . . . .
C n1 . . . C nn 1 n C n0
1 0 1
. . . 1
Cij Ci0
por lo cual los pesos que minimizan el error de predicción se determinan mediante la
función de covariograma a través de:
27
= Cij -1 Ci0.
Encontrando los pesos se calcula la predicción en el punto xo. De forma análoga se procede
para cada punto donde se quiera hacer predicción.
Los pesos también pueden ser estimados utilizando la función de semivarianza,
expresando la función de covariograma en términos de la función de semivarianza,
mediante la siguiente relación:
Notación: ij = (h), donde h es la distancia entre los puntos i y j, análogamente
Cij = C(h) , además 2 = V(Z(x)).
1
ij E ( Z ( x j )Z ( xi ))2
2
1
E ( Z ( x j )) 2 2( Z ( x j )Z ( xi )( Z ( xi )) 2
2
1
1
E ( Z ( x j )2 E Z ( x j )Z ( xi ) E ( Z ( xi ))2
2 2
1
2
1
E [( Z ( x j ))2 ] k 2 E [( Z ( xi ))2 ] k 2 E Z ( x j )Z ( xi ) k 2
2
1
2 2
V ( Z ( x )) 1 V ( Z ( x ))COV Z ( x j )Z ( xi )
V Z ( x )COV Z ( x j )Z ( xi )
2 Cij Cij 2 ij (5)
Reemplazando (5) en (1) ,(2) y (3) se determinan los pesos óptimos en términos de la
función de semivarianza:
( k2 ) n n
j C1 j C10 j ( 2 1 j ) ( 2 10 )
1 j 1 j 1
1 n
2 j j 1 j 2 10
j 1 j 1
n n
2 j 1 j 2 10 j 1 j 10
j 1 j 1
Similarmente,
( k2 ) n
j 2 j 20
2 j 1
( k2 ) n
j nj n0
n j 1
28
El sistema de ecuaciones se completa con (4). De acuerdo con lo anterior los pesos se
obtienen en términos del semivariograma a través del sistema de ecuaciones:
.
11 . . . 1n 1 1 10
. . . . . .
. . . . . .
. . . . . .
. . . nn 1
n1 n n0
1 . . . 1 0 1
Los pesos de kriging también pueden ser estimados mediante el uso del correlograma
Cij
aplicando la siguiente relación: ij .
2
La varianza de predicción en cada punto es calculada por (Cressie, 1993):
n
2o i io
i 1
en donde io , y (i) son interpretados de igual forma a como fueron descritos
anteriormente.
4.3.1. Validación del kriging.
Existen diferentes métodos para evaluar la bondad de ajuste del modelo de semivariograma
elegido con respecto a los datos muestrales. El más empleado es el de validación cruzada,
que consiste en excluir la observación de uno de los n puntos muestrales y con los n-1
valores restantes y el modelo de semivariograma escogido, predecir vía kriging el valor de
la variable en estudio en la ubicación del punto que se excluyó. Se piensa que si el modelo
de semivarianza elegido describe bien la estructura de autocorrelación espacial, entonces la
diferencia entre el valor observado y el valor predicho debe ser pequeña. Este
procedimiento se realiza en forma secuencial con cada uno de los puntos muestrales y así se
obtiene un conjunto de n “errores de predicción” . Lo usual es calcular medidas que
involucren a estos errores de predicción para diferentes modelos de semivarianza y
seleccionar aquel que optimice algún criterio como por ejemplo el del mínimo error
cuadrático medio (MECM). Este procedimiento es similar al método Jacknife, una técnica
de re-muestreo, empleado en diversos contextos estadísticos para estimar varianzas de
estimadores, entre otros aspectos. Una forma fácil de hacer la validación cruzada es
mediante un gráfico de dispersión de los valores observados contra los valores predichos.
En la medida en que la nube de puntos se ajuste más a una línea recta que pase por el
origen, mejor será el modelo de semivariograma utilizado para realizar el kriging.
29
4.3.2. Representación de las predicciones
Una vez se ha hecho la predicción en un conjunto de puntos diferentes de los muestrales vía
kriging, se debe elaborar un mapa que dé una representación de global del comportamiento
de la variable de interés en la zona estudiada. Los más empleados son los mapas de
contornos, los mapas de residuos y los gráficos tridimensionales. En el caso de los mapas
de contornos, en primer lugar se divide el área de estudio en un enmallado y se hace la
predicción en cada uno de los nodos de éste mismo. Posteriormente interpolando se unen
los valores predichos con igual valor, generando así las líneas de contorno (isolíneas de
distribución).
Kriging Simple
n
Z i ( Z i )
*
0
i 1
Kriging Universal
Z ( si ) m( si ) R( si )
n
Z 0* m( s0 ) R0* , R0* i Ri
i 1
* *
donde Z 0 es la predicción en el sitio de interés y m( s0 ) y R0 corresponden a la
tendencia ajustada y la predicción del residual, llevada a cabo a través de kriging ordinario,
en este mismo.
30
Kriging Indicador
Suponga que se tiene un proceso estocástico espacial Zi.. Con base en los valores
observados se construye la siguiente variable indicadora:
1 Si Z i z
Ii
0 Otro caso
entonces:
n
E I 0 / I PI 0 1 / I I 0* i I i , donde I I 1 , I 2 , , I n .
i 1
El kriging indicador consiste en hacer una transformación de los valores observados a una
variable indicadora (utilizando por ejemplo la mediana o los cuartiles) y posteriormente
aplicar kriging ordinario o simple para predecir en sitios de la región de estudio no
muestreados probabilidades de que la función indicadora tome el valor 1. Este
procedimiento también es válido para procesos estocásticos en los que la variable estudiada
en cada sitio es de tipo doble estado (por ejemplo cuando se mide presencia -ausencia de
una especie).
Kriging Probabilístico
Es un predictor basado en cokriging (sección 4.5) que utiliza como variables predictoras
una variable indicadora y una variable generada a través de la transformación uniforme.
1 Si Z i z
Ii
0 Otro caso
R( Z i )
Ui para todo i, i = 1,2,. . . , n
n
con R( Z i ) igual al rango (posición que ocupa dentro de los datos ordenados de menor a
mayor) la i-ésima observación muestral. La predicción de probabilidad de éxito en el sitios
de interés está dada por:
n n
I i I i v iU i
*
0
i 1 i 1
31
Kriging Log-Normal y Multi-Gaussiano
Estos dos procedimientos asumen que las variable regionalizada considerada sigue
distribución normal en cada punto del dominio. El primero de estos consiste en aplicar
kriging simple u ordinario a la transformación logarítmica de los datos. En el segundo se
asume que el proceso estocástico sigue distribución normal con igual media y varianza y a
cada valor observado le asigna su "score" normal (probabilidad acumulada, hasta el
correspondiente valor, bajo el supuesto de normalidad). Posteriormente se realiza kriging
simple u ordinario para hacer predicción en sitios no muestreados de las correspondientes
probabilidades acumuladas. Estos dos métodos, aunque fáciles de implementar, no son muy
realistas porque están sumiendo conocida la distribución de probabilidad y los parámetros
de la misma.
Kriging Disyuntivo
n
Z 0* f i ( Z i ) .
i 1
Si se tienen dos variables regionalizadas Zv1 y Zv2 tomadas en cada uno de los puntos. El
semivariograma cruzado de estas dos, se estima por:
n
1 h (6)
v v ( h)
1 2 2n h
Zv1 (x h) Zv1 (x) Zv2 (x h) Zv2 (x)
Donde nh es el número de parejas de datos que se encuentran a una distancia h (Bogaert et
al., 1995).
32
v ( h )
1 0 0( h )... m m ( h )
v ( h )
2 0 0( h )... m m ( h )
(7)
v v ( h )
1 2 0 0( h )... m m ( h )
donde:
v1 y v2 son los semivariogramas simples, v1v2 es el semivariograma cruzado. 0(h), 1(h), .
. ., m(h) son los modelos básicos de semivariograma y , y son constantes.
Matricialmente:
v ( h ) v1v2 ( h ) m
( h ) 1
12v v ( h ) v2
( h )
B ( h ) , donde
s 0
s s
s s ( h ) 0
Bs s s ( h )
s
(8)
s 0 s ( h )
A (h) se le conoce como matriz de corregionalización. Esta puede ser también calculada
con base en covarianzas cruzadas y correlaciones cruzadas, para lo cual se aplican las
formulas dadas en la sección 3.1.2.
4.5.2. Cokriging
n1 n2
Ẑ v*1 ( xo )
i 1
b Z
ai Z v1 ( xi )
j 1
j v2 ( xj ) (9)
33
insesgado. La estimación de los parámetros se obtiene resolviendo el siguiente sistema de
ecuaciones (Isaaks & Srivastava, 1989):
La matriz del lado izquierdo contiene los valores de las funciones de semivarianza y de
semivarianza cruzada calculadas para todas las distancias entre las parejas de puntos
consideradas. Las dos ultimas filas de dicha matriz son las correspondientes a la restricción
de insesgamiento del predictor. ai y bj con i = 1, 2, ..., n y j = 1, 2, ...., m, son los
parámetros a estimar, 1 y 2 son los multiplicadores de Lagrange empleados para la
restricción de insesgamiento y el vector del lado derecho contiene los valores de la
funciones de semivarianza y semivarianza cruzada evaluados para las distancia entre los
sitios de muestreo (de ambas variables) y el sitio donde se desea hacer la predicción. Las
dos últimas filas del vector están asociadas a la condición de insesgamiento. La
correspondiente varianza de predicción del método cokriging se calcula como (Bogaert et
al, 1995):
k2 CovZ v1 x0 , Z v1 x0 1 ai CovZ v1 xi , Z v1 x0 b j CovZ v 2 x j , Z v 2 x0
n m
(11)
i 1 j 1
34
Apéndice
35
Si k es un número, es cierto que k x k-1 = 1. De forma similar si A es una matriz cuadrada
(número de filas igual al número de columnas) su inversa es A-1, donde AA-1 = A1A = I,
con I igual a la matriz idéntica (matriz de unos en la diagonal y cero por fuera de ella). Un
ejemplo de matriz inversa es:
1
2 1 2 / 3 1 / 3
1 2 1 / 3 2 / 3
la inversa de una matriz 2x2, si existe, puede determinarse fácilmente por medio del
siguiente cálculo:
1 a 22 a12
a11 a12
a 21 a 22 a 21 a11
6 3 1 0
A I 0 0
3 4 0 1
36
6 3 0
0
3 4 0
(6 ) 3
0
3 (4 )
(6 )(4 ) 9 0
2 10 15 0
b b 2 4ac
2a
Para cada valor propio existe un vector propio, el cual se obtiene reemplazando el valor
propio correspondiente en la primera expresión de la página anterior y usando la condición
de que los respectivos vectores propios estén normalizados.
x1
Un vector x se dice que está normalizado si satisface que x12 x 22 1 .
x2
Teniendo en cuenta lo anterior se calculan los vectores propios de la siguiente forma:
(A - I)x = 0
(6 ) 3 x1 0
3 (4 ) x 2 0
(6 ) x1 3x 2 0
3x1 (4 ) x 2 0
(1 ) x 2
x1
(3 )
37
x1 = 1.3847x2 y x1 = -0.7207x2 . Ahora utilizando la restricción de que los vectores
estén normalizados se obtiene:
x12 13847
.
2 1 x12
x12 (13847
. ) 2 x12 (13847
. )2
x12 1 13847
.
2 (13847
. )2
(13847
. )2 13847
.
x12 x1 0.8107
1 13847
. 2
1 13847
. 2
x1 0.8107
Reemplazando el valor de x1, obtenemos que x 2 0.5855 .
13847
. 13847
.
x1 0.8107
Luego el vector propio asociado al valor propio = 8.1623 es
x 2 0.5855
Efectuando un procedimiento similar se puede comprobar que el vector propio asociado al
x1 0.5847
valor propio = 1.8377 es
x 2 0.8113
Sea Xnxp una matriz real, existen V y U ortogonales (VTV = I y UT U=1) y una matriz D
diagonal tal que:
X VDU T
donde :
1 0
i. D , 1 2 q
0 q
38
ii. Las columnas de V son los vectores propios de XTX y las filas de U son los vectores
propios de XTX.
V XUD 1
Si X es una función que le asigna a cada uno de los resultados de un experimento aleatorio
(aquel cuya respuesta no puede ser establecida de antemano) un número real, entonces X se
llama una Variable Aleatoria. Estas pueden ser discretas o continuas.
i. f x 0 x RX
ii. f x 1 .
x
i. f x 0 , x
ii. f x dx 1
iii. Pa X b a f x dx para cualquier a y b, entonces f(x) es la función de densidad de
b
39
6.2.2.1. Valor Esperado y Varianza
g x f x X discreta
E g X x
g x f x dx X continua
xf x X discreta
E X x
xf x dx X continua
x 2 f x X discreta
V ( X ) 2 E X 2 x
x 2 f x dx X continua
Se cumple que:
Modelo Binomial
Suponga que hay un experimento que consiste en examinar n individuos y evaluar o medir
en cada uno de ellos si tienen o no una característica dada (sólo hay dos posibles
resultados).Sea p la probabilidad de ¨éxito¨ y q = 1-p la de ¨fracaso¨ en cada uno de los n
ensayos. Se asume que esta probabilidad es constante en cada uno de ellos.
40
Sea X= Número de éxitos en los n ensayos, entonces asumiendo conocido p entonces es
posible establecer las probabilidades de ocurrencia de cada evento mediante la siguiente
ecuación, denominada modelo de probabilidad binomial:
n
P( X x) p x (1 p) n x x 0, 1, 2, . . ., n
x
En este modelo:
E ( X ) np
2 V ( X ) np(1 p)
Modelo Normal
Obviamente resultaría muy dispendioso tener que calcular estas integrales para cada valor
de a, b, y . Por esta razón se acude a un procedimiento llamado estandarización, el cuál
consiste en hacer la transformación Z X . La variable anterior tendrá (si la distribución
de frecuencias de X se ajusta a un modelo de probabilidad normal con media y varianza
2) una distribución de frecuencias que se ajusta a un modelo de probabilidad normal con
media cero y varianza uno, es decir que:
z 1
a b
2
1 2z
2
P( a X b ) Z z1 Z z2 e
z 1 2
La ecuación anterior también puede resultar difícil de evaluar, sin embargo para cualquier
valor de a, b, y las correspondientes probabilidades pueden hallarse, sin necesidad de
resolver la integral, empleando la tabla de distribución acumulada normal estándar que
aparece en los textos de estadística.
i. f x, y 0, x, y RX , RY
ii. f x , y 1
x y
41
Si existe una función f x , y tal que la probabilidad conjunta:
f x f x , y
y
si X y Y son variables aleatorias discretas
f y f x , y
x
ó por
f x f x , y dy
si X y Y son variables aleatorias continuas
f y f x , ydx
f x , y
f x / y , donde f y es la función de probabilidad marginal de Y de manera tal que
f y
f y 0 .
42
f x , y
f y / x , donde f x es la función de probabilidad marginal de X de manera tal que
f x
f x 0 .
f x , y f x f y
g x , y f x , y si X y Y son discretas
E g X ,Y x y
g x , y f x , y dydx si X y Y son continuas
Si X y Y son dos variables aleatorias con densidad conjunta, entonces se cumple que:
1. E X Y E X EY
43
2. V X Y V X V Y 2CovX ,Y
ai a j CovX i , X j .
n n n
3. V ai X i
i 1 i 1 j 1
3. Si E X EY , entonces
1
2
1
2
E X Y 2 V X V Y Cov X ,Y .
1
2
6.3. Algunos Métodos Estadísticos.
6.3.1. Regresión Simple
En el modelo de regresión simple se establece una relación lineal entre la esperanza
condicional de una variable aleatoria Y dados unos valores fijos de una variable X.
Modelo Poblacional
Yi 0 1 xi i
EY / X i Ŷi 0 1 xi
1. E i 0
2. V i
2
3. Cov i , j 0
4. i N 0 , 2
Modelo Muestral
yi ˆ 0 ˆ 1 xi ei
yi ŷi ei
44
yi : i-ésimo valor de la variable respuesta en la muestra,
xi : i-ésimo valor de la variable predictora,
ŷi : Estimación del promedio de Y dado el i-ésimo valor de X en la muestra,
Estimación de 0 y 1
i2 Yi Ŷi
n n n
Yi 0 1 xi 2 . Derivando e igualando a cero se obtiene:
2
i 1 i 1 i 1
n n
i2 n
i2 n
i 1
2 Yi 0 1 x i = 0 y i 1
2 X i Yi 0 1 x i = 0.
0 i 1 1 i 1
n n
Yi n 0 1 xi
i 1 i 1
n n n
xi Yi 0 xi 1 xi2
i 1 i 1 i 1
Las dos ecuaciones anteriores se conocen como ecuaciones normales. Dadas las
realizaciones y1 , y 2 , , y n las ecuaciones pueden resolverse para encontrar los estimados de
los parámetros:
n n
yi nˆ 0 ˆ 1 xi
i 1 i 1
y ˆ 0 ˆ 1 x
ˆ y ˆ x
0 1
xi yi y ˆ 1 x xi ˆ 1 xi2
n n n
i 1 i 1 i 1
45
n n
yi xi
n i 1 n n
xi yi n ˆ 1 i 1n x i 1 x i
ˆ 2
i 1 i 1 i 1
2
n n n
y x xi
n i i n
i 1
xi y i i 1
n
i 1
ˆ 1
n
ˆ 1 xi2
i 1 i 1
n n
y i xi n
x i y i i 1 n
i 1
xi x y i y
ˆ 1 i 1
2
i 1
n
x i x 2
n
xi
n i 1
i 1
i x 2
n
i 1
Se puede demostrar que los errores estándar estimados de los estimadores de los parámetros
corresponden a:
n n
x i2
ei2
y s ˆ 0
s
s ˆ 1 s i 1
, con s i 1
n
n2
n x i x
n
x i x 2
2
i 1 i 1
46
Capitulo Seis
Aplicaciones
Esta sección será desarrollada durante la realización del curso con aplicaciones a datos
geofísicos reales. Se emplea el software de distribución libre R en el análisis de los datos.
Por reserva con la información considerada no se incluyen en el texto ni los datos ni los
resultados obtenidos.
47
REFERENCIAS
Biau, G., E. Zorita, H. von Storch & H. Wackernagel. 1997. Estimation of precipitation by
kriging in EOF space. GKSS, 97, E45.
Box, G. E. P. y G.M. Jenkins. (1976). Time Series Analysis Forecasting and Control.
Holden -Day, San Francisco, 575pp.
Bogaert, P., P. Mahau & F. Beckers. 1995. The Spatial Interpolation of Agroclimatic Data.
Cokriging Software and Source Code. FAO, Rome.
Carr, J. , D. Myers y Ch. Glass.(1985). Cokriging - A Computer Program. Computers &
Geosciences. 11(2), 111-127.
Caselton , W. F. & J. V. Zidek. (1984). Optimal Monitoring Desings. Statistics &
Probability Letters. 2, 223(27).
Clark, I. 1979. Practical geostatistics. Elsevier Publishing , New York.
Cressie, N. 1989. Geostatistics. The American Statistician. 43(4), 611(23).
Cressie, N. 1993. Statistical for spatial data. John Wiley & Sons, New York.
Curia, D. 1998. Geoestadística Aplicada a la Geología del Petróleo. Larriestra, Curia y
Asociados, Buenos Aires.
Deutsh , C. V. & A. G. Journel. 1992. GSLIB: Geostatistical Software Library and User´s
Guide. Oxford University Press, New York.
Díaz- Francés, E. (1993). Introducción a Conceptos Básicos de Geoestadística. Memorias
Seminario Estadística y Medio Ambiente. Centro de Investigación en Matemáticas,
CIMAT. Guanajuato, Mexico.
Diggle, P., L. Harper y S. Simon. (1995). Geoestatistical Analysis of Residual
Contamination from Nuclear Weapons Testing. Programme Abstracts of the third
SPRUCE International Conference. Merida, Mexico.
Digby, P & R. Kempton. 1992. Multivariate Análisis of Ecological Communities.
Chapman and Hall, Londres
Englund, E. & A. Sparks. 1988. GeoEAS, User´s Guide. EPA, Las Vegas.
Evangelos A. & G. T. Flatman. 1988. On sampling nonstationary spatial autocorrelated
data. Computers and Geosciences, 14, 5, 667-686.
Fox, J. 1984. Linear statistical models and related methods with applications to social
research. John Wiley & Sons, New York.
Gamma Desing. 1995. GS+. Geostatistical software for the agronomic and biological
science, version 2.3. Plainwell, Michigan.
Garmin International, Inc. 1993. Garmin communication & navigation. GPS 100 SRVY II
personal surveyor. Owner´s manual. Lenexa, U. S. A.
Giraldo, R., W. Troncoso, J. E. Mancera & N. Méndez. 2000. Geoestadística: Una
Herramienta para la Modelación en Estuarios. Rev. Acad. Col. Ciencias. 24(90):59-72.
48
Hair, J. F., R. E. Anderson, R. L. Tatham y W. C. Black. (1995). Multivariate Data
Analysis With Readings. Fourth edition. Prentice Hall, New Jersey.
Hoaglin, D. F., F. Mosteller & J. Tukey. 1983. Understanding Robust and Exploraory Data
Análisis. John Willey & Sons, New York.
Isaaks, E. & R. M. Srivastava. 1989. Applied geostatistics. Oxford University Press, New
York.
Journel, A.G. y Ch. J. Huijbregts. 1978. Mining Geostatistics, Academics Press, New
York. 590 pp.
Krige, D. G. 1951. A statistical Approoach to Some Basic Mine Valuation Problems on the
Witwatersrand. Journal of the Chemical, Metallurgical and Mining Society of South
África, 52: 119-139.
Link, P. 1992. Basic Petroleum Geology. OGCI Publications, Oil & Gas Consultants Inc
Matheron, G. 1962. Traite de Geostatistique Apliquee, Tome I. Memoires bureau de
Recherches Geologiques et Minieres, N 24. Editions Bureau de Recherche et Minieres,
Paris.
Mardia, K. y C. Goodall, C. 1990. Spatial - Temporal Analysis of Multivariate
Environmental Monitoring Data. LATEX documents for the North - Holland Series in
Statistics and Probability.
McBratney, A. B., Webster, R. and Burgess, T. M. „The design of optimal sampling
schemes for local estimation and mapping of regionalized variables I‟, Computers and
Geosciences, 7(4), 331-334, 1981
Mood, A., F. A. Graybill & D. C. Boes. 1974. Introduction to the Theoty of Statistics.
McGraw-Hill, New York.
Morton, T, Thompson, A. and M. Woods. 1997. Development Geology Reference Manual,
AAPG Methods in Exploration No. 10.
Myers, D. E. 1987. Optimization of Sampling Locations for Variogram Calculations. Water
Resources Research. 23(3), 283(93).
Petitgas, P. 1996. Geostatistics and their applications to fisheries survey data 5: 114-142.
In: B. A. Megrey & E. Mosknes, (E). Computers and fisheries research. Chapman-
Hall, Londres.
Samper, F.J. & J. Carrera 1990. Geoestadística. Aplicaciones a la Hidrogeología
Subterránea. Centro Internacional de Métodos Numéricos en Ingeniería. Universitat
Politécnica de Catalunya. Barcelona, España. 484 pp.
Stanley; T. Practical Statistics for Petroleum Engineers. Petroleum Publishing Company,
Tulsa 1973.
Wackernagel. H. 1995. Multivariate geostatistics. An introduction with applications.
Springer-Verlag, Berlín.
Warrick, A. W., D. E. Myers & D. R. Nielsen. 1986. Geostatistical methods applied to soil
science. Methods of soil analysis. Part 1. Physical and mineralogical methods-
agronomy monograph 9 : 53 - 81.
49