Documente Academic
Documente Profesional
Documente Cultură
1.1 Predicción Espacial
{ }
Sea el campo aleatorio Z (s ) : s ∈ D ⊂ R d donde se ha observado el atributo Z
en las ubicaciones s1 , s 2 , , s n y se desear predecir dicho atributo en una
ubicación no observada, basándose en los valores obtenidos en las muestras
hechas. Las técnicas de predicción espacial son modalidades de una familia de
métodos llamada Kriging. El nombre se debe al Ingeniero minero D.G. Krige,
quien desarrolló en la década de los 50, métodos empíricos para predecir
características de una mina en alguna ubicación de interés donde no se conocían
datos, usando las características conocidas en lugares cercanos donde si habían
sido tomados. Su método original es conocido como Kriging ordinario.
El Kriging aparece en muchas formas de acuerdo a si se conocen la media, la
distribución de probabilidad de Z(s), si las predicciones son hechas para puntos
o áreas y así sucesivamente.
Sin embargo, es importante recordar que el Kriging no es el único método de
predicción espacial; existen métodos determinísticos como distancia inversa,
interpolación polinomial global, interpolación polinomial local, triangulación
lineal, funciones de base radial entre otros. La ventaja del kriging sobre los
métodos determinísticos es la estimación de la varianza del error de predicción,
lo cual permite además estimar intervalos de confianza para dicha predicción
además de que el kriging es un método de estimación que da el mejor
estimador lineal insesgado (cuando se cumplen todos los supuestos).
Inicialmente, el kriging fue desarrollado para aquellos casos donde hay
presencia de estacionariedad y posteriormente fue extendido para casos donde
se cumple la hipótesis intrínseca.
1.1.1 Generalidades sobre el kriging
La toma de muestras da la información de lo que ocurre en cada punto. Sin
embargo, no da información acerca de la relación que pueda existir entre dichos
puntos. Se requiere de una forma precisa de estimar valores en puntos
intermedios o en el caso de bloques, por ejemplo, estimar el promedio sobre el
bloque. La precisión del estimador usado depende de varios factores:
¾ El número de muestras tomadas
¾ La calidad de la medición en cada punto
¾ Las ubicaciones de las muestras en la zona; si las muestras son igualmente
espaciadas se alcanza una mejor cobertura, dando mayor información
acerca de la zona que aquella que se obtendría de muestras muy
agrupadas en unos sectores y separadas en otros. Sin embargo, en la
práctica, debido a las características de las regiones de estudio, muchas
veces es preciso tomar muestras irregularmente espaciadas.
¾ las distancias entre las muestras; para la predicción es mas confiable usar
muestras vecinas que muestras distantes, esto es, la precisión mejora
cuando la cercanía de las muestras aumenta, y se deteriora cuando esta
disminuye. La extrapolación no es aconsejable.
¾ La continuidad espacial de la variable o atributo en estudio; es más fácil
estimar el valor de una variable bastante regular en una región que una
que presenta grandes fluctuaciones.
1.1.2 Introducción a la teoría del kriging
Ejemplo
Supongamos que se tienen las mediciones Z(s1), Z(s2), Z(s3) y Z(s4), en los
puntos s1, s2, s3 y s4 respectivamente, y se requiere predecir el valor Z(s0). El
valor a predecir se ubica mas cerca de s2 que de cualquier otra ubicación donde
se tenga medición; por lo tanto, es lógico pensar que Z(s0) es mas parecido a
Z(s2) que a cualquiera de los otros tres valores medidos. De acuerdo a lo
anterior, se puede optar para la predicción, por una media ponderada de las
cuatro mediciones, en la cual Z(s2) tiene mayor peso que cualquier otra, seguida
en su orden por Z(s4), Z(s3) y por último Z(s1).
*s1 *s2
+s0
*s3 *s4
Así, Ẑ(s 0 )=λ1Z(s1 )+ λ2 Z(s 2 )+λ3 Z(s3 )+λ4 Z(s 4 )
Donde los λi , i = 1,2,3, 4 son los factores de ponderación o pesos tales que
4
λ2 > λ4 > λ3 > λ1 y ∑ λi = 1 .
i =1
En general, para obtener una estimación de Z(s0), se realiza una combinación
lineal de los valores Z(si), i = 1… n :
n
Zˆ ( s0 ) = ∑ λi Z ( si )
i =1
Los parámetros λi son los factores de ponderación o coeficientes de ponderación
y son calculados de acuerdo a los siguientes criterios:
¾ Zˆ ( s0 ) sea insesgado
¾ Var ( Zˆ ( s ) − Z ( s )) sea mínima
0 0
Note que
Var ( Zˆ ( s 0 ) − Z ( s0 )) = E ( Zˆ ( s 0 ) − Z ( s0 )) 2 − E 2 ( Zˆ ( s 0 ) − Z ( s0 ))
2
= E ( Zˆ ( s 0 ) − Z ( s0 )) 2 − ⎡⎣ E ( Zˆ ( s 0 ) − Z ( s0 )) ⎤⎦ = E ( Zˆ ( s 0 ) − Z ( s0 )) 2
Ahora
⎡⎛ n ⎞⎛ n ⎞ n ⎤
E ( Zˆ ( s 0 ) − Z ( s0 )) 2 = E ⎢⎜ ∑ λi Z ( si ) ⎟ ⎜ ∑ λ j Z ( s j ) ⎟ − 2∑ λi Z ( si )Z ( s0 ) + Z 2 ( s0 ) ⎥
⎢⎣⎝ i =1 ⎠ ⎝ j =1 ⎠ i =1 ⎥⎦
n n n
= ∑∑ λi λ j E ⎡⎣ Z ( si ) Z ( s j ) ⎤⎦ − 2∑ λi E [ Z ( si ) Z ( s0 ) ] + E ⎡⎣ Z 2 ( s0 ) ⎤⎦
i =1 j =1 i =1
Si ha estimado el semivariograma o bien se conoce la función de covarianza,
también se tendrán los valores
E ⎡⎣ Z ( si ) Z ( s j ) ⎤⎦ , E [ Z ( si ) Z ( s0 ) ] y E ⎡⎣ Z 2 ( s0 ) ⎤⎦
Por lo tanto, se encontrarán los λi minimizando esta varianza. Del respectivo
proceso de minimización se obtendrá un sistema de ecuaciones, que cambiará
de acuerdo a las hipótesis que se tengan sobre la media y la covarianza del
proceso, y la distribución de la variable en estudio. En la próxima sección se
mencionarán algunos de estos casos.
1.1.3 Cálculo de los factores de ponderación para algunos casos
Kriging Simple
El kriging simple asume el conocimiento tanto de la media como de la
covarianza del proceso. Por supuesto, es poco práctico ya que en general
estos dos parámetros son desconocidos y es preciso estimarlos a partir de los
datos de la muestra.
Definamos la variable
Y (s) = Z (s) − µ
donde µ es la media de la variable en la región de estudio y por lo tanto
E ⎡⎣Y ( s ) ⎤⎦ = 0 .
Entonces si ahora encontramos la predicción de Y ( s0 ) , tendremos
n
Yˆ ( s0 ) = ∑ λiY ( si ) .
i =1
Ahora para encontrar los factores de ponderación vamos a minimizar el error
( 0 0 )
de predicción Yˆ ( s ) − Y ( s ) . Como Y ( s ) es desconocido, se minimizará el
0
error cuadrático medio de predicción; esto es, hay que minimizar
E Yˆ ( s ) − Y ( s ) ( )
2
0 0
Que según vimos en la sección anterior, se puede escribir como
n n n
E (Yˆ ( s 0 ) − Y ( s0 )) 2 = ∑∑ λi λ j E ⎡⎣Y ( si ) Z ( s j ) ⎤⎦ − 2∑ λi E [Y ( si ) Y ( s0 ) ] + E ⎡⎣Y 2 ( s0 ) ⎤⎦
i =1 j =1 i =1
n n n
= ∑∑ λi λ j Cov ⎣⎡ si − s j ⎦⎤ − 2∑ λiCov [ si − s0 ] + Cov(0)
i =1 j =1 i =1
Ahora, se aplica el proceso clásico de minimización derivando parcialmente
respecto a cada uno de los parámetros λi e igualando a cero estas derivadas,
con lo que las ecuaciones quedan:
∂ n
E ⎡⎣Yˆ ( s0 ) − Y ( s0 ) ⎤⎦ = 2∑ λ j Cov ⎡⎣ si − s j ⎤⎦ − 2Cov ( si − s0 ) = 0
2
i = 1… n
∂λi j =1
con lo cual queda definido un sistema de n ecuaciones con n incógnitas. Para j
( j = 1… n ) arbitraria la ecuación es:
n
2∑ λ j Cov ⎣⎡ si − s j ⎦⎤ − 2Cov ( si − s0 ) = 0
j =1
n
∑ λ Cov ⎡⎣ s
j =1
j i − s j ⎤⎦ = Cov ( si − s0 )
Que es un sistema con única solución en virtud de la matriz de coeficientes la
cual es definida positiva.
Así para predecir la variable original Z
n
Zˆ ( s0 ) = µ + ∑ λi ( Z i − µ )
i =1
y la varianza del error de predicción queda
( )
n
Var Zˆ ( s0 ) − Z ( s0 ) = Var ( Z ( si ) ) − ∑ λi Cov ( si − s0 )
i =1
De donde podemos concluir que la varianza del error de predicción es menor a
la varianza de la variable en estudio, lo cual es consecuencia del conocimiento
de los parámetros del proceso.
Kriging Ordinario
El kriging ordinario se usa cuando la variable es estacionaria con covarianza
conocida y media desconocida. Aunque el proceso es similar al del kriging
simple, no podemos centrar la variable, ya que no conocemos µ , así que es
necesario trabajar directamente con la variable en estudio Z. Nuevamente la
predicción es
n
Zˆ ( s0 ) = ∑ λi Z ( si )
i =1
Al no conocer la media es necesario garantizar la propiedad de insesgamiento:
[ ]⎡ n ⎤
E Z * (s0 ) − Z (s0 ) = E ⎢∑ λi Z (si ) − Z (s0 )⎥ =
⎣ i =1 ⎦
n n
∑ λ E[Z (s )] − E[Z (s )] = ∑ λ µ −µ = 0
i =1
i i 0
i =1
i
⎡ n ⎤ ⎡ n ⎤
µ ⎢∑ λi − 1⎥ = 0 ⇔ ⎢∑ λi − 1⎥ = 0
⎣ i =1 ⎦ ⎣ i =1 ⎦
n
Cuando ∑λ
i =1
i =1
( )
E Zˆ = Z
De esta forma,
⎡ n ⎤
E ⎢ ∑ λi Z ( si ) ⎥ = E ( Z ) = µ
⎣ i =1 ⎦
lo cual es equivalente a
n n
∑ λi E [ Z (si )] = ∑ λi µ = µ
i =1 i =1
Por tanto, es indispensable que se cumpla la condición de que
n
∑λ i =1
i = 1
para obtener un estimador insesgado. Se mantiene igual la segunda condición
que es la de mínima varianza; partamos de la expresión ya deducida de la
varianza
n n n
E ( Zˆ ( s 0 ) − Z ( s0 )) 2 = ∑∑ λi λ j E ⎡⎣ Z ( si ) Z ( s j ) ⎤⎦ − 2∑ λi E [ Z ( si ) Z ( s0 ) ] + E ⎡⎣ Z 2 ( s0 ) ⎤⎦
i =1 j =1 i =1
Donde bajo las nuevas condiciones se tiene:
E ⎡⎣ Z ( si ) Z ( s j ) ⎤⎦ = Cov ( si − s j ) + µ 2
E ⎣⎡ Z 2 ( s0 ) ⎦⎤ = Cov(0) + µ 2 = σ 2 + µ 2
Sustituyendo en la varianza queda
⎡ n n ⎤
E ( Zˆ ( s 0 ) − Z ( s0 )) 2 = ∑∑ λi λ j Cov ( si − s j ) − 2∑ λiCov ( si − s j ) + C ( 0 ) + µ 2 ⎢∑∑ λi λ j − 2∑ λi + 1⎥
n n n n
i =1 j =1 i =1 ⎣ i =1 j =1 i =1 ⎦
pero
⎡ n n ⎤ ⎡ n
2
n
⎤
⎢ ∑∑ λi λ j − 2∑ λi + 1⎥ = ⎢ ∑ λi − 1⎥ = 0
⎣ i =1 j =1 i =1 ⎦ ⎣ i =1 ⎦
por la propiedad de insesgamiento.
Así que la expresión a minimizar es
∑∑ λ λ Cov ( s − s ) − 2∑ λ Cov ( s − s ) + C ( 0 )
n n n
i j i j i i j
i =1 j =1 i =1
bajo la restricción
( )
E Zˆ = Z
Se utiliza para estos casos el método de los multiplicadores de Lagrange:
∂φ ( λi , µ ) n
¾ = ∑ λiCov ( si − s j ) − Cov ( si − s j ) − µ
∂λi i =1
∂φ ( λi , µ ) n
¾ = ∑ λiCov ( si − s j ) − Cov ( si − s j ) − µ
∂λi i =1
∑ λ Cov ( s − s ) − Cov ( s − s ) − µ = 0
n
¾ i i j i j
i =1
∑ λ Cov ( s − s j ) − µ = Cov ( si − s j )
n
¾ i i
i =1
∂φ ( λi , µ ) ⎡ n ⎤
¾ = ⎢ ∑ λi − 1⎥
∂µ ⎣ i =1 ⎦
n
¾ ∑λ −1 = 0
i =1
i
n
¾ ∑λ
i =1
i = 1
Dando como resultado el sistema de n + 1 ecuaciones del kriging ordinario:
∑ λ Cov ( s − s j ) − µ = Cov ( si − s j )
n
i i
i =1
n
∑λi =1
i = 1
a partir de las cuales se encuentran los valores de los factores de ponderación
para llevar a cabo la predicción.
Por último, la varianza del error de predicción para este caso es
( )
n
Var Zˆ ( s0 ) − Z ( s0 ) = Var ( Z ( si ) ) − ∑ λiCov ( si − s0 ) + µ
i =1
que tal como es de esperarse es mayor que la del kriging simple, debido al
desconocimiento de la media de la variable en estudio.
Kriging Ordinario para variables intrínsecas
Este es un caso más general, en el cual la varianza no existe y las condiciones
impuestas sobre la variable regionalizada son:
¾ E ⎡⎣ Z ( s + h ) − Z ( s ) ⎤⎦ = 0
1
¾ γ ( h ) = Var ⎡⎣ Z ( s + h ) − Z ( s ) ⎤⎦
2
Nuevamente, hay que imponer las siguientes restricciones
¾ Estimación lineal
n
Zˆ ( s0 ) = ∑ λi Z ( si )
i =1
¾ Insesgamiento
( )
E Zˆ = Z
¾ Mínima varianza
Var ⎡⎣ Zˆ ( s0 ) − Z ( s0 ) ⎤⎦ = E ⎡⎣ Zˆ ( s0 ) − Z ( s0 ) ⎤⎦ es mínima
2
Aplicando nuevamente el método de los multiplicadores de Lagrange, se
obtienen los factores de ponderación y la varianza del error de predicción es
( )
n
Var Zˆ ( s0 ) − Z ( s0 ) = ∑ λiγ ( si − s0 ) + µ
i =1
1. Análisis de normalidad
1.1 ANÁLISIS GRÁFICO
¾ GRÁFICOS GENERALES
Características de la distribución de probabilidad normal tales como simetría y
apuntamiento, pueden ser ilustradas por los gráficos clásicos de la estadística
descriptiva, como el histograma, el diagrama de caja y bigotes, y el diagrama de
tallo y hojas; a continuación estos gráficos para una muestra de una variable
aleatoria con distribución de probabilidad normal:
85
80
75
70
65
60
55
Histogram of x
150
100
Frequency
50
0
50 55 60 65 70 75 80 85
x
Gráfico 1. Diagrama de caja e histograma de una muestra aleatoria proveniente de una
distribución de probabilidad normal
Es importante recordar que el histograma no es único. Por lo tanto, para
esperar un comportamiento acampanado del histograma, una opción es
construir los intervalos de la forma x ± ks 1 con k = 0,1,2,3 según hasta donde
existan datos. En algunas disciplinas se usa la construcción de los histogramas
con base en intervalos “equiprobables”; luego en este caso se esperaría un
histograma con todos los rectángulos a la misma altura.
1
El procedimiento de verificar que a 1, 2 y 3 desviaciones estándar de la media se encuentra
respectivamente, el 68.26%, el 95.44% y el 99.74% de las observaciones se conoce como regla empírica.
Gráfico 2. Diagrama de Tallo y hojas de una muestra aleatoria proveniente de una
distribución de probabilidad normal
En este diagrama de tallo y hojas se observa claramente la figura acampanada
de forma horizontal.
Sin embargo, existe un gráfico diseñado exclusivamente para el análisis de
normalidad:
¾ GRÁFICO QXQ
El gráfico cuantil‐cuantil, consiste en la comparación de los cuantiles muestrales
con los poblacionales, de tal forma que entre mas similares sean estas dos series
de datos, mejor será el ajuste y por lo tanto, se espera que el diagrama de
dispersión entre ellos se aproxime bastante a una línea recta. Los pasos para la
construcción de este gráfico son los siguientes:
1. Cuantiles muestrales: Se ordenan las observaciones x1 , x 2 ,…, x n de
menor a mayor x (1) , x ( 2 ) , … , x ( n ) . El dato x(i ) corresponderá al cuantil
i
(proporción) . Por ejemplo, si la muestra tuviera 200 observaciones, el
n
10
dato x(10 ) corresponderá al cuantil (proporción) = 0.05 = 5% , ya
200
que el 5% de las observaciones son inferiores al dato x(10) . Se suele
(i − 1 / 2)
utilizar para corrección por continuidad .
n
2. Cuantiles poblacionales: Sean q1 , q 2 , … , q n los cuantiles poblaciones, es
decir, q i es el valor por debajo del cual se encuentran, una proporción de
(i − 1 / 2)
de datos de la población. estos se encuentran aplicando a cada
n
proporciòn muestral la distribución normal inversa:
qi = Φ −1 ( pi )
( )
3. Se ubican en el plano cartesiano las parejas ordenadas qi , x(i ) y se
analiza la cercanía a la linealidad de dicho gráfico.
Gráfico 3. Cuantil‐Cuantil en el caso en el que la distribución normal ajusta adecuadamente
los datos de la muestra.
En este caso, las observaciones se aproximan bastante a la recta y por lo tanto,
se puede pensar en que el supuesto de normalidad es válido. Todo el software
estadístico lo tiene implementado.
A continuación un gráfico cuyo comportamiento evidencia que la muestra no
proviene de una distribución de probabilidad normal.
120000
100000
80000
salario
60000
40000
20000
-3 -2 -1 0 1 2 3
norm quantiles
Gráfico 4. Cuantil‐Cuantil en el caso en el que la distribución normal no representa un buen
ajuste para los datos de la muestra.
Si bien, el análisis gráfico, es muy importante e ilustrativo, continúa siendo una
herramienta de estadística descriptiva y por tanto no es concluyente. Incluso
cuando se tiene prácticamente la certeza sobre el comportamiento
aproximadamente normal de los datos, es necesaria la aplicación de inferencia
estadística, ya que la conclusión es acerca de la distribución de la variable de
donde proviene la muestra.
A continuación, se relacionan varias pruebas de normalidad.
1.2 PRUEBAS DE HIPÓTESIS
¾ PRUEBA DE SHAPIRO Y WILK
Esta prueba se centra en determinar la bondad del ajuste de una recta al gráfico
QQ. Es exclusiva para probar normalidad.
Donde
es la varianza muestral,
son los coeficientes tabulados para esta prueba y
es el j‐ésimo elemento de la muestra ordenada
¾ PRUEBAS BASADAS EN ASIMETRÍA Y CURTOSIS
9 ASIMETRÍA
Si n > 50 , el coeficiente de asimetría, tiene una distribución de probabilidad
asintóticamente normal con parámetros
6
E ( As ) = 0 y Var ( As ) =
n
As
Por lo tanto, Z = ~ N(0,1)
6
n
As n
Z= ~ N(0,1)
6
9 CURTOSIS
Si n > 200 , el coeficiente de curtosis, tiene una distribución de probabilidad
asintóticamente normal con parámetros
24
E (k ) = 3 y Var(k ) =
n
k −3
Por lo tanto, Z = ~ N(0,1)
24
n
Z=
(k − 3) n
~ N(0,1)
24
9 PRUEBA DE JARQUE Y BERA (JB)
También llamada prueba Ómnibus, esta involucra simultáneamente los
coeficientes de asimetría y curtosis. Se requiere que la muestra tenga al menos
200 observaciones.
¾ PRUEBA DE BONDAD DE AJUSTE CHI‐CUADRADO DE PEARSON
Algoritmo
1. Construir una tabla de frecuencias, la cual en lo posible no tenga menos
de 5 intervalos y además, no haya menos de 5 datos en cada intervalo.
2. Encontrar las frecuencias “esperadas” según , esto es, encontrar
, donde es la probabilidad del intervalo i
3. Calcular el estadístico de prueba y comparar con el cuantil teórico
correspondiente
¾ PRUEBA DE KOLMOGOROV SMIRNOV
Esta prueba calcula la distancia entre la función de distribución muestral
y la función de distribución teórica supuesta en la ,
Algoritmo
1. Encontrar la distribución de frecuencias muestral
Con base en la muestra ordenada
2. Encontrar la correspondiente distribución teórica
3. Calcular el estadístico de prueba
Su distribución exacta se encuentra tanto en los programas estadísticos
como en varios libros de estadística no paramétrica.
Nota 1
Cuando los parámetros de la función son estimados de la muestra, es necesario
aplicar la corrección de Lilliefors a la distribución del .
¾ TRANSFORMACIÓN BOX COX
La familia de transformaciones Box Cox, es de mucha utilidad cuando se han
detectado problemas de heterocedasticidad, falta de normalidad o falta de
linealidad, y se buscan métodos para realizar las respectivas correcciones; la
muy conocida transformación logarítmica es un caso particular de esta
importante familia; incluso, en muchas ocasiones se utiliza de forma mecánica
sin tener en cuenta otras posibilidades.
La forma general de la familia de transformaciones Box Cox es la siguiente:
Si yi > 0 ; ∀i , i = 1,…, n . Se define la nueva variable y (λ ) como
⎧ yλ −1
⎪
(λ ) para λ ≠ 0
y =⎨ λ
⎪logy para λ = 0
⎩
En el caso en el cual no se cumpla yi > 0 ; ∀i , i = 1,…, n se puede realizar una
traslación de la variable y; en este caso quedaría
⎧ ( y + m )λ − 1
⎪ para λ ≠ 0
( y + m)
(λ )
=⎨ λ
⎪log( y + m ) para λ = 0
⎩
El valor de que logra la mejor transformación de la variable de interés, es el
que maximiza la cantidad
es la estimación máximo verosímil de la varianza de la variable .
Capítulo 3. Desarrollo del programa
12. INTERPOLACIÓN
12.1 Introducción
12.2 Interpolación
· El valor del punto problema se estima asignando pesos a los datos del entorno en
función inversa de la distancia que los separa del punto problema. El algoritmo
utilizado para la interpolación es el llamado algoritmo de interpolación
multivariante de la distancia inversa.
Se establece que los puntos más cercanos tienen un peso mayor en el cálculo,
aunque la relación no tiene porque ser lineal.
El método utiliza información de puntos que pueden tener dos posibles orígenes.
Por una parte, el algoritmo puede utilizar los puntos tomados directamente de la medida
sobre la superficie de la pieza o por el contrario, los datos pueden ser el resultado de la
compensación del radio sobre los puntos palpados directamente. Esto es debido a que
puede darse el caso de que mejorando la MMC o cambiando el tipo de sonda, se pueda
realizar la compensación de radio desde la propia máquina. En tal caso no se tendría que
compensar el radio de la punta de la herramienta con el programa creado. Se pasaría
directamente a la interpolación sin necesidad de realizar la compensación.
Las diferencias entre los diversos métodos estriban en la forma de calcular los
pesos de cada dato. Los métodos de la distancia inversa calculan la distancia euclidiana
(definida como x = [å x ]
2
i
1
2
) entre cada dato y el punto problema, dij; se establece una
función de proporcionalidad entre el peso y la distancia, quedando la fórmula general
como:
åi zi dijb å wi ·zi
zj = = i (I)
åi dijb
1 å i
W i
X Y Z
197.2007040 98.733669 38.106398
238.422929 112.378083 82.790646
232.958830 106.946191 85.159880
232.964040 117.686288 84.390633
230.859219 112.310212 84.383799
w1=((112.378083-98.733669)2+(82.790646-38.106398)2)-0.5·3=9.805·10-6
w2=((106.946191-98.733669)2+(85.15988-38.106398)2)-0.5·3=9.1765·10-6
w3=((117.686288-98.733669)2+(84.390633-38.106398)2)-0.5·3=7.9931·10-6
w4=((112.310212-98.733669)2+(84.383799-38.106398)2)-0.5·3=8.9147·10-6
w1+ w2+ w3+ w4=35.8894·10-6
B3=26.9746·10-6
A4=8.3951·10-3
B4=35.8894·10-6
A4 8.3951·10 -3
De modo que X 1 = = = 233,9313
B4 35.8894·10 -6
Para hallar el segundo valor de la columna X se procederá análogamente:
w1=((112.378083-98.733669)2+(82.790646-42.027522)2)-0.5·3=12.598·10-6
w2=((106.946191-98.733669)2+(85.15988-42.027522)2)-0.5·3=11.8139·10-6
w3=((117.686288-98.733669)2+(84.390633-42.027522)2)-0.5·3=10.0042·10-6
w4=((112.310212-98.733669)2+(84.383799-42.027522)2)-0.5·3=11.3641·10-6
A1=A0+238.422929·12.598·10-6=3.00365·10-3 con A0=0
B1=B0+12.598·10-6=12.598·10-6 con B0=0
A2=A1+232.958830·11.8139·10-6=5.75579·10-3
B2=B1+11.8139·10-6=24.411915·10-6
A3=8.0864·10-3
B3=344161·10-6
A4=10.7099·10-3
B4=45.7802·10-6
A
X 2 = 4 = 233,9416
B4
Cuando se aplican estos métodos aparece frecuentemente un problema derivado
del desigual reparto espacial de los puntos a lo largo de las líneas y entre ellas. Se trata
del “aterrazamiento” del terreno debido a la ausencia de datos entre curvas de nivel
sucesivas. Cuando la interpolación se realiza mediante funciones de ajuste más
complejas (polinomios de grado alto), pueden aparecer efectos aún más molestos que
producen fuertes fluctuaciones.
Figura 12.1. Ejemplo de las curvas generadas para varios valores de b donde pueden observarse los
patrones de cambio de pesos (ordenadas) en función de las distancias (unidades arbitrarias, en abcisas).
i=0
Do
i=i+1
………….
Loop Until i = IX - 1
j=0
Do
j=j+1
……………
Loop Until j = IY – 1
...........
i = -1
j = -1
Do
i=i+1
j = -1
Do
j=j+1
AA = 0
BB = 0
k=0
Do
……………
Loop Until k = n - 1
ZP(i, j) = AA / BB
........
ZPS(i, j) = Str(ZP(i, j))
........
Loop Until j = IY – 1
........
Loop Until i = IX – 1
.........
End If
donde DX=hx y DY=hy. En esta ocasión se generan valores para la coordenada Z que se
llammará ZP(i,j) y será el resultado de aplicar la expresión (I). En el caso de querer
generar coordenadas X o Y, el código es similar al expuesto.
Al igual que en caso de compensación, hay que realizar un análisis de los errores
cometidos al utilizar el algoritmo para la generación de una coordenada a partir de otras
dos. De forma más general, x=f(y,z), y=f(x,z) o z=f(x,y).
MIY1=Ymin+hy MIZ1=Zmin+hz
MIY2=MIY1+hy MIZ2=MIZ1+hz
.... ....
.... ....
MIYn=MIYn-1+hy MIZn=MIZn-1+hz
[
wi = ( yi - ( MIY j -1 + h y ) ) + ( z i - ( MIZ k -1 + hz ) )
2
]
2 -0 . 5 · p
Ai Ai -1 + wi · X i
y la coordenada MIX i = = = f ( Ai-1 , Bi -1 , X i , wi ) con i=1,....,(n-1)
Bi Bi -1 + wi
Aplicando la ley de propagación de varianzas:
2 2 2 2
æ ¶f ö 2 æ ¶f ö 2 æ ¶f ö 2 æ ¶f ö 2
u 2
MIX i = çç ÷÷ ·u Ai -1 + çç ÷÷ ·u Bi -1 + çç ÷÷ ·u X i + çç ÷÷ ·u wi
è ¶Ai-1 ø è ¶Bi -1 ø è ¶X i ø è ¶wi ø
æ ¶f ö wi U 0.001 æ ¶f ö Ai -1 ·Bi -1
donde çç ÷÷ = y u Xi = X = ; çç ÷÷ = -
¶X
è iø Bi -1 + wi k 2 è ¶wi ø ( Bi -1 + wi ) 2
2 2 2 2 2
æ ¶w ö 2 æ ¶wi ö 2 æ ¶wi ö 2 æ ¶wi ö 2 æ ö 2
u = çç i
2
÷÷ ·u yi + çç ÷÷ ·u zi + çç ÷÷ ·u p + ç ÷ ·u MIY + ç ¶wi ÷ ·u MIZ +
wi ç ÷ ç ÷
è ¶yi è ¶z i ø è ¶p ø è ¶MIY j -1 ø è ¶MIZ k -1 ø
j -1 k -1
ø
2 2
æ ¶wi ö 2 æ ¶wi ö 2
ç ÷ ·u h + ç ÷ ·u
ç ¶h ÷ y ç ¶h ÷ hz
è y ø è z ø
Como up=0, ese término no se tiene en cuenta. Respecto a los otros términos:
·
[(
æ ¶w ö - 0.5· yi - ( MIY j -1 + h y ) 2 + (zi - ( MIZ k -1 + h z ) )2
ç i ÷=
) · p·( 2· yi + 2·MIY j -1 + 2·h y ) ]-0.5· p
ç ¶MIY ÷
è j -1 ø
2
(
yi - ( MIY j -1 + h y ) + (zi - ( MIZ k -1 + h z ) )
2
)
·
[( )2
æ ¶wi ö - 0.5· yi - ( MIY j -1 + h y ) + (zi - ( MIZ k -1 + h z ) )
ç ÷=
]
2 -0.5· p
· p·( 2· z i + 2·MIZ j -1 + 2·h z )
ç ¶MIZ
è
÷
k -1 ø
2
( )
yi - ( MIY j -1 + h y ) + (z i - ( MIZ k -1 + h z ) )
2
·
[( )2
æ ¶wi ö - 0.5· yi - ( MIY j -1 + h y ) + (zi - ( MIZ k -1 + h z ) )
ç ÷=
]
2 -0.5· p
· p·( 2· yi - 2·MIY j -1 - 2·h y )
ç ¶y ÷
è iø ( 2
)
yi - ( MIY j -1 + h y ) + (zi - ( MIZ k -1 + h z ) )
2
·
æ ¶wi
ç ÷=
[( )2
ö - 0.5· yi - ( MIY j -1 + h y ) + (zi - ( MIZ k -1 + h z ) ) ]
2 -0.5· p
· p·( 2· zi - 2·MIZ j -1 - 2·hz )
ç ¶z
è i
÷
ø ( )
yi - ( MIY j -1 + h y ) + (zi - ( MIZ k -1 + hz ) )
2 2
Interpolación spline
yi+1 − yi
si (x) = yi + (x − xi ) , x ∈ [xi , xi+1 )
xi+1 − xi
(el último subintervalo se considera cerrado por la derecha, es decir, [xn−1 , b]).
Por tanto, el problema consistente en interpolar datos lagranianos referidos
a los nodos x1 , . . ., xn en el espacio S1 (x1 , . . . , xn ) es unisolvente (es decir,
tiene solución en ese espacio vectorial y es única). Este hecho también nos
indica que la dimensión de dicho espacio es n. La dimensión también se puede
deducir teniendo en cuenta que cada spline es un polinomio de grado menor
o igual que 1 en cada subintervalo, lo que deja dos parámetros libres para
su determinación; en total, como hemos de obtener n − 1 polinomios, serían
2 (n − 1) parámetros, a los que habría que restar n − 2 restricciones originadas
al exigir la continuidad en los n − 2 nodos interiores, obteniendo como valor de
la dimensión 2 (n − 1) − (n − 2) = n (este resultado, obtenido a partir de un
razonamiento de tipo heurístico, requiere una demostración rigurosa, pues no
hemos probado que las formas lineales asociadas al problema sean linealmente
independientes).
Una base del espacio S1 (x1 , . . . , xn ) la constituyen las n poligonales que
valen, respectivamente, 1 en un nodo y 0 en los n − 1 nodos restantes. Esta
base es muy útil en problemas de elementos finitos (ver figura 3.1).
§3.1 Interpolación con splines de grado uno 41
1
xi−1 xi xi+1
Figura 3.1: Gráfica de la función de de la base de S1 (x1 , . . . , xn ) correspondi-
ente al nodo xi .
-2 2 4 6
15
12.5
10
7.5
5
2.5
-2 2 4 6
1, x, (x − x2 )+ , (x − x3 )+ , . . . , (x − xn−1 )+ .
42 Capítulo 3. Interpolación spline
yk = sk (xk ) = αk
yk+1 = sk (xk+1 ) = αk + βk hk + γk h2k
§3.3 Interpolación con splines cúbicos de clase dos 43
αk = yk
∆k − βk
γk =
hk
yk+1 − yk
donde ∆k = . La determinación del interpolante spline s pasa por
hk
hallar los valores βk . Sólo resta imponer que s sea de clase C 1 ([a, b]). Pero
esto está garantizado si s es derivable en los nodos interiores x2 , . . . , xn−1 .
En definitiva, s es de clase C 1 ([a, b]) si y sólo si sk (xk+1 ) = sk+1 (xk+1 ),
k = 1, 2, . . . , n − 2, es decir, si y sólo si
βk + 2 (∆k − βk ) = βk+1 ,
y2 − y1
2d1 + d2 = 3
h1
yn − yn−1
dn−1 + 2dn = 3
hn−1
46 Capítulo 3. Interpolación spline
0.8
0.6
0.4
0.2
0.001
0.0008
0.0006
0.0004
0.0002
El caso cúbico sujeto es más simple, pues las condiciones en los extremos
se traducen en valores concretos de d1 y dn , por lo que las ecuaciones primera
y última que relacionan los valores de las incógnitas se simplifican, obteniendo
un sistema de orden n − 2 en lugar de uno de orden n.
Conocidos los valores de las derivadas del spline en cada nodo es inmediato
obtener con Mathematica la expresión del spline en ese intervalo con la orden
InterpolatingPolynomial.
El caso periódico, que también es unisolvente, se trata de forma análoga,
aunque la matriz de coeficientes ya no es tridiagonal.
ingPolynomial..
y, por tanto,
b b 2
2
(g ) ≥ s .
a a
De la continuidad de g y se deduce que la igualdad sólo se da si g −s =
s
0, es decir, si y sólo si g (x) = s (x), para todo x ∈ [a, b], por lo que s y g
difieren únicamente en un polinomio de grado uno. Como coinciden en al
menos dos nodos, este polinomio se anula en, al menos, dos puntos y, por
consiguiente es idénticamente nulo. En definitiva,
b b
2 2
g = s ⇔ s (x) = g (x) , ∀ x ∈ [a, b] ,
a a
Los métodos para interpolar funciones de una variable por polinomios se extienden a
algunos casos de funciones de dos o más variables. Un caso importante se produce cuando
una función (x, y) → f (x, y) ha de aproximarse en un rectángulo. Esto nos lleva a lo que se
conoce como interpolación tensor-producto. Supongamos que el rectángulo es el producto
cartesiano de dos intervalos: [a, b] × [α, β] . Es decir, las variables x e y de ejecución en
los intervalos [a, b] , y [α, β] , respectivamente. Seleccione n nodos xi en [a, b] , y definir los
polinomios de Lagrange
n
Y x − xj
`i (x) = (1 ≤ i ≤ n)
j6=i
xi − xj
j=1
Entonces la función
n X
X m
P (x, y) = f (xi , yj ) `i (x) `j (y)
i=1 j=1
n X
X m
P (xq , yp ) = f (xi , yj ) `i (xq ) `j (yp )
i=1 j=1
n X
X m
= f (xi , yj ) δiq δip = f (xq , yp )
i=1 j=1
9
2.2 Método Vecino más Cercano 2 INTERPOLACIÓN EN DOS DIMENSIONES
Interpolación del vecino más cercano (también conocido como interpolación proximal o,
en algunos contextos, el muestreo de punto) es un método sencillo de interpolación multi-
variante en una o más dimensiones.
El algoritmo del vecino más cercano selecciona el valor del punto más cercano y no tiene
en cuenta los valores de los puntos vecinos en absoluto, rindiendo un interpolador por
tramos constante. El algoritmo es muy sencillo de implementar y es de uso general (por lo
1
general junto con mipmapping ) en tiempo real 3D para seleccionar valores de color de
una textura de superficie.
1
El mipmapping se utiliza para que la textura de la imagen no pixelen (se vean cuadraditos) y se
suavicen.
10
2.2 Método Vecino más Cercano 2 INTERPOLACIÓN EN DOS DIMENSIONES
2
La búsqueda del vecino más cercano (NNS ), también conocido como búsqueda de pro-
ximidad, búsqueda de similitud o la búsqueda del punto más cercano, es un problema de
optimización para encontrar el punto más cercano (o más similar) a una serie de puntos
dados. Formalmente, el problema de búsqueda del vecino más cercano se define como sigue:
dado un conjunto S de puntos en un espacio M y q un punto de consulta que pertenece a
M el problema consiste en encontrar el punto más cercano de S para q.
Se han propuesto diversas soluciones al problema NNS como por ejemplo: la búsqueda
lineal, el espacio de partición, búsqueda radial, por mencionar algunos. La calidad y la
utilidad de los algoritmos son determinados por la complejidad de tiempo de las consultas,
ası́ como la complejidad del espacio que se tiene. Para varias dimensiones el problema de
la búsqueda del vecino más cercano simplemente no es polinomial.
La búsqueda lineal
La solución más simple al problema NNS es calcular la distancia desde el punto de consulta
para todos los demás puntos en la base de datos, hacer el seguimiento de la “mejor hasta
ahora” (ver figura 2.2). Este algoritmo, a veces referido como el enfoque ingenuo, tiene un
tiempo de ejecución de O(dN ) donde N es la cardinalidad de S y d es la dimensionalidad
de M . La memoria que necesitamos para resolver este problema no es mucha, simplemente
necesitamos memoria para almacenar la base de datos de los puntos que se tienen; si se
necesitan otras variables, además de la base de datos, no ocuparán mucho espacio por lo
que no se considera como un problema en este caso.
2
Nearest neighbor search (NNS)
11
2.2 Método Vecino más Cercano 2 INTERPOLACIÓN EN DOS DIMENSIONES
La búsqueda ingenua en los espacios de dimensiones superiores puede superar otros enfo-
ques. Búsqueda ingenua puede, en promedio, superar a los enfoques de distribución de los
espacios en los espacios de dimensiones superiores.
12
2.2 Método Vecino más Cercano 2 INTERPOLACIÓN EN DOS DIMENSIONES
El algoritmo de Fortune
El algoritmo mantiene tanto una lı́nea de barrido y una lı́nea de varado, la cual ambas se
mueven a través del plano a medida que el algoritmo avanza. La lı́nea de barrido es una
lı́nea recta, que es posible que, por convención, suponemos que es vertical y moviéndose
de izquierda a derecha a través del plano. En cualquier momento durante el algoritmo, los
puntos de entrada a la izquierda de la lı́nea de barrido se han incorporado en el diagrama de
Voronoi, mientras que los puntos a la derecha de la lı́nea de barrido no se han considerado
todavı́a. La lı́nea de varado no es una lı́nea, sino una curva a trozos complicada a la
izquierda de la lı́nea de barrido, compuesto por piezas de parábolas; se divide la porción
del plano en el que el diagrama de Voronoi puede ser conocido, independientemente de
lo que otros puntos pueden ser derecha de la lı́nea de barrido, del resto del plano. Para
cada punto de la izquierda de la lı́nea de barrido, se puede definir una parábola de puntos
equidistantes a partir de ese punto y de la lı́nea de barrido; la lı́nea de varado es el lı́mite
de la unión de estas parábolas. A medida que la lı́nea de barrido avanza, los vértices de
la lı́nea de varado, en el que se cruzan dos parábolas, trazan los bordes del diagrama de
Voronoi. La lı́nea de varado progresa manteniendo cada base de la parábola exactamente
a medio camino entre los puntos de barrido inicialmente sobre la lı́nea de barrido, y la
nueva posición de la lı́nea de barrido. (Veáse figura 2.3).
13
2.2 Método Vecino más Cercano 2 INTERPOLACIÓN EN DOS DIMENSIONES
Linea
L de
barrido
Puntos
equidistantes
apyL
Linea
de
varado
Figura 2.4: Observe que sólo se calcula la parte del diagrama de Voronoi que se encuentra
por encima de la lı́nea de varado. La posición de la lı́nea de barrido mantiene la intersección
del diagrama de Voronoi con la lı́nea de varado.
El algoritmo mantiene como estructuras de datos un árbol de búsqueda binaria que des-
cribe la estructura combinatoria de la lı́nea de varado, y una cola de prioridad lista de
posibles eventos futuros que podrı́an cambiar la estructura de la lı́nea de varado. Estos
eventos incluyen la adición de otra parábola a la lı́nea de varado (cuando la lı́nea de barrido
cruza otro punto de entrada) y la eliminación de una curva de la lı́nea de varado (cuando
la lı́nea de barrido se hace tangente a un cı́rculo a través de unos tres puntos de entrada
cuyo parábolas forman segmentos consecutivos de la lı́nea de varado). Cada uno de estos
eventos puede ser priorizado por la coordenada x de la lı́nea de barrido en el punto que
se produce el evento. El propio algoritmo entonces consiste en retirar repetidamente el
próximo evento de la cola de prioridad, la búsqueda de los cambios que el evento provoca
en la lı́nea de varado, y la actualización de las estructuras de datos.
Como hay O (n) eventos en proceso (estando cada uno asociado con alguna caracterı́stica
del diagrama Voronoi) y O (log n) tiempo para procesar un evento (cada uno compuesto
de un número constante de operaciones árbol de búsqueda y cola de prioridad binarios) el
tiempo total es O (n log (n)) .
Código
A continuación se presenta una parte del código de la función interp2 de Octave, la cual
14
2.2 Método Vecino más Cercano 2 INTERPOLACIÓN EN DOS DIMENSIONES
nos da como resultado una interpolación utilizando el método del vecino más cercano.
ZI = Z ( idx ) ;
%ejemploInterp2 . m
cercano
%parámetros
[ X0 , Y0 ]= meshgrid ( - a : h1 : a ) ;
Zexacto = fun ( X0 , Y0 ) ;
%valores a interpolar
[ X1 , Y1 ]= meshgrid ( - a : h2 : a ) ;
surf ( ZI )
Representación gráfica.
15
2.3 Método Bilineal 2 INTERPOLACIÓN EN DOS DIMENSIONES
Figura 2.5: Gráfica de la función sin (2x) (x2 − xy + y 2 ) utilizando el método del vecino
más cercano
Figura 2.6: Los cuatro puntos rojos muestran los puntos de datos y el punto P es el punto
en el que queremos interpolar.
La idea clave es realizar la interpolación lineal primero en una dirección, y luego de nuevo
en la otra dirección. Aunque cada paso es lineal en los valores de muestra y en la posición,
la interpolación en su conjunto no es lineal, sino más bien cuadrática en la ubicación de
la muestra.
16
2.3 Método Bilineal 2 INTERPOLACIÓN EN DOS DIMENSIONES
Algoritmo
Supongamos que queremos encontrar el valor de la función desconocida f en el punto (x, y).
Se supone que conocemos el valor de f en los cuatro puntos Q11 = (x1 , y1 ) , Q12 = (x1 , y2 ) ,
Q21 = (x2 , y1 ) , y Q22 = (x2 , y2 ) .
x2 −x x−x1
f (x, y2 ) ≈ x2 −x1
f (Q12 ) + x2 −x1
f (Q22 )
y2 −y x2 −x x−x1 y−y1 x2 −x x−x1
≈ y2 −y1 x2 −x1
f (Q11 ) + x2 −x1
f (Q21 ) + y2 −y1 x2 −x1
f (Q12 ) + x2 −x1
f (Q22 )
1
= (x2 −x1 )(y2 −y1 )
[f (Q11 ) (x2 − x) (y2 − y) + f (Q21 ) (x − x1 ) (y2 − y)
f (Q11 ) f (Q12 ) y2 − y
1
= (x2 −x1 )(y2 −y1 ) x2 − x x − x 1
f (Q21 ) f (Q22 ) y − y1
Nótese que vamos a llegar al mismo resultado si la interpolación se realiza en primer lugar
a lo largo de la dirección y y luego a lo largo de la dirección x.
Algoritmo alternativo
f (x, y) ≈ a0 + a1 x + a2 y + a3 xy
17
2.3 Método Bilineal 2 INTERPOLACIÓN EN DOS DIMENSIONES
1 x 1 y1 x1 y1 a0 f (Q11 )
1 x1 y 2 x1 y 2
a1 f (Q12 )
=
1 x2 y 1 x2 y 1
a2 f (Q21 )
1 x2 y 2 x2 y 2 a3 f (Q22 )
Cuadrado unitario
No lineal
18
2.3 Método Bilineal 2 INTERPOLACIÓN EN DOS DIMENSIONES
dónde
a00 = f (0, 0)
En el mapeo de texturas, que también se conoce como el filtrado bilineal o mapeo de textura
bilineal, y que puede ser utilizado para producir una imagen razonablemente realista. Un
3
promedio ponderado de los atributos (color, alfa, etc.) de los cuatro que rodean texels
se calcula y se aplica al pı́xel de la pantalla. Este proceso se repite para cada pı́xel que
constituye el objeto de ser texturizado.
Cuando una imagen necesita ser ampliado, cada pı́xel de la imagen original necesita ser
3
Un texel es la unidad mı́nima de una textura aplicada a una superficie, usada en gráficos por compu-
tador.
19
2.3 Método Bilineal 2 INTERPOLACIÓN EN DOS DIMENSIONES
movido en una dirección determinada sobre la base de la constante de escala. Sin embargo,
cuando la ampliación de una imagen por un factor de escala no integral, hay pixeles (es
decir, huecos) que no se asignan valores de los pixeles correspondientes. En este caso, esos
agujeros deberı́an asignarse valores RGB o escala de grises adecuadas para que la imagen
de salida no tenga pixeles no valorados.
La interpolación bilineal considera la zona más cercana 2x2 de valores de pı́xel conocidos
al rededor de los pı́xeles desconocidos en la ubicación del ordenador. A continuación, toma
un promedio ponderado de estos 4 pı́xeles para llegar a su valor final, interpolado. El peso
de cada uno de los 4 valores de pı́xeles se basa en la distancia de pı́xeles del ordenador (en
el espacio 2D) de cada uno de los puntos conocidos.
20
2.3 Método Bilineal 2 INTERPOLACIÓN EN DOS DIMENSIONES
21−20.2 20.2−20
I20.2,14.5 = 21−20
(150.5) + 21−20
(128.5) = 146.1
Este algoritmo reduce parte de la distorsión visual causado por el cambio de tamaño de
una imagen a un factor de zoom no integral, a diferencia de la interpolación del vecino
más cercano, lo que hará que algunos pı́xeles aparecen más grandes que otros en la imagen
redimensionada.
Código
Al igual que en el método anterior lo siguiente es una parte del código de la función interp2
de Octave, para la interpolación bilineal.
z (x , y ) = a + b * x + c * y + d * xy
##
## a - b
## | |
## c - d
a = Z (1:( zr - 1) , 1:( zc - 1) ) ;
b = Z (1:( zr - 1) , 2: zc ) - a ;
c = Z (2: zr , 1:( zc - 1) ) - a ;
d = Z (2: zr , 2: zc ) - a - b - c ;
21
2.3 Método Bilineal 2 INTERPOLACIÓN EN DOS DIMENSIONES
## Get 2 D index .
surf ( ZI )
Representación gráfica.
22
2.3 Método Bilineal 2 INTERPOLACIÓN EN DOS DIMENSIONES
Figura 2.8: Gráfica de la función sin (2x) (x2 − xy + y 2 ) utilizando el método bilinial
−1 −3 1 − y
= 1−x x
1 5 y
−2y − 1
= 1−x x
4y + 1
== 2x − 2y + 6xy − 1
23
2.4 Método Bi-cúbico 2 INTERPOLACIÓN EN DOS DIMENSIONES
Supongamos que los valores de la función f y las derivadas fx , fy y fxy son conocidas
en las cuatro esquinas (0, 0), (1, 0), (0, 1) y (1, 1) en el cuadrado unitario. La superficie
interpolada puede entonces ser escrita.
3 X
X 3
p (x, y) = aij xi y j
i=0 j=0
P3 P3
4. f (1, 1) = p (1, 1) = i=0 j=0 aij
24
2.4 Método Bi-cúbico 2 INTERPOLACIÓN EN DOS DIMENSIONES
Del mismo modo, ocho ecuaciones para las derivadas en la dirección de x y la dirección de
y
25
2.4 Método Bi-cúbico 2 INTERPOLACIÓN EN DOS DIMENSIONES
3 P
3
aij xi jy j−1
P
py (x, y) =
i=0j=1
3 P
3
aij ixi−1 jy j−1 .
P
pxy (x, y) =
i=1j=1
Este procedimiento produce una superficie p (x, y) en el cuadrado unitario [0, 1] × [0, 1] la
cual es continua y con derivadas continuas. La interpolación bicúbica en una cuadrı́cula
de tamaño arbitrariamente regular se puede lograr mediante un conjunto de parches de
dichas superficies, asegurando que los instrumentos derivados corresponden en los lı́mites.
α = [a00 , a10 , a20 , a30 , a01 , a11 , a21 , a31 , a02 , a12 , a22 , a32 , a03 , a13 , a23 , a33 ]T
y dejar
x = [f (0, 0) , f (1, 0) , f (0, 1) , f (1, 1) , fx (0, 0) , fx (1, 0) , fx (0, 1) , fx (1, 1) , fy (0, 0) , fy (1, 0) ,
fy (0, 1) , fy (1, 1) , fxy (0, 0) , fxy (1, 0) , fxy (0, 1) , fxy (1, 1)]T
el sistema anterior de ecuaciones se puede reformular en una matriz para la ecuación lineal
Aα = x. La inversa de la matriz da la ecuación lineal más útil A−1 x = α permite que α
pueda calcularse rápida y fácilmente, donde:
1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0
−3 3 0 0 −2 −1 0 0 0 0 0 0 0 0 0 0
2 −2 0 0 1 1 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0
0 0 0 0 0 0 0 0 −3 3 0 0 −2 −1 0 0
−1
0 0 0 0 0 0 0 0 2 −2 0 0 1 1 0 0
A = .
−3 0 3 0 0 0 0 0 −2 0 −1 0 0 0 0 0
0 0 0 0 −3 0 3 0 0 0 0 0 −2 0 −1 0
9
−9 −9 9 6 3 −6 −3 6 −6 3 −3 4 2 2 1
−6 6 6 −6 −3 −3 3 3 −4 4 −2 2 −2 −2 −1 −1
2
0 −2 0 0 0 0 0 1 0 1 0 0 0 0 0
0 0 0 0 2 0 −2 0 0 0 0 0 1 0 1 0
−6 6 6 −6 −4 −2 4 2 −3 3 −3 3 −2 −1 −2 −1
4 −4 −4 4 2 2 −2 −2 2 −2 2 −2 1 1 1 1
26
2.4 Método Bi-cúbico 2 INTERPOLACIÓN EN DOS DIMENSIONES
o
a00 a01 a02 a03 1 0 0 0 f (0, 0) f (0, 1) fy (0, 0) fy (0, 1) 1 0 −3 2
a10 a11 a12 a13 0 0 1 0 f (1, 0) f (1, 1) fy (1, 0) fy (1, 1) 0 0 3 −2
= ,
a20 a21 a22 a23 −3 3 −2 −1 −2
fx (0, 0) fx (0, 1) fxy (0, 0) fxy (0, 1) 0 1 1
a30 a31 a32 a33 2 −2 1 1 fx (1, 0) fx (1, 1) fxy (1, 0) fxy (1, 1) 0 0 −1 1
donde
a00 a01 a02 a03 1
a10
i a11 a12 a13 y
h
p (x, y) = 1 x x2 x3
2
a20 a21 a22 a23
y
a30 a31 a32 a33 y3
Si las derivadas son desconocidas por lo general son aproximadas a partir de los valores
de la función en los puntos vecinos de las esquinas del cuadrado unitario, por ejemplo,
usando diferencias finitas.
Para calcular la derivada cruzada, fxy , tomamos la derivada en ambos ejes, uno a la vez.
Por ejemplo, se puede calcular primero fx (derivada de x) de los puntos encima y por
debajo del punto de búsqueda, luego, calculamos fy en esos valores para obtener el valor
de fxy (x, y) para el punto de destino. También se puede hacer en dirección opuesta, en
primer lugar calcular fy y luego fx , los dos resultados son equivalentes.
En los bordes de la base de datos, cuando falta algunos de los puntos circundantes, los
27
2.5 Método de Barnes 2 INTERPOLACIÓN EN DOS DIMENSIONES
puntos que faltan pueden aproximarse mediante uno de una serie de métodos. Un método
simple y común es asumir que la pendiente desde el punto hasta el punto de destino
existente continúa sin más cambios, y usando esto para calcular un valor hipotético para
el punto que falta.[7]
surf ( ZI )
Representación gráfica.
Figura 2.9: Gráfica de la función sin (2x) (x2 − xy + y 2 ) utilizando el método bicúbico
28
2.5 Método de Barnes 2 INTERPOLACIÓN EN DOS DIMENSIONES
en dos dimensiones en una función analı́tica de dos variables. Un ejemplo de una situación
en la que el esquema de Barnes es importante es en los pronósticos meteorológicos, donde
las mediciones se realizan allı́ donde las estaciones de monitoreo pueden estar situados,
las posiciones, los que se ven limitados por la topografı́a. Tal interpolación es esencial en
la visualización de datos, por ejemplo, en la construcción de gráficos de contorno u otras
representaciones de superficies analı́ticas.
Método
Primero paso
29
2.5 Método de Barnes 2 INTERPOLACIÓN EN DOS DIMENSIONES
de ponderación se asigna a cada uno de Gauss para cada punto de la rejilla, de tal manera
que
2
r
wij = exp − m
κ
La interpolación inicial para la función de los valores medidos fk (x, y) entonces se convierte
en:
P
wij fk (x, y)
k
go (xi , yj ) = P
wij
k
Segundo paso.
Vale la pena observar que los pasos de corrección sucesivos se pueden utilizar con el fin de
lograr un mejor acuerdo entre la función interpolada y los valores medidos en los puntos
experimentales.
Selección de parámetros
Aunque se describe como un método objetivo, hay muchos parámetros que controlan el
campo interpolado. La elección de 4n, la rejilla de separación 4x y γ influyen en el resul-
tado final. Directrices para la selección de estos parámetros se han sugerido, sin embargo,
los valores finales utilizados son libres de ser elegido dentro de estas directrices.
30
2.6 Remuestreo Lanczos. 2 INTERPOLACIÓN EN DOS DIMENSIONES
Remuestreo Lanczos y filtrado Lanczos son dos aplicaciones de una fórmula matemática.
Puede ser utilizado como un filtro de paso bajo o se utiliza para interpolar suavemente el
valor de una señal digital entre sus muestras. Una muestra es un valor o un conjunto de
valores en un punto en el tiempo y / o espacio.
Fórmula de interpolación.
31
2.6 Remuestreo Lanczos. 2 INTERPOLACIÓN EN DOS DIMENSIONES
1
si x = 0
L (x) = a sin(πx) sin(πx/a)
π 2 x2
si 0 <| x |< a .
0
Otro caso.
Dada una señal unidimensional con muestras si , para valores enteros de i el valor interpo-
lado S(x) de un argumento arbitrario real x se obtiene por la convolución discreta de las
muestras con el núcleo de Lanczos.
bxc+a
X
S (x) = si L (x − i)
i=bxc−a+1
donde a es el parámetro de tamaño de filtro y xxy es la función mayor entero. Los lı́mites
de esta suma son tales que el núcleo es cero fuera de ellos.
Propiedades.
32
2.7 Triangulación de Delaunay. 2 INTERPOLACIÓN EN DOS DIMENSIONES
todas partes, y su derivada está definida y es continua en todas partes (incluso en x = ±a,
en donde ambas funciones sin van a cero). Por lo tanto, la señal S(x) será continua, con
derivada continua.
Dada una señal bidimensional sij que se define en los puntos enteros (i, j) del plano (por
ejemplo, intensidades de los pı́xeles de una imagen digital), la función reconstruida es
bxc+a byc+a
X X
S (x, y) = sij L (x − i) L (y − j) .
i=bxc−a+1 i=byc−a+1
33
2.7 Triangulación de Delaunay. 2 INTERPOLACIÓN EN DOS DIMENSIONES
d-dimensiones Delaunay.
34
2.7 Triangulación de Delaunay. 2 INTERPOLACIÓN EN DOS DIMENSIONES
de Delaunay es una triangulación DT(P ), de tal manera que ningún punto P está dentro
de la circu-hiperesfera de cualquier simplex en DT(P ). En geometrı́a, un simplex es una
generalización de la noción de un triángulo o tetraedro a arbitrarias dimensiones.
Algoritmo.
35
2.8 Método de Bezier 2 INTERPOLACIÓN EN DOS DIMENSIONES
Aplicaciones.
Para el modelado del terreno u otros objetos, dado un conjunto de puntos de muestra, la
triangulación de Delaunay da un buen conjunto de triángulos para su uso como polı́gonos
en el modelo. En particular, la triangulación de Delaunay evita triángulos estrechos (ya
que tienen grandes circunferencias circunscritas en comparación con su área).
Superficies de Bézier son un tipo especial de spline matemático utilizado en gráficos por
computadora, diseño aislado por computadoras y modelaje en elementos finitos. Como una
curva de Bézier, una superficie de Bézier se define por un conjunto de puntos de control.
Similar a la interpolación en muchos aspectos, una diferencia clave es que una superficie,
en general no pasa a través de los puntos centrales de control; más bien, se ”alarga” hacia
ellos, como si cada una fuera una fuerza de atracción. Son visualmente intuitivos, y para
muchas aplicaciones, matemáticamente conveniente.
36
2.8 Método de Bezier 2 INTERPOLACIÓN EN DOS DIMENSIONES
Una superficie de Bézier de dos dimensiones se puede definir como una superficie paramé-
trica donde la posición de un punto P como una función de coordenadas paramétricas u, v
es dada por:
n X
X m
P (u, v) = Bin (u) Bjm (v) ki,j
i=0 j=0
es un polinomio de Bernstein.
◦ Una superficie de Bézier se transformará en la misma forma que sus puntos de control
bajo todas las transformaciones lineales y traslaciones.
◦ Los puntos en la parte correspondientes a las esquinas del cuadrado unitario defor-
mado coinciden con cuatro de los puntos de control.
◦ Sin embargo, una superficie de Bézier generalmente no pasa a través de sus otros
puntos de control.
Generalmente, el uso más común de las superficies de Bézier son unas redes de parches
bicúbicos (donde m = n = 3). La geometrı́a de una de estas partes bicúbicas es por lo tanto
37
2.8 Método de Bezier 2 INTERPOLACIÓN EN DOS DIMENSIONES
Superficies de Bézier más simples son formadas como esas partes bicuadráticas (m = n = 2),
o triángulos de Bézier .
Una cuadrı́cula de una parte de Bézier son superiores a las cuadrı́culas de los triángulos
como representación de superficies lisas, ya que son mucho más compactas, más fácil
de manipular, y tienen propiedades de continuidad mejores. Además, otras superficies
paramétricas comunes, tales como esferas y cilindros pueden ser bien aproximadas por un
número relativamente pequeño de parches de Bézier cúbicos.
Sin embargo, la cuadrı́cula de parches de Bézier son más difı́ciles de generar directamente.
Un problema con los parches de Bézier es que el cálcular sus intersecciones con las lı́neas
es difı́cil, haciéndolos un poco extraños para el trazado de rayos u otras técnicas geomé-
tricas directas las cuales no utilizan tecnicas de subdivisión o aproximaciones sucesivas.
Ellos también son difı́ciles de combinar directamente con algoritmos de perspectiva de
proyección.
Por esta razón, la cuadrı́cula de parches Bézier son, en general, eventualmente descompues-
tas en cuadrı́culas de triángulos lisos por generadores 3D. En generación de alta calidad,
la subdivisión se ajusta para que sea tan fina que las lineas fronteras de las triángulacio-
nes individuales no se pueden ver. Para evitar una apariencia poligonal o distorcionada,
detalles finos son aplicados a superficies de Bézier en ese momento utilizando mapas de
texturas, mapas de bultos y otras técnicas de sombreado a pı́xeliado.
Un parche de Bézier de grado (m, n)puede ser construido de dos triángulos de Bézier de
6
B-spline es una función spline que tiene el mı́nimo soporte con respecto a un determinado grado,
suavidad y partición del dominio.
Se denomina soporte de una función al conjunto de puntos donde la función no es cero, o a la cerradura
de ese conjunto.
38
2.9 Método IDW 2 INTERPOLACIÓN EN DOS DIMENSIONES
Un triángulo de Bézier de grado m podria también ser construido a partir de una superficie
de Bézier de grado (m, m), con los puntos de control de tal forma que uno de los bordes
también es aplastado en un punto, o con el dominio de entrada que es un triángulo en
lugar de un cuadrado. [8]
7
2.9. Método IDW
Ejemplo 6. Dado los siguientes valores se desea estimar Z (0.5, 0.5) utilizando el método
de ponderación de distancia inversa con P = 2.
7
Inverse Distance Weighting (IDW)
39
2.9 Método IDW 2 INTERPOLACIÓN EN DOS DIMENSIONES
i (Si ) Z (Si )
1 (0, 0) -2
2 (1, 0) 5
3 (0, 2) 3
4 (1, 1) -1
Sol: Primero calculamos las distancias entre (S0 ) y los (Si ) para i = 1, 2, 3, 4
√
2
d10 =
2
√
2
d20 =
2
√
10
d30 =
2
√
2
d40 =
2
con
N
X 32
d−p
i0 =
i=1
5
por lo que
4
X
Z (0.5, 0.5) = λi Z (Si )
i=1
5 −2
d10 (−2) + d−2 −2 −2
= 20 (5) + d30 (3) + d40 (−1)
32
5 6
= −4 + 10 + − 2
32 5
5 26
=
32 5
13
= ' 0.81
16
40
2.10 Método Kriging 2 INTERPOLACIÓN EN DOS DIMENSIONES
Kirging es una colección de técnicas generadas de regresión lineal para minimizar una va-
rianza de estimación definida en un modelo a priori de covarianza. Es considerado el mejor
estimador lineal insesgado: lineal porque es una combinación lineal ponderada de los datos;
y es insesgado porque el error de estimación tendrá una media igual a cero; es el mejor en
el sentido de error de varianza mı́nima para un modelo dado de covarianza/variograma.
Lineales:
◦ Simple
◦ Ordinario
◦ Universal
◦ Residual
No lineales:
◦ Disyuntivo
◦ Indicador
◦ Probabilı́stico
Puntual
En bloques
Paramétrico:
41
2.10 Método Kriging 2 INTERPOLACIÓN EN DOS DIMENSIONES
◦ Multigaussiano
◦ Disyuntivo
◦ Lognormal
No paramétrico:
◦ Simple
◦ Ordinario
◦ Universal
◦ Residual
◦ Indicador
◦ Probabilı́stico
Z ∗ (v) = λi Z (xi )
n
X
λi = 1
i=1
donde Z ∗ (v) es el valor estimado y λi son los pesos de kriging, de modo que los λi sean
obtenidos de tal forma que proporcione un estimador insesgado E [Z ∗ (v) − Z (v)] = 0 y
de varianza mı́nima Var [Z ∗ (v) − Z (v)] .
42
2.10 Método Kriging 2 INTERPOLACIÓN EN DOS DIMENSIONES
Supóngase que hay una variable regionalizada estacionaria con media m, y covarianza
conocida y sea Z (x) la variable de interés medida en el sitio x, donde m está dado por
m = E [Z (x)] .
El estimador y el sistema a resolver para encontrar los pesos λi y los valores estimados
para Z ∗ (xi ) está dada por
Estimador :
n n
!
X X
Z ∗ (v) = λi Z (xi ) + m 1 − λi .
i=1 i=1
Sistema:
n
X
λi C (xi , xj ) = C (xj , v) j = 1, . . . , n
i=1
Varianza de Kriging:
n
X
σ 2 = C (v, v) − λi C (xi , xj )
i=1
es decir
43
2.10 Método Kriging 2 INTERPOLACIÓN EN DOS DIMENSIONES
n
X
∗
Z (v) = λi Z (xi ) .
i=1
En términos de la covarianza
Estimador:
n
X
∗
Z (v) = λi Z (xi )
i=1
Sistema:
ni=1 λi C (xi , xj ) − µ = C (xi , v)
P
i, j = 1, . . . , n
ni=1 λi = 1
P
Varianza de Kriging:
n
X
2
σ = C (v, v) − λi C (xi , v) + µ
i=1
σ σ12 . . . σ1n 1 λ σ
11 k1
σ21 σ22 . . . σ2n 1 λ σk2
. .
. .
. = .
. . . . . . . . . . . . . . .
σn1 σn2 . . . σnn 1 λ σkn
1 1 ... 1 0 −µ 1
Este sistema de ecuaciones tiene solución única sı́ y solo sı́ la matriz es no singular, lo
cual se cumple cuando la matriz de covarianza es estrictamente definida positiva, esto se
puede garantizar si se usan modelos de función de covarianzas definidas positivas y no
44
3 COMPARACIÓN ENTRE MÉTODOS
se incluyen puntos duplicados. Es decir, no se puede usar una muestra donde la función
aleatoria tome dos valores distintos en un mismo punto.