Documente Academic
Documente Profesional
Documente Cultură
FACULTAD DE INGENIERIA
Profesor Guía:
Santiago – Chile
Año 2015
© Julio A. Vega Fuentes, 2015.
Se autoriza la reproducción parcial o total de esta obra, con fines académicos, por
cualquier forma, medio o procedimiento, siempre y cuando se incluya en la cita
bibliográfica de este documento.
RESUMEN
Este trabajo de título utilizó las RNA para lograr realizar estimaciones globales de un
yacimiento separado en 5 dominios, los cuales fueron comparados con la información obtenida
por sondajes. Además las RNA utilizadas poseen diversos tipos de algoritmos de aprendizajes,
los cuales nos permitió hacer un análisis comparativo entre ellos para determinar cuál es el
mejor para cada dominio simulado. Los errores promedio obtenidos del proceso de
entrenamiento son de 5,61% para el dominio 1, 7,08% para el segundo, el domino 3 tuvo un
error de 9,42, mientras que el cuarto fue el más alto con un 16,05% y por último un 10,61% de
error promedio para el dominio 5.
i
Los errores promedios de cada dominio fueron diferentes debido a que el método de
simulación de RNA depende directamente de la distribución de datos que hay en cada dominio,
siendo los errores más altos aquellos dominios que poseían una mayor dispersión y varianza en
sus datos.
Por otro lado también se logró realizar estimaciones puntuales en lugares donde no
existía información de sondaje, los cuales se compararon con información obtenida por métodos
tradicionales de estimación obteniéndose un error promedio de 12,70%, con una gran similitud
estadísticas entre los datos obtenidos por Kriging y los datos simulados por las RNA.
ii
TABLA DE CONTENIDO
1. INTRODUCCIÓN ....................................................................................................................... 1
iii
5. CONCLUSIONES .................................................................................................................... 50
APENDICE ................................................................................................................................... 55
iv
ÍNDICE DE TABLAS
v
Tabla C.4: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 2.
..................................................................................................................................................... 71
Tabla C.5: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 3.
..................................................................................................................................................... 72
Tabla C.6: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 4.
..................................................................................................................................................... 74
Tabla C.7: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 5.
..................................................................................................................................................... 75
Tabla C.8: Datos Pertenecientes a la Vecindad de Entrenamiento. ........................................... 77
Tabla C.9: Error Relativo y Datos Estimados por Método del Kriging y RNA. ............................ 80
vi
ÍNDICE DE ILUSTRACIONES
Figura B.1: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Yacimiento
Completo. ..................................................................................................................................... 60
vii
Figura B.2: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 1. ....... 61
Figura B.3: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 2. ....... 62
Figura B.4: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 3. ....... 63
Figura B.5: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 4. ....... 64
Figura B.6: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 5. ....... 65
viii
CAPÍTULO I
INTRODUCCIÓN
1
1.1. Planteamiento del problema.
En la actualidad el método de estimación más utilizado para las leyes del mineral es el
“Kriging” (Accini, 2007), el cual consiste en una estimación de ley en un punto usando las leyes
conocidas pertenecientes a una vecindad bien establecida, las cuales son ponderadas en
función de la distancia. Este método solo considera como variables directas la distancia entre
los puntos de la vecindad y el punto que se desea estimar y la ley del mineral de interés,
dejando de lado otros parámetros que son de vital importancia, como las leyes de otros
minerales que están estrechamente relacionados con el elemento de interés o parámetros
cualitativos como la litología, las alteraciones geológicas, la mineralización, entre otras. Pero el
Kriging se realiza mediante una agrupación de información geológica sobre el terreno, los
cuales se conocen como dominios geológicas, los cuales dividen el yacimiento completo en
áreas más pequeñas que compartan algunas propiedades en común, por lo cual las
estimaciones realizadas con el Kriging a pesar de solo usar las leyes de interés y la distancias,
indirectamente usan las cualidades geológicas de las muestras para variar las ponderaciones
entre un dominio y otro. Por otro lado la estimación se realiza a partir de ponderaciones lineales
de variables aditivas como lo son las leyes de mineral.
Debido a esto el método del Kriging genera una gran incertidumbre al momento de
estimar los recursos del yacimiento en estudio, ya que se limita al uso único de variables
cuantitativas y de carácter aditivo, a pesar de realizar las estimaciones según la agrupación por
dominios geológicos.
2
Para solucionar este problema se propone realizar una simulación usando Redes
Neuronales Artificiales (RNA), las cuales se basan en el comportamiento del cerebro para
procesar una gran cantidad de información, aprender y adaptarse a los cambios del entorno.
Las RNA son utilizadas en muchas áreas de la ciencia como la meteorología, la minería
de datos, biología, aplicaciones militares, sistemas de control, etcétera. Entre las principales
ventajas que poseen las RNA se encuentran el aprendizaje adaptativo, la auto-organización y
la tolerancia a los fallos, que le permite utilizarlo en una gran variedad de aplicaciones (Yukei,
2012).
Para realizar las simulaciones se utilizará el software Matlab, con el cual se crearán y
modificarán las entradas para la RNA. Estas serán programadas mediante la herramienta
llamada “Neural Network” (toolbox perteneciente a Matlab). Los resultados obtenidos de las
diversas simulaciones, se utilizará para realizar un análisis geoestadísticos, los cuales serán
comparados con la información obtenida mediantes sondajes reales de los diversos dominios
del yacimiento, con el fin, de obtener la simulación que se acerque más a la realidad, por la
tanto, la que genere una menor incertidumbre y nos permita tomar las mejores decisiones al
momento de planificar los métodos para extraer el mineral de interés del yacimiento y cuantificar
de mejor manera los costos y riesgos del proyecto.
3
1.2. Objetivos.
Estimar las leyes de cobre, variable aditivas y no aditivas, a partir de un modelo de RNA
por grupos geológicos definidos. Comparar los valores predichos por el modelo de RNA
y datos obtenidos de sondajes.
Comparar los resultados obtenidos de la modelación con diversos algoritmos de
aprendizaje para disminuir el error general de los modelos.
Estimar las leyes de cobre para valores puntuales a partir de datos de sondajes
mediante modelamiento de RNA y determinar los errores con estimaciones por
modelamiento tradicional.
4
CAPÍTULO II
ANTECEDENTES BIBLIOGRÁFICOS
5
2.1. Geoestadística.
6
Figura 2.1. Variable regionalizada. Ley de cobre total. Elavoración propia.
7
de la variable. El proceso de modelamiento y el planteamiento de hipótesis requeridas aportan
mayor información que el simple conjunto de datos obtenidos, pero las hipótesis y parámetros
utilizados no deben ser arbitrados, ya que deben controlarse experimentalmente, de esta
manera disminuir la complejidad del modelamiento para que represente de mejor manera la
variable modelada.
8
Las estimaciones entregadas por el Kriging dependen directamente de la configuración
geométrica de los datos y su continuidad espacial y de forma indirecta de los dominios
geológicos. Además este método solo utiliza como variable las leyes del mineral de interés, en
este caso ley total de cobre, dejando de lado muchas variables que afectan directamente en la
estimación, entre las cuales se encuentra variables cuantitativas, como son las variables
químicas, que para nuestro caso se consideraron las leyes de azufre y hierro, las que están
estrechamente relacionadas con la ley de cobre debido a la estructura química que poseen los
minerales de cobre. También se dejaron de lado variables cualitativas, como las variables
geológicas, entre las que se encuentran la conformación rocosa de las muestras (litología), las
alteraciones geológicas o la mineralogía. Por este motivo el Kriging es un método que posee
una gran incertidumbre en la estimación de las leyes, a pesar de tener una gran aceptación y
ser el método más utilizado en la actualidad.
El cerebro posee la capacidad de procesar una gran cantidad de información, como las
imágenes que se ven, los sonidos, las sensaciones de gusto, olfato y tacto, entre muchas otras
(Yukei, 2012). Esta capacidad se debe a la sinapsis que se produce entre las neuronas, las
cuales al recibir los distintos estímulos generan las interacciones necesarias para generar las
respuestas específicas, acorde a cada estimulo. Este análisis se trata de reproducir a partir de
las RNA, las cuales con el paso del tiempo se han hecho bastante populares en las
simulaciones y estimaciones de datos en una amplia gama de áreas de la ciencia, como por
ejemplo, estimaciones de números de azar, resolución de códigos, traducciones, estimaciones y
tendencias de contaminantes en el ambiente, predicción de precios, sistemas de control y
robots automatizados, estimaciones meteorológicas, estimaciones de leyes de minerales de
importancia o contaminantes, etcétera.
9
2.2.1. Modelo de Neurona.
Las RNA al igual que sus homologas biológicas están formadas por una unidad básica
llamada neurona. Las estructuras de ambas neuronas (biológica y artificial) se presentan y se
explican en las siguientes imágenes:
Las neuronas están conformadas por el Soma (cuerpo celular), cual posee varias
ramificaciones denominadas dendritas, la cual es la zona receptiva, donde la neurona recibe
todos los estímulos que serán procesados. La neurona posee además una estructura larga
denominada Axón, el cual es la línea de transmisión del mensaje el cual termina en una
ramificación denominados botones terminales, en estas terminaciones es donde se transmite el
mensaje y lleva a cabo el proceso de la sinapsis, con las dendritas de otras neuronas (Yukei,
2012).
10
Figura 2.3: Representación de Neurona Artificial. Elaboración propia.
Las neuronas artificiales están conformadas por las entradas (X i), las que representan al
estímulo que recibiría una neurona en las dendritas, cada una de estas posee un peso (W ij) que
está definida para cada entrada (i) y neurona (j). Dentro del cuerpo de la neurona se realizan las
funciones de ponderación y transferencia y por último se encuentra la función de salida (Y), que
se establece fuera del cuerpo de la neurona, la cual equivale al axón en su equivalente
biologico. Además de las entradas de las neuronas se puede considerar un umbral constante
(θ), también llamado “bias” que ayuda a ajustar la salida.
11
2.2.2. Estructuras de las Redes Neuronales Artificiales.
Las RNA están conformadas por un conjunto de neuronas que están interconectadas
entre sí. Estas neuronas se agrupan en conjuntos denominados “capas”, las cuales se definen
como un conjunto de neuronas que trabajan de forma paralela, esto quiere decir que la
información de entrada del sistema es analizado y procesado de forma simultanea por todas las
neuronas pertenecientes a la capa, entregando las salidas correspondientes.
Las RNA poseen diversas formas según el tipo de datos de ingreso del modelo que se
quiere representar y según la aplicación que se requiera, lo que está relacionado directamente
con el algoritmo de aprendizaje usado para el entrenamiento de las neuronas (Yukei, 2012). Los
componentes de las RNA que se pueden modificar en la estructura para lograr estos objetivos
son:
La cantidad de neuronas.
El número de capas.
La función de transferencia.
Algoritmo de aprendizaje
Las RNA se pueden clasificar según el número de capas que la conforman, donde se
aprecian dos tipos, estos son:
Red Monocapa: Son las RNA más sencillas, ya que están conformadas por neuronas
agrupadas en una única capa, por lo cual las entradas son procesadas solo una vez para
obtener los resultados del sistema.
12
Red Multicapa: Las RNA de este tipo están conformadas por dos o más capas, donde los datos
de entrada pasan a través de varios procesos de análisis antes de entregar la respuesta del
sistema. De este tipo red se pueden distinguir tres tipos de capas:
Capa de entrada: Las neuronas que conforman esta capa son las que analizan los
datos de entrada a la RNA. Las salidas de esta capa ingresan a otras capas dentro del
cuerpo de la RNA.
Capas ocultas: Estas capas se encuentra en la parte central de la RNA y analizan los
datos provenientes de otras capas (capa de entrada u otras capas ocultas).
Capa de salida: Es la última capa de la RNA. Las neuronas analizan los datos
provenientes de las capas ocultas y entregan las salidas del sistema total.
13
Figura 2.7: Ejemplo de Estructura de Redes. Elaboración propia.
Una parte fundamental de las RNA es la conformación del cuerpo de la neurona, ya que
es el lugar donde se procesa la información de entrada que ingresa al sistema y a cada
neurona. Como se mencionó con anterioridad en esta zona se encuentra tanto la función de
ponderación y de transferencia. En la función de ponderación es donde se agrupa toda la
información de entrada a la neurona con sus respectivos pesos, el cual puede ser de los
siguientes tipos:
Combinación Lineal:
Ec. 2.1
Distancia Euclídea:
Ec. 2.2
14
Tabla 2.1: Tipos de función de transferencia (Cubillos, 2007).
Limitador Fuerte
Hardlins
Simétrico
Lineal Purelin
Lineal Saturado
Satlinsn
Simétrico
Tangente Sigmoidal
Tansig
Hiperbólico
15
2.2.3. Entrenamiento o Aprendizaje.
El aprendizaje de las RNA es el proceso mediante el cual se modifican los pesos de las
neuronas en función de las entradas para obtener los resultados esperados. Esta modificación
en los pesos se interpreta como la creación y destrucción de las conexiones ya existente entre
las neuronas. Este proceso de aprendizaje continúa hasta que los valores de los pesos de cada
neurona se mantienen constantes en el tiempo. El entrenamiento de las RNA depende de cómo
se modifican los pesos de las neuronas y que criterios son los utilizados para establecer estos
cambios en las interconexiones neuronales.
Este tipo de aprendizaje no requiere una influencia externa para realizar los cambios en
los pesos y reorganizar las conexiones entre las neuronas. Estas redes deben encontrar las
características, regularidades, correlaciones y/o categorías entre los datos de entrada,
entregando los resultados sin ninguna intervención externa para determinar o verificar si las
respuestas son correctas o no. Los datos de salida obtenidos dependen únicamente de la
estructura de la RNA y el algoritmo de aprendizaje utilizado. Este entrenamiento es usado para
determinar si los datos de entrada poseen alguna similitud con información que se ha analizado
con anterioridad, también se puede realizar una “clusterización”, que corresponde a clasificar
los datos de entrada en categorías ya establecidas en el proceso de entrenamiento.
16
Hay dos tipos de algoritmos que son los más utilizados en el aprendizaje no
supervisado, estos son:
17
Perceptron y LMS Error (regla del mínimo error cuadrado). El primero calcula el error de
cada neurona de salida con los datos de salida deseado y con esta información se
modifica los pesos de la neurona anterior. El aprendizaje por LMS Error considera el
error de todas las neuronas, no tan solo de salida, por lo cual, se puede estimar un
error de global de la RNA, este error es distribuido entre todas las neuronas
predecesoras y modificando las conexiones entre ellas. Este tipo de aprendizaje
también es conocido como backpropagation (propagación hacia atrás) o LMS
multicapa, este método de aprendizaje fue el primero que permitió modificar los pesos
de las capas ocultas.
Por Refuerzo: Este tipo de aprendizaje es más lento que el anterior ya que es una
supervisión menos invasiva, ya que no presenta una especificación certera de la salida
deseada y el supervisor solo se limita a enviar una señal de refuerzo si la salida se
ajusta y modificar los pesos de las neuronas en función a esta información.
Debido al gran impacto que han tenido las RNA en diversas aplicaciones se generaron
una gran cantidad de software que nos permiten realizar de forma rápida y sencilla las
topologías de las RNA y realizar los procesos de aprendizaje y de simulación. Uno de los
software más populares y utilizado es “Neural Network Toolbox”, el cual es una herramienta que
pertenece a la plataforma de “Matlab”.
18
software que se usan para aplicaciones específicas, por ejemple, uso de ecuaciones
diferenciales, algoritmos de cálculos, redes neuronales, comunicaciones, control de sistema,
entre otros.
El software Neural Network Tollbox permite al usuario crear sus propias RNA usando la
tipología que el desee, ya sea considerando el número de capas, la cantidad de neuronas por
capas, la función de transferencia que se usara para cada capa de la RNA, el tipo de
entrenamiento que recibirán las neuronas (Cubillos, 2007). También nos permite supervisar el
entrenamiento de las neuronas, modificar los pesos calculados, realizar simulación y
estimaciones con nuevas base de datos sobre neuronas ya entrenadas.
19
CAPÍTULO III
METODOLOGÍA DE TRABAJO
20
3.1. Análisis y Caracterización de los Datos de Sondaje.
Los datos utilizados son información obtenida mediante sondajes reales, los cuales nos
permiten tener una base de datos de 22.432 muestras. A cada una de estas muestras se le
hace un análisis químico, el cual nos da las leyes de 14 elementos (Au, Ag, As, Bi, Cd, Fe, Mo,
Pb, S, Sb, Zn, TCu, AsCu y CNSCu) y un análisis geológico, el cual nos entrega información de
la topología, litología y mineralogía (minezone) de cada muestra. Entre estos dos análisis
poseemos tanto información cuantitativa (análisis químico) y cualitativa (análisis geológico).
Adicionalmente el yacimiento se encuentra dividido en 5 dominios geológicos, en los cuales, las
muestras obtenidas poseen características geológicas similares y cada muestra posee sus
coordenadas tridimensionales, junta con la identificación del sondaje al que pertenece.
Con el fin de obtener una representación gráfica del yacimiento se realiza una gráfica
tridimensional del yacimiento con una escala de leyes de cobre total para apreciar la distribución
de este elemento en el yacimiento. Se verifica que la distribución de los dominios que se
entrega sea concordante, lo cual se logra realizando las gráficas de frecuencia acumulativa para
cada domino en los elementos de importancia. En caso de encontrarse frecuencias
acumulativas similares se podrían agrupar dichos dominio y trabajarlos como un domino.
21
Por otra parte se procedió a identificar el número de sondajes que se realizaron, que
para nuestro caso se encontraron un total de 190 sondajes, y cada uno de ellos con un número
irregular de datos tomados que va desde las 17 muestra por sondaje hasta 278 muestras,
generando una base de datos de 22.432 muestras. Estas muestras esta tomadas con una
distancia de alrededor de 4 metros en el eje z y de 1 a 3 metros en el eje x e y, en el caso de los
sondajes que se realizaron de forma diagonal, mientras que en los sondajes realizados
verticalmente la distancia entre cada muestra varía entre 2 y 5 metros en el eje z.
Una vez definido las características de los datos de sondaje, se realizó un análisis
estadístico del yacimiento completo y por cada dominio geológico, con el fin de tener una base
comparativa para las simulaciones que se realizarán. El estudio estadístico se realizó para
cada uno de los elementos que nos entrega el análisis químico, teniendo mayor énfasis en las
leyes de mayor importancia. Además de realizarse el estudio por los dominios geológicos,
también se decidió realizar el análisis por las variables geológicas individualmente, esto quiere
decir, que se replicó para cada litología, alteración y minezone de forma independiente.
Tabla 3.1: Estadísticas Global de Ley de TCu, Fe y S. Fu propia basada en análisis de datos de
sondajes.
Una vez realizados los el análisis estadístico completo de las base de datos se procede
a agrupar los datos por dominios y preparar la información relevante para ingresar a las RNA
que se conformarán.
22
3.3. Análisis de Datos Atípicos en la Base de Datos.
El método de Grubbs nos permite realizar el análisis de valores atípicos para una gran
cantidad de muestras, que para nuestro caso cado dominio supera las 2.000 muestras. Esta
prueba es una forma de estudiar una medida sospechosa por medio de la comparación del
promedio con la medida sospechosa y la desviación estándar. El resultado obtenido se compara
mediante un factor denominado “T” (Amón, 2010).
Con el filtro de los datos atípicos se logra armar las matrices que se utilizarán para
realizar las RNA. Además se realiza un nuevo análisis estadístico para las leyes de cobre total
por cada dominio que se presenta a continuación, junto con el porcentaje de muestras usadas
del total.
Tabla 3 2: Estadística de ley de TCu por dominio y porcentaje de datos usados. Fuente propia
basada en análisis de datos de sondaje.
23
la matriz de entrada a la redes. Este estudio se realizó inicialmente con el dominio más grande
(dominio 1 con 5.994 puntos de muestreos), donde se logró establecer que la mejor
combinación de datos de entradas estaba conformada por las coordenadas (midx, midy, midz) y
las variables geológicas (alteración geológica, mineralogía y litología).
Por otra parte se determinó que para este tipo de simulación predictiva, es conveniente
realizar una RNA del tipo multicapa con retroalimentación y con un entrenamiento supervisado,
ya que para este caso en particular se pretende determinar las leyes de cobre total las cuales
son parte de la información que nos entrega el análisis químico. Por este motivo, para todas las
RNA realizadas se utilizó como matriz objetivo (target) los datos de la ley de TCu.
Una vez filtrados correctamente los datos de cada dominio y definido las matrices de
ingreso para las RNA, se procede a utilizar el software para crear las RNA, entrenarlas y simular
los datos. Esto se logra ejecutan el comando “nntool” en Matlab, para desplegar la pantalla
dinámica del Neural Network Toolbox.
24
claramente según corresponda en los cuadros de “Input”, “Target”, “Networks”, “Output”, “Error”,
entre otros.
En el botón “New…” se crean las RNA, donde se debe definir el nombre, el tipo de red
que se quiere crear junto con los datos de entrada y target (si corresponde con el tipo de red
escogida). También se deben escoger los algoritmos de entrenamiento, aprendizaje adaptativo
y desempeño. Además en esta pestaña nos permite armar la topología de la RNA definiendo el
número de capas que poseerá y el número de neuronas y la función de transferencia que tendrá
cada capa. Por último, nos da la opción de creer de forma manual los datos que se usarán en la
neurona, armando las matrices en la pestaña data.
Para las RNA formadas se dejaron algunos parámetros fijos, como lo fueron el tipo de
red (Feed-forward backprop) y los algoritmos de aprendizaje adaptativo (LEARGDM) y
desempeño (MSE). Inicialmente también se dejó fijo el algoritmo de entrenamiento (TRAINLM),
con el fin de realizar un análisis de la topología de las redes.
25
Figura 3.4: Ventana de Trabajo de RNA, pestaña “Train”
26
En la ventana de entrenamiento se pueden apreciar el comportamiento de los
parámetros a medida que pasan las iteraciones, además de gráficas del estado de
entrenamiento, las regresiones del entrenamiento, validación y prueba que se realizan, junto
con una regresión que considera estos tres parámetros.
Concluida la simulación los datos de salida y los errores del entrenamiento son
exportados del NNTool, con el fin de ser analizados y corroborar si los datos entregados son
satisfactorios mediante el cálculo del error promedio de los datos y una comparación gráfica
entre el comportamiento del target utilizado y los datos obtenidos, junto con la comparación de
sus frecuencias acumulativas.
27
3.6. Comparación de Algoritmos de Aprendizaje para Disminuir Errores Globales.
Luego de determinar las mejores topologías para cada domino, mediante el análisis del
error de entrenamiento y la comparación de las frecuencia acumulativas, se utilizan las matrices
de entrada y target para realizar los diversos entrenamientos variando los algoritmos de
aprendizaje, con el fin de disminuir el error del entrenamiento lo máximo posible. Cabe destacar
que el tipo de red sigue siendo feed-forward backprop y el resto de los algoritmos se mantiene
fijo.
Algoritmo de
Descripción
Entrenamiento
Entrenamiento de retropropagación cuasi-Newton con el método de
TRAINBFG
Broyden, Fletcher, Goldfarb y Shanno.
TRAINBR Entrenamiento de regulación bayesiana.
Entrenamiento de retropropagación de gradiante conjugado Powell-
TRAINCGB
Beale.
Entrenamiento de retropropagación de gradiante conjugado Fletcher-
TRAINCGF
Powell.
Entrenamiento de retropropagación de gradiante conjugado Polak-
TRAINCGP
Ribiere.
Entrenamiento de retropropagación de gradiante descendiente con tasa
TRAINGDA
de aprendizaje adaptativa.
Entrenamiento de retropropagación de gradiante descendiente con
TRAINGDX
momento y tasa de aprendizaje adaptativo.
TRAINLM Entrenamiento de retropropagación de Levenberg-Marquardt.
TRAINOSS Entrenamiento de retropropagación secante de un solo paso.
TRAINR Entrenamiento incremental de actualización de orden aleatorio.
TRAINRP Entrenamiento de retropropagación resilente.
TRAINSCG Entrenamiento de retropropagación de gradiante conjugado escalado.
28
Para definir cuáles son los mejores algoritmos de aprendizaje se realiza un análisis
estadístico comparativo con los datos utilizados en la matriz objetivo, junto con la comparación
del error de entrenamiento global promedio y el análisis comparativo de las frecuencias
acumulativas entre las simulaciones con los diversos algoritmos de aprendizaje y el target.
Para generar una estimación puntual más acertada se requiere hacer una cuadrícula
más fina dentro de los dominios. Cabe destacar que la simulación que se realizará deber ser
concordante con la RNA de su respectivo dominio, esto quiere decir, que tanto la topología,
como los parámetros de la red deben ser los mismo, por ejemplo, el número de capas y
neuronas, las funciones de transferencia de cada capa, los algoritmos de entrenamiento,
aprendizaje adaptativo y de desempeño deben ser iguales para todas las cuadriculas que
pertenecen al mismo dominio.
Los datos del dominio son filtrados según las coordenadas de las aristas del cubo con el
fin de obtener todos los puntos que se encuentran al interior del cubo, si es necesario se puede
realizar en análisis para filtrar los valores atípicos. Una vez obtenidos los datos se realiza una
gráfica tridimensional de la distribución de las muestras con sus respectivas leyes del mineral
de interés (TCu).
Cabe destacar que para que la simulación sea de utilidad los datos que se encuentran
en el interior del cubo deben ser de varios sondajes distintos, para lograr estimar con mayor
claridad los datos que se encuentran entre los sondajes, y así generar una vecindad que posee
información en varias direcciones respecto al punto que se desea estimar y no proveniente de
un único sondaje.
Por otro lado, es necesario generar un nuevo entrenamiento con los datos
pertenecientes al cubo formado, ya que la cantidad de datos que posee en mucho menor frente
29
a la totalidad dominio. Esto genera que los pesos establecidos en el dominio total sean distintos
en cada cuadrícula.
Las estimaciones se realizan en un cubo más pequeño ubicado en el centro del cubo de
200 m por lado, ya que los valores que están en los extremos son afectados por valores que se
encuentran fuera de la vecindad establecida, en cambios los valores que se encuentran en el
centro, serán influenciados únicamente por los valores que fueron usados para el entrenamiento
de la vecindad.
Los datos obtenidos se comparar con los del Kriging determinando el error relativo
punto a punto, obteniendo de estos un error promedio. Además se les realiza un análisis
estadístico junto con gráficas de frecuencia absoluta y dispersión de datos comparativas.
30
CAPÍTULO IV
RESULTADOS Y DISCUSIONES
31
4.1. Estimación Global de Leyes de Cobre Total (TCu).
Para determinar la mejor topología de cada dominio inicialmente debe especificarse con
claridad las bases de datos que se deben ingresar a las redes para producir los procesos de
entrenamiento y simulación. Además como se especificó en la metodología de trabajo, se
realizó un filtro de los datos originales y se dejaron algunos parámetros de la estructura de las
RNA fijos para realizar este estudio.
La matriz objetivo (target) corresponde a la ley de cobre total, mientras que la matriz de
entrada está conformada por las coordenadas tridimensionales de cada muestra, junto con sus
características geológicas (alteración, mineralogía y litología). Esta información de entrada para
la red (matrices de target y entrada) es una combinación datos espaciales, químicos y
geológicos, los cuales son datos cualitativos y cuantitativos.
Los parámetros de la red y entrenamiento que se dejaron fijos fueron los siguientes:
De todas las topologías probadas con estos parámetros hubo 2 que fueron las mejores
para los 5 dominios, las que se presentan a continuación.
32
Tabla 4.2: Mejor Topología por Dominio y Errores.
Topología Error
Capa 1 Capa 2 Capa 3
Dominio Min Max Prom
Neuronas Función Neuronas Función Neuronas Función
1 10 Logsig 5 Logsig 1 Purelin -21% 32% 5,24%
2 10 Tansig 5 Tansig 1 Purelin -32% 68% 7,75%
3 10 Tansig 5 Tansig 1 Purelin -52% 74% 11,42%
4 10 Tansig 5 Tansig 1 Purelin -127% 168% 16,05%
5 10 Logsig 5 Logsig 1 Purelin -53% 102% 10,61%
Desviación
Dominio N° Datos Promedio Mediana Mínimo Máximo Varianza
Estándar
1 5994 0,203 0,188 0,010 0,544 0,100 0,010
2 5275 0,238 0,214 0,005 0,794 0,149 0,022
3 4067 0,313 0,282 0,005 1,128 0,196 0,038
4 2789 0,471 0,354 0,025 2,521 0,367 0,135
5 4011 0,323 0,270 0,005 1,640 0,248 0,062
Desviación
Dominio Promedio Mediana Mínimo Máximo Varianza
Estándar
1 0,203 0,206 0,007 0,467 0,070 0,005
2 0,237 0,241 -0,006 0,942 0,101 0,010
3 0,312 0,375 -0,071 0,524 0,115 0,013
4 0,470 0,407 0,112 2,514 0,277 0,077
5 0,324 0,263 -0,091 3,004 0,202 0,041
33
Se puede apreciar que los errores de entrenamientos promedios se encuentran
relacionados con el promedio de la ley de TCu. Al existir una mayor variación entre el valor
mínimo y máximo también se genera un mayor error en el entrenamiento. En el caso particular
del dominio 4 se aprecia que el error es mayor, esto se puede deber a que es el dominio con
menor cantidad de datos y con mayor variación entre el valor mínimo y máximo, lo que nos
estrega una mayor desviación estándar y varianza.
Para ver las distribuciones tridimensionales de las leyes de cobre total se puede ver las
gráficas de cada dominio que se encuentran en el apéndice C.
Para determinar cuál de todos ellos es el mejor se realizó un análisis comparativo del
error promedio de cada uno de ellos, junto con un análisis estadístico donde se aprecian los
promedios, valores mínimos y máximos, varianza y desviación de los datos en cada algoritmo
de aprendizaje y por cada dominio geológico del yacimiento.
34
4.1.2.1. Resultados para el Dominio Número 1.
ERROR
Algoritmo
MIN MAX PROM
BR -21% 32% 5,24%
LM -22% 34% 5,30%
CGF -22% 35% 5,61%
CGP -22% 34% 5,76%
OSS -24% 36% 5,81%
CGB -22% 34% 5,85%
BFG -20% 35% 5,98%
RP -20% 35% 5,98%
GDX -23% 35% 6,06%
GDA -22% 34% 6,17%
SCG -24% 35% 12,77%
R -33% 22% 14,54%
Se puede apreciar que la tabla esta ordenada según el error promedio obtenido en cada
algoritmo de aprendizaje, por lo cual se puede apreciar que para el dominio 1 el algoritmo de
aprendizaje que posee el menor error promedio durante el entrenamiento corresponde al BR.
35
que posee datos que se alejan de la realidad en ambos extremos, lo cual genera una
irregularidad en las simulaciones. Por otro lado hay otros algoritmos que son más estables
estadísticamente y que poseen una mayor similitud frente a los valores de sondaje.
Para completar el análisis se debe realizar una gráfica de dispersión entre el target y los
valores obtenidos de la simulación, donde se puede apreciar que el mejor método de
aprendizaje para el dominio 1 corresponde al método denominado CGF. A pesar que este
algoritmo de aprendizaje posee un error levemente superior al menor (para este dominio el BR),
el error promedio se encuentra entre los 3 más bajos. Por otra parte el CGF es el más parecido
estadísticamente, por lo cual se escoge este algoritmo de aprendizaje por sobre los demás.
36
Tabla 4.7: Comparación de Error en el Entrenamiento para el Dominio 2.
ERROR
Algoritmo
MIN MAX PROM
BR -32% 68% 7,08%
LM -32% 67% 7,36%
CGF -34% 54% 7,68%
CGP -27% 70% 7,73%
OSS -32% 68% 7,75%
CGB -32% 68% 7,85%
BFG -29% 68% 7,90%
RP -24% 66% 8,08%
GDX -25% 69% 8,13%
GDA -31% 69% 8,15%
SCG -32% 59% 8,44%
R -55% 33% 27,30%
37
Figura 4.2: Grafica de Dispersión entre Target y Entrenamiento BR.
Por último al realizar las gráficas de dispersión de datos se logra apreciar que el mejor
algoritmo de aprendizaje para el dominio 2 es el BR, ya que este posee el menor error promedio
del entrenamiento y una de las mayores similitudes estadísticas.
ERROR
Algoritmo
MIN MAX PROM
BR -45% 60% 9,42%
SCG -49% 80% 9,85%
RP -39% 71% 10,04%
CGP -42% 73% 10,43%
CGB -44% 78% 10,46%
BFG -38% 73% 10,52%
OSS -40% 74% 10,54%
GDX -39% 72% 10,80%
CGF -45% 76% 11,23%
LM -52% 74% 11,42%
GDA -43% 79% 12,49%
R -85% 29% 45,95%
38
En este dominio se logra apreciar que se presenta una diferencia significativa en el
orden de los algoritmos de aprendizaje respecto su error promedio. Se puede observar que el
algoritmo BR es el que posee un menor error en el entrenamiento, siendo un 2% menor al
algoritmo que se establece como principal por Matlab (LM).
Para este dominio se determinó que el mejor algoritmo de aprendizaje corresponde al BR, cabe
destacar que para este dominio se produjo una gran diferencia en el valor máximo, donde los
máximos simulados estuvieron muy por debajo del target, siendo los mejor cercanos a los
0,77% de ley de cobre total en comparación a los 1,128% de los datos de sondaje, esto se
39
puede deber a la gran dispersión entre los datos, a pesar que este valor (máximo) no se
consideró como un dato atípico por el método de Grubbs.
Este es el dominio que posee una menor cantidad de muestras y al mismo tiempo es el
que posee una mayor dispersión de datos y varianza entre todos los dominios, por este motivo
es el que genera un mayor error promedio en el proceso de entrenamiento. A pesar de esto el
orden de los algoritmos de aprendizaje según su error promedio es similar a los dominios 1 y 2,
siendo el algoritmo del tipo BR es el mejor según su error promedio, seguido por el algoritmo
LM.
ERROR
Algoritmo
MIN MAX PROM
BR -91% 147% 15,49%
LM -127% 168% 16,05%
CGF -108% 209% 17,14%
CGP -101% 196% 17,14%
OSS -111% 178% 17,42%
CGB -93% 183% 18,79%
BFG -88% 208% 19,14%
RP -101% 175% 19,59%
GDX -89% 187% 19,64%
GDA -76% 182% 21,06%
SCG -73% 200% 21,43%
R -229% 32% 144,50%
40
Figura 4.4: Grafica de Dispersión entre Target y Entrenamiento LM.
Los algoritmos de aprendizaje poseen el mismo comportamiento que poseen los demás
dominios, a excepción del dominio número 3, por lo cual los 3 mejores algoritmos son BR, LM y
CGF. También se puede apreciar que el error promedio es alto en comparación a otros
dominios, esto se puede explicar de la misma forma que se realizó en el dominio 4, es decir, el
alto error promedio de los entrenamientos se debe a que la dispersión y varianza de los datos
dentro de este dominio es muy elevada.
41
Tabla 4.13: Comparación de Error en el Entrenamiento para el Dominio 5.
ERROR
Algoritmo
MIN MAX PROM
BR -53% 102% 10,61%
LM -61% 121% 10,89%
CGF -56% 110% 11,21%
CGP -64% 127% 11,44%
OSS -48% 136% 11,51%
CGB -65% 108% 11,81%
BFG -58% 124% 11,81%
RP -52% 143% 12,12%
GDX -47% 132% 12,53%
GDA -54% 126% 12,62%
SCG -46% 138% 12,84%
R -122% 45% 82,29%
42
Figura 4.5: Grafica de Dispersión entre Target y Entrenamiento BR.
Del mismo modo que para el resto de los dominios lo más importante para determinar el
mejor algoritmo de aprendizaje es el análisis estadístico comparativo con el target y las gráficas
de dispersión de datos. De este análisis se determinó que el mejor algoritmo para el dominio 5
corresponde al BR, debido a que posee el menor error posible y una de las mayores similitudes
estadísticas con respecto al target.
Para finalizar los resultados de los objetivos de simulación global de leyes de cobre se
presenta una tabla resumen de los algoritmos de aprendizajes y sus errores promedios para
cada dominio del yacimiento.
Tabla 4.15: Algoritmo de Aprendizaje y Error para cada Dominio del Yacimiento.
43
Para algunos de los dominios el cambio del algoritmo de aprendizaje predeterminado
(LM) generó en el dominio 3 una disminución considerable en el error promedio de
entrenamiento, y para el resto de los dominios, a excepción del dominio 4 (que mantuvo el
algoritmo de aprendizaje), se produjo una mayor similitud estadística con sus respectivas
matrices objetivo (target).
44
En esta gráfica de distribución tridimensional de las muestras se aprecian los 5
sondajes que se encuentran en su interior. Se observa que en esta vecindad la cantidad de
datos de sondaje generan grandes vacíos entre ellos lo cual a sus vez genera una gran
incertidumbre sobre las leyes de los minerales de interés, por lo cual, en esta gráfica se aprecia
claramente la necesidad de estimar valores de leyes de cobre, sin la necesidad de realizar
nuevos sondajes.
Topología Error
Capa 1 Capa 2 Capa 3
Dominio Min Max Prom
Neuronas Función Neuronas Función Neuronas Función
1 10 Logsig 5 Logsig 1 Purelin -17% 18% 6,35%
Se aprecia claramente que el error de entrenamiento es bajo, del orden del 6%, este
error es mayor que el error obtenido en el dominio 1 completo. Esto se debe a que hay una
menor cantidad de datos y se produce una mayor varianza y dispersión de los datos, lo que
afecta directamente el error promedio de los procesos de entrenamientos.
La estadística comparativa entre los datos de sondaje y los valores obtenidos del
proceso de entrenamiento se presenta en la siguiente tabla:
Target Entrenamiento
Promedio 0,308 0,307
Mediana 0,287 0,326
Mínimo 0,076 0,162
Máximo 0,543 0,460
Desviación 0,115 0,092
Varianza 0,013 0,008
45
4.2.2. Simulación y Comparación de Resultados.
Los datos entregados para comparación son estimaciones realizadas por el método del
Kriging. Como se especificó en el procedimiento se realizó un cubo de menor tamaño que se
encuentra en el centro de la vecindad usada para el proceso de entrenamiento, el que posee las
siguientes características:
Luego de la simulación por el método de las RNA se estima el error punto a punto con
los valores estimados tradicionalmente y se calcula el error promedio absoluto entre el Kriging y
la RNA. El cálculo de este error corresponde a un error relativo enfocado en la estimación
obtenida por el método del Kriging.
Error
Mínimo Máximo Promedio
-46% 27% 12,70%
La comparación entre los datos obtenidos por Kriging y el método de redes neuronales
y la distribución que se obtuvo dentro del cubo mediante la simulación de la RNA se presentan
en las siguientes gráficas.
46
Figura 4.7: Gráfica Comparativa entre Kriging y RNA.
En la figura 4.7 se puede apreciar la diferencia que se produjo en cada punto de las
estimaciones por los dos métodos. Se puede ver que alrededor del punto 60 el comportamiento
entre ambas estimaciones es muy similar y también se puede apreciar que los errores máximo y
mínimo se producen en puntos específicos.
En la figura 4.8 se aprecia cómo se distribuyen los puntos estimados en una gráfica
tridimensional de la vecindad utilizada.
Figura 4.8: Gráfica de Distribución Tridimensional de Ley de TCu para Datos Estimados por
RNA.
47
Por último, se presentan la información estadística entre los resultados obtenidos para
la estimación de los datos puntuales por medio de las RNA y el Kriging. Además se presenta
una gráfica de dispersión de datos y una gráfica comparativa de frecuencias acumulativa entre
ambos métodos.
Kriging RNA
Promedio 0,366 0,375
Mediana 0,361 0,371
Mínimo 0,248 0,257
Máximo 0,515 0,498
Desviación 0,056 0,046
Varianza 0,003 0,002
Se puede apreciar en la comparación estadística que hay una gran similitud entre la
estimación realizada por el método de Kriging y la simulación por RNA. Se puede apreciar que
tanto el promedio, como el valor mínimo de la RNA es levemente mayor que utilizando el
método tradicional. Por otro lado, el valor máximo del Kriging es mayor que obtenido mediante
las redes. Esto demuestra que la estimación por RNA generalmente nos estrega resultados con
una desviación en los datos menor a otros procesos, esto hecho se puede apreciar también al
comparar la desviación estándar y la varianza entre ambos métodos de estimación.
48
Figura 4.10: Gráfica de Dispersión de Datos entre Kriging y RNA.
Al analizar las gráficas de las figuras 4.9 y 4.10 se puede observar que en la primera
hay una gran similitud entre ambos métodos, en especial en la mitad superior de la gráfica, pero
como se dijo en el análisis estadístico el método de RNA genera una menor dispersión y
varianza lo que genera que se concentre una mayor cantidad de datos en el promedio en
comparación al método del Kriging. En la gráfica de dispersión se ve que los datos de ambos
procesos son extremadamente similares, lo que queda demostrada al realizar una línea de
tendencia con intersección en el origen (0,0), el cual nos entrega un R2 de 0,9103.
49
CAPÍTULO V
CONCLUSIONES
50
Para terminar, se presentan las conclusiones finales de este trabajo de título, las
cuales están basadas en el cumplimiento de los objetivos que se plantearon inicialmente.
Mediante el uso de las RNA se pueden realizar estimaciones con una gran precisión
para los variados elementos químicos utilizando diversos tipos de datos, como datos de
distribución espacial de las muestras (cuantitativos) y variables geológicas (cualitativos), los
cuales fueron las entradas que se determinaron para hacer los entrenamientos de las RNA,
junto con la ley del mineral de interés que fue utilizado como matriz objetivo. Las estimaciones
realizadas en forma global para el yacimiento fueron divididas en los 5 dominios geológicos con
el fin de que los datos utilizados para cada simulación tuvieran una similitud geológica.
Realizando la comparación entre los diversos dominios se logró establecer que el error
de entrenamiento de las RNA es principalmente sensible a la distribución de los datos y la
varianza que poseen lo que queda demostrado al apreciar los errores promedios de
entrenamiento del dominio 4 y 5, los cuales fueron los mayores debido a la baja cantidad de
muestras que se poseían, en comparación con los otros dominios, y que su valor mínimo y
máximo eran muy distantes. Por este motivo, se realizaron las pruebas de Grubbs para poder
determinar los valores atípicos dentro de cada dominio y sacarlos del procedimiento de
entrenamiento de las redes neuronales. Con esto se logró obtener un comportamiento
estadístico mayor entre los valores simulados por cada dominio y la información obtenida
mediante los sondajes.
51
las estimaciones de las RNA, esto nos demuestra que al variar el algoritmo no solo debemos
fijarnos en los errores, ya que el principal cambio se produce la comparación del
comportamiento de los datos simulados y los datos obtenidos por medio del sondaje.
Los valores utilizados como entradas, específicamente las coordenadas de los puntos a
estimar, se sacaron del método del Kriging con el fin de compararlos directamente, esto quiere
decir que, los puntos estimados por las RNA se encuentran exactamente en las mismas
posiciones de los estimados por el Kriging. Al comparar los datos obtenidos se obtuvo una gran
similitud, lo que queda demostrado tanto en el análisis estadístico, como en las gráficas de
frecuencia acumulativas y de dispersión, donde esta última nos entrega coeficiente de
determinación R2 de 0,9103. Por otro lado, se puede ver que el error promedio es cercano al
13%, el cual debe a la dispersión de los datos que se encuentra en un yacimiento.
Como conclusión final, se puede decir que, este método de estimación se puede
optimizar para realizar las cuadrículas de cada dominio para poder poblar el yacimiento
completo de una forma muy rápida, ya que los tiempos de estimación de grandes volúmenes de
datos son bastante pequeño y poseen una alta precisión. Por otra parte al ser el uso de las RNA
en esta área un método sin explotar, se podrían realizar grandes mejoras con respecto a los
métodos establecidos en la actualidad.
52
CAPÍTULO VI
REFERENCIAS BIBLIOGRÁFICAS
53
YUKIE, Victoria. Curso de Redes Neurais utilizando o MATLAB. Belén, Brasil, 2012.
BONILLA, José Ebert; RAMÍREZ, Jairo; RAMÍREZ, Óscar. Metodología para el diseño de
un modelo univariado de red neuronal para el pronóstico de la temperatura mínima en la
zona de Mosquera (Cundimarca, Colombia). Bogotá, Colombia, 2006.
MÉXICO. Centro Mexicano para la Producción Más Limpia. Reporte final del proyecto CGPI
20040727. México, 2004.
ISOZ, Vincent. MINITAB (v15-v17) Exercices de base (niveau PhD). Vincent ISOZ V19.0.
Révision, 2015.
54
APENDICE
55
APÉDICE A: ANÁLISIS DE DATOS ATÍPICOS POR EL MÉTODO DE GRUBBS.
El método de Grubbs es una prueba estadística que nos permite determinar valores
atípicos para muestras grandes, que para nuestro caso todos los dominios tienen una muestra
de varios de miles de datos. Este método consiste en determinar un valor “T”, el cual
corresponde a la diferencia absoluta entre el supuesto valor atípico, X 0, y el valor promedio de
la muestra ( ) dividido por la desviación estándar de la muestra (S), como se presenta en la
siguiente ecuación (StartPoint, 2006):
Este valor de T se compara con un valor tabulados, los cuales dependen del número de
datos pertenecientes a la muestra, paro para muestras extremadamente grandes se puede
considera que el valor analizado es atípico si su valor de T es mayor a 3.
Este método se realizó para cada dominio donde se determinaron los valores atípicos
para las leyes de cobre total y el resumen de este análisis se presenta en la siguiente tabla:
56
Figura A.1: Gráfica de Dispersión de Datos del Dominio 1.
57
Figura A.3: Gráfica de Dispersión de Datos del Dominio 3.
58
Figura A.5: Gráfica de Dispersión de Datos del Dominio 5.
59
Figura B.1: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Yacimiento Completo.
60
Figura B.2: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 1.
61
Figura B.3: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 2.
62
Figura B.4: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 3.
63
Figura B.5: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 4.
64
Figura B.6: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 5.
65
APÉNDICE C: RESULTADOS INTERMEDIOS.
C.1. Determinación de la Mejor Topología por Dominio.
Luego de analizar diversas entradas para las RNA y variadas topologías se logró
reducir a solo dos opciones para cada dominio, las que se presentan en las siguientes tablas y
graficas:
Topología Error
Capa 1 Capa 2 Capa 3
Simulación Min Max Prom
Neuronas Función Neuronas Función Neuronas Función
Simu11 10 tansig 5 tansig 1 purelin -23% 36% 6,15%
Simu12 10 logsig 5 logsig 1 purelin -21% 32% 5,24%
Simu21 10 tansig 5 tansig 1 purelin -32% 68% 7,75%
Simu22 10 logsig 5 logsig 1 purelin -33% 68% 9,32%
Simu31 10 tansig 5 tansig 1 purelin -52% 74% 11,42%
Simu32 10 logsig 5 logsig 1 purelin -38% 77% 12,26%
Simu41 10 tansig 5 tansig 1 purelin -127% 168% 16,05%
Simu42 10 logsig 5 logsig 1 purelin -89% 208% 20,14%
Simu51 10 tansig 5 tansig 1 purelin -56% 114% 11,15%
Simu52 10 logsig 5 logsig 1 purelin -53% 102% 10,61%
Desviación
Simulación Promedio Mediana Mínimo Máximo Varianza
Estándar
Simu11 0,205 0,224 0,013 0,304 0,060 0,004
Simu12 0,203 0,206 0,007 0,467 0,070 0,005
Simu21 0,237 0,241 -0,006 0,942 0,101 0,010
Simu22 0,240 0,197 -0,073 0,641 0,089 0,008
Simu31 0,312 0,375 -0,071 0,524 0,115 0,013
Simu32 0,315 0,380 0,040 0,460 0,101 0,010
Simu41 0,470 0,407 0,112 2,514 0,277 0,077
Simu42 0,476 0,439 0,091 1,022 0,206 0,042
Simu51 0,324 0,265 0,042 0,975 0,181 0,033
Simu52 0,324 0,263 -0,091 3,004 0,202 0,041
66
Figura C.1: Gráfica Comparativa de Frecuencia Acumulativa para Dominio 1.
67
Figura C.3: Gráfica Comparativa de Frecuencia Acumulativa para Dominio 3.
68
Figura C.5: Gráfica Comparativa de Frecuencia Acumulativa para Dominio 5.
Tabla C.3: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 1.
69
Figura C.6: Grafica de Dispersión entre Target y Algoritmos de Aprendizaje Dominio 1 (parte 1).
Figura C.7: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 1 (parte 2).
70
C.2.2. Resultados Para el Dominio 2.
Tabla C.4: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 2.
Figura C.8: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 2 (parte 1).
71
Figura C.9: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 2 (parte 2).
Tabla C.5: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 3.
72
Figura C.10: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 3 (parte 1).
Figura C.11: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 3 (parte 2).
73
C.2.4. Resultados Para el Dominio 4.
Tabla C.6: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 4.
Figura C.12: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 4 (parte 1).
74
Figura C.13: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 4 (parte 2).
Tabla C.7: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 5.
75
Figura C.14: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 5 (parte 1).
Figura C.15: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 5 (parte 2).
76
C.3. Estimación Puntual de Ley de Cobre Total (TCu).
77
Tabla C.8: Datos Pertenecientes a la Vecindad de Entrenamiento (Continuación).
78
Tabla C.8: Datos Pertenecientes a la Vecindad de Entrenamiento (Continuación).
Cabe destacar que las coordenadas presentes en la tabla C.8 están considerando que
el origen de la vecindad es (0,0,0).
79
Los valores estimados por el método de Kriging, junto con los valores estimados por
RNA con sus respectivos errores relativos se presentan en la siguiente tabla. Las coordenadas
tridimensionales de cada punto estimado consideran como origen el punto (0,0,0) de la
vecindad de entrenamiento.
Tabla C.9: Error Relativo y Datos Estimados por Método del Kriging y RNA.
Mid-x [m] Mid-y [m] Mid-z [m] Ley por Kriging Ley por RNA Error
67,5 62,5 52,5 0,459 0,498 -8,6%
112,5 62,5 67,5 0,303 0,394 -30,1%
82,5 137,5 82,5 0,430 0,375 12,8%
97,5 62,5 82,5 0,332 0,440 -32,7%
82,5 77,5 52,5 0,425 0,434 -2,3%
142,5 92,5 67,5 0,350 0,330 5,8%
97,5 92,5 52,5 0,426 0,361 15,2%
112,5 107,5 52,5 0,426 0,341 20,1%
112,5 77,5 82,5 0,295 0,372 -26,1%
97,5 122,5 82,5 0,492 0,361 26,7%
97,5 137,5 97,5 0,380 0,373 1,9%
82,5 137,5 97,5 0,400 0,386 3,4%
127,5 77,5 67,5 0,330 0,338 -2,5%
67,5 137,5 97,5 0,441 0,405 8,1%
127,5 92,5 82,5 0,317 0,329 -3,7%
127,5 62,5 52,5 0,262 0,352 -34,6%
142,5 77,5 52,5 0,307 0,334 -8,8%
142,5 107,5 82,5 0,319 0,332 -4,0%
142,5 137,5 52,5 0,415 0,421 -1,2%
127,5 122,5 52,5 0,422 0,371 12,0%
127,5 137,5 67,5 0,441 0,385 12,7%
82,5 107,5 82,5 0,439 0,395 10,0%
112,5 107,5 67,5 0,422 0,340 19,3%
97,5 137,5 82,5 0,447 0,368 17,7%
97,5 107,5 67,5 0,455 0,352 22,6%
82,5 122,5 97,5 0,384 0,395 -2,9%
112,5 122,5 67,5 0,447 0,351 21,5%
112,5 137,5 82,5 0,426 0,368 13,7%
97,5 137,5 52,5 0,387 0,363 6,2%
67,5 77,5 67,5 0,473 0,475 -0,5%
127,5 62,5 67,5 0,261 0,350 -34,2%
80
Tabla C.9: Error Relativo y Datos Estimados por Método del Kriging y RNA (Continuación).
Mid-x [m] Mid-y [m] Mid-z [m] Ley por Kriging Ley por RNA Error
127,5 137,5 52,5 0,417 0,400 4,2%
52,5 137,5 67,5 0,421 0,401 4,6%
82,5 92,5 67,5 0,463 0,409 11,8%
97,5 92,5 67,5 0,443 0,371 16,3%
82,5 77,5 67,5 0,410 0,443 -8,0%
67,5 62,5 67,5 0,424 0,493 -16,4%
112,5 77,5 97,5 0,304 0,378 -24,6%
82,5 137,5 67,5 0,433 0,364 16,0%
112,5 107,5 112,5 0,288 0,359 -24,8%
97,5 62,5 97,5 0,300 0,439 -46,4%
112,5 92,5 97,5 0,323 0,360 -11,4%
142,5 62,5 52,5 0,266 0,322 -21,0%
142,5 92,5 97,5 0,310 0,301 2,9%
142,5 107,5 112,5 0,327 0,308 5,9%
112,5 62,5 82,5 0,277 0,399 -44,1%
52,5 137,5 52,5 0,515 0,386 25,0%
127,5 122,5 67,5 0,411 0,360 12,5%
127,5 137,5 97,5 0,330 0,358 -8,4%
127,5 92,5 97,5 0,296 0,327 -10,3%
142,5 77,5 67,5 0,287 0,318 -11,0%
97,5 107,5 82,5 0,393 0,365 7,1%
97,5 62,5 112,5 0,334 0,430 -28,8%
97,5 77,5 97,5 0,297 0,420 -41,7%
97,5 122,5 97,5 0,336 0,372 -10,9%
112,5 107,5 127,5 0,349 0,362 -3,7%
82,5 62,5 52,5 0,442 0,469 -6,1%
142,5 137,5 82,5 0,349 0,377 -8,0%
67,5 107,5 52,5 0,421 0,402 4,5%
67,5 77,5 52,5 0,420 0,474 -12,8%
142,5 107,5 127,5 0,354 0,300 15,3%
82,5 122,5 82,5 0,463 0,379 18,2%
142,5 107,5 97,5 0,309 0,319 -3,2%
82,5 62,5 97,5 0,332 0,461 -38,9%
112,5 77,5 112,5 0,347 0,381 -9,7%
67,5 92,5 82,5 0,435 0,454 -4,3%
127,5 107,5 97,5 0,300 0,333 -11,2%
142,5 77,5 82,5 0,294 0,301 -2,4%
142,5 92,5 112,5 0,330 0,292 11,6%
127,5 62,5 112,5 0,326 0,330 -1,0%
81
Tabla C.9: Error Relativo y Datos Estimados por Método del Kriging y RNA (Continuación).
Mid-x [m] Mid-y [m] Mid-z [m] Ley por Kriging Ley por RNA Error
112,5 137,5 97,5 0,339 0,364 -7,4%
142,5 77,5 97,5 0,311 0,286 7,9%
97,5 77,5 52,5 0,418 0,393 5,9%
142,5 62,5 67,5 0,274 0,307 -12,1%
127,5 122,5 82,5 0,349 0,352 -0,9%
127,5 77,5 82,5 0,294 0,334 -13,4%
67,5 62,5 82,5 0,376 0,486 -29,3%
127,5 137,5 127,5 0,368 0,329 10,7%
142,5 122,5 67,5 0,389 0,373 4,2%
112,5 122,5 127,5 0,363 0,354 2,4%
142,5 122,5 97,5 0,302 0,337 -11,5%
142,5 137,5 67,5 0,403 0,400 0,9%
112,5 62,5 112,5 0,334 0,393 -17,8%
142,5 77,5 112,5 0,349 0,274 21,4%
112,5 137,5 67,5 0,479 0,372 22,3%
142,5 92,5 82,5 0,315 0,314 0,5%
127,5 77,5 112,5 0,341 0,327 4,0%
67,5 137,5 112,5 0,435 0,415 4,5%
127,5 62,5 82,5 0,264 0,346 -31,0%
112,5 137,5 52,5 0,393 0,379 3,6%
127,5 62,5 97,5 0,291 0,340 -16,6%
82,5 137,5 112,5 0,388 0,394 -1,5%
97,5 92,5 127,5 0,370 0,408 -10,1%
82,5 107,5 97,5 0,371 0,411 -10,5%
112,5 122,5 52,5 0,422 0,354 16,2%
142,5 137,5 97,5 0,346 0,354 -2,3%
142,5 62,5 112,5 0,305 0,257 15,9%
142,5 107,5 52,5 0,399 0,368 7,7%
127,5 77,5 97,5 0,307 0,330 -7,5%
82,5 137,5 52,5 0,329 0,356 -8,3%
112,5 62,5 127,5 0,323 0,378 -16,9%
82,5 92,5 52,5 0,447 0,395 11,6%
142,5 107,5 142,5 0,359 0,294 18,1%
112,5 137,5 142,5 0,374 0,334 10,6%
127,5 107,5 52,5 0,415 0,350 15,7%
112,5 137,5 112,5 0,332 0,358 -7,6%
97,5 137,5 112,5 0,332 0,375 -12,9%
112,5 62,5 97,5 0,299 0,400 -33,8%
82,5 62,5 82,5 0,342 0,467 -36,9%
82
Tabla C.9: Error Relativo y Datos Estimados por Método del Kriging y RNA (Continuación).
Mid-x [m] Mid-y [m] Mid-z [m] Ley por Kriging Ley por RNA Error
82,5 77,5 97,5 0,354 0,449 -26,8%
142,5 62,5 97,5 0,248 0,273 -9,7%
97,5 107,5 127,5 0,384 0,397 -3,3%
142,5 122,5 52,5 0,414 0,394 4,8%
112,5 122,5 82,5 0,362 0,353 2,6%
97,5 122,5 112,5 0,353 0,381 -8,0%
127,5 107,5 67,5 0,382 0,341 10,9%
67,5 92,5 67,5 0,478 0,448 6,2%
112,5 122,5 97,5 0,326 0,356 -9,4%
82,5 92,5 82,5 0,404 0,422 -4,4%
127,5 62,5 127,5 0,317 0,317 0,2%
97,5 62,5 127,5 0,328 0,412 -25,8%
82,5 62,5 67,5 0,372 0,470 -26,2%
82,5 77,5 82,5 0,352 0,448 -27,4%
127,5 92,5 52,5 0,401 0,342 14,7%
97,5 77,5 142,5 0,361 0,399 -10,4%
112,5 92,5 52,5 0,363 0,344 5,3%
67,5 77,5 82,5 0,406 0,473 -16,4%
97,5 107,5 112,5 0,318 0,392 -23,3%
127,5 77,5 52,5 0,311 0,344 -10,7%
112,5 62,5 142,5 0,318 0,353 -11,3%
127,5 122,5 97,5 0,305 0,345 -13,2%
142,5 122,5 82,5 0,357 0,354 0,7%
127,5 137,5 82,5 0,388 0,372 4,2%
82,5 92,5 97,5 0,358 0,431 -20,3%
112,5 107,5 97,5 0,289 0,353 -22,3%
97,5 77,5 82,5 0,319 0,413 -29,7%
142,5 92,5 52,5 0,322 0,348 -8,2%
97,5 92,5 97,5 0,301 0,398 -32,0%
97,5 62,5 142,5 0,322 0,386 -19,9%
112,5 107,5 82,5 0,352 0,345 1,9%
97,5 92,5 142,5 0,387 0,402 -3,6%
82,5 62,5 112,5 0,386 0,448 -16,0%
97,5 107,5 52,5 0,438 0,344 21,5%
97,5 137,5 67,5 0,464 0,364 21,7%
97,5 122,5 127,5 0,365 0,384 -5,2%
97,5 77,5 67,5 0,375 0,403 -7,5%
112,5 62,5 52,5 0,298 0,389 -30,3%
127,5 62,5 142,5 0,301 0,300 0,3%
83
Tabla C.9: Error Relativo y Datos Estimados por Método del Kriging y RNA (Continuación).
Mid-x [m] Mid-y [m] Mid-z [m] Ley por Kriging Ley por RNA Error
112,5 77,5 52,5 0,324 0,362 -11,7%
127,5 107,5 82,5 0,337 0,336 0,3%
142,5 62,5 82,5 0,255 0,290 -13,8%
97,5 62,5 67,5 0,354 0,437 -23,3%
82,5 92,5 127,5 0,402 0,430 -7,0%
97,5 137,5 127,5 0,374 0,371 0,9%
127,5 137,5 112,5 0,331 0,343 -3,8%
112,5 122,5 112,5 0,325 0,357 -9,9%
112,5 77,5 67,5 0,338 0,366 -8,3%
127,5 92,5 67,5 0,363 0,333 8,2%
82,5 122,5 112,5 0,382 0,407 -6,3%
142,5 107,5 67,5 0,361 0,348 3,5%
97,5 62,5 52,5 0,338 0,430 -27,1%
82,5 92,5 112,5 0,415 0,434 -4,5%
82,5 107,5 67,5 0,489 0,379 22,6%
112,5 92,5 67,5 0,352 0,345 1,9%
97,5 92,5 82,5 0,347 0,384 -10,6%
112,5 92,5 82,5 0,335 0,351 -4,8%
112,5 137,5 127,5 0,371 0,348 6,2%
97,5 122,5 67,5 0,476 0,351 26,3%
97,5 122,5 142,5 0,372 0,380 -2,1%
82,5 107,5 112,5 0,389 0,420 -8,0%
82,5 137,5 127,5 0,382 0,396 -3,5%
82,5 122,5 127,5 0,391 0,412 -5,2%
97,5 107,5 97,5 0,287 0,380 -32,2%
82,5 107,5 127,5 0,396 0,423 -7,0%
97,5 122,5 52,5 0,419 0,346 17,5%
82,5 107,5 142,5 0,391 0,420 -7,3%
67,5 92,5 52,5 0,434 0,440 -1,2%
97,5 137,5 142,5 0,365 0,361 1,2%
82,5 107,5 52,5 0,450 0,365 18,9%
82,5 122,5 142,5 0,386 0,410 -6,1%
82,5 122,5 67,5 0,416 0,363 12,8%
84
Figura C.17: Gráfica de Distribución Tridimensional de Ley de Cobre Total.
85
Figura C.18: Gráfica de Distribución Tridimensional de Ley de TCu para Datos Estimados por RNA.
86