Sunteți pe pagina 1din 96

UNIVERSIDAD DE SANTIAGO DE CHILE

FACULTAD DE INGENIERIA

Departamento de Ingeniería Química

ESTIMACIÓN DE VARIABLES METALÚRGICAS A PARTIR DE


MODELOS DE REDES NEURONALES ARTIFICIALES (RNA)

JULIO ANDRÉS VEGA FUENTES

Profesor Guía:

Francisco Anibal Cubillos Montecinos

Trabajo de Titulación presentado en


conformidad a los requisitos para obtener
el Título de Ingeniería Civil en Química.

Santiago – Chile

Año 2015
© Julio A. Vega Fuentes, 2015.
Se autoriza la reproducción parcial o total de esta obra, con fines académicos, por
cualquier forma, medio o procedimiento, siempre y cuando se incluya en la cita
bibliográfica de este documento.
RESUMEN

La estimación de los recursos minerales en los yacimientos es de vital importancia para


determinar la rentabilidad que tendrá el proceso de extracción del mineral de interés. Para
realizar esto se recurre a la geoestadística, la cual mediante herramientas estadísticas y
probabilísticas de los yacimientos nos permite determinar características, concentraciones de
minerales y otras propiedades de los yacimientos.

En la actualidad para la determinación de las leyes de los minerales de interés se


utilizan diversos modelos, siendo uno de los principales el Kriging, el cual consiste en
determinar la ley de un punto desconocido utilizando la información proveniente de los sondajes
ubicados en una determinada vecindad. Este proceso solo utiliza como variables la ley del
mineral de interés y las distancias de los puntos de sondajes al punto que se desea estimar,
dejando fuera de la estimación una gran cantidad de variables que influyen directamente en la
estimaciones de las leyes, en especial variables cualitativas. Con el fin de mejorar las
estimaciones se propone realizar un nuevo método de estimación de recursos usando las redes
neuronales artificiales (RNA), las cuales al ser un método no lineal nos permite utilizar una gran
variedad de datos, ya sean cualitativos y cuantitativos.

Las RNA son sistemas adaptativos basadas en el comportamiento del cerebro y la


sinapsis entre las neuronas. Estas se han vuelto bastante populares en los procesos de
modelaciones, simulaciones y estimaciones, ya que poseen la capacidad de ser entrenadas
para poder procesar una gran cantidad de datos para obtener los resultados esperados,
además poseen la capacidad de adaptarse a las variaciones en los datos que se ingresan en
ella.

Este trabajo de título utilizó las RNA para lograr realizar estimaciones globales de un
yacimiento separado en 5 dominios, los cuales fueron comparados con la información obtenida
por sondajes. Además las RNA utilizadas poseen diversos tipos de algoritmos de aprendizajes,
los cuales nos permitió hacer un análisis comparativo entre ellos para determinar cuál es el
mejor para cada dominio simulado. Los errores promedio obtenidos del proceso de
entrenamiento son de 5,61% para el dominio 1, 7,08% para el segundo, el domino 3 tuvo un
error de 9,42, mientras que el cuarto fue el más alto con un 16,05% y por último un 10,61% de
error promedio para el dominio 5.

i
Los errores promedios de cada dominio fueron diferentes debido a que el método de
simulación de RNA depende directamente de la distribución de datos que hay en cada dominio,
siendo los errores más altos aquellos dominios que poseían una mayor dispersión y varianza en
sus datos.

Por otro lado también se logró realizar estimaciones puntuales en lugares donde no
existía información de sondaje, los cuales se compararon con información obtenida por métodos
tradicionales de estimación obteniéndose un error promedio de 12,70%, con una gran similitud
estadísticas entre los datos obtenidos por Kriging y los datos simulados por las RNA.

ii
TABLA DE CONTENIDO

1. INTRODUCCIÓN ....................................................................................................................... 1

1.1. Planteamiento del problema. .............................................................................................. 2

1.2. Objetivos. ............................................................................................................................ 4

1.2.1. Objetivos generales. .................................................................................................... 4

1.2.2. Objetivos específicos. .................................................................................................. 4

2. ANTECEDENTES BIBLIOGRÁFICOS ...................................................................................... 5

2.1. Geoestadística. ................................................................................................................... 6

2.2. Redes Neuronales Artificiales. ............................................................................................ 9

2.2.1. Modelo de Neurona. ................................................................................................... 10

2.2.2. Estructuras de las Redes Neuronales Artificiales. ..................................................... 12

2.2.3. Entrenamiento o Aprendizaje. .................................................................................... 16

2.3. Software para RNA. .......................................................................................................... 18

3. METODOLOGÍA DE TRABAJO ............................................................................................... 20

3.1. Análisis y Caracterización de los Datos de Sondaje. ....................................................... 21

3.2. Análisis Geoestadístico de los Datos de Sondaje. ........................................................... 22

3.3. Análisis de Datos Atípicos en la Base de Datos. .............................................................. 23

3.4. Definición de los Parámetros de Entrada para las RNA. .................................................. 23

3.5. Metodología de Uso de Neural Network Toolbox para Estimación Global....................... 24

3.6. Comparación de Algoritmos de Aprendizaje para Disminuir Errores Globales. ............... 28

3.7. Estimación de Valores Puntuales de Leyes de Cobre ...................................................... 29

4. RESULTADOS Y DISCUSIONES ........................................................................................... 31

4.1. Estimación Global de Leyes de Cobre Total (TCu). ......................................................... 32

4.1.1. Determinación de la Mejor Topología por Dominio. .................................................. 32

4.1.2. Determinación del Algoritmo de Aprendizaje. ............................................................ 34

4.2. Estimación de Puntal de Ley de Cobre Total (TCu). ........................................................ 44

4.2.1. Determinación de la Vecindad y Entrenamiento. ...................................................... 44

4.2.2. Simulación y Comparación de Resultados. ............................................................... 46

iii
5. CONCLUSIONES .................................................................................................................... 50

6. REFERENCIAS BIBLIOGRÁFICAS ........................................................................................ 53

APENDICE ................................................................................................................................... 55

APÉDICE A: ANÁLISIS DE DATOS ATÍPICOS POR EL MÉTODO DE GRUBBS. ................ 56

APÉNDICE B: GRÁFICAS DE DISTRIBUCIÓN DE DATOS DEL YACIMINIENTO Y POR


DOMINIOS. .............................................................................................................................. 59

APÉNDICE C: RESULTADOS INTERMEDIOS....................................................................... 66

iv
ÍNDICE DE TABLAS

Tabla 2.1: Tipos de función de transferencia. ............................................................................. 15

Tabla 3.1: Estadísticas Global de Ley de TCu, Fe y S. .............................................................. 22


Tabla 3 2: Estadística de ley de TCu por dominio y porcentaje de datos usados. ..................... 23
Tabla 3.3: Algoritmos de Entrenamientos (Carballo, 2006). ....................................................... 28

Tabla 4.1: Parámetros Fijos de las RNA. .................................................................................... 32


Tabla 4.2: Mejor Topología por Dominio y Errores. .................................................................... 33
Tabla 4 3: Análisis Estadístico del Target (Ley de TCu) por Dominio. ....................................... 33
Tabla 4.4: Análisis Estadístico de las Simulaciones. .................................................................. 33
Tabla 4. 5: Comparación de Error en el Entrenamiento para el Dominio 1. ............................... 35
Tabla 4.6: Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 1. ...................... 35
Tabla 4.7: Comparación de Error en el Entrenamiento para el Dominio 2. ................................ 37
Tabla 4.8: Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 2. ...................... 37
Tabla 4.9: Comparación de Error en el Entrenamiento para el Dominio 3. ................................ 38
Tabla 4.10: Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 3. .................... 39
Tabla 4.11: Comparación de Error en el Entrenamiento para el Dominio 4. .............................. 40
Tabla 4.12: Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 4. .................... 40
Tabla 4.13: Comparación de Error en el Entrenamiento para el Dominio 5. .............................. 42
Tabla 4.14: Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 5. .................... 42
Tabla 4.15: Algoritmo de Aprendizaje y Error para cada Dominio del Yacimiento. .................... 43
Tabla 4.16: Características de la Vecindad para Entrenamiento. ............................................... 44
Tabla 4.17: Topología y Error de Entrenamiento para Simulación Puntual. ............................... 45
Tabla 4.18: Análisis Estadístico Comparativo entre Datos de Sondaje y Entrenamiento. ......... 45
Tabla 4.19: Características de la Vecindad para Simulación. ..................................................... 46
Tabla 4.20: Error Obtenido entre Método Tradicional y RNA. .................................................... 46
Tabla 4.21: Análisis Estadísticos entre los Métodos de Estimación Puntual. ............................. 48

Tabla A.1: Resumen de Resultado de Prueba de Grubbs por Dominio. .................................... 56

Tabla C.1: Topologías y Errores de Entrenamiento para cada Dominio. ................................... 66


Tabla C.2: Análisis Estadístico de las Simulaciones. .................................................................. 66
Tabla C.3: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 1.
..................................................................................................................................................... 69

v
Tabla C.4: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 2.
..................................................................................................................................................... 71
Tabla C.5: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 3.
..................................................................................................................................................... 72
Tabla C.6: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 4.
..................................................................................................................................................... 74
Tabla C.7: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 5.
..................................................................................................................................................... 75
Tabla C.8: Datos Pertenecientes a la Vecindad de Entrenamiento. ........................................... 77
Tabla C.9: Error Relativo y Datos Estimados por Método del Kriging y RNA. ............................ 80

vi
ÍNDICE DE ILUSTRACIONES

Figura 2.1. Variable regionalizada. Ley de cobre total. ................................................................. 7


Figura 2.2: Neurona Biológica. ................................................................................................... 10
Figura 2.3: Representación de Neurona Artificial. ...................................................................... 11
Figura 2.4: Representación Final de una Neurona (Cubillos, 2007). ......................................... 11
Figura 2.5: Esquema de Red Monocapa. ................................................................................... 12
Figura 2.6: Esquema de Red Multicapa. ..................................................................................... 13
Figura 2.7: Ejemplo de Estructura de Redes. ............................................................................. 14

Figura 3 1: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Yacimiento


Completo. ..................................................................................................................................... 21
Figura 3.2: Ventana de Neural Network (nntool). ....................................................................... 24
Figura 3.3: Ventana “New…”. ..................................................................................................... 25
Figura 3.4: Ventana de Trabajo de RNA, pestaña “Train” .......................................................... 26
Figura 3.5: Ventana de entrenamiento de RNA. ......................................................................... 26
Figura 3.6: Pestaña de Simulación de RNA. .............................................................................. 27

Figura 4.1: Grafica de Dispersión entre Target y Entrenamiento CGF. ..................................... 36


Figura 4.2: Grafica de Dispersión entre Target y Entrenamiento BR. ........................................ 38
Figura 4.3: Grafica de Dispersión entre Target y Entrenamiento BR. ........................................ 39
Figura 4.4: Grafica de Dispersión entre Target y Entrenamiento LM. ........................................ 41
Figura 4.5: Grafica de Dispersión entre Target y Entrenamiento BR. ........................................ 43
Figura 4.6: Gráfica de Distribución Tridimensional de Ley de Cobre Total. ............................... 44
Figura 4.7: Gráfica Comparativa entre Kriging y RNA. ............................................................... 47
Figura 4.8: Gráfica de Distribución Tridimensional de Ley de TCu para Datos Estimados por
RNA. ............................................................................................................................................. 47
Figura 4.9: Gráfica Comparativa de Frecuencia Acumulativa entre Métodos de Estimación
Puntual. ........................................................................................................................................ 48
Figura 4.10: Gráfica de Dispersión de Datos entre Kriging y RNA. ............................................ 49

Figura A.1: Gráfica de Dispersión de Datos del Dominio 1. ....................................................... 57


Figura A.2: Gráfica de Dispersión de Datos del Dominio 2. ....................................................... 57
Figura A.3: Gráfica de Dispersión de Datos del Dominio 3. ....................................................... 58
Figura A.4: Gráfica de Dispersión de Datos del Dominio 4. ....................................................... 58
Figura A.5: Gráfica de Dispersión de Datos del Dominio 5. ....................................................... 59

Figura B.1: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Yacimiento
Completo. ..................................................................................................................................... 60

vii
Figura B.2: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 1. ....... 61
Figura B.3: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 2. ....... 62
Figura B.4: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 3. ....... 63
Figura B.5: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 4. ....... 64
Figura B.6: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 5. ....... 65

Figura C.1: Gráfica Comparativa de Frecuencia Acumulativa para Dominio 1. ......................... 67


Figura C.2: Gráfica Comparativa de Frecuencia Acumulativa para Dominio 2. ......................... 67
Figura C.3: Gráfica Comparativa de Frecuencia Acumulativa para Dominio 3. ......................... 68
Figura C.4: Gráfica Comparativa de Frecuencia Acumulativa para Dominio 4. ......................... 68
Figura C.5: Gráfica Comparativa de Frecuencia Acumulativa para Dominio 5. ......................... 69
Figura C.6: Grafica de Dispersión entre Target y Algoritmos de Aprendizaje Dominio 1 (parte 1).
..................................................................................................................................................... 70
Figura C.7: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 1 (parte 2).
..................................................................................................................................................... 70
Figura C.8: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 2 (parte 1).
..................................................................................................................................................... 71
Figura C.9: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 2 (parte 2).
..................................................................................................................................................... 72
Figura C.10: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 3 (parte 1).
..................................................................................................................................................... 73
Figura C.11: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 3 (parte 2).
..................................................................................................................................................... 73
Figura C.12: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 4 (parte 1).
..................................................................................................................................................... 74
Figura C.13: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 4 (parte 2).
..................................................................................................................................................... 75
Figura C.14: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 5 (parte 1).
..................................................................................................................................................... 76
Figura C.15: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 5 (parte 2).
..................................................................................................................................................... 76
Figura C.16: Gráfica Comparativa de Frecuencia Acumulativa para Entrenamiento de Vecindad.
..................................................................................................................................................... 79
Figura C.17: Gráfica de Distribución Tridimensional de Ley de Cobre Total. ............................ 85
Figura C.18: Gráfica de Distribución Tridimensional de Ley de TCu para Datos Estimados por
RNA. ............................................................................................................................................. 86

viii
CAPÍTULO I
INTRODUCCIÓN

1
1.1. Planteamiento del problema.

Para los proyectos mineros es de vital importancia la precisión en la estimación de las


variables químicas y metalúrgicas, las cuales nos indican los tipos de minerales y las leyes
disponibles en el yacimiento. Con estas estimaciones podemos determinar la cantidad de
recursos que debemos emplear para lograr explotar los yacimientos y estimar los costos que
conlleva la extracción de los minerales de interés, con lo cual se evalúa la factibilidad del
proyecto. Por otro lado tener una buena caracterización del yacimiento permite realizar una
mejor planificación del proyecto, disminuyendo los riesgos y la incertidumbre al momento de
tomar decisiones.

En la actualidad el método de estimación más utilizado para las leyes del mineral es el
“Kriging” (Accini, 2007), el cual consiste en una estimación de ley en un punto usando las leyes
conocidas pertenecientes a una vecindad bien establecida, las cuales son ponderadas en
función de la distancia. Este método solo considera como variables directas la distancia entre
los puntos de la vecindad y el punto que se desea estimar y la ley del mineral de interés,
dejando de lado otros parámetros que son de vital importancia, como las leyes de otros
minerales que están estrechamente relacionados con el elemento de interés o parámetros
cualitativos como la litología, las alteraciones geológicas, la mineralización, entre otras. Pero el
Kriging se realiza mediante una agrupación de información geológica sobre el terreno, los
cuales se conocen como dominios geológicas, los cuales dividen el yacimiento completo en
áreas más pequeñas que compartan algunas propiedades en común, por lo cual las
estimaciones realizadas con el Kriging a pesar de solo usar las leyes de interés y la distancias,
indirectamente usan las cualidades geológicas de las muestras para variar las ponderaciones
entre un dominio y otro. Por otro lado la estimación se realiza a partir de ponderaciones lineales
de variables aditivas como lo son las leyes de mineral.

Debido a esto el método del Kriging genera una gran incertidumbre al momento de
estimar los recursos del yacimiento en estudio, ya que se limita al uso único de variables
cuantitativas y de carácter aditivo, a pesar de realizar las estimaciones según la agrupación por
dominios geológicos.

2
Para solucionar este problema se propone realizar una simulación usando Redes
Neuronales Artificiales (RNA), las cuales se basan en el comportamiento del cerebro para
procesar una gran cantidad de información, aprender y adaptarse a los cambios del entorno.

Las RNA son utilizadas en muchas áreas de la ciencia como la meteorología, la minería
de datos, biología, aplicaciones militares, sistemas de control, etcétera. Entre las principales
ventajas que poseen las RNA se encuentran el aprendizaje adaptativo, la auto-organización y
la tolerancia a los fallos, que le permite utilizarlo en una gran variedad de aplicaciones (Yukei,
2012).

Basadas en sus características de procesar una gran cantidad de información de


distintos tipos de datos, las RNA son una herramienta muy útil para realizar nuestras
simulaciones de estimación de leyes, ya que podremos utilizar tanto las variables cualitativas y
cuantitativas obtenidas de los sondajes aplicándolas directamente en nuestras simulaciones.
Además las RNA no son un método de ponderación lineal, por lo cual no es necesario usar
variables aditivas únicamente. Por otro lado al tener la capacidad de aprendizaje adaptativo se
puede realizar el entrenamiento de las RNA para tener los mejores resultados por cada dominio
del yacimiento o para diversos tipos de yacimientos y de esta manera generar una mejor
estimación de los resultados.

Para realizar las simulaciones se utilizará el software Matlab, con el cual se crearán y
modificarán las entradas para la RNA. Estas serán programadas mediante la herramienta
llamada “Neural Network” (toolbox perteneciente a Matlab). Los resultados obtenidos de las
diversas simulaciones, se utilizará para realizar un análisis geoestadísticos, los cuales serán
comparados con la información obtenida mediantes sondajes reales de los diversos dominios
del yacimiento, con el fin, de obtener la simulación que se acerque más a la realidad, por la
tanto, la que genere una menor incertidumbre y nos permita tomar las mejores decisiones al
momento de planificar los métodos para extraer el mineral de interés del yacimiento y cuantificar
de mejor manera los costos y riesgos del proyecto.

3
1.2. Objetivos.

1.2.1. Objetivos generales.

Estimar variables químicas, de naturaleza aditiva y no aditiva, a partir de modelos de


redes neuronales (RNA). Determinación de errores de la estimación asociado a valores
experimentales y comparaciones con técnicas de modelamiento tradicional.

1.2.2. Objetivos específicos.

 Estimar las leyes de cobre, variable aditivas y no aditivas, a partir de un modelo de RNA
por grupos geológicos definidos. Comparar los valores predichos por el modelo de RNA
y datos obtenidos de sondajes.
 Comparar los resultados obtenidos de la modelación con diversos algoritmos de
aprendizaje para disminuir el error general de los modelos.
 Estimar las leyes de cobre para valores puntuales a partir de datos de sondajes
mediante modelamiento de RNA y determinar los errores con estimaciones por
modelamiento tradicional.

4
CAPÍTULO II
ANTECEDENTES BIBLIOGRÁFICOS

5
2.1. Geoestadística.

La geoestadística se refiere a una herramienta estadística y probabilística en el ámbito


del estudio de la tierra (geo). Los campos de aplicación que posee alcanzan los variados
dominios entre los cuales se encuentra la ciencia del suelo y medio-ambientales, geofísica,
topografía, análisis de imágenes, oceanografía, evaluación y estimación de recursos naturales
de diversos tipos (como mineros, forestales, combustibles naturales, etcétera), estimación de
contaminantes en los suelos, conformaciones rocosas, entre muchas otras aplicaciones.
(Emery, 2007).

Las herramientas geoestadística están definidas a fenómenos “regionalizados”, esto


quiere decir que son fenómenos que poseen una cierta continuidad y se extienden por el
espacio, este último se entiende generalmente como un espacio geográfico, pero también
puede considerarse como un espacio temporal o algún espacio más abstracto. Estos
fenómenos regionalizados son descritos matemáticamente por varias funciones numéricas
llamadas variables regionalizadas, las cuales representan ciertas propiedades o características
relacionadas con el fenómeno. Algunas de estas variables pueden ser, la ley de un mineral, la
densidad de una roca, la acumulación, la porosidad de las muestras, la concentración de
compuestos contaminantes en el suelo, la conductividad, el pH, el número de árboles en un
área de observación, etcétera.

Estas variables regionalizadas son funciones determinísticas, posee dos características


complementarias. La primera es que poseen una cierta “continuidad”, donde se identifican
zonas de altos valores y zonas de bajos valores, y la segunda es que las variables
regionalizadas varían irregularmente, lo que genera que no se puedan representar
simplemente, como se presenta en la siguiente imagen (Figura 2.1) (Emery, 2007).

El estudio de estas variables regionalizadas se realiza sobre un “campo”, el cual es un


dominio limitado, que puede representar una zona natural o un dominio particular donde la
variable es de interés, por ejemplo si su concentración es mayor a un límite determinado o nulo,
entre otras.

6
Figura 2.1. Variable regionalizada. Ley de cobre total. Elavoración propia.

El soporte de la variable regionalizada corresponde a la superficie, en caso de soportes


bidimensionales (2D), y de un volumen, para los tridimensionales (3D), donde esta
comprendidas las variables. Por lo general el soporte de las mediciones o muestras
corresponden a un punto específico, pero también pueden ser más voluminosos, por ejemplo,
para unidades selectivas de explotación y evaluación mineras. El soporte genera una
dependencia con la distribución estadística, siendo para los soportes voluminosos presentan
menor cantidad de valores extremos y aumentando los valores intermedios que en los soportes
puntuales. Por esto la distribución de los valores depende directamente del soporte de las
variables regionalizadas.

En los casos donde se debe hacer cambio de soportes o agrupación de estos es


convenientes que las variables sean aditivas, esto quiere que la unión de sus valores debe ser
igual a la media de los valores sobre cada una de ellos (Emery, 2007).

Por lo general, las variables regionalizadas no se conocen completamente o de forma


exhaustiva, por lo general solo se posee un conjunto de datos que la representan, por ejemplo,
los sondajes en los proyectos mineros, mediciones de contaminantes u observaciones del
terreno, entre otras.

Con el fin de aprovechar al máximo la información disponible es necesario crear


diversos “modelos”, la cual es una representación de la variable regionalizada, aunque siempre
lo hace de un forma más simplificada o distorsionada, por lo cual no es una representación total

7
de la variable. El proceso de modelamiento y el planteamiento de hipótesis requeridas aportan
mayor información que el simple conjunto de datos obtenidos, pero las hipótesis y parámetros
utilizados no deben ser arbitrados, ya que deben controlarse experimentalmente, de esta
manera disminuir la complejidad del modelamiento para que represente de mejor manera la
variable modelada.

Una de las aplicaciones más usada dentro de la geoestadística es la estimación o


predicción de datos. Esta consiste en evaluar un dato que no se ha medido (con la mayor
precisión posible), por lo cual no se encuentra entre los datos disponibles. La geoestadística no
solo se encarga de producir estas estimaciones, sino que también es capaz de medir la
precisión de estos mediante el uso de las herramientas probabilísticas. También se puede
cuantificar la incertidumbre de los valores obtenidos para las variables regionalizadas, lo cual
nos permite tomar grandes decisiones frente al progreso o rentabilidad del proyecto, como
determinar las áreas con mejor pH para plantar un determinado tipo de semillas, ver si un
terreno supera o no los límites de contaminantes para generar medidas de seguridad o
remediación en la zona, en el caso de la minería determinar si las leyes del mineral superan las
leyes de corte que aseguran la rentabilidad de la explotación del yacimiento, etcétera.

En la actualidad el método más utilizado para realizar las estimaciones de leyes de


cobre en nuestro país es al Kriging (Accini, 2007). Este método nos permite determinar el valor
de ley de cobre en un punto determinado y desconocido del yacimiento, lo que se logra
utilizando información obtenida de los sondajes realizados en el yacimiento, agrupada en
diversos dominios geológicos. El Kriging usa como variable principal las leyes de cobre total
perteneciente a los sondajes que se encuentran en una vecindad (definida por un radio,
orientación y números de datos) determinada del punto objetivo al que se le quiere determinar
la ley. Las leyes de esta vecindad son ponderadas en función de la distancia que se encuentra
cada muestra el punto que se desea calcular.

El Kriging es un estimador lineal ponderada de datos cuya principal dificultad se reduce


a calcular los valores de ponderación, que nos permiten realizar una estimación con la mayor
precisión posible (Accini, 2007). Este método posee algunas restricciones, como la restricción
de linealidad, ya que el Kriging es un estimador de una combinación lineal de los datos
ubicadas en el interior de la vecindad previamente establecida. También posee una restricción
de insesgo, la que nos dice que el valor esperado del error debe ser cero. Por último se tiene la
restricción de la optimización que nos indica que el objetivo del Kriging es minimizar la varianza
del error cometido por la estimación.

8
Las estimaciones entregadas por el Kriging dependen directamente de la configuración
geométrica de los datos y su continuidad espacial y de forma indirecta de los dominios
geológicos. Además este método solo utiliza como variable las leyes del mineral de interés, en
este caso ley total de cobre, dejando de lado muchas variables que afectan directamente en la
estimación, entre las cuales se encuentra variables cuantitativas, como son las variables
químicas, que para nuestro caso se consideraron las leyes de azufre y hierro, las que están
estrechamente relacionadas con la ley de cobre debido a la estructura química que poseen los
minerales de cobre. También se dejaron de lado variables cualitativas, como las variables
geológicas, entre las que se encuentran la conformación rocosa de las muestras (litología), las
alteraciones geológicas o la mineralogía. Por este motivo el Kriging es un método que posee
una gran incertidumbre en la estimación de las leyes, a pesar de tener una gran aceptación y
ser el método más utilizado en la actualidad.

2.2. Redes Neuronales Artificiales.

Las redes neuronales artificiales (RNA) son sistemas adaptativos basados en el


procesamiento de información que se produce en el cerebro, a través del de las interacciones
entre las neuronas, denominada sinapsis, en las redes neuronales biológicas.

El cerebro posee la capacidad de procesar una gran cantidad de información, como las
imágenes que se ven, los sonidos, las sensaciones de gusto, olfato y tacto, entre muchas otras
(Yukei, 2012). Esta capacidad se debe a la sinapsis que se produce entre las neuronas, las
cuales al recibir los distintos estímulos generan las interacciones necesarias para generar las
respuestas específicas, acorde a cada estimulo. Este análisis se trata de reproducir a partir de
las RNA, las cuales con el paso del tiempo se han hecho bastante populares en las
simulaciones y estimaciones de datos en una amplia gama de áreas de la ciencia, como por
ejemplo, estimaciones de números de azar, resolución de códigos, traducciones, estimaciones y
tendencias de contaminantes en el ambiente, predicción de precios, sistemas de control y
robots automatizados, estimaciones meteorológicas, estimaciones de leyes de minerales de
importancia o contaminantes, etcétera.

9
2.2.1. Modelo de Neurona.

Las RNA al igual que sus homologas biológicas están formadas por una unidad básica
llamada neurona. Las estructuras de ambas neuronas (biológica y artificial) se presentan y se
explican en las siguientes imágenes:

Figura 2.2: Neurona Biológica.

Las neuronas están conformadas por el Soma (cuerpo celular), cual posee varias
ramificaciones denominadas dendritas, la cual es la zona receptiva, donde la neurona recibe
todos los estímulos que serán procesados. La neurona posee además una estructura larga
denominada Axón, el cual es la línea de transmisión del mensaje el cual termina en una
ramificación denominados botones terminales, en estas terminaciones es donde se transmite el
mensaje y lleva a cabo el proceso de la sinapsis, con las dendritas de otras neuronas (Yukei,
2012).

10
Figura 2.3: Representación de Neurona Artificial. Elaboración propia.

Las neuronas artificiales están conformadas por las entradas (X i), las que representan al
estímulo que recibiría una neurona en las dendritas, cada una de estas posee un peso (W ij) que
está definida para cada entrada (i) y neurona (j). Dentro del cuerpo de la neurona se realizan las
funciones de ponderación y transferencia y por último se encuentra la función de salida (Y), que
se establece fuera del cuerpo de la neurona, la cual equivale al axón en su equivalente
biologico. Además de las entradas de las neuronas se puede considerar un umbral constante
(θ), también llamado “bias” que ayuda a ajustar la salida.

Figura 2.4: Representación Final de una Neurona (Cubillos, 2007).

11
2.2.2. Estructuras de las Redes Neuronales Artificiales.

Las RNA están conformadas por un conjunto de neuronas que están interconectadas
entre sí. Estas neuronas se agrupan en conjuntos denominados “capas”, las cuales se definen
como un conjunto de neuronas que trabajan de forma paralela, esto quiere decir que la
información de entrada del sistema es analizado y procesado de forma simultanea por todas las
neuronas pertenecientes a la capa, entregando las salidas correspondientes.

Las RNA poseen diversas formas según el tipo de datos de ingreso del modelo que se
quiere representar y según la aplicación que se requiera, lo que está relacionado directamente
con el algoritmo de aprendizaje usado para el entrenamiento de las neuronas (Yukei, 2012). Los
componentes de las RNA que se pueden modificar en la estructura para lograr estos objetivos
son:

 La cantidad de neuronas.
 El número de capas.
 La función de transferencia.
 Algoritmo de aprendizaje

Las RNA se pueden clasificar según el número de capas que la conforman, donde se
aprecian dos tipos, estos son:

Red Monocapa: Son las RNA más sencillas, ya que están conformadas por neuronas
agrupadas en una única capa, por lo cual las entradas son procesadas solo una vez para
obtener los resultados del sistema.

Figura 2.5: Esquema de Red Monocapa. Elaboración propia.

12
Red Multicapa: Las RNA de este tipo están conformadas por dos o más capas, donde los datos
de entrada pasan a través de varios procesos de análisis antes de entregar la respuesta del
sistema. De este tipo red se pueden distinguir tres tipos de capas:

 Capa de entrada: Las neuronas que conforman esta capa son las que analizan los
datos de entrada a la RNA. Las salidas de esta capa ingresan a otras capas dentro del
cuerpo de la RNA.

 Capas ocultas: Estas capas se encuentra en la parte central de la RNA y analizan los
datos provenientes de otras capas (capa de entrada u otras capas ocultas).

 Capa de salida: Es la última capa de la RNA. Las neuronas analizan los datos
provenientes de las capas ocultas y entregan las salidas del sistema total.

Figura 2.6: Esquema de Red Multicapa. Elaboración propia.

Las RNA también se pueden clasificar según temporización o sincronización de flujo de


información. Por temporización se refiere a si la información entre continuamente (RNA
continua) o por intervalos definidos de tiempo (discreto). Según se secuencia de cálculo se
pueden organizar como redes de flujo directo, que es cuando la información se pasa hacia
delante de una capa a la siguiente, también se denomina “feed-forrward”. También las redes
pueden ser del tipo de cálculo con realimentación, que se produce cuando una neurona recibe
información de las capas posteriores en el interior de la red (Ortiz, 2008).

13
Figura 2.7: Ejemplo de Estructura de Redes. Elaboración propia.

Una parte fundamental de las RNA es la conformación del cuerpo de la neurona, ya que
es el lugar donde se procesa la información de entrada que ingresa al sistema y a cada
neurona. Como se mencionó con anterioridad en esta zona se encuentra tanto la función de
ponderación y de transferencia. En la función de ponderación es donde se agrupa toda la
información de entrada a la neurona con sus respectivos pesos, el cual puede ser de los
siguientes tipos:

 Combinación Lineal:

Ec. 2.1

 Distancia Euclídea:

Ec. 2.2

Donde “y” corresponde a la salida de la función de ponderación, x i son las entradas de


la neurona “i”, wi corresponde a sus respectivos peso y θ corresponde al valor del umbral o bias.

La información obtenida de esta función ingresa posteriormente a la función de


transferencia, la cual está caracterizada por las siguientes funciones:

14
Tabla 2.1: Tipos de función de transferencia (Cubillos, 2007).

Nombre Relación Entrada/Salida Icono Función

Limitador Fuerte Hardlin

Limitador Fuerte
Hardlins
Simétrico

Lineal Positiva Poslin

Lineal Purelin

Lineal Saturado Satlin

Lineal Saturado
Satlinsn
Simétrico

Sigmoidal Logaritmico Logsig

Tangente Sigmoidal
Tansig
Hiperbólico

Neurona con n max


Competitiva Compet
El resto de neuronas

15
2.2.3. Entrenamiento o Aprendizaje.

El aprendizaje de las RNA es el proceso mediante el cual se modifican los pesos de las
neuronas en función de las entradas para obtener los resultados esperados. Esta modificación
en los pesos se interpreta como la creación y destrucción de las conexiones ya existente entre
las neuronas. Este proceso de aprendizaje continúa hasta que los valores de los pesos de cada
neurona se mantienen constantes en el tiempo. El entrenamiento de las RNA depende de cómo
se modifican los pesos de las neuronas y que criterios son los utilizados para establecer estos
cambios en las interconexiones neuronales.

El entrenamiento de una red se puede diferenciar si este se realiza mediante el


funcionamiento normal de la RNA, “on line”, o si es necesario detener el funcionamiento normal
y realizar el entrenamiento de forma independiente, llamada “off line”. Para este último tipo de
entrenamiento se logran diferenciar dos fases, la primera se denomina fase de aprendizaje, la
cual consiste en el procesos donde se entrena la red y se establecen los pesos para cada
neurona con el fin de obtener los resultados del sistema y la segunda es llamada la fase de
operación, donde la RNA recibe las entradas y entrega los resultados, en este proceso se usan
los pesos establecido en la fase anterior y no se genera ninguna variación en las conexiones
interneuronales. Cada fase necesita información de entradas distinto, existiendo datos de
entrenamiento y de operación. Además existen dos grandes métodos de aprendizaje de RNA, el
aprendizaje no supervisado y el aprendizaje supervisado.

2.2.3.1 Aprendizaje no supervisado.

Este tipo de aprendizaje no requiere una influencia externa para realizar los cambios en
los pesos y reorganizar las conexiones entre las neuronas. Estas redes deben encontrar las
características, regularidades, correlaciones y/o categorías entre los datos de entrada,
entregando los resultados sin ninguna intervención externa para determinar o verificar si las
respuestas son correctas o no. Los datos de salida obtenidos dependen únicamente de la
estructura de la RNA y el algoritmo de aprendizaje utilizado. Este entrenamiento es usado para
determinar si los datos de entrada poseen alguna similitud con información que se ha analizado
con anterioridad, también se puede realizar una “clusterización”, que corresponde a clasificar
los datos de entrada en categorías ya establecidas en el proceso de entrenamiento.

16
Hay dos tipos de algoritmos que son los más utilizados en el aprendizaje no
supervisado, estos son:

 Aprendizaje Hebbiano: Este algoritmo pretende buscar la familiaridad o características


de los datos de entrada. Se basa en el comportamiento de la neurona biológica clásica
que solamente puede estar en estado activo o inactivo. La suposición de
funcionamiento consiste en que si dos neuronas están en el mismo estado
simultáneamente la conexión entre ellas se incrementa (aumenta su peso). Este
comportamiento es la base para otros métodos de aprendizaje. Las neuronas que
poseen son del tipo binarias, ya que solo pueden entregar dos respuestas, por ejemplo,
{1,0} o activo-inactivo.

 Aprendizaje Competitivo y Comparativo: Se orienta a la clasificación de datos de


entradas (clusterización), esto quiere decir, que al entrar datos nuevos con una
característica o patrón conocido previamente por la neurona, esta actuara según el
aprendizaje previo clasificando esta entrada como una categoría conocida, pero si no
encuentra un patrón conocido la estructura y los pesos se modificarán con el fin de
reconocer una nueva categoría.

2.2.3.2 Aprendizaje supervisado.

Este tipo de aprendizaje se realiza mediante un entrenamiento controlado por un agente


externo que determina si los datos de salida son satisfactorios o no según la información
ingresada a la red, de lo contrario modificara la estructura y los pesos de las neuronas con el
objetivo de obtener una salida que se aproxime en mayor medida a la salida deseada.

El aprendizaje supervisado posee tres métodos de ser llevado a cabo:

 Por Corrección de Error: Se basa en la comparación de los datos deseados y los


obtenidos en la salida de la red, con el fin de determinar el error y en base a este
modificar los pesos de la RNA. Algunos algoritmos que utilizan este aprendizaje es el

17
Perceptron y LMS Error (regla del mínimo error cuadrado). El primero calcula el error de
cada neurona de salida con los datos de salida deseado y con esta información se
modifica los pesos de la neurona anterior. El aprendizaje por LMS Error considera el
error de todas las neuronas, no tan solo de salida, por lo cual, se puede estimar un
error de global de la RNA, este error es distribuido entre todas las neuronas
predecesoras y modificando las conexiones entre ellas. Este tipo de aprendizaje
también es conocido como backpropagation (propagación hacia atrás) o LMS
multicapa, este método de aprendizaje fue el primero que permitió modificar los pesos
de las capas ocultas.

 Por Refuerzo: Este tipo de aprendizaje es más lento que el anterior ya que es una
supervisión menos invasiva, ya que no presenta una especificación certera de la salida
deseada y el supervisor solo se limita a enviar una señal de refuerzo si la salida se
ajusta y modificar los pesos de las neuronas en función a esta información.

 Estocástico: Se basa en realizar cambias aleatorios de los pesos de las conexiones y


evaluar los efectos en la salida del sistema y los valores deseados.

2.3. Software para RNA.

Debido al gran impacto que han tenido las RNA en diversas aplicaciones se generaron
una gran cantidad de software que nos permiten realizar de forma rápida y sencilla las
topologías de las RNA y realizar los procesos de aprendizaje y de simulación. Uno de los
software más populares y utilizado es “Neural Network Toolbox”, el cual es una herramienta que
pertenece a la plataforma de “Matlab”.

Matlab es un sistema interactivo de programación basado en el uso de matrices, donde


las soluciones y los problemas se expresan con lenguaje matemáticos (Yukei, 2012). En él se
pueden realizar análisis numéricos, operación con matrices, construcción de gráficas y creación
de interfaces con usuarios.

Entre las principales características de Matlab se aprecian la facilidad de escritura y de


programación en comparación con otros software, poseyendo una gran cantidad de funciones
matemáticas, de matrices y gran variedad de graficas que facilita su uso. Además Matlab posee
una gran variedad de herramientas, denominadas “toolboxes”, que son subprogramas del

18
software que se usan para aplicaciones específicas, por ejemple, uso de ecuaciones
diferenciales, algoritmos de cálculos, redes neuronales, comunicaciones, control de sistema,
entre otros.

El software Neural Network Tollbox permite al usuario crear sus propias RNA usando la
tipología que el desee, ya sea considerando el número de capas, la cantidad de neuronas por
capas, la función de transferencia que se usara para cada capa de la RNA, el tipo de
entrenamiento que recibirán las neuronas (Cubillos, 2007). También nos permite supervisar el
entrenamiento de las neuronas, modificar los pesos calculados, realizar simulación y
estimaciones con nuevas base de datos sobre neuronas ya entrenadas.

19
CAPÍTULO III
METODOLOGÍA DE TRABAJO

20
3.1. Análisis y Caracterización de los Datos de Sondaje.

Los datos utilizados son información obtenida mediante sondajes reales, los cuales nos
permiten tener una base de datos de 22.432 muestras. A cada una de estas muestras se le
hace un análisis químico, el cual nos da las leyes de 14 elementos (Au, Ag, As, Bi, Cd, Fe, Mo,
Pb, S, Sb, Zn, TCu, AsCu y CNSCu) y un análisis geológico, el cual nos entrega información de
la topología, litología y mineralogía (minezone) de cada muestra. Entre estos dos análisis
poseemos tanto información cuantitativa (análisis químico) y cualitativa (análisis geológico).
Adicionalmente el yacimiento se encuentra dividido en 5 dominios geológicos, en los cuales, las
muestras obtenidas poseen características geológicas similares y cada muestra posee sus
coordenadas tridimensionales, junta con la identificación del sondaje al que pertenece.

Con el fin de obtener una representación gráfica del yacimiento se realiza una gráfica
tridimensional del yacimiento con una escala de leyes de cobre total para apreciar la distribución
de este elemento en el yacimiento. Se verifica que la distribución de los dominios que se
entrega sea concordante, lo cual se logra realizando las gráficas de frecuencia acumulativa para
cada domino en los elementos de importancia. En caso de encontrarse frecuencias
acumulativas similares se podrían agrupar dichos dominio y trabajarlos como un domino.

Figura 3 1: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Yacimiento


Completo.

21
Por otra parte se procedió a identificar el número de sondajes que se realizaron, que
para nuestro caso se encontraron un total de 190 sondajes, y cada uno de ellos con un número
irregular de datos tomados que va desde las 17 muestra por sondaje hasta 278 muestras,
generando una base de datos de 22.432 muestras. Estas muestras esta tomadas con una
distancia de alrededor de 4 metros en el eje z y de 1 a 3 metros en el eje x e y, en el caso de los
sondajes que se realizaron de forma diagonal, mientras que en los sondajes realizados
verticalmente la distancia entre cada muestra varía entre 2 y 5 metros en el eje z.

3.2. Análisis Geoestadístico de los Datos de Sondaje.

Una vez definido las características de los datos de sondaje, se realizó un análisis
estadístico del yacimiento completo y por cada dominio geológico, con el fin de tener una base
comparativa para las simulaciones que se realizarán. El estudio estadístico se realizó para
cada uno de los elementos que nos entrega el análisis químico, teniendo mayor énfasis en las
leyes de mayor importancia. Además de realizarse el estudio por los dominios geológicos,
también se decidió realizar el análisis por las variables geológicas individualmente, esto quiere
decir, que se replicó para cada litología, alteración y minezone de forma independiente.

Tabla 3.1: Estadísticas Global de Ley de TCu, Fe y S. Fu propia basada en análisis de datos de
sondajes.

Ley de TCu [%] Ley de Fe [%] Ley de S [%]


Promedio 0,309 3,572 0,971
Mediana 0,244 3,789 0,645
Mínimo 0,005 0,125 0,005
Máximo 14,228 22,32 10
Desviación 0,351 1,376 1,067
Coef. De Variación 0,123 1,893 1,138

Una vez realizados los el análisis estadístico completo de las base de datos se procede
a agrupar los datos por dominios y preparar la información relevante para ingresar a las RNA
que se conformarán.

22
3.3. Análisis de Datos Atípicos en la Base de Datos.

Con el objetivo de determinar si dentro de los datos obtenidos mediante sondajes se


encuentran datos atípicos se decide realizar un filtro de los datos para las leyes de cobre total
(TCu), ya que este es nuestro mineral de interés y debido a que habían muestras con una ley
de cobre inusual que en algunos casos supera el 10% de cobre. Por lo cual, se realizó la prueba
de valores atípicos de Grubbs.

El método de Grubbs nos permite realizar el análisis de valores atípicos para una gran
cantidad de muestras, que para nuestro caso cado dominio supera las 2.000 muestras. Esta
prueba es una forma de estudiar una medida sospechosa por medio de la comparación del
promedio con la medida sospechosa y la desviación estándar. El resultado obtenido se compara
mediante un factor denominado “T” (Amón, 2010).

Con el filtro de los datos atípicos se logra armar las matrices que se utilizarán para
realizar las RNA. Además se realiza un nuevo análisis estadístico para las leyes de cobre total
por cada dominio que se presenta a continuación, junto con el porcentaje de muestras usadas
del total.

Tabla 3 2: Estadística de ley de TCu por dominio y porcentaje de datos usados. Fuente propia
basada en análisis de datos de sondaje.

Dominio 1 Dominio 2 Dominio 3 Dominio 4 Dominio 5


Promedio 0,203 0,238 0,313 0,471 0,323
Mediana 0,188 0,214 0,282 0,354 0,270
Mínimo 0,010 0,005 0,005 0,025 0,005
Máximo 0,544 0,794 1,128 2,521 1,640
Desviación 0,100 0,149 0,196 0,367 0,248
Coef. De Variación 0,010 0,022 0,038 0,135 0,062
Porcentaje de Datos 98,94% 98,69% 98,71% 98,31% 98,55%

3.4. Definición de los Parámetros de Entrada para las RNA.

En primer lugar se realizó una gran combinación de variables conocidas para


determinar cuáles serían las mejores variables (datos cuantitativos y/o cualitativos) para generar

23
la matriz de entrada a la redes. Este estudio se realizó inicialmente con el dominio más grande
(dominio 1 con 5.994 puntos de muestreos), donde se logró establecer que la mejor
combinación de datos de entradas estaba conformada por las coordenadas (midx, midy, midz) y
las variables geológicas (alteración geológica, mineralogía y litología).

Por otra parte se determinó que para este tipo de simulación predictiva, es conveniente
realizar una RNA del tipo multicapa con retroalimentación y con un entrenamiento supervisado,
ya que para este caso en particular se pretende determinar las leyes de cobre total las cuales
son parte de la información que nos entrega el análisis químico. Por este motivo, para todas las
RNA realizadas se utilizó como matriz objetivo (target) los datos de la ley de TCu.

3.5. Metodología de Uso de Neural Network Toolbox para Estimación Global.

Una vez filtrados correctamente los datos de cada dominio y definido las matrices de
ingreso para las RNA, se procede a utilizar el software para crear las RNA, entrenarlas y simular
los datos. Esto se logra ejecutan el comando “nntool” en Matlab, para desplegar la pantalla
dinámica del Neural Network Toolbox.

Figura 3.2: Ventana de Neural Network (nntool).

En esta ventana se pueden importar los datos en forma de matrices ya definidas


(entrada y target), además de crear la topología de las RNA, y agrupar toda la información

24
claramente según corresponda en los cuadros de “Input”, “Target”, “Networks”, “Output”, “Error”,
entre otros.

Figura 3.3: Ventana “New…”.

En el botón “New…” se crean las RNA, donde se debe definir el nombre, el tipo de red
que se quiere crear junto con los datos de entrada y target (si corresponde con el tipo de red
escogida). También se deben escoger los algoritmos de entrenamiento, aprendizaje adaptativo
y desempeño. Además en esta pestaña nos permite armar la topología de la RNA definiendo el
número de capas que poseerá y el número de neuronas y la función de transferencia que tendrá
cada capa. Por último, nos da la opción de creer de forma manual los datos que se usarán en la
neurona, armando las matrices en la pestaña data.

Para las RNA formadas se dejaron algunos parámetros fijos, como lo fueron el tipo de
red (Feed-forward backprop) y los algoritmos de aprendizaje adaptativo (LEARGDM) y
desempeño (MSE). Inicialmente también se dejó fijo el algoritmo de entrenamiento (TRAINLM),
con el fin de realizar un análisis de la topología de las redes.

Definidos los parámetros de las redes se ingresa en la ventana de trabajo. En esta


ventana se realiza tanto el proceso de entrenamiento, como el proceso de simulación.

25
Figura 3.4: Ventana de Trabajo de RNA, pestaña “Train”

Para el proceso de entrenamiento se debe llenar la información de entrenamiento, la


cual corresponde a especificar las matrices de entradas y objetivo, junto con nombrar las
matrices de salida (Outputs) y error (Errors). También se pueden definir los parámetros de
entrenamiento, como el tiempo de entrenamiento, el número de iteraciones, el número de
validaciones, entre otros. Definidos los parámetros y las matrices de entradas y target se
procede a entrenar la red neuronal presionando el botón “Train Network”.

Figura 3.5: Ventana de entrenamiento de RNA.

26
En la ventana de entrenamiento se pueden apreciar el comportamiento de los
parámetros a medida que pasan las iteraciones, además de gráficas del estado de
entrenamiento, las regresiones del entrenamiento, validación y prueba que se realizan, junto
con una regresión que considera estos tres parámetros.

Ya sea porque el número de validaciones requeridas se completó, el tiempo de


entrenamiento o las iteraciones se superó o se sobrepasó cualquier otro parámetro de
entrenamiento el proceso de entrenamiento se detiene. Se considera que el entrenamiento se
completó satisfactoriamente cuando se detiene por alcanzar el número de validaciones
especificado, concluido el proceso de entrenamiento de la RNA se puede realizar una
simulación.

Para realizar la simulación se presiona la pestaña “Simulate” de la ventana de trabajo


de la RNA, donde se debe ingresar únicamente una matriz de entrada (input) y dar un nombre a
la matriz de salida (output) y presionar el botón “Simulate Network”. Cabe destacar que para el
proceso de simulación de una red que utilizó un método de entrenamiento supervisado no se
requiere de una matriz target como en el entrenamiento.

Figura 3.6: Pestaña de Simulación de RNA.

Concluida la simulación los datos de salida y los errores del entrenamiento son
exportados del NNTool, con el fin de ser analizados y corroborar si los datos entregados son
satisfactorios mediante el cálculo del error promedio de los datos y una comparación gráfica
entre el comportamiento del target utilizado y los datos obtenidos, junto con la comparación de
sus frecuencias acumulativas.

27
3.6. Comparación de Algoritmos de Aprendizaje para Disminuir Errores Globales.

Luego de determinar las mejores topologías para cada domino, mediante el análisis del
error de entrenamiento y la comparación de las frecuencia acumulativas, se utilizan las matrices
de entrada y target para realizar los diversos entrenamientos variando los algoritmos de
aprendizaje, con el fin de disminuir el error del entrenamiento lo máximo posible. Cabe destacar
que el tipo de red sigue siendo feed-forward backprop y el resto de los algoritmos se mantiene
fijo.

Los algoritmos de aprendizajes que concluyeron el entrenamiento satisfactoriamente


son los que se presentan en la siguiente tabla.

Tabla 3.3: Algoritmos de Entrenamientos (Carballo, 2006).

Algoritmo de
Descripción
Entrenamiento
Entrenamiento de retropropagación cuasi-Newton con el método de
TRAINBFG
Broyden, Fletcher, Goldfarb y Shanno.
TRAINBR Entrenamiento de regulación bayesiana.
Entrenamiento de retropropagación de gradiante conjugado Powell-
TRAINCGB
Beale.
Entrenamiento de retropropagación de gradiante conjugado Fletcher-
TRAINCGF
Powell.
Entrenamiento de retropropagación de gradiante conjugado Polak-
TRAINCGP
Ribiere.
Entrenamiento de retropropagación de gradiante descendiente con tasa
TRAINGDA
de aprendizaje adaptativa.
Entrenamiento de retropropagación de gradiante descendiente con
TRAINGDX
momento y tasa de aprendizaje adaptativo.
TRAINLM Entrenamiento de retropropagación de Levenberg-Marquardt.
TRAINOSS Entrenamiento de retropropagación secante de un solo paso.
TRAINR Entrenamiento incremental de actualización de orden aleatorio.
TRAINRP Entrenamiento de retropropagación resilente.
TRAINSCG Entrenamiento de retropropagación de gradiante conjugado escalado.

28
Para definir cuáles son los mejores algoritmos de aprendizaje se realiza un análisis
estadístico comparativo con los datos utilizados en la matriz objetivo, junto con la comparación
del error de entrenamiento global promedio y el análisis comparativo de las frecuencias
acumulativas entre las simulaciones con los diversos algoritmos de aprendizaje y el target.

3.7. Estimación de Valores Puntuales de Leyes de Cobre

Para generar una estimación puntual más acertada se requiere hacer una cuadrícula
más fina dentro de los dominios. Cabe destacar que la simulación que se realizará deber ser
concordante con la RNA de su respectivo dominio, esto quiere decir, que tanto la topología,
como los parámetros de la red deben ser los mismo, por ejemplo, el número de capas y
neuronas, las funciones de transferencia de cada capa, los algoritmos de entrenamiento,
aprendizaje adaptativo y de desempeño deben ser iguales para todas las cuadriculas que
pertenecen al mismo dominio.

Para realizar estas cuadrículas inicialmente se considera un dato conocido, el cual se


utilizará con el centro del cubo. Desde él se tomará una distancia de 200 metros, en las tres
direcciones, para generar un cubo de 200x200x200.

Los datos del dominio son filtrados según las coordenadas de las aristas del cubo con el
fin de obtener todos los puntos que se encuentran al interior del cubo, si es necesario se puede
realizar en análisis para filtrar los valores atípicos. Una vez obtenidos los datos se realiza una
gráfica tridimensional de la distribución de las muestras con sus respectivas leyes del mineral
de interés (TCu).

Cabe destacar que para que la simulación sea de utilidad los datos que se encuentran
en el interior del cubo deben ser de varios sondajes distintos, para lograr estimar con mayor
claridad los datos que se encuentran entre los sondajes, y así generar una vecindad que posee
información en varias direcciones respecto al punto que se desea estimar y no proveniente de
un único sondaje.

Por otro lado, es necesario generar un nuevo entrenamiento con los datos
pertenecientes al cubo formado, ya que la cantidad de datos que posee en mucho menor frente

29
a la totalidad dominio. Esto genera que los pesos establecidos en el dominio total sean distintos
en cada cuadrícula.

Para realizar este entrenamiento se utilizará un número de 50 validaciones para


considerar que el entrenamiento fue satisfactorio y los parámetros de entrada serán idénticos al
de las redes de estimación global, es decir, que la entrada está conformada por las
coordenadas de las muestras y las variables geológicas y como target se utiliza la ley de cobre
total. Terminado el entrenamiento se realiza el análisis del error promedio del entrenamiento y
se procede hacer una simulación usando los mismos datos que para el entrenamiento para
tener una gráfica comparativa de la frecuencia acumulativa del target y de los datos simulados.

Concluido los análisis se procede a realizar simulaciones para las posiciones


inexistentes en los sondajes dentro de los cubos formados. Los puntos a determinar mediante la
simulación son comparados con la información que se obtiene por los métodos tradicionales.

Para realizar el análisis se creará un cubo más pequeño de 100x100x100, ubicado en el


centro de la vecindad usada para el entrenamiento (cubo de 200 m por lado), en este cubo se
buscarán todos los datos que están dentro de los márgenes del cubo de 100 m por lado y se
procede a estimar las leyes de cobre total en estas posiciones mediante la RNA. Obtenido los
valores mediante la simulación, para estimar el error para cada punto entre los valores
obtenidos por el método tradicional y las redes.

Las estimaciones se realizan en un cubo más pequeño ubicado en el centro del cubo de
200 m por lado, ya que los valores que están en los extremos son afectados por valores que se
encuentran fuera de la vecindad establecida, en cambios los valores que se encuentran en el
centro, serán influenciados únicamente por los valores que fueron usados para el entrenamiento
de la vecindad.

Los datos obtenidos se comparar con los del Kriging determinando el error relativo
punto a punto, obteniendo de estos un error promedio. Además se les realiza un análisis
estadístico junto con gráficas de frecuencia absoluta y dispersión de datos comparativas.

30
CAPÍTULO IV
RESULTADOS Y DISCUSIONES

31
4.1. Estimación Global de Leyes de Cobre Total (TCu).

4.1.1. Determinación de la Mejor Topología por Dominio.

Para determinar la mejor topología de cada dominio inicialmente debe especificarse con
claridad las bases de datos que se deben ingresar a las redes para producir los procesos de
entrenamiento y simulación. Además como se especificó en la metodología de trabajo, se
realizó un filtro de los datos originales y se dejaron algunos parámetros de la estructura de las
RNA fijos para realizar este estudio.

La matriz objetivo (target) corresponde a la ley de cobre total, mientras que la matriz de
entrada está conformada por las coordenadas tridimensionales de cada muestra, junto con sus
características geológicas (alteración, mineralogía y litología). Esta información de entrada para
la red (matrices de target y entrada) es una combinación datos espaciales, químicos y
geológicos, los cuales son datos cualitativos y cuantitativos.

Los parámetros de la red y entrenamiento que se dejaron fijos fueron los siguientes:

Tabla 4.1: Parámetros Fijos de las RNA.

Tipo de Neurona Feed-Forward Backpropagation


Algoritmo de Aprendizaje TRAINLM
Aprendizaje Adaptativo LEARNGDM
Algoritmo de Desempeño MSE
Número de Capas 3
Número de Validaciones 100

De todas las topologías probadas con estos parámetros hubo 2 que fueron las mejores
para los 5 dominios, las que se presentan a continuación.

32
Tabla 4.2: Mejor Topología por Dominio y Errores.

Topología Error
Capa 1 Capa 2 Capa 3
Dominio Min Max Prom
Neuronas Función Neuronas Función Neuronas Función
1 10 Logsig 5 Logsig 1 Purelin -21% 32% 5,24%
2 10 Tansig 5 Tansig 1 Purelin -32% 68% 7,75%
3 10 Tansig 5 Tansig 1 Purelin -52% 74% 11,42%
4 10 Tansig 5 Tansig 1 Purelin -127% 168% 16,05%
5 10 Logsig 5 Logsig 1 Purelin -53% 102% 10,61%

Para lograr hacer un análisis acertado de esto es necesario revisar el análisis


estadístico de los resultados esperados (target) y de las simulaciones realizadas en cada
dominio.

Tabla 4 3: Análisis Estadístico del Target (Ley de TCu) por Dominio.

Desviación
Dominio N° Datos Promedio Mediana Mínimo Máximo Varianza
Estándar
1 5994 0,203 0,188 0,010 0,544 0,100 0,010
2 5275 0,238 0,214 0,005 0,794 0,149 0,022
3 4067 0,313 0,282 0,005 1,128 0,196 0,038
4 2789 0,471 0,354 0,025 2,521 0,367 0,135
5 4011 0,323 0,270 0,005 1,640 0,248 0,062

Tabla 4.4: Análisis Estadístico de las Simulaciones.

Desviación
Dominio Promedio Mediana Mínimo Máximo Varianza
Estándar
1 0,203 0,206 0,007 0,467 0,070 0,005
2 0,237 0,241 -0,006 0,942 0,101 0,010
3 0,312 0,375 -0,071 0,524 0,115 0,013
4 0,470 0,407 0,112 2,514 0,277 0,077
5 0,324 0,263 -0,091 3,004 0,202 0,041

33
Se puede apreciar que los errores de entrenamientos promedios se encuentran
relacionados con el promedio de la ley de TCu. Al existir una mayor variación entre el valor
mínimo y máximo también se genera un mayor error en el entrenamiento. En el caso particular
del dominio 4 se aprecia que el error es mayor, esto se puede deber a que es el dominio con
menor cantidad de datos y con mayor variación entre el valor mínimo y máximo, lo que nos
estrega una mayor desviación estándar y varianza.

Realizando el análisis estadístico comparativo entre los resultados esperados (target) y


los resultados obtenidos de las simulaciones se puede observar que la ley promedio de cobre
no varía más de una milésima, pero el comportamiento producido por las RNA genera que tanto
la varianza, como la desviación estándar sean menores, lo que genera que las variaciones entre
mínimos y máximos sean menores, lo que afecta directamente en el error.

Para ver las distribuciones tridimensionales de las leyes de cobre total se puede ver las
gráficas de cada dominio que se encuentran en el apéndice C.

4.1.2. Determinación del Algoritmo de Aprendizaje.

Como se mencionó en la metodología de trabajo, se utilizaron 12 algoritmos de


aprendizajes distintos (Ver tabla 3.3) para determinar el mejor para cada uno de los dominios, a
pesar que Neural Network Tool nos entrega un total de 14 algoritmos de aprendizaje, se
utilizaron los 12 anteriormente referidos debido a que estos fueron los que completaron
satisfactoriamente el proceso de entrenamiento, esto quiere decir que el proceso se detuvo
debido a que se completó el número de validaciones establecidos (100 para este caso) y no se
detuvo por ningún otro parámetro, por ejemplo, el número de iteraciones o algún otro parámetro
del proceso de entrenamiento.

Para determinar cuál de todos ellos es el mejor se realizó un análisis comparativo del
error promedio de cada uno de ellos, junto con un análisis estadístico donde se aprecian los
promedios, valores mínimos y máximos, varianza y desviación de los datos en cada algoritmo
de aprendizaje y por cada dominio geológico del yacimiento.

34
4.1.2.1. Resultados para el Dominio Número 1.

Tabla 4.5: Comparación de Error en el Entrenamiento para el Dominio 1.

ERROR
Algoritmo
MIN MAX PROM
BR -21% 32% 5,24%
LM -22% 34% 5,30%
CGF -22% 35% 5,61%
CGP -22% 34% 5,76%
OSS -24% 36% 5,81%
CGB -22% 34% 5,85%
BFG -20% 35% 5,98%
RP -20% 35% 5,98%
GDX -23% 35% 6,06%
GDA -22% 34% 6,17%
SCG -24% 35% 12,77%
R -33% 22% 14,54%

Se puede apreciar que la tabla esta ordenada según el error promedio obtenido en cada
algoritmo de aprendizaje, por lo cual se puede apreciar que para el dominio 1 el algoritmo de
aprendizaje que posee el menor error promedio durante el entrenamiento corresponde al BR.

Tabla 4.6: Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 1.

Target BR OSS CGF CGP CGB LM


Promedio 0,203 0,202 0,203 0,203 0,204 0,205 0,203
Mediana 0,188 0,206 0,211 0,208 0,212 0,215 0,206
Mínimo 0,010 -0,015 0,039 0,011 0,067 0,077 0,007
Máximo 0,544 0,603 0,408 0,365 0,388 0,516 0,467
Desviación 0,100 0,071 0,065 0,063 0,061 0,062 0,070
Varianza 0,010 0,005 0,004 0,004 0,004 0,004 0,005

En esta tabla se presenta la información de los 6 mejores algoritmos de aprendizaje,


según su error promedio. Aquí se logra apreciar que el promedio para todos los algoritmos de
aprendizajes son bastante similares al del target, pero se pueden apreciar diferencias
considerables en los valores mínimos y máximos en cada algoritmo, estadísticamente el
algoritmo BR posee grandes diferencia en los valores máximo y mínimo, lo que nos demuestra

35
que posee datos que se alejan de la realidad en ambos extremos, lo cual genera una
irregularidad en las simulaciones. Por otro lado hay otros algoritmos que son más estables
estadísticamente y que poseen una mayor similitud frente a los valores de sondaje.

Para completar el análisis se debe realizar una gráfica de dispersión entre el target y los
valores obtenidos de la simulación, donde se puede apreciar que el mejor método de
aprendizaje para el dominio 1 corresponde al método denominado CGF. A pesar que este
algoritmo de aprendizaje posee un error levemente superior al menor (para este dominio el BR),
el error promedio se encuentra entre los 3 más bajos. Por otra parte el CGF es el más parecido
estadísticamente, por lo cual se escoge este algoritmo de aprendizaje por sobre los demás.

Figura 4.1: Grafica de Dispersión entre Target y Entrenamiento CGF.

4.1.2.2. Resultados para el Dominio Número 2.

Se puede apreciar que para el dominio 2 se aprecia un comportamiento muy similar al


del dominio 1, donde los algoritmos de aprendizaje poseen el mismo orden. Pero en este
dominio los errores promedios son mayores debido a la dispersión de los datos como se explicó
anteriormente (4.1.1).

36
Tabla 4.7: Comparación de Error en el Entrenamiento para el Dominio 2.

ERROR
Algoritmo
MIN MAX PROM
BR -32% 68% 7,08%
LM -32% 67% 7,36%
CGF -34% 54% 7,68%
CGP -27% 70% 7,73%
OSS -32% 68% 7,75%
CGB -32% 68% 7,85%
BFG -29% 68% 7,90%
RP -24% 66% 8,08%
GDX -25% 69% 8,13%
GDA -31% 69% 8,15%
SCG -32% 59% 8,44%
R -55% 33% 27,30%

De los 6 mejores algoritmos de aprendizajes se presenta el análisis estadístico donde


se logra ver que la diferencia entre los promedios es muy baja, pero se logra apreciar que los
valores mínimos y máxima tienen una mayor variabilidad dependiendo de cada algoritmo de
aprendizaje, siendo el más acertado el algoritmo CGF.

Tabla 4.8: Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 2.

Target BR OSS CGF CGP CGB LM


Promedio 0,238 0,238 0,239 0,239 0,237 0,239 0,237
Mediana 0,214 0,238 0,237 0,235 0,234 0,244 0,241
Mínimo 0,005 -0,046 -0,083 0,009 -0,009 -0,163 -0,006
Máximo 0,794 0,699 0,940 0,716 0,730 0,652 0,942
Desviación 0,149 0,113 0,104 0,106 0,108 0,106 0,101
Varianza 0,022 0,013 0,011 0,011 0,012 0,011 0,010

37
Figura 4.2: Grafica de Dispersión entre Target y Entrenamiento BR.

Por último al realizar las gráficas de dispersión de datos se logra apreciar que el mejor
algoritmo de aprendizaje para el dominio 2 es el BR, ya que este posee el menor error promedio
del entrenamiento y una de las mayores similitudes estadísticas.

4.1.2.3. Resultados para el Dominio Número 3.

Tabla 4.9: Comparación de Error en el Entrenamiento para el Dominio 3.

ERROR
Algoritmo
MIN MAX PROM
BR -45% 60% 9,42%
SCG -49% 80% 9,85%
RP -39% 71% 10,04%
CGP -42% 73% 10,43%
CGB -44% 78% 10,46%
BFG -38% 73% 10,52%
OSS -40% 74% 10,54%
GDX -39% 72% 10,80%
CGF -45% 76% 11,23%
LM -52% 74% 11,42%
GDA -43% 79% 12,49%
R -85% 29% 45,95%

38
En este dominio se logra apreciar que se presenta una diferencia significativa en el
orden de los algoritmos de aprendizaje respecto su error promedio. Se puede observar que el
algoritmo BR es el que posee un menor error en el entrenamiento, siendo un 2% menor al
algoritmo que se establece como principal por Matlab (LM).

Para determinar cuál algoritmo es mejor se realiza el análisis estadístico que se


presenta a continuación.

Tabla 4.10: Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 3.

Target BR SCG BFG RP CGP CGB


Promedio 0,313 0,313 0,312 0,311 0,310 0,312 0,315
Mediana 0,282 0,312 0,303 0,308 0,309 0,322 0,315
Mínimo 0,005 -0,046 -0,136 -0,031 -0,025 -0,056 -0,027
Máxima 1,128 0,774 0,747 0,606 0,772 0,687 0,729
Desviación 0,196 0,141 0,139 0,132 0,132 0,130 0,134
Varianza 0,038 0,020 0,019 0,017 0,017 0,017 0,018

Figura 4.3: Grafica de Dispersión entre Target y Entrenamiento BR.

Para este dominio se determinó que el mejor algoritmo de aprendizaje corresponde al BR, cabe
destacar que para este dominio se produjo una gran diferencia en el valor máximo, donde los
máximos simulados estuvieron muy por debajo del target, siendo los mejor cercanos a los
0,77% de ley de cobre total en comparación a los 1,128% de los datos de sondaje, esto se

39
puede deber a la gran dispersión entre los datos, a pesar que este valor (máximo) no se
consideró como un dato atípico por el método de Grubbs.

4.1.2.4. Resultados para el Dominio Número 4.

Este es el dominio que posee una menor cantidad de muestras y al mismo tiempo es el
que posee una mayor dispersión de datos y varianza entre todos los dominios, por este motivo
es el que genera un mayor error promedio en el proceso de entrenamiento. A pesar de esto el
orden de los algoritmos de aprendizaje según su error promedio es similar a los dominios 1 y 2,
siendo el algoritmo del tipo BR es el mejor según su error promedio, seguido por el algoritmo
LM.

Tabla 4.11: Comparación de Error en el Entrenamiento para el Dominio 4.

ERROR
Algoritmo
MIN MAX PROM
BR -91% 147% 15,49%
LM -127% 168% 16,05%
CGF -108% 209% 17,14%
CGP -101% 196% 17,14%
OSS -111% 178% 17,42%
CGB -93% 183% 18,79%
BFG -88% 208% 19,14%
RP -101% 175% 19,59%
GDX -89% 187% 19,64%
GDA -76% 182% 21,06%
SCG -73% 200% 21,43%
R -229% 32% 144,50%

Tabla 4.12: Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 4.

Target BR OSS CGF CGP CGB LM


Promedio 0,471 0,468 0,468 0,466 0,471 0,470 0,470
Mediana 0,354 0,386 0,392 0,391 0,408 0,389 0,407
Mínimo 0,025 0,016 -0,025 -0,158 -0,224 -0,033 0,112
Máximo 2,521 2,047 2,202 1,916 1,939 1,524 2,514
Desviación 0,367 0,270 0,245 0,260 0,247 0,237 0,277
Varianza 0,135 0,073 0,060 0,068 0,061 0,056 0,077

40
Figura 4.4: Grafica de Dispersión entre Target y Entrenamiento LM.

Apreciando el análisis estadístico de los 6 mejores algoritmos y las gráficas de


dispersión se puede apreciar que el método de aprendizaje que mejor cuadra con el target
corresponde al algoritmo LM, ya que su valor promedio solo difiere en una milésima, además de
poseer la mayor similitud en desviación, varianza y valor máximo. Esta información estadística
tiene mayor influencia por sobre la diferencia del error promedio que existe entre el algoritmo
BR y LM. Por este motivo el mejor algoritmo de aprendizaje para el dominio 4 es el LM.

4.1.2.5. Resultados para el Dominio Número 5.

Los algoritmos de aprendizaje poseen el mismo comportamiento que poseen los demás
dominios, a excepción del dominio número 3, por lo cual los 3 mejores algoritmos son BR, LM y
CGF. También se puede apreciar que el error promedio es alto en comparación a otros
dominios, esto se puede explicar de la misma forma que se realizó en el dominio 4, es decir, el
alto error promedio de los entrenamientos se debe a que la dispersión y varianza de los datos
dentro de este dominio es muy elevada.

41
Tabla 4.13: Comparación de Error en el Entrenamiento para el Dominio 5.

ERROR
Algoritmo
MIN MAX PROM
BR -53% 102% 10,61%
LM -61% 121% 10,89%
CGF -56% 110% 11,21%
CGP -64% 127% 11,44%
OSS -48% 136% 11,51%
CGB -65% 108% 11,81%
BFG -58% 124% 11,81%
RP -52% 143% 12,12%
GDX -47% 132% 12,53%
GDA -54% 126% 12,62%
SCG -46% 138% 12,84%
R -122% 45% 82,29%

Tabla 4.14: Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 5.

Target BR OSS CGF CGP CGB LM


Promedio 0,323 0,327 0,326 0,323 0,324 0,325 0,324
Mediana 0,270 0,266 0,262 0,264 0,259 0,261 0,263
Mínimo 0,005 -0,064 0,002 0,075 -0,077 -0,059 -0,091
Máximo 1,640 1,475 0,689 0,748 0,968 1,002 3,004
Desviación 0,248 0,180 0,156 0,156 0,172 0,172 0,202
Varianza 0,062 0,033 0,024 0,024 0,030 0,030 0,041

42
Figura 4.5: Grafica de Dispersión entre Target y Entrenamiento BR.

Del mismo modo que para el resto de los dominios lo más importante para determinar el
mejor algoritmo de aprendizaje es el análisis estadístico comparativo con el target y las gráficas
de dispersión de datos. De este análisis se determinó que el mejor algoritmo para el dominio 5
corresponde al BR, debido a que posee el menor error posible y una de las mayores similitudes
estadísticas con respecto al target.

Para finalizar los resultados de los objetivos de simulación global de leyes de cobre se
presenta una tabla resumen de los algoritmos de aprendizajes y sus errores promedios para
cada dominio del yacimiento.

Tabla 4.15: Algoritmo de Aprendizaje y Error para cada Dominio del Yacimiento.

Dominio Algoritmo Error Promedio


1 CGF 5,61%
2 BR 7,08%
3 BR 9,42%
4 LM 16,05%
5 BR 10,61%

43
Para algunos de los dominios el cambio del algoritmo de aprendizaje predeterminado
(LM) generó en el dominio 3 una disminución considerable en el error promedio de
entrenamiento, y para el resto de los dominios, a excepción del dominio 4 (que mantuvo el
algoritmo de aprendizaje), se produjo una mayor similitud estadística con sus respectivas
matrices objetivo (target).

4.2. Estimación de Puntal de Ley de Cobre Total (TCu).

4.2.1. Determinación de la Vecindad y Entrenamiento.

El cubo formado para realizar el entrenamiento posee las siguientes características:

Tabla 4.16: Características de la Vecindad para Entrenamiento.

Volumen [m3] 8.000.000


Límites en eje x [92.860,93.060]
Límites en eje y [21.420,21.620]
Límites en eje z [2810,3.010]
Número de Sondajes 5
Número de Muestras 82
Dominio 1
Algoritmo de
CGF
Aprendizaje

La distribución tridimensional de las muestras al interior del cubo se presenta en la


siguiente gráfica.

Figura 4.6: Gráfica de Distribución Tridimensional de Ley de Cobre Total.

44
En esta gráfica de distribución tridimensional de las muestras se aprecian los 5
sondajes que se encuentran en su interior. Se observa que en esta vecindad la cantidad de
datos de sondaje generan grandes vacíos entre ellos lo cual a sus vez genera una gran
incertidumbre sobre las leyes de los minerales de interés, por lo cual, en esta gráfica se aprecia
claramente la necesidad de estimar valores de leyes de cobre, sin la necesidad de realizar
nuevos sondajes.

Para realizar esto se lleva a cabo el proceso de entrenamiento utilizando la misma


topología utilizada en el proceso de estimación global, que para esta vecindad corresponde al
dominio 1, del cual se obtuvieron los siguientes errores de entrenamiento:

Tabla 4.17: Topología y Error de Entrenamiento para Simulación Puntual.

Topología Error
Capa 1 Capa 2 Capa 3
Dominio Min Max Prom
Neuronas Función Neuronas Función Neuronas Función
1 10 Logsig 5 Logsig 1 Purelin -17% 18% 6,35%

Se aprecia claramente que el error de entrenamiento es bajo, del orden del 6%, este
error es mayor que el error obtenido en el dominio 1 completo. Esto se debe a que hay una
menor cantidad de datos y se produce una mayor varianza y dispersión de los datos, lo que
afecta directamente el error promedio de los procesos de entrenamientos.

La estadística comparativa entre los datos de sondaje y los valores obtenidos del
proceso de entrenamiento se presenta en la siguiente tabla:

Tabla 4.18: Análisis Estadístico Comparativo entre Datos de Sondaje y Entrenamiento.

Target Entrenamiento
Promedio 0,308 0,307
Mediana 0,287 0,326
Mínimo 0,076 0,162
Máximo 0,543 0,460
Desviación 0,115 0,092
Varianza 0,013 0,008

45
4.2.2. Simulación y Comparación de Resultados.

Los datos entregados para comparación son estimaciones realizadas por el método del
Kriging. Como se especificó en el procedimiento se realizó un cubo de menor tamaño que se
encuentra en el centro de la vecindad usada para el proceso de entrenamiento, el que posee las
siguientes características:

Tabla 4.19: Características de la Vecindad para Simulación.

Volumen [m3] 1.000.000


Límites en eje x [92.910,93.010]
Límites en eje y [21.470,21.570]
Límites en eje z [2860,3.060]
Número de Muestras 181
Dominio 1

Luego de la simulación por el método de las RNA se estima el error punto a punto con
los valores estimados tradicionalmente y se calcula el error promedio absoluto entre el Kriging y
la RNA. El cálculo de este error corresponde a un error relativo enfocado en la estimación
obtenida por el método del Kriging.

Tabla 4.20: Error Obtenido entre Método Tradicional y RNA.

Error
Mínimo Máximo Promedio
-46% 27% 12,70%

La comparación entre los datos obtenidos por Kriging y el método de redes neuronales
y la distribución que se obtuvo dentro del cubo mediante la simulación de la RNA se presentan
en las siguientes gráficas.

46
Figura 4.7: Gráfica Comparativa entre Kriging y RNA.

En la figura 4.7 se puede apreciar la diferencia que se produjo en cada punto de las
estimaciones por los dos métodos. Se puede ver que alrededor del punto 60 el comportamiento
entre ambas estimaciones es muy similar y también se puede apreciar que los errores máximo y
mínimo se producen en puntos específicos.

En la figura 4.8 se aprecia cómo se distribuyen los puntos estimados en una gráfica
tridimensional de la vecindad utilizada.

Figura 4.8: Gráfica de Distribución Tridimensional de Ley de TCu para Datos Estimados por
RNA.

47
Por último, se presentan la información estadística entre los resultados obtenidos para
la estimación de los datos puntuales por medio de las RNA y el Kriging. Además se presenta
una gráfica de dispersión de datos y una gráfica comparativa de frecuencias acumulativa entre
ambos métodos.

Tabla 4.21: Análisis Estadísticos entre los Métodos de Estimación Puntual.

Kriging RNA
Promedio 0,366 0,375
Mediana 0,361 0,371
Mínimo 0,248 0,257
Máximo 0,515 0,498
Desviación 0,056 0,046
Varianza 0,003 0,002

Se puede apreciar en la comparación estadística que hay una gran similitud entre la
estimación realizada por el método de Kriging y la simulación por RNA. Se puede apreciar que
tanto el promedio, como el valor mínimo de la RNA es levemente mayor que utilizando el
método tradicional. Por otro lado, el valor máximo del Kriging es mayor que obtenido mediante
las redes. Esto demuestra que la estimación por RNA generalmente nos estrega resultados con
una desviación en los datos menor a otros procesos, esto hecho se puede apreciar también al
comparar la desviación estándar y la varianza entre ambos métodos de estimación.

Figura 4.9: Gráfica Comparativa de Frecuencia Acumulativa entre Métodos de Estimación


Puntual.

48
Figura 4.10: Gráfica de Dispersión de Datos entre Kriging y RNA.

Al analizar las gráficas de las figuras 4.9 y 4.10 se puede observar que en la primera
hay una gran similitud entre ambos métodos, en especial en la mitad superior de la gráfica, pero
como se dijo en el análisis estadístico el método de RNA genera una menor dispersión y
varianza lo que genera que se concentre una mayor cantidad de datos en el promedio en
comparación al método del Kriging. En la gráfica de dispersión se ve que los datos de ambos
procesos son extremadamente similares, lo que queda demostrada al realizar una línea de
tendencia con intersección en el origen (0,0), el cual nos entrega un R2 de 0,9103.

49
CAPÍTULO V
CONCLUSIONES

50
Para terminar, se presentan las conclusiones finales de este trabajo de título, las
cuales están basadas en el cumplimiento de los objetivos que se plantearon inicialmente.

Mediante el uso de las RNA se pueden realizar estimaciones con una gran precisión
para los variados elementos químicos utilizando diversos tipos de datos, como datos de
distribución espacial de las muestras (cuantitativos) y variables geológicas (cualitativos), los
cuales fueron las entradas que se determinaron para hacer los entrenamientos de las RNA,
junto con la ley del mineral de interés que fue utilizado como matriz objetivo. Las estimaciones
realizadas en forma global para el yacimiento fueron divididas en los 5 dominios geológicos con
el fin de que los datos utilizados para cada simulación tuvieran una similitud geológica.

Realizando la comparación entre los diversos dominios se logró establecer que el error
de entrenamiento de las RNA es principalmente sensible a la distribución de los datos y la
varianza que poseen lo que queda demostrado al apreciar los errores promedios de
entrenamiento del dominio 4 y 5, los cuales fueron los mayores debido a la baja cantidad de
muestras que se poseían, en comparación con los otros dominios, y que su valor mínimo y
máximo eran muy distantes. Por este motivo, se realizaron las pruebas de Grubbs para poder
determinar los valores atípicos dentro de cada dominio y sacarlos del procedimiento de
entrenamiento de las redes neuronales. Con esto se logró obtener un comportamiento
estadístico mayor entre los valores simulados por cada dominio y la información obtenida
mediante los sondajes.

La comparación de los diversos algoritmos de aprendizajes nos entregó una gran


cantidad de información, que para 4 de los 5 dominios nos entregó el mismo orden según el
error promedio, dejando el algoritmo LM (pre-establecido por Matlab) como el segundo mejor
algoritmo considerando el error como único medio de comparación, generando que el cambio
de algoritmo de aprendizaje no disminuyera en gran medida el error promedio de
entrenamiento. Mientras que para el dominio 3 se produjo un comportamiento muy distinto, ya
que este algoritmo se presentó como uno de los peores, lo que nos entregó una disminución
más considerable que fue de un 2% al compararlo con el BR, el cual fue el con menor error de
entrenamiento.

Al comparar los algoritmos de aprendizaje mediante un análisis estadístico y gráficas de


dispersión se logra apreciar que algunos métodos de aprendizaje mejoran considerablemente

51
las estimaciones de las RNA, esto nos demuestra que al variar el algoritmo no solo debemos
fijarnos en los errores, ya que el principal cambio se produce la comparación del
comportamiento de los datos simulados y los datos obtenidos por medio del sondaje.

Por otro lado, no se puede generalizar una única topología o algoritmo de


entrenamiento para todos los dominios del yacimiento, por lo cual el análisis es independiente
para cada uno de ellos, ya que las estimaciones realizadas por las RNA están basadas
únicamente en los datos utilizados para el proceso de entrenamiento. A pesar de que el
procedimiento se puede generalizar los algoritmos y topologías serán únicos para cada dominio
a yacimiento a estimar.

Los valores utilizados como entradas, específicamente las coordenadas de los puntos a
estimar, se sacaron del método del Kriging con el fin de compararlos directamente, esto quiere
decir que, los puntos estimados por las RNA se encuentran exactamente en las mismas
posiciones de los estimados por el Kriging. Al comparar los datos obtenidos se obtuvo una gran
similitud, lo que queda demostrado tanto en el análisis estadístico, como en las gráficas de
frecuencia acumulativas y de dispersión, donde esta última nos entrega coeficiente de
determinación R2 de 0,9103. Por otro lado, se puede ver que el error promedio es cercano al
13%, el cual debe a la dispersión de los datos que se encuentra en un yacimiento.

Como conclusión final, se puede decir que, este método de estimación se puede
optimizar para realizar las cuadrículas de cada dominio para poder poblar el yacimiento
completo de una forma muy rápida, ya que los tiempos de estimación de grandes volúmenes de
datos son bastante pequeño y poseen una alta precisión. Por otra parte al ser el uso de las RNA
en esta área un método sin explotar, se podrían realizar grandes mejoras con respecto a los
métodos establecidos en la actualidad.

52
CAPÍTULO VI
REFERENCIAS BIBLIOGRÁFICAS

53
YUKIE, Victoria. Curso de Redes Neurais utilizando o MATLAB. Belén, Brasil, 2012.

Neural Network Toolbox for MATLAB [fecha de consulta: 24 de Junio 2015],


http://www.mathworks.com.

CARBONELL, Judith; DEFREITAS, Donnie. Aplicación de diferentes arquitecturas de RNA


sobre datos de paquetes de red en Matlab con y sin reducciones de características. La
Habana, Cuba, 2014

CUBILLOS, Francisco. Fundamentos y Aplicaciones de Redes Neuronales en Ingeniería de


Procesos. Santiago, Chile, 2007.

BONILLA, José Ebert; RAMÍREZ, Jairo; RAMÍREZ, Óscar. Metodología para el diseño de
un modelo univariado de red neuronal para el pronóstico de la temperatura mínima en la
zona de Mosquera (Cundimarca, Colombia). Bogotá, Colombia, 2006.

CARBALLO, Norma; MALDONADO, Mauro; CABRERA, Mauricio. Evaluación de los


diferentes algoritmos de entrenamiento de redes neuronales artificiales para el problema de
clasificación vehicular. Monterrey, México: Universidad Autónoma de Nuevo León,
Facultada de Ingeniería Mecánica y Eléctrica, 2006.

EMERY, Xavier. Apuntes de Geoestadística. Universidad de Chile, Facultad de Ciencias


Físicas y Matemáticas, Ingeniería en Minas, 2007.

MÉXICO. Centro Mexicano para la Producción Más Limpia. Reporte final del proyecto CGPI
20040727. México, 2004.

ACCINI, Pietro. Simulación Geoestadística de Recursos Minerales Considerando


Incertidumbre en la Ley Media. Tesis para optar al título de Ingeniero en Minas. Santiago:
Universidad de Chile, Departamento de Ingeniería en Minas, 2007.

ORTIZ, Floriberto. Análisis y diseño de Redes neuronales CMAC para la identificación y


control de sistemas no lineales. Tesis para obtener grado de Doctor en Ciencias en la
Especialidad de Control Automático. México DF, Centro de Investigación de Estudios
Avanzados del Instituto Politécnico Nacional, Departamento de Control Automático, 2008.

AMÖN, Iván. Guía Metodológica para la Selección de Técnicas de Depuración de Datos.


Medellín, Colombia, Universidad Nacional de Colombia, Facultad de Minas, Escuelas de
Sistemas, 2010.

StartPoint, INC. Identificación de Valores Atípicos, 2006.

ISOZ, Vincent. MINITAB (v15-v17) Exercices de base (niveau PhD). Vincent ISOZ V19.0.
Révision, 2015.

54
APENDICE

55
APÉDICE A: ANÁLISIS DE DATOS ATÍPICOS POR EL MÉTODO DE GRUBBS.

El método de Grubbs es una prueba estadística que nos permite determinar valores
atípicos para muestras grandes, que para nuestro caso todos los dominios tienen una muestra
de varios de miles de datos. Este método consiste en determinar un valor “T”, el cual
corresponde a la diferencia absoluta entre el supuesto valor atípico, X 0, y el valor promedio de
la muestra ( ) dividido por la desviación estándar de la muestra (S), como se presenta en la
siguiente ecuación (StartPoint, 2006):

Este valor de T se compara con un valor tabulados, los cuales dependen del número de
datos pertenecientes a la muestra, paro para muestras extremadamente grandes se puede
considera que el valor analizado es atípico si su valor de T es mayor a 3.

Este método se realizó para cada dominio donde se determinaron los valores atípicos
para las leyes de cobre total y el resumen de este análisis se presenta en la siguiente tabla:

Tabla A.1: Resumen de Resultado de Prueba de Grubbs por Dominio.

N° de Datos % Datos N° de Datos % Datos


Dominio N° de Datos
Atípicos Atípicos Filtrados Filtrados
1 6.059 64 1,06% 5.995 98,94%
2 5.346 70 1,31% 5.276 98,69%
3 4.120 53 1,29% 4.067 98,71%
4 2.837 48 1,69% 2.789 98,31%
5 4.070 59 1,45% 4.011 98,55%

Para finalizar el proceso de análisis de valores atípicos se presentan gráficas


representativas de la distribución de los valores de la ley de cobre, que muestra la forma de
agrupación de datos, siendo los valores alejados del conjunto de datos los que son posibles
valores atípicos.

56
Figura A.1: Gráfica de Dispersión de Datos del Dominio 1.

Figura A.2: Gráfica de Dispersión de Datos del Dominio 2.

57
Figura A.3: Gráfica de Dispersión de Datos del Dominio 3.

Figura A.4: Gráfica de Dispersión de Datos del Dominio 4.

58
Figura A.5: Gráfica de Dispersión de Datos del Dominio 5.

APÉNDICE B: GRÁFICAS DE DISTRIBUCIÓN DE DATOS DEL YACIMINIENTO Y POR


DOMINIOS.

En el siguiente apéndice se presenta las gráficas de distribución tridimensional de leyes


de cobre total para el yacimiento completo y cada uno de los dominios que en él se encuentran.

59
Figura B.1: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Yacimiento Completo.

60
Figura B.2: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 1.

61
Figura B.3: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 2.

62
Figura B.4: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 3.

63
Figura B.5: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 4.

64
Figura B.6: Gráfica de Distribución Tridimensional de Ley de Cobre Total del Dominio 5.

65
APÉNDICE C: RESULTADOS INTERMEDIOS.
C.1. Determinación de la Mejor Topología por Dominio.

Luego de analizar diversas entradas para las RNA y variadas topologías se logró
reducir a solo dos opciones para cada dominio, las que se presentan en las siguientes tablas y
graficas:

Tabla C.1: Topologías y Errores de Entrenamiento para cada Dominio.

Topología Error
Capa 1 Capa 2 Capa 3
Simulación Min Max Prom
Neuronas Función Neuronas Función Neuronas Función
Simu11 10 tansig 5 tansig 1 purelin -23% 36% 6,15%
Simu12 10 logsig 5 logsig 1 purelin -21% 32% 5,24%
Simu21 10 tansig 5 tansig 1 purelin -32% 68% 7,75%
Simu22 10 logsig 5 logsig 1 purelin -33% 68% 9,32%
Simu31 10 tansig 5 tansig 1 purelin -52% 74% 11,42%
Simu32 10 logsig 5 logsig 1 purelin -38% 77% 12,26%
Simu41 10 tansig 5 tansig 1 purelin -127% 168% 16,05%
Simu42 10 logsig 5 logsig 1 purelin -89% 208% 20,14%
Simu51 10 tansig 5 tansig 1 purelin -56% 114% 11,15%
Simu52 10 logsig 5 logsig 1 purelin -53% 102% 10,61%

El primer número que se indica en la simulación corresponde al dominio, mientras que


el segundo corresponde a la simulación realizada, por ejemplo, la simulación “Simu12”
corresponde a la simulación 2 del primer dominio.

Tabla C.2: Análisis Estadístico de las Simulaciones.

Desviación
Simulación Promedio Mediana Mínimo Máximo Varianza
Estándar
Simu11 0,205 0,224 0,013 0,304 0,060 0,004
Simu12 0,203 0,206 0,007 0,467 0,070 0,005
Simu21 0,237 0,241 -0,006 0,942 0,101 0,010
Simu22 0,240 0,197 -0,073 0,641 0,089 0,008
Simu31 0,312 0,375 -0,071 0,524 0,115 0,013
Simu32 0,315 0,380 0,040 0,460 0,101 0,010
Simu41 0,470 0,407 0,112 2,514 0,277 0,077
Simu42 0,476 0,439 0,091 1,022 0,206 0,042
Simu51 0,324 0,265 0,042 0,975 0,181 0,033
Simu52 0,324 0,263 -0,091 3,004 0,202 0,041

66
Figura C.1: Gráfica Comparativa de Frecuencia Acumulativa para Dominio 1.

Figura C.2: Gráfica Comparativa de Frecuencia Acumulativa para Dominio 2.

67
Figura C.3: Gráfica Comparativa de Frecuencia Acumulativa para Dominio 3.

Figura C.4: Gráfica Comparativa de Frecuencia Acumulativa para Dominio 4.

68
Figura C.5: Gráfica Comparativa de Frecuencia Acumulativa para Dominio 5.

C.2. Determinación del Algoritmo de Aprendizaje.

C.2.1. Resultados Para el Dominio 1.

Tabla C.3: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 1.

Target R SCG BFG RP GDA GDX


Promedio 0,203 0,335 0,205 0,205 0,206 0,208 0,204
Mediana 0,188 0,337 0,210 0,211 0,210 0,214 0,208
Mínimo 0,010 0,295 0,044 -0,001 0,013 0,022 0,013
Máximo 0,544 0,357 0,395 0,393 0,410 0,361 0,382
Desviación 0,100 0,010 0,065 0,068 0,066 0,058 0,062
Varianza 0,010 0,000 0,004 0,005 0,004 0,003 0,004

69
Figura C.6: Grafica de Dispersión entre Target y Algoritmos de Aprendizaje Dominio 1 (parte 1).

Figura C.7: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 1 (parte 2).

70
C.2.2. Resultados Para el Dominio 2.

Tabla C.4: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 2.

Target R SCG BFG RP GDA GDX


Promedio 0,238 0,499 0,239 0,238 0,240 0,235 0,241
Mediana 0,214 0,502 0,242 0,229 0,236 0,237 0,237
Mínimo 0,005 0,408 -0,049 -0,285 -0,014 -0,037 -0,077
Máximo 0,794 0,568 0,657 0,560 0,578 0,502 0,464
Desviación 0,149 0,035 0,107 0,107 0,102 0,101 0,096
Varianza 0,022 0,001 0,011 0,011 0,010 0,010 0,009

Figura C.8: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 2 (parte 1).

71
Figura C.9: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 2 (parte 2).

C.2.3. Resultados Para el Dominio 3.

Tabla C.5: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 3.

Target R OSS GDA CGF LM GDX


Promedio 0,313 0,768 0,312 0,304 0,312 0,312 0,318
Mediana 0,282 0,773 0,320 0,324 0,312 0,375 0,329
Mínimo 0,005 0,581 -0,064 -0,015 -0,004 -0,071 -0,042
Máximo 1,128 0,952 0,643 0,515 0,682 0,524 0,652
Desviación 0,196 0,068 0,131 0,087 0,120 0,115 0,128
Varianza 0,038 0,005 0,017 0,008 0,014 0,013 0,016

72
Figura C.10: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 3 (parte 1).

Figura C.11: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 3 (parte 2).

73
C.2.4. Resultados Para el Dominio 4.

Tabla C.6: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 4.

Target R SCG BFG RP GDA GDX


Promedio 0,471 1,905 0,474 0,471 0,480 0,493 0,476
Mediana 0,354 1,842 0,425 0,429 0,414 0,433 0,412
Mínimo 0,025 1,433 0,278 0,154 0,121 0,254 0,074
Máximo 2,521 2,712 0,913 1,162 1,374 1,059 1,403
Desviación 0,367 0,225 0,179 0,211 0,215 0,178 0,194
Varianza 0,135 0,051 0,032 0,045 0,046 0,032 0,038

Figura C.12: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 4 (parte 1).

74
Figura C.13: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 4 (parte 2).

C.2.5. Resultados Para el Dominio 5.

Tabla C.7: Continuación de Análisis Estadístico de los Algoritmos de Aprendizaje del Dominio 5.

Target R SCG BFG RP GDA GDX


Promedio 0,323 1,141 0,320 0,325 0,325 0,313 0,322
Mediana 0,270 1,083 0,270 0,267 0,274 0,241 0,252
Mínimo 0,005 0,892 0,007 -0,077 0,048 -0,020 -0,056
Máximo 1,640 1,423 0,704 0,982 1,339 0,609 0,689
Desviación 0,248 0,134 0,152 0,180 0,177 0,154 0,159
Varianza 0,062 0,018 0,023 0,032 0,031 0,024 0,025

75
Figura C.14: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 5 (parte 1).

Figura C.15: Grafica de Dispersión entre Target y Algoritmo de Aprendizaje Dominio 5 (parte 2).

76
C.3. Estimación Puntual de Ley de Cobre Total (TCu).

Los datos pertenecientes a la vecindad utilizada para realizar el entrenamiento puntual


se presentan en la siguiente tabla:

Tabla C.8: Datos Pertenecientes a la Vecindad de Entrenamiento.

Sondaje Mid-x Mid-y Mid-z Litología Alteración Minezone TCu[%]


ZD-1392 136,187 181,343 193,118 1 2 5 0,393
ZD-1392 134,878 183,103 189,773 1 2 5 0,233
ZD-1400 4,494 198,779 112,089 1 2 5 0,456
ZD-1400 3,393 199,788 109,202 1 2 5 0,468
ZD-1407 188,596 109,489 179,103 1 2 5 0,218
ZD-1407 187,418 110,667 176,43 1 2 5 0,288
ZD-1407 185,548 112,537 172,186 1 2 5 0,203
ZD-1407 183,679 114,407 167,943 1 2 5 0,266
ZD-1407 181,809 116,278 163,699 1 2 5 0,184
ZD-1407 179,94 118,148 159,456 1 2 5 0,136
ZD-1407 178,009 120,054 155,257 1 2 5 0,14
ZD-1407 176,047 121,98 151,08 1 2 5 0,209
ZD-1407 174,085 123,905 146,903 1 2 5 0,178
ZD-1407 172,123 125,83 142,727 1 2 5 0,226
ZD-1407 170,162 127,755 138,55 1 2 5 0,219
ZD-1407 168,24 129,681 134,355 1 2 5 0,417
ZD-1407 166,34 131,607 130,15 1 2 5 0,301
ZD-1407 164,44 133,533 125,945 1 2 5 0,22
ZD-1407 162,54 135,46 121,741 1 2 5 0,282
ZD-1407 160,64 137,386 117,536 1 2 5 0,285
ZD-1407 158,707 139,349 113,364 1 2 5 0,274
ZD-1407 154,806 143,316 105,054 1 2 5 0,388
ZD-1407 152,856 145,299 100,899 1 2 5 0,456
ZD-1407 150,906 147,282 96,744 1 2 5 0,27
ZD-1407 148,98 149,254 92,573 1 2 5 0,242
ZD-1407 147,066 151,219 88,392 1 2 5 0,467
ZD-1407 145,153 153,184 84,212 1 2 5 0,351
ZD-1407 143,239 155,149 80,031 1 2 5 0,328
ZD-1407 141,325 157,114 75,851 1 2 5 0,415
ZD-1407 139,368 159,119 71,71 1 2 5 0,436
ZD-1407 135,41 163,171 63,468 1 2 5 0,462
ZD-1407 133,432 165,197 59,348 1 2 5 0,364
ZD-1407 131,453 167,222 55,227 1 2 5 0,387

77
Tabla C.8: Datos Pertenecientes a la Vecindad de Entrenamiento (Continuación).

Sondaje Mid-x Mid-y Mid-z Litología Alteración Minezone TCu[%]


ZD-1407 129,489 169,251 51,101 1 2 5 0,535
ZD-1407 127,534 171,282 46,971 1 2 5 0,393
ZD-1407 125,578 173,313 42,842 1 2 5 0,422
ZD-1407 123,681 175,282 38,836 1 2 5 0,518
ZD-1478 171,262 10,872 100,177 1 2 5 0,192
ZD-1478 170,133 11,962 95,43 1 2 5 0,208
ZD-1478 169,004 13,053 90,683 1 2 5 0,142
ZD-1478 167,874 14,144 85,936 1 2 5 0,202
ZD-1478 166,722 15,234 81,194 1 2 5 0,108
ZD-1478 165,569 16,324 76,453 1 2 5 0,076
ZD-1478 164,416 17,414 71,711 1 2 5 0,138
ZD-1478 163,609 18,177 68,392 1 2 5 0,234
ZD-1478 160,692 20,922 56,551 1 2 5 0,234
ZD-1478 159,746 21,807 52,767 1 2 5 0,148
ZD-1478 158,563 22,914 48,036 1 2 5 0,372
ZD-1478 157,381 24,02 43,306 1 2 5 0,234
ZD-1478 156,553 24,795 39,995 1 2 5 0,186
ZD-1478 147,839 33,111 5,54 1 2 5 0,226
ZD-1478 146,626 34,258 0,826 1 2 5 0,206
ZD-1492 147,965 53,323 199,957 1 2 5 0,218
ZD-1492 146,161 55,284 195,727 1 2 5 0,262
ZD-1492 144,331 57,281 191,524 1 2 5 0,266
ZD-1492 142,502 59,278 187,321 1 2 5 0,218
ZD-1492 140,672 61,275 183,118 1 2 5 0,322
ZD-1492 138,842 63,272 178,915 1 2 5 0,294
ZD-1492 136,996 65,278 174,724 1 2 5 0,196
ZD-1492 135,874 66,489 172,219 1 2 5 0,176
ZD-1492 104,517 102,052 104,115 1 2 5 0,206
ZD-1492 102,994 103,866 100,891 1 2 5 0,282
ZD-1492 101,092 106,133 96,861 1 2 5 0,262
ZD-1492 99,179 108,429 92,853 1 2 5 0,332
ZD-1492 97,252 110,767 88,875 1 2 5 0,324
ZD-1492 95,325 113,105 84,898 1 2 5 0,362
ZD-1492 93,397 115,443 80,921 1 2 5 0,43
ZD-1492 90,022 119,531 73,959 1 2 5 0,299
ZD-1492 88,419 121,442 70,674 1 2 5 0,493
ZD-1492 83,561 127,231 60,717 1 2 5 0,391
ZD-1492 82,25 128,794 58,029 1 2 5 0,387
ZD-1492 80,298 131,122 54,057 1 2 5 0,243

78
Tabla C.8: Datos Pertenecientes a la Vecindad de Entrenamiento (Continuación).

Sondaje Mid-x Mid-y Mid-z Litología Alteración Minezone TCu[%]


ZD-1492 78,297 133,515 50,15 1 2 5 0,329
ZD-1492 76,526 135,633 46,692 1 2 5 0,388
ZD-1492 70,369 142,997 34,682 1 2 5 0,503
ZD-1492 68,329 145,446 30,829 1 2 5 0,543
ZD-1492 66,289 147,895 26,977 1 2 5 0,367
ZD-1492 61,77 153,318 18,443 1 2 5 0,346
ZD-1492 60,24 155,16 15,557 1 2 5 0,364
ZD-1492 57,452 158,603 10,332 1 2 5 0,508
ZD-1492 56,099 160,274 7,797 1 2 5 0,513
ZD-1492 54,582 162,146 4,956 1 2 5 0,491

Cabe destacar que las coordenadas presentes en la tabla C.8 están considerando que
el origen de la vecindad es (0,0,0).

En la siguiente gráfica se muestra una comparación de la frecuencia acumulativa de los


datos pertenecientes a vecindad y los valores estimados por la simulación por RNA.

Figura C.16: Gráfica Comparativa de Frecuencia Acumulativa para Entrenamiento de Vecindad.

79
Los valores estimados por el método de Kriging, junto con los valores estimados por
RNA con sus respectivos errores relativos se presentan en la siguiente tabla. Las coordenadas
tridimensionales de cada punto estimado consideran como origen el punto (0,0,0) de la
vecindad de entrenamiento.

Tabla C.9: Error Relativo y Datos Estimados por Método del Kriging y RNA.

Mid-x [m] Mid-y [m] Mid-z [m] Ley por Kriging Ley por RNA Error
67,5 62,5 52,5 0,459 0,498 -8,6%
112,5 62,5 67,5 0,303 0,394 -30,1%
82,5 137,5 82,5 0,430 0,375 12,8%
97,5 62,5 82,5 0,332 0,440 -32,7%
82,5 77,5 52,5 0,425 0,434 -2,3%
142,5 92,5 67,5 0,350 0,330 5,8%
97,5 92,5 52,5 0,426 0,361 15,2%
112,5 107,5 52,5 0,426 0,341 20,1%
112,5 77,5 82,5 0,295 0,372 -26,1%
97,5 122,5 82,5 0,492 0,361 26,7%
97,5 137,5 97,5 0,380 0,373 1,9%
82,5 137,5 97,5 0,400 0,386 3,4%
127,5 77,5 67,5 0,330 0,338 -2,5%
67,5 137,5 97,5 0,441 0,405 8,1%
127,5 92,5 82,5 0,317 0,329 -3,7%
127,5 62,5 52,5 0,262 0,352 -34,6%
142,5 77,5 52,5 0,307 0,334 -8,8%
142,5 107,5 82,5 0,319 0,332 -4,0%
142,5 137,5 52,5 0,415 0,421 -1,2%
127,5 122,5 52,5 0,422 0,371 12,0%
127,5 137,5 67,5 0,441 0,385 12,7%
82,5 107,5 82,5 0,439 0,395 10,0%
112,5 107,5 67,5 0,422 0,340 19,3%
97,5 137,5 82,5 0,447 0,368 17,7%
97,5 107,5 67,5 0,455 0,352 22,6%
82,5 122,5 97,5 0,384 0,395 -2,9%
112,5 122,5 67,5 0,447 0,351 21,5%
112,5 137,5 82,5 0,426 0,368 13,7%
97,5 137,5 52,5 0,387 0,363 6,2%
67,5 77,5 67,5 0,473 0,475 -0,5%
127,5 62,5 67,5 0,261 0,350 -34,2%

80
Tabla C.9: Error Relativo y Datos Estimados por Método del Kriging y RNA (Continuación).

Mid-x [m] Mid-y [m] Mid-z [m] Ley por Kriging Ley por RNA Error
127,5 137,5 52,5 0,417 0,400 4,2%
52,5 137,5 67,5 0,421 0,401 4,6%
82,5 92,5 67,5 0,463 0,409 11,8%
97,5 92,5 67,5 0,443 0,371 16,3%
82,5 77,5 67,5 0,410 0,443 -8,0%
67,5 62,5 67,5 0,424 0,493 -16,4%
112,5 77,5 97,5 0,304 0,378 -24,6%
82,5 137,5 67,5 0,433 0,364 16,0%
112,5 107,5 112,5 0,288 0,359 -24,8%
97,5 62,5 97,5 0,300 0,439 -46,4%
112,5 92,5 97,5 0,323 0,360 -11,4%
142,5 62,5 52,5 0,266 0,322 -21,0%
142,5 92,5 97,5 0,310 0,301 2,9%
142,5 107,5 112,5 0,327 0,308 5,9%
112,5 62,5 82,5 0,277 0,399 -44,1%
52,5 137,5 52,5 0,515 0,386 25,0%
127,5 122,5 67,5 0,411 0,360 12,5%
127,5 137,5 97,5 0,330 0,358 -8,4%
127,5 92,5 97,5 0,296 0,327 -10,3%
142,5 77,5 67,5 0,287 0,318 -11,0%
97,5 107,5 82,5 0,393 0,365 7,1%
97,5 62,5 112,5 0,334 0,430 -28,8%
97,5 77,5 97,5 0,297 0,420 -41,7%
97,5 122,5 97,5 0,336 0,372 -10,9%
112,5 107,5 127,5 0,349 0,362 -3,7%
82,5 62,5 52,5 0,442 0,469 -6,1%
142,5 137,5 82,5 0,349 0,377 -8,0%
67,5 107,5 52,5 0,421 0,402 4,5%
67,5 77,5 52,5 0,420 0,474 -12,8%
142,5 107,5 127,5 0,354 0,300 15,3%
82,5 122,5 82,5 0,463 0,379 18,2%
142,5 107,5 97,5 0,309 0,319 -3,2%
82,5 62,5 97,5 0,332 0,461 -38,9%
112,5 77,5 112,5 0,347 0,381 -9,7%
67,5 92,5 82,5 0,435 0,454 -4,3%
127,5 107,5 97,5 0,300 0,333 -11,2%
142,5 77,5 82,5 0,294 0,301 -2,4%
142,5 92,5 112,5 0,330 0,292 11,6%
127,5 62,5 112,5 0,326 0,330 -1,0%

81
Tabla C.9: Error Relativo y Datos Estimados por Método del Kriging y RNA (Continuación).

Mid-x [m] Mid-y [m] Mid-z [m] Ley por Kriging Ley por RNA Error
112,5 137,5 97,5 0,339 0,364 -7,4%
142,5 77,5 97,5 0,311 0,286 7,9%
97,5 77,5 52,5 0,418 0,393 5,9%
142,5 62,5 67,5 0,274 0,307 -12,1%
127,5 122,5 82,5 0,349 0,352 -0,9%
127,5 77,5 82,5 0,294 0,334 -13,4%
67,5 62,5 82,5 0,376 0,486 -29,3%
127,5 137,5 127,5 0,368 0,329 10,7%
142,5 122,5 67,5 0,389 0,373 4,2%
112,5 122,5 127,5 0,363 0,354 2,4%
142,5 122,5 97,5 0,302 0,337 -11,5%
142,5 137,5 67,5 0,403 0,400 0,9%
112,5 62,5 112,5 0,334 0,393 -17,8%
142,5 77,5 112,5 0,349 0,274 21,4%
112,5 137,5 67,5 0,479 0,372 22,3%
142,5 92,5 82,5 0,315 0,314 0,5%
127,5 77,5 112,5 0,341 0,327 4,0%
67,5 137,5 112,5 0,435 0,415 4,5%
127,5 62,5 82,5 0,264 0,346 -31,0%
112,5 137,5 52,5 0,393 0,379 3,6%
127,5 62,5 97,5 0,291 0,340 -16,6%
82,5 137,5 112,5 0,388 0,394 -1,5%
97,5 92,5 127,5 0,370 0,408 -10,1%
82,5 107,5 97,5 0,371 0,411 -10,5%
112,5 122,5 52,5 0,422 0,354 16,2%
142,5 137,5 97,5 0,346 0,354 -2,3%
142,5 62,5 112,5 0,305 0,257 15,9%
142,5 107,5 52,5 0,399 0,368 7,7%
127,5 77,5 97,5 0,307 0,330 -7,5%
82,5 137,5 52,5 0,329 0,356 -8,3%
112,5 62,5 127,5 0,323 0,378 -16,9%
82,5 92,5 52,5 0,447 0,395 11,6%
142,5 107,5 142,5 0,359 0,294 18,1%
112,5 137,5 142,5 0,374 0,334 10,6%
127,5 107,5 52,5 0,415 0,350 15,7%
112,5 137,5 112,5 0,332 0,358 -7,6%
97,5 137,5 112,5 0,332 0,375 -12,9%
112,5 62,5 97,5 0,299 0,400 -33,8%
82,5 62,5 82,5 0,342 0,467 -36,9%

82
Tabla C.9: Error Relativo y Datos Estimados por Método del Kriging y RNA (Continuación).

Mid-x [m] Mid-y [m] Mid-z [m] Ley por Kriging Ley por RNA Error
82,5 77,5 97,5 0,354 0,449 -26,8%
142,5 62,5 97,5 0,248 0,273 -9,7%
97,5 107,5 127,5 0,384 0,397 -3,3%
142,5 122,5 52,5 0,414 0,394 4,8%
112,5 122,5 82,5 0,362 0,353 2,6%
97,5 122,5 112,5 0,353 0,381 -8,0%
127,5 107,5 67,5 0,382 0,341 10,9%
67,5 92,5 67,5 0,478 0,448 6,2%
112,5 122,5 97,5 0,326 0,356 -9,4%
82,5 92,5 82,5 0,404 0,422 -4,4%
127,5 62,5 127,5 0,317 0,317 0,2%
97,5 62,5 127,5 0,328 0,412 -25,8%
82,5 62,5 67,5 0,372 0,470 -26,2%
82,5 77,5 82,5 0,352 0,448 -27,4%
127,5 92,5 52,5 0,401 0,342 14,7%
97,5 77,5 142,5 0,361 0,399 -10,4%
112,5 92,5 52,5 0,363 0,344 5,3%
67,5 77,5 82,5 0,406 0,473 -16,4%
97,5 107,5 112,5 0,318 0,392 -23,3%
127,5 77,5 52,5 0,311 0,344 -10,7%
112,5 62,5 142,5 0,318 0,353 -11,3%
127,5 122,5 97,5 0,305 0,345 -13,2%
142,5 122,5 82,5 0,357 0,354 0,7%
127,5 137,5 82,5 0,388 0,372 4,2%
82,5 92,5 97,5 0,358 0,431 -20,3%
112,5 107,5 97,5 0,289 0,353 -22,3%
97,5 77,5 82,5 0,319 0,413 -29,7%
142,5 92,5 52,5 0,322 0,348 -8,2%
97,5 92,5 97,5 0,301 0,398 -32,0%
97,5 62,5 142,5 0,322 0,386 -19,9%
112,5 107,5 82,5 0,352 0,345 1,9%
97,5 92,5 142,5 0,387 0,402 -3,6%
82,5 62,5 112,5 0,386 0,448 -16,0%
97,5 107,5 52,5 0,438 0,344 21,5%
97,5 137,5 67,5 0,464 0,364 21,7%
97,5 122,5 127,5 0,365 0,384 -5,2%
97,5 77,5 67,5 0,375 0,403 -7,5%
112,5 62,5 52,5 0,298 0,389 -30,3%
127,5 62,5 142,5 0,301 0,300 0,3%

83
Tabla C.9: Error Relativo y Datos Estimados por Método del Kriging y RNA (Continuación).

Mid-x [m] Mid-y [m] Mid-z [m] Ley por Kriging Ley por RNA Error
112,5 77,5 52,5 0,324 0,362 -11,7%
127,5 107,5 82,5 0,337 0,336 0,3%
142,5 62,5 82,5 0,255 0,290 -13,8%
97,5 62,5 67,5 0,354 0,437 -23,3%
82,5 92,5 127,5 0,402 0,430 -7,0%
97,5 137,5 127,5 0,374 0,371 0,9%
127,5 137,5 112,5 0,331 0,343 -3,8%
112,5 122,5 112,5 0,325 0,357 -9,9%
112,5 77,5 67,5 0,338 0,366 -8,3%
127,5 92,5 67,5 0,363 0,333 8,2%
82,5 122,5 112,5 0,382 0,407 -6,3%
142,5 107,5 67,5 0,361 0,348 3,5%
97,5 62,5 52,5 0,338 0,430 -27,1%
82,5 92,5 112,5 0,415 0,434 -4,5%
82,5 107,5 67,5 0,489 0,379 22,6%
112,5 92,5 67,5 0,352 0,345 1,9%
97,5 92,5 82,5 0,347 0,384 -10,6%
112,5 92,5 82,5 0,335 0,351 -4,8%
112,5 137,5 127,5 0,371 0,348 6,2%
97,5 122,5 67,5 0,476 0,351 26,3%
97,5 122,5 142,5 0,372 0,380 -2,1%
82,5 107,5 112,5 0,389 0,420 -8,0%
82,5 137,5 127,5 0,382 0,396 -3,5%
82,5 122,5 127,5 0,391 0,412 -5,2%
97,5 107,5 97,5 0,287 0,380 -32,2%
82,5 107,5 127,5 0,396 0,423 -7,0%
97,5 122,5 52,5 0,419 0,346 17,5%
82,5 107,5 142,5 0,391 0,420 -7,3%
67,5 92,5 52,5 0,434 0,440 -1,2%
97,5 137,5 142,5 0,365 0,361 1,2%
82,5 107,5 52,5 0,450 0,365 18,9%
82,5 122,5 142,5 0,386 0,410 -6,1%
82,5 122,5 67,5 0,416 0,363 12,8%

Por último se presenta la gráfica de distribución tridimensional de los datos


perteneciente a la vecindad y los datos simulados por medio de las RNA.

84
Figura C.17: Gráfica de Distribución Tridimensional de Ley de Cobre Total.

85
Figura C.18: Gráfica de Distribución Tridimensional de Ley de TCu para Datos Estimados por RNA.

86

S-ar putea să vă placă și