Por: Cristhian Jesús Carrión Osnayo, metalurgista.ResumenEl presente trabajo contiene el desarrollo y la aplicación de Inteligencia Artificial o computacional (Redes Neuronales Artificiales - RNA) en el procesamiento de minerales. Las RNA imitan la funcionalidad del cerebro humano y se orientan como herramientas para la resolución de problemas prácticos, son capaces de aprender de la experiencia a partir de las señales o datos provenientes del exterior.Las RNA aplicadas serán capaces de predecir las recuperaciones en el procesamiento de minerales previo a un adecuado entrenamiento y aprendizaje supervisado de la neurona, donde se introduce una gran cantidad de datos reales históricos de la planta concentradora, en este caso leyes de cabeza del mineral de beneficio y el contaminante con sus respectivas recuperaciones, con los cuales buscamos que la RNA se entrene y/o aprenda.IntroducciónLa actual problemática por la escasez de mineral conforme pasan los años de vida de la mina desde el punto de vista cuantitativo (tonelaje) y cualitativo (bajas leyes), hace cada vez más necesario mejorar y optimizar los procesos, esto no lleva a investigar sobre la Inteligencia Artificial y su posterior aplicación en el procesamiento de minerales con la finalidad de obtener recuperaciones óptimas.Parte de la Inteligencia Artificial, involucra la aplicación de redes neuronales, con las cuales buscamos predecir dichas recuperaciones.Objetivoν Se busca involucrar la aplicación de tecnologías como la Inteligencia Artificial para la solución de problemas en temas de minería y hacer un proceso más eficiente y responsable debido a la reducción de recursos y reservas de los yacimientos mineros.ν Tomar decisiones anticipadas y apropiadas para los procesos, una vez conocidos los valores de las recuperaciones futuras debido a la predicción de la red neuronal artificial en la planta concentradora.Fundamentos de RNAConcepto del modelo biológicoEl modelado de una RNA se basa en la estructura y funcionamiento del sistema nervioso del ser humano, donde la neurona es el elemento fundamental. Existe variedad de neuronas por su forma y tamaño.Estructura de la neuronaLa neurona es una célula viva por lo mismo que posee elementos característicos que la diferencian. Está compuesta por un cuerpo celular de un tamaño de 5 a 10 micras de diámetro, del cual sale una rama principal a la que se le denomina axón y de estas varias ramas más cortas llamadas dendritas.La característica que diferencia a la neurona del resto de células vivas es la capacidad de comunicarse, en conclusión las dendritas y el cuerpo celular (soma) reciben señales de entrada, el cuerpo celular las procesa y emite señales de salida.El axón transporta estas señales a los terminales axónicos (dendritas), los cuales se encargan de distribuir la información procesada a un nuevo grupo de neuronas.Una neurona recibe y emite información a miles de neuronas, se estima que en el cerebro del ser humano existen 1015 conexiones entre neuronas.Naturaleza bioeléctrica de la neuronaLas señales que se emiten son de dos tipos distintos de naturaleza eléctrica y química.νImpulso eléctrico: es la señal generada por la neurona y transportada a lo largo del axón.νImpulso químico: Es la señal que se transmite entre los terminales axónicos (dendritas). Sinapsis Se le denomina así al mecanismo de comunicación entre dos o más neuronas, con el fin de transmitir masivamente el impulso nervioso destinado a coordinar una función en el organismo.Existen dos tipos de sinapsis:a) Sinapsis excitadora: las que facilitan la generación de impulsos con una mayor velocidad.b) Sinapsis inhibidora: que dificultan la emisión de impulsos.La mayoría de las neuronas reciben entradas procedentes de sinapsis excitadoras e inhibidoras, en cada instante algunas de ellas estarán activas y otras en reposo, la suma de estos efectos determinará si la neurona será o no estimulada, es decir, si emitirá o no un determinado impulso y, de ser así, a qué velocidad lo realizará. Las señales que llegan a la sinapsis son las entradas a la neurona, estas son ponderadas (atenuadas o amplificadas) a través de un parámetro, denominado “peso”, las señales de entrada pueden excitar a la neurona (sinapsis con peso positivo) o inhibirla (sinapsis con peso negativo).El efecto es la suma de las entradas ponderadas, si la suma es igual o mayor que el umbral de la neurona entonces esta se activa (existe salida) o caso contrario no lo hará.Elementos de una red neuronal artificialLas redes neuronales son modelos que intentan reproducir el comportamiento del cerebro, el mismo que simplifica los datos irrelevantes del sistema, ya que la cantidad de información de la que se dispone es excesiva.El funcionamiento neurobiológico que sirve de base a las redes neuronales es el siguiente:a) Las neuronas reciben estímulos externos, a los cuales denominaremos información de entrada.b) La información se transmite para ser procesada, a esta unidad la llamaremos unidades ocultas.c) Una vez finalizado el periodo de procesado de la información llega a las unidades de salida, cuyo objetivo es dar una respuesta de salida.Las neuronas artificiales tratan de imitar las características más relevantes de la neurona biológica, cada una de las neuronas está caracterizada en cualquier instante por un valor de estado de activación “ai(t)”, existiendo una función de salida “fi”, la cual transforma el estado actual en uno de salida “yi”.Las señales moduladas que han llegado a la unidad se combinan entre ellas, generando así la entrada total de la red.Modelo general de una neurona artificialSe denomina RNA a un dispositivo simple de cálculo que, a partir de un vector de entrada procedente del exterior o de alguna otra neurona, proporciona una única respuesta y/o salida, sus elementos son:ν Conjunto de entradas: Xj (t)ν Pesos sinápticos: Wij, que presentan la intensidad o importancia de las entradas entre cada neurona presináptica “j” y la neurona postsináptica “i”.ν Regla de propagación: O (Wij, Xj(t)), que proporciona el valor del potencial postsináptico, de la neurona una función de sus pesos y entradas.ν Estado de activación: fi(ai(t-1), hi(t)), que proporciona el estado de activación actual de la neurona.ν Función de salida: Yi = fi(ai(t-1), la cual proporciona la salida actual de la neurona, en función de su estado de activación.Este modelo de neurona artificial es la inspiración de la neurona biológica en el sentido de ingresar una serie de entradas (imput) y proporcionar respuestas.Existen cuatro funciones de transferencia típicas que determinan distintos tipos de neuronas:ν Función escalón.ν Función lineal y mixta.ν Función sigmoidal (hiperbólica tangencial).ν Función Gaussiana.Para este estudio utilizaremos la función sigmoidal, ya que con ella el valor dado es cercano a uno de los valores asintóticos. En la mayoría de los casos el valor de salida está comprendido en la zona alta o baja del sigmoide, siendo su importancia que su derivada siempre será positiva y cercana a cero.Regla de aprendizajeBiológicamente se suele aceptar que la información memorizada en el cerebro está más relacionada con los valores sinápticos de las conexiones entre las neuronas, es decir, que el conocimiento se encuentra en las sinapsis, en el caso de las redes neuronales podemos considerar que el conocimiento se encuentra en los pesos de las conexiones entre neuronas.Estructura de una RNALa estructura de una red neuronal está en función de:ν Número de niveles o capas.ν Número de neuronas por nivel.ν Patrones de conexión.ν Flujo de información.Niveles o capasSe pueden distinguir tres tipos de capas:1) Entrada: es la capa que recibe directamente la información proveniente de las fuentes externas.2) Niveles ocultos: son espacios internos de la red y no tienen contacto directo con el entorno exterior.3) Salida: transferencia de la información de la red hacia el exterior.Mecanismo de aprendizajeEl aprendizaje que se da en una RNA es el proceso por el cual una red modifica sus pesos en respuesta a una información de entrada.Lo esencial es saber qué criterios se toman cuando se pretende que la red aprenda una nueva información.Se consideran dos tipos de aprendizaje:ν Aprendizaje supervisado.ν Aprendizaje no supervisado.Redes con aprendizaje supervisado.- se caracterizan porque el proceso de aprendizaje se realiza mediante un entrenamiento controlado, es decir, supervisado, el cual determina la respuesta que debería generar la red a partir de una entrada determinada.Redes con aprendizaje no supervisado.- También conocidas como autosupervisadas, no requieren influencia para ajustar los pesos de las conexiones entre sus neuronas, suele decirse que este tipo de redes tienen la capacidad de auto-organizarse. Dichas redes deben encontrar las características, correlaciones o categorías que se pueden establecer entre los datos que se presenten en su entrada.Para la predicción de las recuperaciones de este trabajo se ha utilizado el aprendizaje supervisado ya que se entrena a la RNA con datos históricos con los cuales queremos que dicha red aprenda o entrene.Existiendo varios modelos de RNA se ha utilizado la red blackpropagation, ya que se ajusta mejor al aprendizaje y resultados que deseamos obtener.La red backpropagationEl funcionamiento de una red backpropagation consiste en un aprendizaje de un conjunto predefinido de pares de entradas - salidas en dos fases: primero se aplica un patrón de entrada como estímulo para la primera capa de neuronas, está a la vez se va propagando a través de todas las capas superiores hasta generar una salida, se compara el resultado obtenido en las neuronas de salida con las salidas que se busca obtener y se calcula un valor error para cada neurona.Estructura y aprendizaje de la red backpropagationEn una red backpropagation existe una capa de entrada con «n» neuronas y otra capa de salida con «m» neuronas y al menos se tendrá una capa oculta, cada neurona de una capa (excepto la de entrada) recibe información de todas las neuronas de la capa anterior y envía una información de salida a todas las neuronas de la capa posterior.A diferencia de otra red, esta requiere del uso de neuronas cuya función de activación sea continua, generalmente la función que se utiliza para este tipo de red neuronal será el tipo sigmoidal (función tangente hiperbólica).Neuraltools y las RNACuando hacemos uso de neuraltools, el cual es el software de programación las RNA, se desarrollan en cuatro pasos.ν Preparación de datos: los datos que se usan se definen en un conjunto.νEntrenamiento: con dicho entrenamiento o aprendizaje se genera una red a partir de un conjunto de datos, compuesto de casos con valores de salida conocidos.Estos datos son frecuentemente casos históricos de los cuales se conocen los valores de salida (variable dependiente).νPrueba: los datos utilizados para las pruebas son normalmente un subconjunto de data histórica.νPredicción: Se usa una red entrenada para predecir valores de salida desconocidos.Una vez entrenada y probada la red se puede aplicar para predecir salidas de datos de casos totalmente nuevos. Prueba, análisis e interpretación de los resultados de predicción de la recuperación en planta concentradoraLo que se desea lograr con las pruebas de entrenamiento es obtener una red capaz de predecir resultados futuros (recuperaciones) con un error, el cual sea el menor posible, para esto se requiere entrenar a la red con datos históricos de la planta concentradora.Descripción de las variables de pronósticoPara realizar el pronóstico y entrenamiento de la RNA se ha considerado las leyes de cabeza de mineral de beneficio (Sn) y de azufre (S) con las respectivas recuperaciones diarias durante 3 meses, dichos datos los consideramos representativos del proceso ya que varían frecuentemente y es lo que la red necesita para poderse entrenar en diferentes escenarios. Por el contrario, si tomaríamos datos de variables constantes del proceso, simplemente estas no causarían efecto en el aprendizaje de nuestra red.Descripción de las variablesa) Variables independientes: se ha considerado 3 variables las cuales son:ν Ley de estaño (Sn): por ser el mineral de beneficio y el objetivo a recuperar en la planta concentradora, es una variable a considerar.ν Ley de azufre (S): el azufre es una variable a controlar en el proceso, se considera el principal elemento perjudicial de la flotación de casiterita ya que disminuye considerablemente la calidad del concentrado (producto final del proceso).ν Recuperación del circuito de gravimetría: la planta concentradora obtiene dos tipos de concentrado: el primero proveniente del circuito de gravimetría y, el segundo, del tratamiento de los relaves de gravimetría (flotación inversa), dicha variable será importante para la recuperación que se busca predecir (recuperación del circuito de flotación). b) Variable dependiente: de acuerdo al interés de información por parte de la planta concentradora para una adecuada toma de decisiones en el proceso se ha considerado la siguiente variable dependiente:ν Recuperación del circuito de flotación: se ha considerado a la recuperación del circuito de flotación como variable a predecir por ser esta sumamente variada en el proceso.Control horarioLos datos que se utilizaron para el entrenamiento de la RNA se obtuvieron del control horario que se maneja en el área de planta concentradora, en el cual se registran leyes de cabeza tanto de Sn (estaño), S (azufre) y las recuperaciones.Descripción de la data histórica de las variables de estudioPara el entrenamiento se tomó una muestra de datos de 87 días, los cuales hacen un total de 348 datos de entrada a la RNA, con el objetivo de predecir las posteriores recuperaciones con tan solo insertar leyes y no pesos.La RNA estará en proceso de aprendizaje supervisado por lo mismo que se ingresa la variable respuesta que será la misma que la red predecirá más adelante, una vez que el error de aprendizaje sea el menor posible (Ver Tabla 1).Se realizarán entrenamientos con la finalidad de reducir el error al mínimo posible. Una vez obtenida la red entrenada se procederá a predecir recuperaciones futuras (ver Tabla 2).El error de predicción en el test es del 25%, por lo cual el objetivo es reducir aún más el error (ver Tabla 3).El error de predicción en el test es del 14% (ver Tabla 4).Se puede apreciar en este último entrenamiento (aprendizaje) que los test se predijeron de una manera adecuada y confiable (ver Tabla 5). Se realizaron un total de tres entrenamientos con los cuales se pudo reducir el error prueba tras prueba, logrando así obtener un error del 4% en el entrenamiento y 0% en los test, lo cual es aceptable para una RNA.Comparación de pronóstico de métodos tradicionales y una RNA entrenadaPronóstico con regresión linealEl siguiente modelo estadístico que se utilizó para el pronóstico de las recuperaciones futuras de los siguientes 31 días ha sido el de multirregresión lineal, en este se ha considerado tres variables independientes y una dependiente.Variable respuesta: recuperación de flotación.Predictores continuos: leyes de estaño, azufre y recuperación del circuito de gravimetría.Para ello se hizo uso del programa Minitab17, con el que generamos la ecuación de regresión lineal y el nivel de significancia para cada parámetro.Resumen del modeloR-cuadrado (Ajustado)27.05% 24.41%Ecuación de regresión para el pronóstico de recuperación de flotación:R. Flotación = 104.7 – 29.63 (estaño)+2.63 (azufre)+0.102(R. Gravi)Podemos visualizar en la Figura 7 que los valores reales de recuperación por flotación y el de la predicción no se ajustan ya que el R2 tiene un valor igual al 27.05%, el cual está muy por debajo del valor aceptable para una predicción.Pronóstico con RNAEl siguiente modelo de red neuronal artificial que se utilizó para el pronóstico de las recuperaciones futuras ha sido el backpropagation, los resultados se muestran en la Tabla 6.Conclusiones1. De acuerdo a los resultados obtenidos se observa que el modelo de regresión lineal presenta un margen de error no aceptable. Sin embargo, el modelo de red neuronal (backpropagation) es el que mejor se ajusta al comportamiento de las variables y realiza una mejor predicción de las recuperaciones.2. Las RNA no necesitan un algoritmo para resolver un problema, ya que ellas pueden generar su propia distribución de pesos en los enlaces mediante el aprendizaje. 3. En el presente trabajo se logró realizar predicciones con un alto grado de exactitud para las recuperaciones futuras y tomar decisiones adecuadas con la finalidad de realizar un proceso eficiente.4. Al hacer pronósticos con los métodos estadísticos de regresión lineal, se obtiene un error el cual una vez identificado ya no es posible reducirlo. Caso contrario pasa con las RNA, si se reporta un error que no sea aceptable dentro de un rango establecido por la misma red, este se puede reducir aún más a medida que se hacen más iteraciones en el entrenamiento.BibliografíaBart Kosko. 1992. Neural Networks and Fuzzy Systems – A dynamical systems approach to machine intelligence. Prentice Hall.Bonifacio M. del Brío, Alfredo S. Molina. 2002. Redes Neuronales y Sistemas Difusos. Alfaomega Grupo Editor S.A., RA-MA Editorial. Second Edition, México.José R. Hilera, Víctor J. Martínez. 2000. Redes Neuronales Artificiales, Edición: Addison-Weley Iberoamericana España.Manual NeuralTools, Palisade Corporation USA, 2010.Minera Minsur S.A. 2016. Reportes Internos Diarios Control Horario - Área Planta Concentradora.Olmedo y otros. 2004. Utilización de Redes Neuronales en la Caracterización, Modelización y Predicción de Series Temporales.Pedro Isasi Viñuela. 2005. Redes de Neuronas Artificiales. Ediciones Pearson, Pretince Hall.Collantes y Otros. 2004. Predicción con redes neuronales artificiales: comparación con las metodologías box y Jenkins. Serrano y Gallizo. Las redes neuronales artificiales en el tratamiento de la información financiera. (http://www.ciberconta.unizar.es/Biblioteca/0004/SerGall96.html)Stuart Rusell and Peter Norving. 2004. Inteligencia Artificial – Un enhorque moderno. Pearson Education, S.A., Second Edition.