REVISTA MINERÍA 581 | EDICIÓN FEBRERO 2026

MINERÍA la mejor puerta de acceso al sector minero EDICIÓN 581 / FEBRERO 2026 58 técnica y cultural, promoviendo una cultura de mejora continua basada en datos. Compilación de datos y desarrollo del trabajo El desarrollo del modelo estadístico LingoSmelter se basó en la integración de datos históricos del proceso de fusión en el horno Ausmelt, con el objetivo de construir una herramienta predictiva y de optimización que permita mejorar la recuperación de metal crudo. Este trabajo se estructuró en tres etapas principales: recopilación y preprocesamiento de datos, modelado predictivo y optimización, y validación comparativa frente al modelo teórico tradicional. Para el desarrollo de LingoSmelter, se estableció un equipo multidisciplinario conformado por el operador de la sala de control del horno Ausmelt, el supervisor del área de Fundición, el ingeniero metalurgista designado al área de Fundición y el científico e ingeniero de datos del equipo de Transformación Digital. Juntos, se trabajó en la identificación de la necesidad operativa y del área de Metalurgia y se definió un flujo bidireccional para garantizar ciclos de retroalimentación constantes que permitan desarrollar la mejor solución posible. El desarrollo del modelo LingoSmelter requirió una arquitectura de datos robusta y escalable que permitiera integrar múltiples fuentes de información, automatizar procesos de transformación y preparar los datos para su análisis y modelado. Para ello, se utilizaron tecnologías de computación en la nube, específicamente Azure Functions y Databricks, que permitieron construir un flujo de trabajo ágil, reproducible y eficiente. Arquitectura de datos El flujo de datos se diseñó bajo un enfoque modular y automatizado: Azure Functions: se utilizaron para orquestar tareas de extracción, transformación y carga (ETL) de forma programada y sin necesidad de servidores dedicados. Estas funciones permitieron:  Conectar con sistemas como PI System y SAP.  Extraer datos en tiempo real o por lotes.  Ejecutar validaciones iniciales y limpieza básica.  Enviar los datos procesados a un entorno de análisis. Figura 3. Equipo de trabajo y flujo de comunicación.

RkJQdWJsaXNoZXIy MTM0Mzk2