MINERÍA la mejor puerta de acceso al sector minero EDICIÓN 577 / OCTUBRE 2025 71 El período seleccionado para el entrenamiento abarcó desde agosto hasta diciembre de 2024, una ventana representativa de operación continua sin eventos mayores de falla, lo cual aseguró la calidad de los datos bajo condiciones normales. Para construir las entradas al modelo, los datos fueron segmentados en matrices de una hora de duración, con un paso temporal cada 30 segundos, generando 120 registros por matriz. Este enfoque balanceó la necesidad de capturar la dinámica de cada sistema sin incurrir en altos costos computacionales durante el entrenamiento. Antes de alimentar los datos al modelo, se aplicó un proceso de normalización utilizando el algoritmo MinMaxScaler de la librería Scikit-learn. El ajuste del escalador se realizó exclusivamente sobre el conjunto de entrenamiento (función fit_transform) y, posteriormente, se aplicó sobre el conjunto de validación (función transform), evitando así la fuga de información entre conjuntos (data leakage). La división de datos fue de 80% para entrenamiento y 20% para validación, asegurando un control adecuado sobre el proceso de sobreajuste. Las dimensiones de entrada al autoencoder variaron según la cantidad de variables por sistema, pero se mantuvo constante la dimensión temporal (120 pasos). Los modelos fueron implementados usando TensorFlow y Keras, y cada arquitectura fue ajustada mediante búsqueda manual de hiperparámetros, principalmente enfocada en la cantidad de capas, número de neuronas por capa y tasa de dropout. Esta estrategia permitió mantener la estabilidad del entrenamiento y mejorar la capacidad del modelo para generalizar sobre nuevos datos. El criterio para la detección de anomalías se basó en el error de reconstrucción (Mean Squared Error, MSE). Durante el entrenamiento, se generó la distribución de los errores de reconstrucción sobre el conjunto de validación, y se estableció como umbral de anomalía aquel valor que superara las tres desviaciones estándar por encima de la media. Esta aproximación permitió definir umbrales dinámicos y adaptados al comportamiento real de cada sistema. Finalmente, para evitar redundancia entre matrices temporales y reducir el riesgo de sobreajuste, se aplicó una estrategia de desplazamiento de ventanas cada cinco minutos. Esto garantizó que el conjunto de entrenamiento tuviera diversidad suficiente de condiciones operativas, sin comprometer la representatividad de los datos. Implementación operacional del modelo La puesta en producción del modelo de detección de anomalías requirió la implementación de una infraestructura dedicada, capaz de extraer datos en tiempo real, ejecutar inferencias con modelos de machine learning y retroalimentar los sistemas de monitoreo existentes. Para ello, se habilitó un servidor dedicado de analítica dentro de la red de planta, con acceso directo al PI Archive, lo que permitió consul- Figura 11. Salud presión de descarga durante la Falla 2. Figura 12. Salud general durante la Falla 3.
RkJQdWJsaXNoZXIy MTM0Mzk2