MINERÍA la mejor puerta de acceso al sector minero MINERÍA / MAYO 2023 / EDICIÓN 548 42 obtener sus leyes de oro y plata. Debido al pequeño tamaño de las rocas (malla entre ¾"-5"), el algoritmo supone que toda la roca es homogénea y asigna la misma etiqueta a todas las subimágenes de la misma roca. Esto se aplica tanto a las etiquetas de los geólogos como a las leyes obtenidas en los ensayos. Todas las imágenes obtenidas del grupo de rocas 1 se utilizaron para entrenar el algoritmo de clasificación utilizando las etiquetas de los geólogos, mientras que solo el 80% de las imágenes del grupo 2 se usaron para entrenar el algoritmo con las etiquetas obtenidas mediante ensayos químicos. El 20% restante de imágenes del grupo 2 se utilizó para probar el algoritmo entrenado con ambos conjuntos de etiquetas. Cabe mencionar que, debido a la menor cantidad de rocas en el grupo 2 en comparación con el 1, las etapas de entrenamiento y prueba se realizaron en 100 iteraciones, eligiendo aleatoriamente las rocas de entrenamiento y prueba del grupo 2. La Figura 12 explica claramente este proceso mostrando una representación gráfica de cómo se dividieron los grupos de rocas en conjuntos de entrenamiento y de prueba. Tras elegir las rocas del conjunto de entrenamiento, sus imágenes se procesaron mediante los métodos descritos para crear matrices de características y vectores de etiquetas. Para duplicar el número de subimágenes en el conjunto de entrenamiento, también se utilizó el aumento de datos mediante un desplazamiento al dividir las imágenes en subimágenes. Este método crea efectivamente una nueva subimagen a partir de cada cuatro subimágenes adyacentes, como se ilustra en la Figura 13. Como había un número diferente de imágenes para cada clase de mineral, las matrices de características y los vectores de etiquetas estaban desequilibrados. Entre los problemas de clasificación, tener un conjunto de datos desequilibrado puede dar lugar a un rendimiento pobre para los algoritmos estándar[44], como las redes neuronales. Así pues, para evitar este problema, las matrices de características y los vectores de etiquetas se remuestrearon para que coincidieran con el tamaño de la clase objetivo, de modo que los algoritmos pudieran entrenarse con el mismo número de puntos de datos positivos y negativos. Esto significa que la mitad de las filas de la matriz de características y del vector de etiquetas contenían datos del mineral objetivo, mientras que la otra mitad contenía datos del resto de minerales, como se muestra en la Tabla 3. Después de equilibrar las matrices de características y los vectores de etiquetas, se dividieron en un conjunto de entrenamiento utilizado para entrenar los modelos y un conjunto de validación utilizado para ajustar los parámetros del modelo y evaluar el rendimiento a nivel de subimagen. Las redes neuronales se entrenaron mediante el algoritmo Adam (Adaptive Moment Estimation). Este algoritmo es un método de optimización estocástica basado en el algoritmo de descenso de gradiente que encuentra los pesos óptimos de la Tabla 3. Número de Subimágenes por Clase de Mineral Utilizadas para Entrenar las Redes Neuronales Clasificador Matriz de características Puntos de datos por clase Total VE BX AN AA Mineral Residuos VE vs. otros XVE 11,251 3,750 3,750 3,750 22,501 BX vs. otros XBX 1,039 3,118 1,039 1,039 6,235 AN vs. otros XAN 1,613 1,613 4,839 1,613 9,678 AA vs. otros XAA 896 896 896 2,689 5,377 mineral vs. estéril Xore 11,063 8,304 19,367
RkJQdWJsaXNoZXIy MTM0Mzk2