MINERÍA la mejor puerta de acceso al sector minero MINERÍA / MAYO 2023 / EDICIÓN 548 36 El uso de los componentes principales y de la media y la varianza de cada espacio de color permite al algoritmo representar completamente la información de color de las subimágenes. El PCA puede calcularse utilizando varios métodos, como la descomposición en valores singulares (SVD)[31], la descomposición en valores propios de la matriz de covarianza[32] y el algoritmo de mínimos cuadrados alternos[33]. El método propuesto en este trabajo utiliza la descomposición en valores propios de la matriz de covarianza para calcular los componentes principales porque es el algoritmo más rápido de los tres mencionados anteriormente. El primer paso para calcular los componentes principales de una subimagen SCS(m, n, c) con dimensiones 64 x 64 x 3 es remodelarla en una matriz XPCA con dimensiones 1,064 x 3, donde el subíndice CS puede utilizarse para representar los espacios de color RGB o HSV. El objetivo principal del PCA es encontrar un nuevo conjunto de variables no correlacionadas que maximicen la varianza de los datos minimizando la pérdida de información[34]. Estas nuevas variables, denominadas componentes principales (PC), se representan mediante vectores ortonormales, cuyas direcciones se estiman calculando los vectores propios de la matriz de covarianzas del conjunto de datos. Matemáticamente, un punto de datos que pertenece a la matriz XPCA puede representarse mediante un vector columna x = (x1, x2,. . ., xn)T de tamaño n x 1, donde cada valor x1, x2,. . ., xn representa una variable aleatoria y T es el operador de transposición. Para hallar los componentes principales de un conjunto de datos, el primer paso consiste en calcular la matriz de covarianzas dada por: Cx = E{(x - mx) (x - mx) T} (3) donde mx es un vector compuesto por el valor medio de cada variable aleatoria en x. El siguiente paso es encontrar los valores propios λ1, λ2,..., λn y los vectores propios e1, e2,..., en de la matriz de covarianza Cx. En el PCA, los valores propios son proporcionales a la contribución de varianza de su respectivo vector propio. Así, el vector propio con el valor propio más alto se considera el primer componente principal, seguido del segundo vector propio con el valor propio más alto, y así sucesivamente. A continuación, los vectores propios pueden concatenarse horizontalmente para formar una nueva matriz-A ϵ Rnxn, que se denomina la transformada de Hotelling[35]. Esta transformada asigna a cada punto de datos, representado por x, un nuevo vector y, cuyos componentes no están correlacionados. Figura 10. Mapas de probabilidad de una imagen de muestra.
RkJQdWJsaXNoZXIy MTM0Mzk2