69
CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE IMÁGENES RGB Christian Saúl González Santos UNIVERSIDAD DE IBAGUÉ FACULTAD DE INGENIERÍA MAESTRÍA EN INGENIERÍA DE CONTROL IBAGUÉ - TOLIMA 2020

CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

  • Upload
    others

  • View
    17

  • Download
    0

Embed Size (px)

Citation preview

Page 1: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE IMÁGENES RGB

Christian Saúl González Santos

UNIVERSIDAD DE IBAGUÉ FACULTAD DE INGENIERÍA

MAESTRÍA EN INGENIERÍA DE CONTROL IBAGUÉ - TOLIMA

2020

Page 2: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE IMÁGENES RGB

Christian Saúl González Santos

Trabajo de Tesis para optar por el título de Magister en Ingeniería de Control

Director Manuel Guillermo Forero Vargas

Codirector Carlos Eduardo Beltran Reyes

UNIVERSIDAD DE IBAGUÉ FACULTAD DE INGENIERÍA

MAESTRÍA EN INGENIERÍA DE CONTROL IBAGUÉ - TOLIMA

2020

Page 3: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

NOTA DE ACEPTACIÓN

_______________________ _______________________ _______________________ _______________________

Presidente del jurado _______________________

Nombre del jurado _______________________

Nombre del jurado _______________________

Page 4: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 4

Dedicatoria

A mi familia, el más grande regalo que me ha otorgado la vida, con cuya ayuda y amor he logrado alcanzar mis metas.

Page 5: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 5

Agradecimientos

Principalmente quiero agradecer a mis padres Clemencia Santos e Hildebrando González, que siempre tuvieron fe en mí y conté incondicionalmente con su apoyo en momentos en el cual no se veía salida, a mis hermanos Andrés, Bianda, Santiago y Diana. También quiero agradecerles a mis amigos de Girardot los cuales estuvieron pendientes de mí en esta época importante de mi vida, Sebastián, Angarita y Daniel y a los infaltables David, Leo, Yamel, Santiago y Andrés. Sin falta la motivación de dos mujeres que marcaron mi vida en esta etapa de estudios y trabajos en la Universidad de Ibagué Evelyn y Leszlie . Por último a mis maestros por compartir su gran conocimiento, y a mis tutores, por guiarme del mejor modo para utilizar mis capacidades y culminar con éxito este proyecto.

Page 6: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 1

CONTENIDO CONTENIDO ............................................................................................................................ 1

LISTA DE FIGURAS ................................................................................................................... 3

LISTA DE TABLAS ..................................................................................................................... 5

RESUMEN ................................................................................................................................ 6

Palabras claves .................................................................................................................... 6

ABSTRACT ............................................................................................................................... 7

Keywords ............................................................................................................................ 7

NOMENCLATURA .................................................................................................................... 8

INTRODUCCIÓN ...................................................................................................................... 9

PLANTEAMIENTO DEL PROBLEMA ....................................................................................... 11

OBJETIVOS ............................................................................................................................ 12

Objetivo general ............................................................................................................... 12

Objetivos específicos ........................................................................................................ 12

ESTADO DEL ARTE ................................................................................................................. 13

1. MARCO TEÓRICO ........................................................................................................... 16

1.1. Heliconiaceae ........................................................................................................ 17

1.2. Procesamiento de imágenes ................................................................................ 18

1.3. GrabCut ................................................................................................................. 18

1.4. Bag of Words (BoW) ............................................................................................. 19

1.5. K-Means ................................................................................................................ 21

1.6. K-Nearest Neighbor (KNN).................................................................................... 21

1.6.1. Distancia de intersección ................................................................................ 22

1.7. Support Vector Machine (SVM) ............................................................................ 23

1.8. Artificial Neural Network (ANN) ........................................................................... 24

2. MÉTODO PARA LA CLASIFICACIÓN DE HELICONIACEAE ............................................... 26

2.1. Protocolo de adquisición de imágenes ................................................................ 26

2.2. Segmentación ....................................................................................................... 27

2.3. Ajuste de los datos ............................................................................................... 29

2.4. Histograma de palabras claves ............................................................................. 31

2.5. Clasificadores ........................................................................................................ 33

3. ANÁLISIS DE RESULTADOS ............................................................................................. 35

Page 7: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 2

3.1. Validación del método .......................................................................................... 45

CONCLUSIONES ..................................................................................................................... 55

BIBLIOGRAFÍA ....................................................................................................................... 57

ANEXOS ................................................................................................................................. 60

Anexo 1: Corrección de color ........................................................................................... 60

Anexo 2: Manual de usuario ............................................................................................. 64

Page 8: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 3

LISTA DE FIGURAS Figura 1 a) Rostrata (pendula), b) Wagneriana red, c) Calathea Lutea y d) Ginger shampoo (maracas) (Autor).................................................................................................................. 10

Figura 2 Clasificación de heliconias usando a), b) Arbolapp, c) Picture this y el PlanSnap, detectada heliconia d) chartacea y e) Blhai. (Autor) ............................................................ 14

Figura 3 Heliconia Rostrata a) inflorescencia completa b) Cincino con las brácteas cincinal y florales removidas para mostrar la flor en el momento de la antesis [16]. ......................... 17

Figura 4 Segmentación mediante el GrabCut (Autor). ......................................................... 19

Figura 5 Bag of Words [25]. .................................................................................................. 20

Figura 6 Método de agrupamiento y corrección K-Means [32]. .......................................... 21

Figura 7 K-Nearest Neighbor (KNN) [34]. ............................................................................. 22

Figura 8 Solapamiento entre dos grupos azul y blanco. [36] ............................................... 23

Figura 9 SVM a) identificación del hiperplano correcto, b) maximizar las distancias entre el punto de datos más cercano (cualquiera de las clases) y el hiperplano [37]. ..................... 24

Figura 10 ANN típico y una neurona artificial típica [38]. .................................................... 24

Figura 11 a) Carta de colorimetría y sus b) valores RGB [39]. .............................................. 26

Figura 12 Carta colorimétrica con la Heliconia (Autor). ....................................................... 27

Figura 13 Heliconia a) Rostrata (péndula), b) Wagneriana red, c) Calathea Lutea y d) Ginger shampoo (maracas), con su debida segmentación e) f) g) y h) (Autor). .............................. 29

Figura 14 a), c), e) y g) imágenes segmentadas, b), d), f) y h) imágenes re muestreadas (320x120) (Autor). ................................................................................................................ 30

Figura 15 Diagrama de flujo de la adquisición y procesamiento de la imagen. ................... 31

Figura 16 a) histograma con 10 clusters hasta b) histograma con 100 clusters (Autor). ..... 32

Figura 17 Equipo utilizado para el desarrollo del trabajo. ................................................... 35

Figura 18 Heliconia Calathea Lutea a) bajos sombra y b) bajo el sol ................................... 36

Figura 19 Precisión del clasificador KNN con datos de prueba. ........................................... 37

Figura 20 Precisión del clasificador 1NN con datos de prueba. ........................................... 37

Figura 21 Precisión del clasificador SVM con Kernel Lineal con datos de prueba. .............. 38

Figura 22 Precisión del clasificador SVM con Kernel poly con datos de prueba. ................. 38

Figura 23 Precisión del clasificador KNN distancia euclidiana. ............................................ 40

Figura 24 Precisión del clasificador 1NN con distancia de intersección máxima. ................ 40

Figura 25 Precisión del clasificador 1NN con distancia de intersección promedio.............. 41

Figura 26 Precisión del clasificador ANN con cluster de 30, alpha de 1𝑥103. .................... 42

Figura 27 Precisión del clasificador SVM con Kernel Lineal. ................................................ 43

Figura 28 Precisión del clasificador SVM con LIBLINEAR. ..................................................... 44

Figura 29 Precisión del clasificador SVM con Kernel rbf y Gamma de 0,7. .......................... 44

Figura 30 Precisión del clasificador SVM con Kernel poly con grado 2. ............................... 45

Figura 31 Precisión del clasificador KNN con número de vecinos igual a 7 con 20 a 40 cluster. .............................................................................................................................................. 46

Figura 32 Precisión del clasificador 1NN con 30 y 70 cluster. .............................................. 46

Figura 33 Precisión del clasificador SVM con Kernel lineal con 30 y 40 cluster. .................. 47

Figura 34 Precisión del clasificador SVM con Kernel poly con 30 y 40 cluster. ................... 47

Page 9: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 4

Figura 35 Muestra 1. ............................................................................................................. 48

Figura 36 Muestra 2. ............................................................................................................. 48

Figura 37 Muestra 3. ............................................................................................................. 49

Figura 38 Muestra 4. ............................................................................................................. 49

Figura 39 Muestra 5. ............................................................................................................. 50

Figura 40 Muestra 6. ............................................................................................................. 50

Figura 41 Muestra 7. ............................................................................................................. 51

Figura 42 Muestra 8. ............................................................................................................. 51

Figura 43 Muestra 9. ............................................................................................................. 52

Figura 44 Muestra 10. ........................................................................................................... 52

Figura 45 Muestra 11. ........................................................................................................... 53

Figura 46 Muestra 12. ........................................................................................................... 53

Figura 47 Muestra mal clasificada. ....................................................................................... 54

Figura 48 Adobe DNG Converter. ......................................................................................... 60

Figura 49 DNG Profile Editor. ............................................................................................... 61

Figura 50 a) Corrección de color y b) ajuste tonal. ............................................................... 61

Figura 51 Ajuste de color con Lightroom. ............................................................................ 62

Figura 52 Configuración de ajuste de color. ......................................................................... 62

Figura 53 Ajuste de revelado. ............................................................................................... 63

Page 10: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 5

LISTA DE TABLAS Tabla 1 Parámetros estudiados de los clasificadores KNN, ANN y SVM con sus variantes. 34

Tabla 2 Precision con el clasificador 1NN para cada especie cion datos de prueba. ........... 36

Tabla 3 Matriz de confusión del clasificador 1NN con datos de prueba, donde la especie 1 es Rostrata, especie 2 es Wagneriana red, especie 3 es Calathea Lutea y especie 4 es Ginger shampoo. .............................................................................................................................. 37

Tabla 4 Precisión del clasificador KNN. ................................................................................ 39

Tabla 5 Precisión del clasificador ANN con cluster de 30 y una capa. ................................. 41

Tabla 6 Precisión del clasificador SVM con Kernel lineal, LIBLINEAR y rbf. ......................... 42

Tabla 7 precision del clasificador SVM con kernel poly. ...................................................... 43

Tabla 8 Parametros obtenidos para los clasificadores con los datos de testeo. ................. 45

Tabla 9 Matriz de confusión del clasificador KNN con datos de validación, donde la especie 1 es Rostrata, especie 2 es Wagneriana red, especie 3 es Calathea Lutea y especie 4 es Ginger shampoo. .................................................................................................................. 46

Tabla 10 Manual de usuario. ................................................................................................ 64

Page 11: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 6

RESUMEN Colombia es el país con el mayor número de especies vegetales en el mundo. Dentro de ellas, las heliconias desempeñan un importante papel ecológico dentro de los ecosistemas, pues son componentes frecuentes del interior y límites de los bosques, así como de ambientes abiertos como potreros, bordes de carretera y orillas de ríos. En algunos ecosistemas actúan como pioneras en el proceso de regeneración natural de la vegetación y restauración del suelo degradado. Además, mantienen importantes relaciones coevolutivas con otras especies animales y vegetales, constituyéndose en un elemento importante dentro del complejo armazón de la vida en el trópico. La clasificación de especies de plantas es crucial para la protección y conservación de la biodiversidad. La clasificación manual requiere mucho tiempo, es costosa y se necesitan expertos que a menudo tienen disponibilidad limitada. Para hacer frente a estos problemas, en este trabajo se utilizaron tres métodos de clasificación de imágenes SVM (Máquina de Vector de Soporte), ANN (Redes neuronales), KNN (Vecinos más próximos) con distancia euclidiana y de intersección, las cuales entregaron buenos resultados en la clasificación de cuatro especies de heliconias encontradas en la Universidad de Ibagué. Los datos empleados para el entrenamiento, prueba y validación de los métodos fueron imágenes RGB tomadas en el hábitat natural de las heliconias, con el fin de tener información desde su germinación hasta su momento óptimo de corte. Las imágenes fueron preprocesadas, haciendo un ajuste de balance de blancos, contraste y temperatura del color. Para separar las heliconias del fondo se utilizó una técnica de segmentación por grafos mediante SPG. Los descriptores se obtuvieron empleando la técnica conocida como BoW (Bag of Words), encontrando que el número de palabras visuales más adecuadas para la clasificación estaba entre 20 a 40. El método con el que se obtuvieron los mejores resultados fue el KNN; empleando los tres vecinos más cercanos, con una precisión del 97%.

Palabras claves Bag of words, heliconias, aprendizaje de máquinas, k-means, python, SVN, KNN, ANN, intersección máxima, intersección promedio, imágenes.

Page 12: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 7

ABSTRACT Colombia is the country with the largest number of plant species in the world. Within it, the heliconias play an important ecological role within the ecosystems, since they are frequent components of the interior and limits of the forests, as well as of open environments such as pastures, roadsides and riverbanks. In some ecosystems they act as pioneers in the process of natural regeneration of vegetation and restoration of degraded soil. In addition, they maintain important co-evolutionary relationships with other animal and plant species, becoming an important element within the complex framework of life in the tropics. The classification of plant species is crucial for the protection and conservation of biodiversity. Manual classification is time-consuming, costly and requires experts who are often limited in their availability. To address these problems, three methods of classification of SVM (Support Vector Machine), ANN (Neural Networks), KNN (Nearest Neighbors) images with Euclidean distance and intersection were used in this work, which gave good results in the classification of four species of heliconias found at the University of Ibagué. The data used for training, testing and validation of the methods were RGB images taken in the natural habitat of the heliconias, in order to have information from their germination to their optimal cutting time. The images were pre-processed, making an adjustment of white balance, contrast and color temperature. To separate the heliconias from the background, a graphical segmentation technique using GPS was used. The descriptors were obtained using the technique known as BoW (Bag of Words), finding that the number of visual words most suitable for classification was between 20 and 30. The method with which the best results were obtained was the KNN; using the three closest neighbors, with an accuracy of 97%.

Keywords Bag of words, heliconias, machine learning, k-means, python, SVN, KNN, ANN images.

Page 13: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 8

NOMENCLATURA KNN: K-Nearest Neighbors. SVM: Support Vector Machine. DNN: Deep Neural Networks. ANN: Artificial Neural Network. RGB: Red, Green and Blue. HSV: Hue, Saturation, Value. BoW: Bag of Words ML: Machine Learning SIFT: Scale-invariant feature transform SUFT: Speeded-Up Robust Features

Page 14: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 9

INTRODUCCIÓN En el ambiente productivo colombiano se deben buscar alternativas de creación de nuevos negocios, que generen una mayor estabilidad a mediano y largo plazo en la economía campesina, regional y nacional para formar empresas más sólidas y competitivas [1]. En este aspecto, una nueva opción es el cultivo y la producción de heliconias, las cuales tienen interés comercial puesto que pueden ser utilizadas como adornos de parques y jardines, flores de corte y en cultivos de producción de semillas certificadas con fines de exportación [2], las exportaciones de heliconias, son de alrededor de 24.000 a 30.000 tallos al año, dependiendo de las variedades. El destino de estas exportaciones son Estados Unidos, Canadá, Holanda y Alemania [3], [4]. Las heliconias, conocidas popularmente como platanillo, se cultivan en muchas regiones de Colombia y en el país se encuentran más del 70% de las variedades de las 250 que se conocen en Centro y Sudamérica, lo cual ofrece una ventaja comparativa frente a otros países como Filipinas y Guinea, donde también se producen y exportan [4]. El procesamiento de imágenes y reconocimiento de patrones está siendo utilizado en aplicaciones de botánica. Así, durante los últimos años se ha incrementado significativamente el interés en campos como la identificación y caracterización de plantas, siendo utilizados con éxito en su reconocimiento, tales como el programa PlantSnap, el cual identifica las heliconias pero sin distinguir cada variedad en particular, como se menciona en el estado del arte [14]. Por esta razón, se hace necesario el desarrollo de una técnica que permita clasificar o caracterizar la heliconia independientemente de su zona de florecimiento identificando su variedad. En esta área, en particular, el semillero Lún de la Universidad de Ibagué ha desarrollado algunos trabajos, presentados en congresos como el International Workshop on Image Analysis Methods in the Plant Sciences (IAMPS). Como continuación de los trabajos realizados, este proyecto de investigación tiene como finalidad desarrollar un nuevo método que permita mediante la utilización de técnicas de procesamiento de imágenes y reconocimiento de patrones identificar especies de plantas Zingiberales como: Rostrata (pendula), Wagneriana red, Calathea Lutea y Ginger shampoo (maracas), ya que son algunas de las variedades encontradas en el Departamento del Tolima y, en particular, en la Universidad de Ibagué, las cuales pueden convertirse en productos de exportación del Departamento, tal como ocurre en otras regiones de Colombia y con ello ayudar en el estudio de la flora de la región, haciendo un aporte a la comunidad científica nacional e internacional. La Figura 1 muestra fotografías de las cuatro especies empleadas en el estudio, tomadas ex situ de la floración de heliconias en la Universidad de Ibagué.

Page 15: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 10

a)

b)

c)

d)

Figura 1 a) Rostrata (pendula), b) Wagneriana red, c) Calathea Lutea y d) Ginger shampoo (maracas) (Autor).

Page 16: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 11

PLANTEAMIENTO DEL PROBLEMA Las mejoras constantes de los métodos de descripción de imágenes indujeron un creciente interés en la clasificación de especies de plantas basada en imágenes, una tarea vital para el estudio de la biodiversidad y la sensibilidad ecológica. Por esta razón, en los últimos años se han propuesto diversas técnicas para la clasificación de especies de plantas. La clasificación de especies de plantas es crucial para la protección y conservación de la biodiversidad. Esta tarea muchas veces se hace manualmente, lo cual requiere de expertos que a menudo no se consiguen o tienen disponibilidad limitada. Además esta labor requiere mucho tiempo y es costosa. Quizás el primer trabajo conocido en el área fue el desarrollado en 1936 por Ronald Fisher que empleó cuatro descriptores para la clasificación de tres especies de la planta iris, utilizando para su clasificación el método conocido como “Discriminante Lineal de Fisher” [5]. Posteriormente, se han hecho diferentes estudios para la identificación de plantas y flores utilizando métodos de procesamiento de imágenes y aprendizaje de máquinas para la eliminación de ruido, extracción de características y clasificación de las mismas [6]–[9]. Las Heliconias son especies ornamentales que producen inflorescencias muy apreciadas en floricultura. Las plantas se pueden cultivar para producir flores cortadas, o se pueden plantar en parques y jardines como parte del paisajismo. Además de sus inflorescencias, las heliconias producen follaje útil para diversos fines y sus rizomas pueden usarse como alimento o medicina [9–12]. Las heliconias son producto de exportación en algunos países e incluso en Colombia y aunque algunas de las variedades se encuentran en el Departamento del Tolima no son aprovechadas con este propósito. Así, el estudio de las variedades de heliconia se convierte en tema de interés de la Universidad, tal como dice su lema “Comprometidos con el desarrollo regional”, pues que esta planta puede convertirse en producto de exportación del Departamento, tal como ocurre en otras regiones de Colombia y con ello ayudar en el estudio de la flora de la región, haciendo un aporte a la comunidad científica nacional e internacional. Por esta razón, en este trabajo se propone el uso de técnicas de procesamiento de imágenes y reconocimientos de patrones para la identificación de cuatro especies de heliconias encontradas en el campus de la Universidad de Ibagué.

Page 17: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 12

OBJETIVOS

Objetivo general Desarrollar un método para la identificación automática de las heliconias, utilizando técnicas de procesamiento de imágenes y reconocimiento de patrones.

Objetivos específicos

Generar una base de datos de las cuatro variedades de heliconias de la Universidad de Ibagué.

Obtener descriptores de color utilizando la técnica BoW, los cuales permitan una adecuada caracterización de la espata de la heliconia.

Comparar y evaluar tres métodos de clasificación (SMV ANN y ANN) para determinar cuál es más preciso para identificar las cuatro variedades de heliconias.

Page 18: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 13

ESTADO DEL ARTE En la actualidad hay poca información sobre clasificación automática de heliconias, los estudios realizados son análisis objetivos realizados por expertos en el tema, aunque hay varias aplicaciones que permiten mediante el uso del celular identificar diferentes plantas, entre ellas Arbolapp y Flora Incognita, las cuales requieren información adicional por parte del usuario, a través de preguntas que realiza para que éste complete, para identificar la planta que se desea clasificar. Otra aplicación, Picture This identifica correctamente un alto número de plantas, aunque es una aplicación comercial y requiere un pago anual para ser usada. Por último, el programa PlantSnap es quizás uno de los más populares, pero no identifica correctamente las diferentes especies de heliconia como se muestra en la Figura 2 [14]. Sin embargo, estas técnicas no permiten distinguir entre especies de una misma variedad, lo cual resulta muy importante para la protección de la flora, tal como se mencionó antes. Así sucede con las heliconias, donde las especies encontradas en la Universidad no son reconocidas por estas aplicaciones como se muestra en la Figura 2, en el cual se ingresaron las especies Rostrata (pendula) y Wagneriana red y no se lograron identificar por el aplicativo. Por lo tanto, es necesario desarrollar técnicas que permitan la identificación automática de heliconias, para su uso en la protección y reconocimiento de las especies encontradas en el Tolima.

a)

b)

Page 19: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 14

c)

d)

e)

Figura 2 Clasificación de heliconias usando a), b) Arbolapp, c) Picture this y el PlanSnap, detectada heliconia d) chartacea y e) Blhai. (Autor)

Page 20: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 15

En México fue realizado un estudio para caracterizar morfológicamente las especies silvestres del género Heliconias, mediante algunos descriptores morfológicos cualitativos y cuantitativos. Se estudiaron 55 caracteres morfológicos cualitativos y cuantitativos en 25 muestras de 11 especies nativas. Usando 39 variantes de descriptores (16 cualitativos y 23 cuantitativos), fue posible diferenciar las especies de Heliconia analizadas. Catorce descriptores de inflorescencia (bráctea) fueron los más importantes, seguidos por descriptores de planta (11), hoja (8), semilla (3), fruto (2) y flor (1) [15]. En 2014, dentro de su participación en el desafío LifeCLEF, para la identificación de plantas, Issolah Mohamed, Lingrand Diane y Precioso Frédéric utilizaron la técnica conocida como Bag of Words (BoW) empleando el algoritmo k-means para el diccionario visual y extracción de los puntos de interés utilizaron el método SIFT [9]. Seeland Marco y Rzanny Michael, entrenaron un clasificador SVM redimensionando las imágenes y utilizando descriptores de forma y color [6].

Figura 3 Diagrama de flujo del procesamiento de la imagen y extracción de características

[6].

Page 21: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 16

Cultivar y proteger las plantas es esencial para cualquier nación, Danasingh Asir Antony y Epiphany Jebamalar Leavline realizaron un clasificador de enfermedades que afectan el crecimiento de la planta analizando las hojas. Para extraer las características, los puntos de interés se extraen de cada imagen utilizando el SURF, los vectores de características se construyen utilizando el Bag of Word con el método k-means [16]. En 2017, Jair Cervantes realizó un análisis comparativo de diferentes métodos de clasificación, bayesiano, redes neuronales y máquina de vector de soporte empleando como entradas características de textura, color y forma [17].

1. MARCO TEÓRICO

Page 22: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 17

1.1. Heliconiaceae Las Heliconias (Heliconiaceae) como se ilustra en la Figura 4 son plantas herbáceas perennes cuya altura varía desde 70 cm, como la heliconia Brachyantha, hasta 10 m, como la heliconia Rígida o la heliconia Mariae. Las brácteas son los órganos más vistosos de una heliconia, generalmente son de colores primarios o mezclados, éstas se conectan con el raquis que continúa del pedúnculo de la inflorescencia, el cual puede ser rígido, como en la Heliconia rígida, o flexible. Forman parte de la familia Zingiberales y son conocidas en el exterior como flores exóticas tropicales, por su variedad de colores, formas, tamaños y larga durabilidad. Se encuentran distribuidas entre los trópicos de Cáncer y Capricornio y son propias, en su mayoría, de regiones tropicales y subtropicales de Centro y Sudamérica [4]. Presentan raíces adventicias y fasciculadas. El pseudotallo está formado por la superposición de las vainas de las hojas y se origina desde el sitio de crecimiento del rizoma hasta donde brotan los peciolos de las hojas, dando sostén a las mismas; el cual asciende por su interior en épocas reproductivas. El peciolo puede tener colores diferentes al verde como en la heliconia Platystachis que tiene el peciolo blanco y en la heliconia Mutisiana, en la cual el peciolo tiene cobertura pubescente.

a) b) Figura 4 Heliconia Rostrata a) inflorescencia completa b) Cincino con las brácteas cincinal y

florales removidas para mostrar la flor en el momento de la antesis [18]. Teniendo en cuenta la distribución de las hojas en el pseudotallo y la longitud del peciolo se diferencian tres hábitos de crecimiento [19]:

Musoide, con peciolos largos y hojas en posición vertical u oblicuas similar a la Musaceae

Musaceae; Canoide, con peciolos cortos y hojas en posición oblicua similar a la Cannaceae

Cannaceae; y Zingiberoide, con hojas sin peciolos o con peciolos cortos en posición horizontal, similares a las Ginger.

Page 23: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 18

La inflorescencia puede ser erecta, con brácteas dispuestas hacia arriba o péndula, con brácteas dispuestas hacia abajo. La inflorescencia generalmente brota en forma terminal, al final del pseudotallo, como en la Heliconia reptans y en algunas especies ocasionalmente brota del rizoma en un tallo sin hojas, como en la heliconia metallica y la heliconia hirsuta. Algunas de las especies cultivadas en Colombia son: Alpinia Purpurata (Ginger rojo, rosado y blanco), Alpinia Zerumbe (flor de lima), Zingiber Spectabilis (maraca), Hedychium Coronarium, (flor de un día), Curcuma sp. (curcuma) [16, 17]. 1.2. Procesamiento de imágenes Toda manipulación posterior a la adquisición de una imagen, realizada con el fin de extraer o modificar algo de la misma constituye lo que se denomina como su procesamiento digital. Debido a las características no ideales del captor y la presencia de ruido [22], la imagen obtenida es diferente a la deseada, por ello, para lograr mejorar el resultado, y acercarse lo más posible a lo ideal se utiliza el procesamiento digital de imágenes, representado a través de técnicas o métodos consecutivos, que solventan las problemáticas encontradas. Este procesamiento suele dividirse en tres etapas principales: pre-procesamiento, procesamiento, y análisis. El pre-procesamiento se lleva a cabo con el objetivo de mejorar los detalles de la imagen que no se lograron adecuar durante la adquisición, y que generalmente comprende métodos de filtrado para reducción de ruido. Durante el procesamiento, se aplican los métodos sobre la imagen pre-procesada, obteniendo como resultado la información de interés. Finalmente, en la etapa de análisis se estudian los resultados obtenidos que permiten identificar los objetos de deseados y sus propiedades [23]. 1.3. GrabCut La técnica de segmentación conocida como GrabCut es un algoritmo iterativo, desarrollado originalmente por Microsoft Research Cambridge, Reino Unido [24], que combina estadísticas y corte de gráficos para lograr una segmentación bidimensional detallada. El GrabCut consta de dos fases. En la primera se realiza una segmentación semiautomática donde sólo se necesita que el usuario dibuje un cuadro delimitador alrededor del primer plano. La segunda requiere la interacción del usuario para proporcionar más entradas de puntos del primer plano y el fondo para mejorar la calidad de la segmentación. Para la utilización del método se necesita vincular las librerías de open CV como se muestra en el siguiente vínculo [25].

Page 24: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 19

Figura 5 Segmentación mediante el GrabCut (Autor).

1.4. Bag of Words (BoW) La representación de textos mediante la técnica conocida como Bow, fue extendida para su uso en la identificación de objetos en imágenes. Para ello se identifican lo que se denominan palabras visuales. Inicialmente se encuentran los puntos de interés mediante técnicas para la detección de puntos clave como SIFT y SURF [26], [27]. Estas técnicas, sin embargo, están diseñadas para detectar únicamente los puntos correspondientes a esquinas y bordes, y no permiten obtener información de la frecuencia de aparición de los colores en los objetos de interés. Para solucionar este problema puede emplearse una selección uniforme o aleatoria de puntos dentro del objeto de interés [16]. Para mejorar la eficiencia de los puntos clave, se cuantifica cada punto clave extraído, después se representa cada imagen mediante un histograma con la cantidad de palabras visuales que generalmente se conoce como representación de bolsa de palabras, y se convierte un problema de categorización de objetos en uno de categorización de textos [28].

Page 25: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 20

Figura 6 Bag of Words [29].

Generalmente se utiliza el k-Means para agrupar los puntos clave de todas las imágenes de entrenamiento teniendo en cuenta que el centro de cada conjunto de datos se le denomina palabra visual, este método se ha utiliza con frecuencia para la categorización de libros [30]–[32].

Page 26: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 21

1.5. K-Means El algoritmo K-Means basado en la división es una especie de algoritmo de cúmulo, y es propuesto por J. B. MacQueen [33]. Este algoritmo, que no está supervisado, suele utilizarse en la minería de datos y el reconocimiento de patrones. El objetivo de minimizar el índice de rendimiento del cúmulo, el error cuadrado y el criterio de error son los fundamentos de este algoritmo. Para buscar el resultado optimizador, este algoritmo trata de encontrar divisiones K para satisfacer un determinado criterio. a) En primer lugar, elige algunos puntos para representar los puntos focales iniciales de la agrupación (normalmente, elegimos los primeros puntos de ingreso de la muestra K para representar el punto focal inicial de la agrupación); b) en segundo lugar, reúne los puntos de muestra restantes a sus puntos focales de acuerdo con el criterio de distancia mínima, entonces obtendremos la clasificación inicial, y si la clasificación no es razonable, c) la modificaremos (calcula de nuevo los puntos focales de cada agrupación), iterando repetidamente hasta d) obtener una clasificación razonable como se muestra en Figura 7 [26–28].

a) b) c) d)

Figura 7 Método de agrupamiento y corrección K-Means [37]. El algoritmo K-Means basado en la división es una especie de algoritmo de cúmulos, y tiene ventajas de brevedad, eficiencia y celeridad.

∑ ∑ 𝑰(𝒙𝒊 ∈ 𝑪𝒌)‖𝒙𝒊 − 𝒎𝒌‖𝟐

𝑴

𝒌=𝟏

𝑵

𝒊=𝟏

( 1 )

𝒙𝒊: Es el conjunto de datos reales con d dimensiones. 𝒎𝒌: Es la cantidad de particiones que se le van hacer a los datos

𝑰(𝒙𝒊 ∈ 𝑪𝒌): {1 𝑠𝑖 ‖𝒙𝒊 − 𝒎𝒌‖𝟐 𝑜𝑏𝑡𝑖𝑒𝑛𝑒 𝑒𝑙 𝑣𝑎𝑙𝑜𝑟 𝑚í𝑛𝑖𝑚𝑜0 𝑠𝑖 𝑠𝑒 𝑜𝑏𝑡𝑖𝑒𝑛𝑒 𝑜𝑡𝑟𝑜 𝑣𝑎𝑙𝑜𝑟

1.6. K-Nearest Neighbor (KNN) En el campo del reconocimiento de patrones, KNN es un algoritmo no paramétrico y de aprendizaje supervisado. La clasificación es generada por las propias muestras de

Page 27: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 22

entrenamiento sin ningún dato adicional. El algoritmo de clasificación KNN predice la categoría de la muestra de prueba de acuerdo con las muestras de entrenamiento K que son las vecinas más cercanas a la muestra de prueba, y la juzga según la categoría que tiene la mayor probabilidad de categoría [38]. El proceso del algoritmo de KNN para clasificar la muestra 𝑥 es:

Figura 8 K-Nearest Neighbor (KNN) [39].

1. Hay j categorías de entrenamiento 𝐶1, 𝐶2, … , 𝐶𝑗 y la suma de las muestras de

entrenamiento es N después de la reducción de características, se obtiene un vector de características de m-dimensiones.

2. La muestra 𝑥 de entrada que tenga la misma forma del vector de características (𝑥1, 𝑥2, … , 𝑥𝑚), como todas las muestras de entrenamiento.

3. Calcular las similitudes entre las muestras de entrenamiento y 𝑥. Tomando 𝑑𝑖 muestras (𝑑𝑖1, 𝑑𝑖2, … , 𝑑𝑖𝑚) como ejemplo, la similitud 𝑆𝐼𝑀(𝑥, 𝑑𝑖)

𝑆𝐼𝑀(𝑥, 𝑑𝑖) =∑ 𝑥𝑗 ∙ 𝑑𝑖𝑗

𝑚𝑗=1

√(∑ 𝑥𝑗𝑚𝑗=1 )

2∙ √(∑ 𝑑𝑖𝑗

𝑚𝑗=1 )

2

( 2 )

4. Se escogen k muestras que sean mayores a N semejanzas obtenidas de 𝑆𝐼𝑀(𝑥, 𝑑𝑖),

(𝑖 = 1,2, … , 𝑁), estos son los datos de entrada del KNN. Luego, calcule la probabilidad de que 𝑥 pertenezcan a cada categoría respectivamente.

1.6.1. Distancia de intersección La distancia de intersección es una métrica robusta empleada para medir el grado de superposición de dos conjunto de puntos en el espacio. Tal como se muestra en la Figura 9, donde se observan dos grupos de puntos distribuidos en el espacio. Un grupo está representado por puntos azules y el otro por blancos. El número de puntos azules es 𝑛1 y el de puntos azules que caen en la región donde ambos conjuntos se superponen es 𝑐1. El grupo de puntos blancos es 𝑛2 y 𝑐2 puntos blancos están en la región superpuesta.

Page 28: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 23

Entonces, la distancia de intersección, índice para medir el grado de superposición de los dos conjuntos de puntos está dado por:

𝑐1 + 𝑐2

𝑛1 + 𝑛2 ( 3 )

Figura 9 Solapamiento entre dos grupos azul y blanco. [40]

Esta distancia también ha sido recientemente utilizada para medir la distancia entre histogramas categóricos, en particular para medir la distancia entre histogramas generados por la técnica de BoW [34–35]. 1.7. Support Vector Machine (SVM) Las Máquinas Vectoriales de Apoyo son una técnica de ML bien conocida para la clasificación y otras actividades de aprendizaje. La SVM es un clasificador discriminatorio y se caracteriza formalmente por un hiperplano óptimo. Produce un resultado del hiperplano óptimo, que clasifica nuevos ejemplos y los conjuntos de datos que apoyan el hiperplano se denominan vectores de apoyo. En una región bidimensional (2D), este hiperplano es una línea que se aísla en dos segmentos en los que cada segmento se encuentra a cada lado. Por ejemplo, la clasificación de datos de líneas múltiples se había hecho con dos conjuntos de datos distintos (es decir, cuadrados y puntos) y listo para proponer una interpretación afirmativa. Sin embargo, la selección del hiperplano óptimo no es una tarea fácil, ya que no debe ser sensible al ruido, y la generalización de los conjuntos de datos debe ser precisa. Pertinentemente, el SVM está tratando de encontrar un hiperplano optimizado que proporcione una distancia mínima considerable al conjunto de datos entrenados [42].

Page 29: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 24

a)

b)

Figura 10 SVM a) identificación del hiperplano correcto, b) maximizar las distancias entre el punto de datos más cercano (cualquiera de las clases) y el hiperplano [43].

1.8. Red Neuronal Artificial (ANN) Una red neuronal artificial, conocida en inglés como Artificial Neural Network, ANN es un aspecto del aprendizaje de máquinas que se centra en emular el enfoque de aprendizaje que los humanos usan para obtener ciertos tipos de conocimiento. Al igual que las neuronas biológicas, presentes en el cerebro, una ANN también contiene neuronas artificiales, las cuales se emplean para identificar y almacenar información. Una ANN está compuesta de una capa de entrada y otra de salida, así como de una o más capas ocultas [44].

Figura 11 ANN típico y una neurona artificial típica [44].

El cerebro humano contiene aproximadamente 86 mil millones de neuronas. Éstas están conectadas entre sí como una malla. Los estímulos del entorno externo o los aportes de los órganos sensoriales son recibidos por dendritas, produciendo impulsos eléctricos, que viajan rápidamente a través de la red neuronal. Una neurona puede enviar mensajes a otras neuronas para realizar una respuesta. Esto se conoce como activación de la neurona. Una neurona está conectada a miles de otras neuronas por axones. Los ANN están compuestos por múltiples nodos de neuronas artificiales, que imitan las neuronas biológicas del cerebro humano. A diferencia de las neuronas biológicas, solo hay

Page 30: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 25

un tipo de enlace que conecta una neurona con otras. Las neuronas toman datos de entrada y se realizan operaciones simples en esos datos. El resultado de estas operaciones se pasa a otras neuronas. La función de activación determina si se pasa el resultado. La función de activación juega un papel importante tanto para la extracción de características como para la clasificación [44].

Page 31: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 26

2. MÉTODO PARA LA CLASIFICACIÓN DE HELICONIACEAE 2.1. Protocolo de adquisición de imágenes Las fotografías se obtuvieron en formato crudo o RAW, el cual conserva toda la información original sin ningún tipo de pérdida. Al no estar tratada, la imagen RAW no cuenta con un ajuste de balance de blancos, contraste y temperatura del color, también es afectado por la sombra producida por otros objetos o por sí mismo. Por lo tanto es necesario ajustar el color de la imagen para hacerlo lo más cercano posible al color real de la flor. Para realizar un ajuste adecuado de estos valores fue utilizada una herramienta llamada carta de colorimetría o de colores (conocida como “ColorChecker” ver Figura 12 a)), la cual permite el control preciso sobre un proceso fotográfico generando como resultado una mayor fidelidad en el color con respecto a la escena original. La carta de colorimetría empleada es una tarjeta de unos 150mm x 105mm con 24 cuadros de colores cuidadosamente escogidos, impresos sobre un soporte en plástico organizados en 4 filas de 6 columnas donde la primera fila representa los colores naturales, tales como los correspondientes a la piel, el cielo azul, las hojas, etc. La segunda fila representa colores variados, tales como el naranja, el amarillo verdoso, etc. La tercera fila correspondiente a los colores primarios tales como el azul, rojo, verde, magenta, etc. La cuarta fila corresponde a una escala de grises. La carta de colorimetría sirve como una referencia neutra para la exposición y equilibrio de color en la calibración, posee unos valores RGB definidos que son utilizados para su creación como muestra en la Figura 12 b). Así la calibración de las imágenes consiste en ajustar los valores RGB de la imagen y hacer que estos tengan valores cercanos a los de referencia para asegurar una debida calibración ver Figura 12 b).

a)

b)

Figura 12 a) Carta de colorimetría y sus b) valores RGB [45].

Page 32: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 27

Para utilizar la carta de colorimetría primero se toma una fotografía de ella en el mismo lugar y bajo las mismas condiciones de iluminación donde se tomaran las fotografías o se agrega como parte de la escena con el objetivo de interés, como se muestra Figura 13.

Figura 13 Carta colorimétrica con la Heliconia (Autor).

En el Anexo 1 se muestra el paso a paso sobre la corrección de color utilizada. 2.2. Segmentación Antes de realizar la clasificación de las heliconias es necesario separar las flores del fondo mediante un proceso de segmentación. Puesto que los resultados obtenidos con el proceso de segmentación automática no siempre son ideales, entonces se utilizó una técnica semiautomática que permite hacer correcciones en tiempo real llamada GrabCut, la cual ha sido previamente empleada para segmentar flores [7]. En este método se dibuja Inicialmente un rectángulo alrededor de la región de interés. Luego, el algoritmo segmenta la imagen iterativamente basado en cálculo de las probabilidades del objeto y del fondo empleando modelos gaussianos mixtos, conocidos en inglés como MGM. Dado que la segmentación no siempre es correcta el método permite agregar puntos de referencia del fondo o del objeto de manera iterativa con el fin de ajustar el modelo MGM. Las fotografías de cada espata floral fueron tomadas desde el inicio de su germinación hasta su estado óptimo de corte. Se hizo de esta manera para reconocer cada variedad independiente de su estado de crecimiento, permitiendo tener una base de datos más completa. De esta forma, se obtuvieron 40 imágenes por cada variedad para un total de 160 fotografías, tomadas en el transcurso de 2 meses. Por las condiciones de radiación solar en el campus de la Universidad de Ibagué se observó que se producían fuertes variaciones del color en las espatas florales en horas de la tarde, por lo que las imágenes fueron adquiridas en las mañanas.

Page 33: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 28

a)

e)

b)

f)

Page 34: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 29

c)

g)

d)

h)

Figura 14 Heliconia a) Rostrata (péndula), b) Wagneriana red, c) Calathea Lutea y d) Ginger shampoo (maracas), con su debida segmentación e) f) g) y h) (Autor).

2.3. Ajuste de los datos Las imágenes tiene una resolución de 3648x5472 y procesar esta información computacionalmente es demorado alrededor de días y los pixeles son altamente correlacionados, por lo tanto se obtendrán valores redundantes, entonces se decide re muestrear las imágenes a una resolución de 320x120 Figura 14.

Page 35: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 30

a) b) c) d)

e) f) g) h)

Figura 15 a), c), e) y g) imágenes segmentadas, b), d), f) y h) imágenes re muestreadas (320x120) (Autor).

El formato de datos de las imágenes muestreadas es NxMx3, donde el 3 indica la cantidad de canales de color que tiene la imagen, en este caso son imágenes RGB. Para agilizar más el procesamiento de los datos, se retiraron los espacios en negros de cada uno de los canales y para garantizar que se estuviera eliminando información no deseada, se aplicó la siguiente condición: si en cada canal el valor de color es igual a cero (R=0, G=0 y B=0) retire ese dato de la matriz resultante. Después de retirar el ruido de las imágenes se reorganizo la matriz de la siguiente forma: Px3 donde P es son todos los datos que hay en cada canal de color NxM y 3 indica cada canal color rojo verde y azul (RGB).

Page 36: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 31

Figura 16 Diagrama de flujo de la adquisición y procesamiento de la imagen (Autor).

2.4. Histograma de palabras claves Antes de hacer la clasificación de los datos se necesitan tener las etiquetas o puntos característicos de los datos obtenidos, según lo consultado en el estado del arte el BoW es una buena herramienta para etiquetas los datos y ayuda a optimizar el procesamiento, ya que X cantidad de datos se convierte en un histograma el cual muestra la cantidad de datos que hay en cierta región del espacio, también conocido como histograma de palabras [9]. Dado que se desconoce el número adecuado de palabras visuales para representar la espata floral, se realizó un estudio para determinarlo. Para ello, se hizo un barrido seleccionando desde 10 hasta 100 palabras en incrementos de diez para determinar la mejor representación de la espata, utilizando descriptores de color. El método más usado para esta agrupación es el K-Means y se utilizó solo para los datos de entrenamiento.

a)

b)

Adquisición

Corrección de Color

Reducción de tamaño

Segmentación

Page 37: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 32

c)

d)

e)

f)

g)

h)

i)

j)

Figura 17 a) histograma con 10 clusters hasta b) histograma con 100 clusters (Autor).

Page 38: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 33

Para construir el histograma que permitiera identificar cada especie de heliconia, se tomaron las palabras clave encontradas (Figura 17) como categoría de cada casilla del histograma. Luego, se utilizaron las muestras de validación, correspondiente al 20% del total de muestras por especie, para construir un histograma por imagen asignando cada pixel a la categoría más cercana como se muestran en la Figura 18. Para ello se utilizó el clasificador 1NN [34–35], el tiempo empleado en el procesamiento de los datos, fue de 4 horas tomando aproximadamente el 9% del ancho y el 2% de alto del valor original en pixeles obteniendo una imagen de 320x120 pixeles.

Figura 18 Clasificador 1NN, donde una espata floral se asigna al vecino más próximo [46].

2.5. Clasificadores Con el fin de clasificar y comparar los resultados, se utilizaron tres técnicas KNN, ANN y SVM, variando los parámetros de cada uno de ellos buscando encontrar el que entregará mayor precisión. Después de obtener los parámetros con mayor precisión, se tomaron para

Page 39: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 34

utilizarlos como parámetros fijos para los datos de validación. Los parámetros utilizados se presentan en la Tabla 1. Tabla 1 Parámetros estudiados de los clasificadores KNN, ANN y SVM con sus variantes.

Clasificador Parámetros Rango

KNN

● Número de vecinos ⮚ De 1 a 29 con incrementos de 1.

● Tipo de distancia ⮚ Euclidiana. ⮚ Intersección.

ANN ● Número de capas. ● Número de neuronas ● Alfa

⮚ De 1 a 5 con incrementos de 1. ⮚ De 10 a 200 con incrementos de

10. ⮚ de 1𝑥10−5 a 1𝑥103 con

incrementos de 100.

SVM ● Kernel ● LIBLINEAR

⮚ Kernel lineal. ⮚ Kernel rbf: Gamma en 0,7. ⮚ Kernel poly: De grado 0 a 9 con

incrementos de 1.

Las entradas de los clasificadores son los histogramas formados por las palabras clave obtenidas de las imágenes de prueba, tal como se explicó en la sección 2.4, y las salidas corresponden a las 4 especies de heliconias que desean identificarse. Para definir el número de neuronas y capas ocultas de la red neuronal se hizo un barrido aumentando su número, tal como se explica en la Tabla 1. Cabe aclarar que el clasificador 1NN fue diseñado especialmente para este tipo de datos ya que la librería empleada no permite modificar el tipo de distancia utilizando siempre la distancia euclidiana para la clasificación.

Page 40: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 35

3. ANÁLISIS DE RESULTADOS A continuación se presentan los resultados obtenidos, con las técnicas explicadas en el Capítulo 2. Las técnicas desarrolladas fueron implementadas en lenguaje python 3.7 utilizando las librerías Sklearn y OpenCV, bajo un computador de procesador Intel® Xeon (R) CPU E5-2650 v4 @ 2.20GHz x 24 de 64-bit y memoria RAM de 16 GB en ambiente Ubuntu Linux 16.04 LTS.

Figura 19 Equipo utilizado para el desarrollo del trabajo.

Los resultados, mostrados en las Figura 25 a Figura 29, fueron obtenidos utilizando el 60% de las muestras de cada especie de heliconia para el entrenamiento, 20% para el ajuste, el cual se hizo variando los parámetros mostrados en la Tabla 1 y 20% para validación. Esta proporción en la distribución de los datos se acostumbra para entrenamiento, ajuste y evaluación de técnicas de aprendizaje, aunque otras proporciones también son utilizadas. El valor máximo de precisión alcanzado con los clasificadores KNN igual a 1 con cluster de 30 y 1NN con cluster de 40 fue de 93,75% Como se observa en las Figura 21 a Figura 24. Con

Page 41: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 36

el fin de intentar mejorar los resultados, se observaron las imágenes que estaban mal clasificadas tratando de establecer la causa del error. Tal como se observa en la Tabla 2 y Tabla 3, la clase 3 presenta problemas de clasificación, mientras que las clases 1, 2 y 4 no tienen problema si el número de palabras clave es 40. Por esta razón, se estudiaron todas las muestras de la clase 3, Calathea Lutea, para encontrar las posibles causas del error, encontrando que las variedades de esta especie presentan dos tonos de color diferente, amarillo y verdoso, lo cual se debe a que la flor cambia su tonalidad de acuerdo a su exposición al sol, siendo más amarillas las flores que están más expuestas a la radiación solar, tal como se ilustra en los ejemplos de la Figura 20. Esto se debe a los efectos de coloración producidos por la presencia de una sustancia llamada antocianina, que se activa por incidencia del sol sobre la planta haciendo que está presente cambios en la tonalidad del color. Esta variación se apreció únicamente en esta flor y por ello debió dividirse en dos subclases para su correcta identificación.

a)

b)

Figura 20 Heliconia Calathea Lutea a) bajos sombra y b) bajo el sol Tabla 2 Precision con el clasificador 1NN para cada especie cion datos de prueba. # de Cluster # Especies

10 20 30 40 50 60 70 80 90 100

1 100% 100% 100% 100% 100% 100% 100% 100% 100% 100%

2 75% 75% 88% 100% 88% 88% 88% 88% 88% 88%

3 63% 75% 75% 75% 75% 75% 75% 75% 75% 75%

4 75% 100% 100% 100% 100% 100% 100% 100% 100% 100%

Page 42: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 37

Tabla 3 Matriz de confusión del clasificador 1NN con datos de prueba, donde la especie 1 es Rostrata, especie 2 es Wagneriana red, especie 3 es Calathea Lutea y especie 4 es Ginger shampoo.

Rostrata Wagneriana

Red Calathea

Lutea Ginger

Shampoo

Rostrata 8 0 0 0

Wagneriana Red 0 8 0 0

Calathea Lutea 2 0 6 0

Ginger Shampoo 0 0 0 8

Figura 21 Precisión del clasificador KNN con datos de prueba.

Figura 22 Precisión del clasificador 1NN con datos de prueba.

87,5

90,625

93,75

90,625 90,625 90,625 90,625 90,625 90,625 90,625

84

85

86

87

88

89

90

91

92

93

94

95

10 20 30 40 50 60 70 80 90 100

PR

ECIS

IÓN

(%

)

# DE CLUSTERS

KNN: K=1

78,125

87,5

90,625

93,75

90,625 90,625 90,625 90,625 90,625 90,625

70

75

80

85

90

95

10 20 30 40 50 60 70 80 90 100

PR

ECIS

I+O

N (

%)

# DE CLUSTERS

INTERSECCIÓN

Page 43: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 38

Figura 23 Precisión del clasificador SVM con Kernel Lineal con datos de prueba.

Figura 24 Precisión del clasificador SVM con Kernel poly con datos de prueba.

Como puede observarse en la Tabla 4, la más alta precisión (100%) se obtiene tomando entre 1 y 8 vecinos y número de agrupamientos entre 20 a 40. Una figura más detallada de este resultado se muestra en la Figura 25.

84,37

90,62 90,62 90,62 90,62 90,62 90,62 90,62 90,62 90,62

81

82

83

84

85

86

87

88

89

90

91

92

10 20 30 40 50 60 70 80 90 100

PR

ECIS

IÓN

(%

)

# DE CLUSTERS

KERNEL LINEAL

84,37

90,62 90,62 90,62 90,62 90,62 90,62 90,62 90,62 90,62

81

82

83

84

85

86

87

88

89

90

91

92

10 20 30 40 50 60 70 80 90 100

PR

ECIS

IÓN

(%

)

# DE CLUSTERS

KERNEL POLY

Page 44: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 39

Tabla 4 Precisión del clasificador KNN. # de cluster # de vecinos

10 20 30 40 50 60 70 80 90 100

1 88% 97% 100% 97% 97% 97% 97% 97% 97% 97%

2 88% 100% 100% 97% 97% 97% 97% 97% 97% 97%

3 91% 100% 100% 97% 97% 97% 97% 97% 97% 97%

4 88% 100% 100% 97% 94% 94% 91% 94% 94% 91%

5 94% 100% 100% 100% 97% 97% 97% 94% 97% 97%

6 94% 100% 97% 97% 94% 97% 94% 94% 94% 94%

7 94% 94% 97% 97% 94% 100% 97% 94% 94% 94%

8 84% 100% 100% 97% 94% 100% 94% 94% 94% 94%

9 84% 94% 97% 97% 94% 97% 94% 94% 94% 94%

10 81% 91% 97% 97% 94% 94% 94% 91% 91% 94%

11 88% 84% 94% 97% 94% 94% 94% 91% 94% 94%

12 84% 84% 91% 94% 94% 94% 94% 91% 91% 91%

13 84% 84% 88% 94% 91% 91% 91% 94% 91% 91%

14 78% 78% 88% 91% 88% 91% 91% 88% 88% 88%

15 81% 78% 84% 94% 88% 91% 91% 88% 88% 88%

16 75% 75% 84% 88% 88% 88% 88% 88% 88% 88%

17 75% 72% 84% 88% 88% 84% 84% 81% 81% 81%

18 72% 75% 81% 78% 78% 84% 84% 84% 81% 84%

19 69% 75% 78% 75% 78% 81% 81% 81% 81% 81%

20 66% 75% 78% 75% 72% 81% 81% 81% 81% 81%

21 69% 75% 78% 72% 72% 81% 81% 81% 81% 81%

22 69% 72% 78% 75% 72% 78% 81% 81% 81% 81%

23 69% 72% 78% 72% 72% 78% 81% 81% 81% 81%

24 69% 72% 75% 72% 72% 78% 72% 78% 78% 78%

25 69% 72% 75% 72% 72% 78% 78% 78% 78% 78%

26 69% 72% 75% 72% 72% 75% 78% 75% 75% 78%

27 69% 72% 75% 72% 72% 75% 75% 78% 75% 78%

28 69% 72% 75% 72% 72% 75% 72% 72% 72% 75%

29 69% 72% 75% 72% 72% 75% 72% 72% 75% 78%

Page 45: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 40

Figura 25 Precisión del clasificador KNN distancia euclidiana.

La Figura 26 y Figura 27 muestran los resultados obtenidos con el clasificador 1NN, empleando la distancia de intersección. Como puede observarse, la más alta precisión (100%) se obtiene con cluster de 30 y 70.

Figura 26 Precisión del clasificador 1NN con distancia de intersección máxima.

93,75

100 100 100

96,875 96,875 96,875

93,75

96,875 96,875

90

91

92

93

94

95

96

97

98

99

100

101

10 20 30 40 50 60 70 80 90 100

PR

ECIS

IÓN

(%

)

# DE CLUSTERS

KNN: K=5

87,5

93,75

100

96,875 96,875 96,875

100

96,875 96,875 96,875

80

82

84

86

88

90

92

94

96

98

100

102

10 20 30 40 50 60 70 80 90 100

PR

ECIS

IÓN

(%

)

# DE CLUSTERS

INTERSECCIÓN

Page 46: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 41

Figura 27 Precisión del clasificador 1NN con distancia de intersección promedio.

La Tabla 5 muestra los resultados obtenidos con el clasificador ANN al variar el número de neuronas y Alpha, empleando 30 palabras clave y una capa. Como puede observarse, la más alta precisión (97%) se obtiene cuando el número de neuronas es igual a 90 y 150 y un Alpha de 1𝑥103. Debe observarse que, en general, una red neuronal mejora su resultado a medida que el número de muestras se incrementa. Dado el bajo número de muestras de entrenamiento es normal obtener resultados que no presentan un patrón de aprendizaje, tal como se muestra en la Figura 28, indicando que debe hacerse para mejorar la clasificación. Es posible incrementar el número de épocas y utilizar diferentes valores iniciales, pero es una tarea costosa en tiempo que, dado el bajo número de muestras, no es pertinente realizar. Tabla 5 Precisión del clasificador ANN con cluster de 30 y una capa.

Alpha # de neuronas

1𝑥10−5 1𝑥10−3 1𝑥10−1 1𝑥101 1𝑥103

10 59% 16% 69% 44% 31%

20 47% 69% 38% 50% 41%

30 41% 38% 53% 63% 75%

40 81% 78% 50% 72% 69%

50 72% 47% 91% 47% 38%

60 56% 97% 56% 81% 34%

70 63% 63% 47% 25% 63%

80 81% 84% 97% 75% 94%

90 91% 88% 81% 63% 97%

100 75% 16% 81% 88% 75%

110 56% 59% 78% 84% 72%

120 31% 50% 75% 47% 75%

90,625

93,75 93,75 93,75 93,75 93,75 93,75 93,75 93,75 93,75

89

89,5

90

90,5

91

91,5

92

92,5

93

93,5

94

10 20 30 40 50 60 70 80 90 100

PR

ECIS

IÓN

(%

)

# DE CLUSTERS

INTERSECCIÓN CON PROMEDIO

Page 47: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 42

130 84% 72% 69% 16% 50%

140 13% 41% 91% 63% 72%

150 31% 25% 25% 9% 97%

160 88% 47% 25% 88% 56%

170 91% 84% 94% 66% 91%

180 78% 16% 19% 88% 75%

190 75% 94% 69% 16% 94%

200 88% 47% 84% 81% 84%

Figura 28 Precisión del clasificador ANN con cluster de 30, alpha de 1𝑥103.

La Tabla 6 y Tabla 7 muestran los resultados obtenidos con el clasificador SVM al variar el Kernel, empleando el lineal, LIBLINEAR, rbf y poly de grado 2. Como puede observarse, la más alta precisión (100%) se obtiene con el lineal y poly con cluster de 30 y 40. Una figura más detallada de este resultado se muestra en la Figura 29 a Figura 32.

Tabla 6 Precisión del clasificador SVM con Kernel lineal, LIBLINEAR y rbf.

Cluster Lineal LIBLINEAR rbf, 𝛾=0,7

10 88% 69% 25%

20 97% 97% 25%

30 100% 94% 25%

40 100% 94% 25%

50 97% 94% 25%

60 97% 94% 25%

70 97% 94% 25%

80 97% 94% 25%

90 97% 94% 25%

100 97% 94% 25%

31

,25

40

,63

75

68

,75

37

,5

34

,38

62

,5

93

,75

96

,88

75

71

,88

75

50

71

,88 9

6,8

8

56

,25

90

,63

75

93

,75

84

,38

0

20

40

60

80

100

120

10

x1

20

x1

30

x1

40

x1

50

x1

60

x1

70

x1

80

x1

90

x1

10

0x1

11

0x1

12

0x1

13

0x1

14

0x1

15

0x1

16

0x1

17

0x1

18

0x1

19

0x1

20

0x1

PR

ECIS

IÓN

(%

)

# DE NEURONAS X # DE CAPAS

ANN: CLUSTER=30, ALPHA=1E5

Page 48: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 43

Tabla 7 precision del clasificador SVM con kernel poly.

Grado # de clusters

0 1 2 3 4 5 6 7 8 9

10 25% 88% 88% 91% 91% 91% 72% 25% 25% 25%

20 25% 97% 97% 94% 91% 91% 91% 50% 25% 25%

30 25% 100% 97% 94% 97% 97% 97% 94% 25% 25%

40 25% 100% 97% 97% 97% 97% 97% 97% 81% 25%

50 25% 97% 94% 94% 94% 94% 94% 94% 72% 25%

60 25% 97% 94% 97% 97% 97% 97% 94% 94% 25%

70 25% 97% 94% 94% 94% 94% 94% 94% 94% 25%

80 25% 97% 94% 94% 94% 94% 94% 94% 94% 47%

90 25% 97% 94% 94% 94% 94% 94% 94% 94% 72%

100 25% 97% 94% 94% 94% 94% 94% 94% 94% 47%

Figura 29 Precisión del clasificador SVM con Kernel Lineal.

87,5

96,875

100 100

96,875 96,875 96,875 96,875 96,875 96,875

80

82

84

86

88

90

92

94

96

98

100

102

10 20 30 40 50 60 70 80 90 100

PR

ECIS

IÓN

(%

)

# DE CLUSTERS

KERNEL LINEAL

Page 49: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 44

Figura 30 Precisión del clasificador SVM con LIBLINEAR.

Figura 31 Precisión del clasificador SVM con Kernel rbf y Gamma de 0,7.

68,75

96,88 93,75 93,75 93,75 93,75 93,75 93,75 93,75 93,75

0

20

40

60

80

100

120

10 20 30 40 50 60 70 80 90 100

PR

ECIS

IÓN

(%

)

# DE CLUSTERS

LIBLINEAR

25 25 25 25 25 25 25 25 25 25

0

5

10

15

20

25

30

10 20 30 40 50 60 70 80 90 100

PR

ECIS

IÓN

(%

)

# DE CLUSTERS

KERNEL RBF, GAMMA=0,7

Page 50: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 45

Figura 32 Precisión del clasificador SVM con Kernel poly con grado 2.

3.1. Validación del método Para la validación se utilizaron los clasificadores con los parámetros que mejor precisión entregaron, sintetizados en la Tabla 8. En las gráficas de las Figura 33 a Figura 36 se pueden observar con más detalle los resultados obtenidos. Tal como puede observarse, la mayor precisión, 97%, se obtuvo con el clasificador KNN, utilizando 3 vecinos y 20 a 40 clusters. A pesar de que el método BoW normalmente se utiliza con histogramas de categorías, en este caso, como puede observarse, el mejor resultado se obtuvo con distancia euclidiana. Tabla 8 Parametros obtenidos para los clasificadores con los datos de testeo.

Clasificador Parámetros

KNN ⮚ Número de Cluster: 20 a 40. ⮚ Número de Vecinos: 3. ⮚ Distancia: Euclidiana

1NN ⮚ Número de Cluster: 30 y 70. ⮚ Distancia: Intersección.

SVM ⮚ Número de Cluster: 30 y 40. ⮚ Kernel lineal. ⮚ Kernel poly: Grado 2.

87,5

96,875

100 100

96,875 96,875 96,875 96,875 96,875 96,875

80

82

84

86

88

90

92

94

96

98

100

102

10 20 30 40 50 60 70 80 90 100

PR

ECIS

IÓN

(%

)

# DE CLUSTERS

KERNEL POLY

Page 51: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 46

Figura 33 Precisión del clasificador KNN con número de vecinos igual a 7 con 20 a 40

cluster.

Tabla 9 Matriz de confusión del clasificador KNN con datos de validación, donde la especie 1 es Rostrata, especie 2 es Wagneriana red, especie 3 es Calathea Lutea y especie 4 es Ginger shampoo.

Rostrata Wagneriana

Red Calathea

Lutea Ginger

Shampoo

Rostrata 7 1 0 0

Wagneriana Red 0 8 0 0

Calathea Lutea 0 0 8 0

Ginger Shampoo 0 0 0 8

Figura 34 Precisión del clasificador 1NN con 30 y 70 cluster.

97 97 97

0

10

20

30

40

50

60

70

80

90

100

20 30 40

PR

ECIS

IÓN

(%

)

# DE CLUSTERS

KNN: K=7

8491

0

10

20

30

40

50

60

70

80

90

100

30 70

PR

ECIS

I+O

N (

%)

# DE CLUSTERS

INTERSECCIÓN

Page 52: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 47

Figura 35 Precisión del clasificador SVM con Kernel lineal con 30 y 40 cluster.

Figura 36 Precisión del clasificador SVM con Kernel poly con 30 y 40 cluster.

Para la verificación del método y del software desarrollado en Python 3.7 se escogieron 3 imágenes representativas de cada una de las especies con distintas características físicas, pertenecientes al grupo de muestras adquiridas. El manual de usuario de la aplicación desarrollada se encuentra en el Anexo 2.

94 94

0

10

20

30

40

50

60

70

80

90

100

30 40

PR

ECIS

IÓN

(%

)

# DE CLUSTERS

KERNEL LINEAL

94 94

0

10

20

30

40

50

60

70

80

90

100

30 40

PR

ECIS

IÓN

(%

)

# DE CLUSTERS

KERNEL POLY

Page 53: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 48

Figura 37 Muestra 1.

Figura 38 Muestra 2.

Page 54: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 49

Figura 39 Muestra 3.

Figura 40 Muestra 4.

Page 55: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 50

Figura 41 Muestra 5.

Figura 42 Muestra 6.

Page 56: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 51

Figura 43 Muestra 7.

Figura 44 Muestra 8.

Page 57: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 52

Figura 45 Muestra 9.

Figura 46 Muestra 10.

Page 58: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 53

Figura 47 Muestra 11.

Figura 48 Muestra 12.

Fuente (Autor).

Page 59: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 54

Como se observa en las Figura 37 a Figura 48, el método desarrollado permitió identificar correctamente el 97% de los datos de validación exceptuando la Rostrata como se muestran en la Figura 49, un aporte significativo es que independientemente de su etapa de crecimiento se logró clasifica, donde el color y la forma de la espata floral varían notoriamente. Como estos dos tipos de especia, Rostrata y Wagneriana Red tiene colores similares, ampliando la base de datos estos resultados se podrían mejorar.

Figura 49 Muestra mal clasificada.

Fuente (Autor).

Page 60: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 55

CONCLUSIONES La clasificación automática de heliconias permite dar pautas y puede servir para su diferenciación y propagación. Así mismo, para diseñar nuevas atenciones culturales para su cosecha, conservación, almacenamiento y comercialización, ya que brinda conocimientos que pueden ser utilizados para potenciar el estudio del género, explotarlo de forma sostenida, conservando este recurso filogenético en el país. Así mismo, garantiza al cultivador la homogeneidad de las varas florales en el momento óptimo de corte, ya que la clasificación automática permite vigilar el crecimiento, floración y calidad uniforme de cada una de estas variedades. En este trabajo se presentó un nuevo método semi-automático para la clasificación de heliconias. El cual requiere una intervención rápida del usuario para segmentar la espata floral del fondo. Para la clasificación se tomaron muestras de las espatas florales, desde su germinación hasta el estado óptimo de corte, lo cual permitió la correcta identificación de todas las variedades de heliconias, independiente de su estado de crecimiento, haciéndola robusta a los cambios de coloración y forma a lo largo del crecimiento de cada espata floral para cada variedad. La base de datos, así construida, permite desarrollar técnicas de clasificación para reconocer la especie de heliconia en cualquier punto de su floración. Las imágenes de las flores se ven afectadas por la iluminación ambiental presente durante la adquisición. Por esta razón es necesario usar tablas de calibración que permitan uniformizarlas de manera que el color de la flor sea el mismo bajo condiciones diferentes de iluminación. El análisis del color de la espata floral permitió determinar que las diferentes variedades de heliconias pueden presentar distintas tonalidades, dependiendo de su exposición al sol, y, por lo tanto, subdividirse en varias subclases, permitiendo una mejora significativa en la identificación de las variedades. El BoW es un método efectivo para la clasificación de texto y muy poco utilizado para la obtención de descriptores en imágenes de flores. En este trabajo, se presentó un nuevo método que hace uso de esta técnica para obtener las características de color más discriminantes de cada variedad. Se encontró que entre 20 a 40 descriptores son suficientes para la correcta clasificación de las cuatro especies de heliconias, obteniendo los mejores resultados con el clasificador KNN, encontrando los siete vecinos más cercanos, con una precisión del 97%. Aunque la técnica BoW usualmente se utiliza con distancia de intersección, los mejores resultados se obtuvieron utilizando la distancia euclidiana. Estos resultados facilitarán la identificación de las variedades de heliconias existentes en el territorio nacional y extenderse a la clasificación de otro tipo de flores, en especial la familia de plantas del orden Zingiberales y de variedades que se distinguen principalmente por su color. Así mismo se constituye en un valioso aporte a los cultivadores que podrán reconocer la variedad independiente de su estado de crecimiento.

Page 61: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 56

PERSPECTIVA

Además de las técnicas de clasificación empleadas existen otras que podrían ser evaluadas, en particular, las técnicas de aprendizaje profundo, muy utilizadas hoy en día. Sin embargo, éstas requieren un muy alto número de muestras, por lo que se requeriría aumentar notablemente el tamaño de la base de datos.

Aumentando el tamaño de la base de datos permitiría también mejorar los resultados obtenidos, haciendo los métodos más inmunes al sobreajuste de los clasificadores.

La construcción de una base de datos con un mayor número de flores permitiría ajustar aún más el modelo de clasificación agregado más muestras y especies

Page 62: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 57

BIBLIOGRAFÍA [1] G. C. Socha, “Plan de negocios para la producción y comercialización de heliconias en

el departamento de Casanare,” Universidad Militar nueva granada, 2016. [2] E. Jerez Mompié, “El cultivo de las Heliconias. Revisión bibliográfica,” in Cultivos

Tropicales, 2007, p. vol. 28, no.1, pp. 29–35. [3] L. A. Barrientos, Claudia Patricia; Gallo, Yerli Catherine;Flórez, “El cultivo de las flores

exóticas como una propuesta para el fortalecimiento de las exportaciones nacionales; iniciativa desarrollada con floricultores de la región del Departamento del Guaviare,” Universidad de los Llanos en convenio con la Unitolima, 2015.

[4] K. Turriago, “Heliconias,” 2014. https://encolombia.com/economia/agroindustria/floricultura/floriculturandina_heliconias/.

[5] R. Fisher, “The use of multiple measurements in taxonomic problems,” Annu. Eugen., vol. 7, no. Part II, pp. 179–188, 1936, [Online]. Available: https://onlinelibrary.wiley.com/doi/epdf/10.1111/j.1469-1809.1936.tb02137.x.

[6] M. Seeland, M. Rzanny, N. Alaqraa, J. Wäldchen, and P. Mäder, “Plant species classification using flower images—A comparative study of local feature representations,” PLoS One, vol. 12, no. 2, p. e0170629, Feb. 2017.

[7] W. Tan, T. Sunday, and Y. Tan, “Enhanced ‘GrabCut’ tool with blob analysis in segmentation of blooming flower images,” in 2013 10th International Conference on Electrical Engineering/Electronics, Computer, Telecommunications and Information Technology, 2013, pp. 1–4, doi: 10.1109/ECTICon.2013.6559597.

[8] Q. Nguyen, T. Le, and N. Pham, “Leaf based plant identification system for Android using SURF features in combination with Bag of Words model and supervised learning,” in 2013 International Conference on Advanced Technologies for Communications (ATC 2013), 2013, pp. 404–407, doi: 10.1109/ATC.2013.6698145.

[9] M. Issolah, D. Lingrand, and F. Precioso, “Plant Species Recognition using Bag-Of-Word with SVM Classifier in the Context of the LifeCLEF Challenge,” 2014.

[10] E. Jerez, “El cultivo de las heliconias,” Cultiv. Trop., vol. 28, pp. 29–35, Jan. 2007. [11] F. Gómez-Merino, L. I. Trejo-Téllez, J. C. Garcia-Albarado, and J. A. Perez Sato,

“Diversity, distribution and propagation of heliconias,” vol. 11, pp. 33–40, Aug. 2018. [12] C. Alarcón, P. Juan, D. M. Martinez R, and A. Salazar-Ospina, “In vitro porpagation of

Heliconia curtispatha P, plant used against snakebite by some rural communities of the colombian region of Uraba,” Vitae, vol. 18, no. 3, pp. 271–278, 2011, [Online]. Available: http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-40042011000300005&lng=en&nrm=iso&tlng=es.

[13] J. Kress and J. Betancur, A New Species of Heliconia (Heliconiaceae) from the Chocó Region of Colombia, vol. 31, no. 1. Instituto de Ciencias Naturales, Facultad de Ciencias-Universidad Nacional de Colombia, 2009.

[14] E. Ralls, “PlantSnap.” Telluride, 2017. [15] C. Avendaño-Arrazate et al., “Morphological Characterization in Wild Species of

Heliconias (Heliconia spp) in Mexico,” Am. J. Plant Sci., vol. 8, pp. 1210–1223, May

Page 63: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 58

2017, doi: 10.4236/ajps.2017.86080. [16] A. A. Danasingh, J. L. Epiphany, A. Abirami, and M. Dhivya, “Plant Disease Detection

System using Bag of Visual Words,” Int. J. Inf. Technol. Comput. Sci., vol. 10, pp. 57–63, Sep. 2018, doi: 10.5815/ijitcs.2018.09.07.

[17] J. Cervantes, J. Taltempa, F. García-Lamont, J. S. R. Castilla, A. Y. Rendon, and L. D. Jalili, “Análisis Comparativo de las técnicas utilizadas en un Sistema de Reconocimiento de Hojas de Planta,” Rev. Iberoam. Automática e Informática Ind. RIAI, vol. 14, no. 1, pp. 104–114, 2017, doi: https://doi.org/10.1016/j.riai.2016.09.005.

[18] T. Perdomo, “Heliconia: características, hábitat, reproducción y cultivo.” https://www.lifeder.com/heliconia/.

[19] V. M. Barros and J. J. B. Gómez, Heliconias de Antioquia: guía de identificación y cultivo. Universidad de Antioquia, Departamento de Biología, 2000.

[20] J. Kress, B. Julio, C. Roesel, and B. Echeverry, “Lista preliminar de las Heliconias de colombia y cinco especies nuevas,” Universidad nacional de Colombia, 1993.

[21] J. Kress and J. Betancur, “Una especie nueva de Heliconia (Heliconiaceae) del chocó biogeográfia Colombiano,” Caldasi, Vol. 31, Num. 1, Bogota, May 2009.

[22] M. Forero, Introducción al procesamiento digital de imágenes. españa, 2002. [23] S. Perdomo, “Detección de células Epidermales Abaxiales en Arabidopsis Thaliana

mediante técnicas de procesamiento de imágenes,” Universidad de Ibagué, 2016. [24] C. Rother, V. Kolmogorov, and A. Blake, “‘GrabCut’: Interactive Foreground Extraction

Using Iterated Graph Cuts,” in ACM SIGGRAPH 2004 Papers, 2004, pp. 309–314, doi: 10.1145/1186562.1015720.

[25] A. Kushwaha, “Python 3 module notfounderror no module named ‘CV2,’” 2019. https://cppsecrets.com/users/11429798104105115104101107117115104119971049754494864103109971051084699111109/Python-3-ModuleNotFoundError-No-module-named-cv2.php.

[26] C. Harris and M. Stephens, “A Combined Corner and Edge Detector,” Proc. 4th Alvey Vis. Conf., vol. 1988, pp. 147–151, Jan. 1988, doi: 10.5244/C.2.23.

[27] H. Bay, A. Ess, T. Tuytelaars, and L. Van Gool, “Speeded-Up Robust Features (SURF),” Comput. Vis. Image Underst., vol. 110, no. 3, pp. 346–359, 2008, doi: https://doi.org/10.1016/j.cviu.2007.09.014.

[28] Y. Zhang, R. Jin, and Z.-H. Zhou, “Understanding bag-of-words model: A statistical framework,” Int. J. Mach. Learn. Cybern., vol. 1, pp. 43–52, Dec. 2010, doi: 10.1007/s13042-010-0001-0.

[29] R. Fernandez Rojas, X. Huang, J. Romero, and K.-L. Ou, fNIRS Approach to Pain Assessment for Non-verbal Patients. 2017.

[30] A. C. Jinisha and T. S. S. Rani, “Brain Tumor Classification using SVM and Bag of Visual Word classifier,” in 2019 International Conference on Recent Advances in Energy-efficient Computing and Communication (ICRAECC), 2019, pp. 1–6, doi: 10.1109/ICRAECC43874.2019.8995144.

[31] Y. George, M. Aldeen, and R. Garnavi, “Automatic Scale Severity Assessment Method in Psoriasis Skin Images Using Local Descriptors,” IEEE J. Biomed. Heal. Informatics,

Page 64: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 59

vol. 24, no. 2, pp. 577–585, 2020, doi: 10.1109/JBHI.2019.2910883. [32] F. Rustam, A. Mehmood, M. Ahmad, S. Ullah, D. M. Khan, and G. S. Choi,

“Classification of Shopify App User Reviews Using Novel Multi Text Features,” IEEE Access, vol. 8, pp. 30234–30244, 2020, doi: 10.1109/ACCESS.2020.2972632.

[33] J. B. MacQueen, “Some methods for classification and analysis of multivariate observations,” 1967.

[34] Y. Li and H. Wu, “A Clustering Method Based on K-Means Algorithm,” Phys. Procedia, vol. 25, pp. 1104–1109, 2012, doi: https://doi.org/10.1016/j.phpro.2012.03.206.

[35] I. Dabbura, “K-means Clustering: Algorithm, Applications, Evaluation Methods, and Drawbacks,” Towards Data Science, 2018. https://towardsdatascience.com/k-means-clustering-algorithm-applications-evaluation-methods-and-drawbacks-aa03e644b48a.

[36] A. Likas, N. Vlassis, and J. J. Verbeek, “The global k-means clustering algorithm,” Pattern Recognit., vol. 36, no. 2, pp. 451–461, 2003, doi: https://doi.org/10.1016/S0031-3203(02)00060-2.

[37] Thatware, “K-Means clustering : The Definitive Guide.” https://thatware.co/k-means-clustering/.

[38] X. Yan, “Weighted K-Nearest Neighbor Classification Algorithm Based on Genetic Algorithm,” TELKOMNIKA Indones. J. Electr. Eng., vol. 11, Oct. 2013, doi: 10.11591/telkomnika.v11i10.2534.

[39] Anonimo, “k vecinos más próximos,” 2020. https://es.wikipedia.org/wiki/K_vecinos_más_próximos.

[40] Y. Zhou and J. Liang, “Intersection distance for object recognition,” in 2014 IEEE Workshop on Advanced Research and Technology in Industry Applications (WARTIA), 2014, pp. 255–259, doi: 10.1109/WARTIA.2014.6976245.

[41] M. G. Forero, C. Arias-Rubio, and B. T. González, “Analytical Comparison of Histogram Distance Measures BT - Progress in Pattern Recognition, Image Analysis, Computer Vision, and Applications,” 2019, pp. 81–90.

[42] C. CORTES, “Support-Vector Networks,” Kluwer Acad. Publ. Boston. Manuf. Netherlands., 1995, doi: 10.1007/BF00994018.

[43] R. Sunil, “Comprender el algoritmo de la máquina de vectores de soporte (SVM) a partir de ejemplos (junto con el código),” india, 2017. [Online]. Available: https://www.analyticsvidhya.com/blog/2017/09/understaing-support-vector-machine-example-code/.

[44] H. S. Das and P. Roy, “Chapter 5 - A Deep Dive Into Deep Learning Techniques for Solving Spoken Language Identification Problems,” N. B. T.-I. S. S. P. Dey, Ed. Academic Press, 2019, pp. 81–100.

[45] A. Troncoso, “Clasificación de orquídea cattleya trianaei mediante su patrón colorimétrico,” Universidad de Ibagué, 2015.

[46] A. Singh, “A Practical Introduction to K-Nearest Neighbors Algorithm for Regression (with Python code),” 2018. https://www.analyticsvidhya.com/blog/2018/08/k-nearest-neighbor-introduction-regression-python/.

Page 65: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 60

ANEXOS Anexo 1: Corrección de color Una vez convertida la imagen de referencia en formato .DNG Figura 12. Este formato es un RAW estándar creado por Adobe software (Adobe DNG Converter).

Figura 50 Adobe DNG Converter.

Empleando el programa proporcionado por el fabricante (DNG_Profile_Editor_win_1_0_4), todas las imágenes fueron calibradas utilizando la carta colorimétrica siguiendo el protocolo propuesto por el mismo. Se hace uso de la fotografía de la carta colorimétrica, se ubican cuatro círculos de color (blanco, negro, cian y cafe) como se muestra en la Figura 51.

Page 66: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 61

Figura 51 DNG Profile Editor.

Después de acomodar los cuatro puntos de colores en la tarjeta colorimétrica de la fotografía, se crea un perfil de colores el cual toca terminar de acomodarlo de forma manual y almacenarlo. Este perfil (.dcp) de tonos se agrega en la siguiente ruta (C:\Users\[USUARIO]\AppData\Roaming\Adobe\CameraRaw\CameraProfiles) para usarla en el software Lightroom y aplicarlo sobre todas las fotografías adquiridas bajo las mismas condiciones de iluminación.

a)

b)

Figura 52 a) Corrección de color y b) ajuste tonal.

Page 67: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 62

Se abre la imagen de calibración .DNG, luego se dirige a la pestaña de “Revelar” en las opciones de la derecha y seleccionar “calibración de cámara”, después ir a la opción “Perfil” y escoger el perfil agregado como se muestra en la Figura 53.

Figura 53 Ajuste de color con Lightroom.

Este perfil de calibración se agregar al Lightroom oprimiendo en “ajuste preestablecidos” y el símbolo “+”, configurarlo como se muestra en la Figura 54.

Figura 54 Configuración de ajuste de color.

Page 68: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 63

Se importan las imágenes que se desean calibrar aplicándole el ajuste de revelado como se muestra en la Figura 55.

Figura 55 Ajuste de revelado.

Como último paso se exportan las imágenes en formato .tif.

Page 69: CLASIFICACIÓN AUTOMÁTICA DE HELICONIAS A PARTIR DE

_________________________________________________________________________ 64

Anexo 2: Manual de usuario Tabla 10 Manual de usuario.

BOTONES FUNCIONAMIENTO

Se abre una ventana de exploración para buscar la imagen que se desea clasificar. Los formatos de imágenes permitidos son: tif, jpg y png.

Se abren dos ventanas, una con la imagen a modificar y la otra con el resultado que se está obteniendo. Click derecho: realizar un cuadro que incluya el objeto

a analizar. Click izquierdo: seleccionar lo que quiera incluir como

objeto deseado u objeto no deseado. o “0” oprimir el número y seleccionar lo que no

se considere como información deseada. o “1” oprimir el número y seleccionar lo que si se

considere como información deseada. “n” Retirar lo que se considere no deseado y ponerlo

en color negro. “s” Guardar los cambios. “ESC” salir del aplicativo sin realizar cambios.

Clasifica el tipo de heliconia ingresado.