88
RECONOCIMIENTO BIOMÉTRICO DEL IRIS (REBDI) 2.0 DANIEL STEPHEN RUIZ OVALLE COD: 20152383007 UNIVERSIDAD DISTRITAL “FRANCISCO JOSÉ DE CALDAS” FACULTAD TECNOLÓGICA INGENIERÍA EN CONTROL BOGOTÁ D.C. 2018

UNIVERSIDAD DISTRITAL “FRANCISCO JOSÉ DE CALDAS”repository.udistrital.edu.co/bitstream/11349/13382/4/RuizOvalleDanielStephen2018.pdfconceptos de verificación, identificación,

  • Upload
    others

  • View
    3

  • Download
    0

Embed Size (px)

Citation preview

RECONOCIMIENTO BIOMÉTRICO DEL IRIS (REBDI) 2.0

DANIEL STEPHEN RUIZ OVALLE

COD: 20152383007

UNIVERSIDAD DISTRITAL “FRANCISCO JOSÉ DE CALDAS”

FACULTAD TECNOLÓGICA

INGENIERÍA EN CONTROL

BOGOTÁ D.C.

2018

RECONOCIMIENTO BIOMÉTRICO DEL IRIS (REBDI) 2.0

DANIEL STEPHEN RUIZ OVALLE

COD: 20152383007

MONOGRAFIA PARA OPTAR POR EL TÍTULO DE INGENIERO EN

CONTROL

DIRECTOR:

ING. MIGUEL RICARDO PEREZ PEREIRA

UNIVERSIDAD DISTRITAL “FRANCISCO JOSÉ DE CALDAS”

FACULTAD TECNOLÓGICA

INGENIERÍA EN CONTROL

BOGOTÁ D.C.

2018

Nota de aceptación

__________________________________________________

__________________________________________________

__________________________________________________

__________________________________________________

__________________________________________________

__________________________________________________ __________________________________________________

__________________________________________________

__________________________________________________

__________________________________________________

______________________________________

Tutor

______________________________________

Jurado 1

______________________________________

Jurado 2

1. TABLA DE CONTENIDO

1. TABLA DE CONTENIDO ............................................................................................ 4

2.ÍNDICE DE TABLAS ....................................................................................................... 6

3. LISTA DE FIGURAS....................................................................................................... 7

4. INTRODUCCIÓN ............................................................................................................. 8

4.1. Planteamiento del problema ............................................................................... 9

4.2. Justificación ..........................................................................................................11

4.3 Objetivos..................................................................................................................12

4.3.1 Objetivo general ..............................................................................................12

4.3.2 Objetivos Específicos. ..................................................................................12

5. MARCO DE REFERENCIA .........................................................................................13

5.1. Estado del arte ......................................................................................................13

5.2. Marco teórico.........................................................................................................16

5.2.1 Patrones ............................................................................................................16

5.2.2 Fisiología del ojo ............................................................................................17

5.2.3 Inseguridad Informática................................................................................19

5.2.4 Adquisición de la imagen .............................................................................21

5.2.5 Segmentación del iris....................................................................................22

5.2.6 Procesamiento digital de imágenes ..........................................................23

5.2.7 Funcionamiento de la cámara .....................................................................31

6. METODOLOGIA............................................................................................................33

6.1. Captura de la Imagen ..........................................................................................35

6.2 Segmentación de la imagen. ..............................................................................38

6.3 Normalización de la imagen. ..............................................................................40

6.4 Extracción de características. ...........................................................................44

6.4.1 Filtros de imagen. ...........................................................................................45

6.4.2 Histograma de una imagen. .........................................................................48

6.5 Base de Datos. .......................................................................................................53

6.5.1 Proceso adquisición y manejo base de datos........................................53

6.6 Implementación de Algoritmo............................................................................56

6.6.1 Funcionamiento y descripción de la interfaz de usuario. ...................59

7. ANALISIS DE RESULTADOS ....................................................................................63

7.1. Prueba de captura ................................................................................................63

7.1.2 Prueba de Comparación ...............................................................................66

7.1.3 Prueba Realizada con algoritmo de comparación.................................68

7.2. Relación de costos ..............................................................................................69

7.3. Alcance ...................................................................................................................70

7.4. Desarrollo Futuro .................................................................................................75

8. CONCLUCIONES .........................................................................................................77

10. RECOMENDACIONES ..............................................................................................80

11. BIBLIOGRAFIA ...........................................................................................................81

2.ÍNDICE DE TABLAS

Tabla 1. Relación de Funcionamiento ........................................................................68

Tabla 2. Costo dispositivos de reconocimiento de iris .........................................69

3. LISTA DE FIGURAS

Figura 1. Anatomía del ojo ............................................................................................17

Figura 2. Desarrollo del modelo Flom y Aran. [19] .................................................22

Figura 3.Identificacion de bordes internos y externos del iris [33] ...................23

Figura 4.Representacion de la matemática morfológica (dilatación) [39]. ......25

Figura 5.Representación de la matemática morfológica (Erosión) [39] ..........26

Figura 6.Representación de la matemática morfológica (Apertura) [39] ........27

Figura 7. Representación de la matemática morfológica (Cierre) [39]..............27

Figura 8. Diagrama de bloques de la solución propuesta....................................34

Figura 9. Diagrama de flujo de solución....................................................................35

Figura 10. Cámara Iriscopio [48]..................................................................................37

Figura 11. Detección de círculos .................................................................................39

Figura 12.Normalización del iris [10] ..........................................................................40

Figura 13. Imagen normalizada del iris ......................................................................42

Figura 14. Imagen normalizada del iris con recorte de selección ......................43

Figura 15. Resultado de los filtros aplicados a la imagen normalizada. ..........46

Figura 16. Resultado de la aplicación de filtros de imagen al proceso de

detección de círculos .....................................................................................................48

Figura 17. Histograma del iris normalizado..............................................................50

Figura 18. Histograma del iris usuario 1 ...................................................................51

Figura 19. Histograma del iris usuario 2 ...................................................................51

Figura 20. Histograma del iris usuario 3 ...................................................................52

Figura 21. Recuadro captación imagen del ojo. ......................................................54

Figura 22. Interfaz de usuario REDBI 2.0...................................................................60

Figura 23. Imagen tomada de usuarios prueba. ......................................................64

Figura 24. Imagen falla a la toma del iris..................................................................65

Figura 25. Lámpara de hendidura ...............................................................................71

Figura 26. Falla en la captación de iris ......................................................................73

Figura 27. Gafas de realidad aumentada ...................................................................74

Figura 28. Dispositivos de hardware ..........................................................................81

4. INTRODUCCIÓN

El reconocimiento biométrico es el estudio de la aplicación y uso de las

características físicas y comportamentales del ser humano, como

medio de identificación veraz y contundente de cada individuo,

buscando su implementación en la seguridad, tomando una

característica eficiente de cada individuo, de manera rápida y sin

afectar su integridad [1]. El reconocimiento biométrico del iris ha sido

estudiado a lo largo del desarrollo de la biometría, por ser de las

características físicas más importantes que sufren menor variación a lo

largo del tiempo de la vida del ser humano, y ser de las características

propias de la persona con menor posibilidad de copiar, según el

método que se use para su clasificación, siendo un estudio realizado

por numerosos científicos a lo largo del tiempo, entre los cuales se

encuentra y destaca J. Daugman, quien propone una técnica basada

en la captura de la imagen del iris para su posterior normalización a

través de una conversión a coordenadas polares[2].

Para realizar este desarrollo se obtiene una imagen del iris de cada

persona , realizando el proceso de manejo de imágenes, como lo es

cambio a escala de grises, reducción, selección, segmentación,

recorte, detectando así los círculos internos y externos de la imagen

para su posterior segmentación mediante la transformada de

Hough[3], que proporcionan coordenadas para la normalización, al

momento de obtener estas coordenadas se realiza su conversión a

polar[4],se recorta la imagen respectiva, para la separación y

clasificación de las características adecuadas para el reconocimiento,

como lo pueden ser los patrones de la imagen binarizada, el

histograma que genera la imagen, los promedios tomados de los

histogramas entre otros.

Siendo todo integrado en una interfaz de usuario desarrollada en

software libre, capaz de ser implementada en cualquier dispositivo que

permita el uso de este, y el uso de una cámara diseñada para la

captación de imágenes del iris, denominada iriscopio.

4.1. Planteamiento del problema

El desarrollo de un aplicativo que permitiera el reconocimiento

biométrico de una persona mediante el uso del iris se había planteado

en el proyecto REDBI (RECONOCIMIENTO BIOMETRICO DEL IRIS),

mediante un algoritmo que incorporaba el procesamiento de

imágenes, realizando el proceso de captura de la imagen obteniendo

así datos respectivos para hallar las variables de funcionamiento,

como lo son el radio del iris y la pupila procediendo al proceso de

normalización y selección de características, lo cual permite su

posterior comparación con una imagen seleccionada, dando así un

resultado de comparación efectivo siempre del 100% por el tipo de

muestras tomadas para la base, y la imagen que se quisiera verificar.

El desarrollo del proyecto REDBI permitió obtener una base de

conocimiento a los métodos de procesamiento de imágenes aplicado a

las imágenes de una base de datos, implementando el software

Matlab y sus herramientas permitiendo así realizar un análisis de

imágenes con una comparación efectiva, limitándose a su diseño y la

manera en la que fue planteado su uso generando inconvenientes

como lo es la falta de una forma de captar imágenes nuevas y

diferentes de un mismo usuario, así como la falta de una base de

datos dinámica que permitiera una comparación coherente entre

imágenes. El uso del software matlab aunque tiene la ayuda de las

herramientas de algoritmos para la captación de características y

normalización, impide un uso comercial por costos asociados a la

licencia del mismo, así como la vinculación a dispositivos

computacionales de baja gama para la realización de un prototipo

eficiente, tomando en cuenta las limitaciones buscamos comprobar si

se puede realizar un software que permita la implementación del

método de análisis biométrico del iris en software de libre distribución,

con un método de captura de imágenes y posibilidad de desarrollo

futuro.

4.2. Justificación

Al momento de la creación de un prototipo de seguridad o un algoritmo

de protección de archivos, la implementación de los patrones

adecuados de reconocimiento ayuda a mejorar la eficiencia de la

seguridad, permitiendo así un desarrollo claro sobre los aplicativos y

prototipos que se realizan. En el proyecto REDBI realizado por el autor

en tecnología electrónica que se desarrolló en el software MATLAB, un

algoritmo con interfaz de usuario, capaz de realizar el proceso de

análisis y comparación de imágenes para tomar una decisión acerca

de la identidad de un usuario, este proyecto tenía como finalidad dejar

una base de conocimiento en el análisis de imágenes vinculado con un

proceso especifico como lo es el reconocimiento de personas, el uso

del software para su distribución estaba condicionado por la licencia

de desarrollo asociada al software MATLAB, así como la falta de

imágenes en tiempo real por la falta de un medio de captación de

imágenes, sea cámara o iriscopio.

Teniendo en cuenta las características propias del iris, su invariancia

en el tiempo, y la base de conocimiento planteada en el proyecto

REDBI, se busca hacer un dispositivo que permita la captura de

imágenes en tiempo real de una persona específica, realizando el

análisis y la comparación respectiva de la imagen con una base de

datos, en un software libre que permita la distribución del dispositivo

sin costos asociados a licencia, y desarrollos futuros que permitan

expandir el conocimiento propio del software y mejorarlo.

4.3 Objetivos

4.3.1 Objetivo general

Diseñar un sistema portátil de reconocimiento biométrico del iris,

utilizando algoritmos de clasificación de características

implementados en software y hardware libre.

4.3.2 Objetivos Específicos.

I. Determinar y evaluar las características necesarias que permitan

el reconocimiento biométrico de personas por medio del iris.

II. Diseñar el algoritmo que permita el reconocimiento biométrico

del iris que pueda ser implementado en hardware y software

libre.

III. Realizar pruebas objetivas del sistema para determinar su

eficiencia con mínimo 4 usuarios.

IV. Desarrollar una interfaz gráfica para la ejecución del aplicativo.

5. MARCO DE REFERENCIA

5.1. Estado del arte

Para el desarrollo de este proyecto se debe tener en cuenta los

conceptos de verificación, identificación, morfología, biometría, como

bases de conocimiento para la obtención de características específicas

que permiten el funcionamiento del aplicativo diseñado y la creación

de un prototipo de la manera más adecuada, abordando los problemas

de seguridad informática e identificación efectiva de personas.

Biometría: el concepto hace referencia a la capacidad que se tiene

para medir e identificar alguna característica propia de un ser humano,

la biometría es una tecnología basada en reconocer una característica

física, haciéndola única e intransferibles en una persona.

Los sistemas biométricos incluyen un sistema de captación y un

software propio que es el encargado del análisis que interpreta la

muestra física y la procesa según se halla programado [6] , Una de las

partes más importantes a tomar en cuenta son los cambios físicos que

pueden sufrir las personas debido al proceso natural de

envejecimiento de las células por el cual los órganos comienzan con

un pequeño deterioro de sus capacidades, a medida que se pierde

colágeno la piel comienza su proceso de envejecimiento y la cara

comienza a arrugarse por lo cual delimita el reconocimiento facial.

Las cuerdas vocales comienzan con otro proceso de deterioro y

cambio a lo largo de tiempo y es variable a enfermedades externa

como gripas, catarros, enfermedades pulmonares; por lo cual también

es delimitado por muchos factores, Al contrario de estos dos la huella

dactilar no se altera tanto por los cambios en las células y su

envejecimiento natural, pero si es alterable por los factores externos

como lo son: cortadas, quemaduras, o enfermedades como dermatitis

[7].

Por su parte el ojo consta de partes que no varían o cambian tan

fácilmente con factores externos o enfermedades, pueden permanecer

exactamente iguales a lo largo de la vida de la persona y no alterarse

a menos que se presenten enfermedades y algunas de estas no lo

alteran del todo tales como terigios, por lo cual su uso biométrico

podría ser fundamental, además una herida de un ojo no es tan fácil

de ser causada a menos que sea intencional o producto de un enorme

descuido [8], [9]. A continuación, se verán los conceptos de

verificación e identificación haciendo énfasis en el que se usara, Este

proceso consta de la comprobación de la veracidad de alguna

información.

La identificación es el proceso base del desarrollo, ya que se busca

demostrar que un cierto, acción, objeto es igual a otro, mediante la

comparación de una base de datos contra una muestra actual,

utilizando las características morfológicas como proceso mismo de

identificación para la realización del proceso; Siendo que el estudio

morfológico del ser humano es quien determina los cambios y formas

que se presentan en los órganos de los mismos, así como sus

características únicas, como lo son las huellas, el iris, la voz entre

otros.

En cuanto a programación se habla de buscar una corrección y un

resultado más exacto a la captación y segmentación de imágenes que

pueden tener pixeles mal clasificados, bordes imprecisos o imágenes

sopladas, que implica que antes de extraer más información de la

imagen se debe hacer una etapa de post procesamiento donde se

emplea el procesamiento morfológico buscando la geometría de los

objetos y su forma basándose en la teoría matemática de los

conjuntos, que puede ser aplicado a una señal en escala de grises o

binarizadas[10].

5.2. Marco teórico

5.2.1 Patrones

Los patrones que se emplearon para establecer las respectivas

magnitudes de nuestro proyecto se describen a continuación:

Verificación

La verificación es el proceso por el cual se obtiene un patrón, una

característica o un rasgo propio de un objeto o persona y se compara

con otros para comprobar su similitud y repetitividad en un lapso de

tiempo o circunstancias controladas.

Morfología

La morfología es la rama de la biología que se encarga del estudio de

la estructura o forma de los seres vivos, tomando en cuenta su

desarrollo y características físicas.

Biometría del iris

La textura visual del iris se va formando desde la etapa de gestación y

se estabiliza hasta aproximadamente los dos primeros años de vida

[14]. El diámetro del iris es de 12mm, pero el tamaño de la pupila

puede variar entre el 10% y el 80% del diámetro [15], el iris está

formado por varias capas. Una de ellas puede ser la capa epitelio que

contiene células que están pigmentadas y se encuentran ubicadas

entre la retina neural y la coroides [16]. La capa estromas se

encuentra por encima de la del epitelio, esta contiene, vasos

sanguíneos, células pigmentos y dos músculos del iris, haciendo que

la apariencia aleatoria del iris humano un órgano con un gran uso en

los análisis biométricos [17]

5.2.2 Fisiología del ojo

La Figura 1 es un esquema del ojo humano que viene a ser un cuerpo

esférico de 2.5cm de diámetro; el orificio donde entra la luz se llama

pupila y tiene un diámetro entre 2 y 8 mm esta puede autor regularse

según el enfoque que se tenga frente a la luz, la siguiente capa se

llama esclerótica la cual contiene a la córnea la cual produce casi

toda la convergencia de los haces de luz incidentes , de ahí comienza

a refractarse de varias maneras mientras procesa la luz que entra

actuando como una lente biconvexa que provoca una segunda

convergencia que realiza los ajustes para la percepción y las

distancias.

Figura 1. Anatomía del ojo

IRIS Ubicado en la parte anterior del globo oculares, es la estructura

coloreada que se ve a través de la córnea y el musculo ciliar, está

formado por cinco capas dos de las cuales son músculos (epitelio

pigmentado, musculo dilatador, musculo esfínter, estroma, epitelio

anterior), según la pigmentación se generan colores y rasgos

diferentes que hacen que difieran de persona a persona [2], sus

funciones son dar color al ojo y controlar el tamaño de la pupila

reduciendo o expandiendo sus músculos.

Cambios y alteraciones del iris:

Iris de niño: Su observación es muy compleja puesto que hasta

los 5 años presentan la primera pigmentación siendo en su

mayoría clara y después de esta edad adquieren una

pigmentación definitiva [2].

Iris senil: En la edad adulta el tono neurovegetativo suele ser

débil manifestado por una tendencia a la contracción pupilar

(miosis) y debilidad de los reflejos pupilares lo cuales pueden

estar casi acabados, su tonalidad suele ser mate perdiendo el

brillo que se observa en personas jóvenes.

Cataratas: Es la perdida de transparencia del cristalino del ojo

causando una disminución gradual de la vista, cuando esta lente

esta opaca la luz no pasa de forma adecuada y la visión

disminuye volviéndose borrosa, el cristalino se encuentra detrás

del iris y la pupila formando enfocando la luz [2].

Retinopatía diabética: Es una complicación ocular de la

diabetes causada por el deterioro de vasos sanguíneos que

irrigan el fondo de la retina del ojo, al estar debilitados estos

vasos pueden dejar salir liquido o sangre, formar ramas frágiles

en forma de cepillo y agrandarse en ciertos lugares; al salir

sangre o liquido lesiona o forma tejidos fibrosos que afectan la

vista [3].

5.2.3 Inseguridad Informática

En la época actual el transporte y manejo de la información presenta

grandes fallas de funcionamiento, como lo es el porte de documentos

personales en dispositivos volátiles o de almacenamiento tales como

USB, discos duros entre otros. El uso de las contraseñas para

verificación de acceso, el uso de las cámaras web para la

comunicación directa entre personas que no tienen seguridad ante la

activación de terceros, que a través de softwares maliciosos pueden

encender y grabar en cualquier momento sin que el dueño del equipo

lo identifique.

Se debe observar cual es la información más buscada entre la red

como lo es datos bancarios, emails, teléfonos, contraseñas, o

información personal que se va agrupando sin un fin específico [11].

Hay que tener en cuenta la definición de seguridad informática como

medio de protección, esta consta de un método de proteger

información de los ordenadores individuales; uno de los métodos de

protección seria el quemar o cortar la información impresa de modo

que resulte más difícil su uso para quien no debe conocerlo, mantener

claves de usuario exclusivas, y mantener fuera de las áreas de uso los

documentos sensibles,

Hay métodos de protección como lo son: tolerante a fallos donde dos o

más ordenadores funcionan a la vez y si uno falla la otra toma el

control, todos los procesos tienden a mejorarse e implementarse con

dispositivos biométricos basados en características personales únicas

[12].

Al hablar de sistemas biométricos modernos es posible hacer una

referencia a dispositivos que detectan características tales como la

huella dactilar de una persona en los que se reconocen por patrones u

otras características predefinidas [13].

5.2.4 Adquisición de la imagen

La toma o captura de la imagen inicial del ojo humano es la parte más

importante en el desarrollo biométrico, sea por reconocimiento facial o

reconocimiento del iris, el resultado final y el proceso depende

enteramente de este detalle, la resolución e iluminación de la imagen

teniendo en cuenta que la dilatación de la pupila depende enteramente

del método de captura, dando un desarrollo acertado al algoritmo

implementado.

Se debe identificar que apartados se buscan en la imagen para definir

el medio de captura, se debe tener en cuenta la resolución, la agudeza

y un buen nivel de contraste en el modelo del iris interior con una

iluminación que no afecte al usuario [18]. Los esquemas de

adquisición de imágenes tradicionales datan de Leonard Flom y Aran

Safir quienes lo patentaron en 1987, consistía en un sistema que

controlaba la iluminación mediante 4 puntos de enfoque 3 de ellos que

formaban 120 grados alrededor del ojo y el restante frontal al mismo la

reflexión producida por el ojo daba la imagen deseada. [19], [20], [21],

[22], [23], en la Figura 2 se observa el funcionamiento grafico de la

captación de los 4 puntos de enfoque.

5.2.5 Segmentación del iris

La buena selección de algoritmos para segmentar la imagen es muy

importante ya que si el iris no se ubica correctamente las siguientes

etapas tomarían datos falsos [19].

Hay varios algoritmos que se encargan de hacer esto, como lo puede

ser el algoritmo de Daugman, este puede ser el más estudiado y

conocido a fondo [24].

Hay otras formas similares para realizar la segmentación del iris [27]

como la propuesta por Camus y Wildis [28] este método es usado para

encontrar los bordes de la imagen es un método muy similar a el

Daugman.

Figura 2. Desarrollo del modelo Flom y Aran. [19]

La metodología propuesta en este también opera de forma similar a la

de Daugman, este recibe la imagen en escala de grises, aplica el

histograma máximo el promedio de intensidades en cinco círculos

consecutivos. [29]

La determinación de los bordes de la pupila y el iris en un nivel de

representación gráfica, que se describen en GAC (Geodesic Active

Contours), basándose en el cálculo de los contornos activos y cálculos

geodésicos (longitud mínima) pueden verse en la Figura 3. [30][31][32]

Figura 3.Identificacion de bordes internos y externos del iris [33]

5.2.6 Procesamiento digital de imágenes

Al obtener la imagen mediante el proceso de captura, puede verse

afectada por ruidos que deterioran la calidad de la misma [34]. El

método tradicional para eliminar estos ruidos es la aplicación filtros

pasa-bajos o pasa-bandas [35] el inconveniente es que la señal puede

presentarse borrosa después de la aplicación de los filtros, por esto

existe una contradicción entre la eliminación de ruidos o la

identificación de los bordes. Mientras que el análisis de Wavelet ha

demostrado ser una gran herramienta para el procesamiento de

imágenes ya que este aplica varias frecuencias al filtro pasa-banda,

este análisis puede ser utilizado en muchos otros procesos como la

compresión de imágenes, eliminación de ruido [36], etc.

Después del proceso de filtrado, el siguiente proceso se puede realizar

de muchas maneras, la detección de bordes [24], por cuantificación

bien sea de un solo color o por R.G.B (rojo, verde, azul) [37] por este

método la imagen se divide en líneas horizontales y luego en puntos o

pixeles. Por histograma este método permite ver si la imagen se puede

comprimir, comparar contrastes e intensidades entre imágenes, este

es utilizado para binarizar la imagen es decir convertirla a blanco y

negro de tal manera que conserve las características iníciales de la

misma [38], este último siendo el método utilizado tras las pruebas

realizadas.

Método para el procesamiento de las imágenes

Para poder tomar una imagen se debe poder acceder a sus principales

características y analizarla matemáticamente para hacer en algunos

casos más factible su análisis de ciertos puntos y no toda la imagen en

conjunto que puede llevar a cabo un proceso más engorroso u/o

complicado, En la Figura 4 se muestra unos de los procesos para

abordar este concepto, como lo es la descripción de la Matemática

morfológica.

Figura 4.Representacion de la matemática morfológica (dilatación) [39].

La morfología matemática representa la forma y la estructura de un

objeto, está basada en teoría de conjuntos:

1. Imágenes binarias. Sub conjuntos Z²

2. Imágenes grises. Coordenadas Z³

La manera de construcción es simplificar la imagen y tomar las

principales características de forma de los objetos, extrayendo los

componentes útiles de la imagen para representar y describirlas. Los

procesos morfológicos son descritos a continuación:

Dilatación: agregar pixeles a un objeto haciéndolo más grande, como

se observa en la Figura 4.

Erosión: extrae los outlayers del objeto reduciéndolo, como se observa

en la siguiente Figura 5.

Apertura:

Aplica una erosión seguida de una dilatación permitiendo abrir

pequeños huecos, la cual apreciamos en la Figura 6.

Figura 5.Representación de la matemática

morfológica (Erosión) [39]

Figura 6.Representación de la matemática morfológica (Apertura) [39]

Clausura: aplica una dilatación seguida de una erosión permitiendo

cerrar huecos, como se ve en la Figura 7.

Sus aplicaciones varían desde el pre-procesamiento de imágenes que

puede suprimir ruidos y simplificar formas; destacar la estructura de

los objetos como detección de objetos, ampliación, reducción; y la

descripción del objeto tales como área y perímetro [39], [40].

Figura 7. Representación de la matemática morfológica

(Cierre) [39]

Análisis de imagen

El análisis de imágenes hace referencia a la implementación de

transformaciones, restauraciones y mejoramiento de las imágenes;

consiste en extraer las propiedades y características de la imagen así

como la clasificación, identificación y su respectivo reconocimiento de

patrones, una imagen digital puede considerarse como una matriz

cuyos índices de fila y de columna identifica un punto de la imagen y

el valor correspondiente de la matriz indica el nivel de gris de ese

punto; a cada uno de estos puntos o también conocidos como niveles

se les denomina pixeles[4].

Aplicación de algoritmos de clasificación.

Los algoritmos de clasificación, permiten de una manera jerárquica

analizar un dato, mediante diferentes procesos como lo son:

acondicionamiento, segmentación, extracción de características y

clasificación; Cada uno de los algoritmos pueden ser usados para

diferentes propósitos específicos según el tipo de característica que se

elige seleccionar para su posterior análisis. El procesamiento se lleva

a cabo por algoritmos de varios tipos entre los que se encuentran: [1]

Algoritmos no supervisados (algoritmos de clasificación sin

aprendizaje): permiten identificar de forma automatizada clases o

agrupaciones de datos.

Algoritmos supervisados (algoritmos de clasificación con aprendizaje):

tienen una base sobre la cual se define a cuál algoritmo

pertenece [51].

Cada algoritmo de reconocimiento puede apoyarse en una

herramienta de análisis, clasificación u/o extracción de características

como lo son Weka, Prtools entre muchos otros que son de gran ayuda

para el análisis.

WEKA: Es una librería de algoritmos de maquina desarrollados por la

universidad waikato (nueva Zelanda) capaces de ser implementados

en java, útiles para aplicarlos en interfaces o usarlos en una

aplicación, permitiendo realizar transformaciones de los datos,

clasificaciones, regresión, clustering, asociación y visualización [52].

PRTOOLS: Permite tomar un conjunto de objetos ofreciendo rutinas

para la generalización de los mismos creando funciones para el

mapeo y la clasificación, cuenta con más de 250 rutinas de patrones

específicos, alrededor de 400 rutinas de soporte y más de 25

clasificadores diferentes [53]

Comparación y base de datos

Se busca verificar un dato teniendo en cuenta que se quiere reconocer

a una persona identificándola con la mayor exactitud posible, para ello

se debe tener claridad de la información previamente guardada y

almacenada de la mismas puesto que este es el único recurso que se

tiene para analizar.

Se debe buscar la imagen adecuada y buscar la alineación adecuada

de los parámetros a localizar, visualizar si la extracción de

características tiene la exactitud que se requiere, evaluar la bondad de

la comparación (su similitud) y por último se tomara una decisión de si

se acepta o no la imagen.

El uso individual del aplicativo es una condición primaria para su

desarrollo puesto que el tener más de cierto número de usuarios,

significa una base de datos que no puede ser albergada en un

dispositivo portátil de uso corriente, haciendo que el proceso de

análisis tarde más por la búsqueda entre los archivos

correspondientes a todos los usuarios, que en condiciones ideales

debe ser constantemente realimentada y monitoreada, tomando así

los cambios que puede sufrir la estructura del ojo con el paso del

tiempo.

Se busca que cada usuario tenga un archivo visual de al menos un ojo

en la base de datos para poder asociarlo con el algoritmo de

comparación y con la capacidad del mismo de extraer las

características requeridas para la base de datos que consigan

diferenciar a cada persona [18], [41], [42], [43], [44].

5.2.7 Funcionamiento de la cámara

Las características propias de la cámara que se usara para el

desarrollo del aplicativo, permite definir la resolución adecuada que se

necesita para obtener la información necesaria para el procesamiento,

almacenamiento y tratamiento de la imagen, definiendo la manera en

que se debe captar (tomar la foto). Se debe encontrar el formato

adecuado y el formato que nos puede brindar la cámara como lo son:

raw, tiff, jpg ; la resolución más baja nos permite manejar un

procesamiento más rápido pero la calidad puede que no sea la

indicada, se puede comprimir la imagen pero se perdería información

que es vital , también se puede organizar más datos para tener la

mejor información tales como nitidez, saturación, contraste con la

mejor adecuación de estos datos la información captada puede ser

más eficiente .

Hay maneras de generar ruido y daños a la imagen que impiden que

sea buena por lo cual el tomar la foto de la mejor manera garantiza lo

mejor, en las cámaras baratas se encuentran resoluciones de 256x256

que resulta de una resolución tan baja que es casi inaceptable en

muchos casos (65000 pixeles) , hasta cámaras con 4064x2704 que

pueden generar imagen de gran tamaño sin perder la calidad llegando

las cámaras profesionales hasta unos 20millones de pixeles lo cual

para este uso ya es una imagen demasiado pesada para un

procesamiento normal, tal vez sea estética o no pero se debe tomar en

cuenta que tomar una buena foto que sirva requiera un proceso

adecuado, buscar la fuente de luz eficaz , la dirección y las difusiones

entre otras[45],[46],[47],[48],[49],[50].

El Pixel: al tomar una imagen con una cámara fotográfica, al

aumentarle el zoom se puede observar que las imágenes están

divididas en líneas y cada línea tiene una serie de puntos que se

superponen unos a otros y están compuestos por 3 colores (rojo,

verde, azul) combinando esas intensidades se pueden obtener

millones de colores diferentes; con su máxima luminosidad obteniendo

el blanco y su mínima el negro.

Resolución: La resolución de las pantallas viene dada por #1*#2

donde #1 es el número de pixeles en horizontal y el segundo #2 indica

el número de pixeles en vertical; Las cámaras digitales poseen

sensores matriciales que permiten captar la luz y luego almacenarla en

memorias o tarjetas extraíbles para su posterior reproducción, la

resolución se mide en mega pixeles (1.048.576pixeles) donde se

puede concluir que cada mega pixel es una unidad de medida de

superficie. [5]

6. METODOLOGIA

Se realizó un dispositivo de reconocimiento de personas mediante el

uso de la biometría del iris y el respectivo análisis de las

características únicas de cada persona, mediante la captura,

acondicionamiento, procesamiento de la imagen, selección de

características y la comparación con su base de datos. Comparando a

su vez funcionamiento de REDBI 2.0 con el REDBI, verificando las

respectivas mejoras.

Figura 8. Diagrama de bloques de la solución propuesta.

En la Figura 8 se puede observar el diagrama de bloques de

funcionamiento general del proyecto REDBI 2.0, en la Figura 9 se ve el

proceso iniciando en la captura, procesamiento, clasificación

explicados paso a paso en la continuación del documento.

Figura 9. Diagrama de flujo de solución

6.1. Captura de la Imagen

El primer paso en el desarrollo del software base consta en la captura

de la imagen, con las condiciones requeridas para su posterior

procesamiento, condiciones como:

La resolución de la cámara, debe ser lo suficientemente alta

para poder capturar todos los detalles del iris y de manera

correcta.

El usuario debe colocarse siempre en la misma posición, siendo

un proceso mecánico que permita el análisis más acertado

posible.

Al ser cada usuario diferente se debe asegurar que la imagen

capturada coincida con los diámetros especificados de la

imagen para hallar el centro de la misma, siendo que el usuario

se pueda alejar o acerca un poco enfocando la cámara.

Se crea un cuadro de captura de imagen para darle al usuario

la posibilidad de recordar la posición en la que estaba al

momento de tomar la imagen y ayudar al proceso.

Al realiza el desarrollo y pruebas específicas el problema sobre el

dispositivo de captura se solvento realizando pruebas con usuarios

específicos y bases de datos de imágenes de iris.

Se debe entrar a solucionar otro de los grandes problemas de este

proceso, la iluminación, ya que por la textura natural de la córnea tiene

una alta capacidad de reflexión por sus características propias, lo cual

afecta la imagen que se toma,[6] Para mejorar este proceso se puede

obtener una cámara de iridologia[7], esta cámara ya cuenta con todos

las especificaciones y con las adecuaciones necesarias para facilitar

una captura adecuada de la imagen del iris.

La cámara o iriscopio es usado en procesos de análisis de iris para

verificar el estado físico y fisiológico de las personas mediante el

análisis del mismo y la esclerótica, detectando manchas o posibles

alteraciones en las formas del ojo, tiene un costo aproximado de 300

USD (dólares), se buscó usar una cámara que tuviera la capacidad de

captura y verificación del iris como funcionamiento principal, ya que al

usar un microscopio común no se tiene la lente ni la manera de

captura especifica por lo que el diseño físico entraría a ser un

problema en el planteamiento, sin dejar de lado la opción del

microscopio ya que por costo y beneficio puede mejorar un futuro

desarrollo o una etapa posterior de funcionamiento, así como la

Figura 10. Cámara Iriscopio

[48]

vinculación de cámaras especiales en el hardware como la cámara de

la raspberry pi 3.

La cámara es un dispositivo de verificación del iris de 5MP, con

conexión USB, 2 LEDs de iluminación y un software propio de análisis

de patrones médicos del iris, y un activador de funcionamiento.

6.2 Segmentación de la imagen.

Después de haber dado solución a la captura de imágenes del iris, el

paso a seguir fue la segmentación de la imagen; este proceso divide la

imagen en regiones u objetos cuyos pixeles poseen características

similares. Este proceso es una de las partes más importantes en un

sistema de visión artificial ya que esto permite la separación de objetos

para su posterior análisis. Para realizar este proceso se inició con la

detección de círculos, usando la función de la librería cv

“HoughCircles” esta función usa la transformada de círculos de

Hough, basado en el algoritmo de detección de centros y radios de

una imagen circular. Este método es usado por que este algoritmo es

muy inmune a la presencia de ruido y a la variación de la

iluminación[9]. Para el uso de esta función se necesitan los valores

aproximados de los radios mínimos, máximos del iris y la pupila,

mediante la transformada circular de Hough, se procede a encontrar

los círculos como se muestra en la Figura 11.

La detección y grafica de los círculos no es un proceso que determine

el funcionamiento final del algoritmo ya que no es necesario mostrar el

circulo de la pupila o el iris para su funcionamiento, La variable a

considerar es el centro de la imagen, sabiendo por las pruebas

realizadas que al hallar el centro de la imagen, siempre y cuando se

detecte un circulo que corresponda a los umbrales de la pupila o el iris,

la imagen normalizada resultante será una que permitirá la

continuación del proceso, de lo contrario lo interrumpirá, de allí que

cada usuario debe realizar un número de pruebas para identificar el

punto exacto en el que funciona su iris, y memorizarlo.

Figura 11. Detección de círculos

6.3 Normalización de la imagen.

Después de encontrar los círculos del iris y la pupila se pasa a la

normalización, este proceso también es muy importante ya que si no

se hace una correcta normalización de la imagen mucha información

se perderá, Este proceso facilita el reconocimiento biométrico ya que

las imágenes pueden venir en varios tamaños que dependen de la

distancia a la cámara, la posición del ojo o la dilatación de la pupila, lo

que hace esta función es tomar esas imágenes y pasarlas de

coordenadas rectangulares a polares haciendo así que la imagen del

iris tome un tamaño constante[10] como se muestra en la Figura 12.

Figura 12.Normalización del iris [10]

Esta función está basado en el Ruber Sheet Model (imagen3) de J.

Daugman.

A cada punto de la región del iris se le asigna un par de coordenadas

polares [r,θ], donde r está en el intervalo [0,1] y θ es el ángulo que está

entre [0,2π] con estas coordenadas se convierte cualquier imagen del

iris en un rectángulo constante[11].

A cada par de puntos se le asignan un par de coordenadas de la como

se ve a continuación:

( ( ) ( )) ( ) (1)

Donde:

( ) ( ) ( ) ( )

( ) ( ) ( ) ( ) (2,3)

Siendo:

( ) La región del iris.

( ) Las coordenadas cartesianas

originales.

( ) Las coordenadas polares normalizadas.

La función de normalización recibe como parámetros iniciales la

imagen a escala de grises que se va a normalizar, el radio mínimo que

es el de la pupila y el radio máximo que es el del iris, también pide los

valores de salida de la imagen normalizada del iris Figura 13.

El indicador amarillo Señala el iris del usuario

El indicador de color verde señala la pupila del usuario

El indicador de color rojo señala la parte de la esclerótica del ojo.

La imagen normalizada del iris resultante muestra todo el componente

de la misma, siendo la esclerótica, y la pupila tomadas aparte y parte

de las pestañas vinculadas al iris de comparación, se realizara un

recorte de la imagen tomando la parte menos afectada por la

iluminación interna y externa, así como la que tenga menos

vinculación de las partes del ojo, el resultado de esta imagen depende

de la captura inicial, ya que se tiene un tamaño fijo para el circulo a

capturar sea de la pupila o el iris siendo que si no se toman esas

medidas la imagen resultante producirá una falla y el reconocimiento

será nulo, al momento de realizar la captura de la imagen del ojo, se

tiene una dimensión especifica de la ventana de funcionamiento, se

Figura 13. Imagen normalizada del iris

especifican las coordenadas del iris y se realiza un recorte de la

imagen por medio de la función “rezise” el recorte de la imagen

normalizada en la Figura 13 el resultado se aprecia en la Figura 14.

Figura 14. Imagen normalizada del iris con recorte de selección

El tamaño de la imagen del iris normalizado puede variar según la

toma de la misma, así como el resultado de su comparación, según se

ve en la Figura 14 obteniendo más datos de funcionamiento.

6.4 Extracción de características.

Después de realizar la normalización de la imagen del iris se pasa a la

extracción de características, a partir de estas se realiza la

comparación y posterior clasificación. Por la naturaleza del iris y su

apariencia aleatoria hace de este órgano perfecto para el

reconocimiento biométrico. Con el fin de lograr la mayor f idelidad de

este programa se procede a conseguir la mayor cantidad de

información posible, de manera que puedan realizarse comparaciones

confiables entre plantillas, Los procesos para realiza la comparación

depende de la toma de la imagen, sabiendo que se tiene una base de

datos por cada usuario presente en el aplicativo, se tiene en cuenta

que aun cuando el usuario tenga clara la posición para la toma de la

imagen esta no será igual, y puede que tampoco sea parecida, la

imagen puede moverse un poco a la derecha o a la izquierda, un poco

arriba o abajo y de esta manera ya habría tomado nuevas

características o nueva información que harían que la fiabilidad de la

imagen disminuyera, por lo cual se debe tomar características que

estén presentes de manera general en el análisis y no de manera

particular.

La extracción de características depende de los filtros o métodos

utilizados para administrar o aprovechar la información de nuestra

imagen normalizada, véase la Figura 14, a continuación se muestra el

tipo de filtros y formas realizadas en las pruebas para analizar los

componentes de cada imagen y obtener una selección y método

adecuado para la captación de características.

6.4.1 Filtros de imagen.

Los filtros en las imágenes permiten obtener características

específicas mediante la segmentación, la creación de umbrales, la

verificación de puntos para rellanar o vaciar dejando formas

específicas, tomando un resultado para una comparación final, en el

proceso de análisis de la imagen del iris se verifico el funcionamiento

de los filtros y el resultado de las imágenes, así como la comparación

respectiva entre una y obteniendo así el mejor método para el análisis

respectivo.

Entre los filtros de prueba se encuentra el filtro de líneas de Hough con

umbrales del filtro de Canny, filtros de erosión y dilatación, usados

comúnmente para la limpieza de imágenes binarizadas con ruido que

limitan la comparación de formas específicas, filtros matemáticos

como el filtro de gradiente que permite distorsionar la imagen en

escala de grises según un respectivo umbral de funcionamiento, el

filtro de sombre (Tophat) y sombrero negro (Blackhat) que procesan la

imagen con un umbral dejando sus colores oscuros resaltados para un

análisis posterior de las imágenes con sombras, se puede ver el

resultado de los filtros a partir de una imagen normalizada y recortada

del iris en la Figura 14.

Se puede ver en la Figura 15 el resultado de los filtros y el tratamiento

que realiza a las imágenes respectivas, el proceso de prueba para

cada filtro se realizó de la siguiente manera.

1) Se toma cada coordenada de la imagen y se almacena en un

arreglo, según el número de 1 o ceros lógicos y se guarda para

su posterior comparación.

2) Se toma de los filtros de Canny, Tophat, Blackhat el número

correspondiente a líneas o datos diferentes que ya arroja de

Figura 15. Resultado de los filtros aplicados a la imagen normalizada.

manera automática el filtro respectivo y se guarda su valor para

su respectiva comparación.

3) Se realiza la mezcla de filtros, tomando el filtro de erosión o

dilatación respectivamente y binarizado su información, tomando

los 1 lógicos, las partes blancas de la imagen y los ceros lógicos

y adquiriendo un promedio resultante.

4) Se guardan los datos directos de filtros como el Canny, el

Tophat, la binarizacion con acumulación de puntos y se guarda

como datos de comparación, asumiendo que la cantidad de

datos no se presentara de la misma manera en dos usuarios.

Estos métodos de filtrado permiten darle a la imagen del iris una

claridad al momento de su captura eliminando los posibles ruidos que

se pudieron obtener al momento de la captura, por el movimiento o los

índices de luz dejando como resultado el uso del filtro de dilatación

aplicado a la imagen para la mejora de la textura, como se ve en la

Figura 16 que apoya al algoritmo de detección de círculos.

Para en análisis de la imagen y la toma de muestra de características

se determinó que los filtros no permitían obtener la información

adecuada tras las pruebas, ya que los métodos de uso no daban una

respuesta adecuada que permitiera aprovechar los métodos

propuestos, por lo cual se planteó la idea del análisis del histograma

de la imagen.

6.4.2 Histograma de una imagen.

Una de las maneras de analizar la información que puede tener una

imagen es por medio de la herramienta de histograma la cual permite

analizar la intensidad de una imagen y representarlo como una trama

Figura 16. Resultado de la aplicación de filtros de imagen al proceso de

detección de círculos

o gráfico con una serie de datos que van de un umbral respectivo de 0

a 255 en el eje x y el número de pixeles correspondiente en el eje y, al

mirar el histograma de una imagen se puede extraer características

propias como el brillo, el contraste , la intensidad y su respectiva

distribución, a partir de análisis respectivo de la imagen se pueden ver

las regiones más oscuras y claras con el fin de limpiar las sombras,

analizar y comparar los colores, para el caso de REDBI 2.0 se usó el

histograma como método de comparación de imágenes, tomando un

análisis estadístico en el resultado del respectivo histograma, para

este proceso se toma una imagen recortada de la normalización como

lo es la Figura 14. Y se aplica el filtro CalcHist, de python el cual pide un

rango definido para trazar la respectiva gráfica, el cual se toma por

defecto de 0 a 256, y un dato para la acumulación dentro de un array,

por defecto se toma la imagen en 256 Como se observa en las

siguientes líneas de código.

Teniendo en cuenta que la imagen sobre la cual se va a aplicar el filtro

es una imagen a escala de grises, se busca que el resultado sea la

cantidad de intensidad de fondo y sombras en la respectiva imagen

obteniendo el siguiente resultado.

Figura 17. Histograma del iris normalizado

En la Figura 18 se observa el resultado del cálculo del histograma de la

imagen normalizada del iris con un previo recorte, obteniendo así una

gráfica de intensidad entre las sombras de la imagen a escala de

grises, siendo que el promedio de la imagen da un valor

correspondiente a un usuario especifico, de lo cual se realizaron

pruebas para verificar los promedios así como las representaciones

visuales de los diferentes iris analizados durante las pruebas y el

desarrollo el resultado fue el siguiente:

Figura 18. Histograma del iris usuario 1

Figura 19. Histograma del iris usuario 2

El resultado del análisis con diferentes usuarios visto en las figuras

anteriores muestra la intensidad de las sombras en cada una de las

imágenes normalizadas del iris respectivamente, asumiendo que las

partes más oscuras del iris serán los rasgos más profundos y las

partes más claras serán los rasgos sobresalientes que se mezclan con

el color natural del iris, dando así una gráfica de número total de

pixeles contra la intensidad de las sombras.

Figura 20. Histograma del iris usuario 3

6.5 Base de Datos.

El proceso de comparación de los respectivos usuarios viene

condicionado a una base de archivos de imagen tomada al momento

de su vinculación con el dispositivo, generando una serie de

imágenes, se tiene en cuenta que las imágenes de los usuarios no

serán las mismas aunque cada usuario memorice y mecanice el

proceso de captura para comparación, por lo cual se toma una

cantidad de imágenes asociadas al número de identificación del

usuario, su nombre y su apellido, siendo datos adquiridos para la

selección especifica al momento de su comparación, se tiene en

cuenta que el desarrollo de una base de datos implica el guardar en

archivo planos o extraíbles una información asociada al ID del usuario,

al tener una comparación dinámica con los histogramas el proceso a

realizar es el siguiente.

6.5.1 Proceso adquisición y manejo base de datos.

1) Se realiza un posicionamiento de la imagen del iris del usuario,

en la cual un recuadro le permite al usuario verificar la parte más

cómoda para la captura de la imagen.

Figura 21. Recuadro captación imagen del ojo.

En la Figura 21 se ve un cuadro color naranja, creado para delimitar la

zona de captura de la imagen de muestra, en el lugar donde se tiene

una mejor precisión en la captura y posterior análisis de las imágenes.

2) Se presiona el botón de captura de imagen, en este caso se

tiene un botón de captura de imagen el cual abre la imagen que

se puede ver en la Figura 21 en la cual el usuario se posiciona y

un botón del teclado, por defecto con la tecla „a‟ minúscula

ejecuta la toma de la imagen.

3) Al momento de la toma de la imagen el usuario debe

permanecer a lo largo de 30 segundos promedio mirando fijo al

punto seleccionado, cumpliendo con las características de

diámetro del iris, en lo cual el software toma una cantidad N de

imágenes del iris que se guardan en una sub carpeta de la

imagen.

4) La captura y separación de las imágenes se lleva a cabo

mediante el código, el cual toma la imagen del usuario, las

imágenes de los ojos del usuario y las guarda en sub carpetas.

5) Las imágenes de los ojos del usuario son procesadas y se toma

de cada una el iris normalizado y recortado y se guarda en una

sub carpeta que contiene los iris de todos los usuarios asociados

a su ID ingresado al momento de la inscripción en el aplicativo.

6) El manejo de la base de datos es un manejo dinámico, al no

almacenar los respectivos valores de cada uno de los iris en una

base de datos estática siempre que se proceda al proceso de

comparación el software tomara todas y cada una de las

imágenes en la base de datos relacionadas a un respectivo

usuario, realizara el cálculo de histogramas, promediara cada

uno y hará un promedio con esos resultados, el cual comparara

con la muestra o la imagen actual que se busca identificar, este

tratamiento permite que el usuario tenga una serie de imágenes

que se pueden parecer a su iris pero habrá un número mayor

que cumplan con la condición de promedio de su iris.

6.6 Implementación de Algoritmo

Los algoritmos de reconocimiento biométrico manejan un proceso

general de captura, selección, segmentación, segregación, extracción,

comparación, y muestra de la identificación respectiva, siendo que se

realice una identificación de persona o patrón respectivo, tienen la

posibilidad de ejecutarse como clases o scripts de códigos

independientes según la forma de uso y tomar los resultados de cada

una de esas clases creando una interfaz de proceso final que solo

implementa el llamado de datos y comparación, dando un resultado.

Se puede vincular un proceso continuo uniendo cada una de las

clases o script en uno mayor que vincula todo el proceso de manera

jerárquica permitiendo analizar paso a paso el resultado mediante la

muestra de cada uno o el análisis final y la comparación de resultados

así como la muestra de imágenes, de estos métodos se tiene el

problema de la generación de una interfaz así como la generación de

scripts en paralelos, el software matlab tiene un procesador que

permite un desarrollo paralelo en su construcción de su interfaz gráfica

GUI, mientras que python usa una vinculación serial y cíclica para la

generación de una interfaz y para la generación de un proceso,

siendo que si se quiere realiza una toma de muestra de datos, una

captura y una comparación, así como una interfaz se haría mediante

un proceso cíclico lo cual hacer que la interfaz de usuario sea lo último

en generarse y se recargue nuevamente con cada nueva ejecución,

para un proceso de reconocimiento biométrico es funcional, pero se

buscó la mejora del proceso para optimizar el software dando uso de

paralelismos, el software matlab tiene diferentes maneras de usar

paralelismo o ejecución de software al tiempo, el método de uso fue la

vinculación de la función Multiprocessing que permite realizar un

proceso en paralelo a la ejecución de una interfaz ampliando la

posibilidad de una mejor funcionalidad del dispositivo, así como la

introducción a un uso más avanzado del software.

Se observa el funcionamiento en paralelo del código implementado en

donde cada una de las clases de captura, comparación y base están

definidas como funciones independientes que se ejecutaran al

momento de realizar la obturación deseada sea con botón de interfaz

o con el botón predeterminado de funcionamiento y al final la creación

de la interfaz gráfica, con las respectivas cajas de texto y los botones,

así como sus dimensiones, esta interfaz se crea en el „if‟ de la parte

final que esta igualado a una cadena de string con el mensaje

„”__main__”, como método común de funcionamiento, el no usar este

main o incorporarlo a la respectiva interfaz limita o impide el

funcionamiento completo del script cíclico.

El proceso paralelo toma las variables creadas al inicio como medio de

funcionamiento, una variable que asocia la clase Multiprocessing para

vincular un proceso y la variable p seleccionada o igualada a un vacío,

su funcionamiento se basa en el uso de dos clases una que cuenta

con el desarrollo de la información o el aplicativo a ejecutar y el otro

que lo ejecuta en el momento que se desee, sea desde la creación de

la interfaz o mediante la obturación o ejecución de un botón, o la

secuencia respectiva de una gráfica.

6.6.1 Funcionamiento y descripción de la interfaz de

usuario.

La interfaz de usuario es el proceso y resultado final de las pruebas

realizadas para la vinculación y verificación de funcionamiento y

comprobación del reconocimiento de una persona mediante el uso de

las características procesadas del iris, se tiene en cuenta que los script

y clases asociadas se ejecutaran de manera automática en la

ejecución y no serán visibles para el usuario, siendo que el usuario

tendrá una autonomía sobre la aplicación en la cual pueda ver su

resultado e interpretarlo y el aplicativo tome decisiones al respecto.

F

i

g

u

r

a

2

3

.

La interfaz de usuario en la Figura 22 presenta 3 cajas de texto y 3

botones que permiten un funcionamiento fácil y amigable con el

usuario final, sin que este necesite un conocimiento en programación,

bases de datos, o algoritmos de procesamiento de imagen. Las cajas

de texto piden datos específicos para crear un ID de usuario que se

acopla a la base de datos de manera automática.

El aplicativo no requiere rutas de extensión especiales o instalaciones,

se puede activar de manera típica al abrir un archivo con doble clic o

desde el desarrollador de python. Permite su uso en cualquier sistema

Figura 22. Interfaz de usuario REDBI 2.0

operativo de libre distribución derivado de Linux y en Windows que

tenga los respectivos controladores de Python, y librerías de

procesamiento de imagen.

El usuario debe asignar una carpeta donde se guardará el archivo y

darle ejecutar y el programa guardará automáticamente en la carpeta y

sub carpetas los archivos correspondientes, en la distribución de un

dispositivo con el aplicativo correspondiente el usuario tendrá una

pantalla de indicación para los usuarios así como el ejecutable y solo

tendrá que ejecutar el procedimiento e indicar la memorización de la

posición y la mecanización de cada nuevo usuario de la toma para

hacer más pronta y mejor la toma y reconocimiento de personas.

BOTON CAPTURA

El botón de captura tiene como función tomar la imagen del usuario

nuevo, en este caso una imagen de su rostro para asignarle un ID que

se mostrara al momento del reconocimiento del mismo.

BOTON NUEVO

Tiene como función tomar la base de datos del ojo de usuario nuevo,

este proceso es posterior a la captura de la imagen del rostro y la

asignación del ID y permite tener siempre en la base dinámica y en las

subcarpetas la información respectiva a cada uno de los usuarios.

BOTON COMPARAR

El botón comparar busca tomar una foto nueva del usuario y comparar

con la base de datos dando una respuesta efectiva al reconocimiento

de la persona, cada vez que el usuario necesite reconocerse o

identificarse según sea la aplicación designada para el dispositivo.

CAJAS DE TEXTO

Las cajas de texto solicitan del administrador del dispositivo los datos

del usuario para la creación del ID correspondiente.

7. ANALISIS DE RESULTADOS

La prueba de funcionamiento del aplicativo (software y cámara) se

llevó a cabo en un computador con el sistema operativo Ubuntu 16.0

con los driver de la librería opencv, tk, scipy, numpy, os que permiten

el funcionamiento de la creación de la interfaz gráfica, el uso de

periféricos y la generación de paralelismos en el desarrollo de mismo

aplicativo. Se tomó una muestra de 4 usuarios para realizar la

respectiva comparación y verificación de funcionamiento, se le indico a

cada usuario donde ubicar el ojo y la cantidad de fotos que se debían

tomar.

7.1. Prueba de captura

(a. (b.

(c. (d.

Figura 23. Imagen tomada de usuarios prueba.

La muestra de tomas de iris de cada uno de los usuarios vista en la

Figura 23 está limitada a la dilatación y contracción de la pupila, si la

pupila o el iris no es de un tamaño admisible del código de usuario la

imagen presenta fallas y no permite su procesamiento, para solventar

el problema el usuario debe acercarse o alejarse de allí que algunas

imágenes normalizadas tienen ciertas curvaturas en la parte posterior

como se observa en la figura b y d, mientras que las imágenes más

cercanas al diámetro de funcionamiento especifico del iris tiene un iris

normalizado que presenta menor deformación como se puede ver en

la imagen a y c .

Este proceso tiene que realizarse en varias ocasiones hasta que el

usuario pueda ser reconocido en el software y tomar una base de

datos específicos por lo que se debe realiza un proceso mecanizado.

Figura 24. Imagen falla a la toma del iris

La falla que se presenta al no estar en rango del iris seleccionado es la

que se puede observar en la Figura 24, no permite tener una

información clara de clasificación, hace inútil el proceso de

identificación y tiene que repetirse o desecharse la asignación de

usuario.

7.1.2 Prueba de Comparación

La comparación del dispositivo se realiza mediante la verificación del

número de usuarios en la base de datos, creando un arreglo de la

misma dimensión y asignando un valor correspondiente a cada

promedio registrado en la resta y acumulación de los promedios, el

cual compara al final el valor más cercano a 0 e indica o selección el

ID del usuario que se acerque más a él, las diferencias entre

promedios pueden variar del 5% al 80% siendo que si el valor del

promedio del histograma de un usuario es 20, con usuarios con un iris

de color parecido y rasgos asociados el promedio se encontrara entre

el valor 25 y el valor 125, con lo cual la cercanía a cero o el menor

valor que identifica a la persona, depende en este caso de la cantidad

de imágenes tomadas permitiendo así que personas con el iris

parecido, siendo por rasgos o color amplié su número en promedio,

teniendo en cuenta que al tomar mayor cantidad de imágenes el

procesamiento que se realiza es mucho mayor.

En las líneas de código se muestra la diferencia que tiene la imagen

nueva con los ojos del usuario „2‟ y el usuario „1‟, siendo que los dos

ojos son de la misma persona la diferencia será aproximadamente la

misma, la cual corresponde a „7.22868061‟, indicando que no toda

persona con el iris de ciertos rasgos, sea familiares o cercanos

tendrán la posibilidad de encajar y ser reconocidos sin estar en la base

de datos.

El tiempo de operación y funcionamiento del aplicativo bajo un

procesador de 4 núcleos dos físicos y dos virtuales con una velocidad

de 2.5Ghz es de 1 a 10 segundos de respuesta, teniendo en cuenta

que el sistema operativo permite la ejecución de los recursos del

sistema de una manera más adecuada y pronta, en la raspberry pi 3,

cubeboard A20, o Cubietruck kit, que cuentan con procesadores de

1GHz a dos núcleos con una RAM menos así como un procesador de

gráficos menor hace que el proceso de funcionamiento y

reconocimiento tarde un poco más y dependa más de la memoria y la

mecanización del usuario, o del dispositivo de capitación directamente.

7.1.3 Prueba Realizada con algoritmo de comparación

Se realizaron una serie de pruebas de funcionamiento con el algoritmo

implementado, utilizando una mezcla de base de datos de usuarios, 4

usuarios falsos, 2 usuarios captados con la cámara y el dispositivo, 20

usuarios tomados de base de datos de iris gratuita tomada de internet,

teniendo en cuenta que para cada usuario se crearon 30 imágenes

base, comparado con una imagen nueva y diferente 40 veces y luego

26.

En la tabla 1 se muestran los resultados de las pruebas indicando:

Porcentaje de aciertos en la identificación

Porcentaje de errores en la identificación

Porcentaje de identificación sin error pero no correcta.

40 Pruebas

aciertos errores persona diferente total

34 3 3 40

85,00% 7,50% 7,50% 99,00%

26 Pruebas

22 2 2 26

84,6154 7,6923076 7,69231 99,00%

Tabla 1. Relación de Funcionamiento

7.2. Relación de costos

DISPOSITIVOS

Iris Recognition Device PIER

2.4 3M™ CSD330 Single-digit Optical Scanner

SAMSUN

GALAXY S9

COSTOS US $974.33 US $2.500.00 US $900.00

Tabla 2. Costo dispositivos de reconocimiento de iris

Los dispositivos que se encuentran en el mercado tienen costos

alrededor de los $800 a $5.000 mil dólares, su método de captura y su

algoritmo se basa en cámaras con iluminación infrarroja, procesadores

dedicados para el reconocimiento especifico y en análisis de la imagen

sin tener que sobre cargar el procesador de desarrollo de interfaz

propia del dispositivo, realizando ejecuciones en segundos, con

tamaños medianos con capacidad de ubicación cómoda según el uso.

La mayoría de las compañías venden el software aparte del dispositivo

así como el soporte del dispositivo y el mantenimiento de base de

datos del software todo con costos incluidos directamente en la

compra o costos adquiridos por la compra que no viene con el

dispositivo ni software, a pesar que el software puede ser vinculado en

diferentes equipos de desarrollo y computo.

El dispositivo REDBI 2.0 toma los aprendizajes de REDBI mejorando

sus costos, eliminando el costo de licencia, siendo que la licencia de

uso y distribución del software MATLAB tiene un costo aproximado de

3.000 dólares, como primera instancia es un ahorro inmediato.

El uso del software libre permite el acceso al desarrollador de

compartir parcial o completamente en la web su algoritmo si lo desea y

si no encriptarlo de la manera que considere adecuada, siendo que si

no lo patenta como producto intelectual no puede tomar acciones

legales al respecto.

El desarrollo del dispositivo tiene un costo aproximado de 300 dólares

por compra de cámara y del dispositivo de computo sea raspberry, sea

computador, su ventaja radica en la expansión del uso, puede usarse

para identificar usuarios para una aplicación de recepción y

vinculación empresarial, para apertura de puertas y vigilancia de

hogares o empresas, para generar control de ingresos mediante el uso

de correos con bases de datos de ingreso tomando horas y recepción,

mejora en el método de captura usando cámaras de bajo costo e

iluminaciones infrarrojas con pruebas respectivas verificadas que

permitan el menor o nulo daño a la retina.

7.3. Alcance

El método de funcionamiento de REDBI y REDBI 2.0 se basa en la

transformada de Daugman, vista en el capítulo 6.3 descrito en la Figura

12.Normalización del iris [10]Figura 12 , el cual se obtiene mediante un

análisis de la imagen, obteniendo el centro y el área de los círculos de

la pupila y el iris para hallar el centro de la imagen, teniendo en cuenta

que usa para su funcionamiento datos estáticos para el posible radio

mínimo y el radio máximo, limita el funcionamiento a cierta cantidad de

individuos o usuarios con diámetros de iris y pupilas similares.

Teniendo en cuenta que la dilatación de la pupila depende de las

condiciones físicas de cada individuo, el método propuesto para la

normalización sufre constantes fallas de funcionamiento entre

usuarios, al realizar el procedimiento tomando en cuenta la base de

datos de imágenes URIBIS desarrollada en la universidad Beira

Interior de Portugal, el funcionamiento del aplicativo tiene una

respuesta y eficacia del 90% al 100% tomando un radio minino y

máximo estático para su verificación, teniendo en cuenta que las

imágenes adquiridas se tomaron con una lámpara de hendidura como

la mostrada en la Figura 25.

Figura 25. Lámpara de hendidura

El diámetro utilizado para su verificación fue el del bombillo de

iluminación, como se puede apreciar en la Figura 3 se tiene un circulo

de la pupila y uno del iris, para el funcionamiento en el aplicativo

REBDI 2.0 se tomó el radio mínimo y máximo de la luz que se puede

observar en el centro de la pupila, dando como resultado un

funcionamiento del proceso en 19 de 20 imágenes, donde la imagen

que no funciono presentaba contrastes diferentes por luces externas

teniendo en cuenta esta base de datos.

Cuando se realiza el proceso de captura de imagen con el iriscopio

(véase la Figura 10) se trata de tomar el led propio de la cámara como

base para el procesamiento, pero al ser tan pequeño el método

presenta fallas como las que se ven en la Figura 26 generando

múltiples círculos en la imagen lo cual afecta el proceso de

normalización generando mucho centros para una sola imagen dando

como resultado el que se puede observar en la Figura 25 haciendo que

el proceso posterior de análisis de características sea nulo y limitado y

no funcione de la manera adecuada.

Figura 26. Falla en la captación de iris

El uso del dispositivo está condicionado a las pruebas de verificación,

al depender de las condiciones lumínicas del dispositivo, se genera un

daño al usuario en el método de captura al tener que usar el

dispositivo en repetidas ocasiones para hacer las respectivas pruebas,

el daño a corto plazo en la pupila se observa después de un tiempo de

verificación de 5 minutos, al finalizar este periodo de tiempo la pupila

comienza a dilatarse menos haciendo que el proceso de captura sea

ineficaz, el uso de la base de datos permite un desarrollo claro del

funcionamiento pero no real del dispositivo siendo que su

funcionamiento con la base de datos es del 100% pero con imágenes

reales puede bajar al 50% o inferior teniendo en cuenta el método de

análisis de imágenes basado en la normalización de Daugman y en las

condiciones de ubicación del usuario, siendo que se realizó un

prototipo basado en gafas parecidas a las que se ven en la Figura 27,

Figura 27. Gafas de realidad aumentada

No se puede asegurar que en las capturas de verificación el usuario

recuerde exactamente el punto donde estaba al momento de la

captura de sus imágenes base, o abra de manera correcta el ojo

respectivo, siendo que si el método de normalización funciona y el

usuario no se posiciona de la manera adecuada el reconocimiento

fallara, teniendo en cuenta que se tiene un umbral de reconocimiento

con respecto de las imágenes base que se le tomaron al usuario al

principio de la verificación si las condiciones físicas cambian de

manera drástica el reconocimiento fallara, condiciones como la

apertura de parpados, dilatación por condiciones externa o

enfermedades adquiridas recientemente.

7.4. Desarrollo Futuro

El funcionamiento de un dispositivo de reconocimiento biométrico

depende de las condiciones físicas, los problemas presentados en

REBDI 2.0 son la ubicación de los individuos, teniendo en cuenta la

apertura del ojo, y la ubicación del mismo, siendo que aunque se usen

siempre las mismas gafas el usuario sube o baja según crea que están

bien ubicadas. La realización de un soporte físico, sujeto a una

estructura física que no vinculara al usuario en su postura ayudaría a

mejorar el método de captura en el problema de ubicación, teniendo

en cuenta que el usuario aún se puede ubicar un poco diferente,

según el diámetro del rostro, y puede cerrar los ojos más de lo

adecuado.

La vinculación de cámaras NIR (Near Infrared) usadas en la captación

de imágenes en el espectro infrarrojo, permitiría que la vinculación de

luces led, o lámparas de hendiduras fuese reemplazada, permitiendo

así la captación de las características del iris sin el daño o la incidencia

directa de la luz, realizando las pruebas específicas de funcionamiento

del algoritmo.

Tomando en cuenta la utilidad que tiene la incidencia lumínica en el

proceso de normalización y toma de características el uso de una

cámara con tecnología ultra pixel o una resolución mayor o igual a los

12Mpx permitiría generar un dispositivo que le dé al usuario un punto

exacto de funcionamiento a una cierta distancia del dispositivo,

permitiendo así un diámetro fijo de funcionamiento tomando el radio

del iris, teniendo que cuenta que a más de 5 cm su diámetro puede en

la mayoría de los casos ser más común en la mayoría de individuos,

no afectado sus ojos con luces incidentes, dándole una indicación

exacta con una apertura del ojo normal, permitiendo realizar las

pruebas de extracción de características, tomando como ejemplo el

uso de este reconocimiento biométrico del iris en dispositivo Samsung

Galaxy s9.

Por último la verificación de la forma de captación de características

del iris depende en la mayoría de sus desarrollos de la normalización

basada en el tratamiento de Daugman con posteriores algoritmos de

captación, extracción y segmentación para su posterior clasificación,

basándose en los diámetros de la pupila y el iris, buscando obtener la

información entre estos dos, el método ha probado su funcionamiento

en imágenes con características muy similares, siendo de diferentes

usuarios y con contrastes de luz y sombras diferentes aplicados a

bases de datos estáticas, la mejora o cambio de este algoritmo como

método de obtención de características permitiría un desarrollo sin las

fallas de funcionamiento por luminosidad o radios variables en la

imagen del iris, el acople de algoritmos de suavizado de imagen,

binarizacion, y eliminación de ruido tienen antecedentes de

funcionamiento con imágenes tomadas de bases de datos, que se

deben probar en imágenes reales.

8. CONCLUCIONES

El desarrollo de un dispositivo que permita el reconocimiento de

características biométricas de una persona mediante el uso de

dispositivos de adquisición está limitado al medio de captura y su

histéresis, que nunca es igual y nunca es constante según el medio y

el entorno, que presenta falla de diseño, aunque todo puede ir

mejorando con el paso del desarrollo y la vinculación de diferentes

dispositivos , la mejora de la técnica y el ensayo y repetición de los

diferentes archivos, el primer dispositivo o los dispositivos previos a su

desarrollo final presentarán fallas que deben ser corregidas tomando

en cuenta las características físicas y la manera en la que se

comportan frente a los método de captura, en el caso de las

condiciones biométricas se toma como ejemplo la captura de la huella

digital, el empañamiento del dispositivo genera fallas, la captura del iris

presenta problemas si no se ajusta al usuario a una toma especifica de

la imagen o si no se le permite una foto de fácil mecanización

vinculando su uso y ejecución en actividades repetitivas que permitan

la prueba constante de su funcionamiento, el mejoramiento respectivo

de este tipo de capturas es vinculado directamente al desarrollo del

software usado , siendo las mejoras del algoritmo y su anális is

constante la más importante de las etapas de los desarrollos

posteriores que llevan a la creación de un dispositivo de desarrollo

fiable y con capacidad de comercialización.

Para REDBI 2.0 los problemas de captación de la imagen se mejoran

con respecto a REDBI , como por ejemplo el uso de licencia, la

captura de diferentes imágenes que permiten un reconocimiento

dinámico de personas involucradas en una respectiva base de datos,

siendo que sean personas vinculadas con el uso del dispositivo o

personas tomadas para la base de datos y las pruebas respectivas de

verificación, la toma de las imágenes se ve sesgada por la dilatación

de la pupila y el tamaño del iris, puede aumentar o disminuir su radio

dependiendo de las personas y sus respectivas reacciones a la luz, así

como antecedentes patológicos o médicos que procedan en

enfermedades visuales, estas características se pueden solventar

alejando o acercando el iris de la persona hasta que el radio deseado

sea capturado permitiendo el desarrollo, la limitación de pruebas

debido a la molestia visual por la iluminación limita el atronamiento o

caracterización de los promedios de los iris tomados de cada persona,

son pruebas que requieren tiempo y el daño o el malestar puede

afectar al ojo, por la exposición prolongada a luces directas sin la

mayor protección posible, el desarrollo posterior de la comparación es

un proceso que es susceptible a mejoras según el medio de captura,

los filtros que pueden usarse en el desarrollo de las imágenes tienen la

capacidad de mejora en su análisis, vinculado mejor resolución y

captura, siendo las líneas de hough un valor a tomar y el filtro de gabor

wavelet un posible desarrollo.

El dispositivo funciona para determinados valores de radios mínimos y

máximos del iris y la pupila, realizando un análisis respectivo del iris de

cada usuario y una comparación adecuada en un tiempo aceptable

para un reconocimiento de personas y su verificación, la interfaz

presenta una manera de uso versátil y eficiente para la vinculación en

cualquier tipo de uso, y tiene la posibilidad de un desarrollo a futuro

produciendo un dispositivo de bajo costo y gran eficiencia.

10. RECOMENDACIONES

El desarrollo del dispositivo se realizó en un computador portátil, con

una capacidad de procesamiento propio y procesamiento grafico

extendido, permitiendo que el proceso de apertura de la cámara y

funcionamiento de la interfaz fuera dinámico y rápido, siendo un

dispositivo portátil en su conjunto, el uso de dispositivos que cuentan

con desarrollo de software libre, conexión a periféricos y un menor

tamaño permite el desarrollo futuro final de un dispositivo de menor

tamaño, que puede ser vinculado de manera más sencilla a cualquier

proceso que se requiera o designe, dispositivos como se ven en la

Figura 28. Se debe tener en cuenta la capacidad del procesador, la

capacidad de la RAM y el uso de procesadores gráficos para tener una

mejor velocidad de proceso.

Se recomienda su uso para creación de dispositivos de menor tamaño,

que se puedan vincular mejor a los espacios de uso y aplicación del

software, con un consumo de energía menor.

11. BIBLIOGRAFIA

[1] Centro de Enseñanza

Secundaria de la ciudad de

Alicante, “Fisiología del ojo.” [Online]. Available:

http://intercentres.edu.gva.es/iesleonardodavinci/Fisica/Vision/Luz

-vision08.htm.

[2] J. GUIDONI, “Iridologia.”

[3] Anónimo, “Diabetes: cómo afecta al ojo.” [Online]. Available:

http://opticamendez.es.tl/DIABETES-d--Cmo-afecta-al-ojo.htm.

[4] R. De Rosa, “Procesamiento de imágenes digitales,” pp. 1–5,

2007.

[5] Anónimo, “Análisis de las imágenes digitales.” [Online]. Available:

http://personales.upv.es/rmullor/Digitales.html.

[6] Http: //www.homini.com/new_page_5.htm, “Plataforma Biométrica

Homini.” [Online]. Available:

http://www.homini.com/new_page_5.htm.

[7] D. M. Queralt, E. en M. de F. y Geriatría, and M. C. de A. Medical,

“Cambios biológicos en personas mayores.” [Online]. Available:

Figura 28. Dispositivos de hardware

http://www.mapfre.com/salud/es/cinformativo/cambios-bilogicos-

introduccion.shtml.

[8] Shauntelle Hamlett, “Las causas de la decoloración del ojo.”

[Online]. Available: http://www.ehowenespanol.com/causas-

decoloracion-del-ojo-lista_117026/.

[9] D. G. Rowe, “Ojos envejecidos impiden reconocimiento por el

iris.” [Online]. Available:

http://www.losandes.com.ar/notas/2012/7/1/ojos-envejecidos-

impiden-reconocimiento-iris-652125.asp.

[10] C. Platero, “Procesamiento morfológico,” pp. 163–189.

[11] http: //www.ocu.org, “Chema Alonso: „El futuro es hackear la

sociedad‟.”[Online]. Available:

http://www.ocu.org/tecnologia/antivirus/noticias/entrevista-hacker.

[12] “Definición de Seguridad Informática.” [Online]. Available:

http://www.mastermagazine.info/termino/6638.php.

[13] “Cámaras Y Sistemas Biométricos Para Reconocimiento Del Iris.”

[Online]. Available: http://sistemasbiometricos.co/blog/camaras-y-

sistemas-biometricos-para-reconocimiento-del-iris-2.

[14] S. Prabhakar, A. Ivanisov, and A. Jain, “Biometric Recognition:

Sensor Characteristics and Image Quality,” no. June, 2011.

[15] L. Masek, “Recognition of Human Iris Patterns for Biometric

Identification,” 2003.

[16] R. D. Universitaria, “El epitelio pigmentario retiniano como

componente de la barrera hemato-retiniana : implicación en la

retinopatía diabética,” pp. 1–13, 2011.

[17] A. Thomas and A. Theodore, “An Iris Biometric System for Public

and Personal Use The human iris promises to deliver a level of

uniqueness to identification,” 2000.

[18] J. O. García, A. De Imagen, L. Iris, C. D. P. De Iris, L. Estructura,

and F. Iris, “Reconocimiento Automático de Patrones de Iris.”

[19] R. D. E. L. Iris, U. N. D. E. Trujillo, and T. Perú, “Reconocimiento

del iris,” pp. 1–12, 2006.

[20] 14/abril/2013 http: //redyseguridad.fi-

p.unam.mx/proyectos/biometria/clasificacionsistemas/capturairis.

html, “Captura de la imagen del iris.”

[21] V. E. Duró, “Evaluación de Sistemas de Reconocimiento

Biométrico,” pp. 58–61.

[22] Da. S. Ortega, “RECONOCIMIENTO BIOMÉTRICO.

RECONOCIMIENTO FACIAL.” [Online]. Available:

http://www.borrmart.es/articulo_seguritecnia.php?id=2166&numer

o=357.

[23] J. Manuel, P. Gaspar, V. Dirigida, and M. Fa, “Tesis doctoral : Uso

de la Firma Manuscrita Dinámica para el Reconocimiento

Biométrico de Personas en Escenarios Prácticos.”

[24] Z. He, T. Tan, Z. Sun, and X. Qiu, “Toward accurate and fast iris

segmentation for iris biometrics.,” IEEE transactions on pattern

analysis and machine intelligence, vol. 31, no. 9, pp. 1670–84,

Sep. 2009.

[25] R. P. Wildes, “Iris recognition: an emerging biometric technology,”

Proceedings of the IEEE, vol. 85, no. 9, pp. 1348–1363, 1997.

[26] Q. Tjan, “FAST ALGORITHM AND APPLICATION OF HOUGH

TRANSFORM IN IRIS,” no. August, pp. 26–29, 2004.

[27] H. Proenc and L. A. Alexandre, “Iris segmentation methodology

for non-cooperative recognition,” pp. 199–205.

[28] T. A. Camus and R. Wildes, “Reliable and Fast Eye Finding in

Close-up Images,” 2002.

[29] D. D. M. - Roche, E. E. S. A, D. S. Engineering, and C. Ombu,

“Iris Recognition for Biometric Identification using Dyadic Wavelet

Transform Zero-Crossing I „.”

[30] R. Malladi, J. A. Sethian, and B. C. Vemuri, “Shape Modeling with

Front Propagation : A Level Set Approach,” vol. 17, no. 2, 1995.

[31] J.A. Sethian, “HYPERSURFACES MOVING WITH CURVATURE-

DEPENDENT SPEED: HAMILTON-JACOBI EQUATIONS,

CONSERVATION LAWS AND NUMERICAL ALGORITHMS,”

1989.

[32] R. Kimmel, “Geodesic Active Contours,” pp. 694–699, 1995.

[33] “Iris recognition by fusing different representations of multi-scale

Taylor expansion.”

[34] F. Cui and L. Zou, “Edge Feature Extraction Based on Digital

Image Processing Techniques,” no. September, pp. 2320–2324,

2008.

[35] C. Pinilla and A. A. F. J. Ariza, “Filtrado de imágenes en el

dominio de la frecuencia,” pp. 1–5, 1997.

[36] Z. Xizhi, “The Application of Wavelet Transform in Digital Image

Processing,” 2008 International Conference on MultiMedia and

Information Technology, pp. 326–329, Dec. 2008.

[37] Anonimo, “Introducción a las imágenes digitales Primera parte.”

[38] C. E. Hernandez Sosa, “FUNDAMENTOS EN LA

DIGITALIZACIÓN Y PROCESAMIENTO DE UNA IMAGEN,”

2007.

[39] Anonimo, “Introduccion al procesamiento de imágenes.” [Online].

Available: http://www.slideshare.net/balfier/operaciones-

morfologicas.

[40] T. De Hough, “Segmentación. Transformada de Hough.”

[41] “Reconocimiento biométrico: la nueva revolución tecnológica.”

[Online]. Available: http://www.diariosigloxxi.com/texto-

diario/mostrar/90112/reconocimiento-biometrico-la-nueva-

revolucion-tecnologica. [Accessed: 14-Jul-2013].

[42] “UMANICK: EFECTIVIDAD Y EFICACIA DE LOS SISTEMAS

BIOMÉTRICOS.” [Online]. Available:

http://www.umanick.com/index.php/tecnologia/efectividad-y-

eficacia. [Accessed: 14-Apr-2013].

[43] “SISTEMAS BIOMÉTRICOS: MATCHING DE HUELLAS

DACTILARES MEDIANTE TRANSFORMADA DE HOUGH

GENERALIZADA.” [Online]. Available:

http://www2.ing.puc.cl/~iing/ed429/sistemas_biometricos.htm.

[Accessed: 14-Apr-2013].

[44] I. Ocular, C. Autom, J. G. Daugman, F. Rechazo, and F.

Aceptación, “El Iris Ocular como parámetro para la Identificación

Biométrica,” 2000.

[45] “El uso de la cámara fotográfica.” [Online]. Available:

http://www.foto13.com/funcionamiento_camara.htm. [Accessed:

14-Apr-2013].

[46] “Como funciona la cámara digital: Funciones y ajustes.” [Online].

Available:

http://www.digitalfotored.com/imagendigital/menucamaradigital.ht

m.

[47] “Cómo ajustar la cámara para disparar en RAW (I).” [Online].

Available: http://altfoto.com/2012/10/como-ajustar-la-camara-

para-disparar-en-raw-i. [Accessed: 14-Apr-2013].

[48] Anonimo, “Resolución cámara digital - funcionamiento básico.”

[Online]. Available: http://www.electronica-basica.com/resolucion-

camara-digital.html. [Accessed: 14-Apr-2013].

[49] Anonimo, “Adiós cámaras de seguridad de baja resolución, hola

vídeo vigilancia en HD a 29 MP.” [Online]. Available:

http://www.xatakahome.com/seguridad-en-el-hogar/adios-

camaras-de-seguridad-de-baja-resolucion-hola-video-vigilancia-

en-hd-a-29-mp. [Accessed: 14-Apr-2013].

[50] Anonimo, “Cómo Conseguir una Buena Fotografía en tan solo

Tres Pasos.” [Online]. Available: http://www.dzoom.org.es/noticia-

14338.html. [Accessed: 14-Mar-2013].

[51] Sergio Bernabé García, “Escuela Politécnica MÁSTER

UNIVERSITARIO EN COMPUTACIÓN GRID Y PARALELISMO

Trabajo Fin de Máster disponibles en la herramienta Google

Maps Sergio Bernabé García Septiembre, 2010,” 2010.

[52] D. G. Morate, “Manual de Weka.”

[53] Prtools, “PRTools.” [Online]. Available: http://prtools.org/.

[54] G. S. Pérez and I. R. González, “Leyes de protección de datos

personales en el mundo y la protección de datos biométricos –

Parte I.”

[55] “DIGITI - sistemas digitales inteligentes.” [Online]. Available:

http://201.234.78.173:8080/gruplac/jsp/visualiza/visualizagr.jsp?nr

o=00000000004801.