Upload
others
View
2
Download
0
Embed Size (px)
Citation preview
REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE Ministère de l’enseignement supérieur et de la recherche scientifique
UNIVERSITE LARBI BEN M’HIDI OUM EL BOUAGHI
Faculté des sciences exactes et de science de la nature et de la vie
Département de mathématiques et informatique
Mémoire de fin d’études Pour l’obtention du diplôme de Master 2 Option : imagerie
Thème
Détection et Reconnaissance de Visage
Préparer par :
Berkani Cherifa Gatrani Moufida
Membre de jury : Mme Boutaouche F. Président
Dr Berkane M. Encadreur
Mr Sahbi L. Membre
Mme Khelas K. Membre
Année universitaire 2011/2012
Sommaire :
Introduction général 1
Chapitre 1 : La reconnaissance de forme et La biométrie 3
1. Introduction 3
2. Reconnaissance de forme 3
2.1. Définition 3
2.2. Structure générale d’un système de reconnaissance de formes 4
2.3. Les méthodes utilisent pour la reconnaissance 5
3. La biométrie 10
3.1. Définition 10
3 . 2 . Panorama des différentes biométries 11
3 . 3. Les systèmes biométriques 13
3.4. Application de la biométrie 17
4. Conclusion 18
Chapitre 2 : Détection de visage 19
1. Introduction 19
2. La détection de visage 19
2.1. Problématique 19
2.2. Méthodes de détection de visage 21
3. Réseaux de neurone 31
3.1.Le neurone 32
3.1.1. Modèle biologique 32
3.1.2.Modèle artificiel 32
3.2. Analogie entre le neurone biologique et le neurone formel 35
3.3. Architecteurs des réseaux de neurones 35
3.4. Apprentissage de réseaux de neurones 39 3.5. Type des réseaux de neurones 40
3.6. Propriétés des réseaux de neurones 43
3.7. Applications des réseaux de neurones 44
4. Conclusion 44
Chapitre3 : La reconnaissance de visage humain 45
1. Introduction 45
2. Problématique 46
3. Les méthodes existant 51
4. Méthodes utilisées 56
4.1.Analyse composante principale (ACP) 56 4.2 .l’histogramme
59
5.Conclusion 62
Chapitre4 : Conception 63
1.Introduction 63
2.Etude conceptuelle 63
2.1. Détection de visage pour avoir l’image des personnes 64
2.2. Reconnaissance de visage 66
. 2.2.1. Reconnaissance de visage a base de l’histogramme 66
2.2.2. Reconnaissance de visage a base de l’ACP 68
2.2.3. Comparaison entre l’histogramme et ACP 74
Annexe : Implémentation 75
1. Les langages de programmations 75
1.1. Description de langage C++builder 75
1.2. Description de langage Matlabe 76
2. Explication de logiciel
Ccl Conclusion Général 93
Introduction general
1
Introduction général
Depuis quelques décennies l'explosion de l'informatique et des réseaux de
communication a augmenté de manière significative le besoin d'identification des personnes.
Jusqu'à présent, les méthodes usuelles d'identification sont essentiellement basées sur ce que
l'on possède (carte d'identité, carte à puce, badge magnétique) ou sur ce que l'on sait (mot de
passe, code PIN…).Mais ces méthodes posent de gros problèmes de fiabilité (falsification de
document, oubli de code, décryptage de mot de passe via des logiciels spécifiques). Depuis les
récentes menaces qui pèsent sur de nombreux pays, une identification fiable des personnes est
devenue un problème majeur pour des raisons de sécurité (contrôle aux frontières, accès aux
lieux publics, transport ...). Tous ces problèmes ont ainsi provoqués un développement accru
des techniques biométriques d’identification.
La biométrie est une technique globale visant à établir l'identité d'une personne
en mesurant une de ses caractéristiques physiques ou comportementale. II peut y avoir
plusieurs types de caractéristiques physiques, plus fiables que certaines, mais toutes
doivent être infalsifiables et uniques pour pouvoir 'être représentatives d'un et un seul
individu.
Il existe des catégories principales pour les techniques biométriques citons :les
techniques biologiques, comportementales, morphologiques: (empreintes digitales, forme de
la main, traits du visage, dessin du réseau veineux de l'œil…). Ces derniers ont l'avantage
d'être stables dans la vie d'un individu et ne subissent pas autant les effets du stress par
exemple, que l'on retrouve dans l'identification comportementale.
Notre travail, a pour objectif d'utiliser la modalité de visage pour réaliser un
système de vérification de personnes. Bien que des progrès significatifs aient été
enregistrés pour de tels systèmes, la performance est encore loin d'être satisfaisante, ce qui
plaide d'ailleurs en faveur du développement des systèmes biométriques multimodaux
(combiner plusieurs biométries pour augmenter la fiabilité).
Introduction general
2
La détection et la reconnaissance de visage est un problème difficile en vision par ordinateur.
Nous avons choisi ce domaine afin d’apporter notre contribution dans ce domaine en illustrant
quelques techniques en reconnaissance de forme et présentant un système de détection et de
reconnaissance de visage qui sera exploiter comme plat forme pour les futurs travaux.
Notre travail est organisé comme suit:
Chapitre 1 : expliquer un état de l’art des principales de reconnaissance de forme et de la techniques
biométriques physiologiques et comportementales.
Chapitre 2:contient deux parties :
Partie1 : expliquer un état de l’art de système détection de visage et toutes les
méthodes pour détections
Partie2 : détections de visage par réseaux de neurone.
Chapitre 3 : contient aussi deux partie :
Partie1 : expliquer un état de l’art de système reconnaissance de visage et
toutes les méthodes pour reconnaissance
Partie2 : reconnaissance de visage basée sur l’Analyse en Composante
Principale(ACP) et reconnaissance de visage basée sur l’histogramme
Chapitre 4 : conception
Annexe: implémentation des méthodes proposer pour détection et reconnaissance de
visage
Conclusion
Chapitre 1 La reconnaissance de forme et La biométrie
3
1. Introduction :
La reconnaissance des formes est un domaine de l’informatique, qui a pour but de
prévoir et de reconnaître automatiquement les formes présentées dans les images. Les
principales difficultés qui diminuent la performance d’un système de reconnaissance de
formes est le changement d’arrière-plan, la rotation et la déformation de la forme dans
l’image. Les applications de cet art sont très nombreuses : la communication homme-
machine, en robotique, analyse de scènes complexes, le diagnostic médical, en télédétection,
la biométrie, etc., la liste est très longue et s’allonge chaque jour davantage.
La biométrie est une science qui s’est développée depuis le début du siècle passé.
Cette technique initiée par « Alphonse Bertillon » en 1903 s’appuie sur les caractéristiques
physiques ou comportementales d’un individu pour pourvoir le reconnaître. Elle a été
employée au début pour identifier les criminels, on s’est d’abord intéressé à l’empreinte
digitale qui s’est diffusée auprès des services de police. Ensuite, on a exploré d’autre
modalités telles que : la voix, le visage, l’iris, la forme de la main etc. Cette technologie est
actuellement envisagée pour un très grand nombre d’autres applications [1].
2. Reconnaissance de forme :
2 .1 .Définition : [2]
Une forme donnée à priori est décrite par un certain nombre de paramètres ou par des
relations entre paramètres. La reconnaissance des formes consiste à analyser et à identifier les
éléments d’une scène grâce à des capteurs sensoriels. Elle est définie comme étant l’ensemble
des techniques informatiques de représentation et de décision permettant aux machines de
simuler un comportement sensible.
Il s’agit de mettre au point des programmes et des logiciels capables de décrire et de
classifier des mesures prise du monde extérieur. L’objectif de la reconnaissance des formes,
est de reproduire les capacités de l’homme à reconnaitre des caractères, des objets, des sons,
ses signaux temporels, en étudiant de quelle manière il effectue cette tache
Chapitre 1 La reconnaissance de forme et La biométrie
4
2.2.Structure générale d’un système de reconnaissance de formes:[2]
Apprentissage
Figure1 : Schéma d’un système de reconnaissance de formes.
2..2 .1. Le monde extérieur :
C’est l’espace externe à la machine appelé «espace des formes», il constitue l’ensemble
des images d’objets qu’on désire reconnaître. Ces images sont transmises à la machine à
l’aide d’un capteur doté d’un convertisseur analogique-numérique.
2.2 .2. Le codage et prétraitement :
C’est là où interviennent les techniques du traitement numérique des images (filtrage,
binarisation, extraction de contours, segmentation, …etc.). Le but est de transformer l’image
acquise en un format adéquat à la méthode utilisée pour la reconnaissance.
Analyse
Le monde extérieur
Codage et Prétraitement
Comparaison
La base des
Connaissances
Décision
Chapitre 1 La reconnaissance de forme et La biométrie
5
2.2 .3. L’analyse :
A ce stade, la méthode de la reconnaissance choisie est appliquée afin d’extraire un
certain nombre de caractéristiques qui doivent posséder le maximum d’information utile et
qu’elles soient invariantes à la rotation, la translation et le changement d’échelle.
2.2 .4. L’apprentissage :
L’apprentissage est le processus par lequel un être humain, ou un programme, profite de
son expérience. Il consiste à faire des essais, et ensuite les cataloguer en fonction de leurs
classes d’appartenance. Donc, "reconnaître les formes qui sont déjà apprises" est une note très
importante dans les systèmes de reconnaissance de fait qu’ils s’inspirent du fonctionnement
du cerveau humain. Le résultat de cette opération est stocké dans des fichiers constituants la
base des connaissances.
2.2 .5. La décision :
Dans un système de reconnaissance de formes, on souhaite obtenir des réponses à des
questions posées dans un domaine donné. Ces réponses doivent être aussi proches que
possibles de celles fournies par un expert humain. Pour y arriver, il faut incorporer dans le
système un ensemble de règles de déduction. La valeur de la décision peut être, selon le
domaine, le nom de la forme, activer une action d’un robot ou autres.
2.3. Les méthodes utilisent pour la reconnaissance :
La reconnaissance de formes est une discipline essentiellement constructive, où il faut
étudier la faisabilité, analyser les problèmes, mettre au point les solutions et réaliser la mise en
œuvre informatique. Pour cela, plusieurs méthodes ont été développées, les plus classiques
peuvent être classées en deux catégories : les méthodes statistiques et les méthodes
structurelles. Au début des années 80, le monde de la reconnaissance de formes a donné
naissance à une autre classe de méthodes : les méthodes connexionnistes qui se basent sur les
réseaux de neurones. On va voir qu’aucune méthode n’est adéquate à tous les problèmes,
chacune d’elles présente ses avantages et ses inconvénients.
Chapitre 1 La reconnaissance de forme et La biométrie
6
2.3.1. Les méthodes statistiques :
Ces méthodes ont le schéma suivant :
Forme à reconnaître Espace d’apprentissage
Figure2 : Structure d’un système à décision statistique
La figure 2 présente deux chemins ; le chemin se trouvant à droite représente
l’apprentissage où sont répertoriées les formes en classes, ces classes seront à la disposition
d’un processus "intelligent" dit superviseur. Le chemin à gauche représente la trajectoire
suivie par la forme durant la phase de reconnaissance où sont extraites les caractéristiques.
Enfin, ces deux chemins vont être réunis pour fournir une décision, la règle de la décision est
basée sur un concept statistique et la classe adéquate est fournie en cas de succès.
a) La règle de décision Baye sienne :
Considérons un vecteur x de nℜ et un ensemble de k classe : = W1, W2,
Wk, il s’agit de reconnaître x comme appartenant à l’une des classes c’est à dire déterminer
la meilleure classe W*( x ).
Après avoir étudié la distribution statistique de l’ensembleΩ, on note :
Ω Ω
Extraction de caractéristique
Classification
Automatique
Superviseur Décision
Statistique
Classes
La classe reconnue
Chapitre 1 La reconnaissance de forme et La biométrie
7
P(Wi) : la probabilité d’appartenance à la classe i.
P ( x /Wi) : la densité de probabilité conditionnelle de x sachant Wi.
Supposons que l’on dispose des densités conditionnelles à priori P(Wi/ x ), la règle de décision
Baye sienne consiste à prendre :
si
En appliquant la formule de BAYES, on détermine que cette règle peut s’exprime aussi :
si
Cette formule est intéressante car on connaît la densité a posteriori p ( x /Wi). Le rôle de la
décision Baye sienne est de fournir une fonction de décision qui minimise le risque d’erreur
par décision prise. En raison de cet avantage, cette règle est très utilisée en reconnaissance de
formes.
b) La règle des k plus proches voisins :
Au cas où l’on ne disposerait d’aucune connaissance sur la distribution statistique de
l’ensemble d’apprentissage, la règle de BAYES est inapplicable. Par contre, on peut appliquer
la règle des K plus proches voisins qui a pour but que deux individus proches, au sens d’une
distance à choisir, ont plus de chance d’appartenir à une même classe que deux individus plus
éloignés [1].
Soit une forme x à reconnaître, on cherche autour de cette forme les k plus proches voisins,
parmi l’ensemble d’apprentissage, qui sont déjà affectés à une classe donnée (pas forcement
la même classe), la classe W*(x) qui sera attribuée à x est la jème classe telle que :
Avec :
c)La règle de Min distance :
Dans la méthode des k plus proches voisins, la distance entre chaque individu de l’ensemble
d’apprentissage et la forme à reconnaître est calculée. Dans la phase de décision ; la forme x
est affectée à la classe qui présente une distance minimale.
( ) jWxW =* )/()/(:1, xWPxWPkii ij ≥≤≤∀
( ) jWxW =* )()/()()/(:1, iijj WPWxPWPWxPkii ⋅≥⋅≤≤∀
ki
kj PPkii ≥≤≤∀ ,1,
kWàtappartenanprochesplusklesparmiindividusdnmbreLeP ik
i'
=
Chapitre 1 La reconnaissance de forme et La biométrie
8
d) distance euclidienne : Calcul de la distance entre le vecteur de forme de l'objet
inconnu et le vecteur de forme de l'objet de référence
La distance minimum est calculée selon la distance Euclidienne.
2.3.2. Les méthodes structurelles :
Les méthodes structurelles consistent à représenter les formes par des assemblages
structurés de motifs élémentaires appelés «primitives », ces primitives sont agencées de façon
à décrire au mieux la forme. Nous présenterons brièvement la méthode syntaxique et la
méthode à base d’arbres et de graphes.
a) La méthode syntaxique :
Cette méthode fait appel à des notions de la théorie de langage. Chaque classe est
décrite par une grammaire régulière, où l’analyse de chaque mot w peut être effectuée par un
automate d’états finis déterministe, telle que :
La reconnaissance d’une forme se fait alors par une analyse syntaxique de la phrase
(ensemble de primitives) qui la décrit. La classe dont la grammaire accepte la phrase associée
à la forme est retournée en résultat.
b) La méthode à base des arbres et de graphes :
Une forme est représentée par un arbre ou un graphe. Les nœuds représentent les primitives
et la localisation de leurs poids d’attache, les arcs décrivent la façon de relier ces points.
Le processus de la reconnaissance se décompose en deux étapes :
• Représenter la forme en question sous forme d’arbre ou de graphe.
• Comparer cette représentation à celle correspondante à chaque élément de la base en
effectuant un calcul de distance entre arbres (ou entre graphes).
( )SPVVG st ,,,
−
axiomeSprimitivesdesassemblageltpermetproductionderèglesP
auxternondesevocabulairVprimitivesdesensembleauxterdesevocabulairV
s
t
:'tan:
min:)(min:
Chapitre 1 La reconnaissance de forme et La biométrie
9
2.3.3 Les méthodes connexionnistes :
Un modèle connexionniste peut approximer n’importe quelle fonction. De ce fait, un tel
modèle peut facilement associer une forme d’entrée à sa classe.
Ce modèle est basé sur les réseaux de neurones. Un réseau de neurones est un réseau où
chaque nœud est un neurone formel. Un neurone formel est un automate à seuil qui
fonctionne pratiquement de la même façon qu’un neurone biologique.
a)Réseau de neurones :
Les neurones formels sont organisés en une structure d’un réseau, l’architecture la plus
utilisée est la "multicouches" : la couche d’entrée (input layer), la couche de sortie (output
layer) et la/les couches cachées (Figure3).
Le nombre des neurones dans la couche d’entrée est égal à la résolution de l’image de la
forme à reconnaître, le nombre dans la couche de sortie est égal au nombre des classes et en
fin le nombre des couches cachées ainsi que le nombre des neurones dans chacune d’elle est
déterminé de façon expérimentale.
Le réseau subi ensuite une opération d’apprentissage, cette dernière est basée sur le principe
de la rétro-propagation de l’erreur et elle lui permet de "répondre" à des problèmes de
classification par la suite.
Figure3 : Réseau de neurones multicouches (deux couches cachées).
La reconnaissance par les méthodes connexionnistes atteint un taux très élevé (jusqu’à
97%). Leur principal inconvénient est d’ordre technique et est dû aux difficultés que nous
Coche d’enterCoche caché 1 Coche caché 2 Coche de sorte
Chapitre 1 La reconnaissance de forme et La biométrie
10
rencontrons pour exploiter le parallélisme inhérent à ces modèles car la plupart des réseaux
sont simulés sur des machines séquentielles, ce qui entraîne des temps de calcul importants.
De plus, l’un des principaux reproches fait aux réseaux de neurones tient à leur incapacité à
expliquer les résultats qu’ils fournissent. Les réseaux se présentent comme des boites noires
dont les règles de fonctionnement sont inconnues. La qualité de leurs performances ne peut
être mesurée que par des méthodes statistiques, ce qui provoque parfois une certaine
défaillance de la part des utilisateurs potentiels.
3. La biométrie : 3.1. Définition :
Le terme désigne le secteur technologique destiné l’identification des individus au moyen
de leurs caractéristiques biologiques. Les techniques automatisées de reconnaissance évaluent les
caractéristiques physiques et comportementales des individus. La biométrie physique ordinaire
prend en compte les empreintes digitales, la géométrie de la main et de la paume, et les
caractéristiques de la rétine, de l’iris ou du visage. Les caractéristiques comportementales sont la
signature, la voix (qui est aussi un composant physique), le rythme de frappe et la démarche.
Parmi cette catégorie de biométrie, les technologies relatives à la signature et à la voix sont les
plus développées. [1,6]
Une caractéristique physiologique et/ou comportementale peut être utilisée comme un
identificateur biométrique pour reconnaître des personnes si et seulement si elle satisfait les
conditions suivantes :
§ Universalité : chaque personne possède l'attribut biométrique.
§ Distinction : la caractéristique possédée est suffisamment différente
entre deux personnes.
§ Permanence : elle reste invariable pendant une période de temps.
§ Récupérable : peut être mesurée quantitativement.
Cependant dans la pratique, un système biométrique doit prendre en compte autres considérations
comme :
Chapitre 1 La reconnaissance de forme et La biométrie
11
§ Performance :référant la précision de reconnaissance, la rapidité et les ressources requises
pour atteindre le niveau de précision et de rapidité désirée.
§ Acceptabilité :l'étendue à laquelle les gens sont prêts à accepter un identifiant biométrique
dans leurs vies quotidiennes.
§ Abuse ment : qui reflète la vulnérabilité du système aux attaques illicites.
3 . 2 . Panorama des différentes biométries : [1, 2,8]
Un bon nombre de caractéristiques biométriques sont utilisées aujourd'hui dans plusieurs
applications. Chaque attribut a ses points forts et faibles et le choix dépend de l'application. Aucun trait
biométrique ne peut satisfaire les exigences de toutes les applications ; il doit y avoir une correspondance
entre l'application et l'attribut biométrique selon les propriétés et caractéristiques de chacun. Les
biométries les plus utilisées sont:
Figure 4 : Quelques biométries ordonnées selon leur unicité.
ADN :Acide désoxyribonucléique est le code unique, ultime et unidimensionnel de l'individualité, sauf pour les
jumeaux qui ont le même modèle. Il est notamment surtout utilisé dans les applications médico-légales
pour la reconnaissance de personnes. Trois inconvénients majeurs limitent l'utilisation de cette
caractéristique dans d'autres contextes :
Ø Contamination et sensibilité : Il est facile de se procurer un morceau d'ADN
pour en abuser sans éveiller le moindre soupçon.
Chapitre 1 La reconnaissance de forme et La biométrie
12
Ø Inconvénients dus à la reconnaissance automatique en temps réel : la
technologie actuelle de reconnaissance d'ADN impose des méthodes chimiques
encombrantes avec la supervision d'un expert humain.
Ø Vie privée : L'ADN est le support de l'information génétique et l'utilisation
inappropriée de ces informations peut résulter un abus ou une discrimination
envers les personnes concernées.
Iris :La texture visuelle de l'iris humain est déterminée durant le développement fœtal. Cette
texture complexe est distincte pour chaque individu et chaque œil. Le processus de capture de
l'image d'iris se déroule sans contact œil - détecteur mais avec coopération de l'utilisateur. La
technologie de reconnaissance de l'iris est extrêmement précise et rapide.
Rétine :Le système vasculaire de la rétine est une très riche structure et typique à chaque
individu et chaque œil. Cette biométrie est considérée comme étant la plus sûre et la plus
sécurisée. En faites, il n'est pas évident de répliquer toute une structure de vaisseaux. Pour
capturer l'image, l'utilisateur doit jeter un coup d'œil dans un et se concentrer sur un endroit
spécifique dans le champ visuel pour qu'une partie prédéterminée des veines rétiniennes soit
retenue. L'acquisition de cette image nécessite un contact avec EYEPIECE ainsi qu'une
coopération de l'utilisateur, sachant aussi que cette technologie peut aussi révéler certaines
maladies oculaires. Ce qui affecte beaucoup l'acceptabilité publique des systèmes de
reconnaissance rétinienne.
Thermographie infrarouge du visage, la main et veines de la main :Le modèle de chaleur émis
par le corps humain est caractéristique à chaque individu et peut être capturé par une caméra
infrarouge discrètement. Cette technologie peut distinguer entre les jumeaux identiques ; elle
est bien appropriée aux systèmes dissimulés, mais son utilisation dans des environnements
non contrôlés surtout chauds reste un défi. Une technologie relative existe « proche de l'infra
rouge», elle est utilisée pour scanner de derrière un poing serré et déterminer la structure des
veines de la main. Les capteurs infrarouges sont très coûteux ce qui est un facteur majeur
inhibant la propagation de cette technologie.
Chapitre 1 La reconnaissance de forme et La biométrie
13
Visage: La reconnaissance faciale est une méthode très souple et c'est aussi la biométrie la
plus acceptable publiquement, ce qui est certainement dû au fait que le visage est l'attribut le
plus fréquemment utilisé par les humains pour s'identifier dans leurs interactions visuelles.Les
performances actuelles des systèmes d'identification faciale disponibles sont raisonnables,
mais ils imposent notamment des restrictions sur la position du visage, la nature de l'arrière-
plan (fixe ou mobile, simple ou non) et même l'éclairage parfois. En plus, il est généralement
difficile de reconnaître un même visage sous différents angles de vues et éclairages. Un
système d'identification faciale performant doit donc être capable de :
Détecter la présence d'un visage dans l'image acquise.
Localiser un visage, s'il y en a un.
Reconnaître un visage d'un point de vue quelconque.
Signature :Chaque individu signe son nom de manière typique. La signature est une
caractéristique comportementale non permanente et influençable par les conditions physiques
et émotionnelles du signataire. Elle semble être acceptée dans beaucoup de gouvernements
comme moyen de vérification dans les transactions médico-légales et commerciales, malgré le
fait qu'elle impose un contact et un effort de la part de l'utilisateur. Les signatures de certaines
personnes varient beaucoup et sont visiblement différentes ; en plus un contrefacteur
professionnel peut facilement reproduire une signature.
Voix :La voix est une biométrie acceptable dans la majorité des sociétés. Elle n'est pas assez
distinctive pour permettre l'identification d'une personne à partir de grandes bases de données
et la qualité du signal de voix disponible peut être dégradée par un microphone, chaîne de
communication. Elle peut être aussi affectée par la santé de la personne, le stress, les
émotions. Cette biométrie a désavantage d'être facilement falsifiée.
3.3. Les systèmes biométriques:[1, 2,7]
Un système biométrique est essentiellement un système de reconnaissance de formes qui reconnaît une
personne déterminant l'authenticité d'une caractéristique spécifique possédée par cette personne et ce la
en comparant la donnée biométrique entrée avec une base de données.
Chapitre 1 La reconnaissance de forme et La biométrie
14
Figure5:.schéma d’un système biométrique générale.
Ø Le module détecteur :qui capture la donnée biométrique d'un individu.
Ø Le module d'extraction de caractéristiques : dans lequel on traite la donnée biométrique acquise
pour extraire les valeurs caractéristiques. Par exemple, la position et l’orientation.
Ø Le module de correspondance :dans le quelles valeurs caractéristiques extraites sont comparées
avec les Template stockés pour produire un résultat.
Ø Le module de base de données de système qui est utilisé par le système biométrique pour stocker
les Template biométriques des utilisateurs enrôlés. Le module d'enrôlement est responsable d'inscrire
les individus dans la base de données du système biométrique.
Dans la conception d'un système biométrique pratique, une question importante est
posée : « Comment reconnaît-on un individu ? ». Selon le contexte de l'application, un système
biométrique peut être un système de vérification ou un système d'identification.
§ Un système de vérification répond simplement à la question « Suis-je qui je prétends
être ? ». Il authentifie l'identité d'un individu en comparant sa caractéristique
biométrique capturée avec la Template de l'identité prétendue qui est stockée dans le
système. Dans un tel système, l'utilisateur devra entrer son identité et sa caractéristique
biométrique, ce qui conduira à une seule comparaison la donnée capturée avec la
donnée stockée. Le résultat sera un rejet« la personne n’est pas qui elle prétend être » ou
une acceptation« la personne est bien qui elle prétend être ».
Chapitre 1 La reconnaissance de forme et La biométrie
15
§ Un système d'identification répond plutôt à la question « Qui suis-je ? ». La
reconnaissance de l'identité d'une personne se fera alors en cherchant dans toute la base
de données du système une Template correspondante à la donnée biométrique capturée.
Le système établit donc plusieurs comparaisons. Dans un système d'identification, le
but est de révéler l'identité du sujet, l'utilisateur n'aura pas à donner une identité.
Selon le domaine d'application un système biométrique peut être en ligne ou en hors ligne. Les
systèmes en ligne sont totalement automatiques sans contrôle durant l'enrôlement, la correspondance ou
même la prise de décision. Us sont munis de capteurs live-scan et exigent une reconnaissance rapide et
une réponse immédiate; contrairement aux systèmes hors ligne qui tolèrent un certain délai de réponse et
qui sont semi-automatique (ex: dans une application médico-légale la prise de décision est supervisée par
un expert ou un officier de police), l'acquisition de la caractéristique biométrique peut être faite à partir
d'un scanner hors ligne, avec un éventuel contrôle manuel de la qualité d'inscription d'un utilisateur.
Une application peut opérer dans un mode positif ou négatif de reconnaissance :
§ Dans une reconnaissance positive, le système établit si l'identité d'une personne est vraiment celle
prétendue. Le but est de prévenir l'utilisation d'une même identité par plusieurs personnes. Par
exemple si seulement Kamel est autorisé à entrer dans un secteur sécurisé, le système comparera la
Template sauvegardée de Kamel avec celle entrée et résulte un rejet (ce n'est pas Kamel) ou une
acceptation (c'est Kamel).
§ Dans une reconnaissance négative, le système établit si un individu nie sa vraie identité. Le but ici est
donc de prévenir un individu d'utiliser plusieurs identités. Par exemple si Kamel a déjà reçu son aide
sociale et veut maintenant prétendre être Samy pour escroquer son aide sociale, le système établira
alors que ce n'est pas Samy; en comparant la donnée biométrique de Samy avec la base donnée des
gens qui ont reçus leurs bénéfices et résulte un rejet (non trouvé dans la liste) ou autrement une
acceptation.
Un système biométrique peut être classé selon autres caractéristiques. Le DR. James L.Wayman
(Directeur du centre national biométrique de test à San José State University - San José, Californie) a
suggéré que toutes les applications biométriques pourront être classées dans tes catégories à partir de
leurs caractéristiques :
1. Coopératif ou non coopératif.
2. Manifeste ou secrète.
Chapitre 1 La reconnaissance de forme et La biométrie
16
3. Habitué ou non habitué.
4. Supervisé ou non supervisé.
5. Environnement de fonctionnement standard ou non standard.
6. Public ou privé.
7. Ouvert ou fermé.
§ Coopératif ou non coopératif se réfère au comportement d'un imposteur interagissant avec le
système. Par exemple, dans une reconnaissance positive, l'imposteur préfère coopérer avec le
système pour être accepté en tant qu'utilisateur authentique ; alors que dans une reconnaissance
négative, il est mieux pour un imposteur de ne pas coopérer avec le système pour ne pas être
reconnu. Une application d'identification de terroristes dans un aéroport est un exemple de système
non coopératif alors qu'une application banquière est un exemple de système coopératif
§ Si un utilisateur est conscient qu'il est sujet de reconnaissance biométrique, l'application est
considérée manifeste ; autrement elle est considérée secrète. Les applications commerciales sont
généralement manifestes alors que les applications médico-légales et de surveillance sont plutôt
secrètes et aussi, la majorité des applications de vérification sont implicites tandis que celles
d'identification sont explicites.
§ Les utilisateurs enregistrés d'un système biométrique peuvent être habitués ou non habitués au
système, selon le nombre de fois où ils auront à procéder une reconnaissance biométrique. Les
utilisateurs d'une application de renouvellement de permis de conduire sont inhabituels, alors que
ceux d'une application de connexion à un réseau informatique sont habitués car ils l'utilisent
régulièrement. Cette caractéristique est très importante car la familiarisation des utilisateurs avec le
système affecte la précision de reconnaissance.
§ Le processus d'acquisition des données biométriques dans une application peut être observé, guidé
ou assisté par un humain, l'application est alors dite supervisée, dans le cas contraire elle est dite non
supervisée. En outre, une application peut être supervisée durant l'inscription et non supervisée
durant la reconnaissance. Les applications non coopératives requièrent généralement des opérations
assistées.
§ Un environnement standard ou non standard se rapporte aux conditions extérieures du
fonctionnement d'un système, c'est-à-dire un environnement contrôlé (température, pression,
humidité, luminance) ou non. Typiquement, les applications d'intérieur opèrent dans un
environnement standard (contrôlé) alors que celles d'extérieur opèrent dans un environnement non
Chapitre 1 La reconnaissance de forme et La biométrie
17
standard. Cette classification est aussi importante pour le choix du capteur adéquat ; dans un
environnement non standard l'usage d'un capteur rigoureux est exigé.
§ La dichotomie privé ou public indique la nature des utilisateurs d'une application: des clients ou des
employés.
§ Un système est classé ouvert ou fermé selon le fait que la base de données utilisé soit consultée par
un ou plusieurs systèmes biométriques. Un système fermé aura une base de données qui lui sera
propriétaire contrairement à un système ouvert où des formats standard et des méthodes de
compressions seront nécessaires.
Notons que les applications commerciales sont généralement coopératives, manifestes avec utilisateurs
habitués, inscription supervisée et reconnaissance non supervisée, environnement standard, privées et
fermées.
3.4. Application de la biométrie :
L'application de la reconnaissance biométrique peut être divisée à trois groupes:
§ Applications commerciales : comme connexion aux réseaux informatiques, sécurisation
des données électroniques, e-commerce, accès internet, distributeur automatique de billets,
carte de crédit, contrôle d'accès physique, cellulaire, PDA, gestion des rapports médicaux
et l'apprentissage à distance.
§ Applications gouvernementales: comme les cartes d'identité nationale, établissement
pénitentiaires, permis de conduire, sécurité sociale, contrôle des frontières et des
passeports,
§ Applications médico-légales : comme l'identification de cadavres, investigation
criminelle, identification terroriste, détermination de paternité et des enfants disparus.
Traditionnellement, les applications commerciales utilisaient des systèmes basés sur la
connaissance (ex: PIN, mots de passes), tandis que les applications
Gouvernementales utilisaient plutôt des systèmes basés sur la possession (ex : cartes d'identité et badges)
et celles médico-légales comptaient sur les experts humains pour faire les correspondances biométriques.
Les systèmes biométriques sont de plus en plus déployés dans les applications civiles.
(Voir la figure .6).
Chapitre 1 La reconnaissance de forme et La biométrie
18
Figure 6 :Exemple d’application biométrique
4. Conclusion :
Nous avons vu la richesse de l’art de la reconnaissance de formes(Biométrie) et les
différentes applications qui en tirent bénéfice en jouant leurs rôles de sophistiquer la vie
humaine. Nous avons aussi présenté plusieurs méthodes utilisées pour la reconnaissance des
formes et que chacune d’elle présente ses avantages et ses inconvénients, c’est à dire qu’il
n’existe pas une méthode adaptée à tous les problèmes.
Chapitre 2 La détection des visages
19
1. Introduction : La détection de visages peut être visualisée comme un outil très important pour un système
de recherche. Elle (la détection des visages) consiste à donner une image simple et d’identifier
toutes les régions d’images qui contiennent un visage indépendamment de sa position,
orientation, et états tridimensionnels d’éclairage. La détection automatique de visages
humains dans les séquences vidéo est généralement utilisée dans les systèmes temps réel. Elle
nécessite non seulement la localisation de visage mais aussi le suivi du visage dans une
séquence d'images. Le but des systèmes de détection des visages est de pouvoir détecter des visages avec de
bas taux d'erreurs et de donner les paramètres d'évaluation qui correspond à la position,
l’orientation, et la pose des visages avec une précision raisonnable. Pour être plus spécifique,
les systèmes considérés produisent un ensemble de prévisions comprenant la position,
orientation et pose d'un visage possible. Chacune de ces prévisions est associée à une mesure
de certitude, mais on considère que les prévisions avec une mesure de certitude au-dessus d'un
certain seuil. Un visage est considéré être détecté quant au moins une prévision est dans une
précision raisonnable de paramètres vrais. Il y a deux taux intéressants qui peuvent être
mesuré dans chaque système de détection de visage en utilisant un ensemble d'images
d’essai :
• Taux de détection : Le pourcentage des visages qui ont été détectés, c’est à dire ayant une
prévision près des paramètres vrais.
• Nombre moyen de fausses détections : Le nombre moyen de fausses détections (c’est à
dire prévisions loin des paramètres vrais) par image.
2. La détection de visage :
2.1. Problématique:
2.1.1. Les systèmes d’identification des visages :
L’identification de visage a réveillé beaucoup d’attention ces dernières années dues à
l'énorme quantité d'applications possibles. Ces applications peuvent s'étendre de systèmes
visuels d'indexation jusqu’aux systèmes d'accès de sécurité. Cependant, les visages doivent
être localisés premièrement, et la plupart des systèmes d'identification de visage ignorent cette
Chapitre 2 La détection des visages
20
étape importante et ils supposent que le visage est déjà segmenté ou ils emploient directement
des visages localisés au-dessus d'un fond uniforme qui rend la segmentation insignifiante.
Dans une vraie application les deux problèmes sont également importants et évidemment
aucune identification ne sera possible si le visage n'a pas été précédemment extrait à partir de
l'image. [11]
2.1.2. Suivi du visage (face tracking) :
La détection de visage peut être employée pour les systèmes qui suivent
automatiquement le visage d'une personne (poursuivre le visage dans une séquence). C'est
particulièrement utile pour les applications visuelles de surveillance ou pour les systèmes
visuels intelligents où il est possible de changer l'orientation et le bourdonnement de l'appareil
photo automatiquement, on encadre les haut-parleurs tandis que leurs mouvements sont libres
autour de la salle.
2.1.3. Perfectionnement d'image :
La détection de visage peut être utilisée également dans des tâches de post-traitement
pour le perfectionnement d'image. Par exemple, la connaissance de la position de visage peut
être utile pour le réglage automatique de la région faciale. D’autres proposent la méthode
basée par trame automatique pour rajuster automatiquement la tonalité et la saturation pour
des signaux de TV.
2.1.4. Etude des expressions faciales (Facial expression study) :
Un des plus nouvelles applications qui nécessite la détection de visage est l'étude des
expressions faciales. La détection de visage est utilisée dans ce type d’application pour la
localisation, et le repérage automatique d'autres composants de visage (nez, bouche, yeux...).
2.1.5. Les problèmes dans la détection de visage :[12]
Les problèmes liés à la détection de visage peuvent être attribués aux facteurs suivants:
• Pose :
Les images d'un visage changent, au changement relatif de la pose d'appareil photo
(bandeau, 45 degrés, profil, d'à l'envers), et certains dispositifs faciaux tels qu'un œil ou le
nez peuvent devenir partiellement ou complètement occlue.
Chapitre 2 La détection des visages
21
• Présence ou absence des composants structuraux :
Les dispositifs faciaux tels que les barbes, les moustaches, et les verres peuvent ou ne
peuvent pas être présents et il y a beaucoup de variabilité parmi ces composants comprenant
la forme, la couleur, et la taille.
• Expression faciale :
L'aspect des visages est directement affecté par l'expression faciale d'une personne.
• Occlusion :
Des visages peuvent être partiellement occlus par d'autres objets. Dans une image avec un
groupe de personnes, quelques visages peuvent partiellement occlure d’autres visages.
• Orientation d'image :
Les images de visage changent directement pour différentes rotations autour de l'axe optique
de l’appareil photo.
• Les conditions d’acquisition de l’image :
Quand l'image est formée, les facteurs tels que l'éclairage (spectres, distribution de source de
luminance et intensité) et les caractéristiques d'appareil photo (réponse, objectifs de capteur)
influent sur l’apparence de visage.
2.2. Méthodes de détection de visage :
Tous ces facteurs (compliquant le problème) font de la détection des visages un
véritable challenge qui n’a pas fini de captiver l’intérêt des chercheurs désirant relever les
défis. Ainsi, durant ces vingt dernières années, de nombreuses approches ont été proposées,
elles se répartissent en deux catégories : approches basées sur les traits du visage (features
based approches) et approches basées sur l'image (image based approches) (Figure7). Cette
répartition spécifique à la détection de visages est basée sur la manière avec laquelle les
images et les visages sont traité, elles diffèrent de celle de la reconnaissance des formes qui
est plus générale.[13]
Chapitre 2 La détection des visages
22
s
Figure7 : Méthodes de détection des visages divisées en catégories principales et secondaires.
2.2.1. Les facteurs de qualité d'une méthode de détection :
Plusieurs méthodes de détection de visages ont été proposées. Le problème était
comment évaluer la performance de ces méthodes. Plusieurs métriques ont été adoptées pour
évaluer les algorithmes, tels que le temps d'apprentissage, le temps d'exécution, le nombre
d'échantillons nécessaires à l'apprentissage et le rapport entre le taux de détection et les
fausses alarmes. Le taux de détection est défini comme le rapport entre le nombre de visages
correctement détectés et le nombre de visages détectés par l'Etre humain.
La partie de l'image identifiée comme étant un visage est considérée correcte si elle
couvre un certain pourcentage de visages présents dans l'image. Généralement, les détecteurs
de visages peuvent faire deux types d'erreur : les faux négatifs où le visage n'est pas détecté et
les faux positifs où une partie de l'image est déclarée comme visage mais elle ne l'est pas. Une
évaluation juste doit prendre en considération ces facteurs.
Détection de visages
Approches basées image
Approches basées traits
Règles généralisées de la connaissance
Appariement de modèles
Analyse bas niveau
Réseaux à apprentissage
Approches statistiques
Méthodes de sous espaces linéaire
Chapitre 2 La détection des visages
23
2.2.2. Approches basées sur les traits du visage (Feature-BasedApproches) :
La plupart des approches feature-based ont des étapes consécutives semblables.
Habituellement, la première étape consiste à faire éliminer les pixels sans importance en
utilisant par exemple le filtrage des couleurs ou bien la détection des bords (edge
détection).Les résultats obtenus par la première étape sont ambigus. Dans la deuxième étape,
les dispositifs visuels qui n’ont pas été éliminé dans la première étape, sont organisés dans
une connaissance de visage globale ou géométrie. Puis une analyse de dispositifs est
employée pour que les dispositifs ambigus soient réduits, et les endroits du visage et des
dispositifs faciaux sont déterminés. L’étape finale peut comporter l'utilisation des Template
ou des modèles de forme active.
2.2.3.LowLevelFeatureAnalysis (Analyse bas niveau) :
a.Contour (Edge) :
Algorithme de Sirohey: c'est une méthode de segmentation d'image qui utilise une carte
de contours et des considérations heuristiques. Il regroupe les contours qui correspondent à
ceux du visage et rejette les autres. Son algorithme obtient 80% de réussite.
b. Couleur de peau (Skin Color) :
La couleur de peau humaine a été employée comme un dispositif pertinent dans
beaucoup d'applications pour la détection de visage. Bien que les personnes aient la couleur
différente de peau, des études ont montré que la variabilité de la couleur de la peau tenait plus
de la différence d'intensité plutôt que de la chromaticité (chrominance). On peut utiliser
plusieurs types d'espaces de couleurs (RGB [6], RGB normalisé, [7]HSV ,YCbCr, YIQ, CIE
XYZ , CIE LUV …).
De nombreuses méthodes ont été proposées pour établir un modèle de couleur de peau.
Cependant, ces modèles de couleur de peau ne sont pas pertinents où le spectre de la source
lumineuse change de manière significative. En d'autres termes, l'aspect de couleur est souvent
dû instable aux changements du fond et de l’éclairage. Malgré ces problèmes de l'invariance
de couleur de peau, elle reste un outil efficace pour identifier des zones faciales. En outre
plusieurs approches ont été proposées pour utiliser la couleur de peau dans des états
d’éclairage variables. McKenna et al ont présenté un modèle adaptatif de mélange de couleur
de visages dans des conditions d'illumination variables. Au lieu de compter sur un modèle de
Chapitre 2 La détection des visages
24
couleur de peau basé sur la constance de couleur, ils avaient un modèle stochastique pour
estimer la distribution de la couleur d'un objet en ligne et s'adapter au changement des
conditions d'éclairage.
Cependant, l'information de couleur n’est pas utilisable lorsque le spectre de couleurs
varie de manière significative entre l'arrière-plan et le visage. D'autres études ont cependant
montré que la combinaison d'analyse de formes, de segmentation de couleurs et
d'informations de mouvement pour la localisation et le suivi de visages dans des séquences
conduit à des résultats intéressants.
c. Mouvements :
L’information de mouvement est une manière commode de localiser les objets mobiles
quand un ordre visuel est fourni. Dans un secteur utilisant cette information il est possible
d’enfermer le visage. [14], Luthon et autre utilisent la différence de tramepour localiser les
dispositifs faciaux, tels que les yeux. Une autre manière de mesurer le mouvement visuel est
par l'évaluation des découpes mobiles d'image. Comparé à la différence de trame, les résultats
Produits des découpes mobiles sont toujours plus fiables, particulièrement quand le
mouvement est insignifiant [15]. Mais cette méthode ou technique reste non fiable quand elle
est utilisée tout seul.
2.2.4. TemplateMatching (Appariement de modèles) :
Les Template peuvent être définis soit "manuellement", soit paramétrés à l'aide de
fonctions. Ensuite, on calcule la corrélation entre l'image candidate et cette origine.
L'existence d'un visage est déterminée en basant sur les valeurs de corrélation. Cette approche
a l'avantage d'être simple pour mettre en application. Cependant, elle s'est avérée
insatisfaisante pour la détection de visage puisqu'elle ne peut pas parfaitement traiter la
variation de l'échelle, pour la pose, et la forme. On a ultérieurement proposé le multiscale de
Multi-résolution, les sous-Template, et les Template déformable pour réaliser l'échelle et
l'invariance de forme[16]. Kwon et al[17] ont proposé une méthode de détection basée sur des
snake settem plates. Dans cette approche, une image est transformée la première fois avec un
filtre de flou puis avec l'opérateur morphologique pour augmenter les bords. Le snake a pour
but de trouver et éliminer les petits segments. Chaque candidat est rapproché en utilisant une
ellipse, et pour chacun de ces candidats, la méthode de Template déformable est employée
pour trouver les dispositifs détaillés. Si un nombre suffisant de dispositifs faciaux sont
Chapitre 2 La détection des visages
25
trouvés, et leurs rapports satisfont les rapports de testes de Template, le visage est considéré
être détecté.
Une autre méthode une méthode de localisation basée sur un descripteur de forme
d'un visage (c’est à dire la forme d’ensemble d'un visage) a été présentée [18]. D'abord, Un
filtre de Sobel est utilisé pour extraire les bords. Ces bords sont groupés ensemble pour
rechercher les visages en basant sur le descripteur (Template) de visages. Après la
localisation de la tête, le même processus est répété pour localiser des dispositifs tels que des
yeux, sourcils, et lèvres. Plus tard, Craw et al décrivent une méthode de localisation en
utilisant un ensemble de 40 descripteurs pour rechercher des dispositifs faciaux et une
stratégie de commande pour guider et évaluer les résultats des détecteurs basés sur les
templates des dispositifs.
2.2.5. GeneralizedKnowledgeRules (Règles généralisées de la connaissance) :
Dans des approches basées sur la connaissance généralisées, les algorithmes sont
développés en basant sur l'heuristique au sujet de visage. Bien qu’il soit simple de créer
l'heuristique pour décrire le visage, la difficulté principale est dans la traduction de ces
heuristiques dans des règles de classification d'une manière efficace. Si ces règles sont trot
détaillé, elles peuvent proposer des détections manquées ; d’autre part, si elles sont plus
générales elles peuvent présenter beaucoup de fausses détections. Néanmoins l’heuristique
peut être employée à un taux acceptable.
2.2.6. Approches basées sur l'image (Image-BasedApproaches) :
Contrairement aux approches feature-based, les approches image-based utilisent
l'exemple de représentation d'image, au lieu de la représentation abstraite des dispositifs. En
général, les approches image-basé se fondent sur l’analyse statistique. La détection de visage
est un problème de classification en deux classes (visage, non-visage) qui se fondent sur des
différentes caractéristiques (cultivées), généralement sous forme de distributions.
La plupart des approches image-based appliquent une technique d’exploration
deWindows pour détecter des visages. L'algorithme de lecture de Windows utilise une
recherche approfondie sur l’image d’entrée dans les emplacements possibles de visage à
toutes les échelles, mais il y’a des variations de la mise en place de cet algorithme pour
presque tous les systèmes image-based. Typiquement, la taille du Windows de lecture, le
Chapitre 2 La détection des visages
26
nombre d’étapes, et le nombre d'itérations changent selon la méthode proposée et le besoin du
système de calcul.
2.2.7.Méthodes de sous espaces linéaire (LinearSubspaceMethods) :
Kirby et Sirovich [13] ont montré que les images de visages peuvent être généralement
décomposées en une combinaison linéaire d'un petit nombre d'images de base (ou "image-
propre"). On utilise pour ça la transformation de Karhunen-Loève (KLT pour Karhunen-
Loève transform) ou bien l'Analyse en composantes principales (ACP), et la transformation
Hotelling transform. Cette collection de vecteurs de bases peut être facilement obtenue car ce
Sont les vecteurs de base de la matrice de covariance calculée à partir des vecteurs des images
d'apprentissage. On obtient un vecteur poids bien plus facilement exploitable que l'image
Originale. Des expériences avec 100 images ont montré qu'une image comportant un visage
(en position canonique) peut être efficacement encodée avec 50 images propres seulement,
capturant ainsi 95% de la variance (i.e. 50% de l'info). Pour ensuite identifier l'image en tant
que visage (ou bien pour le reconnaître), il suffit de chercher dans la base de données le
visage dont le vecteur de poids est le plus proche (par calcul de distances euclidiennes) de
l'image à traiter. On a remarqué que la projection d'une image de visage est très différente de
celle d'une image n'en contenant pas. La détection est donc aisée.
Pour pallier le problème de l'orientation, on peut stocker les visages dans plusieurs
positions (et en calculant les vecteurs de poids correspondants). La méthode est également
robuste aux variations d'éclairage. En revanche, elle ne l'est pas du tout aux variations
d'échelle (mais un changement d'échelle préalable est toujours possible). Plus embêtant, cette
méthode n'est pas robuste aux variations de l'expression du visage. En d'autres termes, l'ACP
permet de distinguer une image contenant un visage d'une image n'en contenant pas, mais
n'est pas capable de reconnaître 2 visages identiques mais d'expressions différentes. Certains
chercheurs ont tenté de constituer une base de données qui enregistrait, pour chaque individu,
plusieurs expressions différentes, c’est à dire, elle n’est pas efficace pour les systèmes de
reconnaissances des visages.
Sung et Poggio [19] ont développé un système basé sur la distribution pour la
détection de visage quia démontré comment les distributions des configurations d'image d'une
classe d'objet peuvent être apprises comme des exemples positifs et négatifs (c’est à dire
images) de cette classe. Leur système se compose de deux composants, de modèles
Chapitre 2 La détection des visages
27
distribution-based pour des configurations de visages/non visages et d'un classificateur
multicouche perceptif (perceptron). Chaque exemple de visage et de non-visage est d'abord
normalisé à 19*19 Pixel et traité comme un vecteur de 361-dimension ou configuration.
Ensuite, les configurations sont groupées dans six visages et six non-visages batteries et en
utilisant un algorithme de modification k-means, comme montré dans la figure (Figure. 8).
Figure8:Distribution-based canonical face model.
Chaque batterie (Cluster) est représentée comme une fonction gaussienne
multidimensionnelle avec une image moyenne et une matrice de covariance. Figure
(Figure9) montre les mesures de distance dans leur méthode.
Chapitre 2
Figure 9 : Schéma montre les
Deux métriques de distance sont calculées entre une configuration d'image d'entrée et
les batteries de prototype. Le premier composant de distance est la distance normale de
Mahalanobis entre la carte-test et le centre de surface de batterie, mesurée dan
espace bas-dimensionnel enjambé par les 75 plus grands vecteurs propres de la batterie. Le
deuxième composant de distance est la distance euclidienne entre la carte
projection.
2.2.8.Réseaux à apprentissage (Learning Networks
Les réseaux neurologiques ont été appliqués avec
reconnaissance de formes, tels que
d'objet. Puisque la détection de visage peut être traitée comme
configuration de deux classes, on a présenté
L'avantage d’utiliser les réseaux neurologiques pour la détection de visage est
praticabilité de former un système pour capt
des configurations de visage. Cependant, un inconvénient est que l'architecture de réseau
être intensivement accordée (nombre de couches, nombre de nœuds
pour obtenir l'exécution exceptionnelle.
La détection des visages
28
montre les mesures de distance employées par Sung et Poggio.
Deux métriques de distance sont calculées entre une configuration d'image d'entrée et
les batteries de prototype. Le premier composant de distance est la distance normale de
test et le centre de surface de batterie, mesurée dan
dimensionnel enjambé par les 75 plus grands vecteurs propres de la batterie. Le
deuxième composant de distance est la distance euclidienne entre la carte
Learning Networks) :
Les réseaux neurologiques ont été appliqués avec succès dans des nombreuses tâches de
tels que l’identification des caractères optique, l’identification
d'objet. Puisque la détection de visage peut être traitée comme problème d’identification
configuration de deux classes, on a présenté de diverses architectures de réseau neurologique.
réseaux neurologiques pour la détection de visage est
de former un système pour capturer la densité conditionnelle de classe complexe
des configurations de visage. Cependant, un inconvénient est que l'architecture de réseau
intensivement accordée (nombre de couches, nombre de nœuds, cadences d'étude, etc...)
ution exceptionnelle.
a détection des visages
distance employées par Sung et Poggio.
Deux métriques de distance sont calculées entre une configuration d'image d'entrée et
les batteries de prototype. Le premier composant de distance est la distance normale de
test et le centre de surface de batterie, mesurée dans un sous-
dimensionnel enjambé par les 75 plus grands vecteurs propres de la batterie. Le
deuxième composant de distance est la distance euclidienne entre la carte-test et sa
des nombreuses tâches de
l’identification des caractères optique, l’identification
lème d’identification de
architectures de réseau neurologique.
réseaux neurologiques pour la détection de visage est la
de classe complexe
des configurations de visage. Cependant, un inconvénient est que l'architecture de réseau doit
d'étude, etc...)
Chapitre 2 La détection des visages
29
Propp et Samalont développé un réseau neurologique pour la détection de visage. Leur
réseau se compose de quatre couches avec 1.024 unités d'entrée, 256 unités dans la première
couche cachée, huit unités dans la deuxième couche cachée, et deux unités de sortie.
Vaillant et al avaient un réseau neurologique convolution aire pour détecter des
visages dans les images. Des exemples des images de visage et de non-visage des 20*20
Pixels sont d'abord créés. Un réseau neurologique est formé pour trouver des emplacements
approximatifs des visages. Un autre réseau est formé pour déterminer la position exacte des
visages, en d’autre terme, des zones qui peuvent contenir des visages sont choisis comme
candidats de visage par le premier réseau. Ces candidats sont vérifiés par le deuxième réseau.
Lin et al [15] ont présenté un système de détection de visage en utilisant le réseau
neurologique décision-based probabiliste (PDBNN). PDBNN est un réseau neurologique de
classification avec une structure hiérarchique modulaire. Au lieu de convertir une image
entière de visage en un vecteur de formation qui contient des valeurs d'intensité, ils sont
préféré d’extraire des vecteurs de dispositif basés sur l'information d'intensité et de bord dans
Les régions faciales qui contiennent des sourcils, des yeux, et le nez. Les deux vecteurs
extraits de dispositif sont introduits dans deux PDBNN’s et la fusion des sorties déterminent
le résultat de classification.
Parmi les méthodes de détection de visage qui ont utilisé les réseaux neurologiques, il
existe aussi le travail le plus significatif est plus discutable qui est effectué par Rowley et al
[16]. C’est un réseau neurologique multicouche employé pour apprendre les configurations
des visages et des non-visages à partir des images de visage/non-visage (c’est à dire les
intensités et les rapports spatiaux des pixels) tandis que Sang utilise un réseau neurologique
pour trouver une fonction pour classifier les modèles de visage et de non-visage en utilisant
des mesures de distance. Ils ont également utilisé les réseaux neurologiques multiples et
plusieurs méthodes arbitrales pour améliorer l'exécution. Leur réseau neurologique est conçu
pour traiter des fenêtres de 20 x 20 pixels. Dont lequel il existe une couche cachée avec 26
unités, où 4 unités cachées se sont reliées au sous régions de 10 x 10 pixels, 16 unités se sont
reliées au sous régions de 5 x 5 pixels, et 6 unités se sont reliées au sous régions de
20 x 5 pixels par l'intermédiaire des unités d’entrée. D’abord, La fenêtre (Windows) d'entrée
est prétraitée par la correction d'éclairage (une meilleure fonction linéaire convenable est
Soustraite) et l'égalisation d'histogramme. Ensuite la méthode doit fusionner les résultats des
Chapitre 2 La détection des visages
30
réseaux neurologiques multiples et combinent la sortie avec une stratégie d'arbitrage
(ANDing, ORing, vote, ou un réseau neurologique d’arbitrage séparé).
Figure 10 Le système de Rowley et autres.
Pour détecter des visages n' importe où dans une image, le réseau neurologique est appliqué à
tous les emplacements d'image. Et Pour détecter des visages plus grande que
20 * 20 pixels, l'image d'entrée est échantillonnée à plusieurs reprises, et le réseau est
appliqué à chaque échelle.
2.2.9. Approches statistiques (StatisticalApproaches) :
Il y a plusieurs approches statistiques pour la détection de visage. Parmi les systèmes
proposés une machine de vecteur de support (SVM) et les systèmes basés sur les règles de
décision de Bayes.
a. Les SVM (Support Vectors Machine, Machines à Vecteurs de Support) :
Osuna, et autres ont employé les machines à vecteurs de support, un algorithme de
classification récemment développé. Au lieu de réduire au minimum l'erreur de
l'apprentissage, il essaye de réduire au minimum l'erreur de généralisation. Le résultat de
l'algorithme SVM est un ensemble de vecteurs de support (un sous ensemble de visages
d'apprentissage) qui seront employés plus tard dans le processus de classification [17].
Chapitre 2 La détection des visages
31
b. La règle de décision de Bayes :
Comme d’autres approches, Schneiderman et Kanade [18], [19]. Décrivent deux
systèmes de détections des visages basés sur la règle de décision de Bayes présentée comme
test de taux de probabilité comme suit :
Si le taux de probabilité (côté gauche) de l'équation ci-dessus est plus grand que le côté droit,
alors on décide que l’objet est un visage (et il est présent à l'emplacement actuel). L’avantage
de cette approche est l'optimalité de la règle de décision de Bayes, si les représentations sont
précises.
La solution adopté est celle basée sur les réseaux de neurones, ce choix est justifié par
le fait que les réseaux de neurones nous apportes non seulement un traitement distribuée mais
aussi une possibilité de parallélisassions ce qui permet d’apporter un gain en temps de calcul
nécessaire pour ce type de traitement.
3. Réseaux De neurones :
Les réseaux de neurones (RN) sont des modèles mathématiques et informatiques des
assemblages d'unités de calculs appelés "neurones formels" dont l'inspiration originelle était
un modèle de la cellule nerveuse humaine. Les réseaux de neurones sont composés
d’éléments simples (ou neurones) fonctionnant en parallèle. Ces éléments ont été fortement
inspirés par le système nerveux biologique. Comme dans la nature, le fonctionnement du
réseau (de neurone) est fortement influencé par la connections des éléments entre eux. On
peut entraîner un réseau de neurone pour une tâche spécifique (reconnaissance de caractères
par exemple) en ajustant les valeurs des connections (ou poids) entre les éléments (neurone).
En général, l’apprentissage des réseaux de neurones est effectué de sorte que pour une entrée
particulière présentée au réseau corresponde une cible spécifique. L’ajustement des poids se
fait par comparaison entre la réponse du réseau (ou sortie) et la cible, jusqu’à ce que la sortie
corresponde (au mieux ?) à la cible. On utilise pour ce type d’apprentissage dit superviser un
nombre conséquent de pair entrée/sortie.[25]
( )( ) )(
)(objectp
objectnonpobjectnonimageP
objectimageP −>
−
Chapitre 2
3.1. Le neurone :[26 ,27] 3.1.1.Modèle biologique :
L’élément de base du système nerveux central est le neurone. Le cerveau se compose
d’environ mille milliards de neurones, avec 1000 à 10000 synapses (connexions) par
neurone. Le neurone biologique est une cellule vivante spécialisée dans le trai
signaux électriques. Les neurones sont reliés e
axones vont eux-mêmes jouer un rôle important dans le comportement logique de l'ensemble.
Ces axones conduisent les signaux électriques de la sortie d'un neurone vers l'entré
d'un autre neurone. Les neurones font une sommation des signaux reçus en entrée et en
fonction du résultat obtenu vont fournir un courant en sortie.
La structure d’un neurone se compose de trois partie
v La somma : ou cellule d’activité nerveuse, au centre du neuro
v L’axone : attaché au somma qui est électriquement actif, ce dernier conduit
l’impulsion conduite par le neurone.
v Dendrites : électriquement passives, elles reçoivent les impulsions d’autres
neurones.
Figure11 : Le neurone
3.1.2. Modèle formel (artificiel) :
Le neurone formel est un modèle mathématique simplifié du neurone biologique, le
modèle du neurone formel est représenté par la
La détection des visages
32
L’élément de base du système nerveux central est le neurone. Le cerveau se compose
’environ mille milliards de neurones, avec 1000 à 10000 synapses (connexions) par
Le neurone biologique est une cellule vivante spécialisée dans le trai
Les neurones sont reliés entre eux par des liaisons appelées axones. Ces
mêmes jouer un rôle important dans le comportement logique de l'ensemble.
Ces axones conduisent les signaux électriques de la sortie d'un neurone vers l'entré
neurones font une sommation des signaux reçus en entrée et en
fonction du résultat obtenu vont fournir un courant en sortie. (Figure 11)
La structure d’un neurone se compose de trois parties :
La somma : ou cellule d’activité nerveuse, au centre du neurone.
L’axone : attaché au somma qui est électriquement actif, ce dernier conduit
l’impulsion conduite par le neurone.
Dendrites : électriquement passives, elles reçoivent les impulsions d’autres
neurone biologique
Le neurone formel est un modèle mathématique simplifié du neurone biologique, le
modèle du neurone formel est représenté par la Figure 12
a détection des visages
L’élément de base du système nerveux central est le neurone. Le cerveau se compose
’environ mille milliards de neurones, avec 1000 à 10000 synapses (connexions) par
Le neurone biologique est une cellule vivante spécialisée dans le traitement des
ntre eux par des liaisons appelées axones. Ces
mêmes jouer un rôle important dans le comportement logique de l'ensemble.
Ces axones conduisent les signaux électriques de la sortie d'un neurone vers l'entrée (synapse)
neurones font une sommation des signaux reçus en entrée et en
L’axone : attaché au somma qui est électriquement actif, ce dernier conduit
Dendrites : électriquement passives, elles reçoivent les impulsions d’autres
Le neurone formel est un modèle mathématique simplifié du neurone biologique, le
Chapitre 2 La détection des visages
33
Poids synaptiques
W1j
W2j Unité de Sommation Fonction d’activation
Vecteur W3j Zj Yj
D’entrée
Wnj W0
Figure 12 : Modèle d’un neurone formel
Le neurone formel est un opérateur de sommation, le calcul de sa sortie se fait en deux
étapes :
Ø Une combinaison linéaire des entrées :
Zj= X0 W0 + ∑ W X
Les sont appelés poids synaptiques ou simplement poids, W0 est appelé biais .le biais
peut être considéré comme la pondération de l’entrée X0 fixée à 1.
Zj est appelé potentiel du neurone.
X1
X2
X3
Xn
∑ f
X0
Chapitre 2 La détection des visages
34
Ø Application d’une fonction d’activation à la somme pondérée des entrées :
Yj=f(Zj) = f(X0 W0 + ∑ W X ) La fonction f est la fonction d’activation du neurone. Il existe de nombreuses formes
possibles pour la fonction d’activation, les plus courantes sont présentées sur le tableau
suivant.(table 2). On remarquera qu’à la différence des neurones biologiques dont l’état est
binaire, la plupart des fonctions d’activations sont des fonctions continues, offrant une infinité
de valeurs possibles comprises dans l’intervalle [0, +1] (ou [-1, +1]).
Table 2 :Fonctions de transfert
Chapitre 2 La détection des visages
35
3.2. Analogie entre le neurone biologique et le neurone formel : [28]
Figure13 : Correspondance entre le neurone biologique et le neurone formel :
Le tableau suivante montrer la transition entre le neurone biologique et le neurone artificiel.
3.3. Architecteurs des réseaux de neurones :
L’organisation des réseaux de neurones peut se faire à partir de deux grandes catégories
d’architecture : les réseaux sans couches et les réseaux à couches.[29 ,30]
3.3.1.Réseau de neurones sans couches :
Le réseau sans couches ne possède que des neurones connectés, certains sont des neurones
d’entrée et d’autres sont des neurones de sortie (Figure14)
Neurone biologique : Neurone artificiel : Synapses Poids de connexions Axones Signal de sortie Dendrite Signal d’entrée Somma Fonction d’activation
Chapitre 2 La détection des visages
36
Connexion partielle Connexion totale
Figure 14: Réseaux de neurones sans couches
3.3.2. Réseau de neurones à couches :
La particularité de ce type de réseau est de posséder des couches de neurones
indépendantes. Chaque couche a sa propre organisation mais la connexion entre les couches
est particulière. En effet, les neurones d’une couche Ci peuvent être connectés avec les
neurones de la couche Ci-1 et avec ceux de la couche Ci+1 . On distingue trois types de
couches :
Couche d’entrée, couche cachées et couche de sortie.
Couche d’entrée Couche de sortie
Couche cachées
Figure 15 : Réseau de neurones à couche
Chapitre 2 La détection des visages
37
Un réseau dit multicouches est un réseau composé d’une couche d’entrée, d’une
couche de sortie et d’une ou plusieurs couches intermédiaires appelées couches cachées.
Chacune de ces différentes couches est composée d’un certain nombre d’unités appelées
neurones et qui sont munies d’une fonction d’activation (fonction de transfert).
• La couche d’entrée :
Elle reçoit les données source que l’on veut utiliser pour l’analyse. Sa taille est donc
directement déterminée par le nombre de variables d’entrées.
• Les couches cachées :
Le réseau de neurones multicouches peut comporter une ou plusieurs couches cachées,
en ce sens que la couche cachée n’a pas de contact direct avec l’extérieur. Les fonctions
d’activations sont en général non linéaires sur cette couche mais il n’y a pas de règle à
respecter. Le choix de sa taille n’est pas implicite et doit être ajusté. Il est souvent préférable
pour obtenir de bons résultats, d’essayer le plus de tailles possibles.
• La couche de sortie :
Elle donne le résultat obtenu après compilation par le réseau des données entées dans
la première couche. Sa taille est directement déterminée par le nombre de variables qu’on veut
en sortie. Selon la nature de la connexion des neurones, on distingue deux types de réseaux de
neurones :
3.3.3.Réseau non bouclé ou statique :
C’est un réseau à couches non récurrent. Lorsqu’un signal est présenté à son entrée, il
se propage de la couche d’entrée vers la couche de sortie en traversant les couches cachées.
Dans ce type de réseaux, au niveau de chaque couche, chaque neurone reçoit les signaux
provenant des neurones de la couche précédente et envoi le résultat de son traitement aux
neurones de la couche suivante. Il n’y a pas de communication entre les neurones de la même
couche. L’information circule dans un seul sens.
Chapitre 2 La détection des visages
38
Couche cachées
Vecteur de Sortie
Vecteur d’entrée
Figure16: Réseaux de neurones non bouclé (statique)
3.3.4.Réseau bouclé ou dynamique :
Il s’agit de réseaux de neurones avec retour en arrière.
Y1 Y1
Yj
Figure17 : Réseau de neurones bouclé
X1
Xn
X2
X1
X2
Xn
Chapitre 2 La détection des visages
39
Dans ce type de réseau chaque neurone peut être connecté avec lui-même, comme il
peut envoyer son traitement aux autres neurones des couches qui le précédent ainsi que celles
qui le suivant. L’information circule dans les deux sens.
3.4. Apprentissage de réseaux de neurones :[31]
L’apprentissage est la propriété la plus intéressante des réseaux neuronaux. C’est une
phase du développement d’un réseau de neurones durant laquelle le comportement du réseau
est modifié jusqu’à l’obtention du comportement désiré. Au cours de l’apprentissage, la
dynamique du réseau est modifiée à travers les poids en fonction d’un jeu de données
présentées en entrée, jusqu'à l’obtention du comportement désiré.L’apprentissage peut être
supervisé ou non supervisé selon la présence ou l’absence de la réponse désirée.
3.4.1. apprentissage supervisé :
Une superviseure, ou professeure, fournit au réseau des couples d’entrées -sortie.il fait
apprendre au réseau l’ensemble de ces couples, par une méthode d’apprentissage, comme la
rétro-propagation du gradient de l’erreur, en comparant pour chacun d’entre eux la sortie
effective du réseau et la sortie désirée. L’apprentissage est terminé lorsque tous les couples
entrées-sorties sont reconnus par le réseau. Ce type d’apprentissage se retrouve, entres autres,
dans le perceptron multicouches.
Modification des poids Figure 18: Apprentissage supervisé
3.4.2. Apprentissage non supervisé :
L’apprentissage est qualifié de non supervisé lorsque seules les valeurs d’entrée sont
disponibles. Dans ce cas, les exemples présentés à l’entrée provoquent une auto-adaptation du
Superviseur
Réseau Sortie obtenue
Sortie désirée
Erreur
Chapitre 2 La détection des visages
40
réseau afin de produire des valeurs de sortie qui soient proches des réponses à des valeurs
d’entrée similaires. Cet apprentissage consiste donc, à détecter automatiquement des
régularités qui figurent dans les exemples présentés et à modifier les poids des connexions
pour que les exemples ayant les mêmes caractéristiques de régularité provoquent la même
sortie.
Entrées
Modification des poids
Figure19: Apprentissage non supervisé
3.5. Type des réseaux de neurones : [32] 3.5.1. Modèle de Hopfield :
Le modèle de Hopfield fut présenté en 1982. Ce modèle très simple est basé sur le
principe des mémoires associatives. C’est d’ailleurs la raison pour laquelle ce type de réseau
est dit associatif (par analogie avec le pointeur qui permet de récupérer le contenu d’une case
mémoire).Le modèle de Hopfield utilise l’architecture des réseaux entièrement connectés et
récurrents (dont les connexions sont non orientées et ou chaque neurone n’agit pas sur lui-
même). Les sorties sont en fonction des entrées et du dernier état pris par le réseau.
Figure 20: Réseau de Hopfield
Réseau Sortie obtenue
Chapitre 2 La détection des visages
41
3.5.2. Modèle Kohonen :
Ce modèle a été présenté par Kohonen en 1982 en se basant sur des constatations
biologiques. Il a pour objectif de présenter des données complexes et appartenant
généralement à un espace discret de grandes dimensions dont la topologie est limitée à une ou
deux dimensions. Les cartes de Kohonen sont réalisées à partir d’un réseau à deux couches,
une en entrée et une en sortie. Notons que les neurones de la couche d’entrée sont entièrement
connectés à la couche de sortie. (Figure21)
Figure21:Le modèle de Kohonen
Les neurones de la couche de sortie sont placés dans un espace d’une ou de deux
dimensions en général, chaque neurone possède donc des voisins dans cet espace. Et qu’enfin,
chaque neurone de la couche de sortie possède des connexions latérales récurrentes dans sa
couche.
3.5.3. Le modèle perceptron :
Le mécanisme perceptron fut inventé par le psychologue FRANK Rosenblat à la fin
des années 50 (1957,1961). Il représentait sa tentative d’illustrer certaines propriétés
fondamentales des systèmes intelligents en général. Le réseau dans ce modèle est formé de
trois couches : Une couche d’entrée (la rétine), fournissant des donnés à une couche
intermédiaire, chargée des calculs, cela en fournissant la somme des impulsions qui lui
viennent des cellules auxquelles elle est connectée, et elle répond généralement suivant une
loi définie avec un seuil, elle-même connectée à la couche de sortie (couche de décision),
représentant les exemples à mémoriser. Seule cette dernière couche renvoie des signaux à la
couche intermédiaire, jusqu’à ce que leurs connexions se stabilisent.
Il y à deux types de modèle perceptron :
Chapitre 2 La détection des visages
42
a. Le perceptron monocouche :
C’est le plus simple des réseaux de neurones. Il est constitué d’une couche d’entrée et une
couche de sortie (une couche de perception et une couche de décision ou de sortie).
Figure 22 : perceptron monocouche
b. Le perceptron multicouche :
Le perceptron multicouche est un réseau comportant L couches, chaque neurone d'une
couche étant totalement connecté aux neurones de la couche suivante. Chaque neurone k est
un automate linéaire généralisé dont la fonction de transfert fk est supposée
sigmoïdale(Figure23).
Figure23 : perceptron multicouche
Chapitre 2 La détection des visages
43
3.5.4. Le modèle Adaline : L’adaline (Adaptatif Linear Neurone) de Widrow et Hoff est un réseau à trois couches
: une d’entrée, une couche cachée et une couche de sortie. Ce modèle est similaire au modèle
de perceptron, seule la fonction de transfert change, mais reste toujours linéaire c’est-à-
dire :F(x)= x.
Les modèles des neurones utilisés dans le perceptron et l’adaline sont des modèles
linéaires. Séparation linéaire : on dit que deux classes A et B, sont linéairement séparables si
on arrive à les séparer par une droite coupant le plan en deux (Figure24)
Figure24 : La séparation linéaire entre la classe A et B
Le problème est résolu avec les réseaux multicouches, car il peut résoudre toute sorte de
problèmes qu’ils soient linéairement séparables ou non.
3.6. Propriétés des réseaux de neurones :[33]
Les réseaux de neurones possèdent des propriétés très intéressantes :
§ Parallélisme :ensemble d’unités de calcul travaillant d’une manière
synchrone (simultanément).
§ Capacité d’adaptation :grâce à l’apprentissage permettant de prendre en
compte des nouvelles données du monde extérieur.
§ -Mémoire distribuée : dans le cas où le réseau de neurones est récurrent,
l’état
§ Actuel de chaque neurone dépend de son état précédent.
Chapitre 2 La détection des visages
44
§ Capacité de généralisation : les réseaux de neurones peuvent apprendre à
retrouver des règles à partir d’une base d’exemples.
3.7. Applications des réseaux de neurones :[34] § Aérospatial : pilotage automatique, simulation du vol…
§ Automobile : système de guidage automatique,…
§ Défense : guidage de missile, suivi de cible, reconnaissance du visage,
radar, sonar, lidar, traitement du signal, compression de données, suppression
du bruit…
§ Electronique : prédiction de la séquence d’un code, vision machine,
synthétiseur vocal, modèle non linéaire,…
§ Finance : Prévision du coût de la vie
§ Secteur médical : Analyse EEC et ECG
§ Télécommunications : Compression de données …
4. Conclusion :
Nous avons vu des méthodes de détection de visages utilisant des études locales et qui
nécessitent en général une segmentation. L'image ainsi traitée peut alors alimenter un réseau
de neurones par exemple, ou être utilisée par des méthodes basées sur des modèles de
connaissance. Dans le but d’améliorer le traitement en apportant une contribution du point de
vue calcul, nous avons opté pour un traitement parallèle en utilisant les réseaux de neurones.
Chapitre 3 La reconnaissance de visage humain
45
1. Introduction :
Durant les vingt dernières années, la reconnaissance automatique de visages est
devenue un enjeu primordial, notamment dans les domaines de la sécurité et de la
surveillance. Malgré la multitude de techniques proposées et les progrès réalisés,[35] le
problème reste non résolu, comme le montre la récente évaluation menée par le
NIST(National Institute of Standards and Technologie).Les difficultés proviennent
essentiellement de la forte variabilité des données à classer (dues à des changements dans
l'expression faciale, dans la position de la tête, dans les conditions d'illumination et à des
occultations partielles), et dans le fait que les images de visages constituent des données de
très grandes dimensions. La plupart des articles scientifiques s'accordent à faire remonter à 1973. La première
importante publication scientifique traitant du thème de la reconnaissance du visage, avec
l'article du japonais T. Kanade « Picture processing by computer complexe and récognition
of human faces ». Mais le nombre de publications scientifiques traitant de ce sujet ne
commence vraiment à décoller qu'à partir de la fin des années 80 . [36]Le système WISCAD
réalisé en 1980 fut l'un des premiers systèmes de reconnaissance de visages, son nom dérive
de celui de ses inventeurs britanniques Wilkie, Stonham et Aleksander qui ont adopté
l'approche connexionniste.[37] Depuis, et durant les vingt dernières années, plusieurs
approches ont été proposées.1991 fut un tournant en matière de recherche théorique, avec la
publication de l'article intitulé « eigenfaces for récognition » de Pentland et Turk, du MIT
(Massachusetts Institute of Technology). L'article décrivait un algorithme révolutionnaire,
les «eigenfaces », qui eurent pour mérite de faire sortir le thème de la reconnaissance du
visage du cadre «académique » dans lequel il était resté cantonné jusqu'alors et de permettre
de passer à un stade plus «opérationnel ». Pentland et Turk, grâce aux moyens du MIT,
pouvaient, en outre, étayer leurs affirmations sur des données expérimentales réelles et
significatives. Le passage vers des produits commerciaux reçut une impulsion décisive à
partir des années 1994-1996 grâce à la mise en œuvre du programme FERET (Face
Récognition Technologie), organisé par le ministère de la Défense américaine (Département
of Défense, DoD). Le nom du service de ce ministère chargé de piloter le projet («
counterdrug ») en dit
long sur les objectifs assignés à ce programme : «développer des capacités de
reconnaissance automatique pour aider au travail des personnels des services de sécurité,
d'espionnage... ». À l'issue de ces tests d'évaluation de 1996, l'ensemble des acteurs du
Chapitre 3 La reconnaissance de visage humain
46
monde de la reconnaissance de visage, laboratoires de recherche mais aussi industriels,
disposaient d'une base d'images de référence. Jusque-là en effet, en dehors de la base de
données du MIT, chaque laboratoire disposait de sa propre base d'images. Depuis la fin du
projet FERET en 1996, le grand changement est l'apparition sur le marché de produits
commerciaux. La grande compétitivité du marché a fait éclore un grand nombre
d'algorithmes de reconnaissance de visages ou de variantes, dont la plupart n'étaient même
pas présents lors des tests d'évaluation FERET.Le Ministère de la Défense Américaine
décida alors de lancer le programme FRVT 2000 (Facial Récognition Vendor Test 2000)
dont l'objectif était d'évaluer les performances des produits commerciaux.[36]
2. Problématique :
2.1. Domaines d'Applications :
Le grand intérêt accordé à la reconnaissance des visages est du à l'importance et à
l'utilité du visage par rapport aux autres parties du corps humain. En effet à partir de l'image
du visage d'une personne on peut deviner son identité, sa race, son sexe, etc. Cet intérêt
s'explique aussi par la multitude et la variété des domaines d'applications possibles, parmi
lesquelles on trouve :
§ Les systèmes de contrôle d'accès automatique : Une caméra placée à l'entrée d'un site
envoie les images des individus, désirant accéder à ce site, à un ordinateur qui
effectue une reconnaissance des visages pour décider s'il faut accorder l'accès ou
non.
§ Les systèmes de télésurveillance et d'identification criminelle : Pour les enquêteurs la
vérification des identités des suspects peut être assistée par ordinateur ou entièrement
automatisée.
§ Les interfaces homme-machine : On peut rendre la communication entre l'homme et
la machine plus attractive, plus naturelle et plus confortable. Par exemple, s'il est
possible d'estimer la direction de la tête, on peut diriger une caméra vers l'objet que
l’individu regarde et acquérir des informations concernant cet objet. En E1A0
(Enseignement Intelligemment Assisté par Ordinateur), le système (le Tuteur) peut
deviner si l'élève a compris une certaine notion selon l'expression de son visage
(souriant, satisfait, étonné ou mécontent).
§ La téléconférence.
Chapitre 3 La reconnaissance de visage humain
47
§ Les langages des signes. 2.2. La reconnaissance des visages chez l'Homme :
Comprendre le fonctionnement du système visuel de l'homme, est une tâche qui incombe
aux neuropsychologues et aux cogniticiens. Ils essaient de trouver des réponses à des
questions du type :
§ Comment le système visuel humain traite les visages ?
§ Comment est-il stocké en mémoire et comment un visage devient familier ?
§ Comment se généralise le processus de reconnaissance pour de nouvelles images ?
§ Y a-t-il, dans le cerveau, un mécanisme spécifique pour la reconnaissance des
visages ou est ce qu'il s'agit d'un seul et d'un même mécanisme pour tout type de
forme ? Les caractéristiques les plus importantes utilisées pour l'identification des visages humains
semblent être :[38]
§ La région des yeux et des sourcils.
§ La bouche et la lèvre inférieure.
§ Le nez.
§ Le menton. Les caractéristiques s'écartant le plus de la norme ne sont pas les plus importants :
Les caricatures des visages inconnus, obtenues par exagération des caractéristiques notables,
ne sont pas plus faciles à reconnaître que les photos ordinaires. Cependant, si le visage est
bien connu comme pour les politiciens et les acteurs, la caricature est alors perçue comme
représentant exactement cette personne.[39]
2.3. La reconnaissance des visages par Ordinateur :
Les développeurs des systèmes automatiques de reconnaissance des visages doivent
faire face aux nombreux problèmes qui contribuent, plus ou moins, à la complexité de leur
tâche. Ces problèmes peuvent être de natures diverses : soit qu'ils sont liés directement à la
forme elle-même (le visage humain), soit qu'ils sont soulevés par le processus de
reconnaissance proprement dit.
La première catégorie d'obstacles s'explique par le fait que le visage est une entité
dynamique qui change constamment sous l'influence de plusieurs facteurs tels que : les
expressions faciales selon l'humeur de la personne, le maquillage, le type de coiffure, la
Chapitre 3 La reconnaissance de visage humain
48
vieillesse (l'effet du temps), la présence ou absence de lunettes, de barbe et de moustaches,
ainsi que d'autres effets physiques. Jusqu'à maintenant, il n'existe pratiquement pas de
système capable de prendre en considération tous ces facteurs (à part le système visuel
humain, bien sûr).La deuxième catégorie de problèmes concerne la démarche générale
adoptée par les développeurs pour réaliser de tels systèmes. Elle est représentée par la(
Figure 25), obtenue par "projection" du schéma général des systèmes de reconnaissance des
formes (Figure -1) sur le domaine de la reconnaissance des visages.[40]
Apprentissage :
Sauvegarde du vecteur Caractéristique.
Comparaison
Figure.25 : Schéma d’un système de reconnaissance de visages.
Ici, les problèmes sont plutôt des contraintes ou des critères imposés aux phases du processus de reconnaissance :
Le monde extérieur :
Visages d’individus
Codage : acquisition d’images par caméra
numérique et
Prétraitement :
Elimination du bruit, localisation de la tête
Analyse : extraction de caractéristiques
La base des Connaissances
Décision :
Mesure de similarité
Chapitre 3 La reconnaissance de visage humain
49
2.3.1. Le monde physique :
Dans l'environnement où se trouve l'individu à identifier, il y a trois paramètres à
considérer :
§ L'éclairage : L'image du visage est une matrice de niveaux de gris (C'est le cas dans la
majorité des systèmes existants) représentant des intensités de lumière.
§ La variation de posture qui dépend de la position de la tête et de l'angle de prise de vue
(vue de face, de profile, 45° ...).
§ L'échelle : qui dépend de la taille de l'image et de la distance séparant l'individu de la
caméra, une normalisation des distances est donc nécessaire.
Une étude effectuée par Moses (1993) a montré que la variation de l'un de ces paramètres
peut conduire à une distance (dans le sens mesure de similarité) entre deux images du même
individu, supérieure à celle séparant deux images de deux individus différents.
Dans ce type de réseaux, au niveau de chaque couche, chaque neurone reçoit les signaux
provenant des neurones de la couche précédente et envoi le résultat de son traitement aux
neurones de la couche suivante. Il n’y a pas de communication entre les neurones de la
même couche. L’information circule dans un seul sens.
Dans ce type de réseaux, au niveau de chaque couche, chaque neurone reçoit les signaux
provenant des neurones de la couche précédente et envoi le résultat de son traitement aux
neurones de la couche suivante. Il n’y a pas de communication entre les neurones de la
même couche. L’information circule dans un seul sens.[41]
2.3.2. Le codage :
La prise de l'image et sa digitalisation donne lieu â une représentation 2-D. (La
matrice des niveaux de gris) pour un objet 3-D (le visage). La perte de la troisième
dimension implique une perte d'information qui est négligée dans la plus part des méthodes
existantes. Peu de méthodes 3-D ont été proposées, mais cela devrait changer dans le futur
proche avec l'invention des Range-Cameras qui peuvent Mesurer la topologie 3-D du visage
Chapitre 3 La reconnaissance de visage humain
50
Il faut aussi considérer le risque du bruit et des erreurs introduites au moment de
l'acquisition de l'image (possibilités de mauvais fonctionnement ou défiance de la caméra,
erreur de données au niveau du convertisseur analogique-numérique,...).
2.3.3. Le pré traitement :
Les gens sont constamment en mouvement, même quand ils sont assis, ils remuent
leurs corps pour s'ajuster, ils clignent des yeux, ils regardent au tour d'eux.... Cela signifie
que les images qu'un système de reconnaissance capte, peuvent ne pas contenir de visages
humains. Dans le cas contraire il faut procéder â une localisation de la tête dans l'image,
cette opération devient plus complexe si l'image contient plusieurs individus. Pas mal de
systèmes supposent que l'image contient un visage et que l'arrière-plan est neutre, Les autres
systèmes qui n'ont pas cette limite parviennent à détecter la position de la tête moyennant un
certain overhead en temps de calcul.
La restauration d'images (ou élimination du bruit) consiste à compenser les dégradations
connues ou estimées et rétablir la qualité initiale de l'image. Il y a la restauration par filtrage
inverse, par les moindres carrées, par traitement homomorphique,...
2.3.4. L’analyse :
Dans cette étape (appelée aussi indexation, représentation, modélisations ou extraction de
caractéristiques), il faut extraire de l'image les informations (les indices, ou points
caractéristiques) représentant l'individu et qui vont être sauvegardés en mémoire secondaire
(mémoriser l'individu en question) et qui seront plus tard utilisés dans la phase Décision.
C'est au développeur de choisir quelles sont les informations utiles et comment les extraire,
ceci revient â établir un modèle pour le visage. Ce modèle ou le choix de ces points
caractéristiques doit respecter certains critères : § La discrimination : les indices choisis doivent permettre de distinguer un individu parmi
un groupe.
§ Le non redondance : comme dans les bases de données, il ne doit pas y avoir de
redondance (inutile) d'information pour ne pas gaspiller l'espace de stockage et ralentir le
système.
Chapitre 3 La reconnaissance de visage humain
51
2.3.5. L'apprentissage :
Il s'agit de mémoriser les représentations calculées dans la phase Analyse pour les
individus connus. Cette sauvegarde dépend du modèle établi pour coder le visage, ce modèle
va au fait imposer les structures de données employées, ça va d'un simple fichier séquentiel
jusqu'à la création d'une base de données entière. Le temps d'accès â ces données constitue la
plus grande partie du temps de réponse du système, il faut donc songer à utiliser des médias
rapides.
2.3.6. La Décision :
Dans la plus part des tâches de reconnaissance, pour estimer la différence entre deux
images, il faut introduire une mesure de similarité .Cette mesure dépend avant tout du
modèle établi pour représenter un visage, pour cette raison on peut rajouter une troisième
contrainte à celles citées précédemment : Les informations choisies doivent être compactes
(de petite taille) afin de réduire le coût des calculs (opérations arithmétiques, procédures de
tri, etc.), surtout si le nombre de personnes enregistrées dans la base est grand. En bref, les
données doivent être compactes et les algorithmes performants.
3. Les Méthodes Existantes :
Tous ces facteurs (compliquant le problème) font de la reconnaissance des visages un
véritable challenge qui n'a pas fini de captiver l'intérêt des chercheurs désirant relever le
défi. Ainsi, durant ces vingt dernières années, de nombreuses approches ont été proposées,
elles se répartissent en trois catégories : [42 ,43] les méthodes globales et les méthodes
géométriques et hybride. Ce classement spécifique à la reconnaissance des visages est basé
sur la manière avec laquelle le visage est traité, il diffère de celui de la R.F qui est plus
général.
3.1.Les Méthodes Géométriques :
On les appelle aussi les méthodes à traits, à caractéristiques locales, ou analytiques.
Ici, l'analyse du visage humain est donnée par la description individuelle des parties du
visage et de leurs relations. En fait, ce modèle qui utilise la forme et la position des
caractéristiques les plus importantes correspond à la manière avec laquelle l'être humain
Chapitre 3 La reconnaissance de visage humain
52
perçoit le visage, c'est à dire, à nos notions de traits de visage et de parties comme les yeux,
le nez, la bouche, etc.
Le modèle géométrique exploitant les positions relatives des parties du visage a été
utilisé pour la première fois, il y a déjà 100 ans de cela, par le chercheur français Bertillon
dans l'identification criminelle. La plus part des travaux réalisés se sont concentrés sur
l'extraction des traits â partir d'une image du visage et sur la définition d'un modèle adéquat
pour représenter ce visage. Commençant par les premiers systèmes de Biedsoe (1966) et
Kanade (1973) un certain nombre de stratégies automatiques et semi-automatiques ont
modélisé et classé les visages sur la base de distances normalisées et angles entres points
caractéristiques. La stratégie est appelée automatique ou non automatique selon que la phase
"Extraction" du processus de reconnaissance est faite par l'ordinateur lui- même ou qu'elle
est assistée par un opérateur. En fait, cette phase constitue l'étape clé du processus, car la
performance du système
Entier dépend de la précision avec laquelle les informations utiles sont extraites, cette
précision est fonction des techniques de traitements d'images employées.
Avantages et Inconvénients :
L'avantage de ces méthodes est qu'elles prennent en compte la particularité du visage
en tant que forme naturelle à reconnaître, en exploitant les résultats de la recherche en
neuropsychologie et psychologie cognitive concernant le système visuel humain.
L'inconvénient majeur est la difficulté qu'éprouvent ces méthodes quand il s'agit de prendre
en considération plusieurs vues b des visages (vue de face, de profile, 45°...) . [42]Les
détracteurs estiment aussi que les méthodes géométriques sont fragiles à cause du manque
de précision dans la phase Extraction.
3.2. Les Méthodes Globales :
Contrairement à la première, cette deuxième classe regroupe les méthodes qui
mettent en valeur les propriétés globales de la forme. Ici, le visage est traité comme un tout
(dans sa totalité) plutôt que d'avoir affaire à des parties telles que les yeux, la bouche, etc.
Ces méthodes utilisent des techniques issues d'autres disciplines et qui ne sont pas propres
au domaine de la reconnaissance des visages, par conséquent une grande différence existe
entre elles et parfois le seul point commun (lui les réunit est leur non appartenance à la
première classe), cela revient à dire que la répartition des méthodes de reconnaissances de
Chapitre 3 La reconnaissance de visage humain
53
visages pourrait être : Les méthodes géométriques et les autres méthodes (réseaux de
neurones, SVM, ACP, HMM,...).
Nous citons dans ce qui suit les approches les plus importantes réunies au sein de cette
classe :
3.2.1. L'approche neuronale :
Les réseaux de neurones artificiels ou RNA sont des assemblages fortement
connectés d'unités de calcul. Chacune des unités de calcul est un neurone formel qui est, en
soi, une formulation mathématique ou un modèle très simplifié d'un neurone biologique. Les
RNA ont des capacités de mémorisation, de généralisation et d'une certaine forme
d'apprentissage. On classe généralement les réseaux de neurones en deux catégories: les
réseaux faiblement connectés à couches que l'on appelle des réseaux « feedforward » ou
réseaux directs et les réseaux fortement connectés que l'on appelle des réseaux récurrents.
Dans ces deux configurations, on retrouve des connexions totales ou partielles entre les
couches. Les réseaux de neurones peuvent être utilisé tant pour la classification, la
compression de données ou dans le contrôle de systèmes complexes en automatisme. Cette
approche repose essentiellement sur la notion d'apprentissage qui est depuis de nombreuses
années au cœur des recherches en intelligence artificielle .[44]
Par exemple les travaux de Kohonen et al (1977) sur les mémoires auto-associatives ont
donné lieu à un réseau de neurones multicouches avec 80x40 points d'entrée. Pour
l'apprentissage, ils ont utilisé 10 classes d'images chacune constituée de 5 photos du même
individu prises sous différents angles. Le système était capable de reconnaître avec une
Précision raisonnable des photos prises sous des angles non utilisés au moment
d’apprentissage.[37]
Le système WISCAD de Stonham (1980) traitait les images binaires des visages de 16
individus (vue de face et avec variation d'expressions). Il était capable de reconnaître avec
un certain succès l'identité et l'expression du visage, mais il a utilisé, pour l'apprentissage,
près de 400 images pour les 16 individus.
L'idée est d'identifier à partir d'exemples un visage (ici une personne). De manière plus
formelle, l'apprentissage du réseau a pour but l'extraction des informations pertinentes à
l'identification. L'avantage de ce modèle est le gain de temps considérable. Cependant,
l'utilisation d'exemples pour apprendre apporte le risque de ne pouvoir résoudre que des
situations déjà rencontrées, où un phénomène de sur-apprentissage qui spécialiserait le
réseau uniquement sur les exemples connus sans généraliser.
Chapitre 3 La reconnaissance de visage humain
54
3.2.2. Les Visages Propres (Approche ACP) :
Le but de cette approche est de capturer la variation dans une collection d'images de
visages et d'utiliser cette information pour coder et comparer les visages. Cela revient, en
termes mathématiques, à trouver les composantes principales de la distribution des visages,
ou les vecteurs propres de la matrice de corrélation de l'ensemble des images de visages. On
peut imaginer que ces valeurs propres sont des sortes de visages fantômes qu'on appelle
alors les visages propres.
Chaque image de visage dans l'ensemble d'apprentissage peut être représentée exactement
comme un ensemble des visages propres, cependant les visages peuvent être aussi
approximés en utilisant seulement les meilleurs visages propres qui correspondent aux plus
grandes valeurs propres.
Les étapes suivantes résument le processus de reconnaissance :[42] 1. Initialisation : Acquérir les M images de visages constituant l'ensemble
d'apprentissage et calculer les visages propres qui définissent l'espace des visages.
2. Pour l'image d'un nouveau visage, calculer le visage propre et les M*nombre de
visage propre correspondent aux plus grandes valeurs propres par projection de cette
image sur chaque les visages propres de l’ensemble d’apprentissage.
3. On calculer distance euclidienne pour réaliser la projection.
. 3.2.3. Les Cartes d'Jsodensité (Isodensity Maps) :[45]
Une carte d'iso densité est un ensemble de courbes fermées obtenues par le traçage
des frontières des régions de même densité après quantification de l'image en niveaux de
gris. L'utilisation des cartes d'isodenshés en reconnaissance des visages est inspirée de la
géologie, où dans une image du relief d'une surface terrestre, les zones de mêmes niveaux de
gris correspondent en réalité à des régions de même altitude, donc, après obtention des
lignes d’iso densités à partir de l'image d'un visage, elles sont comparées avec celles
enregistrées dans la base. La comparaison est faite par la superposition des lignes.
La méthode développée par Matsu hashi et al. (1995) utilise un système de couleur
HSV modifié pour l'extraction du visage humain à partir de l'image, puis effectue une
Chapitre 3 La reconnaissance de visage humain
55
identification basée sur les cartes d'iso densité. Pour ce qui est de l'extraction correcte du
visage, un taux de 89% a été obtenu par le test de 111 photos avec divers arrière plans.
Quant à l'identification, les résultats expérimentaux utilisant 3481 paires d'images de visages
donnent une précision de l'ordre de 99.9%.
3.2.4. Les Modèles Cachés de Markov (HMM : Hilde Markov Modelas) :
Les travaux récents sur la reconnaissance des visages en utilisant les Modèles de
Markov Cachés à densité continue ont montré que l'approche stochastique peut être utilisée
avec succès pour encoder les informations caractéristiques. Samaria (1994) avance que,
quand les images frontales sont balayées de haut en bas il y a un ordre naturel dans lequel
les caractéristiques apparaissent, et ce fait peut être modélisé d'une manière pratique en
utilisant un "top-bottom HMM" [181. Ce type de modèle est caractérisé par différents
paramètres qui sont choisis de manière subjective en se basant sur l'intuition, ceci est fait
pendant la phase apprentissage qui peut être longue.
3.2.5. L’approche statistique et l'approche probabiliste :
Cette approche repose essentiellement sur la théorie de décision pour résoudre les
problèmes de classement et de classification, et pour cela en utilise généralement la
classification fondée sur le théorème de Bayes. Cette approche pose le problème de la
Complexité de calcul qui est très élevée. 3.3. Méthodes Hybrides :
Les méthodes hybrides sont des approches qui combinent les caractéristiques
globales et locales afin d’améliorer les performances de la reconnaissance de visages. En
effet, les caractéristiques locales et les caractéristiques globales ont des propriétés tout à fait
différentes. On peut espérer pouvoir exploiter leur complémentarité pour améliorer la
classification. Le tableau suivant récapitule qualitativement la différence entre les deux
types de caractéristiques.[35]
Chapitre 3 La reconnaissance de visage humain
56
Facteurs de variations : Caractéristiques locales : Caractéristiques globales :
Illuminations [Hal99]
Expressions [Mar02][Tan05]
Pose [Hei01]
Bruit [Cos02]
Occlusion [Mar02][Tan05]
Très sensible
Pas sensible
Sensible
Très sensible
Pas sensible
Sensible
Sensible
Très sensible
Sensible
Très sensible
Table 3 : Tableau de Comparaison des méthodes basées sur les caractéristiques
locales ou globales
Nous pouvons voir que les caractéristiques locales et globales réagissant différemment
sensibles aux facteurs de variation. Par exemple : les changements d'illumination peuvent
avoir plus d'influence sur les caractéristiques locales, tandis que les changements
d'expression ont plus d'impact sur les caractéristiques holistiques (globales).Ainsi, les
méthodes hybrides peuvent constituer une approche efficace pour réduire la complexité des
classifier et améliorer leur capacité de généralisation. Malgré ces avantages, les travaux de
recherche dans ce domaine restent relativement peu nombreux, probablement en raison des
difficultés mentionnées ci-dessus, tandis que les méthodes hybrides classiques (c'est-à dire
qui utilisent plusieurs exemples d’apprentissage par personne), comme les modèles
d'apparence flexibles ou le LFA hybride, ne sont pas généralement appropriées pour traiter.
Parmi les méthodes étudié précédent pour reconnaissance de visage nous avons
choisi la méthode basée sur l’analyse composant principale (ACP) et celle basée sur
l’histogramme pour extraction des caractéristique de visage et utiliser la distance pour la
mesure de similarité
4. Méthodes utilisées :
4.1. Analyse composante principale (ACP) :[46 ,47]
L’ACP est l’une des techniques les plus efficaces qui ont été utilisées pour la
reconnaissance d’image et de compression. C’est une méthode statistique dans le cadre du
large titre de l’analyse factorielle. Le but de l’ACP est réduire l’importante dimension de
Chapitre 3 La reconnaissance de visage humain
57
l’espace caractéristique (variable indépendantes), qui est nécessaire pour décrire les données
économiques. C’est le cas où il y a une forte corrélation entre les variables observées.
4.1.1.Fonctionnement d’ACP :
L’Analyse en composantes principale (ACP) est une méthode de la famille de
l’analyse des données et plus généralement de la statistique multi variée, qui consiste à
transformer des variables liées entre elles (dites « corrélées« en statistique ) en nouvelles
variables sont nommées « composante principales«, ou axes. Elle permet au praticien de
réduire l’information en un nombre de composantes plus limité que le nombre initial de
variable.
Il s’agit d’une approche à la fois géométrique (représentation des variables dans un
nouvel espace géométrique selon des directions d’inertie maximale) et statistique (recherche
d’axes indépendants expliquant au mieux la variabilité-la variance- des données). Lorsqu’on
veut alors compresser un ensemble de N variables aléatoires, les n premiers axes de l’ACP
sont un meilleur choix, du point de vue de l’inertie ou la variance.
L’ACP a été de nouveau développé et formalisée dans les années 30 par Harold
hotline la puissance mathématique de l’économiste et statisticien américain le conduire aussi
à développer l’analyse canonique, généralisation des analyses factorielle dont fait partie
l’ACP. Les champs d’application sont aujourd’hui multiples, allant de la biologie à la
recherche économique et sociale, et plus récemment le traitement d’images .l’ACP est
majoritairement utilisée pour :
§ Décrire et visualiser des données.
§ Les décarreler dans la nouvelle base, constituée des nouveaux axes, les variables
ont une corrélation nulle.
4.1.2. Formulation de l’ACP :
La mise en œuvre mathématique de l’ACP peut être divisée en 6 étapes principales.
Etape1 : préparation des données :Les données que l’on doit traiter par l’ACP sont
stockées dans un tableau X de type Individus ∕ variables de la forme :
Chapitre 3 La reconnaissance de visage humain
58
1…………P
1 X11….. ...X
1P
INDIVIDUS … ..............
N XN1…. X
Nous avons alors :
• p variables, représentées en colonnes.
• N individus, représentées les lignes.
• Des valeurs prises par chaque variable, pour chaque individu notée : ( ) (1≤i≤ N, 1≤j≤P) avec ∀(i,j), ∈ ℝ
Etape 2 :calcul de la matrice des coefficients de corrélations :
Dans cette étape, nous calculons la matrice de corrélation des données contenues dans le
tableau notée «Corr ».
Etape 3 :calcule des valeurs et vecteurs propres de la matrice de corrélations :
Les valeurs et vecteurs propres de la matrice « Corr « sont les facteurs utilises pour
construire les composantes principales.
Etape 4 :classement des vecteurs propres dans l’ordre décroissants des valeurs
propres associées : On dispose alors des facteurs dans l’ordre décroissant de la quantité
d’information qu’ils expliquent. Il est également possible d’exprimer en pourcentage
l’importance de chacun, afin de visualiser l’importance relative des composantes principales
<<U>> la matrice dont les colonnes sont les valeurs propres de <<Corr>> classés par ordre
décroissant de leurs valeurs propres associées.
Etape 5 :calcul de la matrice des composantes principales : La matrice appelée matrice
des composantes principales, notée CP, est celle qui contient les coordonnées des individus
dans l’espace formé par celles-ci. Elle est calculée de la façon suivante :
CP= .U
Etape 6 :Représentations graphiques :Le but de l’ACP étant de résumer une situation
donnée, la représentation graphique est la phase finale et la plus importante de ce processus,
car elle permet d’avoir rapidement un aperçu de ce que le calcul numérique ne peut pas
fournir.
Chapitre 3
4.2. l’histogramme:
L'histogramme d'une image décrit la répartition des niveaux de gris dans une image.
Pour les images en couleur il est défini pour le trois composants selon l'espace de
représentation. L’histogramme un outil fondamental du
nombreuses applications. Les histogrammes sont aussi très utilisés en
la retouche d'images.
4.2.1. Définition :
Pour une image monochrome, c'est
défini comme une fonction discrète qui associe à chaque valeur d'intensité le nombre de
pixels prenant cette valeur. La détermination de l'histogramme est don
le nombre de pixel pour chaque intensité de l'image.
qui regroupe plusieurs valeurs d'intensi
visualiser la distribution des intensités de l'image
Exemple sur Histogramme d'une image
L'histogramme représente la distribution des niveaux de gris (ou de couleurs) dans une
image
H(k)= nombre de pixels de l'image ayant la valeur
La reconnaissance de visage
59
istogramme d'une image décrit la répartition des niveaux de gris dans une image.
Pour les images en couleur il est défini pour le trois composants selon l'espace de
L’histogramme un outil fondamental du traitement d'images, avec de très
nombreuses applications. Les histogrammes sont aussi très utilisés en photographie
Pour une image monochrome, c'est-à-dire à une seule composante, l'histogramme est
défini comme une fonction discrète qui associe à chaque valeur d'intensité le nombre de
pixels prenant cette valeur. La détermination de l'histogramme est donc réalisée en comptant
le nombre de pixel pour chaque intensité de l'image. On effectue parfois une quantification
qui regroupe plusieurs valeurs d'intensité en une seule classe, ce qui peut permettre de mieux
visualiser la distribution des intensités de l'image.
Histogramme d'une image :
L'histogramme représente la distribution des niveaux de gris (ou de couleurs) dans une
nombre de pixels de l'image ayant la valeur k.
La reconnaissance de visage humain
istogramme d'une image décrit la répartition des niveaux de gris dans une image.
Pour les images en couleur il est défini pour le trois composants selon l'espace de
, avec de très
photographie et pour
, l'histogramme est
défini comme une fonction discrète qui associe à chaque valeur d'intensité le nombre de
c réalisée en comptant
quantification,
té en une seule classe, ce qui peut permettre de mieux
L'histogramme représente la distribution des niveaux de gris (ou de couleurs) dans une
Chapitre 3 La reconnaissance de visage humain
60
4.2.2. Traitements d’histogramme :
a. Égalisation d'histogramme :
L'égalisation d'histogramme est une méthode d'ajustement du contraste d'une image
qui utilise l'histogramme. Elle consiste à appliquer une transformation sur chaque pixel de
l'image, et donc d'obtenir une nouvelle image à partir d'une opération indépendante sur
chacun des pixels. Cette transformation est construite à partir de l'histogramme cumulé de
l'image de départ.
L'égalisation d'histogramme permet de mieux répartir les intensités sur l'ensemble de
la plage de valeurs possibles (0 à 255 en général pour des images 8 bits), en « étalant »
l'histogramme. Théoriquement (cas continu) l'histogramme devrait même être plat (loi
uniforme). Toutefois à cause de la discrétisation, ceci est rarement le cas.
L'égalisation est intéressante pour les images dont la totalité, ou seulement une
partie, est de faible contraste (pixels d'intensité proches). La méthode est rapide, facile
d'implémentation, et complètement automatique.
b. Spécification d'histogramme :
Il n'est parfois pas pertinent de chercher à obtenir un histogramme uniforme par
égalisation. La spécification d'histogramme est une méthode permettant de générer une
image ayant une forme d'histogramme déterminée.
c. Mesures de similarité :
Dans de nombreuses applications, il est utile de calculer une distance(ou plus
généralement une mesure de similarité/dis similarité) entre histogrammes. Par exemple pour
étudier les variations temporelles du contenu visuel dans une vidéo, ou pour trouver des
images similaires à une image requête. On définit pour cela un certain nombre de distances
pour mesurer si deux histogrammes sont « proches » l'un de l'autre. Soit h1 et h2 deux
histogrammes de même taille N.
(ℎ ,ℎ ) = ∑ min [h (i), h (i)] .
Chapitre 3 La reconnaissance de visage humain
61
4.2.3. Application de l’histogramme :
L'histogramme est un outil de base du traitement d'images et est utilisé dans de très
nombreuses applications et méthodes :
a. Rehaussement d'images :
L'égalisation d'histogramme, qu'il soit global, ou appliqué de manière local, est un
outil très utilisé pour l'amélioration du contraste, et donc le rehaussement. De même, la
spécification d'histogramme peut être utilisée pour le rehaussement. Il est également
possible d'utiliser les statistiques de l'histogramme (moyenne, variance) pour l'amélioration
de l'intensité et du contraste.
b. Segmentation en plans :
Une segmentation en plans consiste à détecter les différents plans d'une vidéo. Pour
cela, une méthode consiste à calculer un histogramme pour toutes les images de la vidéo, et
d'étudier ensuite les variations temporelles des distances entre histogrammes consécutif. Une
distance faible étant synonyme de similarité visuelle, et une distance élevée reflétant un fort
changement visuel. Les changements de plans sont alors détectés comme étant les pics de
ces variations temporelles. Les histogrammes sont la méthode privilégiée pour la
segmentation, qui donne les résultats parmi les plus robustes, tout en étant de faible
complexité.
c. Reconnaissance d'objets :
L'idée a été proposée par Michael Swain et Dana Ballard en 1991 et est
principalement utilisée dans les situations où, la rapidité du traitement de l'image est un
facteur déterminant du choix de l'algorithme ou est un objet spécifique, au lieu d'être une
classe d'objets abstraite qui requiert d’être identifiée. Ceci fournit une vue d'ensemble bien
plus compacte des données dans une image que de savoir la valeur exacte de chaque pixel.
L'histogramme de couleurs d'une image est invariable selon la translation ou de la rotation
de l'axe de vue, et varie progressivement selon l'angle de vue. Ce qui fait que l'histogramme
de couleurs est un outil particulièrement intéressant pour la reconnaissance d'objets ayant
une position et une rotation inconnue par rapport à la scène.
Chapitre 3 La reconnaissance de visage humain
62
L'inconvénient principal de cet histogramme est que la représentation obtenue
dépend seulement de la couleur de l'objet étudié, par ce fait il n'y a pas de moyen de
distinguer la différence entre une tasse rouge et blanche d'une autre tasse blanche et rouge.
En d'autres termes, l'algorithme de l'histogramme de couleurs n'a pas d'idée générale de la
tasse, seulement de son nombre de couleurs, alors on ne peut la comparer avec une tasse
bleue et blanche, car les informations obtenues ne seront pas semblables.
d. Photographie :
L'histogramme est un outil indispensable pour beaucoup de photographes. Il permet
notamment de savoir très rapidement si une photographie est bien exposée, et s'il existe des
zones bouchées (noir complet) ou brûlées (blanc pur). L'histogramme permet de contrôler la
qualité de l'exposition de manière objective.. Il est important de considérer que
l'histogramme peut être analysé correctement quel que soit l'écran utilisé et ses réglages,
alors que la lecture d'une image seule ne sera pas juste si l'écran utilisé n'est pas bien calibré.
L'histogramme est le seul moyen de vérifier certaines informations juste après la prise de
vue avec certains appareils photos reflex pour lesquels l'écran intégré est loin d'être parfait.
5. Conclusion :
Nous avons vu l'utilité de la reconnaissance des visages, nous avons présenté un
aperçu sur les différentes méthodes et les systèmes de reconnaissance des visages existants.
Entre autre, nous avons sélectionné deux méthodes que nous avons mises en œuvre. La
première basée sur l’histogramme car il joue un rôle très important dans le traitement
d’image. Il peut être utilisé pour améliorer la qualité d’une image (Rehaussement d’image),
il permet aussi l’extraction informations utiles et nécessaires afin de mettre en
correspondance des images soient des visages. La deuxième méthode est basée sur l’ACP,
celle-ci représente l’une des techniques les plus rapide, simple à mettre en œuvre et
populaire dans l’identification de modèle, c’est l’une des meilleures techniques, les
projections de l’ACP sont optimisées pour la reconstruction d’une base de dimension
réduite. Cependant, l’ACP n’est pas optimisé pour la séparabilité (discrimination) de classe.
Chapitre 4 Conceptions
63 63
1. Introduction :
Apres avoir défini des généralités dans les chapitres prétendants, nous parlons dans cette
partie de notre objectif qui est la conception d’un système de détection et reconnaissance de
visage, nous allons vous montrez toutes les techniques en donnant un aperçu des algorithmes
de chaque méthodes de notre travail cette section se compose de trois parties :
1 ère partie : elle concerne la détection de visage par réseaux de neurone
2ère partie : c’est une présentation des méthodes de prétraitement appliqué aux images
3ère partie : elle concerne l’utilisation des méthodes pour la reconnaissance de visage.
2. Etude conceptuelle :
Constitution d’un système de reconnaissance de visage ce fais comme suit :
1. Système d’acquisition.
2. Détection de visage pour avoir l’image des personnes . 3. Prétraitement pour concevoir une base de données des images.
4. Reconnaissance se visage.
Figure26: architecture d’un système proposée.
Capteur : caméra
Détection de visage
Prétraitement
Reconnaissance de visage
Chapitre 4 Conceptions
64 64
2.1. Détection de visage pour avoir l’image des personnes :
2.1. 1. La base :
Notre a application contient une base de donnée qui est devisé en trois sous dossier comme
suite :
Visage : il contient des images de visage de taille 27*18 elle sert à apprendre notre
système pour qu’il puisse identifier les visages d’images à tester.
Non visage : il contient des images de parties des visages il sert à apprendre notre
système pour qu’il puisse éviter les erreurs sur les parties non visage.
Base teste : elle contient les images qui seront tester par l’application pour identifier les
visages des personnes.
2.1.2. Principe de l’algorithme :
Etape01 : créations de matrice de Gabor
Dans le domaine spatial, un filtre de Gabor est un exponentiel complexe module par une
fonction gaussienne [ 49] le filtre de Gabor peut être défini comme suit :
W (k, x) =k2/ 2 (-k2. x2/2 ) [exp (ik.x)-exp (- 2 /2)]
Dans notre travaille le filtre de Gabor a une certaine résolution r=5 et a une orientation o=8,
la matrice résultat de Gabor est de taille « 8*5 »
Etape 02 : Préparation des données des réseaux
1-extraction des caractéristiques :
La représentation de Gabor d’une image de visage ou non visage est obtenu par la
convolution de l’image avec la famille des filtres de Gabor, définie par IG(r,o) = I*G(r,o) est
le résultat de la convolution de l’image par le filtre de Gabor a une certaine résolutions r et a
une orientation o
Dans notre travaille, la taille normal de l’image (visage ou non visage) est27*18, la
dimension du Gabor est 5*8 aura comme conséquences 19440 (27*18*5*8) .le vecteur est
de taille grande ce qui engendre un temps de calcule et de performance plus élever pour sa on
a supprimé le tiers de vecteur pour avoir comme résultat vecteur de la taille 2160 (45*48)
Chapitre 4 Conceptions
65 65
2-Ce vecteur de caractéristiques sera gardé dans une matrice nommer « imgbd »
3-Dans la même matrice on sauvegarde les noms des fichiers « visage et non visage » et on enregistre les
résultats obtenus si c’était un visage le résultat est de 0.9 et si c’était un non visage le résultat
est « - 0.9 »
Etape 03 :
1. Création du RDN :
Le modèle de RDN qui a été prise en comte est MLP (multi-layer perceptron) ou le
Perceptron multicouches, c’est le type des architectures des réseaux les plus utilisés
en Identification des formes, l’apprentissage est de type supervisée et l’algorithme
D’apprentissage est celui de retro-propagation du gradient la fonction d’activation et
celle dite tangente hyperbolique défini par :
F(x)= − / +
2 .L’architecture du MLP est la suivante :
La couche d’entrée : les neurones de la couche d’entrée représentent les pixels de
vecteur de la matrice imgbd de taille « 2160 ». Deux couches cachée : la 1ere contient
100 neurones et la 2ere contient un seul neurone. La couche de sortie : elle contient un
seul neurone.
Etape 04 :
En prend l’image du test pour le découpage en bloc de taille 27*18 chaque bloc sera
traiter par le filtre de Gabor et donne à la fin comme résultat un vecteur de
caractéristique qui sera comparer avec net de réseaux de neurone. Si le résultat
obtenu est supérieur au seuil, cette fenêtre est détectée comme visage
2.1.3. Algorithme teste :
En net chaque valeur de chaque pixel de l’image teste entre -1 et1 puis en la
convolution avec une Template visage de notre base. Dans l’image résultat, en chercher les
pics du masque binaire qui représentent les centres de la fenêtre. La partie du centre sera
représenter par une fenêtre de taille 27*18 puis traiter par le filtre de Gabor pour l’extraction
des caractéristiques ‘vecteur’.
Chapitre 4 Conceptions
66 66
Le vecteur de caractéristique sera comparé avec le RDN net
§ Si le résultat de comparaison est inférieur à ‘-0 .90’, ces pics seront éliminer et
recolorer par le noire.
§ Si le résultat est inferieur a’-(-0.90) ‘, ces pics seront éliminer et recolorer par
le rose.
§ Si le résultat est supérieur à 0.90, ces pics seront éliminer et recolorer par le
bleu.
§ Si le résultat est inferieur au seuil, ces pics seront éliminer et recolorer par le
rouge.
§ Si le résultat est supérieur au seuil ont la recolorer avec le vert et en la net dans
un dossier du visage détecter.
On cherche le centre dans la région vert qui représenté les pics.
On dessine un rectangle vert et ont prend en considération que le centre du rectangle et le
même de la région est sa taille est de 27*18
2.2. Reconnaissance de visage :
2.2.1 .Reconnaissance de visage a base de l’histogramme:
2.2.1.1. Introduction :
Dans notre travail, la reconnaissance des visages ce fait sur la base de l’histogramme, en a choisi cette
méthode pour sa simplicité et son efficacité, le pourcentage des résultats est de 99.75 ce qui rend la
méthode plus faible
2.2.1. 2.Définition :
La construction de l’histogramme sur l’image an traiter se fait en calculons pour chaque pixels de
l’image la fréquence de l’intensité de pixel la détermination de l’histogramme est donc réalisée en
comptant le nombre de pixel pour chaque intensité de l’image.
2.2.1.3. Principe de l’algorithme d’histogramme :[50]
Cette méthode dite reconnaissance faciale par traitement d’histogramme est constituée de
trois étapes essentielles :
Chapitre 4 Conceptions
67 67
1)- Sachant que l’histogramme d’une image représente la fréquence ou répétition des
niveaux de gris de la gamme sur laquelle est définie l’image, l’histogramme de l’image est
calculé.
2)- La moyenne de chaque 09 fréquences consécutives est calculée et est enregistrée afin
d’être utilisée dans l’étape suivante pour le traitement de test de similarité entre l’image
d’entrée et l’image de référence.
3)- Les valeurs moyennes obtenues dans l’étape précédente, sont ensuite utilisées pour
calculer les valeurs absolues de différences avec celles calculées de la même façon pour
l’image de référence afin d’estimer d’éventuelles similitudes/dissimilitudes entre les deux
images.
Chapitre 4 Conceptions
68 68
4)- La différence minimale (dissimilitude minimale) obtenue des résultats précédente, donne
la reconnaissance de visage.(existe dans la base ou non existe).
2.2.2. Reconnaissance de visage a base de l’analyse composant principale (ACP) :
2.2.2.1 .introduction :
Dans notre travail, la reconnaissance des visages ce fait sur la base de l’analyse composant
principale. en a choisi cette méthode pour sa simplicité et son efficacité, le pourcentage des résultats est
de 96,4% ce qui rend la méthode plus faible.
2.2.2.2. Prétraitement :
Chaque image de la base est normalisée à la taille 92 × 112 avant l’extraction des
caractéristiques. Les images sont normalisées géométriquement de sorte que les yeux se
trouvent à la même position dans chaque image, et on applique opération de filtrage pour
éliminer le bruit dans le cas image bruit et détection de contour pour détecter les contours
visage dans l’image et Binarisation pour détecter seulement le nez et la bouche et les yeux et
Les images sont redimensionnées à la taille 23 × 28 pour simplifier les calcules de méthodes
ACP.
2.2.2.2.1. Normalisation de l’image :
Notre but principal c’est la réalisation d’un système fiable et rapide, donc on est lié à la
contrainte du temps. Pour ça on a opté au traitement des images de petites tailles.
L’acquisition de l’image se fait sur des images à une dimension variable mais le processus de
normalisation permet de rendre les images existe dans la base de même taille et fixe et de
dimension petite.
Chapitre 4 Conceptions
69 69
2.2.2.2.2 Filtrage :
Pour améliorer la qualité visuelle de l’image, on doit éliminer les effets des bruits en lui
faisant subir un traitement de bas niveau appelé filtrage.
Le filtrage est une application d'une transformation mathématique qui modifie les valeurs des
pixels. Lorsque la transformation est linéaire, le filtrage est dit linéaire. Si les valeurs
d’intensité au voisinage de chaque pixel transformé sont prises en compte, le filtrage devient
une fonction de convolution.
Filtre Moyenne :
C’est un filtre passe-bas. Il est défini par :
Filtres moyens (3x3) :
19 1 1 11 1 11 1 1
2.2.2.2.3. Détection de contour :
SOBEL a développé une méthode pour la détection des contours de visage dans image,
cette méthode basée sur une matrice de convolution 3x3 dont la formule est :
+1 0 -1 +1 +2 +1
Sx = +2 0 -2 Sy = 0 0 0
+1 0 -1 -1 -2 -1
2.2.2.2 .4.Binarisation :
La Binarisation des images (après détection de contour) à partir d’un seuil donné
Pour le but d’affecter un niveau uniforme aux pixels pertinents et d’éliminer les autres.
Le seuillage est un paramètre qui transforme une image en une image noire et blanc pour la
préparation de l’image au prochain traitement, il offre la fonction de seuillage.
Chapitre 4 Conceptions
70 70
La fonction de seuillage paramétrée, selon le paramètre pour détecter sauf les yeux, le nez et
la bouche donc :
Pour chaque pixel de l’image on l’associe une des valeurs 0 ou 255 qui correspondant
respectivement au noire et au blanc
Si la valeur du pixel supérieure à un seuil S on l’associe une valeur de 255 sinon une valeur de
0.
255 si image (i,j)> S
image (i,j) =
0 sinon
image (i,j) = Valeur du pixel dans l’image image au niveau i, j .
S = seuil (Valeur du paramètre).
2.2.2.2.5. Zoom :
En réduit l’image on double de quart pour facilité les calcule de la méthode ACP
Image de dimension = hauteur *largeur
Pour le zoom en rend l’image de dimension = Hauteur1* Largeur1
Image de dimension hauteur *largeur
Hauteur1= hauteur/4
Largeur1= largeur /4
F= hauteur / Hauteur1
L= largeur/ Largeur1
i=1, Hauteur1
j=1, Largeur1
ii=F*i
jj=L* j
afficher image (i,j) image(ii,jj)
Chapitre 4 Conceptions
71 71
2.2.2 .3. Extraction des caractéristiques :
Cette étape consiste à calculer certaines caractéristiques du visage utilise la méthode
statistique analyse en composante principale
2.2.2.3.1. Méthodes statistiques : l’analyse en composantes principales connaissent des
applications en reconnaissance de visage.
Analyse en Composantes Principales :[51]
A partir d’un nombre élevé de caractéristiques, le but de cette méthode est de réduire les
calculs à un petit nombre significatif de caractéristiques.
Elimine la redondance entre les caractéristiques et les caractéristiques non-significatives
L’Analyse en Composantes Principales sert à optimiser les caractéristiques utilisées pour la
reconnaissance
On applique ACP sur chaque image de visage dans la base.
et Analyse en Composantes Principales(ACP) construire Les informations recueillies par
l’algorithme d’extraction des caractéristiques sont finalement fournies au réalisant la
classification par calculent la distance euclidienne entre les vecteurs.
2.2.2.3.2. Les étapes Analyse en Composantes Principales :
Etape 1 :
Calculer la moyenne de chaque vecteur de caractéristique d’ image de visage dans la base.
w=largeur , h=hauteur
Moy(j)= ∑ image(i, j) (j=1……….w) : Moyenne
Etape 2 :
Calculer l’écart type de chaque vecteur de caractéristiques d’ image de visage dans la base.
écart(j) = ∑ (image(i, j) − moy(j)) (j=1………..w) : écart type
Etape 3 :
Calculer la matrice centre et réduit.
Chapitre 4 Conceptions
72 72
red (i,j)= ( , ) ( ) é ( ) (i=1…….w,j=1……h):centée_reduite
Etape 4:
Calculer la matrice de la corrélation
Core (i,j)= (red(j, i) ∗ red(i, j))(i=1….w, j=1…h.):matrice de corrélation
Etape 5 :
Calculer les valeurs et vecteurs propres de la matrice de corrélation
Algorithme de calcule des valeurs propres et des vecteurs propres par la < méthode de la
puissance itérée >:[52 ]
Lecteur de la matrice de données :
i =1,w
j=1,w
Lire core (i,j)
Entrée le vecteur v[w] :
l=1, w
i = 1,w
Lire v(i)
Calculer le produit de matrice de corrélation et le vecteur donnée coré[h][h]*v[h]
k=1 ,w+1
i=1,w
W(i) 0
j = 1, w
W (i ) w(i) +core(i,j)*v(j)
i= 1,w
B (i,k) w(i)
Chapitre 4 Conceptions
73 73
i=1,w
V(i) w(j)
fin
Calculer la valeur propre |y(l)| :
i=1,w
s s+B(i,w)2
s √s
i=1,w
s1 s1+B(i,w+1)2
s1 √s1
|y (l)|
Calculer le vecteur propre x(w) :
i=1,w
x(i) ( , )
Calculer la matrice semblable
i=1,w
j=1,w
core(i,j) core(i,j)- |y(l)|x(i)*x(j)
Fin
A partir des calcules précédent en a réussi à trouver les valeurs propre (composante
principale)
Sachant que dans la méthode ACP les trois premiers valeurs en plus d’ informations
(prend quantité d’un information grand )qu’aux autre valeurs chaque visages sera
représenter par ses trois valeurs qui seront
Chapitre 4 Conceptions
74 74
Enregistrer dans la matrice, cette matrice à l’information d’apprentissage de la
caractéristique de chaque visage de la base de visage.
2.2.2.4. Classification :
Une fois les caractéristiques sont extraites, le problème de vérification d’identité, devient à
chercher, pour chaque personne, ou de manière globale, en utilise la fonction de la distance
euclidienne entre la matrice qui a les informations de caractéristiques de chaque image de
visage existé dans la base de visage et le vecteur de caractéristique de visage test.
Distance euclidienne=∑ (a − b ) j=1,3
2.2.2.5. Test :
Si la distance est égale à zéro ou inferieure de seuil le visage existe dans la base de visage
Sinon le visage n’existe pas.
2.2.3. Comparaison entre l’histogramme et ACP :
• Pourcentage de la réussite est de l’ACP 96.4% et de l’histogramme 99.75%.
• ACP prend beaucoup de temps pour extraire vecteur de caractéristique mais
l’histogramme prend moins de temps pour extraire vecteur de caractéristique.
• ACP est une méthode statistique utilisé pour la reconnaissance de visage.
• L’histogramme c’est un outil fondamentale utiliser pour reconnaissance de
Visage
Annexe Implémentation
75
1 .LES LANGAGES DE PROGRAMMATION : Utiliser dans ce projet deux langages de programmations : langage builder version 2009
Et langage Matlabe version R2010a
1.1. Description de langage C++builder : [53]
Pour l’implémentation on a choisi le langage C++, qui est un langage de programmation
orienté objet. Il permet de concevoir des applications en utilisant des concepts de base tels
que :
• Les objets, composés de données et réalisant des actions.
• Les classes, qui permettent de définir le type d'un objet.
Il même classe. Existe d'autres concepts aussi plus évolués qui permettent de développer des
applications très complexes le plus efficacement possible : L'héritage, qui permet de
spécialiser une classe.
• L’encapsulation qui permet de réunir des variables et fonctions au sein d'une
• le polymorphisme qui permet de modifier l'action d'une classe héritant d'une autre
classe.
A partir de ces notions, le C++ tire des avantages qui l’en font un outil de développement très
apprécié.
1.1.1. Les avantage du langage C++ :
Le C++ est en fait une encapsulation du C : il conserve ses principaux avantages, corrige
ses défauts et rajoute des concepts plus évolués pour en faire un langage très complexe et très
puissant. De plus, il conserve une certaine vitesse d'exécution proche de celle de son aîné.
Un autre avantage est sa modularité : il permet de structurer la conception d'une
application en modules qui vont pouvoir être développés indépendamment. Par la suite la
modification d'un module reste généralement transparente pour les autres.
De ces avantages, le C++ est un langage très apprécié pour les grands projets, et permettent
un développement efficace, rapide, et facile à maintenir.
Annexe Implémentation
76
1.1.2. Son domaine d'utilisation :
Le langage C++ peut être utilisé pour tous les projets imaginables, plus particulièrement
des projets nécessitant une importante structuration et une étude conceptuelle approfondie.
Il est très adapté pour des projets tels que des applications graphiques, qui font intervenir la
notion d'objet (boutons, fenêtres ...).
Il est très utilisé aussi pour le développement d'applications réseaux, et plus
particulièrement de serveurs.
Logiciel est développé en utilisant l’environnement de Microsoft Borland C++ Builder 9.0
qui est un environnement de développement Visuel RAD (Rapid Application
Développements) destiné au développement d'applications C++, y compris les
développements base de données, pour Windows. Il est la parfaite alliance entre la simplicité
d'un RAD qui a fait ses preuves depuis des années, et l'utilisation du C++ sans concession. La
richesse et la qualité des composants de C++Builder permet de se concentrer sur les parties de
code vraiment utiles et d'aller droit à l'essentiel. Par la diversité des technologies utilisées
C++Builder permet de concevoir des applications fiables et compatibles avec les standards
les plus récents. Borland C++Builder est un éditeur très similaire à Delphi : C++ à la place de
Delphi Langage (Pascal Objet).
1.2. Description de langage Matlabe :[54]
1.2.1. Généralités sur Matlabe : Matlabe (Matrix laboratory) est un langage de calcul scientifique très performant intégrant le calcul,
la programmation et la visualisation dans un environnement simple à utiliser. C’est un système
interactif qui permet de manipuler directement des données structurées (matrices et vecteurs), ce
qui n’est pas le cas de C, Java, Fortran ou Pascal par exemple.
1.2.2. Environnement : Matlabe est à la fois un langage et un logiciel. Il possède une fenêtre principale ou de commande et
un éditeur de programmes (M-files). Dans l’éditeur de programme, plusieurs fenêtres ( donc
programmes ) peuvent être ouvertes à le fois. Un éditeur de figure est aussi disponible pour les
graphiques.
Annexe Implémentation
77
1.2.3. Principe du Help/Démo :
Le help de Matlabe est très bien adapté à l'auto-apprentissage autant théorique (documents
pdf) que pratique (help topic ) sur le langage, les fonctions disponibles et les techniques qu'il
comporte (notamment grâce à ses toolboxes).
Taper la commande help permet d’afficher tout le contenu de Matlab, les familles de
fonctions qu’il comporte. Taper help famille affiche toutes les fonctions qui appartiennent
à la famille en question et help fonction donne la définition de la fonction, ses options et
sa syntaxe.
2. Explication de logiciel :
2.1. Détection de visage par réseaux de neurone :
Figure27 : interface principale
Cette image représentation l’interface de notre application elle se compose :
D’une zone image qui comporte 04 emplacement pour mettre les images a tester
D’une zone teste qui comporte 3 emplacements
-image d’origine : la ou l’image à tester s’affiche
Annexe Implémentation
78
Image filtré : c’est l’emplacement ou le traitement ce fait sur l’image.
Image résultat : c’est l’emplacement de l’image finale
D’une zone la base qui se compose a deux parties :
La base visage : elles contiennent 10 emplacements de différents visages
La base non visage : elles contiennent 10 emplacement de différents non visages
Ouvrir :
En cliquant sur le bouton ouvrir 04 images qui seront testé s’affichent dans la zone image.
Figure 28 : affichage des images testes
Création de la base :
En cliquant sur le bouton création de la base 10 visages et 10 non visages s’affichent dans
les zones la base visages et la base non visage respectives et une nouvelle fenêtre s’affiche
disant que la base a été créer.
Annexe Implémentation
79
Figure29 : affichage des images de la base
Initialisation :
En cliquant sur le bouton initialisation une fenêtre s’affiche contenant le
message « initialisation du RDN est terminée.
Figure30 : initialisation de réseaux de neurones
Annexe Implémentation
80
Apprentissage :
En cliquant sur bouton apprentissage de RDN dans cette fenêtre en calculer le nombre
d’itération et le temps et les performances à la fin des itérations une autre fenêtre s’affiche
disant que l’apprentissage par RDN est terminer.
Figure 31:apprentissage par RDN
Teste en cliquant sur le bouton teste une fenêtre s’affiche donnant la possibilité à l’utilisateur
de choisir l’une des images affiché à la zone image, en choisissant une image elle s’affiche
dans la zone teste image d’origine
Puis dans la même zone à l’emplacement image filtre s’affiche l’image en plein traitement
Et à la fin s’affiche dans l’emplacement image résultat le résultat final de image ou les visage
seront cadré
Annexe Implémentation
81
Figure32 : choisir une image
Figure 33:affichage d’image résultats
Annexe Implémentation
82
2.2. Reconnaissance de visage basée sur deux méthodes (l’histogramme et analyse
composante principale) :
2.2.1. Base de données:
Notre base se compose de deux bases :
Ø la base de donnée qui porte le nom de base de visage contient 40 dossiers dans chaque
dossiers en a une personne ou chaque dossiers a 10 images différentes des personnes
pour enrichir la base.
Elle a été téléchargé du centre de recherche state ............[55]
Ø la base de teste contient les images de la base de donnée en plus les images quant veux
trouver .En peux la mettre donne n'importe quel emplacement et l'emplacement peut
changer à tout moment.
2.2.2. Reconnaissance de visage basée de l’histogramme :
Figure34 : interface principale de méthode l’histogramme
Annexe
Cette image représente l’interface de notre application elle se compose
D’un emplacement pour mettre une image qui sera tester
D’un emplacement pour mettre le résultat
De quartes petit emplacement qui donnent des images de la personne trouver dans
positions différentes. ‘photos’
Apprentissage :
En cliquant sur le bouton apprentissage l’algorithme parcours la
L’algorithme se souvient de 200 personnes.
Ouvrir :
En cliquant sur le choix ouvrir en accède a la base de teste pour choisir l'image a reconnaitre
par notre application
Figure
Implémentation
83
Cette image représente l’interface de notre application elle se compose :
D’un emplacement pour mettre une image qui sera tester ‘image d’origine’.
D’un emplacement pour mettre le résultat ’trouver ’.
De quartes petit emplacement qui donnent des images de la personne trouver dans
‘photos’
En cliquant sur le bouton apprentissage l’algorithme parcours la BDD qui est
personnes.
cliquant sur le choix ouvrir en accède a la base de teste pour choisir l'image a reconnaitre
Figure35 : choisir image
mplémentation
‘image d’origine’.
De quartes petit emplacement qui donnent des images de la personne trouver dans
qui est ORL.
cliquant sur le choix ouvrir en accède a la base de teste pour choisir l'image a reconnaitre
Annexe Implémentation
84
Apres avoir choisir une image pour le teste elle s'affiche dans l'emplacement d'image origine
Figure 36:afficher image teste
Test :
Le bouton teste consiste à chercher la personne et a afficher le résultat.
Ø Si le résultat de recherche est positive l’image de la personne rechercher s’affiche
dans l’emplacement image trouver et des images de la personnes s’affichent dans les
04 emplacement de ‘photos’ pour donner plusieurs postures de cette personnes et une
autre fenêtre s'apparait montrant qui la personne a été trouvé et donnant accès à son
profile
Annexe
Figure
Si le résultat est négatif aucunes images ne s’affichent et une autre fenêtre apparait monteront
que la personne n’a pas été trouvé et on a deux boutons
Ajouter : L’image sera ajoutée à la base ORL dans un nouveau dossier.
Profile : un formulaire vierge s’affiche pour remplier toutes l’information concernant
la personne.
Figure 38:affichage d’image n’existe pas dans la base
Implémentation
85
Figure 37:afficher image trouver
Si le résultat est négatif aucunes images ne s’affichent et une autre fenêtre apparait monteront
personne n’a pas été trouvé et on a deux boutons :
: L’image sera ajoutée à la base ORL dans un nouveau dossier.
: un formulaire vierge s’affiche pour remplier toutes l’information concernant
affichage d’image n’existe pas dans la base
mplémentation
Si le résultat est négatif aucunes images ne s’affichent et une autre fenêtre apparait monteront
: un formulaire vierge s’affiche pour remplier toutes l’information concernant
Annexe
après avoir ajouté la personne non trouver à la base en refais le testée en constate que la recherche a été fructueuse.
Figure 39:afficher image qui en
Fermer :
Apres avoir terminer le bouton FERMER
fenêtre principale.
Implémentation
86
après avoir ajouté la personne non trouver à la base en refais le testée en constate que la recherche a été fructueuse.
afficher image qui en ajouter a la base
FERMER ferme la fenêtre de l'application pour revenir a la
mplémentation
après avoir ajouté la personne non trouver à la base en refais le testée en constate que
ferme la fenêtre de l'application pour revenir a la
Annexe Implémentation
87
2.2.3. Reconnaissance de visage basée de l’analyse composante principale :
Figure40 : l’interface principale de l’ ACP
Cette image représente l’interface de notre application elle se compose :
D’un emplacement pour mettre une image qui sera tester ‘image d’origine’.
D’un emplacement pour mettre une image qui sera réduit ‘image réduit’.
D’un emplacement pour mettre le résultat ’trouver ’.
Apprentissage :
En cliquant sur le bouton apprentissage l’algorithme parcours la BDD qui est. L’algorithme se souvient de 400 personnes.
Ouvrir image :
En cliquant sur pope menu fichier sur le choix ouvrir en accède a la base de teste pour choisir l'image à reconnaitre par notre application.
Annexe Implémentation
88
Figure 41:choisir une image
Apres avoir choisir une image pour le teste elle s'affiche dans l'emplacement d'image origine
Figure 42:afficher l’image teste
Annexe Implémentation
89
Prétraitement :
Figure 43:afficher l’image après les prétraitements
Test :
Le bouton teste consiste à chercher la personne et a afficher le résultat.
Ø Si le résultat de recherche est positive l’image de la personne recherché s’affiche dans
l’emplacement image trouvé.
Figure44 : afficher image après réduction
Annexe Implémentation
90
On click sur OK est résultat :
Figure45 :affichage d’image trouver
Si le résultat est négatif aucunes images ne s’affichent et une autre fenêtre apparait
monteront que la personne n’a pas été trouvé et on a deux boutons :
Figure46 : le cas de l’image n’existe pas dans la base
Annexe Implémentation
91
On click sur OK afficher deux Label (Ajouter, Vérifier)
On click sur Label Ajouter : L’image sera ajoutée à la base de visage dans un nouveau dossier.
Figure 47 :ajouter l’image dans la base
On click sur Label Vérifier : vérifier asque l’image ajouter ou non et afficher cette image
Figure48 :image a été ajouter dans la base
Annexe Implémentation
92
Label afficher la matrice pour afficher la matrice apprentissage et
Label affiché vecteur pour afficher vecteur de l’image test.
Label fermé :
Apres avoir terminer Label fermé ferme la fenêtre de l'application pour revenir à la fenêtre principale
Conclusion Général
93
Conclusion général
Le travail présenté comporte deux principales parties, la première concerne la
détection de visage en utilisant les réseaux de neurones, la seconde se charge de la
reconnaissance du visage issue de la première étape. Nous avons traité la phase de la
reconnaissance par deux méthodes différentes : la première basée sur l’ACP, la seconde
méthode basée sur l’histogramme avec lesquelles nous avons obtenue des résultats très
satisfaisants.
Nous tenons à signaler les principaux obstacles rencontrés lors de notre études qui
se résume à ce qui suit : Déformations non-rigides, variations inter-personnes, micro-
expression expression subtile (début d’une émotion). Sans oublié le « problème universel »
qui est le temps de calcul ce qui nous incites à utiliser les réseau de neurones afin de projeter
une éventuelle « parallélisassions » des traitements
L’étude des systèmes biométriques, en particulier la détection et la reconnaissance
du visage, nous conduit à conclure qu’ils sont très puissants en termes d’identification mais ils
rencontrent certains problèmes, la difficulté des traitements et la complexité des algorithmes
utilisés et le temps de calcul rendent le processus d’identification moins fiable relativement
aux attentes des utilisateurs dans les différents domaines. Ceci représente, pour les chercheurs
un défi à conquérir.
Bibliographies :
[1] : Nassim HAMITOUCHE, Zakaria SALMI, « Système d’identification
biométrique de personnes par reconnaissance de l’iris », Ecole national
Supérieure d’Informatique (ESI) Oued-Smar, Alger, Algérie ,2009
[2] : A.Belaid et Y.Belaid : reconnaissance des formes : méthodes et
applications .inter éditions , 1992
[3] : P.Faber : Exercices de reconnaicence des formes par ordinateur avec
solutions commentées,programmes d’applications et rappels de cours .
Masson,Paris, 1989.
[4] : H.Abdi : Les Réseaux de neyrones .Presses Universitaires de
Grenoble ,1994.
[5] : BENABDALLAH Abderrazzak, CHELLOUCHE Hamid,
«reconnaissance de forme », Ecole national Supérieure d’Informatique
(ESI) Oued-Smar, Alger, Algérie, Juillet 2010.
[6] : Commission d’accès à l’information du Québec, « La biométrie au
Québec : Les enjeux », Juillet 2002
[7] : T.Shtonham : Pratical face recognition and verification with WISCAD
. DANS H.D.Ellis,M.Jeeves, F.Newcombe et A.Young :Aspects of face
processing . Martinus Nijihoff Publishers,pp 426-441 ,Dordrecht , 1986.
[8] : E.Diday,J.LEMAIRE ?j.Pouget et F.Testu :Element d’analyse de
données .Dunod, Paris,1982
[9] : V.Bruce:What the human face tells the human mind : Some challenges
for the robot-human interface , biometrie , pp 44-51,1992.
[10] : J. Haddadnia, M. Ahmadi, and K. Faez, “An Efficient Feature
Extraction Method with Peudo
Zernike Moment in RBF Neural Network Based Human Face Recognition
System”, EURASIP
[11] : P. Belhumeur, J. Hespanha, D. Kriegman, Eigenfaces vs.
Fisherfaces: Recognition Using
Class Specific Linear Projection, IEEE Transactions on Pattern Analysis
and Machine
[12] : D. L. Swets, J. Weng, Using discriminant eigenfeatures for image
retrieval, IEEE Trans. Patt.
Anal. Mach. Intell. 18, 831– 836, 1996.
[13] : J. Haddadnia, M. Ahmadi, and K. Faez, “An Efficient Feature
Extraction Method with Peudo
Zernike Moment in RBF Neural Network Based Human Face Recognition
System”, EURASIP
JASP, vol. 9, pp. 890-891, 2003.
[14] : D. L. Swets, J. Weng, Using discriminant eigenfeatures for image
retrieval, IEEE Trans. Patt.
Anal. Mach. Intell. 18, 831– 836, 1996.
[15] : S. Z. Li, A. K. Jain, "Handbook of Face Recognition", Springer,
2004
[16] : E. Hjelmas et B. K. Low. “Face detection : A survey”,Computer
Vision and Image
Understanding, vol. 83, no. 3, pp. 236-274, 2001.
[17] : F. Zernike. “Diffraction theory of the cut procedure and its improved
form, the phase contrast
method” . Physica, 1:pp. 689-704, 1934.
[18] : J.TYLOP “Diffraction theory of the cut procedure and its improved
form, the phase contrast
method” . Physica, .
[19] : F. ZerDORA. “Diffraction theory of the cut procedure and its
improved form, the phase contrast
method” . Physica, 1704, 1934.
[20] : F. ZeRIGE. “Diffraction theory of the cut procedure and its
improved form, the phase contrast
method” . Physica, 1:pp. 689-704, 1934.2345
[21] : E. HjGIFT et B. K. Low. “Face detection : A survey”,Computer
Vision and Image AND IDENTIFUCATION
[22] : E. HjeFF et B. K. Low. “Face detection : A survey”,Computer
Vision and Image AND MORING
[23] : E. Hjelmas et B. K. Low. “Face detection : A survey”,Computer
Vision and Image
[24] : E. B. K. Low. “Face detection : A survey”,Computer Vision and
Image
[25] : ROSSI (F.). – Introduction aux réseaux de neurones. 1997.
http://www.ceremade.dauphine. fr/~rossi/work.html.
[26] : J.R. Jang, C. T. Sun et E. Mizutani, "Neuro-Fuzzy and Computing",
Englewood Cliffs, NJ: Prentice-Halle, 1997.
[27] : W.C. Mc Culloh, W.H.Pitts, A logical calculus ideas imanent in
nervous activity,
Bulletin of Mathematical Biophysics, 5, p.115, 1943.
[28] : J.F.Jodouin, Les réseaux de neurones. Principes et définitions,
édition Hermis, Paris, 1994.
[29] : K.Hornik,M.Stinchcombe and H.White, “Multilayered feedforward
networks are universal approximators“Neural networks,vol.2,pp.359-
366,1989.
[30] : .JM.Zurada,“Introduction to artificial neural systems,”West
Publishing,1992
Rese artificial.
[31] : HARDY (J.-M.) et STRASSERA (A.). – Les réseaux de neurones.
1998.
[32] : http://www.neurones.espci.fr/Theses_PS/Stoppiglia_H/chapitre.pdf
[33] : M.M. Nelson, W.T. Illingwotth, A practical guide to neural nets,
Addision-Wesley Pub.,3rd edition, New York, NY, USA, 1991 Articles
disponibles sur le Web.
[34] : YASMINE (Y.). – Stage sur les réseaux de neurones. CICT, 1999.
http://www.cict.fr.
[35] : A.Belaid et Y.Belaid : reconnaissance des v isages : méthodes et
applications .inter éditions , 1992.
[36] : Extrait du 22erapport d’activité du CNILchapitre 3 pp157-172,2001.
[37] : T.Shtonham : Pratical face recognition and verification with
WISCAD . DANS H.D.Ellis,M.Jeeves, F.Newcombe et A.Young :Aspects
of face processing . 1986.
[38] : P.Seitz et M.Bchsel : “The Digital Doorkeeper”-Automatic face
recognition with computer .IEEE,pp.77-83, 1991.
[39] : J.Shepherd,H.D.Ellis ,G.Davies:Perceiving and remembering
faces.Academic Press,pp.171-197,1987.
[40] : v.BRUCE/Influence of familiarity on the processing of
faces.Perception ,vol.15 ,pp 387-397,1986.
[41] : Y.Moses :Face recognition :Generalization to novel image .these de
PHP ,The Weizmman Institute Of Science ,Israel,1993
[42] : M.A.Turk et A.P.PENTLAND /Face reconition using eigenfaces.
IEEE Comput. Sco.Press,pp.586-591,juin 1991.
[43] : -M.S.Kamel,H.C.SHENA.K.C. Wong et R.I.Campeau : System for
the recognition of human faces .IBM systems journal, Vol 32,No 2 , pp
.307-320, 1993.
[44] : T.Kohonen ,P.lehtio.J Rovamo, J.Hyvarine, K.Bry et I.vainio:A
PRINCIPAL OF NEURAL ASSOCIATIVE MEMORY .Neuroscience
2,pp 1065-1076,1977.
[45]: T.Shigemura ,M.Murayama,H.Hongo,K,kato et
K.Yamamoto:Estimating the face direction for the human interface.
Proceedings/actes Vision Interface 98,pp. 339-345,vancouvert ,British
Columbia, juin 1998.
[46]: Wendy S. Yambor ”analysis of PCA and Ficherdiscriminant-based
imag recognition algorithms.Technical rapport, Colorado State University
July2000.
[47]: P. Belhumeur, J.P. Hespanha, D.J. Kriegman ,Eigenfaces vs.
Fisherfaces: recognition using class
specific linear projection. IEEE Trans. on Pattern Analysis and Machine
Intelligence, 1997, pp. 711-720.
[48]:http://documents.irevues.inist.fr/histogramme/handle/2042/4389/06%
E2%80%A2Caplier.pdf?sequence
[49]: Hong-Bo Deng Lian-Wen jin , Li-Xin Zhen, Jian-Cheng huang <<
A New Facial
Expression Recognition Method Based on Local Gabor Filter Bank and
P¨CA plus LDA >>
Scool of Electronic and Information Engineering , South China University
of Technology,
Guangzhou,510640 P.R.China Motorola China Research Center, Shanghai
, 210000, P.R.China.
[50]:http://www.lesialab.net/IMAGE2009/Documents/histogramme/13-
Rouabhia.pdf
[51]: J.Yang and J-Y.Yang, «From Image Vector to Matrix: a
Straightforward Image
Projection Technique- IMPCA vs. PCA», Pattern Recognition, vol.35,
pp.1997-1999, 2002.
[52]: J.Yang, D.Zhang, A.F.Frangi and J-Y.Yang, «Two Dimensional
PCA: A New
Approach to Appearance-Based Face Representation and Recognition»,
IEEE Transaction on
Pattern Analysis and Machine Intelligence, Vol.26, No.1, January 2004.
[53]: http://www.c++builder.org/kb/index_fr.html.
[54]: http://www.matlabe.org/kb/index_fr.html.
[55]: http//www.cam-orl.co.uk/facedatabase.html
Abstract
The use of face for identification has been employed in law enfoncement for about
a century. A much broader application of face is for personal authentication, for
instance to access a computer, a network, a bank-machine, a car, or a home. The
topic of this chapter is face verification, where "verification" implies a user
matching a face against a single face associated with the identity that the user
daims. The following topics are covered: history, image processing methods,
enrollment and verification procedures, recognition rate statistics, face capture
devises, and the future of face verification. Two main methods were applied for the
first one is gabor filter based .
Keywords: face verification, face matching, biometric, image enhancement,
feature detection, gabor filter.
Résumé
L'usage de visage pour l'identification a été employé presque un siècle déjà au sein
des forces de police. De nos jours; des applications plus élargies et diverses
s'emploient dans beaucoup de secteurs notamment pour l'authentification du
personnel comme pour l'accès aux ordinateurs, réseaux, distributeur de banques,
voitures ou même à la maison. Le sujet abordé dans cet écrit est la vérification de
visage qui est la comparaison du visage de l'utilisateur contre un seul visage de la
BDD celle associé à sa présumé identité. Nous avons abordés les sujets suivants:
histoire, méthodes de traitement des images, les procédures d'enrôlement et de
vérification, les appareils de capture, les statistiques des taux de reconnaissances,
le future de la vérification des visages. La méthode qui a été appliquée c'est les
filtres de gabor.
Mots clés : vérification des visages, appariement des caractéristiques, biométrie, prétraitement desimages, extraction des caractéristiques, filtre de gabor