28
République Algérienne Démocratique et Populaire Ecole Normale Supérieurs d’Enseignement Technique -ORAN- Département de Génie Electrique Magister 1ere Option : Analyse et Commande des Machines Electrique Module : Techniques d’optimisation Optimisation par la méthode des essaims particulaires D’une fonction trigonométrique Mr BOUZID Allal El Moubarek [email protected] Sous la direction de : Mr. ABDELMALEK Année universitaire 2008-2009

essaim particulaire PSO

Embed Size (px)

DESCRIPTION

L’application de la méthode d’essaim particulaire;Optimisation par l’essaim particulaire;Introduction sur optimisation par l'essaim particulaire;Origines;Des cription Informelle;Principales caractéristiques;Pour en savoir plus sur l’optimisation par essaim particulaire;Nombre de particules;Topologie du voisinage;Coefficients de confiance; Vitesse maximale et coefficient de constriction;Facteur d’inertie;Initialisation de l’essaim;Critères d’arrêt;L’organigramme de principe de la méthode d’essaims particulaires;Exemple d’application de PSO en langage C;

Citation preview

Page 1: essaim particulaire PSO

République Algérienne Démocratique et PopulaireEcole Normale Supérieurs d’Enseignement Technique

-ORAN-

Département de Génie Electrique

Magister 1ere

Option : Analyse et Commande des Machines Electrique

Module : Techniques d’optimisation

Optimisation par la méthode des essaimsparticulaires

D’une fonction trigonométrique

Mr BOUZID Allal El Moubarek

[email protected]

Sous la direction de : Mr. ABDELMALEK

Année universitaire 2008-2009

Page 2: essaim particulaire PSO

Sommaire

Introduction 01

Chapitre I Généralités

I-1 Informatique bio-inspirée 03

I-2 Intelligence collective : conditions d’émergence 03

I-3 Intelligence collective et insectes sociaux 04

I-4 Trois règles locales … 04

I-4-1 Séparation 05

I-4-2 Alignement 05

I-4-3 Cohésion 05

Chapitre II PSO

II-1 L’optimisation par les essaims particulaires 08

II-2 Principe de la PSO 08

II-3 État et comportement d’une particule 09

II-4 Information utilisée par une particule pour déterminer sa prochaine position 09

II-4-2 Trois types de comportement à pondérer 10

II-5 Points essentiels 12

Chapitre III Formalisation et simulation

II.1 Configuration de la méthode 13

II-1-1 Nombre de particules 13

II-1-2 Topologie du voisinage 13

II-1-3 Coefficients de confiance 14

II-1-4 Vitesse maximale et coefficient de constriction 14

II-1-5 Facteur d’inertie 14

II-1-6 Initialisation de l’essaim 15

II-1-7 Critères d’arrêt 15

III-2. L’organigramme de principe de la méthode des essaims particulaires 16

III-3 Variantes 17

III-3. L’exemple de la fonction appliqué dans ce programme 17

Conclusion 19

Conclusion générale 21

Bibliographie 22

Page 3: essaim particulaire PSO

IntroductionGénérale

Page 4: essaim particulaire PSO

1 Introduction

Introduction

Dans le but de créer des systèmes autonomes, robustes et évolutifs, une nouvelle

forme d'ingénierie trouve son inspiration dans les systèmes naturels complexes.

Par exemple, pour concevoir des systèmes sécurisés contre les intrusions, il est

possible d'imaginer de nouveaux mécanismes inspirés des défenses immunitaires. Elles

doivent être pensées comme des entités auto organisées, adaptatives et distribuées.

L'optimisation des essaims particulaires (PSO) a été à l'origine conçue et présentée par

Eberhart et Kennedy 1995.

La PSO est un algorithme de recherche basé sur la population basé sur la simulation

du comportement social des oiseaux, des abeilles ou d'une école des poissons.

Cet algorithme prévoit à l'origine pour simuler graphiquement la chorégraphie

gracieuse et imprévisible des gens d'oiseau. Chaque individu dans l'essaim est représenté par

un vecteur dans l'espace de recherche multidimensionnel. Ce vecteur a également un vecteur

assigné qui détermine le prochain mouvement de la particule et s'appelle le vecteur de vitesse.

Sur notre monographie présenté par suite on va s’intéresser a définir l’optimisation par

les essaims particulaires et bien comprendre comment fonctionne cette méthode en s’inspirent

pour cela des animaux et leurs comportement puis on va finir par donné un exemple d’une

fonction trigonométrique.

Page 5: essaim particulaire PSO

Chapitre I

Généralités

Page 6: essaim particulaire PSO

- 3 - CHAPITRE I Généralités

I-1 Informatique bio-inspirée

La bio-inspiration est un changement de paradigme qui amène les ingénieurs à s'inspirer de la

nature pour développer de nouveaux systèmes artificiels.

Concerne:

Végétaux.

Animaux.

Champignons, bactéries, virus, ….

Génère des applications:

Aéronautique,

Matériaux composites,

Intelligence (vie) artificielle,

Nanotechnologies, …

I-2 Intelligence collective : conditions d’émergence

Une information locale et limitée:

Chaque individu ne possède qu'une connaissance partielle de l’environnement.

Il n'a pas conscience de la totalité des éléments qui influencent le groupe.

Un ensemble de règles simples:

Chaque individu obéit à un ensemble restreint de règles simples par rapport au

comportement du système global.

Les interactions sont multiples:

Chaque individu est en relation avec seulement un ou plusieurs autres

individus du groupe.

La structure émergente est utile à la collectivité

Les individus trouvent un bénéfice à collaborer et leur performance est

meilleure que s'ils avaient été seuls.

Le cas des oiseaux migrateurs

Les oiseaux migrateurs doivent parcourir de très longues distances, dans des conditions

parfois difficiles

Optimiser leur déplacement en termes d'énergie dépensée

Les oies sauvages adoptent des formations en V

o chaque oiseau prend l'aspiration de son prédécesseur

o permet d'étendre la distance de vol de près de 70%

Page 7: essaim particulaire PSO

- 4 - CHAPITRE I Généralités

Le prix à payer :

o Un individu seul vole en moyenne 24% plus vite qu'une volée

o Donc il y a une perte en vitesse

I-3 Intelligence collective et insectes sociaux:

L'intelligence collective s'observe :

Insectes sociaux (fourmis, termites et abeilles).

Animaux se déplaçant en formation (oiseaux migrateurs, bancs de

poissons)

Points communs qui caractérisent l'intelligence collective :

- Les individus sont « grégaires » car ils obtiennent un avantage substantiel à chasser, se

déplacer ou vivre en groupe.

- Interagissent de manière locale par le moyen de signaux (grognement, phéromones,

attitudes).

- L'individu seul répond instinctivement à certains changements de comportement.

- La coordination du groupe est implicite. Elle se fait au travers de règles

comportementales très simples au niveau individuel.

I-4 Trois règles locales …

Comprendre ces phénomènes et la coordination des mouvements (parfois très

brusques) de ces populations.

Chaque « individus » se déplace selon sa propre perception de l'environnement avec

des règles simples :

Règle de séparation.

Règle d'alignement (mimétisme).

Règle de cohésion.

Page 8: essaim particulaire PSO

- 5 - CHAPITRE I Généralité

I-4-1 Séparation :

Ne pas heurter ses voisins en s'éloignant des proches

Figure I

I-4-2 Alignement :

Se déplacer dans la même direction que l'ensemble en moyennant

directions.

I-4-3 Cohésion :

Se maintenir dans le groupe en se déplaçant vers le centre perçu de la formation

CHAPITRE I Généralité

pas heurter ses voisins en s'éloignant des proches.

Figure I-1 : Séparation des individus

déplacer dans la même direction que l'ensemble en moyennant les vitesses et les

maintenir dans le groupe en se déplaçant vers le centre perçu de la formation

CHAPITRE I Généralités

les vitesses et les

maintenir dans le groupe en se déplaçant vers le centre perçu de la formation

Page 9: essaim particulaire PSO

- 6 - CHAPITRE I Généralités

Ces trois règles de bases, permettent l'attraction et la répulsion de chacun des individus

et permet la stabilité de l'ensemble.

Plus de nouvelles règles qui sont:

Atteindre un but (perchoir, arbre, nourriture, …)

En PSO chaque entité est une solution et le but global est de se rapprocher de la

meilleure

Page 10: essaim particulaire PSO

Chapitre II

L’optimisation par essaims particulaires

Page 11: essaim particulaire PSO

- 8 - CHAPITRE II Optimisation par les essaims particulaires

II-1 L’optimisation par les essaims particulaires

Optimisation par essaims particulaires (PSO) est relativement un nouvel algorithme de

l'érudition computation, en premier a introduit par James Kennedy et Russell Eberhart en

1995. Il porte quelque ressemblance à computation évolutionnaire.

L'objectif de PSO est trouver l'optimum global de quelque multidimensionnel

(habituellement non linéaire) fonction. L'algorithme a prouvé efficace dans résoudre

beaucoup de problèmes.

Dans PSO, la recherche à travers l'espace du problème peut être pensée de comme le

vol d'un essaim de particules (points dans l'espace).

L'objectif est avoir les particules converger sur l'optimum de la fonction, beaucoup

comme un troupeau d'oiseaux converge sur quelque destination.

Les particules sont distribuées initialement aléatoirement à travers le problème espacez

et donné une vélocité initiale.

Chaque particule se tient au courant de son emplacement et aptitude (la valeur de la

fonction qui est optimisée), aussi bien que la meilleure place (et aptitude correspondante) il a

rencontré si loin dans son vol.

Avec le temps, la vélocité de chaque particule est ajustée afin qu'il déplace

stochastique vers sa propre meilleure place et la meilleure place a trouvé par une autre

particule dans son voisinage.

Le voisinage d'une particule est le sous-ensemble de particules dans l'essaim avec

lequel il a la communication directe. Ce réseau de rapports entre toutes les particules est

connu comme la sociométrie, ou topologie de l'essaim.

II-2 Principe de la PSO

Elle a des agents avec des capacités de perception, mémorisation et calcul

limitées.

Elle est dynamique induite par des interactions locales.

Observation de comportements globaux « émergents ».

Une population d’agents (ici particules).

Coopération plutôt que Compétition.

Efficace sur un espace de recherche continu.

Dynamiques définis sur un espace temps discret.

Page 12: essaim particulaire PSO

- 9 - CHAPITRE II Optimisation par les essaims particulaires

La PSO est efficace dans des domaines variés :

Régulation de systèmes électriques.

Conception d'ailes d'avions.

Analyse d'images.

II-3 État et comportement d’une particule

Modèle social simplifié:

Mime le comportement d’une nuée d’oiseaux (ou banc de poissons).

Basé sur les règles qui permettent de soudain changement de direction,

dispersion, regroupement, etc.

État (instantané) d’une particule:

position (représente une solution du problème).

vitesse (direction pour un futur déplacement).

Comportement :

o Se déplacer dans l’espace de recherche.

o dans le but de se positionner sur des solutions optimales.

II-4 Information utilisée par une particule pour déterminer sa prochaine position:

Sa vitesse actuelle.

Sa meilleure performance.

La meilleure performance de ses voisines.

D’où trois types de comportement …

égoïste : suivre sa propre voie.

conservateur : revenir en arrière.

panurgien : suivre aveuglement le meilleur de tous.

III-4-1 Compromis entre les trois types de comportement.

Un déplacement est finalement une combinaison.

Pondérée des trois types de mouvement ; pris en compte de :

l’état instantané : position & vitesse (mémoire propre à court terme).

performance personnelle (mémoire propre à long terme).

performance des voisins (mémoire partagée).

Compromis psycho-social, entre confiance en soi et influence de ses relations sociales…

Page 13: essaim particulaire PSO

- 10 - CHAPITRE II Optimisation par les essaims particulaires

II-4-2 Trois types de comportement à pondérer:

Figure II-1 Schéma de principe du comportement des particules d’un essaim.

Pour chaque particule et chaque dimension:

- Équation 1:

v(t+1) = w*v(t) + R(c)*(p(t)-x(t)) + R(c)*(g(t)-x(t))

- Équation 2: x(t+1) = x(t) + v(t+1)

v(t) := vitesse au temps t.

x(t) := position au temps t.

p(t) := la meilleure position précédente de la particule.

g(t) := la meilleure position parmi les meilleures positions précédentes des

informateurs de la particule.

R(c) := un nombre venant d'une distribution aléatoire, qui dépend de « c » dans

cette norme, la distribution est uniforme sur [0, c].

Initialisation

1 Particule = 1 solution du problème d’optimisation.

Pour chaque particule :

1. Fixer sa position au hasard dans l’espace de recherche.

2. Fixer sa vitesse au hasard.

3. Définir son voisinage:

géographique (distance), et donc dynamique.

social, et donc fixe.

Page 14: essaim particulaire PSO

- 11 - CHAPITRE II Optimisation par les essaims particulaires

Définition du voisinage

Géographique

Nécessite une notion de distance.

Doit être mis a jour à chaque déplacement donc dynamique.

Social

Fixé une fois pour toute à l’initialisation.

Fixé une fois pour toute à l’initialisation sur un cercle virtuel. En fait converge vers un

voisinage géographique.

Figure II.2. Le cercle virtuel pour un essaim

On suppose toutes les particules disposées (symboliquement) en cercle et, pour la

particule étudiée, on inclut progressivement dans ses informatrices, d’abord elle- même, puits

les plus proches à sa droite et à sa gauche, de façon à atteindre le total requis. Il y a bien sur

de nombreuses variantes, y compris celle consistant à choisir les informatrices au hasard.

Mais celle-ci est à la fois simple et efficace.

Une fois la meilleure informatrice détectée, la modification de la vitesse est une simple

combinaison linéaire de trois tendances. A l’aide de coefficients de confiance :

La tendance «aventureuse», consistant à continuer selon la vitesse actuelle.

La tendance «conservatrice », ramenant plus ou moins vers la meilleure position déjà

trouvée.

La tendance « panurgisme», orientant approximativement vers la meilleure

informatrice.

Les termes « plus ou moins» ou « approximativement» font référence au fait que le hasard

joue un rôle, grâce a une modification aléatoire limitée les coefficients de confiance, ce qui

favorise l’exploration de l’espace de recherche.

Page 15: essaim particulaire PSO

- 12 - CHAPITRE II Optimisation par les essaims particulaires

La figure II-2 présente un schéma de principe résumant les explications si dessus.

Naturellement, pour pouvoir être programmé, tout ceci est formalisé dans des équations de

mouvement.

II-5 Points essentiels

- Inspiré par les interactions sociales ou les déplacements d’un groupe d’animaux.

- Pour chaque particule :

Persistance : durée de vie « illimitée ».

Capacités de mémorisation de son état propre:

o court terme.

o long terme.

Coopérer plutôt que concurrencé.

Chacun est producteur et consommateur d’information.

Capacité de perception de son environnement proche:

au sens géographique.

au sens social.

Pas de mécanisme de sélection:

Une particule même actuellement médiocre est conservée.

elle permettra peut-être le succès futur du fait qu’elle « sort de sentiers battus

».

Chacune est « teacher et learner »

Page 16: essaim particulaire PSO

Chapitre IIIFormalisation et simulation

Page 17: essaim particulaire PSO

13 Formalisation et simulation

III.1 Configuration de la méthode

III.1.1 Nombre de particules :

La quantité de particules allouées à la résolution du problème dépend essentiellement de deux

paramètres :

la taille de l’espace de recherche et le rapport entre les capacités de calcul de la

machine et le temps maximum de recherche. Il n’y a pas de règle pour déterminer ce

paramètre, faire de nombreux essais permet de se doter de l’expérience nécessaire à

l’appréhension de ce paramètre.

III.1.2 Topologie du voisinage :

La topologie du voisinage défini avec qui chacune des particules va pouvoir communiquer. Il

existe de nombreuses combinaisons dont les suivantes sont les plus utilisées :

a) topologie en étoile : chaque particule est reliée à toutes les autres, ie. L’optimum du

voisinage est l’optimum global ;

b) topologie en anneau : chaque particule est reliée à n particules (en général, n = 3),

c’est la topologie la plus utilisée ;

c) topologie en rayon : les particules ne communiquent qu’avec une seule particule

centrale ;

Figure II.1 ; (a) anneau (avec n=2), (b) rayon, (c) étoile

Le voisinage géographique auquel nous sommes amenés à penser en premier lieu n’est

pas nécessairement pertinent car, d’une part, il s’agirait d’un voisinage trop local, et d’autre

part car la sociabilisassions des particules tend à rendre tout voisinage social en voisinage

géographique.

Enfin, c’est un voisinage très lourd en terme de calculs car nécessitant de recalculer le

voisinage de chaque particule à chaque itération.

Page 18: essaim particulaire PSO

14

III.1.3 Coefficients de confiance

Les variables de confiance

instinct de conservation ou son

définis de la façon suivante :

Où r1 et r2 suivent une loi uniforme sur [0

déterminées de façon empirique et

III.1.4 Vitesse maximale et coefficient de constriction

Afin d’éviter que les particules ne se déplacent trop

recherche, passant éventuellement

vitesse maximale (notée

maxV ) pour améliorer la

Cependant, on peut s’en passer si on utilise un coefficient

Maurice CLERC [1] — et qui permet de resserrer l’hyper

L’équation de la vitesse devient alors :

Les études de SHI et EBERHART i

constriction donne généralement

maximale.

Cependant, dans certains cas, le coefficient de

convergence vers la solution optimale pour un nombre d’itérations donné. Pour

problème, il peut être intéressant de fixer

ce qui, selon les études de SHI et EBERHART, permet d’améliorer

de l’algorithme.

Formalisation et simulation

.3 Coefficients de confiance

Les variables de confiance pondèrent les tendances de la particule à vouloir suivre son

de conservation ou son panurgisme. Les variables aléatoires r1 et r2

suivent une loi uniforme sur [0:1] et c1 et c2 sont des constantes positives

déterminées de façon empirique et suivant la relation c1+c2 4.

.4 Vitesse maximale et coefficient de constriction

Afin d’éviter que les particules ne se déplacent trop rapidement dans l’espace de

recherche, passant éventuellement à côté de l’optimum, il peut être nécessaire de

) pour améliorer la convergence de l’algorithme.

Cependant, on peut s’en passer si on utilise un coefficient de constriction k

et qui permet de resserrer l’hyper-espace de recherche.

L’équation de la vitesse devient alors :

Les études de SHI et EBERHART indiquent que l’utilisation d’un coefficient de

constriction donne généralement un meilleur taux de convergence sans avoir à fixer de vitesse

Cependant, dans certains cas, le coefficient de constriction seul ne permet pas la

olution optimale pour un nombre d’itérations donné. Pour

problème, il peut être intéressant de fixer maxmax

xV en plus du coefficient de constriction,

selon les études de SHI et EBERHART, permet d’améliorer les performances globales

Formalisation et simulation

particule à vouloir suivre son

panurgisme. Les variables aléatoires r1 et r2 peuvent être

des constantes positives

rapidement dans l’espace de

à côté de l’optimum, il peut être nécessaire de fixer une

algorithme.

de constriction k — introduit par

espace de recherche.

d’un coefficient de

un meilleur taux de convergence sans avoir à fixer de vitesse

constriction seul ne permet pas la

olution optimale pour un nombre d’itérations donné. Pour résoudre ce

en plus du coefficient de constriction,

les performances globales

Page 19: essaim particulaire PSO

15

III.1.5 Facteur d’inertie

Le facteur d’inertie

capacité d’exploration de chaque particule en vue d’améliorer la converge de la

grande valeur de (>1) est synonyme d’une

d’exploration globale. A contrario, une faible valeur de

amplitude de mouvement et donc,

trouver un compromis entre l’exploration locale et l’exploration

Le calcul de la vitesse est alors défini par :

La taille du facteur d’inertie influence directement la

et aucune valeur de ne peut garantir la

Les études menées par SHI et EBERHART indiquent une

[0:8;1:2]. Au delà de 1:2, l’algorithme tend à avoir certaines

D’après les recherches prouvées

d’inertie au cours du temps, un peu à la manière de la

recuit simulé (Simulated Annealing). De bons résultats ont été trouvés pour une

décroissant linéairement de 0:9

Pour de plus amples informations sur le réglage de ce

thèse de VAN DEN BERGH [

III.1.6 Initialisation de l’essaim

La position des particules ainsi que leur vitesse initiale

aléatoirement selon une loi uniforme

particules, il est préférable d’utiliser un générateur de séquence

pertinent dans la disposition homogène des particules dans un espace de dimension

III.1.7 Critères d’arrêt

Comme indiqué précédemment, la convergence vers la

pas garantie dans tous les

performance de la méthode. De ce fait, il est fortement

porte de sortie en définissant un nombre maximum d’itération (que nous noterons

Formalisation et simulation

— introduit par SHI et EBERHART — permet de définir la

chaque particule en vue d’améliorer la converge de la

(>1) est synonyme d’une grande amplitude de mouvement et donc, in fine,

globale. A contrario, une faible valeur de (< 1) est synonyme de faible

amplitude de mouvement et donc, d’exploration locale. Fixer ce facteur, revient donc à

un compromis entre l’exploration locale et l’exploration globale.

Le calcul de la vitesse est alors défini par :

La taille du facteur d’inertie influence directement la taille de l’hyper

peut garantir la convergence vers la solution optimale.

Les études menées par SHI et EBERHART indiquent une meilleure

l’algorithme tend à avoir certaines difficultés

D’après les recherches prouvées, il est également possible de faire diminuer le

d’inertie au cours du temps, un peu à la manière de la température dans un algorithme de

Annealing). De bons résultats ont été trouvés pour une

décroissant linéairement de 0:9 à 0:4.

Pour de plus amples informations sur le réglage de ce paramètre, veuillez vous référer à la

BERGH [6].

.6 Initialisation de l’essaim

La position des particules ainsi que leur vitesse initiale doivent être initialisés

ent selon une loi uniforme sur [0::1]. Cependant, en ce qui concerne la position des

particules, il est préférable d’utiliser un générateur de séquence de SOBOL qui est plus

homogène des particules dans un espace de dimension

Comme indiqué précédemment, la convergence vers la solution optimale globale n’est

cas de figure même si les expériences dénotent la grande

performance de la méthode. De ce fait, il est fortement conseillé de doté l’algorithme d’une

un nombre maximum d’itération (que nous noterons

Formalisation et simulation

permet de définir la

chaque particule en vue d’améliorer la converge de la méthode. Une

grande amplitude de mouvement et donc, in fine,

est synonyme de faible

d’exploration locale. Fixer ce facteur, revient donc à

taille de l’hyper-espace exploré

convergence vers la solution optimale.

meilleure convergence pour

difficultés à converger.

également possible de faire diminuer le facteur

température dans un algorithme de

Annealing). De bons résultats ont été trouvés pour une valeur

paramètre, veuillez vous référer à la

doivent être initialisés

sur [0::1]. Cependant, en ce qui concerne la position des

de SOBOL qui est plus

homogène des particules dans un espace de dimension n.

solution optimale globale n’est

cas de figure même si les expériences dénotent la grande

conseillé de doté l’algorithme d’une

un nombre maximum d’itération (que nous noterons nbItermax).

Page 20: essaim particulaire PSO

16 Formalisation et simulation

L’algorithme doit alors s’exécuter tant que l’un des critères de convergence suivant n’a pas

été atteint :

– nbItermax a été atteint ;

– la variation de la vitesse est proche de 0 ;

– le fitness de la solution est suffisant.

III.2. L’organigramme de principe de la méthode des essaims particulaires :

Schéma de principe de l’algorithme est donné par la figure suivante.

Pour programmer cette méthode, on a plusieurs compilateurs qui peuvent programmer

la méthode des essaims particule, et pour cela nous avons programmé en C. (Voir l’annexe :

code source en C d’une version simple d’OEP). Bien sur on suivant l’organigramme

précédent.

Page 21: essaim particulaire PSO

17 Formalisation et simulation

III-3 Variantes

Facteur de constriction : cas particulier de coefficient d’inertie

v(t+1) = c.[v(t)+c2.(p-x(t))+c3.(g-x(t))]

Où c est le facteur de “constriction” de valeur fixe.

Sa était proposé par Clerc & Kennedy

Afin d’améliore grandement les performances

Une particule est attirée par chaque particule de son voisinage « Proposé par

Mendes et al ».

III-4 Simulation des fonctions :

Sur notre 1er exemple on va étudier une fonction quadratique, qu’on a déjà résolue dans le

cours des techniques d’optimisation et on a trouvé la valeur min de cette fonction x= 6.

Maintenant on va nous diriger vers la technique de PSO pour comparer les résultats de la

simulation avec la valeur trouvé analytiquement

Exemple1 : fonction quadratique

F(x)=2* x 3 -21 * x 2 +36 * x - 20

Les paramètres appliqués dans notre programme de PSO :

Coefficient de confiance en la tendance actuelle : c1=0.738.

Coefficient de confiance maximale en les informatrices : cmax=1.51.

Dimension de l'espace de recherche : D=1.

Précision souhaitée double : eps=0.00001.

Nombre maximum d'évaluations de la fonction : eval_max=2000 *

Intervalle pour l'espace de recherche : xmin=1, xmax=10;

Valeur minimale à atteindre, à la précision près : fmin=0

Nombre moyen d'évaluations double : eval_moyen=0.

Numéro de la fonction à minimiser : fonction=6.

Nombre de liens d'information : k=3

Taille de l'essaim : N =20

Nombre d'exécutions n_exec_max=10;

Page 22: essaim particulaire PSO

18 Formalisation et simulation

Écriture en langage C :

case 6: //fonction de cour quadratique //

//F(x)=2* x 3 -21 * x 2 +36 * x - 20//

f=0;

for(d=0;d<D;d++)

{

f=f+(2*x.x[d]*x.x[d]*x.x[d]-21*x.x[d]*x.x[d]+36*x.x[d]-20);

}

break;

Après simulation on obtient les résultats suivant :

Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000

Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000

Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000

Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000

Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000

Eval= 2000. Meilleure position (valeur -128.000000 ):6.000002

Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000

Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000

Eval= 2000. Meilleure position (valeur -128.000000 ):5.999999

Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000

Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000

On va dire que la valeur minimum de notre fonction est de x=6 comme celle qu’on a trouvé

dans le cours précédemment.

Page 23: essaim particulaire PSO

19 Formalisation et simulation

Sur notre 2éme exemple on va étudier une fonction trigonométrique, qu’on a déjà résolue

dans le cours des techniques d’optimisation et on a trouvé la valeur min de cette fonction

x= π/2 = 1.57

Maintenant on va nous diriger vers la technique de PSO pour comparer les résultats de la

simulation avec la valeur trouvé analytiquement

Exemple2 : fonction trigonométrique

F(x) = 1+2*sin (x) + 3* cos2(x)

Coefficient de confiance en la tendance actuelle : c1=0.738.

Coefficient de confiance maximale en les informatrices : cmax=1.51.

Dimension de l'espace de recherche : D=1.

Précision souhaitée double : eps=0.00001.

Nombre maximum d'évaluations de la fonction : eval_max=2000 *

Intervalle pour l'espace de recherche : xmin=1, xmax=2;

Valeur minimale à atteindre, à la précision près : fmin=0

Nombre moyen d'évaluations double : eval_moyen=0.

Numéro de la fonction à minimiser : fonction=5.

Nombre de liens d'information : k=3

Taille de l'essaim : N =20

Nombre d'exécutions n_exec_max=10;

Écriture en langage C :

case 5: //fonction trigonométrique :

// F(x) = 1+2*sin (x) + 3* cos2(x)

f=0;

for(d=0;d<D;d++)

{

f=f+(1+2*sin(x.x[d])+3*(cos(x.x[d])*cos(x.x[d]))) ;

}

break;

Page 24: essaim particulaire PSO

20 Formalisation et simulation

Eval= 2000. Meilleure position (valeur 3.000000 ):1.570796

Eval= 2000. Meilleure position (valeur 3.000000 ):1.570796

Eval= 2000. Meilleure position (valeur 3.000000 ):1.570796

Eval= 2000. Meilleure position (valeur 3.000000 ):1.570796

Eval= 2000. Meilleure position (valeur 3.000000 ):1.570796

Eval= 2000. Meilleure position (valeur 3.000000 ):1.570796

Comme c’es une fonction trigonométrique et aussi périodique donc le min de cette fonction

est de 1.570796 = π/2.

Conclusion

Dans ce chapitre on a pue étudier le cas d’une fonction trigonométrique et on peut tirer les

conclusions suivant :

La PSO est plus performante pour:

1- Précision.

2-Temps de calcul très court ce qui la rend puissante.

L’augmentation du nombre d’itération ne garantie pas l’amélioration de la qualité des

solutions.

L’inconvénient que possède la PSO:

L'essaim peut prématurément converger.

Tout changement d’un paramètre peut avoir un effet sur le fonctionnement de

l’algorithme et sur la solution obtenue.

Plusieurs variantes ont était développées, pour faire face aux inconvenants de la PSO.

Page 25: essaim particulaire PSO

ConclusionGénérale

Page 26: essaim particulaire PSO

- 21 -

21 Conclusion

Conclusion

Comme conclusion pour notre monographie, on peut déduire que l’approche d’estimation de

paramètres en utilisant la PSO a été prouvée plus performante pour sa précision et son temps

de calcul très court ce qui la rend puissante.

Méthode d’optimisation relativement jeune.

Partiellement comprise sur le plan théorique.

Très facile à programmer.

Nombreux perfectionnements astucieux restent à faire.

Page 27: essaim particulaire PSO

Bibliographie

Page 28: essaim particulaire PSO

22 [Tapez le titre du document]

Bibliographie

[1] Maurice Clerc and James Kennedy. The particle swarm - explosion, stability, andconvergence in a multidimensional complex space. IEEE Trans. Evolutionary Computation,6(1) :58–73, 2002.

[2] Russell C. Eberhart, Yuhui Shi, and James Kennedy. Swarm Intelligence. The MorganKaufmann Series in Artificial Intelligence. Morgan Kaufmann, San Francisco, CA, USA,2001.

[3] E. Bonabeau, M. Dorigo and G. Theraulaz. Inspiration for optimization from social insectbehaviour. Nature, Vol. 406, juillet 2000, pp. 39-42

[4] Bonabeau, E. & Theraulaz, G. (2000). Swarm Smarts. Scientific American, 282 (3): pp.72-79

[5] E. Bonabeau, M. Dorigo and G. Theraulaz. (1999) Swarm Intelligence: From Natural toArtificial Systems. Oxford University Press

[6] F. van den Bergh. An Analysis of Particle Swarm Optimizers. PhD thesis, Department ofComputer Science, University of Pretoria, November 2002.

[7] Machine Nature: The Coming Age of Bio-Inspired Computing, by Moshe Sipper,McGraw-Hill, New York,2002.

[8] Les systèmes complexes : mathématiques & biologie, H. P. Zwirn, ed. Odile Jacob

Sites Internet :

Méthode des essaims particulaires :http://www.particleswarm.net/Séminaire OEP’2003http://www.particleswarm.net/oep_2003/http://www.particleswarm.info/

Groupe de travail sur les métaheuristiques :http://www.lifl.fr/~talbi/METALivre récent sur les métaheuristiques :http://www.eyrolles.com/php.informatique/Ouvrages/ouvragem.php3?ouv_ean13=9782212113686