63
B.A. Ferrif 24/07/01 52 2-Chaînes de Markov

2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

Embed Size (px)

Citation preview

Page 1: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

52

2-Chaînes de Markov

Page 2: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

53

I-Introduction

La structure de chaîne de Markov modélise un type particulier de processus

stochastiques : les processus "sans mémoire" et pour lesquels les changements

d'état se produisent à des instants déterminés. Dans certaines situations où la

mémoire du passé intervient, le concept de processus de Markov sera étendu et

précisera le niveau de mémoire nécessaire.

La découverte en est due à Markov, qui l’a dégagée d’une étude statistique sur la

dépendance entre certaines lettres d’un texte littéraire [étude de l’alternance des

voyelles et des consonnes dans "Eugène Oneguine" de Pouchkine], considéré

pour l’occasion comme suite de symboles. Il est intéressant de penser qu’un

siècle plus tard, le modèle et la problématique sous-jacente sont utilisés avec

succès aussi bien dans des projets de haute technologie que dans la gestion des

organisations.

Cette structure se retrouve fréquemment comme modèle de phénomènes

naturels et les modèles markoviens se révèlent très efficaces dans de multiples

secteurs; en particulier :

∑ dans les systèmes assimilables à des réseaux de files d’attente, par exemple

dans le domaine des télécommunications avec les réseaux à commutation de

paquets ;

∑ dans les organisations de gestion : affectation de personnel, systèmes de

maintenance ;

∑ en démographie, pour étudier l’évolution de la taille d’une population ;

∑ en vie artificielle, pour étudier l’évolution d’une population sous l’influence des

facteurs de mutation et de sélection ;

Page 3: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

54

∑ en physique, pour étudier les mouvements de particules sur les réseaux ;

∑ dans les systèmes de reconnaissance des formes ;

∑ …….

Le concept de chaîne de Markov cachée que nous introduirons en conclusion est,

quand à lui, à la base de nombreux algorithmes dans un grand nombre de

domaines (par exemple dans la reconnaissance du langage naturel ou encore

dans le séquençage du génome).

II-Prérequis et Objectifs

Ce que vous devez au minimum maîtriser pour aborder de ce chapitre :

∑ Probabilités : Concepts d’espace probabilisé, de variable aléatoire, de

dépendance et d’indépendance (en théorie des probabilités); la formule de

Bayes.

∑ Algèbre : Algèbre matricielle.

Ce que vous devez maîtriser pour tirer pleinement profit de ce chapitre :

∑ Probabilités : Concepts d’espace probabilisé, de variable aléatoire, de

dépendance et d’indépendance (en théorie des probabilités); la formule de

Bayes.

∑ Algèbre : l’algèbre matricielle, les notions de base de la théorie des graphes.

∑ Informatique: des éléments de programmation et des éléments de

programmation sous Mathematica

Page 4: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

55

Ce que vous devez savoir faire à la fin de cette leçon :

∑ Savoir reconnaître un modèle markovien,

∑ Savoir en déterminer les principales caractéristiques,

∑ Savoir le modéliser et le simuler.

Ce qui vous est proposé dans ce chapitre :

∑ Apprendre les concepts fondamentaux,

∑ Apprendre à modéliser et à simuler des processus markoviens,

∑ S’exercer sur des applications immédiates,

∑ Réfléchir sur des problèmes concrets et de synthèse,

∑ S’évaluer par tests de connaissance et de savoir-faire.

Page 5: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

56

1-Processus et Chaînes de Markov

1-1-Définition des Processus de Markov

Un processus aléatoire ( )Xt t In n Œ est un processus de Markov (on dit parfois

processus de Markov d'ordre 1 ou de mémoire 1) s'il vérifie l'axiome suivant

fréquemment appelé propriété de Markov :

"( ) Œ < < < < "( ) Œ-+

- -+t t t t I t t t t x x x x En n

nn n n n

n0 1 1

10 1 1 0 1 1

1, ,..., , , ... , , ,..., , ,

P X x X x X xt t t t t tn n( ,..., , )

- -= = = >

1 1 1 1 0 00 ,

P X x X x X x X x P X x X xt t t t t t t t t t t tn n n n n n n n n n= = = =( ) = = =( )- - - - - -1 1 2 2 0 0 1 1

, ,..., .

Autrement dit :

La propriété de Markov exprime que l'état futur Xtn ne dépend pas des états

passés X i nti, , , ,.., ,Œ -{ }0 1 2 2 mais seulement de l'état présent Xt n -1 . Ainsi cette

propriété précise l'absence de mémoire du processus.

Chaîne et processus de Markov

1-Un processus de Markov tel que I=N et E dénombrable s'appelle une chaîne de

Markov à temps discret.

2-Un processus de Markov tel que I=N et E diffus s'appelle un processus de

Markov à temps discret.

3-Un processus de Markov tel que I=R et E dénombrable s'appelle une chaîne de

Markov à temps continu.

4-Un processus de Markov tel que I=R et E diffus s'appelle un processus de

Markov à temps continu.

Page 6: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

57

1-2-Analogie déterministe

L'analogue déterministe d'un processus de Markov ( )Xt t In n Œ est un processus

d'évolution ( , )x t Nt Œ qui est décrit par une équation de récurrence du premier

ordre de la forme x f x tt t+ = ( )1 , plutôt que par une relation du type

x F x x x tt t t+ -= ( )1 1 0, ,..., , . Lorsque le phénomène est aléatoire les fonctions

x f x tt t+ = ( )1 , et x F x x x tt t t+ -= ( )1 1 0, ,..., , sont remplacées par les lois de probabilité

conditionnelle de la condition de Markov.

1- 3 – Exemple de chaîne de Markov : Marche aléatoire entre deux bornes

On considère un signal dont l’amplitude est comprise entre 0 et 5A et qui ne peut

prendre que des valeurs qui sont des multiples de A.

À tout instant n, si le signal vaut A, 2A, 3A ou 4A, il peut soit rester constant, soit

augmenter de A, soit diminuer de A avec équiprobabilité.

À tout instant n, si le signal vaut 0, il peut soit rester constant, soit augmenter de

A, avec équiprobabilité.

À tout instant n, si le signal vaut 5A, il peut soit rester constant, soit diminuer de

A avec équiprobabilité.

1 – 4 – Simulation

Ecrire un programme permettant de simuler une marche aléatoire entre 2 bornes.

1 – 5 – Exemple de chaîne de Markov : Marche aléatoire avec absorption

On considère un signal dont l’amplitude est comprise entre 0 et 5A et qui ne peut

prendre que des valeurs qui sont des multiples de A.

Page 7: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

58

À tout instant n, si le signal vaut A, 2A, 3A ou 4A, il peut soit rester constant, soit

augmenter de A, soit diminuer de A avec équiprobabilité.

À tout instant n, si le signal vaut 0, il conserve la valeur 0.

À tout instant n, si le signal vaut 5A, il conserve la valeur 5A.

1 – 6 – Simulation

Ecrire un programme permettant de simuler une marche aléatoire avec

absorption.

1- 7 - Homogénéité d'un processus de Markov

Un processus de Markov est dit homogène s'il vérifie la propriété suivante :

Propriété d'homogénéité

" Π" Π= = = = =-( , ) , ( , ) , ( ) ( )s t I x y E P X y X x P X y X xs t s t2 2

0

Autrement dit :

La propriété d'homogénéité ou de stationnarité temporelle des transitions précise

que la probabilité de transition d'un état à un autre ne dépend que du temps

écoulé entre ces 2 états, ici (s - t), et non des instants de transition.

Tous les processus de Markov qui seront considérés dans ce cours seront

désormais homogènes sauf mention explicite du contraire.

1- 8 - Probabilité de transition de l'état x à l'état y pour un processus

homogène

La probabilité de transition de l'état x à l'état y, entre les instants n et n+1 est

indépendante de n. Plus précisément :

Page 8: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

59

" ( ) Π" ( ) Π= = = = =+ +m n N x y E P X y X x P X y X xn n m m, , , , ( ) ( )2 21 1 .

Cette probabilité sera notée pxy ; c'est donc la probabilité de passer de l'état x à

l'état y en une seule transition, c'est-à-dire en une seule étape.

Critère : pour démontrer la propriété d'homogénéité d'une chaîne il est suffisant

de démontrer que :

" ( ) Œ = = =+x y E p P X y X xxy n n, , ( )21 est indépendante de n.

1- 9 - Matrice de transition d'une chaîne de Markov homogène

Lorsque x et y décrivent E les pxy décrivent une matrice que l'on appelle la

matrice de transitions ou matrice de la chaîne de Markov, elle sera notée

P pxy x y E= ( )

Œ,.

On a :

- " ( ) Œ = = = ≥+x y E p P X y X xxy n n, , ( )21 0

- " Œ =Œ

Âx E pxyy E

, 1 .

1- 10 - Exemples de matrice de transition :

Les matrices suivantes sont les matrices de transition d'un processus de Markov

∑ dont l'espace d'état E = { }1 2 3, , possède 3 éléments :

012

12

12

012

12

12

0

Ê

Ë

ÁÁÁÁÁ

ˆ

¯

˜˜˜˜˜

Page 9: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

60

∑ dont l'espace d’état E = { }1 2 3 4, , , possède 4 éléments :

12

12

0 0

012

12

0

12

0 012

12

12

0 0

Ê

Ë

ÁÁÁÁÁÁÁÁ

ˆ

¯

˜˜˜˜˜˜˜̃

∑ dont l'espace d’état E = { }1 2 3 4 5 6 7 8 9 10, , , , , , , , , possède 10 éléments

0 0 0 014

034

0 0 0

0 1 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 1 0 0

0 0 0 1 0 0 0 0 0 012

0 0 016

013

0 0 0

0 0 1 0 0 0 0 0 0 0

0 0 0 034

014

0 0 0

0 0 0 0 0 1 0 0 0 0

0 035

0 015

0 015

0

0 0 013

13

013

0 0 0

Ê

Ë

ÁÁÁÁÁÁÁÁÁÁÁÁÁÁÁÁÁ

ˆ

¯

˜˜˜˜˜˜˜˜˜˜˜˜˜˜˜˜

1 - 11 - Exercice :

Ecrire les matrices de transition des exemples (1-3) et (1-5)

1 - 12 - Préparation des simulations

La matrice de la chaîne de Markov permet de simuler, par exemple sous

Mathematica qui sera le logiciel pris en exemple dans cet enseignement, un

Page 10: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

61

grand nombre de problèmes. Pour entrer la matrice vous pouvez utiliser la palette

"basic input" du sous-menu "palette" du menu "File" ;

∑ pour ajouter une colonne taper simultanément [ctrl]+[,] ;

∑ pour ajouter une ligne taper simultanément [ctrl]+[Return].

1- 13- Graphe d'une chaîne de Markov homogène

Lorsque l'espace d'états est fini, on peut associer à la chaîne de Markov, donc à

la matrice de transition, un graphe orienté dont les sommets représentent les

états et les flèches les probabilités non nulles de transition entre états;

généralement l'arête orientée de l'état x vers l'état y portera l'indication de la

probabilité pxy . (cf. Appendice Graphes)

Les graphes de transition des chaînes de Markov correspondant aux deux

premières chaînes de Markov des exemples (1 –10) sont donnés par les figures

suivantes :

Page 11: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

62

1 2 3 4

1 / 2

Graphe du processus

1 / 21 / 2

1 / 2

1 / 2

1 / 2

1 / 2

1 / 2

1- 14 - Exercice

Dessiner le graphe de la troisième chaîne.

1- 15 - Simulation

Ecrire un programme permettant de visualiser le graphe correspondant à des

matrices de dimensions raisonnables.

Ecrire un programme qui associe à la matrice de la chaîne de Markov, la matrice

d'adjacence du graphe de cette chaîne. Appliquer à la matrice de l’exemple 1).

1- 16 - Exercice

Ecrire les matrices de transition des exemples (1-3) et (1-5).

Page 12: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

63

2- Transition d'ordre supérieur

2-1 – Notations et définitions

Nous désignerons par pxyn( ) la probabilité de transition de l'état x à l'état y en n

étapes.

On pose par définition pxy xy( )0 = d (=1 si x=y , 0 sinon).

Autrement dit: pxyn( ) est la probabilité conditionnelle d'atteindre y après n étapes

partant de l'état x.

Autrement dit : Cette probabilité est la probabilité de l'ensemble de tous les

chemins possibles d'origine x d'extrémité y et de longueur n dans l'espace des

états.

2-2-Equations de Chapman-Kolmogorov

Proposition : Soit une chaîne de Markov homogène à temps et états discrets.

1- On a : " Π" Π= = =( )+m n N x y E p P X y X xxyn

m n m, , , , ( )

En d'autres termes la puissance n-ième Pn de la matrice de transition P, est la

matrice de transition en n étapes. L’élément pxyn( ) est situé à la ligne x et à la

colonne y.

2- Si on pose : P p P pnxyn m

xym= ( ) = ( )( ) ( ), , on a les équations de Chapman-

Kolmogorov

p p pxzm n

xym

yzn

y E

( ) ( ) ( ).+

Œ( ) =

Ê

ËÁˆ

¯̃Â

en d’autres termes P P Pm n m n+ = . .

� En effet la règle de Bayes séquentielle donne

Page 13: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

4/07/02

64

" Π" Π= = =( ) =+-

-Âm n N x y E p P X y X x p pxyn

m n m xxx x x

x y

n

n, , , , ..( )

, ,..,1

1 2 1

1

On a

" Π" Π=+

ŒÂm n N x z E p p pxz

m nxym

yzn

y E

, , , , ( ) ( ) ( )

où p pxym

yzn( ) ( ) est la probabilité que, partant de l’état x, la processus atteigne l’état z en

m+n transitions par un chemin qui passe par l’état y à la mème transition.

On en déduit la relation matricielle : P P Pm n m n+ = où P p P pnxyn m

xym= ( ) = ( )( ) ( ), e t

P p p pm nxzm n

xym

xzn

y E

+ +

Œ= ( ) =

Ê

ËÁˆ

¯̃Â( ) ( ) ( ) et en particulier on a p p pxz

nxyn

yzy E

( ) ( ) ( )+

Œ= Â1 1 ☺

2-3- Exercice

Pour chacun des processus de Markov définis ci-dessous, donner " Œi j E Pij, , ( )3

∑ Processus dont l'espace d'état E = { }1 2 3, , possède 3 éléments et de matrice

de transition :

012

12

12

012

12

12

0

Ê

Ë

ÁÁÁÁÁ

ˆ

¯

˜˜˜˜˜

∑ Processus dont l'espace d’état E = { }1 2 3 4, , , possède 4 éléments et de matrice

de transition :

Page 14: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

4/07/02

65

12

12

0 0

012

12

0

12

0 012

12

12

0 0

Ê

Ë

ÁÁÁÁÁÁÁÁ

ˆ

¯

˜˜˜˜˜˜˜̃

2-4- Simulation

Ecrire un programme permettant d'obtenir les puissances successives, sous forme

booléenne, de la matrice d'adjacence de la matrice P d'une chaîne de Markov . La

puissance n-ième de la matrice d'adjacence est-elle égale à la matrice d'adjacence

de la puissance n-ième de P ?

2-5- Loi initiale de la chaîne de Markov.

La loi de la variable aléatoire Xo s'appelle la loi initiale. (Cette loi, connue dans les

applications, est définie, rappelons-le, par " Œ = =x E P X x px, ( ) .0

C'est une loi de probabilité sur l'espace des états.

2-6 - Loi de probabilité de Xn.

Le théorème suivant va nous permettre de trouver la loi PX n de Xn pour tout entier

positif n . Il est connu sous le nom de théorème de Markov.

Théorème : A tout instant n la loi de probabilité PX n de Xn est donnée par :

P P PX Xn n+=

1. , P P PX X

n

n=

0.

Page 15: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

66

�Posons p P X x P xxn

n X n

( ) ( ) ( )= = = ; on a : p P X y P y p pyn

n X x xyn

x Nn

( ) ( )( ) ( ) .= = = =Œ

Â

avec " Π= =x E p P X xx, ( )0 .

La formule précédente s'obtient par simple application de la règle de Bayes

séquentielle; il est alors clair que la matrice de transition P pxy x y E= ( )

Œ, et la loi

initiale P X x px x E( ) ( )

00= =( ) Œ

déterminent PX n pour tout n . ☺

La loi PX nde Xn , notée parfois P PX nn

= , est donc une loi marginale au sens

habituel du terme.

2-7- Une caractérisation d'une chaîne de Markov homogène

Tout processus aléatoire à temps et à états discrets vérifiant :

" Π"( ) Π= = = = =+- - -

n N x x x E P X x X x X x P X x p p pt t tn

t t t t t t t t x x x x x xn n n n n t t t t tn tn, , , ... , , ( , ,..., ) ( ). . ... .

0 1 1 1 0 0 0 0 0 1 1 2 1

1

est une chaîne de Markov de loi initiale PX 0 et de matrice P pxy x y E

= ( )Œ,

..

3- Relations de communication entre états dans l'espace

des états d'une chaîne de Markov homogène.

3-1 - Relation de communication sur l'espace d'états E.

3-1-1 - On dit que l'état x conduit à l'état y (ou que y est atteignable à partir de x)

si et seulement si: $ Π>n N pxyn, ( ) 0 .

Page 16: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

67

3-1-2 - On dit que x et y communiquent si et seulement si l'état x conduit à y et

l'état y conduit à x.

Autrement dit si et seulement s'il existe des entiers m et n tels que pxym( ) > 0 et

pyxn( ) > 0 .

3-2 - La relation de communication est une relation d'équivalence.

Il s'ensuit que la donnée d'une chaîne de Markov définit sur son espace d'états E

une partition en classes d'équivalence qui sont (donc) des classes de

communication disjointes.

Une chaîne à une seule classe sera dite irréductible.

3-3- Test

Les chaînes suivantes sont-elle irréductibles ?

i)

012

12

12

012

12

12

0

Ê

Ë

ÁÁÁÁÁ

ˆ

¯

˜˜˜˜˜

ii)

12

12

0 0

012

12

0

12

0 012

12

12

0 0

Ê

Ë

ÁÁÁÁÁÁÁÁ

ˆ

¯

˜˜˜˜˜˜˜̃

iii)

Page 17: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

68

0 0 0 014

034

0 0 0

0 1 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 1 0 0

0 0 0 1 0 0 0 0 0 012

0 0 016

013

0 0 0

0 0 1 0 0 0 0 0 0 0

0 0 0 034

014

0 0 0

0 0 0 0 0 1 0 0 0 0

0 035

0 015

0 015

0

0 0 013

13

013

0 0 0

Ê

Ë

ÁÁÁÁÁÁÁÁÁÁÁÁÁÁÁÁÁ

ˆ

¯

˜˜˜˜˜˜˜˜˜˜˜˜˜˜˜˜

3-4- Simulation

Pour réaliser automatiquement une partition de l'espace des états en classes de

communication, on peut utiliser la fermeture transitive du graphe correspondant à

la matrice d'adjacence. Ecrire un programme permettant de réaliser cette

opération.

3-5- Remarque

La classification des états à l’aide des propriétés des graphes n’est strictement

équivalente à la classification probabiliste que dans le cas des chaînes de Markov

à espace d’états fini.

3-6- Parties fermées et parties absorbantes.

3-6-1-Définitions:

1- Une partie C de l'espace des états sera dite fermée si et seulement si

P X C X Cn n+ Œ Œ( ) =1 1.

Page 18: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

4/07/02

69

2- Une partie C de l'espace des états sera dite absorbante si et seulement si

pour tout x P P X x où n N X Cx C C C nt t t< +•( ) = < +• =( ) = = Œ Œ{ }0 1 inf ,

3- Pour une partie arbitraire C de l'espace des états, la plus petite partie

fermée contenant C est appelée la fermeture de C.

4- Un état k d'une chaîne de Markov est dit absorbant si le processus ne peut

plus quitter cet état une fois qu'il y est entré; en d'autre termes si pkk = 1

3-6-2-Chaînes de Markov homogènes absorbantes.

Définition: Une chaîne de Markov est dite absorbante si elle possède au moins un

état absorbant et si l'on peut passer de n'importe quel état à un état absorbant.

3-6-3-Délais d'absorption et probabilités d'absorption

Lorsqu'une chaîne de Markov est absorbante, on se pose naturellement les

questions suivantes:

� Combien de temps faudra-t-il pour que le processus soit absorbé, étant donné

son état initial?

� S'il existe plusieurs états absorbants, quelle est la probabilité pour un

processus d'être absorbé par un état donné?

Pour répondre à ces questions nous allons introduire les quantités suivantes:

∑ Ni = nombre de transitions jusqu'à l'absorption en partant de l'état i (Ni est

une variable aléatoire discrète),

ni = E (Ni) = temps moyen jusqu'à l'absorption en partant de i,

Page 19: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

70

∑ bij = probabilité que le processus soit absorbé dans j si son état initial est i.

Pour les deux dernières quantités, on a immédiatement :

∑ ni = 0 si i est absorbant,

∑ bii = 1 si i est absorbant,

∑ bij = 0 si i est absorbant et j π i.

Considérons maintenant des chaînes de Markov comprenant plusieurs états

absorbants. Le théorème suivant permet alors de calculer la probabilité que le

processus soit absorbé par un état donné.

3-6-4 - Théorème - Les nombres ni sont les solutions du système d'équations

n p ni ik kk S

= +Œ

Â1 .©

où i est un état non absorbant et S' l'ensemble de tous les états non absorbants.

�Supposons que la chaîne a un état absorbant j, désignons par i l'état initial (i

différend de j) et par Ak l'évènement : le processus passe de i à k lors de la

p r e m i è r e t r a n s i t i o n . O n a :

E N E N A P A E N p E N pi i kk S

k kk S

ik kk S

ik( ) = ( ) ( ) = ( ) +[ ] = + ( )Œ Œ Œ

  Â1 1. .©

3-6-5 - Théorème - Soit j un état absorbant et S' l'ensemble de tous les états non

absorbants. Alors les probabilités bij (i SŒ ©) sont les solutions du système

d'équations :

b p p bij ij ik kjk S

= +Œ

 .©

Page 20: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

71

�Cela résulte directement du théorème des probabilités totales. En effet si A

désigne l'ensemble des états absorbants, on a :

b p b p b p b p b pij ik kjk S

ik kjk S

ik kjk A

ik kjk S

ij= = + = +Œ Œ Œ Œ

   Â. . . . .© ©

1 ☺

Plus généralement :

3-7- Temps d'atteinte et probabilités d'atteinte

3-7-1-Théorème du temps d'atteinte : Soit Xn n N( ) Œ une chaîne de Markov

homogène de matrice de transition P pij i j E= ( )

Œ, . Désignons par C un sous-

ensemble de l’espace des états E, par B le complémentaire de C dans E, et par

tC nn N X C= Œ Œ{ }inf , (tC = +• si le processus n’atteint jamais C). Posons,

pour tout i dans E, n E X ii C n= =( )t .

On a :

∑ pour tout i dans B , n p ni ik kk B

= +Œ

Â1 . ;

∑ pour tout i dans C , ni = 0 .

3-7-2-Théorème de la probabilité d'atteinte : Soit Xn n N( ) Œ une chaîne de

Markov homogène de matrice de transition P pij i j E= ( )

Œ, . Désignons par A et B

deux sous-ensembles fermés et disjoints de l'espace des états E, et

supposons A BU absorbant .

Posons u i P P X ii A B i A B( ) = <( ) = < =( )t t t t 0 , alors on a

∑ u i p u jijj E

( ) . ( )=Œ

 ;

∑ u i si i A et u i si i B( ) ( )= Œ = Œ1 0 .

Page 21: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

72

3-7-3- Test

Un jeu!

Trois enfants sont placés chacun à un sommet d’un triangle équilatéral. Toutes

les dix secondes (prises comme unité de temps), chacun, indépendamment des

deux autres, choisit de se rendre en l’un des deux autres sommets (avec

équiprobabilité). Au bout de combien d’unités de temps en moyenne les trois

enfants se retrouveront-ils au même sommet ?

4- Périodicité des états d'une chaîne de Markov à temps

et états discrets.

Nous allons classer les états d'une chaîne de Markov homogène en états

persistants et états transitoires ainsi qu'en états périodiques et apériodiques afin

de pouvoir préciser les réponses aux questions suivantes :

∑ La chaîne peut-elle repasser par un état i ?

∑ Si oui, ce nouveau passage s'effectue-t-il dans un temps moyen fini ou infini ?

4-1- Notations et définitions

Notons Tji[ ] le temps mis par la chaîne de Markov pour retourner une jème fois à

son état initial i.

On montre que pour tout j, les T Tji

ji

+[ ] [ ]-1 sont de même loi, dépendant de i.

Désignons par T i[ ] la variable aléatoire de loi commune aux T Tji

ji

+[ ] [ ]-1 .

Posons T Min n X j X iijn N

n= = ={ }Œ

, 0 , Tij est le temps de premier passage en j en

partant de i.

Page 22: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

4/07/02

73

Notons f P X j X j X j X iijn

n n( ) ( , ,.., )= = π π =-1 1 0 la probabilité d'être pour la première

fois en l'état j au temps n, étant parti de l'état i au temps 0.

Il est clair que f P T nijn

ij( ) = =( )

Posons :

∑ fij( )0 0= ,

∑ F fijn

ijk

k

n( )

== Â ( )

1

∑ f f F F P X j X iij ij

nij ij n

nn

= = = = =[ ] =ÊËÁ

ˆ¯̃

+•( )

=

+•

=

+•

 ( )0

11U

∑ m j jjn

n

n f==

+•

 . ( )

1

.

Il est clair que fkj est la probabilité que, partant de l’état k, le système atteigne l’état j.

Il s'ensuit que fkj £ 1.

Quand fkj = 1, la suite fkjn( ){ } est une suite de probabilités dite distribution de premier

passage pour ek.

En particulier f jjn( ){ } représente la distribution des temps de premier passage pour

l’état j, autrement dit la distribution de probabilités du temps de premier retour en j.

La probabilité pour que, partant de l'état i, on retourne toujours dans l'état i est

donnée par fii.

4-2 – Définition de la Périodicité d'un état

On dira d'un état x qu'il a la périodicité p x( )si et seulement s'il existe un entier

p x( ) > 1 où p x PGCD n pxxn( ) ( )= >{ }0 .

Page 23: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

74

Dans le cas contraire l'état sera dit apériodique.

Un état x dans lequel aucun retour n'est possible (i.e pour lequel pxxn( ) = 0 pour

tout n>0) sera considéré comme apériodique.

Un état x tel que pxx >0 est de période 1. Il est apériodique, le système pouvant

rester en x indéfiniment

4-3- Remarque

La périodicité est un phénomène assez rare dans la pratique, et généralement

lorsque c’est le cas il apparaît de manière évidente.

4-4 –Périodicité et atteignabilité

Proposition

∑ Si l'état ei a la période p(i), alors il existe un entier e dépendant de i tel que,

pour tout entier n ≥ e, piin p i( . ( )) > 0. Autrement dit, un retour dans l'état i peut se

produire pour tout multiple suffisamment grand de la période.

∑ Si p jim( ) > 0 , alors p ji

m n p i( . ( ))+ > 0 pour tout n NΠsuffisamment grand.

4-5- Périodicité et irréductibilité

Proposition : Tous les états d'une chaîne irréductible ont la même période.

Si x,y,z,u sont des états de E et m,p,q des entiers naturels strictement positifs,on

a

p p p pxym p q

xzm

zup

uyq( ) ( ) ( ) ( )+ + ≥ .

� En effet le chemin X x X z X u X ym m p m p q0 = = = =+ + +, , , représente une

manière d’aller de x à y. Si les états x et y communiquent, il existe des entiers

Page 24: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

75

naturels m et n tels que p pxyn

yxm( ) ( ),> >0 0 . Ainsi on a :

p p p p pxxm p q

xzm

zzp

zxq

zzm( ) ( ) ( ) ( ) ( ). . . ,+ + ≥ = >( )a a 0

Prenant p=0, il apparaît que m+q est nécessairement multiple de la période p(x)

de x , ce qui entraîne la nullité du terme de gauche pour tout p non multiple de

p(x); cela entraîne que la période p(y) de y est telle que p y p x( ) ≥ ( ) . Par symétrie

on conclut à l'égalité de p(y) et p(x).☺

4-6- Exercice

Etudier la périodicité des états de la chaîne définie dans l'exemple 1 :

4-7- Exercice

Etudier la périodicité des états de la chaîne définie par la matrice de transition :

0 1 0

0 0 1

1 0 0

Ê

Ë

ÁÁ

ˆ

¯

˜˜

Page 25: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

76

4-8- Partition de l’espace des états en classes cycliques

Proposition : Si Xn n N( ) Œ est une chaîne de Markov irréductible de période d il

existe une partition de l'espace des états en d classes (les classes cycliques C0 ,

C1 ,…, Cd-1 ) telles que " Œ = = + £ <( )( )x C p sauf si n k d k dk xyn, .0 0a .

4-9- Exercice

Expliciter les classes périodiques de la chaîne (4-7).

5- Etat persistant et état transitoire.

5-1 - Définitions :

∑ L'état i est persistant ( ou récurrent) si et seulement si fii = 1.

∑ L'état i est transitoire si et seulement si fii < 1.

∑ Un état i persistant est dit nul si et seulement si mi = +•.

∑ Un état i persistant est dit positif si et seulement si mi < +• .

5-2- Equivalences des définitions

Théorème :

1-Les conditions suivantes sont équivalentes :

i) L’ état i est persistant,

ii) piin

n

( )

=

+•

 = +•1

,

iii) P X i i o X in = =( ) =. 0 1 i.o signifie infiniment souvent.

2-Les conditions suivantes sont équivalentes :

Page 26: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

77

i) L’ état i est transitoire ,

ii) piin

n

( )

=

+•

 < +•1

,

iii) P X i i o X in = =( ) =. 0 0 i.o signifie infiniment souvent.

5-3- Remarques

a. Les états transitoires sont donc à rechercher parmi les états i qui

possèdent la propriété : Lim pn

iin

Æ +•=( ) 0 .

b. Si l'état i est transitoire alors " Œ < +•( )

=

+•

Âj E p jin

n

,1

.

c. L'état i est persistant nul si et seulement si " Œ = +•( )

=

+•

Âi E piin

n

,1

et

Lim pn

iin

Æ +•=( ) 0 . Alors " Œ =

Æ •

( )j E Lim pn

jin, 0 .

5-4- Exercices :

1-Montrer que les définitions (5-1) sont équivalentes à:

i) Un état i est persistant si P T i[ ] < +•( ) = 1 ;

ii) un état persistant sera dit persistant nul si E T i( )[ ] = +• et persistant positif

si E T i( )[ ] < +• ;

iii) un état non persistant est dit transitoire ; il s’agit donc d’un état i qui

satisfait à P T i[ ] = +•( ) > 0

2- Justifier les remarques (5-3).

Page 27: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

78

5-5- Remarque

L'importance des théorèmes précédents réside principalement dans leurs aspects

sémantiques. Ils sont en effet assez malaisés à utiliser comme critères de

classification dans les applications. Nous donnerons ultérieurement quelques

critères d'utilisation plus aisés; malheureusement il n'en existe pas de simples et

universels.

5-6- Martingale

Une chaîne de Markov de matrice de transition pij i j N( )

Œ,est appelée une

martingale si et seulement si pour tout i l'espérance de la loi pij j N{ } Œ

est égale à i.

Autrement dit si et seulement si j p iijj N

. =Œ

 .

5-7- Exercice

Supposons donnée une chaîne de Markov finie dont l'ensemble des états est

0 1 2, , ,...,n{ } ; afin d'éviter des trivialités, nous supposerons que cette chaîne ne

possède pas plus de deux sous-ensembles persistants. Supposons que cette

chaîne est une martingale.

Etudier les états 0 et n .

Calculer Lim p et Lim pk

ik

kink

Æ +•

( )Æ +•

( )0 et interpréter ces limites.

Page 28: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

79

5-8- Une caractéristique des états d'une même classe

Proposition : Soit Xn n N( ) Œ une chaîne de Markov homogène. Les états d'une

même classe sont tous

o ou persistants positifs,

o ou persistants nuls,

o ou transitoires.

5-9- Exercice :

Nature des états de la chaîne :

i

k

r p 0 e 0

0 r p e 0

0 0 r e p

0 0 0 1 0

0 0 0 0 1

y

{

5-10 – Durées et probabilités de séjour dans l’ensemble des états

transitoires

Notons :

∑ Ni X in

n= ={ }

=

+•

Â11

le nombre de fois où la chaîne se trouve dans l'état i durant son

évolution ;

∑ Nij le nombre de passages en j, partant de l’état i, avant absorption ;

∑ Fij la probabilité de passage en j, partant de l’état i, avant l’absorption ;

Page 29: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

4/07/02

80

∑ Ti la durée du séjour dans l’ensemble des états transitoires en partant de l’état

i.

On a, bien évidemment : T Ni ijj

Ât

où t désigne l’ensemble des états transitoires.

Un raisonnement élémentaire nous montre que si i est persistant la chaîne visite

l'état i une infinité de fois presque sûrement .

Posons

A={Le système passe au moins n fois par l'état j},

B={Le système atteint l'état j} , on a :

∑ g P A X iijn( ) = =( )0

∑ g P B X i Fij ij1

0( ) = =( ) =

On a :

∑ g F gij ij jj2 1( ) ( )= ¥

Pour que le système passe au moins deux fois par l’état j, il doit dans un premier

temps atteindre l’état j, puis ensuite repasser par ce dernier. Il s’ensuit par

récurrence :

∑ g F g F F

g F

ijn

ij jjn

ij jjn

iin

iin

( ) -( ) -

( )

= ¥ = ¥

=

1 1

On a :

P N n g g

P N n F F

ii iin

iin

ii ii iin

=( ) = -

=( ) = -( ) ¥

-( ) ( )

-

1

11

Page 30: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

81

Il s’ensuit que Nii suit une loi de Pascal de paramètre 1-( )Fii .

5-10-1- Loi des Nij et nombre moyen de passages.

On a :

P N m g g

P N m F F F

P N m F F F

ij ijm

ijm

ij ij jjm

jjm

ij ij jj jjm

=( ) = -

=( ) = ¥ -( )=( ) = ¥ -( ) ¥

( ) +( )

-

-

1

1

11

Il s’ensuit que :

∑ Le nombre moyen de retours en i en partant de i est E NFii

ii

( ) =-1

1 .

∑ Le nombre moyen de passages en j en partant de i est E NF

Fijij

jj

( ) =-1

.

En résumé on a :

Proposition : On a

∑ P N r X i f f f F F F si r et

P N r X i f F si r

j ij jjr

jj ij jjr

jj

j ij ij

= =( ) = -( ) = -( ) >

= =( ) = - = - =

- -0

1 1

0

1 1 0

1 1 0

. . ,

Théorème : L'espérance du nombre de passages par l'état j, conditionnée par Xo

= i, est égale à :

E N X i pj ijn

n0 1=( ) =

=

+•Â ( )

5-10-2- Calcul des Fij pour i j, Œt

Notons :

Page 31: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

82

∑ t l’ensemble des états transitoires,

∑ c l’ensemble des états récurrents,

∑ T les probabilités de passage entre états transitoires de t ,

∑ C les probabilités de passage entre états récurrents de c ,

∑ R les probabilités de passage entre un état transitoire de t et un

état récurrent de c .

On peut décomposer la matrice P de la manière suivante :

PT R

C=

ÊËÁ

ˆ¯̃0

t ctc

T R

C0

On a :

F p P passage en j X kij ikk E

= ¥ =( )Œ

 0 , où

P passage en j X k

si k

si k j

F si k jkj

1

0

1=( ) =Œ=

π

Ï

ÌÔ

ÓÔ

c

Soit :

" Œ = +π ŒÂi j F p p Fij ij ik kj

k j k

, ,,

tt

; si parmi les n états de l’espace des états, m sont

récurrents, on a n m-( )2 équations à n m-( )2 inconnues. On en déduit :

FI T

FI T

I T

jj

jj

ijij

jj

=-( )

=-( )-( )

-

-

-

11

1

1

5-10-3- Durée moyenne du séjour dans les états transitoires.

Nous avons :

Page 32: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

83

T Ni ijj

Ât

; il s’ensuit :

E T E N I T I T Ui ijj

ijj

i( ) = ( ) = -( ) = -( )Œ

-

Œ

-Â Ât t

1 1. où :

∑ U est la matrice colonne à n-m composantes égales à 1 et

∑ I T i-( )-1 est la i-ème ligne de la matrice I T-( )-1

Si E T( ) est le vecteur colonne E Ti i( ){ } Œt

alors E T I T U( ) = -( )-1. .

5-11- Matrice fondamentale :

Compte tenu du rôle tenu par la matrice I T-( ) elle porte souvent le nom de

matrice fondamentale de la chaîne de Markov.

5-12 - Problème :

Soit Xn n N( ) Œ une chaîne de Markov homogène irréductible dont l’espace des

états est fini ou dénombrable et de matrice de transition P pij i j E= ( )

Œ, .

On pose

∑ f P X j X j X j X iijn

n n( ) ( , ,.., )= = π π =-1 1 0 la probabilité d'être pour la première fois

en l'état j au temps n, étant parti de l'état i au temps 0,

∑ f fkj kjn

n

==

+•

 ( )

1

,

∑ g P Le système passe au moins n fois par j X iijn( ) = =( )0 .

1- Montrer que :

∑ " Œ " Œ =+( ) ( )

πÂi j E n N f p fij

nik kj

n

k j

, , , .* 1

∑ " Œ " Œ =+( ) ( )i j E n N g f gijn

ij ijn, , , .* 1

Page 33: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

84

2- Montrer que la chaîne Xn n N( ) Œ est récurrente si et seulement si Lim g

niin

Æ •

( ) = 1.

Que peut-on en déduire si l’espace des états est fini ?

3- Supposons i jπ , posons a ij n kP n N X j X i k n X i= $ Œ = π £ £ =( )* , , ,1 0 ; montrer

que f fii ij ji£ - -( )1 1a . En déduire la valeur de f ji lorsque la chaîne est

récurrente.

4- Posons mij ijn

n

n f= ( )

=

 .1

, mij représente le temps moyen de premier passage en j

sachant qu’à l’instant 0 le système était en i ; montrer que si la chaîne Xn n N( ) Œ est

récurrente, alors " Œ = +π

Âi j E pij ik kjk j

, , .m m 1.

Que peut-on dire de mij si fij < 1 ?

6-Ergodicité

Nous avons précisé, au paragraphe 2, la notion de transition d’ordre supérieur

pour une chaîne de Markov Xn n N( ) Œ et mis en évidence que la probabilité

d’atteindre l’état x à partir de l’état y en n étapes était donné par la matrice

P pnxyn= ( )( ) puissance nème de la matrice de transition P.

6-1- Définition :

Nous dirons qu’une chaîne de Markov est ergodique si et seulement si la

limite " ŒÆ •

x y E Lim pn

xyn, , ( ) existe et est indépendante de l’état initial x . Comme cette

limite ne dépend que de l’état final y , nous la noterons Lim pn

xyn

yÆ •=( ) p .

Page 34: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

85

Ainsi une chaîne de Markov ergodique atteint après un grand nombre d’étapes

une situation d’équilibre statistique au sens suivant :

nous avons vu que la loi marginale PX n est définie pour tout y EŒ par

p P X y P y p pyn

n X x xyn

x En

( ) ( )( ) ( ) .= = = =Œ

 ;

il s’ensuit alors que

Lim p Lim P X y Lim P y Lim p p Lim p p Lim pn

yn

nn

nX

nx xy

n

x En

xyn

xx E

nxyn

ynÆ • Æ • Æ • Æ • Œ Æ • Œ Æ •= = = = = = = Â( ) ( ) ( ) ( )( ) ( ) . . p

car pxx E

 1.

Un problème important de la théorie des chaînes de Markov est donc de

déterminer sous quelles conditions une chaîne de Markov est ergodique.

Nous reviendrons plus généralement sur la question des limites et sur les critères

d’ergodicité au paragraphe 8.

6-2- Remarques

∑ Lorsque " Œ = >Æ •

y E Lim pn

xyn

y, ( ) p 0 on précise parfois que la chaîne de Markov

est fortement ergodique.

∑ Lorsque " Œ = =Æ •

y E Lim pn

xyn

y, ( ) p 0 on précise parfois que la chaîne de Markov

est faiblement ergodique.

6-3- Théorème et définition

Un état y apériodique, persistant, est ergodique si et seulement si my < +• . Alors

" Œ =Æ •

-y E Lim p fn

xyn

xy y, ( ) m 1.

Page 35: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

86

6-4- Remarque

Il résulte de ce qui précède que si l'état y est apériodique alors soit

Lim p fn

xyn

xy yÆ •

-=( ) m 1 soit Lim pn

xyn

Æ •=( ) 0.

7- Chaîne irréductible, décomposition des chaînes.

7-1 – Partie irréductible fermée

Théorème : Si i est un état persistant, il existe une unique partie irréductible

fermée C contenant i et telle que pour tout couple (j,k) d'états dans C, on ait

f fik kj= =1 1, .

Autrement dit partant d'un état arbitraire i dans C, le système est certain de

passer par tous les autres états de C; par définition de la fermeture, aucune sortie

de C n'est réalisable.

7-2 – Décomposition d'une chaîne de Markov

Théorème : L'espace des états d'une chaîne de Markov se décompose en une

partition d'ensembles T, C1 , C2 ,… tels que :

∑ T est l'ensemble de tous les états transitoires.

∑ Si j est dans Cn alors fjk = 1 pour tout k dans Cn et fjk = 0 pour tout k extérieur

à Cn.

Page 36: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

87

7-3- Probabilité d'absorption par une classe récurrente

Considérons une chaîne de Markov Xi( ) dont l'espace des états E a pour cardinal

n. Supposons que cette chaîne possède un ensemble d'états transitoires T de

cardinal n-m, où m désigne le cardinal de l'ensemble C des états récurrents.

Supposons enfin que cette chaîne possède r classes récurrentes C1 , C2 , ... , Cr

(dont la réunion est C).

Nous allons déterminer l'ensemble bip{ } des probabilités d'absorption du

processus par la classe récurrente Cp pour p rŒ{ }1,..., et i TŒ .

On a :

bip ij pj E

p P Absorption par C X j= =( )Œ

 . 1 avec

∑ P Absorption par C X j si j C Cp p1 0=( ) = Œ -

∑ P Absorption par C X j si j Cp p1 1=( ) = Œ

∑ b jp si j TŒ

Il s'ensuit :

b bip ij ijj Tj C

jpp pp

= +ŒŒ

ÂÂ . ,

d'où l'on déduit l'équation vectorielle

Page 37: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

88

p

p

p

I T

jj C

jj C

n m jj C

p

p

n m p

p

p

p

1

2

1

2

Œ

Œ

-

Â

Â

Â

Ê

Ë

ÁÁÁÁÁÁÁÁ

ˆ

¯

˜˜˜˜˜˜˜˜

= -( )

Ê

Ë

ÁÁÁÁ

ˆ

¯

˜˜˜˜...

....

( )

( )

bb

b

(en numérotant les éléments de T de 1 à (n-m) )

et la solution

bb

b

1

2 1

1

2

p

p

n m p

jj C

jj C

n m jj C

I T

p

p

p

p

p

p

....

...( )

( )

-

-

Œ

Œ

Ê

Ë

ÁÁÁÁ

ˆ

¯

˜˜˜˜

= -( )

Ê

Ë

ÁÁÁÁÁÁÁÁ

ˆ

¯

˜˜˜˜˜˜˜˜

Â

Â

Â

Remarque : Une démonstration rigoureuse se déduit du théorème de

Gerschgörin.

7-4 – Caractérisation de la nature des états (1)

Théorème : Dans une chaîne finie il n'existe pas d'état nul et il n'est pas possible

que tous les états soient transitoires.

Autrement dit :

7-5 - Caractérisation de la nature des états (2)

Théorème : Avec une probabilité égale à 1, un état transitoire ne peut être visité

qu'un nombre fini de fois. Il s'ensuit que dans une chaîne de Markov à nombre fini

d'états, tous les états ne peuvent pas être transitoires; au moins l'un d'eux est

persistant.

Page 38: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

89

7-6 - Caractérisation de la nature des états (3)

Théorème : Si une chaîne de Markov est absorbante, tout état non absorbant est

un état transitoire.

7-7- Caractérisation de la nature des états (4)

Théorème : Une chaîne de Markov homogène irréductible Xn n N( ) Œ est transitoire

si et seulement si pour un état quelconque k le système linéaire :

x p x i k et j ki ij jj

= π π . , ,

0 1£ £ πx i ki ,

admet une solution non identiquement nulle.

Résultat équivalent à :

7-8- Caractérisation de la nature des états (5)

Théorème : Une chaîne de Markov homogène irréductible Xn n N( ) Œest persistante

si et seulement si pour un état quelconque k le système linéaire :

x p x i k et j ki ij jj

= π π . , ,

0 1£ £ πx i ki , ,

n'admet aucune solution autre que xi = 0 pour tout i.

7-9- Exercice

Caractériser les états de la chaîne de Markov définie par la matrice de transition :

Page 39: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

4/07/02

90

M =

Ê

Ë

ÁÁÁÁÁ

ˆ

¯

˜˜˜˜˜

012

12

12

012

12

12

0

7-10-Test

Caractériser les états de la chaîne de Markov définie par la matrice de transition :

P =

i

k

0 0.7 0 0 0 0 0 0 0.3 0

0.8 0 0.2 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 1 0

0 0 0 0.4 0 0.05 .0 0.25 0.05 0.25

0 0 0 0 0 0.2 0.8 0 0 0

0 0 0 0 0.1 0.2 0.7 0 0 0

0 0 0 0 0.7 0.3 0 0 0 0

0 0 0 0.35 0 0.15 0.1 0 0 0.4

1 0 0 0 0 0 0 0 0 0

0 0 0 0.5 0 0 0.05 0.05 0 0.4

y

{

Réécrire cette matrice sous la forme :

T R

C0

ÊËÁ

ˆ¯̃

.

8- Distributions stationnaires et lois limites.

8-1- Distribution stationnaire.

Une chaîne de Markov homogène d'espace d'états fini ou non est dite posséder une

distribution stationnaire p p p p= ( )0 1, ,.., ,...n (où " Œ ≥ =Âi N eti nn

,p p0 1) si et

seulement si p satisfait l'équation p p= .P .

Autrement dit : la loi de Xn est invariante dans le temps.

Page 40: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

91

8-2- Lois limites

Une chaîne de Markov homogène est dite posséder une loi limite

p p p p= ( )0 1, ,.., ,...n si et seulement si Lim Lim P X jn jn

n n jÆ +• Æ +•= = =p p( ) ( ) pour j=

0, 1, 2, ... .

8-3- Lois limites et lois stationnaires des chaînes de Markov homogènes

irréductibles et apériodiques.

Théorème :

1. Soit Xn n N( ) Œ une chaîne de Markov homogène irréductible apériodique,

La loi limite ( ( ) )( )Lim Lim P X jn jn

n n j j NÆ +• Æ +• Œ= = =p p existe toujours et est

indépendante de la loi initiale.

2. Si tous les états ne sont pas persistants positifs (donc sont soit transitoires,

soit persistants nuls) alors p j = 0 pour tout j et aucune distribution stationnaire

n'existe.

3. Si tous les états de Xn n N( ) Œ sont persistants positifs alors p j > 0 pour tout j et

p p p p= ( )0 1, ,.., ,...n forme une distribution stationnaire avec p mj j= 1 .

Auquel cas la limite est l'unique solution de l'équation :

p ii N

 1

p pj i iji N

p=Œ

 . j = 0, 1, 2, ..

8-4- Loi stationnaire pour une chaîne arbitraire

Le critère suivant s'applique à une chaîne arbitraire :

Page 41: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

92

Théorème : Si une chaîne de Markov possède une loi stationnaire

p p p p= ( )0 1, ,.., ,...n alors p n = 0 pour tout n correspondant à un état transitoire ou à

un état persistant nul.

Autrement dit p n > 0entraîne que l'état n correspondant est persistant et a un

temps de récurrence fini (en revanche l'état n peut être périodique).

� Dire que p p p p= ( )0 1, ,.., ,...n est une loi stationnaire entraîne que p pn i ink

i N

p= ( )

ŒÂ . .

Si l'état n est transitoire ou persistant nul, on a pour tout i Lim pk

ink

Æ •

( ) = 0 ce qui

entraîne p n = 0 .

8-5- Remarques :

∑ Dans le cas (3) d'une chaîne de Markov fortement ergodique, la loi

stationnaire et la loi limite coïncident. De telles distributions sont dites

distributions d'équilibres.

∑ Ces distributions sont fondamentales pour traiter des files d'attente. Cela

indique aussi pourquoi il est important de posséder des critères permettant de

savoir si une chaîne de Markov est ou non ergodique.

∑ Il importe de noter qu'une distribution limite est aussi une distribution

stationnaire mais que l'inverse n'est pas exact.

Le théorème suivant montre que le comportement d'une chaîne de Markov dont le

nombre d'états est fini est plus simple que celle dont le nombre d'états est infini:

Page 42: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

93

8-6- Ergodicité des chaînes à espace d’états fini

Théorème : Une chaîne de Markov Xn n N( ) Œ dont le nombre d'états est fini et qui

est irréductible et apériodique est (fortement) ergodique.

� En effet, d’après (7-3) la chaîne est persistente et d’après (8-3-3) elle est

fortement ergodique. ☺

8-7- Exercice :

Loi stationnaire et loi limite de la chaîne de Markov :

012

12

12

012

12

12

0

Ê

Ë

ÁÁÁÁÁ

ˆ

¯

˜˜˜˜˜

8-8- Test

Le siège d'une entreprise est assimilable à un polygone ayant Ns sommets. À

chaque sommet est situé un accès au bâtiment. Une partie de la sécurité du

bâtiment est assurée par un vigile. Il est décidé qu'il se déplacera d’un accès à

l'autre de telle sorte que, s'il quitte un sommet, il y a une probabilité p qu’il décide

d’aller au sommet adjacent dans le sens des aiguilles d’une montre et une

probabilité (1-p) qu'il aille à l’autre sommet adjacent.

1 –Analyser la situation lorsque Ns = 5 et Ns = 6.

Page 43: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

94

1

2

3

4

5

1

23

4

5

6

2 – On se place dans le cas du pentagone, Ns = 5. Imaginons pour fixer les idées

que le vigile commence sa surveillance à l'accès n°1, que p=1/3, que le vigile

met 1’30’’ pour passer d’un accès à un autre et demeure 30’’ à chaque accès. On

souhaite connaître l'accès le plus vulnérable au sens suivant : celui pour lequel le

temps moyen de premier passage est le plus élevé.

9- Extension:

9-1- Matrices de transition d'une chaîne de Markov non-homogène.

Lorsque la chaîne de Markov n'est pas homogène, la probabilité de transition de

l'état x à l'état y dépend de l'indice n. On a donc une famille de matrices de

transition satisfaisant à :

∑ " Œ " Œ = = =( ) >+n N x y E p n P X y X xxy n n, , , ( ) 1 0 ,

∑ " Œ " Œ =Œ

Ân N x E p nxyy E

, , ( ) 1 .

9-2-Processus de Markov d'ordre supérieur.

La définition des processus de Markov d’ordre 1 s'avère parfois insuffisante. Il est

en effet des situations dans lesquelles l'état futur ne dépend pas seulement de

Page 44: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

95

l'état présent mais également de l'état antérieur à l'état présent; la définition

précédente est alors modifiée en:

9-2-1-Définition:

Un processus aléatoire est un processus de Markov d'ordre 2 s'il vérifie l'axiome

suivant, que nous appellerons propriété de Markov à l'ordre 2 :

"( ) Œ < < < < "( ) Œ-+

- -+t t t t I t t t t x x x x En n

nn n n n

n0 1 1

10 1 1 0 1 1

1, ,..., , , ... , , ,..., , ,

P X x X x X xt t t t t tn n( ,..., , )

- -= = = >

1 1 1 1 0 00 ,

P X x X x X x X x P X x X x X xt t t t t t t t t t t t t tn n n n n n n n n n n n( , ,..., ) ( , )= = = = = = = =

- - - - - - - -1 1 2 2 0 0 1 1 2 2.

Autrement dit :

La propriété de Markov exprime que l'état futur Xtn dépend seulement de l’état

passé immédiatement antérieur à l’état présent Xtn-2 et de l’état présent Xtn-1

.

Plus généralement :

9-2-2-Processus de Markov d’ordre a i

Un processus aléatoire ( )Xt t IŒ est un processus de Markov d’ordre a i s'il vérifie

l'axiome suivant, fréquemment appellé propriété de Markov :

"( ) Œ < < < < "( ) Œ " Œ{ }-+

- -+t t t t I t t t t x x x x E nn n

nn n n n

ni0 1 1

10 1 1 0 1 1

1 1, ,..., , , ... , , ,..., , , ,..,a ,

P X x X x X xt t t t t tn n( ,..., , )

- -= = = >

1 1 1 1 0 00 ,

P X x X x X x X xt t t t t t t tn n n n n n( , ,..., )= = = =

- - - -1 1 2 2 0 0=

P X x X x X x X xt t t t t t t tn n n n n n n i n i( , ,.., )= = = =

- - - - - -1 1 2 2 a a.

Autrement dit :

Page 45: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

96

La propriété de Markov exprime que l'état futur Xtn ne dépend pas de l’ensemble

des états passés X i nti, , , ,.., ,Œ -{ }0 1 2 2 mais seulement des l'états

X X Xt t tn n n i- - -1 2, ,..,

a.

Cette propriété précise le niveau de mémoire du processus.

9-3-Modèles de Markov cachés.

La notion de chaîne de Markov d’ordre a i nous a permis de préciser plus avant le

niveau de mémoire. Cette généralisation ouvre la possibilité de présenter un

concept émergent dans un grand nombre d’applications (informatique, traitement

du signal, reconnaissance des formes, ingénierie de la connaissance…) : les

Modèles de Markov Cachés (HMM pour : Hidden Markov Models). L’ingénierie

linguistique, qui vise une mise en œuvre de l’ensemble des techniques

permettant une compréhension plus ou moins large du langage naturel par une

machine, en fait un usage particulier ainsi que nous le constaterons. Ce domaine

(l’ingénierie linguistique) fait partie, soulignons-le, des domaines répertoriés dans

les technologies clefs du développement industriel avec une progression

prévisible du marché importante et une intensité de la concurrence faible.

Insuffisance du modèle markovien.

Imaginons un espace réel qui nous est caché (par exemple le temps qu’il fait

dehors alors que nous sommes enfermés dans une pièce aveugle ; réduisons

pour fixer les idées le temps à 3 états : pluvieux, nuageux, ensoleillé) ; supposons

en revanche que nous disposons d’un baromètre : une grenouille qui occupe sur

Page 46: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

97

son échelle la position basse si le temps et ensoleillé (avec une certaine

probabilité), la position haute s’il est pluvieux (avec une certaine probabilité) et

intermédiaire s’il est incertain (avec une certaine probabilité). Nous souhaitons

pouvoir prédire le temps sans le voir directement, éventuellement enregistrer une

séquence de prévision et en induire si l’on est en été ou en hiver.

Nous sommes donc en présence de deux ensembles d’états : l’ensemble des

états observables (celui des positions de la grenouille) et l’ensemble des états

cachés (les états du temps). Par ailleurs nous savons que l’évolution du temps

obéit à un modèle markovien. La prévision du temps qu’il fait serait grandement

améliorée si nous pouvions combiner l’observation du temps qu’il faisait

réellement hier avec la position de la grenouille.

La description d’un modèle markovien caché se fait donc à l’aide d’un modèle

markovien sur l’espace des états cachés, d’un ensemble d’états observables et

d’une distribution de probabilité conditionnelle qui lie la réalité du temps à la

nature de l’observation.

Plus formellement (nous nous limiterons aux modèles d’espaces d’états finis), se

donner un modèle de Markov caché s’est se donner :

∑ l’ensemble E des états « cachés » ;

∑ l’ensemble M des états « observables » de cardinal m (éventuellement

différent du cardinal n de E) ;

∑ la matrice de transition P pij i j n= ( )

£ £1 ,sur E, avec

" ( ) Π= = =+i j E p P X j X iij n n, , ( )21 ;

∑ la matrice B bkj k m j n= ( )

£ £ £ £1 1, telle que " Œ " Œ = = =j E k M b P O o X ikj n k n, , ( ) où

ok désigne le symbole qui représente le résultat de l’observation ;

Page 47: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

98

∑ la loi initiale PX 0 de X0 sur E.

Se donner un modèle de Markov caché c’est donc plus brièvement se donner un

triplet P p B b Pij i j n kj k m j n X= ( ) = ( )ÊË

ˆ¯£ £ £ £ £ £1 1 1 0, ,

, , .

Page 48: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

99

APPENDICE A :

Formule de Bayes

A-1-Formule de Bayes : rappel et compléments.

� Si E F P, ,( ) est un espace probabilisé et A un événement tel que P(A) > 0,

alors l'application de F à valeurs dans R définie par

" Œ Æ«

, (- ) : ( ) = ( )

( ) B F P A B P B A

P A B

P A

définit sur F une loi de probabilité qui s'appelle la probabilité de B sachant A .

� Si E F P, ,( ) est un espace probabilisé, si A1, A2, ... , An est une famille

d'évènements de E telle que : A Ai j« = ∆ si i jπ et P Aii

n

=

ÊËÁ

ˆ¯̃

=1

1U , alors

pour tout évènement B FŒ on a : P B P B Aii

n

( ) = «( )=

Â1

.

Cette dernière relation porte souvent le nom de "principe des probabilités totales".

� Si E F P, ,( ) est un espace probabilisé et si A1, A2, ... , An est une famille

d'évènements de E telle que : A Ai j« = ∆ si i jπ et P Aii

n

=

ÊËÁ

ˆ¯̃

=1

1U , alors

Page 49: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

100

pour tout évènement B FŒ on a : P A BP B A P A

P B A P Ai

i i

j jj

n( ) =¥ ( )

( ) ¥ ( )=

Â( )

1

pour i = 1 , 2 , ...

,n .

� Si E F P, ,( ) est un espace probabilisé et si A1, A2, ... , An est une famille

d'évènements de E, on a :

P A A A P A P A A P A A A P A A An n n( .. ) = ( ) ( ) ( ) .. ( .... )-1 2 1 2 1 3 1 2 1 1« « « ¥ ¥ « ¥ ¥ « «à condition que le second membre ait un sens (une condition suffisante est que le

premier membre soit strictement positif).

� Comme les événements A et B sont parfaitement définis par leurs fonctions

indicatrices, on a :

P B A PP

PB AA B

A

( ) = ({ = } { = }) = ({ } { = })

({ = })

=1 1 1 1

1 1 1 11 1

«

= P

PA B

A

( ( , ) = ( , ) )

({ = })

1 1 11

1 1{ }

� Si X est une variable aléatoire définie sur l'espace probabilisé E F P, ,( ) à

valeurs dans l'espace probabilisable E F1 1,( ) et de loi PX , alors

pour toute variable aléatoire Y E Rn: Æ , on appelle loi conditionnelle de Y en X la

famille des lois de probabilité sur Rn indexées par les valeurs x de X (de

probabilité > 0) et définies par :

P B P Y B X xP Y B X x

P X x

P Y B X x

P X xYX x= ( ) := ( = ) =

( , = )( = )

=( = )

( = ) Œ

Œ{ }{ }

Œ{ } « { }{ } .

� Si Xi i n( ) =1,.., est une famille de variables aléatoires discrètes définie sur l'espace

probabilisé E F P, ,( ) on a, bien entendu :

Page 50: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

101

P X X X P X P X X P X X X P X X Xn n n( .. ) = ( ) ( ) ( ) .. ( .... )-1 2 1 2 1 3 1 2 1 1, , , ,, ,¥ ¥ ¥ ¥ .

� Par substitution, on déduit le résultat utile suivant : si Xi i n( ) =1,.., est une famille

de variables aléatoires discrètes et si U est une variable aléatoire discrète

définies sur l'espace probabilisé E F P, ,( ) on a:

P X X X U P X U P X X U P X X X U P X X X Un n n( .. ) = ( ) ( , ) ( , ) .. ( .... , )-1 2 1 2 1 3 1 2 1 1, , , ,, ,¥ ¥ ¥ ¥

A-2 Formule de Bayes généralisée.

Nous avons vu précédemment que si l’on prend des variables aléatoires discrètes

on a : P Y XP Y X

P X( ) =

,( )

( )

.

De manière analogue on a pour quatre variables aléatoires discrètes :

P W Y X ZP W Y X Z

P X Z

P W Y P X Z W Y

P X Z, , =

, , ,

( , )=

, , ,

( , )( ) ( )( ) ( ) ( )( )

( )( )( ) ( ) ( )( )

( ) .

Page 51: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

102

Appendice B :

Graphes

Cet appendice regroupe quelques résultats de théorie des graphes auxquels il est

fait référence dans le cours de systèmes stochastiques.

B-1-Définitions

Définition des graphes : Un graphe G est un couple (E,V) où E est l’ensemble

des sommets et V l’ensemble des arcs , l’ensemble des arcs étant un sous-

ensemble de l’ensemble ExE.

figure 1

Si (x,y) est un arc de V , x est le prédécesseur de y et y le successeur de x.

Page 52: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

103

Soit G=(E,R) un graphe où E est l’espace des sommets (dans ce cours l’espace

des états) et R l’ensemble des arcs (dans ce cours les transitions).

∑ Un arc du sommet x vers le sommet y est souvent noté (x,y).

(m,l) , (m,k) , (m,m) , (k,l) , (k,j) , (i,j) , (i,m) , (j,k) sont les arcs de la

figure 1 .

∑ Un arc (x,x) s’appelle une boucle.

(m,m) est une boucle dans l’exemple de la figure 1

∑ Deux sommets reliés par un arc sont dits adjacents.

Les sommets adjacents de l’exemple 1 sont décrits ci-dessus.

∑ Deux arcs sont dits adjacents s’ils ont une extrémité commune.

Sur la figure 1 les arcs (j,k) et (k,l) sont adjacents, il en est de même

des arcs (m,m) et (m,l) etc….

∑ Un arc qui a son extrémité terminale (resp. initiale) en un sommet est dit

incident vers l’intérieur (resp. vers l’extérieur) à ce sommet.

L’arc (k,j) est incident vers l’intérieur à j, l’arc (k,j) est incident vers

l’extérieur à k.

∑ On appelle demi-degré intérieur et l’on note d-(x) le nombre d’arcs incidents

vers l’intérieur à x. On appelle demi-degré extérieur et l’on note d+(x) le

nombre d’arcs incidents vers l’extérieur à x.

Exemple : d+(I)=2, d-(I)=0, d+(m)=3, d-(m)=2, d+(j)=1, d-(j)=2,..

Page 53: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

104

Définition d’une arborescence : Une arborescence de racine r est un graphe

G(E,V) tel que r est un élément de E et que, pour tout sommet x de E, il existe un

chemin unique de r vers x.

figure 2

Une arborescence est donc sans cycle et le demi-degré intérieur de chaque

nœud est égal à 1 sauf pour la racine. Les sommets de demi-degré extérieur nul

sont appelés les feuilles de l’arborescence.

Dans l’exemple de la figure 2 les feuilles sont f1 ,f2 ,f3 .

En informatique les arborescences se prêtent bien à une définition récursive.

Un graphe est dit simple si et seulement si :

1- Il n’a pas de boucle ;

2- Il y a au plus un arc entre deux sommets.

Page 54: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

105

figure 3

Un graphe est toujours orienté. On est parfois amené à ignorer cette orientation si

le problème posé est de nature non orientée. Un arc s’appelle alors une arête,

notée [x,y], et l’on a [x,y]=[y,x].

On désigne parfois sous le nom de multigraphe un graphe G sans son orientation.

Inversement, à partir d’un multigraphe G, on construit un graphe orienté en

orientant chaque arête dans les 2 sens.

Exemple de multigraphe : (multigraphe associé au graphe simple de la figure 3)

figure 4

Page 55: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

106

Un graphe est dit complet si et seulement si l’on a :

x y E y x E, ,( ) œ fi ( ) Œ

U n chemin c v v vn= ( )1 2, ,... est une suite d’arcs telle que pour chaque arc

v x xi i i= ( )+, 1 ( i n< ) de la suite l’extrémité terminale x de vi i+1 coïncide avec

l’extrémité initiale de vi+1 .

Autrement dit, un chemin de x à y est une suite de sommets x x xn1 2, ,...( ) telle que

x x x y et i N x x Vn p i0 1 1 1= = " Œ ( ) Œ- +, , . On dit alors parfois que y est descendant

d’ordre n de x.

Si l’on fait abstraction de l’orientation, le chemin s’appelle une chaîne. Une chaîne

est donc une séquence d’arêtes pouvant être parcourues de manière que

l’extrémité terminale de l’arête que l’on quitte soit l’extrémité initiale de l’arête que

l’on va parcourir.

Un chemin est dit élémentaire s’il ne rencontre pas deux fois le même sommet.

Lemme : Etant donnés deux sommets x et y de G, s’il existe un chemin de x à y

dans G alors il existe un chemin élémentaire de x à y (ce chemin sera de

longueur inférieure ou égale au cardinal de l’ensemble des sommets).

Un chemin est dit simple s’il n’utilise pas deux fois le même arc.

Un circuit (resp. un cycle) est un chemin (resp. une chaîne) qui se referme sur lui-

même (resp. sur elle-même)

Page 56: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

107

La longueur d’un chemin (resp. d’une chaîne) est égale au nombre d’arcs (resp.

d’arêtes) qui le constituent.

La suite de sommets (1,2,4,1,5,3,6,2,4) est un chemin de longueur 8 reliant 1 à 4

.

La suite de sommets (1,2,4) est un chemin élémentaire de longueur 2 reliant 1 à

4.

La suite de sommets (1,2,4,1) est un chemin circuit de longueur 3.

Un chemin qui passe une seule fois par tous les sommets d’un graphe est appelé

chemin hamiltonien.

B-2-Connexité

B-2-1-Graphe connexe.

Un graphe connexe est un graphe tel que pour toute paire x, y de sommets

distincts, il existe un chemin qui les relie.

Page 57: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

108

B-2-2-Composante connexe d’un graphe

Soient x et y deux sommets d’un graphe. La relation « x y ou x y= π et il existe

un chemin reliant x et y » est une relation d’équivalence. Les classes

d’équivalence forment une partition de E et sont appelées composantes connexes

de G.

B-2-3-Graphe fortement connexe

Soit G=(E,V) un graphe connexe et soit R la relation sur E définie par :

R(x,y) si et seulement si il existe un chemin de x vers y et un chemin de y vers x ;

un chemin de longueur 0 est un chemin réduit à x.

Cette relation d équivalence induit une partition de l’ensemble E dont les

éléments sont les composantes fortement connexes de G.

Un graphe est fortement connexe si et seulement s’il n’admet qu’une composante

connexe.

Autrement dit si et seulement si pour tout couple de sommets x et y il existe un

chemin de x vers y et un chemin de y vers x.

B-3-Matrice d’adjacence associée à un graphe

Etant donné un graphe G = (E,V) , on associe à G une matrice, appelée matrice

d’adjacence, de type (Card(E),Card(E)), telle que tout élément situé à

l’intersection de la ligne a Œ E et de la colonne b Œ E est égal à 1 si a b,( ) ŒV et

à 0 sinon.

Page 58: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

109

La matrice d’adjacence M associée au graphe précédent est donc

M =

Ê

Ë

ÁÁÁÁÁÁÁ

ˆ

¯

˜˜˜˜˜˜˜

0 1 0 0 1 0

0 0 1 0 0 0

0 1 0 1 0 0

0 0 0 0 0 0

0 0 1 1 1 0

0 0 0 0 0 0

avec

i j k l m n

i

j

k

l

m

n

0 1 0 0 1 0

0 0 1 0 0 0

0 1 0 1 0 0

0 0 0 0 0 0

0 0 1 1 1 0

0 0 0 0 0 0

Le carré, le cube ,… la puissance d’ordre n de la matrice d’adjacence calculés

avec les règles habituelles donnent le nombre de chemins quelconques de

longueur 2, 3,…,n existant entre les éléments de tout couple de sommets du

graphe.

Ce qui est clair sur la définition du produit matriciel. En effet le terme situé à

l’intersection de la i-ème ligne et à de la j-ème colonne s’écrit a aik kjk

n

.=

Â1

; il s’ensuit

que si l’un des produits a aih hj. est égal à 0, on a a ou aih hj= =0 0 , autrement dit il

n’existe pas d’arc i h,( ) ou d’arc h j,( ) ; si le produit a aih hj. est différent de 0, on a

a et aih hj= =1 1 , autrement dit il existe un d’arc i h,( ) et un arc h j,( ). La somme

a aik kjk

n

.=

Â1

donne donc le nombre de chemins de longueur 2 entre i et j.

Page 59: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

110

B-4-Fermeture transitive d’un sommet du graphe.

Désignons par F(x) l’ensemble des sommets du graphe G liés à x par un arc

d’origine x :

F(i)={j,m} , F(j)={k} , F(k)={j,i}, F(m)={m,i,k} , F(l)={ }= = ∆ , F(n)={ } = ∆ .

On appelle fermeture transitive du sommet x d’un graphe G l’ensemble :

F x x F x F x

où F x F F x

n

n n

( ) = { } » » » »

= ( )-

( ) ... ( ) ....

( ) ( )1

Autrement dit la fermeture transitive de x représente l’ensemble des sommets

reliés à x par un chemin (on dit parfois que ce sont les sommets descendants de

x).

Calcul de la fermeture transitive

A la fermeture transitive d’un graphe correspond la matrice :

M G I M M M n( ) = + + + + +1 2 ... ... (Addition booléenne)

Rappel du théorème du binôme : I M I M M Mk k+( ) = + + + +1 2 ... (Opérations

booléennes).

Page 60: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

111

Il est clair qu’il n’est pas utile de considérer les puissances de M supérieures à n-

1 (n étant le nombre de sommets du graphe). En pratique on peut s’arrêter dès

que M Mp p+ =1 .

Si r est le nombre des sommets du graphe, c’est-à-dire le nombre d’évènements

de l’espace des états, et si r est fini, le chemin élémentaire de longueur maximale

dans le graphe comprend au plus r-1 arcs. On obtient la fermeture transitive en

calculant I Mr+( ) -( )1 où M est la matrice d’adjacence du graphe et I la matrice

identité. [La matrice M est une matrice booléenne]. Les opérations sur les

constituants de M et de I+M s’obtiennent en utilisant comme lois de composition

le produit et la somme logique.

Table du produit logique :

. 0 1

0 0 0

1 0 1

Table de la somme logique :

+ 0 1

0 0 1

1 1 1

Ainsi il suffit de calculer I Mp

+( )( )2 jusqu’à ce que I M I Mp p

+( ) = +( )+( ) ( )2 2 1

pour

obtenir la fermeture transitive du graphe .

La présence d’un 1 à la i-ème ligne et à la j-ème colonne de M p signifie qu’il

existe au moins un chemin de longueur p entre les sommets i et j.

B-5-Valeurs propres des matrices stochastiques

B-5-1-Valeurs propres et classes récurrentes

L’ordre de multiplicité de la valeur propre 1 de la matrice M est égal au nombre de

classes récurrentes pour une matrice stochastique finie.

Page 61: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

112

B-5-2-Valeurs propres et classes périodiques

Si M est la matrice de transition d’une chaîne de Markov finie irréductible et

périodique de période d, alors les racines d-ièmes de l’unité sont des valeurs

propres de M, chacune de multiplicité 1 et il n’existe pas d’autre valeur propre de

module 1.

Si M est la matrice de transition d’une chaîne de Markov finie, toute valeur propre

de M de module 1 est racine de l’unité. Les racines d-ièmes de l’unité sont des

valeurs propres de M si et seulement si M contient une classe récurrente de

période d. La multiplicité de chaque d-ème racine de l’unité est exactement le

nombre de classes récurrentes de période d.

Remarque : La classification des états à l’aide des propriétés des graphes n’est

strictement équivalente à la classification probabiliste que dans le cas des

chaînes de Markov à espace d’états fini.

Page 62: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

113

Problèmes de synthèse

Thème d'étude 1 : Etude du cursus d’un élève dans une

grande école

Ce thème d'étude servira de fil rouge tout au long de ce chapitre. Nous

résoudrons les questions qui se pose

Dans certaines grandes écoles les études durent trois ans ; à l’issue de chaque

année, chaque élève a une certaine probabilité de passer dans l’année

supérieure (ou d’obtenir le diplôme s’il est en troisième année); une certaine

probabilité de redoubler, et une certaine probabilité d’être renvoyé. Pour certains

établissements, disons les établissements de type A, le nombre de

redoublements n'est pas limité; pour d'autres, appelons-les de type B, il n'est pas

possible d'une part de faire les deux premières années en plus de 3 ans (un élève

en échec qui a déjà accompli deux années est exclu) et d'autre part de faire la

troisième année 3 fois (un élève en échec qui a déjà accompli deux troisièmes

années est exclu).

Nous traiterons dans un premier temps le cas des établissements de type A, les

établissements de type B pourrons faire l'objet d'une étude de synthèse à la fin du

chapitre 3.

1.Quel est le modèle du cursus d’un élève dans un établissement de type A .

2. Quelle est la probabilité pour qu’un élève obtienne son diplôme de fin d’études

selon son état présent dans le cursus dans un établissement de type A.

3.Quel est le temps moyen pour qu’un élève obtienne son diplôme, selon son

état présent dans le cursus, dans un établissement de type A

Page 63: 2-Chaînes de Markov - bunnyup.free.frbunnyup.free.fr/4a/PS/ps-02-chaine de Markov.pdf · B.A. Ferrif 24/07/01 53 I-Introduction La structure de chaîne de Markov modélise un type

B.A. Ferrif

24/07/01

114

4. Quelle est la durée moyenne des études dans un établissement de type A.

5. Quel est le temps moyen avant renvoi dans un établissement de type A.

6. Que doit penser un élève qui entre dans le système en première année ?

Comment peut-il augmenter ses chances de succès ?

Remarque: L'ensemble de ces questions sera repris pour un établissement de

type B à la fin du chapitre 2.