Upload
vanthien
View
230
Download
1
Embed Size (px)
Citation preview
12. Variables aléatoires réelles discrètes finies
12.1 Généralités12.1.1 Définitions et notations
Définition 12.1.1 Soit (Ω,P (Ω)) un espace probabilisable fini. On appelle variable aléatoireréelle discrète finie sur Ω (VARDF sur Ω) toute application X de RΩ.
■ Exemple 12.1 On modélise le lancer de deux dés par une probabilité uniforme sur l’ensemble�1,6�2. Alors, la somme des numéros obtenus sur les deux dés se modélise par la VARDF, notéeX, définie par X : �1,6�2 →R, (i , j ) �→ i + j . ■
Notation 12.1. Pour X une VARDF sur Ω, comme pour toute application, on peut considérerl’image directe d’un sous-ensemble de Ω par X et l’image réciproque d’un sous-ensemble de R parX. Dans le cadre des probabilités, la notation standard pour l’image directe ne diffère pas de celleutilisée ailleurs en mathématiques. Par exemple, on note :
X(Ω) = X({ω1, ...,ωn}) = {X(ω1), ...,X(ωn)} .
Par contre, la notation standard en probabilités pour l’image réciproque diffère de celle utiliséeailleurs en mathématiques. En probabilités, les images réciproques sont notées avec des crochets.Ainsi, on a :
X−1(A) = [X ∈ A] = {ω ∈Ω | X(ω) ∈ A} .
Cette notation se généralise à n’importe quelle proposition Q portant sur des éléments de R :
[X vérifie Q] = {ω ∈Ω | X(ω) vérifie Q} .
■ Exemple 12.2 On reprend les mêmes objets que ceux de l’exemple précédent. On a alors[X = 3] = {(1,2), (2,1)} ou encore [X ≤ 3] = {(1,1), (1,2), (2,1)}. ■
Notation 12.2. Une application constante sur Ω est une VARDF sur Ω. On la note généralement
via la valeur de sa constante, i.e. pour un réel a, on notea : Ω −→ R
ω �−→ a.
160 Chapitre 12. Variables aléatoires réelles discrètes finies
Théorème 12.1.1 — Opérations usuelles. Soient X et Y deux VARDF sur un espace probabi-lisable fini (Ω,P (Ω)). Soient λ ∈R et f une fonction réelle définie sur un intervalle I de R telque X(Ω) ⊂ I. Alors, on peut définir les VARDF suivantes :
(i)X+Y : Ω −→ R
ω �−→ X(ω)+Y(ω)
(addition)
(ii)λ.X : Ω −→ R
ω �−→ λ×X(ω)
(multiplication par un scalaire)
(iii)X×Y : Ω −→ R
ω �−→ X(ω)×Y(ω)
(multiplication)
(iv)f ◦X : Ω −→ R
ω �−→ f (X(ω))
(transfert)
Démonstration. Ceci découle directement des résultats usuels sur les applications réelles. ■
R On remarque que l’on ne parle pas de composition pour les VARDF mais de transfert. C’estdû au fait que l’on utilise une fonction f qui permet de passer d’une VARDF à une autre (i.e.X à f ◦X), mais que f n’est pas, en soi, une VARDF : ce n’est qu’une fonction de transfert.
Théorème 12.1.2 — Système complet associés à une VARDF. Soit X une VARDF sur unespace probabilisable fini (Ω,P (Ω)). La famille ([X = x])x∈X(Ω) forme une partition de Ω.
Démonstration. C’est très direct. Si ω ∈Ω alors, par la définition d’une application, l’image deωpar X, X(ω), est définie de manière unique dans X(Ω). Ainsi, ω appartient à un unique ensemblede la famille ([X = x])x∈X(Ω). ■
12.1.2 Loi de probabilité et fonction de répartitionDéfinition 12.1.2 — Loi de probabilité. Soit X une VARDF sur un espace probabilisé fini(Ω,P (Ω),P). On appelle loi de probabibilité de X l’application LX définie par :
LX : X(Ω) −→ [0,1]x �−→ P([X = x])
.
Notation 12.3. Pour simplifier, on note souvent P(X = x) et, plus généralement, P(X vérifie Q) aulieu de P([X = x]) et P([X vérifie Q]).
Exercice 12.1 Déterminer la loi de probabilité LX , où X est la VARDF de l’exemple 12.1. ■
12.2 Espérance et variance 161
Définition 12.1.3 — Égalité en loi. Soient X et Y des VARDF sur un espace probabilisé fini
(Ω,P (Ω),P). On dit que X et Y sont égales en loi si LX =LY. On note alors, XL= Y.
Exercice 12.2 On modélise un lancer de pièce par une probabilité uniforme sur un ensemble{p, f }. Déterminer la loi de X, définie par X(p) = 0 et X( f ) = 1, puis de Y = 1−X, définie parY(p) = 1 et Y( f ) = 0. En déduire qu’il peut y avoir égalité en loi sans avoir égalité. ■
Définition 12.1.4 — Fonction de répartition. Soit X une VARDF sur un espace probabiliséfini (Ω,P (Ω),P). On appelle fonction de répartition de X et on note FX la fonction définiepar :
FX : R −→ [0,1]x �−→ P(X ≤ x)
.
Exercice 12.3 Faire la représentation graphique, pour x ∈ [0,15], de la fonction de répartitionde X, définie comme dans l’exemple 12.1. ■
Théorème 12.1.3 — Caractérisation de la loi par la fonction de répartition. Soient X et Ydeux VARDF sur un espace probabilisé fini (Ω,P (Ω),P). On a l’équivalence suivante :
XL= Y ⇔∀x ∈R, FX(x) = FY(x) .
Démonstration. Il suffit d’écrire X(Ω) = {x1, ..., xn} avec x1 < x2 < ... < xn . On remarque alorsque FX(x) = �
1≤i≤nxi≤x
P(X = xi ). Réciproquement, on a P(X = x1) = FX(x1) et, si i ∈ �2,n�, on a
P(X = xi ) = FX(xi )−FX(xi−1). Donc FX est définie entièrement par sa loi et réciproquement. ■
12.2 Espérance et variance12.2.1 Espérance mathématique
Définition 12.2.1 — Espérance mathématique d’une VARDF. Soit X une VARDF sur unespace probabilisé fini (Ω,P (Ω),P) telle que X(Ω) = {x1, ..., xn}. On appelle espérance mathé-
162 Chapitre 12. Variables aléatoires réelles discrètes finies
matique de X (ou simplement espérance de X) le réel, noté E(X), tel que :
E(X) =n�
i=1xi P(X = xi ) .
R L’espérance mathématique permet souvent de modéliser le gain moyen dans un jeu dehasard.
R On déduit directement de la définition de l’espérance que deux VARDF qui sont égales enloi ont la même espérance.
Exercice 12.4 Calculer l’espérance de X, où X est la VARDF de l’exemple 12.1. ■
Théorème 12.2.1 — Théorème de transfert. Soient X une VARDF sur un espace probabiliséfini (Ω,P (Ω),P) telle que X(Ω) = {x1, ..., xn} et g une fonction réelle définie sur X(Ω). On a :
E(g (X)) =n�
i=1g (xi )P(X = xi ) .
Démonstration. La démonstration de ce théorème n’étant pas au programme, on l’admet. Maiselle ne présente pas de difficulté particulière. ■
Exercice 12.5 Retrouver le résultat de l’exercice précédent en posant Y = 14−X. ■
12.2.2 VarianceDéfinition 12.2.2 — Variance d’une VARDF. Soit X une VARDF sur un espace probabiliséfini (Ω,P (Ω),P). On appelle variance de X le réel, noté V(X), tel que :
V(X) = E�(X−E (X))2� .
R De même que pour l’espérance, on déduit directement de la définition de la variance quedeux VARDF de même loi ont même variance.
12.2 Espérance et variance 163
Théorème 12.2.2 — Positivité de la variance. Soit X une VARDF sur un espace probabiliséfini (Ω,P (Ω),P). Alors, on a :
(i) V(X) ≥ 0(ii) V(X) = 0 ⇔ P(X = E(X)) = 1 (on dit que X est presque surement égale à E(X)).
Démonstration. Il suffit d’utiliser le théorème de transfert appliqué à la formule de la variance.
Ceci permet d’écrire V(X) =n�
i=1(xi −E(X))2P(X = xi ) ≥ 0, car c’est une somme de termes positifs.
On voit alors que xi = E(X) tant que P(X = xi ) �= 0, ce qui permet de conclure pour le casV(X) = 0. ■
Théorème 12.2.3 — Formule de Koenig-Huygens. Soit X une VARDF sur un espace proba-bilisé fini (Ω,P (Ω),P). Alors, on a :
V(X) = E(X2)− (E(X))2 .
Démonstration. On a V(X) =n�
i=1(xi − E(X))2P(X = xi ) =
n�i=1
(x2i − 2E(X)xi + E(X)2)P(X = xi ) =
n�i=1
x2i P(X = xi )− 2E(X)
n�i=1
xi P(X = xi )+E(X)2n�
i=1P(X = xi ) = E(X2)− 2E(X)2 +E(X)2 = E(X2)−
E(X)2. ■
Exercice 12.6 Calculer la variance de X, où X est la VARDF de l’exemple 12.1. ■
Définition 12.2.3 — Écart-type d’une VARDF. Soit X une VARDF sur un espace probabiliséfini (Ω,P (Ω),P). On appelle écart-type de X le réel, noté σ(X), tel que :
σ(X) =�
V(X) .
12.2.3 Transferts usuelsThéorème 12.2.4 — Transfert linéaire. Soient X une VARDF sur un espace probabilisé fini(Ω,P (Ω),P) et a,b deux réels. Alors, on a :
(i) E(aX+b) = aE(X)+b(ii) V(aX+b) = a2V(X)
Démonstration. Pour l’espérance, il suffit d’utiliser le théorème de transfert puis la linéarité dela somme. Pour la variance, il suffit de passer par la formule de Koenig-Huygens ainsi que laformule (i). ■
164 Chapitre 12. Variables aléatoires réelles discrètes finies
Exercice 12.7 Donner le détail des étapes décrites dans la démonstration du théorèmeprécédent. ■
Définition 12.2.4 — Variable centrée et réduite. Soit X une VARDF sur un espace probabi-lisé fini (Ω,P (Ω),P). On dit que X est centrée lorsque E(X) = 0. On dit que X est centrée etréduite lorsque E(X) = 0 et V(X) = 1. Si V(X) �= 0, on appelle variable centrée réduite associéeà X la VARDF, notée X∗, définie par :
X∗ = X−E(X)
σ(X).
R Les propriétés des transferts linéaires permettent de vérifier que X∗ est bien une variablecentrée et réduite.
12.3 Lois usuelles12.3.1 Loi certaine
Définition 12.3.1 Soit X une VARDF sur un espace probabilisé fini (Ω,P (Ω),P). On dit que Xsuit une loi certaine de paramètre a ∈R si P(X = a) = 1.
Théorème 12.3.1 Soit X une VARDF suivant une loi certaine de paramètre a ∈R. Alors, on a :
E(X) = a et V(X) = 0 .
Démonstration. Pour l’espérance, c’est immédiat. Pour la variance, il suffit d’appliquer le théo-rème sur la positivité de la variance. ■
12.3.2 Loi uniformeDéfinition 12.3.2 Soient X une VARDF sur un espace probabilisé fini (Ω,P (Ω),P) et E unepartie finie non vide de R. On dit que X suit une loi uniforme sur E si X(Ω) = E et, pour toutx ∈ E, P(X = x) = 1
|E| . On note alors X �→U (E).
Théorème 12.3.2 Soit X une VARDF telle que X �→U (�1,n�). Alors, on a :
E(X) = n +1
2et V(X) = n2 −1
12.
Démonstration. On a E(X) = �nk=1
kn = 1
n
�n(n+1)
2
�= n+1
2 et V(X) = E(X2)−E(X)2 =��n
k=1k2
n
�−
(n+1)2
4 = 1n
�n(n+1)(2n+1)
6
�− (n+1)2
4 = (n +1) 2(2n+1)−3(n+1)12 = (n+1)(n−1)
12 = n2−112 . ■
12.3 Lois usuelles 165
Exercice 12.8 Soient a,b ∈ Z tels que a < b et X une VARDF telle que X �→ U (�a,b�). Dé-terminer l’espérance et la variance de X. On posera X = g (Y) où Y �→U (�1,n�) et g est unefonction de transfert linéaire. ■
12.3.3 Loi de BernoulliDéfinition 12.3.3 Soient X une VARDF sur un espace probabilisé fini (Ω,P (Ω),P). On dit queX suit une loi de Bernoulli de paramètre p ∈]0,1[ si X(Ω) = {0,1}, P(X = 1) = p et P(X = 0) =1−p. On note alors X �→B(p).
Théorème 12.3.3 Soit X une VARDF telle que X �→B(p). Alors, on a :
E(X) = p et V(X) = p(1−p) .
Démonstration. On a E(X) = 0×(1−p)+1×p = p et V(X) = E(X2)−E(X)2 = p−p2 = p(1−p). ■
12.3.4 Loi binomialeDéfinition 12.3.4 Soient X une VARDF sur un espace probabilisé fini (Ω,P (Ω),P). On ditque X suit une loi binomiale de paramètres n ∈N∗ et p ∈]0,1[ si X(Ω) = �0,n� et, pour toutk ∈ �0,n�, P(X = k) = �n
k
�pk (1−p)n−k . On note alors X �→B(n, p).
R Une loi de Bernoulli est une loi binomiale de paramètres 1 et p. Qui plus est, une VARDFde loi binomiale de paramètres n et p permet de modéliser les résultats cumulés de nitérations d’une expérience aléatoire dont les résultats sont modélisés par une VARDF deloi de Bernoulli de paramètre p.
Théorème 12.3.4 Soit X une VARDF telle que X �→B(n, p). Alors, on a :
E(X) = np et V(X) = np(1−p) .
Démonstration. On a E(X) = �nk=0 k
�nk
�pk (1− p)n−k = �n
k=1 k�n
k
�pk (1− p)n−k . Or, ∀k ∈ �1,n�,
k�n
k
� = n�n−1
k−1
�. D’où E(X) = �n
k=1 n�n−1
k−1
�pk (1− p)n−k = np
�n−1k=0
�n−1k
�pk (1− p)n−1−k = np(p +
1− p)n−1 = np. De même, on a E(X2) = �nk=0 k2
�nk
�pk (1− p)n−k = np
�n−1k=0(k + 1)
�n−1k
�pk (1−
p)n−1−k = np(1+ (n −1)p). Ainsi, V(X) = np(1+ (n −1)p)− (np)2 = np(1−p). ■
Exercice 12.9 On considère une urne de N boules avec b boules blanches et N−b boulesnoires. Les boules blanches sont gagnantes et rapporte un euro, les boules noires ne rap-portent rien. On effectue le tirage d’une boule. Comment peut-on modéliser les gains obte-nus ? Même question si on effectue n tirages successifs avec remise. ■