Upload
others
View
1
Download
0
Embed Size (px)
Citation preview
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 1
STATISTIQUE INFERENTIELLE
Introduction
+
CHAPITRE I: LES LOIS STATISTIQUES
2éme Année Licence Sciences de Gestion
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 2
Introduction
Terminologie : induction- déduction
On parle de problème d’induction, si la population présente une grande variabilité, cela va
empêcher de conclure avec certitude sur la population à partir des données acquises sur un
échantillon. Quand on parle de variabilité, on aborde le problème de l’incertitude. Quand on a
des données sur l’échantillon on a de l’information.
Statistique descriptive et Statistique inférentielle
La statistique descriptive s’intéresse à la sous-population formée par l’échantillon. Elle a pour
objet de décrire la variabilité de l’échantillon.
La statistique inférentielle s’intéresse à la population dont l’échantillon est issu. Elle vise inférer
à partir des seules caractéristiques de l’échantillon , des propriétés générales concernant la
population. Elle est basée sur la théorie des probabilités et correspond à la démarche inverse.
Schéma représentatif
Stat. Inférentielle Théorie des probabilités
Théorie des probabilités : Connaissant la distribution d’une variable dans une population,
la théorie des probabilités permet de tirer aléatoirement un échantillon.
La statistique inférentielle : On va faire l’inverse : l’inférence statistique consiste à
induire les caractéristiques inconnues d’une population à partir d’un échantillon issu de dette
population.
Les caractéristiques de l’échantillon, une fois connues reflètent avec une marge d’erreur
possible celles de la population. En effet, à partir des valeurs prises, par une variable sur un
échantillon, la statistique inférentielle essaie de préciser la distribution de la variable dans la
population.
On parle de recensement, si les valeurs observées des variables sont relatives à l’ensemble
de la population observée → on utilise alors la Statistique descriptive , on n’a pas besoin de
statistique inférentielle. L’étude statistique concerne l’étude des caractéristiques d’une
population.
Population Echantillon
Echantillon
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 3
Le sondage : dans ce cas, on s’intéresse à une partie de la population appelée :
échantillon .Au chapitre 2 de ce cours, on va nous intéresser aux diverses méthodes de sondage
. A travers l’étude des caractéristiques de l’échantillon , on cherche à extrapoler à la
population entière ces propriétés mises en évidence sur l’échelle → Statistique
inférentielle.
Avantages de la statistique inférentielle : Avoir de l’information. Pour résoudre le problème
de l’induction on a recours à la Théorie des probabilités.
.Hypothèses :
La population est considérée comme infinie ( très grande) .
Les variables statistiques qui la décrivent sont considérées comme des variables
aléatoires : En effet, la valeur prise par la variable statistique X pour un individu donné
de la population ne peut pas être déterminée avec précision. Elle dépend de plusieurs
paramètres, alors considérée comme résultat d’une expérience aléatoire .
La répartition des valeurs de ces variables sont caractérisées par des lois de
probabilité : La répartition d’une variable statistique X sur la population est décrite par
une loi de probabilité :
- Qui est caractérisée par une densité de probabilité X continue ou une séquence de
fréquences relatives à chacune de ses valeurs (X discrète) .
- Possédant des caractéristiques ( E (X) , V(X)) qui résument la distribution .
Des variations simultanées de 2 ou plusieurs variables statistiques sont décrites par une
loi jointe : ( variable continues ou discrétes ) .
Ces lois de probabilité sont :
- Totalement inconnues : Problème de statistique inférentielle non paramétrique (on
ignore la loi) .
- Partiellement inconnues : La loi est connue mais les paramètres sont inconnus
problème de statistique inférentielle paramétrique.
Objectifs :
Tirer des conclusions concernant certaines caractéristiques de la population à partir des
informations contenues dans l’échantillon .
Identifier les lois dans un échantillon de valeurs de variables obtenu à travers un sondage
dans la population, grâce aux méthodes suivantes : d’estimation, des tests
d’hypothèses , de modélisation et de prévision .
La pertinence de ces méthodes repose sur la qualité du sondage effectué → théorie de
l’échantillonnage .
La théorie des probabilités est l’analyse mathématique des phénomènes dans lesquels le hasard
intervient . Cette théorie va servir comme outil de base à un ensemble de méthodes ou de règles
permettant d’utiliser des données pour fixer la précision avec laquelle on estime les paramètres
ou on teste les hypothèses.
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 4
Rappel
Propriétés de l’espérance et de la variance
Soit X une variable aléatoire
∀ a ∈ ℝ : E (X + a) = E(X) + a
∀ a ∈ ℝ : E (a X) = a E(X)
Si X et Y sont 2 variables aléatoires : E (X + Y ) = E(X) + E(Y)
V(X) ≥ 0
∀ a ∈ ℝ : V (X + a) = V (X)
∀ a ∈ ℝ : : V (a X) = a2 V(X)
Si X et Y sont deux variables aléatoires, V (X + Y ) = V (X) + V(Y)
Covariance et coefficient de corrélation
Cov(X,Y) = 1
𝑛 ∑ (𝑥𝑖 − )(𝑦𝑖 − )
𝑛𝑖:1
𝜌𝑋,𝑌 = 𝐶𝑜𝑣(𝑋,𝑌)
𝜎𝑋𝜎𝑌
Avec 𝜎𝑋 = √𝑉(𝑋) = √ 1
𝑛 ∑ (𝑥𝑖 − )
2𝑛𝑖:1
Si 𝜌𝑋,𝑌 -1 : Forte corrélation négative
0 : Absence de corrélation
1 : Forte corrélation positive
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 5
LES LOIS STATISTIQUES
Objectifs du chapitre :- Présentation de quelques notions en probabilité
- Présentation de quelques lois usuelles discrètes et continues (servant à
l’estimation par intervalles de confiance et à réaliser les différents tests statistiques)
I/ Probabilité et variables aléatoires :
1- Définitions
* Le résultat d’une expérience aléatoire est appelé événement . La quantification des
chances qu’un tel événement se réalise s’appelle probabilité .
* Un espace aléatoire :l’ensemble des résultats possibles = événements élémentaires =
univers .
*notion de probabilité : C’est une expérience dont on ne peut pas prévoir le résultat à
priori. Soit Ω un ensemble fondamental ou l’ensemble des résultats possibles . A Ω : A
est une partie de Ω appelée : événement . on cherche à probabiliser tous les événements de
Ω. A Ω , on lui associe une probabilité : 0 P (A) 1.
P : A → [0,1]
A ⟼ P(A)
Exemple : On tire une boule dans une urne contenant une boule noire, deux blanches et cinq
rouges. D’où : Ω = noire, blanche, rouge.
2- Tribu d’événements :
Un événement étant un élément de P(Ω) obéit à la théorie des ensembles.
Ensemble Evénement
On a observé le résultat 𝜔, 𝜔 ∈ 𝐴. A = B
A ⊂ 𝐵
∅
Ω
A ∪ 𝐵
A 𝐵
A 𝐵 = ∅.
= Ω - A
L’évènement A est réalisé.
Les évènements A et B sont identiques .
L’évènement A implique l’évènement B.
Evènement impossible
Evènement certain.
Un au moins des deux évènements est réalisé.
Les deux événements A et B sont réalisés.
Les deux événements A et B sont incompatibles.
L’évènement A n’est pas réalisé.
Le couple (Ω, P(Ω)) est un espace probabilisable .
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 6
Soit une épreuve aléatoire un ensemble non vide des parties de Ω qui vérifie les conditions
suivantes :
∀ A ∈ 𝒜 alors ∈ 𝒜.
∀ A ∈ 𝒜 et B ∈ 𝒜 , alors A ∪ 𝐵 ∈ 𝒜.
∀ A ∈ 𝒜 et B ∈ 𝒜 , alors A 𝐵 ∈ 𝒜.
Propriétés :
i) L’événement impossible est de probabilité nulle : P(∅) = 0
ii) P () = 1 – P (A) ; 𝒜 ; A est stable par complémentation. A 𝒜 → 𝒜 .
iii) P ( A ∪ B ) = P(A) + P(B) ; avec A B = ∅ . A et B sont stables par union disjointe :
A 𝒜 et B 𝒜 ; A ∪ B 𝒜 .
P ( A ∪ B ) = P(A) + P(B) -P (A B)
iv) A⊂ B ⇒ 𝑃(𝐴) ≤ 𝑃(𝐵).
Calcul de P(A) = 𝒄𝒂𝒓𝒅 𝑨
𝒄𝒂𝒓𝒅Ω = 𝒏𝒐𝒎𝒃𝒓𝒆 𝒅𝒆 𝒄𝒂𝒔 𝒇𝒂𝒗𝒐𝒓𝒂𝒃𝒍𝒆𝒔
𝒏𝒐𝒍𝒎𝒃𝒓𝒆 𝒅𝒆 𝒄𝒂𝒔 𝒑𝒐𝒔𝒔𝒊𝒃𝒍𝒆𝒔
* Probabilités conditionnelles :
Soit l’espace probabilisé (Ω, A, P) et un événement particulier B de A / P(B) > 0 . La
connaissance de la réalisation de B modifie la probabilité de réalisation d’un événement
élémentaire, vu que l’ensemble des résultats possibles est devenu B et pas Ω. On note : A/B ,
A sachant B . P(A/B ) = 𝑷(𝑨∩𝑩)
𝑷(𝑩)
Elle est fonction des évènements ayant une partie commune avec B et A .
*Indépendance en probabilité :
Deux événements A et B sont indépendants ssi : P(𝐴 ∩ 𝐵) = P(A) P(B)
D’où : P(A/B ) = 𝑷(𝑨∩𝑩)
𝑷(𝑩) = P(A/B ) =
P(A) P(B)
𝑷(𝑩) = P(B) : la réalisation d’un évènement ne
modifie pas la probabilité de réalisation de l’autre.
3- Variable Aléatoire :
Une variable aléatoire qui suit une certaine loi de probabilité, ses réalisations, ses
échantillons, sont encadrés par ces probabilités de réalisation.
Une variable aléatoire X est une variable associée à une expérience ou un groupe
d’expériences et servant à caractériser le résultat de cette expérience ou de ce groupe
d’expériences. On distingue des Variables Aléatoires Discrètes (VAD) et des variables
aléatoires continues (VAC).
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 7
a/ Variables Aléatoires Discrètes ( VAD) :
Une VAD prend un nombre dénombrable de valeurs. L’ensemble des valeurs prises par X
s’écrit sous la forme : 𝑥𝑖, 𝑖 ∈ 𝐸 , avec E ⊂ ℕ. La loi de la variable aléatoire X est la suite des
probabilités pi = P (X = 𝒙𝒊 )= p(x) , i ∈ 𝐸.
La relation entre x et p(x) est appelée loi de probabilité. Elle vérifie les conditions suivantes :
P(x) ≥ 𝟎 𝒆𝒕 ∑ 𝒑𝒊𝒊 =1. ⇒ 𝑫𝒆𝒏𝒔𝒊𝒕é 𝒅𝒆 𝒑𝒓𝒐𝒃𝒂𝒃𝒊𝒍𝒊𝒕é (ddp) d’une VAD.
Espérance de X notée: 𝜇𝑥 = E(X) : E(X) = ∑ 𝑥𝑖𝑖 𝑃(𝑥𝑖),
Variance : 𝜎𝑥2 correspond à l’espérance des carrés des écarts par rapport à la moyenne :
𝜎𝑥2 = 𝐸 [(𝑋 − 𝜇𝑥 )
2] = ∑ (𝑥𝑖 − 𝜇𝑥 )2
𝑖 𝑃(𝑥𝑖) = ∑ 𝑥𝑖2
𝑖 𝑃(𝑥𝑖) - 𝜇𝑥2
= ∑ 𝑥𝑖2
𝑖 𝑃(𝑥𝑖) - ∑ (𝑥𝑖𝑃(𝑥𝑖))2
𝑖
Soit 𝜎𝑥 = √𝜎𝑥2
Fonction de répartition :Appelée aussi : fonction de distribution cumulée , F(X) , exprime la
probabilité que X ne dépasse pas la valeur de x. F(X) = P (X ≤ xi) = ∑ 𝑝𝑖𝑖
La fonction de répartition F associée à X est croissante, à valeurs dans [0,1] , vérifie :
lim ( ) 0; lim ( ) 1x x
F x F x
, d’où 0 ≤ F(X) ≤ 1
La dérivée de F s’appelle densité de x ou Px.
On a aussi, la probabilité que X soit comprise entre a et b ( b > a)/ P ( a x b) = F (b) - F (a)
Exemple : Soit X : La variable aléatoire relative à la somme de deux dés.
On va lancer deux dés homogènes simultanément et on s’intéresse à la somme obtenue.
Tableau : La distribution de probabilité pour la somme des deux dés
Xi pi
2
3
4
5
6
7
8
9
10
11
12
1/36
2/36
3/36
4/36
5/36
6/36
5/36
4/36
3/36
2/36
1/36
Total 1
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 8
Détails du calcul des probabilités :
P(Xi = 2) = 1/36 = ( dé 1, dé1)
P(Xi = 3) = (1, 2) ou (2,1) = 1/36 + 1/36 = 2/36
P(Xi = 4) = (3,1) ou (1,3) ou (2,2 ) = 3/36
P(Xi = 5) = (4,1 ) ou (1,4) ou (3,2) ou (2,3) = 4/36
P(Xi = 6) = (5,1 ) ou (1,5) ou (4,2) ou (2,4) ou (3,3) = 5/36 = 1/36 + 1/36 + 1/36 + 1/36 + 1/36
P(Xi = 7) = (6,1 ) ou (1,6) ou (5,2) ou (2,5) ou (3,4) ou (4,3) = 6/36
P(Xi = 8) = (6,2 ) ou (2,6) ou (5,3) ou (3,5) ou (4,4) = 5/36
P(Xi = 9) = (6,3 ) ou (3,6) ou (5,4) ou (4,5) = 4/36
P(Xi = 10) = (7,3 ) ou (3,7) ou (5,5) = 3/36
P(Xi = 11) = (5,6 ) ou (6,5) = 2/36
P(Xi = 12) = (6,6) = 1/36
Moyenne et écart type d’une vad : Une population est caractérisée par son espérance E(X) et
son écart type 𝜎.
La moyenne de la variable aléatoire « X :la somme des deux dés » .
𝜇 = 2 (1/36) + 3(2/36) +4 (3/36) + 5 (4/36) + 6(5/36) +7 (6/36) + 8(5/36) + 9(4/36) +10 (3/36)
+ 11 (2/36 ) +12 (1/36) = 7.
On peut aussi calculer d’une autre manière, en ajoutant une colonne 𝑥𝑖𝑝𝑖 au tableau .
Xi pi 𝑥𝑖𝑝𝑖 2
3
4
5
6
7
8
9
10
11
12
1/36
2/36
3/36
4/36
5/36
6/36
5/36
4/36
3/36
2/36
1/36
2/36
6/36
12/36
20/36
30/36
42/36
40/36
36/36
30/36
22/36
12/36
Total 1 7
E (X) = 7 = ∑ 𝑥𝑖𝑖 𝑝𝑖
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 9
Interprétation : la moyenne théorique est égale à 7. Cad, si on répète cette expérience aléatoire,
plusieurs fois () , toujours la moyenne espérée des sommes obtenues serra égale 7.
Calcul de l’écart-type de la VAX = somme des 2 dés :
Formule à appliquer : 𝜎 = √∑ (𝑥𝑖 − 𝜇)2𝑖 𝑝𝑖 ; il suffit alors d’ajouter au tableau 3 colonnes :
𝑥𝑖 − 𝜇 ; (𝑥𝑖 − 𝜇)2 ; (𝑥𝑖 − 𝜇)
2𝑝𝑖
Xi 𝑥𝑖 − 𝜇 (𝑥𝑖 − 𝜇)2 pi (𝑥𝑖 − 𝜇)
2𝑝𝑖 2
3
4
5
6
7
8
9
10
11
12
-5
-4
-3
-2
-1
0
1
2
3
4
5
25
16
9
4
1
0
1
2
9
16
25
1/36
2/36
3/36
4/36
5/36
6/36
5/36
4/36
3/36
2/36
1/36
25/36
32/36
27/36
16/36
5/36
0
5/36
16/36
27/36
32/36
25/36
Total 1 210/36
On a alors : 𝜎 = √210/36 = 2.42
On sait que l’écart-type est une mesure de dispersion, plus la valeur de 𝜎 est petite , plus la
probabilité que la VA soit proche de la moyenne est élevée.
Répartition de 720 lancers de 2 dés en fonction de la somme obtenue
Xi ni fi
2
3
4
5
6
7
8
9
10
11
12
15
42
57
84
108
112
94
77
66
41
24
0.0208
0.0583
0.0792
0.1167
0.15
0.1556
0.1306
0.1069
0.0917
0.0569
0.0333
Total 720 1
b/ Variable Aléatoire Continue (VAC) :
Une VAC est une variable aléatoire telle que l’ensemble des valeurs possibles
correspond à un intervalle réel . Exemple : le poids, la taille …
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 10
On appelle VA réelle définie sur (Ω, 𝐴) , une application X : Ω → ℝ / ∀ l’intervalle I
⊂ ℝ on a : X-1(I) = 𝜔 ∈ Ω/X(𝜔) ∈ 𝐼 ∈ 𝐴.
Un intervalle continu contient une infinité de valeurs. La probabilité d’obtenir
exactement un résultat donné est généralement nulle. La notion de distribution de probabilité
n’a donc pas de sens dans le cas continu. La fonction de répartition conserve sa signification.
f(x) , est la dérivée de la fonction de répartition de F(x), appelée fonctions de ddp. Une
VAC est caractérisée par une probabilité positive et le cumul de sa ddp doit être égal à 1.
f une ddp pour une VAC, ssi : 𝐟 ≥ 𝟎 ∀ 𝐱 ∈ ℝ 𝐞𝐭 ∫ 𝐟(𝐱)𝐝𝐱 = 𝟏+∞
−∞
Fonction de répartition : 𝐹(𝑥) = ∫ f(t)dtx
−∞ = P(X≤ 𝑥)
Propriétés d’une VAC :
P(X= x) = 0.
P(X≤ 𝑥) = P(X< 𝑥)
P ( a ≤ x≤ b) = F (b) - F (a) = ∫ f(t)dtb
a
P(X≥ 𝑥) = 1 - P(X≤ 𝑥) = 1 – F (b)
Espérance : E(X) = ∫ 𝒙 𝒇(𝒙)𝒅𝒙+∞
−∞ ;
Variance : V(X) = E(X2) - [E(X) ]2 = ∫ (𝑥)2+∞
−∞ 𝑓(𝑥)𝑑𝑥 − [E(X) ]2
II/ Les lois usuelles discrètes :
Certaines distributions de probabilités de VA correspondent aux modèles de
phénomènes aléatoires , Elles sont appelées : lois de probabilité , on distingue deux types lois
Discrétes et lois Continues .
1-La loi uniforme:
On dit que X suit la loi uniforme discrète définie sur X() = 0, 1, 2, ..,n si elle admet
pour fonction de probabilité : f(x) = 𝑷(𝑿 = 𝒙) =𝟏
𝒏 ; ∀ x ∈ X(𝜴)
On dit que les événements sont équiprobables (cad ont des probabilités identiques) :
𝑃(𝑋 = 𝑥1) = 𝑃(𝑋 = 𝑥2) = ⋯… .= 𝑃(𝑋 = 𝑥𝑛) =1
𝑛 ; ∀ x ∈ X(𝛺)
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 11
Espérance et variance : E(x) = 𝒏+𝟏
𝟐 V(X) =
𝒏𝟐−𝟏
𝟏𝟐
Exemple : Le jet du dé, exercice traité dans le cas de VAD.
2-La loi de Bernoulli:
Soit une population infinie composée d’un premier type d’individus en proportion p et un
second type en proportion 1-p. L’expérience aléatoire qui consiste à tirer au hasard un individu
de cette population fait apparaitre l’événement A « l’individu tiré est du type 1 » avec une
probabilité p. : L’individu tiré est du type 2 avec une probabilité 1- p .
On définit la variable aléatoire de de Bernoulli X / X =1 si l’évènement se réalise et X =0 sinon.
On dit que X suit la loi de Bernoulli de paramètre p , où 0 <p<1 ; (X → ℬ(𝑝)) si elle
admet comme fonction de probabilité :
f(x) = 𝑷(𝑿 = 𝒙) = px (1-p)1-x ; ∀ x ∈ X(𝜴) = 𝟎, 𝟏
𝑃(𝑋 = 0) = 1- p
𝑃(𝑋 = 1) = p
Espérance et variance: E(x) = p V(X) = p (1-p)
Fonction génératrice des moments : Mx(t) = (𝟏 − 𝐩) + 𝒆𝒕𝒑
Propriétés : La loi de Bernoulli: n’est pas stable par addition : la somme de 2 variables
Bernoulli de même paramètre n’est pas une variable de Bernoulli .
Soient 2 variables aléatoires indépendantes X1 et X2 / X1 → ℬ(𝑝1) et X2 → ℬ(𝑝2), la
variable Z = X1 + X2 ne suit pas une loi de Bernoulli.
Exemple1 : Si on jette une pièce de monnaie équilibrée. Soit X une VA / X= 1 si pile, et
X= 0 sinon.
Exemple2 : Au service des mines et lors de la visite technique d’une voiture, on définit
la variable aléatoire X = 1 si la voiture est acceptée et X = 0 sinon. D’après l’expérience, les
voitures acceptées sont en proportion p , alors X suit une loi de Bernoulli de paramètre p. (X →
ℬ(𝑝)).
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 12
3-La loi Binomiale:
Elle joue un rôle important pour obtenir des estimations de pourcentages, ou de taux.
Définition :
Une épreuve de Bernoulli , est une expérience aléatoire qui ne comporte que deux
résultats possibles : succès / échec . Soit p la probabilité de réalisation du succès ; 1-p : la
probabilité de réalisation de l’échec .
Si on répète l’expérience n fois dans les mêmes conditions et ces expériences sont
indépendantes alors la variable aléatoire X : Nombre de succès obtenu suit une loi binomiale.
On dit que X suit la loi Binomiale de paramètre n et p ; X→ 𝐵 (𝑛, 𝑝) si elle admet pour
fonction de probabilité :
f(x) = 𝑷(𝑿 = 𝒙) = x
nC px (1-p)n-x , x = 0, 1…..n
Avec n : Nombre d’expériences répétées
p : la probabilité de succès à chaque expérience .
Elle peut être aussi décrite comme une suite en terme de variables aléatoires, en associant à
l’expérience une variable de type Bernoulli ( (p) ) Xi / Xi = 1 s’il s’agit de succès et Xi = 0
sinon . (x1, x2,….. xn) n variables indépendantes .
On définit la V A X , le nombre de succès dans la suite des n expériences .
X = f (x1, x2,….. xn)/ X = ∑ 𝒙𝒊𝒏𝒊:𝟏 , i 𝜖0,1… . 𝑛
Alors la variable aléatoire X = ∑ 𝑥𝑖𝑛𝑖:1 suit la loi binomiale (n, p).
Remarque : La combinaison x
nC , avoir x parmi n est calculée ainsi : x
nC = 𝒏!
𝒑!(𝒏−𝒙)!
Espérance et variance : E(x) = np V(X) = np (1-p).
Fonction génératrice des moments : Mx(t) = ((𝟏 − 𝐩) + 𝒆𝒕𝒑)𝒏
Addition: Si deux variables aléatoires indépendantes X1 et X2 suivent respectivement
1 2(n ,p) et (n ,p) alors (X1+ X2 ) suit une loi binomiale 1 2(n +n ,p) .
Exemple1 : Un hôpital possède 50 chambres. Au printemps, le taux de remplissage est de 75%.
On note X : le nombre de chambres occupé un jour donné, c’est une variable aléatoire.
x 𝜖0,1… .50 prend un nombre fini de valeurs → une VAD.
La loi de X est une loi binomiale de paramètres n = 50 et p = 0.75.
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 13
i 0,1… .50 , on a : f(x) = 𝑃(𝑋 = 𝑥) = 𝐶50𝑥 𝑝𝑥 (1 − 𝑝)50−𝑥, avec p =0.75
La probabilité que l’hôtel soit complet : P(X=50) = 𝐶50500.7550 (1 − 0.75)0 = 0.7550
Exemple 2 : Dans une grande population, on compte 40 % des individus qui sont fumeurs. On
prend au hasard un échantillon de 30 personnes. On définit la variable aléatoire X : « Le nombre
d’individus qui sont fumeurs dans l’échantillon tiré. » Alors X suit la binomiale B (30 ,0.4).
4-La loi Hypergéométrique:
Cette loi intervient dans le cas de plusieurs expériences aléatoires dépendantes
auxquelles on associe un caractère étudié quelconque. Elle dépend de 3 paramètres.
On considère une population de taille N dont K individus présentent exactement un
certain caractère A. On prélève sans remise un échantillon de n individus. Soit X la VA qui
représente le nombre d’individus ayant le caractère A dans l’échantillon .
On dit que X suit la loi Hypergéométrique ( X →H(n, N, K)). Si elle admet pour fonction
de probabilité : f(x) = 𝑷(𝑿 = 𝒙) = 𝑪𝑲𝒙 𝑪𝑵−𝑲
𝒏−𝒙
𝑪𝑵𝒏
avec: 𝑴𝒂𝒙[0 ; n-(N-K)] ≤ x ≤ Min (n, K)
Si Max =0 et min =n alors 0 x n ; X() = 0, 1, ..,n
Espérance et variance :
E(x) = nK
N= np V(X) = n
K
N
N K N-n
N N-1= np (1-p)
N-n
N-1
Avec: K
N= p et
N-n
N-1 :le facteur d’exhaustivité.
Exemple : Dans une population de 40 personnes dont 6 sont originaires du Sud, 14 du Nord, 12
de l’Est et 8 de l’Ouest. On choisit au hasard un échantillon de 4 personnes.
La variable aléatoire X désigne le nombre d’individus de l’échantillon qui sont originaires du
Nord. La population étant finie et les prélèvements s’effectuent sans remise ; X suit une loi
Hypergéométrique ( X →H(n, N, K Hypergéométrique ( X →H(n, N, K)
N = 40, n=4, K = 14. ( X →H(4, 40, 14).
X(Ω) = 0,1,2,3,4
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 14
Probabilité de n’avoir aucune personne du Nord : P(X=0) = 𝐶140 𝐶26
4
𝐶404 = 0.1636
Avoir 0 individus du nord ,revient à choisir les 4 individus parmi ceux qui ne sont pas du ord
(40-14=26) cad faisant partie des autres régions =𝐶140 𝐶26
4 / cardinal de Ω = choisir 4 individus
parmi 40.
5-La loi de Poisson:
Cette loi décrit le nombre d’apparition X pendant un instant t d’un événement dont la
réalisation ne dépend pas du nombre de réalisations passées et n’influence pas sur les futures.
Exemple d’application de cette loi : nombre de pannes d’une chaine de production, le nombre
d’appels téléphoniques par minute dans un centre d’appel, le nombre de clients dans une file
d’attente dans une grande surface, nombre de conducteurs passés à un péage pendant une
période de temps ….
On dit que X suit la loi de Poisson de paramètre ; (X P( ) ) , où >0; si elle admet
pour fonction de probabilité : f(x) = 𝑃(𝑋 = 𝑥) = 𝑒−𝜆𝜆𝑥
𝑥! ; ∀ x ∈ ℕ
Espérance et variance: E(x) = V(X) =
Fonction génératrice des moments : Mx(t) = 𝒆𝝀(𝒆𝒕−𝟏)
Addition: Si deux variables aléatoires indépendantes X1 et X2 suivent respectivement
les lois P(1) et P(2) alors la variable (X1+ X2) suit une loi de Poisson de paramètre (1+2).
Exemple : Le nombre de clients observé au cours de cinq minutes dans une file d’attente
au guichet d’une banque est une variable aléatoire X qui suit la loi de poisson de paramètre .
III/ Les lois usuelles continues :
1-La loi uniforme :
Soit X une variable aléatoire continue . On dit que X a une distribution uniforme sur
l’intervalle a,b si sa densité de probabilité (d.d.p) s’écrit sous la forme suivante :
f(x) = 𝟏
𝒃−𝒂
𝟎 ;
; 𝒙 ∈ [𝒂, 𝒃]
𝐬𝐢𝐧𝒐𝒏
On note : X →U [𝑎,b] .
La densité est constante sur a,b .
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 15
Espérance et variance: E(x) = 𝒂+𝒃
𝟐 V(X) =
(𝒃−𝒂)𝟐
𝟏𝟐
Fonction génératrice des moments : Mx(t) = 𝒆𝒃𝒕−𝒆𝒂𝒕
(𝒃−𝒂)𝒕
Fonction de répartition : F(X) =
0; 𝑠𝑖 𝑥 < 𝑎 𝑥−𝑎
𝑏−𝑎; 𝑎 ≤ 𝑥 < 𝑏
1; 𝑠𝑖 𝑥 ≥ 𝑏
Propriétés :
-La loi uniforme n’est pas stable par addition. La somme de deux ou plusieurs variables
uniformes ne suit pas une loi uniforme.
-La transformation linéaire d’une variable uniforme est une variable qui suit la loi
uniforme.
Exemple : Le temps d’attente de rames de métro se suivant à un intervalle de temps 𝛼
minutes est une VA X →la loi uniforme [0, 𝛼] ,
E(X) = 𝛼
2 ,V(X) =
𝛼2
12, 𝑎𝑣𝑒𝑐 𝛼: 𝑙𝑎 𝑑𝑢𝑟é𝑒 𝑑′𝑎𝑡𝑡𝑒𝑛𝑡𝑒 𝑚𝑎𝑥𝑖𝑚𝑎𝑙 .
2- La loi Gamma :
Cette loi est utilisée généralement dans la modélisation de durée de vie, durée d’une
tache de production …soit X 𝛾(p, 𝜃) , avec p > 0 𝑒𝑡 𝜃 > 0.
La ddp est la suivante : f(x) = 𝜽𝒑
𝚪(𝐩) 𝒙𝒑−𝟏𝒆−𝜽𝒙, ∀ x > 𝟎
Où 𝚪 (p) = ∫ 𝒛𝒑−𝟏𝒆−𝒛𝒅𝒛+∞
𝟎, ∀ p > 𝟎.
Propriétés :
i) Γ (1) = 1, ii) Γ (p) = (p-1) Γ (p-1) , ∀ p> 1
iii) Γ (p) = (p-1) ! ∀ p= 2,3…., iv) Γ (1/2) = √𝜋
Espérance et variance: E(𝑋𝛼) = Γ(p+α)
Γ(p)𝜃𝛼 , pour p + α > 0,
E(X) = 𝒑
𝜽 , V(X) =
𝒑
𝜽𝟐
Fonction génératrice des moments : Mx(t) = (𝛉
𝛉−𝐭)𝐩, ∀ 𝛉 > 𝟏
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 16
Exemple :Une société utilise 4 machines de même type où le fonctionnement sans panne
d’une machine quelconque ne dépend pas de celui d’une autre. La durée de fonctionnement
sans panne de la machine i , i = 1,….4. est une variable aléatoire Zi → 𝛾(p, 𝜃)
On définit V = ∑ 𝑍𝑖4𝑖:1 : la durée totale du fonctionnement sans panne des 4 machines ,
W = ¼ V la durée moyenne du fonctionnement par machine. U = a V
V → 𝛾(4p, 𝜃)
W → 𝛾 (4p,𝜃
1/4) = (4p, 4𝜃) ; U→ 𝛾 (4p,
𝜃
𝑎)
3- La loi exponentielle :
C’est un cas particulier de la loi Gamma 𝛾(p, 𝜃) pour p = 1 : avec , 𝜃 ≻ 0
X → 𝛾(1, 𝜃) ⇔ X → exp(𝜽) ; Sa ddp est : f(x) = 𝜽 𝒆−𝜽𝒙 ; 𝒙 ≻ 0
Espérance et variance: E(𝑿) = 𝟏
𝜽 , V(X) =
𝟏
𝜽𝟐
Fonction génératrice des moments : Mx(t) = (𝜽
𝜽−𝒕), ∀ 𝜽 > 𝒕
Soient X1 , X2,..Xn, n variables aléatoires indépendantes de même loi , avec Xi →exp(𝜃)
, 𝑥𝑖 → 𝛾(1, 𝜃) i:1…..n. On a :
∑ 𝒙𝒊 →𝒏𝒊:𝟏 𝜸(𝐧, 𝜽) et W =
𝟏
𝒏 ∑ 𝒙𝒊𝒏𝒊:𝟏 → 𝜸(𝐧, 𝐧𝜽)
Exemple :
La durée de transfert d’un courrier électronique n’est pas prévisible avec certitude à
l’avance. On modélise la durée de transfert par une variable aléatoire X distribuée selon une loi
exponentielle , d’espérance mathématique E(𝑋) = 𝛽. On a pris à n moments différents d’une
journée un échantillon de n durées (en milles secondes) X1 , X2, ……,Xn.
L’expérience porte sur le même message , alors on suppose que les expériences sont
indépendantes .
On cherche la ddp de X , on a E(𝑋) = 𝛽 = 1
𝜃, alors X → exp (
1
𝛽)
f(x) = 1
𝛽 𝑒−1
𝛽𝑥, ∀𝑥 ≻ 0
Fonction génératrice des moments =
1
𝛽1
𝛽−𝑡
= 1
1−𝛽𝑡
Pour déterminer la loi de = 1
𝑛 ∑ 𝑥𝑖𝑛𝑖:1 , on procède ainsi:
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 17
Les variables X1 , X2, ……,Xn sont indépendantes et suivent , Xi iid →exp (1
𝛽) ⟺
𝛾 (1,1
𝛽), i :1…n . alors ∑ 𝑥𝑖
𝑛𝑖:1 → 𝛾 (𝑛,
1
𝛽) d’où → 𝛾 (𝑛,
𝑛
𝛽)
E() = 𝛽 ; V() = 𝛽2
𝑛
4 -La loi normale généralisée : (Laplace Gauss)
La loi normale joue un rôle important en recherche statistique et intervient dans la
définition d’autres lois. La loi normale ou loi de Laplace Gauss est une des distributions que
l’on rencontre le plus souvent en pratique. Elle occupe une position importante en probabilités
et en statistiques. Une multitude des phénomènes correspond à cette loi.
Soit X une VA à valeurs dans ℝ. On note : X→N(m, ) : la variable X suit la loi
normale de moyenne m et d’écart type . La fonction de répartition de X, notée F(X), se déduit
comme suit : F(x) = F(𝑋−𝑚
𝜎) =
1
√2𝜋∫ 𝑒
−𝑡2
2 𝑑𝑡
𝑋−𝑚
𝜎
−∞
La d.d.p s’obtient par dérivation et s’exprime ainsi :
f(X) = 𝟏
𝝈√𝟐𝝅𝒆−𝟏
𝟐(𝑿−𝒎
𝝈)𝟐
, ∀ 𝑿 ∈ ℝ,𝝈 > 𝟎
Cette fonction est symétrique par rapport à m. Cette fonction admet un maximum pour
Y = m.
Espérance et variance: E(X) = m V(X) = 2
Fonction génératrice des moments : Mx(t) = 𝒆𝒎𝒕𝒆𝟏
𝟐 𝟐𝐭𝟐
Propriétés :
La transformation linéaire d’une variable normale est une variable normale.
Si X → N (m, 2) , alors Y = a X + b → N (a m + b, a2 2) .
Soient (X1, X2,…Xn) n variables aléatoires indépendantes , Xi → N(𝑚𝑖, 𝜎𝑖2), i :1….n,
alors : ∑ 𝑋𝑖𝑛𝑖 :1 → N(∑ 𝑚𝑖
𝑛𝑖 :1 , ∑ 𝜎𝑖
2𝑛𝑖 :1 ) ; de plus , si 𝑚𝑖= 𝑚 𝑒𝑡 𝜎𝑖
2= 2 ∀ i :1….n alors
∑ 𝑋𝑖𝑛𝑖 :1 → N(𝑛𝑚, 𝑛2).
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 18
5 -La loi normale centrée et réduite :
La loi normale centrée et réduite est définie soit par sa densité de probabilité soit par sa
fonction de répartition. Elle admet l’ensemble des nombres réels comme ensemble de valeurs
possibles et sa d.d.p s’écrit : f(Z) = 𝟏
√𝟐𝝅𝒆−𝒁𝟐
𝟐 ; ∀ z ∈ ℝ.
Si X → N (m, 2) alors : Z = 𝑿−𝒎
𝝈 → N (0, 1)
Cette fonction de densité est symétrique par rapport à l’axe des ordonnées.
La fonction de répartition notée F(Z) est définie par : F(Z) = 1
√2𝜋∫ 𝑒
−𝑡2
2 𝑑𝑡𝑧
−∞
La fonction de répartition est toujours croissante .
Espérance et variance : E(Z) = 0 V(Z) = 1
Propriétés: x 0 , on a :
F(-x) = 1 – F(x) P(-x <X <x) = 2 P(X x) –1
P( X x) =1- F(x) P(xa X xb) = F(xb) - F(xa)
P( |𝑿| < x) =2 F(x) –1
Calcul pour la loi normale :
X une variable normale de moyenne 𝑚 et d’écart-type 𝜎 . pour calculer P(X x), on
se ramène à une loi normale standard, , soit U = 𝑋−𝑚
𝜎 ⇔ X = 𝜎 Y + µ
P(X x) = P(𝜎 U + m x) = P(U 𝑋−𝑚
𝜎) = F (
𝑋−𝑚
𝜎)
Liens entre les lois Si la loi U est une loi normale de moyenne 0 et d’écart-type 1, alors
la loi de X = 𝜎 U + m est une loi normale de moyenne m et d’écart-type 𝜎.
Lecture de la table statistique de la fonction de répartition d’une loi normale centrée
et réduite
Soit Z → N(0,1) , déterminer la probabilité F(z) = P(Z< z) . Il suffit de lire les valeurs de
la table statistique.
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 19
P(Z< 1.96 ) = F(1.96) = 0.975
P( Z 1.64) =1- P(Z< 1.64 ) = 1- F(1.64) = 1- 0.9495 = 0.0505 = 5.05%
P(Z< - 1.96 ) =1- P(Z< 1.96 ) = 1- F(1.96) = 0.025
Chercher la valeur de z / P(Z< z ) = 0.997 , en lisant sur la table : z = 2.75.
Si on a une loi normale N(m,𝜎2) , dans ce cas , on ne peut pas calculer P(X< 𝑥) d’après
la lecture de la table. Il faut commencer par centrer et réduire la variable.Soit Z = 𝑋−𝑚
𝜎
Exemples :
-Si X est une loi normale de moyenne 4 et d’écart-type 2. On pose Y = 𝑋−4
2
P(X 6.5) = P(2Y+4 6.5) = P (Y 6.5−4
2) = P (Y 1.25) = 0.8944 =89.44%
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 20
-Soit X → N(1,4) , alors : P(X< 2.52) = P(𝑋−1
√4<2.52−1
√4) = P(Z < 0.76) = F(0.76) =
0.7764 = 77.64% .
IV/ Les dérivées de la loi normale :
Ces lois sont construites à partir de la loi de Gauss et sont très utiles pour la construction
des intervalles de confiance (chapitre estimation) et l’élaboration des tests d’hypothèses.
1-La loi de khi-deux :
Soient X1 , X2,…, Xi,…, Xn une suite de n variables aléatoires normales centrées
réduites et indépendantes. Xi →N(0,1) ∀ 𝑖: 1… . 𝑛. La variable aléatoire n
2 2 2 2 2
1 2 i n i
i:1
Z = X + X +...+X +...+X = X suit une loi de probabilité 2
n de densité :
f(Z) =
𝟎 ; si Z ≤ 0𝟏
𝟐𝒏𝟐
𝟏
𝜞(𝒏
𝟐)𝐳𝒏
𝟐 −𝟏𝒆
−𝒁
𝟐 , 𝒔𝒊 𝒁 > 𝟎 ; où 𝜞(𝒏
𝟐) = ∫ 𝒖
𝒏
𝟐 −𝟏𝒆−𝒖
+∞
𝟎du
La variable aléatoire 2
n est dite variable khi-deux à n degrés de liberté (d.d.l). Lorsque
n → ∞, la distribution de 2
n tend vers une loi normale de paramètres E(U) et V(U) .
Espérance et variance: E(Z) = n ; V(Z) = 2n
Fonction génératrice des moments : : MZ(t) = (𝟏 − 𝟐𝒕)−𝒏
𝟐; ∀ 𝒕 < 𝟏/𝟐.
Propriétés: Le carré d’une variable centrée et réduite est une variable distribuée selon
une loi 𝜒2(1) .
Addition: La somme de deux lois de 2
n est une loi de 2
n . Si X et Y sont deux variables
aléatoires indépendantes / X→2
1n et Y→2
2n alors X + Y→2
1 2n n .
Exemple : Soit X → N (𝜇, 𝜎2) , la variable 𝑋−𝜇
𝜎 est distribuée selon une loi normale centrée et
réduite , alors W = (𝑋−𝜇
𝜎)2→ 𝜒2(1) .
Table statistique des quantiles de la loi du khi-deux
Soit U→ 𝜒2(n) , on veut déterminer u / P(U< 𝑢) = 𝛼 , sachant que 𝛼 𝑒𝑡 𝑛 𝑠𝑜𝑛𝑡 donnés . u est
interprété le quantile d’ordre 𝛼 de la loi de khi-deux à n degrés de liberté. Soit u = 𝜒𝛼2(n).
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 21
Exemple : U→ 𝜒2(8) et 𝛼 = 5%. le quantile d’ordre 0.05 de la loi de khi-deux à 8 degrés de
liberté :𝜒0.052 (8) = 2.733.
2-La loi de Student :
Soit un couple (X,Y) de variables aléatoires indépendantes / X→N(0,1) et Y→2 n
alors la variable aléatoire : W = 𝑿
√𝒀
𝒏
suit une loi Student à n degrés de liberté de densité de
probabilité : W → 𝝉 (n) , avec ; t = 𝐍(𝟎,𝟏)
√𝝒𝟐(𝒏)
𝒏
; n ∈ ℕ∗
Espérance et variance: E(W) = 0 pour n>1 ; V(W) = n
n 2 pour n>2
Pour n = 1 et n = 2 la loi n’admet pas de variance finie.
Propriétés : La ddp de W est symétrique par rapport à 0. D’où :
tα(n) = - t1−α(n) : Le quantile d’ordre 𝛼 est l’opposé du quantile d’ordre 1- 𝛼.
f(-t) = f(t)
F(-t) = 1- F(t)
tα(n) < 0; 𝑠𝑖 𝛼 < 0.5= 0; 𝑠𝑖 𝛼 = 0.5> 0; 𝑠𝑖 𝛼 > 0.5
Exemple : Soit X → 𝒯 (7), déterminer le quantile t/ P( X < 𝑡) = 0.05
t0.05(7) = -1.895 = -t0.95(7)
3-La loi de FISHER-SNEDECOR:
Soit un couple (X,Y) de variables aléatoires indépendantes telles que : X2
1n et
Y2
2n alors la variable aléatoire : W =
𝑋
𝑛1𝑌
𝑛2
𝑠uit une loi de FISHER à (n1 ,n2) ddl.
F 1 2n ,n =
2
1n
𝒏𝟏
2
2n
𝒏𝟐
; 𝑛1 ∈ ℕ∗ et 𝑛2 ∈ ℕ
∗
F 1 2n ,n est telle que : P ( W > Fp 1 2n ,n ) = p
On a : P ( W > Fp 1 2n ,n ) = p ⇔ P ( W < Fp 1 2n ,n ) = 1- p.
LSG2 FSEGS 2020-2021
ESSADDIK.E Page 22
Espérance et variance :
E(W) = 𝑛2
𝑛2−2 pour n2 > 2 ; V(W) =
2𝑛22(𝑛1+𝑛2−2)
𝑛1(𝑛2−2)2(𝑛2−4)
si 𝑛2 > 4
Remarques :
-Si W F 1 2n ,n , alors U = 1
W =
𝑌
𝑛2𝑋
𝑛1
F 2 1n ,n , ⇔ F 2 1n ,n = 1
F 1 2n ,n
On peut écrire aussi : Fp 2 1n ,n = 1
𝐹1−𝑝(𝑛1,𝑛2)
- Si W F 21,n ⇔ W (𝜏(𝑛2))2
F 21,n =
2 1
𝟏
2
2n
𝒏𝟐
= (𝑵(𝟎,𝟏))𝟐
2
2n
𝒏𝟐
=
(
𝑵(𝟎,𝟏)
√𝝌𝟐(𝒏𝟐)
𝒏𝟐)
𝟐
= (t(n2))2
Table statistique des quantiles de la loi de FISHER
Soit W F 1 2n ,n , on veut déterminer w/ P(W> w) = p ; p , 1 2n ,n sont donnés ,
w = FP 1 2n ,n sont des valeurs de la table pour p =0.01 ou 0.05 et les différentes valeurs 1 2n , n