22
LSG2 FSEGS 2020-2021 ESSADDIK.E Page 1 STATISTIQUE INFERENTIELLE Introduction + CHAPITRE I: LES LOIS STATISTIQUES 2éme Année Licence Sciences de Gestion

Introduction - FSEGSO

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 1

STATISTIQUE INFERENTIELLE

Introduction

+

CHAPITRE I: LES LOIS STATISTIQUES

2éme Année Licence Sciences de Gestion

Page 2: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 2

Introduction

Terminologie : induction- déduction

On parle de problème d’induction, si la population présente une grande variabilité, cela va

empêcher de conclure avec certitude sur la population à partir des données acquises sur un

échantillon. Quand on parle de variabilité, on aborde le problème de l’incertitude. Quand on a

des données sur l’échantillon on a de l’information.

Statistique descriptive et Statistique inférentielle

La statistique descriptive s’intéresse à la sous-population formée par l’échantillon. Elle a pour

objet de décrire la variabilité de l’échantillon.

La statistique inférentielle s’intéresse à la population dont l’échantillon est issu. Elle vise inférer

à partir des seules caractéristiques de l’échantillon , des propriétés générales concernant la

population. Elle est basée sur la théorie des probabilités et correspond à la démarche inverse.

Schéma représentatif

Stat. Inférentielle Théorie des probabilités

Théorie des probabilités : Connaissant la distribution d’une variable dans une population,

la théorie des probabilités permet de tirer aléatoirement un échantillon.

La statistique inférentielle : On va faire l’inverse : l’inférence statistique consiste à

induire les caractéristiques inconnues d’une population à partir d’un échantillon issu de dette

population.

Les caractéristiques de l’échantillon, une fois connues reflètent avec une marge d’erreur

possible celles de la population. En effet, à partir des valeurs prises, par une variable sur un

échantillon, la statistique inférentielle essaie de préciser la distribution de la variable dans la

population.

On parle de recensement, si les valeurs observées des variables sont relatives à l’ensemble

de la population observée → on utilise alors la Statistique descriptive , on n’a pas besoin de

statistique inférentielle. L’étude statistique concerne l’étude des caractéristiques d’une

population.

Population Echantillon

Echantillon

Page 3: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 3

Le sondage : dans ce cas, on s’intéresse à une partie de la population appelée :

échantillon .Au chapitre 2 de ce cours, on va nous intéresser aux diverses méthodes de sondage

. A travers l’étude des caractéristiques de l’échantillon , on cherche à extrapoler à la

population entière ces propriétés mises en évidence sur l’échelle → Statistique

inférentielle.

Avantages de la statistique inférentielle : Avoir de l’information. Pour résoudre le problème

de l’induction on a recours à la Théorie des probabilités.

.Hypothèses :

La population est considérée comme infinie ( très grande) .

Les variables statistiques qui la décrivent sont considérées comme des variables

aléatoires : En effet, la valeur prise par la variable statistique X pour un individu donné

de la population ne peut pas être déterminée avec précision. Elle dépend de plusieurs

paramètres, alors considérée comme résultat d’une expérience aléatoire .

La répartition des valeurs de ces variables sont caractérisées par des lois de

probabilité : La répartition d’une variable statistique X sur la population est décrite par

une loi de probabilité :

- Qui est caractérisée par une densité de probabilité X continue ou une séquence de

fréquences relatives à chacune de ses valeurs (X discrète) .

- Possédant des caractéristiques ( E (X) , V(X)) qui résument la distribution .

Des variations simultanées de 2 ou plusieurs variables statistiques sont décrites par une

loi jointe : ( variable continues ou discrétes ) .

Ces lois de probabilité sont :

- Totalement inconnues : Problème de statistique inférentielle non paramétrique (on

ignore la loi) .

- Partiellement inconnues : La loi est connue mais les paramètres sont inconnus

problème de statistique inférentielle paramétrique.

Objectifs :

Tirer des conclusions concernant certaines caractéristiques de la population à partir des

informations contenues dans l’échantillon .

Identifier les lois dans un échantillon de valeurs de variables obtenu à travers un sondage

dans la population, grâce aux méthodes suivantes : d’estimation, des tests

d’hypothèses , de modélisation et de prévision .

La pertinence de ces méthodes repose sur la qualité du sondage effectué → théorie de

l’échantillonnage .

La théorie des probabilités est l’analyse mathématique des phénomènes dans lesquels le hasard

intervient . Cette théorie va servir comme outil de base à un ensemble de méthodes ou de règles

permettant d’utiliser des données pour fixer la précision avec laquelle on estime les paramètres

ou on teste les hypothèses.

Page 4: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 4

Rappel

Propriétés de l’espérance et de la variance

Soit X une variable aléatoire

∀ a ∈ ℝ : E (X + a) = E(X) + a

∀ a ∈ ℝ : E (a X) = a E(X)

Si X et Y sont 2 variables aléatoires : E (X + Y ) = E(X) + E(Y)

V(X) ≥ 0

∀ a ∈ ℝ : V (X + a) = V (X)

∀ a ∈ ℝ : : V (a X) = a2 V(X)

Si X et Y sont deux variables aléatoires, V (X + Y ) = V (X) + V(Y)

Covariance et coefficient de corrélation

Cov(X,Y) = 1

𝑛 ∑ (𝑥𝑖 − )(𝑦𝑖 − )

𝑛𝑖:1

𝜌𝑋,𝑌 = 𝐶𝑜𝑣(𝑋,𝑌)

𝜎𝑋𝜎𝑌

Avec 𝜎𝑋 = √𝑉(𝑋) = √ 1

𝑛 ∑ (𝑥𝑖 − )

2𝑛𝑖:1

Si 𝜌𝑋,𝑌 -1 : Forte corrélation négative

0 : Absence de corrélation

1 : Forte corrélation positive

Page 5: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 5

LES LOIS STATISTIQUES

Objectifs du chapitre :- Présentation de quelques notions en probabilité

- Présentation de quelques lois usuelles discrètes et continues (servant à

l’estimation par intervalles de confiance et à réaliser les différents tests statistiques)

I/ Probabilité et variables aléatoires :

1- Définitions

* Le résultat d’une expérience aléatoire est appelé événement . La quantification des

chances qu’un tel événement se réalise s’appelle probabilité .

* Un espace aléatoire :l’ensemble des résultats possibles = événements élémentaires =

univers .

*notion de probabilité : C’est une expérience dont on ne peut pas prévoir le résultat à

priori. Soit Ω un ensemble fondamental ou l’ensemble des résultats possibles . A Ω : A

est une partie de Ω appelée : événement . on cherche à probabiliser tous les événements de

Ω. A Ω , on lui associe une probabilité : 0 P (A) 1.

P : A → [0,1]

A ⟼ P(A)

Exemple : On tire une boule dans une urne contenant une boule noire, deux blanches et cinq

rouges. D’où : Ω = noire, blanche, rouge.

2- Tribu d’événements :

Un événement étant un élément de P(Ω) obéit à la théorie des ensembles.

Ensemble Evénement

On a observé le résultat 𝜔, 𝜔 ∈ 𝐴. A = B

A ⊂ 𝐵

Ω

A ∪ 𝐵

A 𝐵

A 𝐵 = ∅.

= Ω - A

L’évènement A est réalisé.

Les évènements A et B sont identiques .

L’évènement A implique l’évènement B.

Evènement impossible

Evènement certain.

Un au moins des deux évènements est réalisé.

Les deux événements A et B sont réalisés.

Les deux événements A et B sont incompatibles.

L’évènement A n’est pas réalisé.

Le couple (Ω, P(Ω)) est un espace probabilisable .

Page 6: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 6

Soit une épreuve aléatoire un ensemble non vide des parties de Ω qui vérifie les conditions

suivantes :

∀ A ∈ 𝒜 alors ∈ 𝒜.

∀ A ∈ 𝒜 et B ∈ 𝒜 , alors A ∪ 𝐵 ∈ 𝒜.

∀ A ∈ 𝒜 et B ∈ 𝒜 , alors A 𝐵 ∈ 𝒜.

Propriétés :

i) L’événement impossible est de probabilité nulle : P(∅) = 0

ii) P () = 1 – P (A) ; 𝒜 ; A est stable par complémentation. A 𝒜 → 𝒜 .

iii) P ( A ∪ B ) = P(A) + P(B) ; avec A B = ∅ . A et B sont stables par union disjointe :

A 𝒜 et B 𝒜 ; A ∪ B 𝒜 .

P ( A ∪ B ) = P(A) + P(B) -P (A B)

iv) A⊂ B ⇒ 𝑃(𝐴) ≤ 𝑃(𝐵).

Calcul de P(A) = 𝒄𝒂𝒓𝒅 𝑨

𝒄𝒂𝒓𝒅Ω = 𝒏𝒐𝒎𝒃𝒓𝒆 𝒅𝒆 𝒄𝒂𝒔 𝒇𝒂𝒗𝒐𝒓𝒂𝒃𝒍𝒆𝒔

𝒏𝒐𝒍𝒎𝒃𝒓𝒆 𝒅𝒆 𝒄𝒂𝒔 𝒑𝒐𝒔𝒔𝒊𝒃𝒍𝒆𝒔

* Probabilités conditionnelles :

Soit l’espace probabilisé (Ω, A, P) et un événement particulier B de A / P(B) > 0 . La

connaissance de la réalisation de B modifie la probabilité de réalisation d’un événement

élémentaire, vu que l’ensemble des résultats possibles est devenu B et pas Ω. On note : A/B ,

A sachant B . P(A/B ) = 𝑷(𝑨∩𝑩)

𝑷(𝑩)

Elle est fonction des évènements ayant une partie commune avec B et A .

*Indépendance en probabilité :

Deux événements A et B sont indépendants ssi : P(𝐴 ∩ 𝐵) = P(A) P(B)

D’où : P(A/B ) = 𝑷(𝑨∩𝑩)

𝑷(𝑩) = P(A/B ) =

P(A) P(B)

𝑷(𝑩) = P(B) : la réalisation d’un évènement ne

modifie pas la probabilité de réalisation de l’autre.

3- Variable Aléatoire :

Une variable aléatoire qui suit une certaine loi de probabilité, ses réalisations, ses

échantillons, sont encadrés par ces probabilités de réalisation.

Une variable aléatoire X est une variable associée à une expérience ou un groupe

d’expériences et servant à caractériser le résultat de cette expérience ou de ce groupe

d’expériences. On distingue des Variables Aléatoires Discrètes (VAD) et des variables

aléatoires continues (VAC).

Page 7: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 7

a/ Variables Aléatoires Discrètes ( VAD) :

Une VAD prend un nombre dénombrable de valeurs. L’ensemble des valeurs prises par X

s’écrit sous la forme : 𝑥𝑖, 𝑖 ∈ 𝐸 , avec E ⊂ ℕ. La loi de la variable aléatoire X est la suite des

probabilités pi = P (X = 𝒙𝒊 )= p(x) , i ∈ 𝐸.

La relation entre x et p(x) est appelée loi de probabilité. Elle vérifie les conditions suivantes :

P(x) ≥ 𝟎 𝒆𝒕 ∑ 𝒑𝒊𝒊 =1. ⇒ 𝑫𝒆𝒏𝒔𝒊𝒕é 𝒅𝒆 𝒑𝒓𝒐𝒃𝒂𝒃𝒊𝒍𝒊𝒕é (ddp) d’une VAD.

Espérance de X notée: 𝜇𝑥 = E(X) : E(X) = ∑ 𝑥𝑖𝑖 𝑃(𝑥𝑖),

Variance : 𝜎𝑥2 correspond à l’espérance des carrés des écarts par rapport à la moyenne :

𝜎𝑥2 = 𝐸 [(𝑋 − 𝜇𝑥 )

2] = ∑ (𝑥𝑖 − 𝜇𝑥 )2

𝑖 𝑃(𝑥𝑖) = ∑ 𝑥𝑖2

𝑖 𝑃(𝑥𝑖) - 𝜇𝑥2

= ∑ 𝑥𝑖2

𝑖 𝑃(𝑥𝑖) - ∑ (𝑥𝑖𝑃(𝑥𝑖))2

𝑖

Soit 𝜎𝑥 = √𝜎𝑥2

Fonction de répartition :Appelée aussi : fonction de distribution cumulée , F(X) , exprime la

probabilité que X ne dépasse pas la valeur de x. F(X) = P (X ≤ xi) = ∑ 𝑝𝑖𝑖

La fonction de répartition F associée à X est croissante, à valeurs dans [0,1] , vérifie :

lim ( ) 0; lim ( ) 1x x

F x F x

, d’où 0 ≤ F(X) ≤ 1

La dérivée de F s’appelle densité de x ou Px.

On a aussi, la probabilité que X soit comprise entre a et b ( b > a)/ P ( a x b) = F (b) - F (a)

Exemple : Soit X : La variable aléatoire relative à la somme de deux dés.

On va lancer deux dés homogènes simultanément et on s’intéresse à la somme obtenue.

Tableau : La distribution de probabilité pour la somme des deux dés

Xi pi

2

3

4

5

6

7

8

9

10

11

12

1/36

2/36

3/36

4/36

5/36

6/36

5/36

4/36

3/36

2/36

1/36

Total 1

Page 8: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 8

Détails du calcul des probabilités :

P(Xi = 2) = 1/36 = ( dé 1, dé1)

P(Xi = 3) = (1, 2) ou (2,1) = 1/36 + 1/36 = 2/36

P(Xi = 4) = (3,1) ou (1,3) ou (2,2 ) = 3/36

P(Xi = 5) = (4,1 ) ou (1,4) ou (3,2) ou (2,3) = 4/36

P(Xi = 6) = (5,1 ) ou (1,5) ou (4,2) ou (2,4) ou (3,3) = 5/36 = 1/36 + 1/36 + 1/36 + 1/36 + 1/36

P(Xi = 7) = (6,1 ) ou (1,6) ou (5,2) ou (2,5) ou (3,4) ou (4,3) = 6/36

P(Xi = 8) = (6,2 ) ou (2,6) ou (5,3) ou (3,5) ou (4,4) = 5/36

P(Xi = 9) = (6,3 ) ou (3,6) ou (5,4) ou (4,5) = 4/36

P(Xi = 10) = (7,3 ) ou (3,7) ou (5,5) = 3/36

P(Xi = 11) = (5,6 ) ou (6,5) = 2/36

P(Xi = 12) = (6,6) = 1/36

Moyenne et écart type d’une vad : Une population est caractérisée par son espérance E(X) et

son écart type 𝜎.

La moyenne de la variable aléatoire « X :la somme des deux dés » .

𝜇 = 2 (1/36) + 3(2/36) +4 (3/36) + 5 (4/36) + 6(5/36) +7 (6/36) + 8(5/36) + 9(4/36) +10 (3/36)

+ 11 (2/36 ) +12 (1/36) = 7.

On peut aussi calculer d’une autre manière, en ajoutant une colonne 𝑥𝑖𝑝𝑖 au tableau .

Xi pi 𝑥𝑖𝑝𝑖 2

3

4

5

6

7

8

9

10

11

12

1/36

2/36

3/36

4/36

5/36

6/36

5/36

4/36

3/36

2/36

1/36

2/36

6/36

12/36

20/36

30/36

42/36

40/36

36/36

30/36

22/36

12/36

Total 1 7

E (X) = 7 = ∑ 𝑥𝑖𝑖 𝑝𝑖

Page 9: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 9

Interprétation : la moyenne théorique est égale à 7. Cad, si on répète cette expérience aléatoire,

plusieurs fois () , toujours la moyenne espérée des sommes obtenues serra égale 7.

Calcul de l’écart-type de la VAX = somme des 2 dés :

Formule à appliquer : 𝜎 = √∑ (𝑥𝑖 − 𝜇)2𝑖 𝑝𝑖 ; il suffit alors d’ajouter au tableau 3 colonnes :

𝑥𝑖 − 𝜇 ; (𝑥𝑖 − 𝜇)2 ; (𝑥𝑖 − 𝜇)

2𝑝𝑖

Xi 𝑥𝑖 − 𝜇 (𝑥𝑖 − 𝜇)2 pi (𝑥𝑖 − 𝜇)

2𝑝𝑖 2

3

4

5

6

7

8

9

10

11

12

-5

-4

-3

-2

-1

0

1

2

3

4

5

25

16

9

4

1

0

1

2

9

16

25

1/36

2/36

3/36

4/36

5/36

6/36

5/36

4/36

3/36

2/36

1/36

25/36

32/36

27/36

16/36

5/36

0

5/36

16/36

27/36

32/36

25/36

Total 1 210/36

On a alors : 𝜎 = √210/36 = 2.42

On sait que l’écart-type est une mesure de dispersion, plus la valeur de 𝜎 est petite , plus la

probabilité que la VA soit proche de la moyenne est élevée.

Répartition de 720 lancers de 2 dés en fonction de la somme obtenue

Xi ni fi

2

3

4

5

6

7

8

9

10

11

12

15

42

57

84

108

112

94

77

66

41

24

0.0208

0.0583

0.0792

0.1167

0.15

0.1556

0.1306

0.1069

0.0917

0.0569

0.0333

Total 720 1

b/ Variable Aléatoire Continue (VAC) :

Une VAC est une variable aléatoire telle que l’ensemble des valeurs possibles

correspond à un intervalle réel . Exemple : le poids, la taille …

Page 10: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 10

On appelle VA réelle définie sur (Ω, 𝐴) , une application X : Ω → ℝ / ∀ l’intervalle I

⊂ ℝ on a : X-1(I) = 𝜔 ∈ Ω/X(𝜔) ∈ 𝐼 ∈ 𝐴.

Un intervalle continu contient une infinité de valeurs. La probabilité d’obtenir

exactement un résultat donné est généralement nulle. La notion de distribution de probabilité

n’a donc pas de sens dans le cas continu. La fonction de répartition conserve sa signification.

f(x) , est la dérivée de la fonction de répartition de F(x), appelée fonctions de ddp. Une

VAC est caractérisée par une probabilité positive et le cumul de sa ddp doit être égal à 1.

f une ddp pour une VAC, ssi : 𝐟 ≥ 𝟎 ∀ 𝐱 ∈ ℝ 𝐞𝐭 ∫ 𝐟(𝐱)𝐝𝐱 = 𝟏+∞

−∞

Fonction de répartition : 𝐹(𝑥) = ∫ f(t)dtx

−∞ = P(X≤ 𝑥)

Propriétés d’une VAC :

P(X= x) = 0.

P(X≤ 𝑥) = P(X< 𝑥)

P ( a ≤ x≤ b) = F (b) - F (a) = ∫ f(t)dtb

a

P(X≥ 𝑥) = 1 - P(X≤ 𝑥) = 1 – F (b)

Espérance : E(X) = ∫ 𝒙 𝒇(𝒙)𝒅𝒙+∞

−∞ ;

Variance : V(X) = E(X2) - [E(X) ]2 = ∫ (𝑥)2+∞

−∞ 𝑓(𝑥)𝑑𝑥 − [E(X) ]2

II/ Les lois usuelles discrètes :

Certaines distributions de probabilités de VA correspondent aux modèles de

phénomènes aléatoires , Elles sont appelées : lois de probabilité , on distingue deux types lois

Discrétes et lois Continues .

1-La loi uniforme:

On dit que X suit la loi uniforme discrète définie sur X() = 0, 1, 2, ..,n si elle admet

pour fonction de probabilité : f(x) = 𝑷(𝑿 = 𝒙) =𝟏

𝒏 ; ∀ x ∈ X(𝜴)

On dit que les événements sont équiprobables (cad ont des probabilités identiques) :

𝑃(𝑋 = 𝑥1) = 𝑃(𝑋 = 𝑥2) = ⋯… .= 𝑃(𝑋 = 𝑥𝑛) =1

𝑛 ; ∀ x ∈ X(𝛺)

Page 11: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 11

Espérance et variance : E(x) = 𝒏+𝟏

𝟐 V(X) =

𝒏𝟐−𝟏

𝟏𝟐

Exemple : Le jet du dé, exercice traité dans le cas de VAD.

2-La loi de Bernoulli:

Soit une population infinie composée d’un premier type d’individus en proportion p et un

second type en proportion 1-p. L’expérience aléatoire qui consiste à tirer au hasard un individu

de cette population fait apparaitre l’événement A « l’individu tiré est du type 1 » avec une

probabilité p. : L’individu tiré est du type 2 avec une probabilité 1- p .

On définit la variable aléatoire de de Bernoulli X / X =1 si l’évènement se réalise et X =0 sinon.

On dit que X suit la loi de Bernoulli de paramètre p , où 0 <p<1 ; (X → ℬ(𝑝)) si elle

admet comme fonction de probabilité :

f(x) = 𝑷(𝑿 = 𝒙) = px (1-p)1-x ; ∀ x ∈ X(𝜴) = 𝟎, 𝟏

𝑃(𝑋 = 0) = 1- p

𝑃(𝑋 = 1) = p

Espérance et variance: E(x) = p V(X) = p (1-p)

Fonction génératrice des moments : Mx(t) = (𝟏 − 𝐩) + 𝒆𝒕𝒑

Propriétés : La loi de Bernoulli: n’est pas stable par addition : la somme de 2 variables

Bernoulli de même paramètre n’est pas une variable de Bernoulli .

Soient 2 variables aléatoires indépendantes X1 et X2 / X1 → ℬ(𝑝1) et X2 → ℬ(𝑝2), la

variable Z = X1 + X2 ne suit pas une loi de Bernoulli.

Exemple1 : Si on jette une pièce de monnaie équilibrée. Soit X une VA / X= 1 si pile, et

X= 0 sinon.

Exemple2 : Au service des mines et lors de la visite technique d’une voiture, on définit

la variable aléatoire X = 1 si la voiture est acceptée et X = 0 sinon. D’après l’expérience, les

voitures acceptées sont en proportion p , alors X suit une loi de Bernoulli de paramètre p. (X →

ℬ(𝑝)).

Page 12: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 12

3-La loi Binomiale:

Elle joue un rôle important pour obtenir des estimations de pourcentages, ou de taux.

Définition :

Une épreuve de Bernoulli , est une expérience aléatoire qui ne comporte que deux

résultats possibles : succès / échec . Soit p la probabilité de réalisation du succès ; 1-p : la

probabilité de réalisation de l’échec .

Si on répète l’expérience n fois dans les mêmes conditions et ces expériences sont

indépendantes alors la variable aléatoire X : Nombre de succès obtenu suit une loi binomiale.

On dit que X suit la loi Binomiale de paramètre n et p ; X→ 𝐵 (𝑛, 𝑝) si elle admet pour

fonction de probabilité :

f(x) = 𝑷(𝑿 = 𝒙) = x

nC px (1-p)n-x , x = 0, 1…..n

Avec n : Nombre d’expériences répétées

p : la probabilité de succès à chaque expérience .

Elle peut être aussi décrite comme une suite en terme de variables aléatoires, en associant à

l’expérience une variable de type Bernoulli ( (p) ) Xi / Xi = 1 s’il s’agit de succès et Xi = 0

sinon . (x1, x2,….. xn) n variables indépendantes .

On définit la V A X , le nombre de succès dans la suite des n expériences .

X = f (x1, x2,….. xn)/ X = ∑ 𝒙𝒊𝒏𝒊:𝟏 , i 𝜖0,1… . 𝑛

Alors la variable aléatoire X = ∑ 𝑥𝑖𝑛𝑖:1 suit la loi binomiale (n, p).

Remarque : La combinaison x

nC , avoir x parmi n est calculée ainsi : x

nC = 𝒏!

𝒑!(𝒏−𝒙)!

Espérance et variance : E(x) = np V(X) = np (1-p).

Fonction génératrice des moments : Mx(t) = ((𝟏 − 𝐩) + 𝒆𝒕𝒑)𝒏

Addition: Si deux variables aléatoires indépendantes X1 et X2 suivent respectivement

1 2(n ,p) et (n ,p) alors (X1+ X2 ) suit une loi binomiale 1 2(n +n ,p) .

Exemple1 : Un hôpital possède 50 chambres. Au printemps, le taux de remplissage est de 75%.

On note X : le nombre de chambres occupé un jour donné, c’est une variable aléatoire.

x 𝜖0,1… .50 prend un nombre fini de valeurs → une VAD.

La loi de X est une loi binomiale de paramètres n = 50 et p = 0.75.

Page 13: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 13

i 0,1… .50 , on a : f(x) = 𝑃(𝑋 = 𝑥) = 𝐶50𝑥 𝑝𝑥 (1 − 𝑝)50−𝑥, avec p =0.75

La probabilité que l’hôtel soit complet : P(X=50) = 𝐶50500.7550 (1 − 0.75)0 = 0.7550

Exemple 2 : Dans une grande population, on compte 40 % des individus qui sont fumeurs. On

prend au hasard un échantillon de 30 personnes. On définit la variable aléatoire X : « Le nombre

d’individus qui sont fumeurs dans l’échantillon tiré. » Alors X suit la binomiale B (30 ,0.4).

4-La loi Hypergéométrique:

Cette loi intervient dans le cas de plusieurs expériences aléatoires dépendantes

auxquelles on associe un caractère étudié quelconque. Elle dépend de 3 paramètres.

On considère une population de taille N dont K individus présentent exactement un

certain caractère A. On prélève sans remise un échantillon de n individus. Soit X la VA qui

représente le nombre d’individus ayant le caractère A dans l’échantillon .

On dit que X suit la loi Hypergéométrique ( X →H(n, N, K)). Si elle admet pour fonction

de probabilité : f(x) = 𝑷(𝑿 = 𝒙) = 𝑪𝑲𝒙 𝑪𝑵−𝑲

𝒏−𝒙

𝑪𝑵𝒏

avec: 𝑴𝒂𝒙[0 ; n-(N-K)] ≤ x ≤ Min (n, K)

Si Max =0 et min =n alors 0 x n ; X() = 0, 1, ..,n

Espérance et variance :

E(x) = nK

N= np V(X) = n

K

N

N K N-n

N N-1= np (1-p)

N-n

N-1

Avec: K

N= p et

N-n

N-1 :le facteur d’exhaustivité.

Exemple : Dans une population de 40 personnes dont 6 sont originaires du Sud, 14 du Nord, 12

de l’Est et 8 de l’Ouest. On choisit au hasard un échantillon de 4 personnes.

La variable aléatoire X désigne le nombre d’individus de l’échantillon qui sont originaires du

Nord. La population étant finie et les prélèvements s’effectuent sans remise ; X suit une loi

Hypergéométrique ( X →H(n, N, K Hypergéométrique ( X →H(n, N, K)

N = 40, n=4, K = 14. ( X →H(4, 40, 14).

X(Ω) = 0,1,2,3,4

Page 14: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 14

Probabilité de n’avoir aucune personne du Nord : P(X=0) = 𝐶140 𝐶26

4

𝐶404 = 0.1636

Avoir 0 individus du nord ,revient à choisir les 4 individus parmi ceux qui ne sont pas du ord

(40-14=26) cad faisant partie des autres régions =𝐶140 𝐶26

4 / cardinal de Ω = choisir 4 individus

parmi 40.

5-La loi de Poisson:

Cette loi décrit le nombre d’apparition X pendant un instant t d’un événement dont la

réalisation ne dépend pas du nombre de réalisations passées et n’influence pas sur les futures.

Exemple d’application de cette loi : nombre de pannes d’une chaine de production, le nombre

d’appels téléphoniques par minute dans un centre d’appel, le nombre de clients dans une file

d’attente dans une grande surface, nombre de conducteurs passés à un péage pendant une

période de temps ….

On dit que X suit la loi de Poisson de paramètre ; (X P( ) ) , où >0; si elle admet

pour fonction de probabilité : f(x) = 𝑃(𝑋 = 𝑥) = 𝑒−𝜆𝜆𝑥

𝑥! ; ∀ x ∈ ℕ

Espérance et variance: E(x) = V(X) =

Fonction génératrice des moments : Mx(t) = 𝒆𝝀(𝒆𝒕−𝟏)

Addition: Si deux variables aléatoires indépendantes X1 et X2 suivent respectivement

les lois P(1) et P(2) alors la variable (X1+ X2) suit une loi de Poisson de paramètre (1+2).

Exemple : Le nombre de clients observé au cours de cinq minutes dans une file d’attente

au guichet d’une banque est une variable aléatoire X qui suit la loi de poisson de paramètre .

III/ Les lois usuelles continues :

1-La loi uniforme :

Soit X une variable aléatoire continue . On dit que X a une distribution uniforme sur

l’intervalle a,b si sa densité de probabilité (d.d.p) s’écrit sous la forme suivante :

f(x) = 𝟏

𝒃−𝒂

𝟎 ;

; 𝒙 ∈ [𝒂, 𝒃]

𝐬𝐢𝐧𝒐𝒏

On note : X →U [𝑎,b] .

La densité est constante sur a,b .

Page 15: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 15

Espérance et variance: E(x) = 𝒂+𝒃

𝟐 V(X) =

(𝒃−𝒂)𝟐

𝟏𝟐

Fonction génératrice des moments : Mx(t) = 𝒆𝒃𝒕−𝒆𝒂𝒕

(𝒃−𝒂)𝒕

Fonction de répartition : F(X) =

0; 𝑠𝑖 𝑥 < 𝑎 𝑥−𝑎

𝑏−𝑎; 𝑎 ≤ 𝑥 < 𝑏

1; 𝑠𝑖 𝑥 ≥ 𝑏

Propriétés :

-La loi uniforme n’est pas stable par addition. La somme de deux ou plusieurs variables

uniformes ne suit pas une loi uniforme.

-La transformation linéaire d’une variable uniforme est une variable qui suit la loi

uniforme.

Exemple : Le temps d’attente de rames de métro se suivant à un intervalle de temps 𝛼

minutes est une VA X →la loi uniforme [0, 𝛼] ,

E(X) = 𝛼

2 ,V(X) =

𝛼2

12, 𝑎𝑣𝑒𝑐 𝛼: 𝑙𝑎 𝑑𝑢𝑟é𝑒 𝑑′𝑎𝑡𝑡𝑒𝑛𝑡𝑒 𝑚𝑎𝑥𝑖𝑚𝑎𝑙 .

2- La loi Gamma :

Cette loi est utilisée généralement dans la modélisation de durée de vie, durée d’une

tache de production …soit X 𝛾(p, 𝜃) , avec p > 0 𝑒𝑡 𝜃 > 0.

La ddp est la suivante : f(x) = 𝜽𝒑

𝚪(𝐩) 𝒙𝒑−𝟏𝒆−𝜽𝒙, ∀ x > 𝟎

Où 𝚪 (p) = ∫ 𝒛𝒑−𝟏𝒆−𝒛𝒅𝒛+∞

𝟎, ∀ p > 𝟎.

Propriétés :

i) Γ (1) = 1, ii) Γ (p) = (p-1) Γ (p-1) , ∀ p> 1

iii) Γ (p) = (p-1) ! ∀ p= 2,3…., iv) Γ (1/2) = √𝜋

Espérance et variance: E(𝑋𝛼) = Γ(p+α)

Γ(p)𝜃𝛼 , pour p + α > 0,

E(X) = 𝒑

𝜽 , V(X) =

𝒑

𝜽𝟐

Fonction génératrice des moments : Mx(t) = (𝛉

𝛉−𝐭)𝐩, ∀ 𝛉 > 𝟏

Page 16: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 16

Exemple :Une société utilise 4 machines de même type où le fonctionnement sans panne

d’une machine quelconque ne dépend pas de celui d’une autre. La durée de fonctionnement

sans panne de la machine i , i = 1,….4. est une variable aléatoire Zi → 𝛾(p, 𝜃)

On définit V = ∑ 𝑍𝑖4𝑖:1 : la durée totale du fonctionnement sans panne des 4 machines ,

W = ¼ V la durée moyenne du fonctionnement par machine. U = a V

V → 𝛾(4p, 𝜃)

W → 𝛾 (4p,𝜃

1/4) = (4p, 4𝜃) ; U→ 𝛾 (4p,

𝜃

𝑎)

3- La loi exponentielle :

C’est un cas particulier de la loi Gamma 𝛾(p, 𝜃) pour p = 1 : avec , 𝜃 ≻ 0

X → 𝛾(1, 𝜃) ⇔ X → exp(𝜽) ; Sa ddp est : f(x) = 𝜽 𝒆−𝜽𝒙 ; 𝒙 ≻ 0

Espérance et variance: E(𝑿) = 𝟏

𝜽 , V(X) =

𝟏

𝜽𝟐

Fonction génératrice des moments : Mx(t) = (𝜽

𝜽−𝒕), ∀ 𝜽 > 𝒕

Soient X1 , X2,..Xn, n variables aléatoires indépendantes de même loi , avec Xi →exp(𝜃)

, 𝑥𝑖 → 𝛾(1, 𝜃) i:1…..n. On a :

∑ 𝒙𝒊 →𝒏𝒊:𝟏 𝜸(𝐧, 𝜽) et W =

𝟏

𝒏 ∑ 𝒙𝒊𝒏𝒊:𝟏 → 𝜸(𝐧, 𝐧𝜽)

Exemple :

La durée de transfert d’un courrier électronique n’est pas prévisible avec certitude à

l’avance. On modélise la durée de transfert par une variable aléatoire X distribuée selon une loi

exponentielle , d’espérance mathématique E(𝑋) = 𝛽. On a pris à n moments différents d’une

journée un échantillon de n durées (en milles secondes) X1 , X2, ……,Xn.

L’expérience porte sur le même message , alors on suppose que les expériences sont

indépendantes .

On cherche la ddp de X , on a E(𝑋) = 𝛽 = 1

𝜃, alors X → exp (

1

𝛽)

f(x) = 1

𝛽 𝑒−1

𝛽𝑥, ∀𝑥 ≻ 0

Fonction génératrice des moments =

1

𝛽1

𝛽−𝑡

= 1

1−𝛽𝑡

Pour déterminer la loi de = 1

𝑛 ∑ 𝑥𝑖𝑛𝑖:1 , on procède ainsi:

Page 17: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 17

Les variables X1 , X2, ……,Xn sont indépendantes et suivent , Xi iid →exp (1

𝛽) ⟺

𝛾 (1,1

𝛽), i :1…n . alors ∑ 𝑥𝑖

𝑛𝑖:1 → 𝛾 (𝑛,

1

𝛽) d’où → 𝛾 (𝑛,

𝑛

𝛽)

E() = 𝛽 ; V() = 𝛽2

𝑛

4 -La loi normale généralisée : (Laplace Gauss)

La loi normale joue un rôle important en recherche statistique et intervient dans la

définition d’autres lois. La loi normale ou loi de Laplace Gauss est une des distributions que

l’on rencontre le plus souvent en pratique. Elle occupe une position importante en probabilités

et en statistiques. Une multitude des phénomènes correspond à cette loi.

Soit X une VA à valeurs dans ℝ. On note : X→N(m, ) : la variable X suit la loi

normale de moyenne m et d’écart type . La fonction de répartition de X, notée F(X), se déduit

comme suit : F(x) = F(𝑋−𝑚

𝜎) =

1

√2𝜋∫ 𝑒

−𝑡2

2 𝑑𝑡

𝑋−𝑚

𝜎

−∞

La d.d.p s’obtient par dérivation et s’exprime ainsi :

f(X) = 𝟏

𝝈√𝟐𝝅𝒆−𝟏

𝟐(𝑿−𝒎

𝝈)𝟐

, ∀ 𝑿 ∈ ℝ,𝝈 > 𝟎

Cette fonction est symétrique par rapport à m. Cette fonction admet un maximum pour

Y = m.

Espérance et variance: E(X) = m V(X) = 2

Fonction génératrice des moments : Mx(t) = 𝒆𝒎𝒕𝒆𝟏

𝟐 𝟐𝐭𝟐

Propriétés :

La transformation linéaire d’une variable normale est une variable normale.

Si X → N (m, 2) , alors Y = a X + b → N (a m + b, a2 2) .

Soient (X1, X2,…Xn) n variables aléatoires indépendantes , Xi → N(𝑚𝑖, 𝜎𝑖2), i :1….n,

alors : ∑ 𝑋𝑖𝑛𝑖 :1 → N(∑ 𝑚𝑖

𝑛𝑖 :1 , ∑ 𝜎𝑖

2𝑛𝑖 :1 ) ; de plus , si 𝑚𝑖= 𝑚 𝑒𝑡 𝜎𝑖

2= 2 ∀ i :1….n alors

∑ 𝑋𝑖𝑛𝑖 :1 → N(𝑛𝑚, 𝑛2).

Page 18: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 18

5 -La loi normale centrée et réduite :

La loi normale centrée et réduite est définie soit par sa densité de probabilité soit par sa

fonction de répartition. Elle admet l’ensemble des nombres réels comme ensemble de valeurs

possibles et sa d.d.p s’écrit : f(Z) = 𝟏

√𝟐𝝅𝒆−𝒁𝟐

𝟐 ; ∀ z ∈ ℝ.

Si X → N (m, 2) alors : Z = 𝑿−𝒎

𝝈 → N (0, 1)

Cette fonction de densité est symétrique par rapport à l’axe des ordonnées.

La fonction de répartition notée F(Z) est définie par : F(Z) = 1

√2𝜋∫ 𝑒

−𝑡2

2 𝑑𝑡𝑧

−∞

La fonction de répartition est toujours croissante .

Espérance et variance : E(Z) = 0 V(Z) = 1

Propriétés: x 0 , on a :

F(-x) = 1 – F(x) P(-x <X <x) = 2 P(X x) –1

P( X x) =1- F(x) P(xa X xb) = F(xb) - F(xa)

P( |𝑿| < x) =2 F(x) –1

Calcul pour la loi normale :

X une variable normale de moyenne 𝑚 et d’écart-type 𝜎 . pour calculer P(X x), on

se ramène à une loi normale standard, , soit U = 𝑋−𝑚

𝜎 ⇔ X = 𝜎 Y + µ

P(X x) = P(𝜎 U + m x) = P(U 𝑋−𝑚

𝜎) = F (

𝑋−𝑚

𝜎)

Liens entre les lois Si la loi U est une loi normale de moyenne 0 et d’écart-type 1, alors

la loi de X = 𝜎 U + m est une loi normale de moyenne m et d’écart-type 𝜎.

Lecture de la table statistique de la fonction de répartition d’une loi normale centrée

et réduite

Soit Z → N(0,1) , déterminer la probabilité F(z) = P(Z< z) . Il suffit de lire les valeurs de

la table statistique.

Page 19: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 19

P(Z< 1.96 ) = F(1.96) = 0.975

P( Z 1.64) =1- P(Z< 1.64 ) = 1- F(1.64) = 1- 0.9495 = 0.0505 = 5.05%

P(Z< - 1.96 ) =1- P(Z< 1.96 ) = 1- F(1.96) = 0.025

Chercher la valeur de z / P(Z< z ) = 0.997 , en lisant sur la table : z = 2.75.

Si on a une loi normale N(m,𝜎2) , dans ce cas , on ne peut pas calculer P(X< 𝑥) d’après

la lecture de la table. Il faut commencer par centrer et réduire la variable.Soit Z = 𝑋−𝑚

𝜎

Exemples :

-Si X est une loi normale de moyenne 4 et d’écart-type 2. On pose Y = 𝑋−4

2

P(X 6.5) = P(2Y+4 6.5) = P (Y 6.5−4

2) = P (Y 1.25) = 0.8944 =89.44%

Page 20: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 20

-Soit X → N(1,4) , alors : P(X< 2.52) = P(𝑋−1

√4<2.52−1

√4) = P(Z < 0.76) = F(0.76) =

0.7764 = 77.64% .

IV/ Les dérivées de la loi normale :

Ces lois sont construites à partir de la loi de Gauss et sont très utiles pour la construction

des intervalles de confiance (chapitre estimation) et l’élaboration des tests d’hypothèses.

1-La loi de khi-deux :

Soient X1 , X2,…, Xi,…, Xn une suite de n variables aléatoires normales centrées

réduites et indépendantes. Xi →N(0,1) ∀ 𝑖: 1… . 𝑛. La variable aléatoire n

2 2 2 2 2

1 2 i n i

i:1

Z = X + X +...+X +...+X = X suit une loi de probabilité 2

n de densité :

f(Z) =

𝟎 ; si Z ≤ 0𝟏

𝟐𝒏𝟐

𝟏

𝜞(𝒏

𝟐)𝐳𝒏

𝟐 −𝟏𝒆

−𝒁

𝟐 , 𝒔𝒊 𝒁 > 𝟎 ; où 𝜞(𝒏

𝟐) = ∫ 𝒖

𝒏

𝟐 −𝟏𝒆−𝒖

+∞

𝟎du

La variable aléatoire 2

n est dite variable khi-deux à n degrés de liberté (d.d.l). Lorsque

n → ∞, la distribution de 2

n tend vers une loi normale de paramètres E(U) et V(U) .

Espérance et variance: E(Z) = n ; V(Z) = 2n

Fonction génératrice des moments : : MZ(t) = (𝟏 − 𝟐𝒕)−𝒏

𝟐; ∀ 𝒕 < 𝟏/𝟐.

Propriétés: Le carré d’une variable centrée et réduite est une variable distribuée selon

une loi 𝜒2(1) .

Addition: La somme de deux lois de 2

n est une loi de 2

n . Si X et Y sont deux variables

aléatoires indépendantes / X→2

1n et Y→2

2n alors X + Y→2

1 2n n .

Exemple : Soit X → N (𝜇, 𝜎2) , la variable 𝑋−𝜇

𝜎 est distribuée selon une loi normale centrée et

réduite , alors W = (𝑋−𝜇

𝜎)2→ 𝜒2(1) .

Table statistique des quantiles de la loi du khi-deux

Soit U→ 𝜒2(n) , on veut déterminer u / P(U< 𝑢) = 𝛼 , sachant que 𝛼 𝑒𝑡 𝑛 𝑠𝑜𝑛𝑡 donnés . u est

interprété le quantile d’ordre 𝛼 de la loi de khi-deux à n degrés de liberté. Soit u = 𝜒𝛼2(n).

Page 21: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 21

Exemple : U→ 𝜒2(8) et 𝛼 = 5%. le quantile d’ordre 0.05 de la loi de khi-deux à 8 degrés de

liberté :𝜒0.052 (8) = 2.733.

2-La loi de Student :

Soit un couple (X,Y) de variables aléatoires indépendantes / X→N(0,1) et Y→2 n

alors la variable aléatoire : W = 𝑿

√𝒀

𝒏

suit une loi Student à n degrés de liberté de densité de

probabilité : W → 𝝉 (n) , avec ; t = 𝐍(𝟎,𝟏)

√𝝒𝟐(𝒏)

𝒏

; n ∈ ℕ∗

Espérance et variance: E(W) = 0 pour n>1 ; V(W) = n

n 2 pour n>2

Pour n = 1 et n = 2 la loi n’admet pas de variance finie.

Propriétés : La ddp de W est symétrique par rapport à 0. D’où :

tα(n) = - t1−α(n) : Le quantile d’ordre 𝛼 est l’opposé du quantile d’ordre 1- 𝛼.

f(-t) = f(t)

F(-t) = 1- F(t)

tα(n) < 0; 𝑠𝑖 𝛼 < 0.5= 0; 𝑠𝑖 𝛼 = 0.5> 0; 𝑠𝑖 𝛼 > 0.5

Exemple : Soit X → 𝒯 (7), déterminer le quantile t/ P( X < 𝑡) = 0.05

t0.05(7) = -1.895 = -t0.95(7)

3-La loi de FISHER-SNEDECOR:

Soit un couple (X,Y) de variables aléatoires indépendantes telles que : X2

1n et

Y2

2n alors la variable aléatoire : W =

𝑋

𝑛1𝑌

𝑛2

𝑠uit une loi de FISHER à (n1 ,n2) ddl.

F 1 2n ,n =

2

1n

𝒏𝟏

2

2n

𝒏𝟐

; 𝑛1 ∈ ℕ∗ et 𝑛2 ∈ ℕ

F 1 2n ,n est telle que : P ( W > Fp 1 2n ,n ) = p

On a : P ( W > Fp 1 2n ,n ) = p ⇔ P ( W < Fp 1 2n ,n ) = 1- p.

Page 22: Introduction - FSEGSO

LSG2 FSEGS 2020-2021

ESSADDIK.E Page 22

Espérance et variance :

E(W) = 𝑛2

𝑛2−2 pour n2 > 2 ; V(W) =

2𝑛22(𝑛1+𝑛2−2)

𝑛1(𝑛2−2)2(𝑛2−4)

si 𝑛2 > 4

Remarques :

-Si W F 1 2n ,n , alors U = 1

W =

𝑌

𝑛2𝑋

𝑛1

F 2 1n ,n , ⇔ F 2 1n ,n = 1

F 1 2n ,n

On peut écrire aussi : Fp 2 1n ,n = 1

𝐹1−𝑝(𝑛1,𝑛2)

- Si W F 21,n ⇔ W (𝜏(𝑛2))2

F 21,n =

2 1

𝟏

2

2n

𝒏𝟐

= (𝑵(𝟎,𝟏))𝟐

2

2n

𝒏𝟐

=

(

𝑵(𝟎,𝟏)

√𝝌𝟐(𝒏𝟐)

𝒏𝟐)

𝟐

= (t(n2))2

Table statistique des quantiles de la loi de FISHER

Soit W F 1 2n ,n , on veut déterminer w/ P(W> w) = p ; p , 1 2n ,n sont donnés ,

w = FP 1 2n ,n sont des valeurs de la table pour p =0.01 ou 0.05 et les différentes valeurs 1 2n , n