Cours Méthodes Quantitatives III
UNIVERSITE MOHAMED V – AGDAL
Faculté des Sciences Juridiques, Economiques et Sociales
Filière des Sciences Economiques et Gestion
Semestre : IV
Sections : A, B et C
Module : Méthodes Quantitatives III
Matière : STATISTIQUE III
Session : printemps été 2011
Responsable de la matière : Adil ELMARHOUM
RAPPELS STATISTIQUES II
NOTION DE VARIABLES ALEATOIRES
I. DEFINITION
Une variable aléatoire X est une variable associée à une expérience ou à un groupe d'expériences aléatoires et servant à caractériser le résultat de cette expérience ou de ce groupe d'expériences.
On distingue les variables aléatoires discontinues ou discrètes et les variables aléatoires continues.
II. VARIABLE ALEATOIRE DISCONTINUE
2.1. Définition
Une variable aléatoire est discrète si elle varie de façon discontinue, la variable ne peut prendre que des valeurs entières.
Exemple :
? Soit X la variable aléatoire qui caractérise le résultat de l'expérience aléatoire "jet d'un dé homogène".
X est une variable aléatoire discrète, elle peut prendre les valeurs entières 1, 2, 3, 4, 5, et 6.
? Soit X la variable aléatoire qui caractérise le nombre de garçons dans une famille de quatre enfants.
X est une variable aléatoire discrète, elle peut prendre les valeurs entières 0, 1, 2, 3, et 4.
2.2. Distribution de probabilité
À chacune des valeurs x que peut prendre une variable aléatoire X, correspond une probabilité p(x), c'est la probabilité que la variable aléatoire X prenne la valeur x :
p(x) = p(X = x)
L’ensemble des valeurs admissibles x et des probabilités correspondantes p(x) constitue une distribution de probabilité discontinue. La relation entre x et p(x) est appelée loi de probabilité.
Pour toutes les distributions de probabilités dont les valeurs x correspondent à des événements complémentaires, le total des probabilités est égal à 1.
?p(x) ?1
La distribution cumulée des probabilités est appelée fonction de répartition :
x
F (x) = p (X ? x) = ?p(x)
0 ? F(x) ? 1
Exemple :
Soit X la variable aléatoire qui caractérise le résultat de l'expérience aléatoire "jet d'un dé homogène".
X est une variable aléatoire discrète, elle peut prendre les valeurs entières 1, 2, 3, 4, 5, et 6 avec la probabilité constante 1/6.
Distribution de probabilité de X
x | p(x) | F(x) |
1 2 3 4 5 6 | 1/6 1/6 1/6 1/6 1/6 1/6 | 1/6 2/6 3/6 4/6 5/6 6/6 |
Total | 1 |
III. VARIABLE ALEATOIRE CONTINUE
Une variable aléatoire est continue si elle prend n'importe quelle valeur réelle appartenant à un intervalle donné.
Exemple :
Le poids est une variable aléatoire continue.
La taille est une variable aléatoire continue.
Un intervalle continu contient une infinité de valeurs. La probabilité d'obtenir exactement un résultat donné est généralement nulle, bien que ce résultat ne soit pas strictement impossible.
p(X ?x)?0
La notion de distribution de probabilité n'a donc plus de sens dans le cas continu. Par contre la fonction de répartition conserve toute sa signification.
Pour une variable aléatoire continue, on calcule la probabilité d'observer une valeur comprise dans un intervalle donné [x ; x+?x].
p(x ? X ? x+?x) = p(X ? x+?x) - p(X ? x) = F(x+?x) - F(x)
Cette probabilité tend vers p(x) quand ?x tend vers 0.
lim p(x ? X ? x ??x) ?limF(x ??x) ? F(x)
?x?0 ?x?0
F(x ??x) ? F(x) ?F dF
lim ?lim ? ? F'(x) ? f (x)
?x?0 ?x ?x?0 ?x dx
La fonction f(x), dérivée de la fonction de répartition F(x), est appelée fonction de densité de probabilité.
L'ensemble des valeurs admissibles pour une variable aléatoire continue et la fonction de densité de probabilité correspondante définissent une distribution de probabilité théorique continue.
Le produit f(x)dx est appelé élément de probabilité, c'est l'équivalent de la probabilité p(x) pour une variable aléatoire discontinue.
Pour une variable aléatoire continue, le cumul de la fonction de densité de probabilité est égal à 1 :
??
? f (x)dx ?1
??
x
F(x) = ? f (x)dx
??
b
P(a ? X ? b) = F(b) - F(a) = ? f (x)dx
a
Exemple :
Soit une variable aléatoire continue X définie par la fonction de densité de probabilité :
?k si 0 ? x ? 1 f (x) ??
?0 sinon
Pour déterminer la constante k, il faut :
??
? f (x)dx ?1
??
1
? k ? dx ?1
1
k ? x ?1
k ?1
?1 si 0 ? x ? 1 f (x) ??
?0 sinon
On en déduit par intégration la fonction de répartition F(x) :
Si x
x 0
F(x) = ? f (x)dx ? ?0?dx ? 0
?? ??
Si 0 ? x ? 1 :
x 0 x
F(x) = ? f (x)dx ? ?0?dx ??1?dx ? x
?? ?? 0
Si x > 1 :
x 0 1 x
F(x) = ? f (x)dx ? ?0?dx ??1?dx ??0?dx ?1
?? ?? 0 1
?0 si x ? 0
?
F(x) ??x si 0 ? x ? 1
??1 si x ? 1
CARACTERISTIQUES D'UNE VARIABLE ALEATOIRE
I. ESPERANCE MATHEMATIQUE
1.1. Définition
On appelle espérance mathématique la valeur moyenne de la variable, elle remplace la moyenne arithmétique dans le cas d'une variable statistique.
Cas discret : | E(X ) ??x?p(x) |
Cas continu : | ?? E(X ) ? ? x? f (x)dx |
??
Exemple :
? Soit X la variable aléatoire qui caractérise le nombre de garçons dans une famille de quatre enfants.
Distribution de probabilité de X
x | p(x) | F(x) |
1 2 3 4 | 0,0625 0,2500 0,3750 0,2500 0,0625 | 0,0625 0,3125 0,6875 0,9375 1 |
Total | 1 |
E(X ) ??x?p(x) ? 0? 0,0625 ?1? 0,25 ? 2?0,375 ? 3?0,25 ? 4?0,0625
E(X)? 2
Dans une famille de quatre enfants on doit s'attendre à avoir deux garçons.
Exemple :
Soit une variable aléatoire continue X définie par la fonction de densité de probabilité :
?1 si 0 ? x ? 1 f (x) ??
?0 sinon
1
1 x² 1
E(X) ??x?dx? ] ? 2
0 2 0
1.2. Propriétés
• L'espérance d'une fonction d'une variable X est :
Cas discret : E(g(X )) ??g(x)?p(x)
??
Cas continu : E(g(X )) ? ? g(x)? f (x)dx
??
Exemple :
Cas discret : E(X ²) ??x² ?p(x)
??
Cas continu : E(X ²) ? ? x² ? f (x)dx
??
• L'espérance d'une constante est la constante : E(a) = a
• L'espérance d'une transformation linéaire est la transformation linéaire de l'espérance :
E(ax?b) ??(ax?b)? p(x) ??axp(x) ??bp(x)
E(ax?b) ?a?xp(x) ?b?p(x)
E(ax?b) ?aE(X) ?b
• L'espérance d'une somme est la somme des espérances :
E(X + Y) = E(X) + E(Y)
• L'espérance d'une différence est la différence des espérances :
E(X - Y) = E(X) - E(Y)
• L'espérance d'un produit est le produit des espérances si les variables sont indépendantes :
E(X ? Y) = E(X) ? E(Y)
II. VARIANCE ET ECART-TYPE
2.1. Définition
Comme pour la moyenne, la variance d'une variable aléatoire conserve la même définition que la variance d'une variable statistique. C'est l'espérance mathématique des carrés des écarts par rapport à l'espérance.
• Cas discret : V(X) = E[(X - E(X))²] = ?(x?E(X ))² ?p(x)
??
• Cas continu : V(X) = E[(X - E(X))²] = ?(x ? E(X ))² ? f (x)dx
??
L'écart type est égal à la racine carrée de la variance :
?? V(X )
La variance est calculée à partir de la formule développée suivante :
V(X) = E[(X - E(X))²] = E[X² - 2XE(X) + E(X)²]
V(X) = E(X²) - 2 E(X) E(X) + E(X)²
V(X) = E(X²) - E(X)²
La variance est donc égale à la différence entre l'espérance mathématique des carrés et le carré de l'espérance mathématique.
Exemple :
• Soit X la variable aléatoire qui caractérise le nombre de garçons dans une famille de quatre enfants.
Distribution de probabilité de X
x | p(x) | F(x) |
1 2 3 4 | 0,0625 0,2500 0,3750 0,2500 0,0625 | 0,0625 0,3125 0,6875 0,9375 1 |
Total | 1 |
E(X ) ??x?p(x) ? 0?0,0625 ?1?0,25 ? 2?0,375 ? 3?0,25 ? 4? 0,0625 ? 2
E(X ²) ??x² ? p(x) ? 0² ?0,0625 ?1² ? 0,25 ? 2² ?0,375 ? 3² ?0,25 ? 4² ?0,0625 ? 5
V(X) = E(X²) - E(X)² = 5 - 2² = 1
écart type est la racine carrée de 1 :
?? 1 ?1
Exemple :
Soit une variable aléatoire continue X définie par la fonction de densité de probabilité :
?1 si 0 ? x ? 1 f (x) ??
?0 sinon
1
1 x² 1
E(X) ??x?dx? ] ? 2
0 2 0
1
1 x3 1
E(X ²) ??x² ?dx? ] ? 3
0 3 0
V(X) ? E(X²) ? E(X)² ?
??
2.2. Propriétés
• La variance d'une constante est nulle : V(a) = 0
• La variance d'une transformation linéaire est :
V(aX ?b) ?E[((aX ?b) ?E(aX ?b))²]
V(aX ?b) ?E[(aX ?b?aE(X) ?b)²]
V(aX ?b) ?E[a²(X ?E(X))²]
V(aX ?b) ?a²V(X)
• La variance d'une somme est la somme des variances si les variables sont indépendantes :
V(X + Y) = E[((X + Y) - E(X+Y))²]
V(X + Y) = E[(X + Y - E(X) - E(Y))²]
V(X + Y) = E[((X-E(X)) + (Y-E(Y)))²]
V(X + Y) = E[(X-E(X))² + 2 (X-E(X)) (Y-E(Y)) + (Y-E(Y))²]
V(X + Y) = E[(X-E(X))²] + 2 E[(X-E(X)) (Y-E(Y))] + E[(Y-E(Y))²]
Si X et Y sont indépendantes, on peut écrire :
E[(X-E(X)) (Y-E(Y))] = E(X-E(X)) E(Y-E(Y)) = 0
V(X + Y) = E[(X-E(X))²] + E[(Y-E(Y))²]
V(X + Y) = V(X) + V(Y)
• La variance d'une différence est la somme des variances si les variables sont indépendantes :
V(X - Y) = E[((X - Y) - E(X-Y))²]
V(X - Y) = E[(X - Y - E(X) + E(Y))²]
V(X - Y) = E[((X-E(X)) - (Y-E(Y)))²]
V(X - Y) = E[(X-E(X))² - 2 (X-E(X)) (Y-E(Y)) + (Y-E(Y))²]
V(X - Y) = E[(X-E(X))²] - 2 E[(X-E(X)) (Y-E(Y))] + E[(Y-E(Y))²]
Si X et Y sont indépendantes, on peut écrire :
E[(X-E(X)) (Y-E(Y))] = E(X-E(X)) E(Y-E(Y)) = 0
V(X - Y) = E[(X-E(X))²] + E[(Y-E(Y))²]
V(X - Y) = V(X) + V(Y)
• Variable centrée réduite
Une variable aléatoire est dite centrée si son espérance mathématique est nulle, elle est dite réduite si son écart-type est égal à 1.
Toute variable aléatoire peut être transformée en une variable centrée réduite par le
X ? E(X) changement de variable .
?
III. CONVERGENCE EN PROBABILITE
On dit qu’une variable aléatoire Xn converge en probabilité vers une constante a si :
? ? ? 0, limP(Xn?a??) = 0
n??
Ceci signifie que l’écart entre le paramètre calculé à partir de l’échantillon et la vraie valeur du paramètre de la population est très faible quand la taille de l’échantillon est grande. Cet écart peut être mesuré par la variance. Ainsi on parle de convergence en probabilité si :
limV(Xn) = 0 n??
Exemple 1 :
Soit Xn une variable aléatoire qui désigne le nombre de succès obtenus lors de n prélèvements dans une population finie de taille N et dont la proportion de succès est p.
Xn
Désignons par Fn ? la fréquence relative (pourcentage) des succès. n
• Cas des prélèvements sans remise :
Dans ce cas la variable aléatoire Xn suit une loi hypergéométrique de paramètre N, n et p.
On sait que :
E(Xn) = n p et V(Xn) = N?n n p q
N?1
On démontre :
E(Fn ) = E( Xnn ) = 1n E( Xn ) = 1n n p = p
V( Fn ) = V( Xnn ) = n1² V( Xn ) = n1² | N?n n p q = N?n N?1 N?1 | pq n |
limV(Fn) = 0 n??
La fréquence relative Fn converge en probabilité vers p.
• Cas des prélèvements avec remise :
Dans ce cas la variable aléatoire Xn suit une loi binomiale de paramètre n et p.
On sait que :
E(Xn) = n p et V(Xn) = n p q
On démontre :
E(Fn ) = E( Xnn ) = 1n E( Xn ) = 1n n p = p
V( Fn ) = V( Xnn ) = n1² V( Xn ) = n1² n p q = pqn
limV(Fn) = 0 n??
La fréquence relative Fn converge en probabilité vers p.
Exemple 2 :
Soient Xi (i=1 à n) n variables aléatoires indépendantes et ayant la même loi de probabilité.
E(Xi) = m et V(Xi) = ?²
n ?Xi
?
Désignons par : Xn? i?1 la moyenne calculée à partir d’un échantillon de taille n. n
• Cas des prélèvements sans remise :
On démontre :
n ? ? n
Xi
E( Xn ) = E( i?1 ) = 1??E(Xi) = 1?n?m= m n ni?1 n
n ? ? n
Xi
V( Xn ) = V( i?1 ) = 1 ??V(Xi)= 1 ?n?N?n??² = N?n?²n n²i?1 n² N?1 N?1 n
?
limV(Xn) = 0 n??
n ?Xi
?
La moyenne Xn? i?1 calculée à partir d’un échantillon de taille n converge en probabilité n
vers m.
• Cas des prélèvements avec remise :
On démontre :
n ? ? n
Xi
E( Xn ) = E( i?1 ) = 1??E(Xi) = 1?n?m= m n ni?1 n
n ? ? n
Xi
V( Xn ) = V( i?1 ) = 1 ??V(Xi)= 1 ?n??² = ?²n n² i?1 n² n
?
limV(Xn) = 0 n??
n ?Xi
?
La moyenne Xn? i?1 calculée à partir d’un échantillon de taille n converge en probabilité n
vers m.
IV. INEGALITE DE BIENAYME TCHEBYCHEFF
Cette inégalité concerne des probabilités relatives à des écarts par rapport à l'espérance
X ? E(X) mathématique supérieurs à k fois écart type, c'est à dire à des écarts centrés réduits .
?
Quelle que soit la variable aléatoire X, la probabilité d'un intervalle [E(X)-k? , E(X)+k?] a
1 pour borne inférieure 1? .
k²
1
P(E(X)-k? k²
Si on pose k = ? l’inégalité peut être écrite :
?
V(X)V(X)
P(E(X)-? X?E(X)
?²?²
Demonstration :
V (X) ??(x?E(X ))² p(x)
On peut décomposer la variance en trois sommes :
V(X) ?S1?S2?S3
avec : | |||
? | S1 = ?(x?E(X ))²p(x) | pour | x |
? | S2 = ?(x?E(X ))²p(x) | pour | E(X)-k? ? x ? E(X)+? |
? | S3 = ?(x?E(X ))²p(x) | pour | x > E(X)+? |
V(X) ?S1?S2?S3
V(X)?S1?S3
• Pour S1 x
x - E(X)
(x - E(X))² > k²?²
?(x?E(X ))²p1(x) ??k²?² p1(x)
S1?k²?²?p1(x)
• Pour S3 x > E(X) + k?
x - E(X) > k?
(x - E(X))² > k²?²
?(x?E(X ))²p3(x) ??k²?²p3(x)
S3?k²?²?p3 (x)
V(X)?S1?S3
V (X) ?k²?²?p1(x) ?k²?²?p3 (x)
V (X) ?k²?² ?(?p1(x) ??p3(x))
?p1(x) ??p3 (x) ?1??p2 (x)
On note : ?p2 (x) ? p
?p2 (x) ? p(E(X ) ?k??X ?E(X ) ?k?)
Or V(X)??²
On a donc :
?² ?k²?²? (1? p)
1?k² ?(1? p)
1
?1? p k²
1 p?1?
k²
L'inégalité de Biénaymé Tchebycheff est donc :
1
p(E(X) ? k?? X ? E(X) ? k?) ?1?
k²
ou encore :
V(X)V(X)
P(E(X)-? X?E(X)
?²?²
En appliquant L'inégalité de Biénaymé Tchebycheff à la fréquence relative fn?Xn et à la n
n
? ?Xi moyenne Xn? i?1 on obtient : n
P( fn?p pq et P( X? ?m ?²n?²n?²
LOIS THEORIQUES DISCRETES
I. INTRODUCTION
Le but des lois théoriques est la description des phénomènes statistiques dont le but de calculer la probabilité de certains événements et donc d'avoir une certaine représentation de l'avenir.
Nous étudierons au cours de ce chapitre les lois de probabilités les plus courantes qui vont nous permettre la description d'un phénomène aléatoire déterminé. Nous présenterons ainsi la loi de Bernoulli, la loi binomiale, la loi hypergéométrique, et la loi de poisson.
II. LOI DE BERNOULLI
La loi de Bernoulli intervient dans le cas d'une seule expérience aléatoire à laquelle on associe un événement aléatoire quelconque.
La réalisation de l'événement au cours de cette expérience est appelée succès et la probabilité de réalisation est dite probabilité de succès, désignée par p. Par contre la non-réalisation de l'événement est appelée échec et la probabilité de non-réalisation est dite probabilité d'échec, désignée par q.
q = 1 - p
La variable aléatoire X qui caractérise le nombre de succès au cours d'une seule expérience aléatoire est appelée variable de Bernoulli, elle prend les valeurs entières 0 et 1 avec les probabilités respectives q et p.
Loi de probabilité d'une variable Bernoulli
x | p(x) |
1 | q P |
Total | 1 |
Les caractéristiques d'une variable Bernoulli sont :
? Espérance mathématique
E(X) = ?xp(x) ? 0?q?1? p? p
? Variance
E(X²) = ?x²p(x) ? 0² ?q?1² ? p? p
V(X) = E(X²) - E(X)² = p - p² = p (1 - p) = pq
Exemple :
On lance une pièce de monnaie une seule fois. Soit X la variable aléatoire qui caractérise le nombre de piles obtenues. X est une variable de Bernoulli, elle prend les valeurs entières 0 et 1 avec la probabilité constante 0,5.
Loi de probabilité de X
x | p(x) |
1 | 0,5 0,5 |
Total | 1 |
III. LOI BINOMIALE
3.1. Définition
La loi binomiale intervient dans le cas de plusieurs expériences aléatoires identiques et indépendantes aux quelles on associe un événement aléatoire quelconque.
La réalisation de l'événement au cours de chacune des expériences est appelée succès et la probabilité de réalisation est dite probabilité de succès, désignée par p. Par contre la nonréalisation de l'événement est appelée échec et la probabilité de non-réalisation est dite probabilité d'échec, désignée par q. q = 1 - p
Les probabilités p et q restent constantes au cours d'une suite d'expériences aléatoires. C'est le cas des prélèvements d'individus au hasard dans une population infinie ou le prélèvement d'individus dans une population finie, lorsque les individus sont remis en place au fur et à mesure des prélèvements.
La variable aléatoire X qui caractérise le nombre de succès au cours de n expériences aléatoires indépendantes est appelée variable binomiale, elle prend les valeurs entières de 0 à n.
La probabilité d'obtenir x succès et donc (n-x) échecs au cours de n expériences aléatoires indépendantes est, pour x = 0, 1, ..., n :
p(x) ?Cnxp xqn?x
La loi binomiale dépend de deux paramètres :
• n = nombre d'expériences aléatoires indépendantes ;
• p = probabilité de succès au cours de chacune des n expériences aléatoires, p doit rester constante.
Une variable aléatoire X qui sui une loi binomiale de paramètres n et p, est désignée par :
X = B(n , p)
3.2. Caractéristiques d'une variable binomiale
La variable Bernoulli est un cas particulier de la loi binomiale, elle correspond à la loi binomiale de paramètres 1 et p.
Une variable binomiale de paramètres n et p, peut être considérée comme étant la somme de n variables de Bernoulli identiques et indépendantes de même paramètre p.
X = B(n , p)
X = X1 + X2 + … + Xn
Avec Xi (i=1 à n) est une variable Bernoulli tel que :
E(Xi) = p et V(Xi) = pq
? Espérance mathématique
En appliquant la propriété de l'espérance d'une somme on peut écrire :
E(X) = E(X1 + X2 + … + Xn)
E(X) = E(X1) + E(X2) + … + E(Xn)
E(X) = p + p + … + p
E(X) = np
? Variance et écart-type
En appliquant la propriété de la variance d'une somme de variables aléatoires indépendantes on peut écrire :
V(X) = V(X1 + X2 + … + Xn)
V(X) = V(X1) + V(X2) + … + V(Xn)
V(X) = pq + pq + … + pq
V(X) = npq
Ecart type : ?? npq
Exemple :
Dans un lot important de pièces, dont 10 % sont défectueuses, on prélève un échantillon de 20 pièces. Quelle est la probabilité d'obtenir plus de deux pièces défectueuses ?
On définit la variable aléatoire X comme étant le nombre de pièces défectueuses qu'on peut obtenir dans l'échantillon. La variable X peut prendre les valeurs entières de 0 à 20.
La population des pièces peut être considérée comme une population pratiquement infinie. La probabilité de succès, c'est à dire la probabilité qu'une pièce choisie soit défectueuse, est constante et égale à 0,1. La variable aléatoire X suit donc une loi binomiale de paramètre 20 et 0,1.
X = B(20 ; 0,1)
La probabilité d'avoir plus de deux pièces défectueuses dans l'échantillon est :
P(X > 2) = 1 - p(X ? 2) = 1 - p(0) - p(1) - p(2)
p(X ? 2) ?1?C020 0,10 ?0,920 ?C120 0,11 ?0,919 ?C220 0,12 ?0,918
p(X ? 2) ?1? 0,1501? 0,2702 ? 0,2852 ? 0,2945
L'espérance mathématique :
E(X) = np = 20 ? 0,1 = 2 pièces défectueuses.
Dans un échantillon de 20 pièces, on peut s'attendre à avoir deux pièces défectueuses.
La variance :
V(X) = npq = 20 ? 0,1 ? 0,9 = 1,8
3.3. Propriétés
? Additivité
La somme de deux ou plusieurs variables binomiales indépendantes de même paramètres p est elle-même une variable binomiale.
X1 = B(n1 , p) X2 = B(n2 , p) … Xk = B(nk , p)
X1 + X2 + … + Xk = B(n1 + n2 + … + nk , p)
? Formule de récurrence
En effectuant le rapport de deux probabilités successives, on obtient :
p(n ? x)
p(x ? 1) ? p(x)
q(x ? 1)
? Les distributions binomiales sont symétriques lorsque p = q = 1/2, la dissymétrie est d'autant plus grande que p et q sont plus différents de 1/2.
Exemple :
Distribution de la variable B(4 , 1/2)
x | p(x) |
1 2 3 4 | 0,0625 0,2500 0,3750 0,2500 0,0625 |
Total | 1 |
IV. LOI HYPERGEOMETRIQUE
4.1. Définition
La loi hypergéométrique intervient dans le cas de plusieurs expériences aléatoires dépendantes aux quelles on associe un caractère étudié quelconque.
La probabilité de succès varie d'une expérience aléatoire à l'autre. C'est le cas des prélèvements d'individus au hasard dans une population finie, lorsque les individus ne sont pas remis en place au fur et à mesure des prélèvements.
Désignons par N l'effectif total de la population dans laquelle on prélève au hasard et sans remise n individus. La population est composée d'individus qui possèdent le caractère étudié, le nombre de ces individus sera désigné par n1. n2 désigne le nombre d'individus de la population qui ne possèdent pas le caractère étudié.
N = n1 + n2
La variable aléatoire X, qui caractérise le nombre d'individus prélevés qui possèdent le caractère étudié, est appelée variable hypergéométrique, elle prend les valeurs entières de 0 à n.
La probabilité d'obtenir x individus possédant le caractère étudié parmi les n individus prélevés et donc (n-x) individus ne possédant pas le caractère étudié est, pour x = 0, 1, ..., n :
Cnx1Cnn2?x
p(x) ?
n
CN
La loi hypergéométrique dépend de trois paramètres :
• N = effectif total de la population ;
• n1 = nombre d'individus de la population qui possèdent le caractère étudié ; ? n = nombre d'individus prélevés sans remise.
Une variable aléatoire X qui sui une loi hypergéométrique de paramètres N, n1, et n est désignée par :
X = H(N, n1 , n)
4.2. Caractéristiques d'une variable hypergéométrique
Les distributions hypergéométriques possèdent des propriétés semblables à celles des distributions binomiales.
La proportion des individus de la population qui possèdent le caractère étudié est :
n1
p ?
N
La proportion des individus de la population qui ne possèdent pas le caractère étudié est :
n2
q ?
N
? Espérance mathématique : E(X) = np ? Variance et écart-type : V(X) = N?n npq et ? ? N-nnpq
N?1 N-1
Exemple :
Dans une population de 40 personnes, dont 6 personnes sont originaires du Sud, 14 du Nord, 12 de l'Est et 8 de l'Ouest, on choisit au hasard un échantillon de 4 personnes.
La variable aléatoire X désigne le nombre d'individus de l'échantillon qui sont originaire du Nord.
La population étant finie et les prélèvements s'effectuent sans remise, la variable X suit donc une loi hypergéométrique de paramètres :
• N = effectif total de la population = 40
• n1 = nombre d'individus de la population qui sont originaires du Nord = 14
• n = nombre d'individus prélevés sans remise = 4
X = H(40, 14, 4)
La distribution de cette variable est telle que, pour x = 0, 1, 2, 3, 4 :
0 4
C C
p(0) ?14 26 ? 0,1636
4
C |
40
1 3
C C
p(1) ? 14 26 ? 0,3983
4
C |
40
2 2
C C
p(2) ? 14 26 ? 0,3236
4
C |
40
3 1
C C
p(3) ?14 26 ? 0,1036
4
C |
40
4 0
C C
p(4) ? 14 26 ? 0,0110
4
C40
Distribution de probabilité de X
x | p(x) |
1 2 3 4 | 0,1636 0,3983 0,3236 0,1036 0,0110 |
Total | 1 |
La proportion des individus de la population qui sont originaires du Nord est :
p ?? 0,35
La proportion des individus de la population qui ne sont pas originaires du Nord est :
q ?? 0,65
? | Espérance mathématique : | E(X) = np = 4 ? 0,35 = 1,4 |
? | Variance et écart-type : | V(X) = N?n npq = 40?4 x 4?0,35?0,65 = 0,84 N?1 40?1 |
? | Ecart type : | ?? 0,84?0,92 |
4.3. Approximation de la loi hypergéométrique par la loi binomiale
x n?x
CC
Dès que l'effectif N de la population devient important, le calcul de p(x) ? n1 n2 devient
n
N fastidieux. On peut démonter dans ce cas que lorsque l'effectif de la population (N) tend vers l'infini et la proportion des individus possédant le caractère étudié (p) est constante ou tend vers une constante, la loi hypergéométrique tend vers une loi binomiale de paramètre n et p. On peut dans ce cas effectuer les calculs de probabilités de façon approximatives à l'aide de la formule de la loi binomiale. En pratique, l'approximation est satisfaisante dés que la proportion des individus prélevés est inférieure à 5 %.
n
? 0,05 ou N ? 20 n
N
Exemple :
Soit la variable hypergéométrique H(100, 30, 4)
La distribution de cette variable est telle que, pour x = 0, 1, 2, 3, 4 :
x 4?x
C C
p(x) ? 30 70
4
C |
100
Distribution de probabilité de X = H(100, 30, 4)
x | p(x) |
1 2 3 4 | 0,2338 0,4188 0,2679 0,0725 0,0070 |
Total | 1 |
La distribution de cette variable peut être calculée à l'aide de l'approximation par la loi binomiale de paramètres 4 et 0,3. Les probabilités approximatives sont telle que, pour x = 0, 1, 2, 3, 4 :
x x 4?x
p(x) ?0,3 ? 0,7
4
Distribution de probabilité de X = B(4 ; 0,3)
x | p(x) |
1 2 3 4 | 0,2401 0,4116 0,2646 0,0756 0,0081 |
Total | 1 |
On constate que l'approximation est satisfaisante.
V. LOI DE POISSON
5.1. Définition
La loi de poisson intervient pour des phénomènes statistiques dont le nombre de réalisation varie de 0 à l'infini et dont la fréquence moyenne de réalisation est connue.
Exemple :
Nombre d'appels reçus par un standard téléphonique.
Nombre d'accidents de la circulation.
Nombre de visiteur d'un centre commercial.
La variable aléatoire X qui caractérise le nombre de réalisations de ce phénomène est appelée variable de poisson, elle prend les valeurs entières 0,1, 2, …etc.
La probabilité d'obtenir x réalisations est, pour x = 0, 1, 2, ... :
?m x
e ?m
p(x) ?
x!
La loi binomiale dépend d'un seul paramètre :
? m = fréquence moyenne du phénomène étudié.
Une variable aléatoire X qui suit une loi de poisson de paramètre m est désignée par :
X = P(m)
Exemple :
Un port a les moyens techniques de recevoir au maximum 4 bateaux pétroliers par jour. Le reste est envoyé vers un autre port. Quelle est la probabilité qu'un jour donné, le port ne puisse recevoir tous les bateaux qui se présentent, si on sait qu'en moyenne 3 bateaux se présentent par jour.
Désignons par la variable aléatoire X, le nombre de bateaux qui se présentent un jour donné. X suit une loi de poisson de paramètre 3.
X = P(3)
La probabilité qu'un jour donné, le port ne puisse recevoir tous les bateaux qui se présentent est :
P(X > 4) = 1 - p(X ? 4) = 1 - p(0) - p(1) - p(2) - p(3) - p(4)
e?3 ?30 e?3 ?31 e?3 ?32 e?3 ?33 e?3 ?34 p(X ? 4) ?1? ? ? ? ?
0! 1! 2! 3! 4!
p(X ? 4) ?1? 0,0498 ? 0,1494 ? 0,2240 ? 0,2240 ? 0,1680 ? 0,1840
5.2. Caractéristiques d'une variable de poisson
On peut démontrer que l'espérance mathématique d'une variable de poisson est égale à sa variance est égale au paramètre m :
E(X) = V(X) = m
5.3. Propriété d'additivité
La somme de deux ou plusieurs variables de poisson indépendantes de paramètres respectives m1, m2, …, mk est elle-même une variable de poisson de paramètre la somme des paramètres mi.
X1 = P(m1) X2 = P(m2) … Xk = P(mk)
X1 + X2 + … + Xk = P(m1 + m2 + … + mk)
5.4. Formule de récurrence
En effectuant le rapport de deux probabilités successives, on obtient :
m
p(x ?1) ? p(x)?
x ?1
Exemple :
Soit la distribution de poisson de paramètre 3.
X = P(3)
La distribution de cette variable est telle que, pour x = 0, 1, 2, 3, 4, …
?3 x
e ?3