Sommaire
ILes probabilités conditionnellesAConditionnementBIndépendanceCLa formule des probabilités totalesIILes lois de probabilité discrètesALes variables aléatoiresBLa loi de BernoulliCLa loi binomialeDans tout le chapitre, on se place dans un univers probabilisé \Omega.
Les probabilités conditionnelles
Conditionnement
Probabilité conditionnelle
Soient A et B deux événements, avec A de probabilité non nulle. On définit la probabilité conditionnelle de B sachant que l'événement A est réalisé par :
p_{A}\left(B\right) =\dfrac{p\left(A \cap B\right)}{p\left(A\right)}
Si A et B sont deux événements tels que p\left(A\cap B\right)=0{,}25 et p\left(A\right)=0{,}75, alors :
p_A\left(B\right)=\dfrac{0{,}25}{0{,}75}=\dfrac13
Indépendance
Événements indépendants
Deux événements A et B sont indépendants si et seulement si :
p\left(A \cap B\right) = p\left(A\right) \times p\left(B\right)
Considérons deux événements A et B tels que P\left(A\right)=0{,}7 et P\left(B\right)=0{,}6. Si P\left(A\cap B\right)=0{,}42 alors les événements A et B sont indépendants car P\left(A\right)\times P\left(B\right)=0{,}7\times 0{,}6=0{,}42=P\left(A\cap B\right).
Si A et B sont deux événements indépendants, cela signifie que la réalisation de l'événement A n'a aucune incidence sur la réalisation de l'événement B et réciproquement.
Conditions d'indépendance de deux événements
Soient A et B deux événements indépendants de probabilités non nulles :
p\left(A \cap B\right) = p\left(A\right) \times p\left(B\right)
Cela signifie que :
- p_{A}\left(B\right) = p\left(B\right)
- p_{B}\left(A\right) = p\left(A\right)
La formule des probabilités totales
Partition
Soit E une partie de \Omega. Les événements de probabilités non nulles \{E_{1}, E_{2}, E_{3},..., E_{k}\} forment un système complet ou une partition de E si et seulement si :
- E_{i} \subset E pour tout entier i entre 1 et k.
- Les événements E_{1}, E_{2}, E_{3},..., E_{k} sont deux à deux incompatibles.
- Leur réunion est égale à l'ensemble E.
Formule des probabilités totales
Soit {E_{1}, E_{2}, E_{3},..., E_{k}} un système complet d'événements de l'univers \Omega. Pour tout événement A de \Omega :
p\left(A\right) = p\left(A \cap E_{1}\right) + p\left(A \cap E_{2}\right) + p\left(A \cap E_{3}\right) +... + p\left(A \cap E_{k}\right)
D'après la formule des probabilités conditionnelles, cette expression peut s'écrire de la manière suivante:
p\left(A\right) = p_{E_1}\left(A \right)p\left(E_1 \right) + p_{E_2}\left(A \right)p\left(E_2 \right)+...+p_{E_k}\left(A \right)p\left(E_k \right)
La formule des probabilités totales peut s'illustrer à l'aide d'un arbre pondéré.
Dans cet exemple, \{B, \overline{B}\} forme une partition de l'univers de l'expérience. La formule des probabilités totales permet de calculer p\left(A\right) :
p\left(A\right) = p\left(A \cap B\right) + p\left(A \cap \overline{B}\right)
Soit :
p\left(A\right) = p\left(B\right) \times p_{B}\left(A\right) + p\left(\overline{B}\right) \times p_{\overline{B}}\left(A\right)
La formule des probabilités totales revient ainsi à additionner les probabilités de tous les chemins de l'arbre menant à l'événement A :
p\left(A\right) = 0{,}8 \times 0{,}05 + 0{,}2 \times 0{,}5
p\left(A\right) = 0{,}14
Les lois de probabilité discrètes
Les variables aléatoires
Variable aléatoire
Une variable aléatoire réelle est une fonction qui associe un réel à chaque événement élémentaire de l'univers d'une expérience aléatoire.
Loi de probabilité
Soit X une variable aléatoire prenant les valeurs : X\left(\Omega\right) = \left\{ {x_{1}, x_{2},..., x_{n}} \right\}. La loi de probabilité de X associe à chaque réel x_{i} la probabilité p\left(\left\{ X = x_{i} \right\}\right), que l'on peut noter en abrégé p\left(X = x_{i}\right).
On présente en général une loi de probabilité à l'aide d'un tableau.
x_{i} | x_{1} | x_{2} | ... | x_{n} |
---|---|---|---|---|
p\left(X = x_{i}\right) | p\left(X = x_{1}\right) | p\left(X = x_{2}\right) | ... | p\left(X = x_{n}\right) |
x_i | -2 | 1 | 3 | 5 |
---|---|---|---|---|
p\left(X=x_i\right) | 0,25 | 0,10 | 0,50 | 0,15 |
Si X est une variable aléatoire telle que X\left(\Omega\right)=\left\{ x_1;x_2;...;x_n \right\}, alors :
p\left(X = x_{1}\right) + p\left(X = x_{2}\right) +... + p\left(X = x_{n}\right) = 1
Dans la loi de probabilité suivante :
x_i | -2 | 1 | 3 | 5 |
---|---|---|---|---|
p\left(X=x_i\right) | 0,25 | 0,10 | 0,50 | 0,15 |
On a bien :
0{,}25+0{,}10+0{,}50+0{,}15=1
Espérance
L'espérance d'une variable aléatoire X prenant pour valeurs x_0, x_1,... x_n est le réel :
E\left(X\right) =\sum _{i=0}^{n}x_{i} P\left(X = x_{i}\right)=x_{0} P\left(X = x_{0}\right)+x_{1} P\left(X = x_{1}\right)+...+x_{n} P\left(X = x_{n}\right)
Dans la loi de probabilité suivante :
x_i | -2 | 1 | 3 | 5 |
---|---|---|---|---|
P\left(X=x_i\right) | 0,25 | 0,10 | 0,50 | 0,15 |
On calcule :
E\left(X\right)=-2\times0{,}25+1\times0{,}10+3\times0{,}50+5\times0{,}15=1{,}85
Pour tous réels a et b :
E\left(aX + b\right) = aE\left(X\right) + b
Soit une variable aléatoire X telle que E\left(X\right)=1{,}5, et soit la variable aléatoire Y définie par Y=2X-1. On a :
E\left(Y\right)=E\left(2X-1\right)=2\times E\left(X\right)-1=2\times 1{,}5-1=2
Variance
La variance d'une variable aléatoire X prenant pour valeurs x_0, x_1, ... x_n est le réel :
V\left(X\right) =\sum _{i=0}^{n}\left[x_{i} - E\left(X\right)\right]^{2} P\left(X = x_{i}\right)
On considère la loi de probabilité suivante :
x_i | -2 | 1 | 3 | 5 |
---|---|---|---|---|
P\left(X=x_i\right) | 0,25 | 0,10 | 0,50 | 0,15 |
On calcule d'abord l'espérance :
E\left(X\right)=-2\times0{,}25+1\times0{,}10+3\times0{,}50+5\times0{,}15=1{,}85
On peut ensuite calculer la variance :
V\left(X\right)=\left(-2-1{,}85\right)^2\times 0{,}25+\left(1-1{,}85\right)^2\times 0{,}10+\left(3-1{,}85\right)^2\times0{,}50+\left(5-1{,}85\right)^2\times0{,}15=5{,}9275
Avec les notations précédentes, la variance de la variable aléatoire X peut également se calculer de la façon suivante :
V\left(X\right) =\sum _{i=0}^{n}\left(x_{i} \right)^{2} P\left(X = x_{i}\right)-\left[ E\left(X\right) \right]^2
En reprenant l'exemple précédent, on a :
V\left(x\right)=\left(-2\right)^2\times 0{,}25+1^2\times 0{,}10+3^2\times0{,}50+5^2\times0{,}15-\left(1{,}85\right)^2=5{,}9275
Pour tous réels a et b :
V\left(aX + b\right) = a^{2}V\left(X\right)
Soit une variable aléatoire X telle que V\left(X\right)=1{,}5. Soit la variable aléatoire Y définie par Y=2X-1. On a :
V\left(Y\right)=V\left(2X-1\right)=2^2\times V\left(X\right)=4\times 1{,}5=6
Écart-type
L'écart-type d'une variable aléatoire X est le réel :
σ\left(X\right) =\sqrt{V\left(X\right)}
Si X est une variable aléatoire telle que V \left(X\right)=64, alors :
\sigma \left(X\right)=\sqrt{V\left(X\right)}=\sqrt{64}=8
La loi de Bernoulli
Épreuve de Bernoulli
Soit un réel p compris entre 0 et 1. Une épreuve de Bernoulli est une expérience aléatoire ne présentant que deux issues possibles :
- Succès, obtenu avec la probabilité p (nombre réel compris entre 0 et 1)
- Échec, obtenu avec la probabilité 1 - p
On choisit au hasard une paire de lunettes dans la production d'une usine et on regarde son état. On considère que 5% des lunettes sont défectueuses.
Cela constitue une épreuve de Bernoulli dont le succès est : "les lunettes choisies sont défectueuses", de probabilité p=0{,}05.
Loi de Bernoulli
Soit un réel p compris entre 0 et 1.
Une variable aléatoire X suit la loi de Bernoulli de paramètre p si :
- X\left(\Omega\right) = \{0 ; 1\}
- P\left(X = 1\right) = p et P\left(X = 0\right) = 1 - p
Espérance et variance d'une loi de Bernoulli
Si X suit la loi de Bernoulli de paramètre p, on a :
E\left(X\right) = p
V\left(X\right) = p\left(1 - p\right)
Si X suit la loi de Bernoulli de paramètre p=0{,}05, on a :
- E\left(X\right)=0{,}05
- V\left(X\right)=0{,}05\times0{,}95=0{,}0475
La loi binomiale
Loi binomiale
On appelle schéma de Bernoulli la répétition un certain nombre de fois d'une même épreuve de Bernoulli de façon indépendante. Notons n le nombre de répétitions et p le paramètre de l'épreuve de Bernoulli. La loi de probabilité de la variable aléatoire X qui à chaque réalisation du schéma de Bernoulli associe le nombre de succès est appelée loi binomiale de paramètres n et p, et notée B\left(n;p\right).
On choisit successivement, de manière aléatoire et indépendante, 10 paires de lunettes dans la production d'une usine. La production de lunettes est suffisamment importante pour considérer le tirage avec remise. On considère que 5% des lunettes sont défectueuses.
Cela constitue la répétition de n=10 épreuves de Bernoulli dont le succès est : "les lunettes choisies sont défectueuses", de probabilité p=0{,}05.
La variable aléatoire X qui, à chaque échantillon de 10 lunettes prises dans la production associe le nombre de lunettes défectueuses, suit la loi binomiale de paramètres n=10 et p=0{,}05.
Si une variable aléatoire X suit la loi binomiale de paramètres n et p, on a :
- X\left(\Omega\right) =\left\{ 0;1;...;n \right\}
- p\left(X = k\right) =\binom{n}{k}p^{k} \left(1 - p\right)^{n-k} pour tout k de X\left(\Omega\right)
Le coefficient \binom{n}{k}, égal au nombre de possibilités de placer les k succès parmi les n répétitions, est appelé coefficient binomial.
Dans l'exemple précédent, on peut calculer la probabilité de choisir 2 paires défectueuses :
p\left(X=2\right)=\binom{10}{2}\times 0{,}05^2\times0{,}95^8\approx0{,}0746
Espérance et variance d'une loi binomiale
Si une variable aléatoire X suit la loi binomiale de paramètres n et p, on a :
E\left(X\right) = np
V\left(X\right) = np\left(1 - p\right)
Si la variable aléatoire X suit la loi binomiale de paramètres n=10 et p=0{,}05, alors :
- E\left(X\right)=10\times0{,}05=0{,}5
- V\left(X\right)=10\times0{,}05\times0{,}95=0{,}475