Probabilité conditionnelle
Soient A et B deux événements, avec A de probabilité non nulle.
On définit la probabilité de B sachant A par :
P_{A}\left(B\right) =\dfrac{P\left(A \cap B\right)}{P\left(A\right)}
Evénements indépendants
Deux événements A et B sont indépendants si et seulement si :
P\left(A \cap B\right) = P\left(A\right) \times P\left(B\right)
Formule des probabilités totales
Soit {E_{1}, E_{2}, E_{3},..., E_{k}} un système complet d'événements de l'univers \Omega.
D'après la formule des probabilités totales, pour tout événement A de E :
P\left(A\right) = P\left(A \cap E_{1}\right) + P\left(A \cap E_{2}\right) + P\left(A \cap E_{3}\right) +... + P\left(A \cap E_{k}\right)
Loi binomiale
Soit un réel p compris entre 0 et 1 et n un entier naturel non nul.
Le nombre de succès dans la répétition de n épreuves de Bernoulli identiques et indépendantes suit la loi binomiale de paramètres n et p.
Une variable aléatoire suit ainsi la loi binomiale de paramètres n et p, notée B\left(n ; p\right), si :
- X\left(\Omega\right) = [\![0 ; n]\!]
- \forall k \in [\![0 ; n]\!] \text{ , } P\left(X = k\right) =\binom{n}{k}p^{k} \left(1 - p\right)^{n-k}
Le coefficient \binom{n}{k} est égal au nombre de possibilités de placer les k succès parmi les n répétitions.
Espérance et variance d'une loi binomiale
Si X suit la loi binomiale de paramètres n et p, on a :
E\left(X\right) = np
V\left(X\right) = np\left(1 - p\right)