Variables aléatoires et leurs propriétés
Soient $X,Y$ des variables aléatoires. $E$ désigne l'espérance et $V$ la variance des variables aléatoires.
Propriétés de l'espérance
Soit $a \in \mathbb{R}$. Si $X$ et $Y$ admettent des espérances, $aX$ et $X+Y$ admettent une espérance :
- $E(aX) = aE(X)$
- $E(X+Y) = E(X) + E(Y)$
Propriétés de la variance
Si $X$ admet une variance : $V(aX+b) = a^2V(X)$ pour tous $a,b \in \mathbb{R}$.
Théorème sur la variance de variables indépendantes
Si $X$ et $Y$ admettent des variances et si $X$ et $Y$ sont indépendantes : $V(X+Y) = V(X) + V(Y)$.
Loi de Bernoulli
Si une variable aléatoire $X$ suit une loi de Bernoulli de paramètre $p$ (avec $p \in ]0;1[$) alors :
- $E(X) = p$
- $V(X) = p(1-p)$
Loi binomiale
Si une variable aléatoire $X$ suit une loi binomiale de paramètres $n$ et $p$ (avec $n \in \mathbb{N}^*$ et $p \in ]0;1[$) alors :
- $E(X) = np$
- $V(X) = np(1-p)$
- $\sigma(X) = \sqrt{np(1-p)}$
Cette propriété découle directement du fait qu'une loi binomiale représente le nombre de succès dans une répétition d'épreuves de Bernoulli indépendantes. Le nombre de succès peut donc être représenté comme une somme de variables de Bernoulli indépendantes de même loi.
Échantillonnage
On considère un échantillon de taille $n$ d'une loi de probabilité : $(X_1, \ldots, X_n)$ variables indépendantes identiques suivant cette loi d'espérance $\mu$ et de variance $\sigma^2$.
Notations
On note :
- La somme de ces variables : $S_n = X_1 + \ldots + X_n$
- La moyenne de ces variables : $M_n = \displaystyle\frac{S_n}{n}$
Propriétés de l'espérance pour l'échantillonnage
L'espérance de la somme et de la moyenne sont données par :
- $E(S_n) = n\mu$
- $E(M_n) = \mu$
Propriétés de la variance pour l'échantillonnage
Si chacune des variables $X_i$ admet une variance :
- $V(S_n) = n\sigma^2$
- $V(M_n) = \displaystyle\frac{\sigma^2}{n}$