Variables aléatoires et leurs propriétés

Soient $X,Y$ des variables aléatoires. $E$ désigne l'espérance et $V$ la variance des variables aléatoires.

Propriétés de l'espérance

Soit $a \in \mathbb{R}$. Si $X$ et $Y$ admettent des espérances, $aX$ et $X+Y$ admettent une espérance :

  • $E(aX) = aE(X)$
  • $E(X+Y) = E(X) + E(Y)$

Propriétés de la variance

Si $X$ admet une variance : $V(aX+b) = a^2V(X)$ pour tous $a,b \in \mathbb{R}$.

Théorème sur la variance de variables indépendantes

Si $X$ et $Y$ admettent des variances et si $X$ et $Y$ sont indépendantes : $V(X+Y) = V(X) + V(Y)$.

Loi de Bernoulli

Si une variable aléatoire $X$ suit une loi de Bernoulli de paramètre $p$ (avec $p \in ]0;1[$) alors :

  • $E(X) = p$
  • $V(X) = p(1-p)$

Loi binomiale

Si une variable aléatoire $X$ suit une loi binomiale de paramètres $n$ et $p$ (avec $n \in \mathbb{N}^*$ et $p \in ]0;1[$) alors :

  • $E(X) = np$
  • $V(X) = np(1-p)$
  • $\sigma(X) = \sqrt{np(1-p)}$
Remarque

Cette propriété découle directement du fait qu'une loi binomiale représente le nombre de succès dans une répétition d'épreuves de Bernoulli indépendantes. Le nombre de succès peut donc être représenté comme une somme de variables de Bernoulli indépendantes de même loi.

Échantillonnage

On considère un échantillon de taille $n$ d'une loi de probabilité : $(X_1, \ldots, X_n)$ variables indépendantes identiques suivant cette loi d'espérance $\mu$ et de variance $\sigma^2$.

Notations

On note :

  • La somme de ces variables : $S_n = X_1 + \ldots + X_n$
  • La moyenne de ces variables : $M_n = \displaystyle\frac{S_n}{n}$
Propriétés de l'espérance pour l'échantillonnage

L'espérance de la somme et de la moyenne sont données par :

  • $E(S_n) = n\mu$
  • $E(M_n) = \mu$
Propriétés de la variance pour l'échantillonnage

Si chacune des variables $X_i$ admet une variance :

  • $V(S_n) = n\sigma^2$
  • $V(M_n) = \displaystyle\frac{\sigma^2}{n}$

EN RÉSUMÉ