Indépendance

L'indépendance est une notion probabiliste qualifiant de manière intuitive des événements aléatoires n'ayant aucune influence l'un sur l'autre.



Catégories :

Probabilités

Page(s) en rapport avec ce sujet :

  • de tribus est dite indépendante si toute sous famille finie est indépendante.... Variables aléatoires indépendantes. Définition 2.13 Des v. a. (X_i, i\in I) ... dénombrables, une condition indispensable et suffisante d'indépendance est ... (source : proba.jussieu)
  • Pour les classes d'événements, la notion d'indépendance est définie comme suit... Indépendance d'une famille d'événements, de tribus ou de variables... (source : yopdf)
  • La probabilité de rejeter par erreur l'hypothèse d'indépendance est de moins de 0, 5 %. La relation entre les deux variables est par conséquent significative au seuil... (source : breizh)

L'indépendance est une notion probabiliste qualifiant de manière intuitive des événements aléatoires n'ayant aucune influence l'un sur l'autre. C'est une notion particulièrement importante en statistique et calcul de probabilités.

A titre d'exemple, la valeur d'un premier lancer de dés n'a aucune influence sur la valeur du second lancer. De même, pour un lancer, le fait d'obtenir une valeur inférieure ou égale à quatre n'influe en rien sur la probabilité que le résultat soit pair ou impair[1] : les deux événements sont dits indépendants.

L'indépendance ou non de deux événements n'est pas forcément facile à établir.

Indépendance de deux évènements

La définition mathématique de l'indépendance de deux évènements est la suivante :

Définition — A et B sont indépendants  \Leftrightarrow \mathbb{P}(A \cap B) = \mathbb{P}(A) \cdot \mathbb{P}(B).

La définition mathématique ci-dessus est assez peu parlante. Le lien entre le concept intuitif d'indépendance et la "formule produit" ci-dessus apparaît plus clairement si on introduit la notion de probabilité conditionnelle :

Définition — Si la probabilité conditionnelle de A sachant B, notée est définie par la relation ci-dessous :

\mathbb{P}(A\mid B)={\mathbb{P}(A \cap B) \over \mathbb{P}(B)}.

En excluant les cas spécifiques peu intéressants où B est impossible, et où B est certain, on peut alors reformuler la définition de l'indépendance de la manière suivante

Définition — Quand la probabilité de B n'est ni nulle, ni égale à 1, A et B sont indépendants si l'une des conditions suivantes, toutes équivalentes, est remplie :

\begin{align}\mathbb{P}(A\mid B)\ &=\ \mathbb{P}(A),\\\mathbb{P}(A\mid \overline{B})\ &=\ \mathbb{P}(A),\\\mathbb{P}(A\mid B)\ &=\ \mathbb{P}(A\mid \overline{B})nd{align}

Ainsi les évènements A et B sont dits indépendants si notre pronostic sur l'évènement A est le même :

C'est à dire, A est dit indépendant de B si notre pronostic sur l'évènement A n'est affecté par aucune information concernant B, ni par l'absence d'information concernant B. On peut échanger les rôles de A et de B dans la définition utilisant les probabilités conditionnelles, à condition évidemment d'exclure les cas spécifiques peu intéressants où A est impossible, et où A est certain.

Bien que la définition utilisant les probabilités conditionnelles soit plus intuitive, elle présente l'inconvénient d'être moins générale, et de ne pas faire jouer un rôle symétrique aux deux événements A et B.

Notons d'autre part qu'un évènement certain A est indépendant de tout évènement B quel qu'il soit. Un évènement impossible est aussi indépendant de tout autre évènement. Surtout, un événement A est indépendant de lui-même à la condition que A soit soit certain, soit impossible. En effet, si l'événement A est indépendant de lui-même, on peut écrire :

\mathbb{P}(A) = \mathbb{P}(A \cap A) = \mathbb{P}(A)\mathbb{P}(A),\,

et on en déduit que la probabilité de l'événement A vaut soit 0, soit 1.

Indépendance de n évènements

La notion d'indépendance peut être étendue à n événements, via la notion d'indépendance des tribus, mais on va plutôt donner ici deux critères plus lisibles :

Critère 1 — n événements sont dits indépendants si et uniquement si, pour toute partie on a

\mathbb{P}\left(\bigcap_{i\in I}\ A_i\right)\ =\ \prod_{i\in I}\ \mathbb{P}(A_i).

Le nombre total de conditions à vérifier est par conséquent le nombre de parties possédant au moins deux éléments, à savoir :

{n\choose 2} + {n\choose 3} + \cdots + {n\choose n} = 2ˆ{n} - (n+1).

L'indépendance des n évènements entraîne que

\mathbb{P}(A_1 \cap \cdots \cap A_n)=\mathbb{P}(A_1)\,\cdots\,\mathbb{P}(A_n),

ce qui correspond au choix spécifique mais est une propriété bien plus faible que l'indépendance. Dans le même esprit, comme on le constate dans l'exemple ci-dessous, n événements peuvent être indépendants deux à deux, ce qui correspond à vérifier la propriété pour l'ensemble des parties à 2 éléments, sans pour tout autant être indépendants :

Exemple :

On lance deux dés et on pose

  • A1 : le résultat du lancer du dé n°1 est pair,
  • A2 : le résultat du lancer du dé n°2 est pair,
  • A3 : la somme des résultats des 2 lancers est impaire.

On a

\mathbb{P}(A_1 \cap A_2 \cap A_3)\ =\ 0\ \neq\ \tfrac18\ =\ \mathbb{P}(A_1)\mathbb{P}(A_2)\mathbb{P}(A_3),

tandis que, néenmoins, pour choisis arbitrairement,

\mathbb{P}(A_i)=\mathbb{P}(A_j)=\tfrac12\quad\text{et}\quad\mathbb{P}(A_i\cap A_j)=\tfrac14.

Critère 2 — n événements sont dits indépendants si et uniquement si, pour tout choix de on a

\mathbb{P}\left(\bigcap_{i= 1}ˆn\ A_iˆ{\varepsilon_i}\right)\ =\ \prod_{i=1}ˆn\ \mathbb{P}(A_iˆ{\varepsilon_i}),

où, par convention, et

Indépendance des variables aléatoires

Définitions

Il y a plusieurs définitions équivalentes de l'indépendance d'une famille finie de variables aléatoires. On peut surtout définir l'indépendance d'une famille de tribus, et voir ensuite l'indépendance des évènements et l'indépendance des variables aléatoires comme des cas spécifiques de l'indépendance des tribus. Cela sert à démontrer certains résultats généraux sur l'indépendance une seule fois, pour les tribus, puis d'en déduire la version "évènements" et la version "variables aléatoires" de ce résultat général immédiatement (un exemple est le lemme de regroupement). Cependant, il est peut-être préférable de donner en premier lieu deux définitions de l'indépendance des variables aléatoires qui soient opératoires pour les applications, et quelques critères commodes. Dans ce qui suit on considère une suite de variables aléatoires définies sur le même espace de probabilité, mais peut-être à valeurs dans des espaces différents :

Définition —  est une suite de variables aléatoires indépendantes si l'une des deux conditions suivantes est remplie :

  • \forall (A_1,\dots,A_n)\in\mathcal{E}_1\times\dots\times\mathcal{E}_n,\quad\mathbb{P}(X_1\in A_1\text{ et }X_2\in A_2\text{ et }\dots\text{ et }X_n\in A_n)\ =\  \prod_{i=1}ˆn\mathbb{P}(X_i\in A_i),
  • on a l'égalité
\mathbb{E}\left[\prod_{i=1}ˆn\ \varphi_i(X_i)\right]\ =\  \prod_{i=1}ˆn\mathbb{E}\left[\varphi_i(X_i)\right],
pour n'importe quelle suite de fonctions définies sur à valeurs dans dès que les espérances ci-dessus ont un sens.

Les espérances ci-dessus ont un sens si les sont mesurables, et si est intégrable, ou si les sont positives ou nulles. Typiquement, dans les applications, Dans le cas de deux variables aléatoires réelles cela donne :

Définition — Deux variables aléatoires réelles X et Y sont indépendantes si l'une des deux conditions suivantes est remplie :

  • \forall (A,B)\in\mathcal{B}(\mathbb{R})ˆ{2},\quad\mathbb{P}(X\in A\text{ et }Y\in B)\ =\  \mathbb{P}(X\in A)\ \mathbb{P}(Y\in B),
  • on a
\mathbb{E}\left[g(X)\cdot h(Y)\right] = \mathbb{E}[g(X)]\cdot \mathbb{E}[h(Y)]
pour tout couple de fonctions boréliennes et dès que les espérances ci-dessus ont un sens.

Cas des variables aléatoires à densité

Soit une suite de variables aléatoires réelles définies sur le même espace de probabilité

Théorème — 

\forall x=(x_1,\dots,x_n)\in\Rˆn,\qquad f(x)\ =\  \prod_{i=1}ˆng_i(x_i),
où les fonctions sont boréliennes et positives ou nulles, alors est une suite de variables indépendantes. Qui plus est , la fonction définie par
f_i(x)\ =\  \frac{g_i(x)}{\int_{\R}g_i(u)du}
est une densité de probabilité de la variable aléatoire
  • Réciproquement, si est une suite de variables aléatoires réelles indépendantes de densités de probabilité respectives alors possède une densité de probabilité, et la fonction définie par
\forall (x_1,\dots,x_n)\in\Rˆn,\qquad f(x_1,\dots,x_n)\ =\  \prod_{i=1}ˆnf_i(x_i),
est une densité de probabilité de

Cas des variables discrètes

Dans le cas des variables discrètes, un critère d'indépendance utile est le suivant :

Cas discret — Soit X= (X1, X2, ..., Xn) une suite de variables aléatoires discrètes, et soit (S1, S2, ..., Sn) une suite d'ensembles finis ou dénombrables tels que, pour tout i≤n, Alors la famille (X1, X2, ..., Xn) est une suite de variables aléatoires indépendantes si, pour tout

 \mathbb{P}\left(X= x\right)\ =\ \prod_{i=1}ˆn\,\mathbb{P}\left(X_i= x_i\right).
Loi uniforme sur un produit cartésien :
  • Soit (E1, E2, ..., En) une suite d'ensembles finis, de cardinaux respectifs #Ei, et soit X= (X1, X2, ..., Xn) une variable aléatoire uniforme à valeurs dans le produit cartésien :
 E\ =\ E_1\times E_2\times E_3\times\ \dots\ \times E_n.
Alors la suite X est une suite de variables aléatoires indépendantes, et , pour chaque i, la variable aléatoire Xi suit la loi uniforme sur Ei. En effet, considérons une suite Y= (Yi) 1≤i≤n de variables aléatoires indépendantes, chaque Yi étant uniforme sur la totalité Ei correspondant. Alors, pour tout élément x= (x1, x2, ..., xn) de E,
 \begin{align}\mathbb{P}\left(X= x\right)&=\frac1{\# E}\\
&=\prod_{i=1}ˆn\frac1{\# E_i}\\
&=\prod_{i=1}ˆn\,\mathbb{P}\left(Y_i= x_i\right)\\
&= \mathbb{P}\left(Y= x\right),\end{align}
la seconde égalité résultant de la formule donnant le cardinal d'un produit cartésien d'ensembles, la 4ème de l'indépendance des Yi, les autres égalités résultant de la définition de la loi uniforme. Ainsi les suites X et Y ont même loi, ce qui entraîne quoique X est une suite de variables aléatoires indépendantes dont les composantes suivent des lois uniformes.
  • Une application de ce critère est l'indépendance des composantes du code de Lehmer d'une permutation, qui permet d'obtenir simplement la fonction génératrice des nombres de Stirling de première espèce.
  • Un autre application est l'indépendance des chiffres du développement décimal d'un nombre uniforme dans l'intervalle [0, 1].

Autres critères d'indépendance

A titre d'exemple,

Critères — Soit X et Y deux variables aléatoires réelles définies sur un espace probabilisé

  • Si, pour tout couple (x, y) de nombres réels,
 \mathbb{P}\left(X\le x\text{ et }Y\le y\right)\ =\ \mathbb{P}\left(X\le x\right)\times\mathbb{P}\left(Y\le y\right),
alors X et Y sont indépendantes.
  • Si Y est à valeurs dans et si, pour tout couple
 \mathbb{P}\left(X\le x\text{ et }Y=n\right)\ =\ \mathbb{P}\left(X\le x\right)\times\mathbb{P}\left(Y=n\right),
alors X et Y sont indépendantes.
  • Bien sûr, si X et Y sont à valeurs dans et si, pour tout couple
 \mathbb{P}\left(X=m\text{ et }Y=n\right)\ =\ \mathbb{P}\left(X=m\right)\times\mathbb{P}\left(Y=n\right),
alors X et Y sont indépendantes.

A titre d'exemple, on peut utiliser le deuxième critère pour démontrer que dans la méthode de rejet, le nombre d'itérations est indépendant de l'objet aléatoire (fréquemment un nombre aléatoire) génèré au terme de ces itérations.

On peut généraliser ces critères d'indépendance à des familles finies quelconques de variables aléatoires réelles, dont certaines, peut-être, sont des variables discrètes, à valeurs dans des parties finies ou dénombrables de peut-être différentes de La démonstration de ces critères se trouve à la page "Lemme de classe monotone".

Indépendance et corrélation

L'indépendance implique que la covariance, et par conséquent la corrélation, entre les deux variables est nulle :

Théorème — X et Y sont indépendantes \Rightarrow \operatorname{Cov}(X,Y)=\operatorname{Corr}(X,Y)=0

La réciproque du théorème est fausse, comme le montre l'exemple suivant :

Exemple :

Cet exemple est tiré de Ross (2004, p. 306)

  • Soit X une variable aléatoire discrète telle que  \mathbb{P}(X=0)=\mathbb{P}(X=1)=\mathbb{P}(X=-1)=\frac{1}{3}.
  • Définissons Y en relation avec X :  \begin{cases} 
0 & \text{si } X\neq 0\\
1 & \text{si } X= 0\\
\end{cases}
  • On calcule \operatorname{E}[XY]= \frac{1}{3}(0\cdot 1)+\frac{1}{3}(1\cdot 0)+\frac{1}{3}(-1\cdot 0)=0.
  • On voit aussi que \operatorname{E}[X]= \frac{1}{3}(0)+\frac{1}{3}(1)+\frac{1}{3}(-1)=0+1-1=0.
  • donc : \operatorname{cov}(X, Y) = \operatorname{E}(X Y) - \operatorname{E}(X)\operatorname{E}(Y)=0-0=0.
  • Pourtant les deux variables ne sont bien bien entendu pas indépendantes!

La non-corrélation entre X et Y est une propriété plus faible que l'indépendance. En fait l'indépendance entre X et Y est équivalente à la non-corrélation de φ (X) et de ψ (Y) pour tout choix de φ et de ψ (tels que la covariance de φ (X) avec ψ (Y) soit définie... ).

Indépendance des tribus

Définition — Dans un espace probabilisé

  • une famille finie de tribus incluses dans est une famille de tribus indépendantes si et uniquement si
\forall (A_i)_{i\in I}\in\prod_{i\in I}\mathcal{A}_i,\qquad \mathbb{P}\left(\bigcap_{i\in I}A_i\right)=\ \prod_{i\in I}\ \mathbb{P}(A_i).
  • une famille quelconque de tribus incluses dans est une famille de tribus indépendantes si et uniquement si toute sous famille finie de est une famille de tribus indépendantes (c'est-à dire, si et uniquement si, pour toute partie finie I de J, est une famille de tribus indépendantes).

Lien avec l'indépendance des évènements

Définition —  Une famille d'évènements (i. e. d'éléments de) est une famille d'évènements indépendants si et uniquement si est une famille de tribus indépendantes.

Comme la tribu génèrée par est décrite par :

\sigma(A)\ =\ \left\{A,\overline{A},\Omega,\emptyset\right\},

la définition donnée dans cette section pour une famille quelconque d'évènements, une fois particularisée à une famille de évènements, apparait comme plus forte que les deux critères donnés plus haut. En effet, pour un choix approprié des évènements dans la définition

\left\{\forall (B_i)_{1\le i\le n}\in\prod_{i=1}ˆn\sigma({A}_i),\qquad \mathbb{P}\left(\bigcap_{i=1}ˆnB_i\right)=\ \prod_{i=1}ˆn\ \mathbb{P}(B_i)\right\},

donnée dans cette section, on retrouve le critère 1 (choisir tantôt tantôt dans) et le critère 2 (choisir tantôt tantôt dans). Néenmoins les critères 1 et 2 sont effectivement équivalents à la définition via les tribus, donnée dans cette section, mais cela mérite démonstration.

Lien avec l'indépendance des variables aléatoires

Définition —  Une famille de variables aléatoires définies sur est une famille de variables aléatoires indépendantes si et uniquement si est une famille de tribus indépendantes.

Comme la tribu génèrée une variable aléatoire définie de dans est définie par :

\sigma(X)\ =\ \left\{Xˆ{-1}(B)\ \left|\ B\in\mathcal{E}\right.\right\},

la définition donnée dans cette section pour une famille quelconque de variables aléatoires, une fois particularisée à une famille de variables aléatoires, est clairement équivalente à la définition de la section Indépendance des variables aléatoires. En effet

\mathbb{P}\left(X_1\in A_1\text{ et }X_2\in A_2\text{ et }\dots\text{ et }X_n\in A_n\right)

est un abus de notation pour

\mathbb{P}\left(\bigcap_{i=1}ˆnX_iˆ{-1}(A_i)\right),

et

\mathbb{P}\left(X_i\in A_i\right)

est un abus de notation pour

\mathbb{P}\left(X_iˆ{-1}(A_i)\right).

Propriétés élémentaires

Propriétés — 

  • Une sous-famille d'une famille de tribus indépendantes est une famille de tribus indépendantes : si la famille est une famille de tribus indépendantes et si alors est une famille de tribus indépendantes.
  • Si, pour tout la tribu est incluse dans la tribu et si la famille est une famille de tribus indépendantes, alors la famille est une famille de tribus indépendantes.

Pour démontrer le premier point on applique la définition de l'indépendance à la famille en spécialisant à une famille d'évènements telle que Le second point est immédiat : il suffit d'écrire la définition de l'indépendance de la famille

Lemme de regroupement

Lemme de regroupement — Dans un espace probabilisé soit une famille quelconque de tribus indépendantes incluses dans Soit une partition de Notons

\mathcal{B}_i= \mathop{\vee}_{j\in P_i}\ \mathcal{A}_{j}

la tribu génèrée par

\bigcup_{j\in P_i}ˆ{}\ \mathcal{A}_{j}.

Alors la famille est une famille de tribus indépendantes.

Applications :

Le lemme de regroupement est utilisé, en probabilités, fréquemment et de manière quasi-inconsciente. Voici quelques exemples :

De manière plus élémentaire,

  • dans le cas fini, si (X1, X2, X3, X4, X5) est une famille de variables indépendantes, et si ƒ et g sont deux fonctions quelconques (mesurables), alors, par application du lemme de regroupement, ƒ (X2, X3, X5) et g (X1, X4) sont deux variables indépendantes, car {2, 3, 5} et {1, 4} forment une partition de {1, 2, 3, 4, 5}.

Indépendance et information

Une autre façon d'appréhender cette notion d'indépendance entre deux événements est de passer par l'information (au sens de la théorie de l'information)  : deux événements sont indépendants si l'information apportée par le premier événement ne donne aucune information sur le deuxième événement.

Soit à tirer deux boules (rouge et blanche) d'une urne. Si on réalise l'expérience sans remettre la boule tirée dans l'urne, et que la première boule tirée est rouge, on peut déduire de cette information que la seconde boule tirée sera blanche. Les deux événements ne sont par conséquent pas indépendants.

Par contre, si on remet la première boule dans l'urne avant un deuxième tirage, l'information du premier événement (la boule est rouge) ne nous donne aucune information sur la couleur de la seconde boule. Les deux événements sont par conséquent indépendants.

Cette approche est surtout utilisée en analyse en composantes indépendantes.

Voir aussi

Notes

  1. En effet \mathbb{P}(x\mod 2=0|x\in \{1,2,3,4\}) = \frac{1}{2} = 
\mathbb{P}(x\mod 2=0|x\in \{1,2,3,4,5,6\})

Références

Recherche sur Amazon (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Ind%C3%A9pendance_(probabilit%C3%A9s).
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 10/03/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu