Indépendance en probabilité élémentaire

L'étude de l'indépendance d'événements ou d'expériences consiste à chercher si les événements ou les expériences sont liées ou se produisent indépendamment l'une de l'autre.



Catégories :

Mathématiques élémentaires

Page(s) en rapport avec ce sujet :

  • Retour page glossaire ⇒. Indépendance en probabilité élémentaire... L'étude de l'indépendance d'événements ou d'expériences consiste à chercher si... Les probabilités ont construit leur définition (Une définition est un discours qui... (source : techno-science)
  • I. PROBABILITÉS (RAPPELS de la classe de 1er). 1. Expériences aléatoires et modèles... + pn = 1 ; pi est la probabilité élémentaire de l'événement {ai} et on note.... La notion d'indépendance dépend de la probabilité sur l'univers, ... (source : pagesperso-orange)
  • 4 - Probabilité Conditionnelle ; Indépendance et Théorème de Bayes... 3.2 Expérience aléatoire, ensemble essentiel et événements... est nommé événement élémentaire. La totalité vide Ø ne contient aucun des résultats envisageables : il ... (source : chups.jussieu)
Icone math élém.jpg
Cet article est membre de la série
Mathématiques élémentaires
Algèbre
Logique
Arithmétique
Probabilités
Statistiques

L'étude de l'indépendance d'événements ou d'expériences consiste à chercher si les événements ou les expériences sont liées ou se produisent indépendamment l'une de l'autre (On peut raisonnablement penser que le fait de boire de l'alcool et celui de provoquer un accident ne sont pas indépendants l'un de l'autre). Les probabilités ont construit leur définition de l'indépendance à partir de la notion d'indépendance en statistique : un caractère statistique est indépendant du sexe, par exemple, si la distribution du caractère est semblable, qu'on prenne la population totale, la population masculine ou la population féminine.

Indépendance d'événements

Si A et B sont deux événements de probabilité non nulle, on dit que A et B sont indépendants si :

P(B) = P_A(B) = P(B|A)\,

(la distribution de B dans l'univers entier est semblable à celle de B dans le sous-univers A)

La définition de la probabilité conditionnelle de B sachant A :

P(B|A) = P_A(B) = \dfrac{P(B\cap A)}{P(A)} = \dfrac{P(B }{P(A)}

induit immédiatement deux autres définitions équivalentes de l'indépendance :

Exemple 1

Dans le lancer d'un dé équilibré, les événements A = «obtenir un numéro pair» = {2; 4; 6} et B = «obtenir un multiple de 3» = {3; 6} sont des événements indépendants. La répartition des nombres pairs dans l'univers Ω = {1 ; 2 ; 3; 4 ; 5 ; 6} est semblable à celle des nombres pairs dans B.

Traduit sous forme de probabilité, cela donne :

P(A) = P_B(A) = 1/2\,.

On peut aussi simplement observer que :

P(A) = 1/2, P(B) = 1/3\,

et que

P(A\cap B) = P(A° = P(\{6\}) = 1/6 = P(A).P(B)\,.

D'autre part, les événements A =«obtenir un nombre pair» = {2; 4; 6\} et C = «obtenir au moins 4» = {4; 5; 6} ne sont pas indépendants car la répartition des nombres pairs dans l'univers de départ est de 1/2 et la répartition dans le sous-univers C est de 2/3.

On peut aussi simplement observer que :

P(A\cap C) = P(\{4 ; 6\}) = 1/3 \neq\ P(A).P(C) = 1/4\,
Exemple 2 

Deux événements incompatibles, de probabilité non nulle ne sont jamais indépendants. En effet, leur intersection étant vide, la probabilité de l'intersection est nulle tandis que ni P (A), ni P (B) n'est nul.

Exemple 3 

Si deux événements A et B sont indépendants alors l'évenement A et le contraire de l'événément B sont aussi indépendants. En effet,

P(A \cap \overline{B}) = P(A) - P(A \cap B)
P(A \cap \overline{B}) = P(A) -P(A).P(B)
P(A \cap \overline{B}) = P(A) (1-P(B)) = P(A).P(\overline{B})

Indépendance d'expériences

On considère une expérience 1 conduisant à la création d'un univers Ω1 pourvu d'une probabilité P1, et d'une expérience 2 conduisant à la création d'un univers Ω2 pourvu d'une probabilité P2. La conjonction des deux expériences conduit à la création d'un univers produit Ω constitué de couples d'éléments de Ω1 et Ω2, cet univers se note Ω1 × Ω1. On dira que les expériences sont indépendantes si on peut créer sur Ω une probabilité P produit des deux précédentes telle que P (A × B) =P1 (A) × P2 (B), pour tous événements A de Ω1 et B de Ω2.

Exemples 

Indépendances de variables aléatoires

Dans le cas de variables aléatoires X et Y définies sur un univers Ω fini, on dira que les variables aléatoires X et Y sont indépendantes si les événements {X=xi} et {Y=yj} sont indépendants pour tous xi de X (Ω) et yj de Y (Ω).

L'indépendance de variables aléatoires X et Y continues sort du cadre des mathématiques élémentaires. Deux variables aléatoires X et Y continues sont indépendantes lorsque

P(X\le x\ et\ Y\le y) = P(X\le x).P(Y\le y)\,

c'est-à-dire

F_{X+Y}(x,y) = F_X(x)ðY(y)\,.

On démontre que quand les variables aléatoires sont indépendantes, la covariance de (X, Y) est nulle et

V(X + Y) = V(X) + V(Y)\ .

Voir aussi

Recherche sur Amazon (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Ind%C3%A9pendance_en_probabilit%C3%A9_%C3%A9l%C3%A9mentaire.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 10/03/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu