Loading [MathJax]/jax/output/HTML-CSS/jax.js

XI. Couples de variables aléatoires continues

Définitions. Probabilités marginales et conditionnelles. Fonction de répartition et densité de probabilité. Espérance mathématique de somme et de produit de variables aléatoires. Densité de probabilité d'une somme de variables indépendantes ; produit de convolution.

1. Définitions

Couple de variables aléatoires continues

Couple de variables aléatoires continues
Un couple de variables aléatoires continues (X,Y) est défini par sa densité de probabilité f(x,y). Cette densité doit respecter la condition de normalisation, c’est-à-dire que, intégrée à tout l’espace de probabilité, on doit avoir : ++f(x,y) dx dy=1

L’expression de la probabilité est classique : Pr{(x,y)A}=Af(x,y) dx dy

2. Probabilités marginales

Par analogie avec le cas des variables discrètes,on peut définir des variables marginales, les probabilités associées ainsi que les espérances mathématiques et les moments.

fx(x)=+f(x,y) dx dyx fixéfy(y)=+f(x,y) dx dyy fixé

D’où les valeurs moyennes marginales :

E(X)=+x fx(x) dx=++x f(x,y) dx dyE(Y)=+y fy(y) dy=++y f(x,y) dx dy

3. Probabilités conditionnelles

On part de la formule générale : Pr(B/A)=Pr(BA)Pr(A)

En se situant toujours sur un intervalle (dx,dy), cela reviendra à écrire : Pr(y<Y<y+dy / x<X<x+dx)=Pr(y<Y<y+dy, x<X<x+dx)Pr(x<X<x+dx)

En faisant tendre dx0, le premier membre peut s’écrire : Pr(y<Y<y+dy / X=x)=f(y/x) dx

On reconnaît l’expression de la densité de probabilité conditionnelle de y, x étant réalisée.

On peut alors écrire : Pr(y<Y<y+dy, x<X<x+dx)Pr(x<X<x+dx)=f(x,y) dx dyfx(x) dx=f(x,y) dyfx(x)

En définitive, les expressions respectives des densités de probabilité marginales seront : f(y/x)=f(x,y)fx(x);f(x/y)=f(x,y)fy(y)

4. Variables indépendantes

Dans ce cas, la réalisation de X n’a aucune influence sur la réalisation de Y. On obtient un résultat analogue à celui du cas discret : f(y/x)=fy(y)   f(x,y)=fx(x) fy(y)

5. Fonction de répartition

Fonction de répartition

Fonction de répartition
Le raisonnement est celui de la simple extension du cas discret, le déplacement du point courant P ne s’effectuant plus sur une droite mais sur une surface : F(α,β)=Pr(X<α, Y<β)=Pr(X,Y)(D)

avec le respect des conditions suivantes :

F(X,Y)>0F(+,+)=1(X,Y) est sûrement quelque partF(,y)=0X ne peut être inférieur à F(x,)=0Y ne peut être inférieur à 

6. Relations avec la densité de probabilité

Surface élémentaire

Surface élémentaire
Le calcul de la probabilité revient toujours à un calcul sur la fonction de répartition. Le recours à la représentation par une surface permet de mieux comprendre la formulation (additions et soustractions de surface) : Pr{(X,Y)D}=F(x2,y2)+F(x1,y1)F(x1,y2)F(x2,y1)

Posons : x2x1=Δx;y2y1=Δy

Et adoptons, pour la commodité des calculs, la convention suivante : x1xety1y

On a alors : Pr{(X,Y)D}=F(x+Δx, y+Δy)F(x, y+Δy)F(x+Δx, y)+F(x,y)

Divisons les deux membres de cette relation par Δx et Δy. Faisant Δx0 et Δy0, on a, (calcul analogue à celui d’une seule variable) : Pr{(X,Y)D}ΔxΔyf(x,y)densité de probabilité F(x+Δx, y+Δy)F(x, y+Δy)F(x+Δx, y)+F(x,y)ΔyΔx2Fx y

Ce qui revient à dire que : f(x,y)=2Fx y

7. Exemple. Étude complète

On considère le couple de variables aléatoires de densité de probabilité : f(x,y)=1π2(x2+y2+x2y2+1)

On voit immédiatement que l’on peut écrire : f(x,y)=1π(1+x2)1π(1+y2)

Et en déduire que : f(x,y)=fx(x) fy(x)

avec : fx(x)=1π(1+x2);fy(y)=1π(1+y2)

Ce qui signifie que les variables X et Y sont indépendantes.

On peut par ailleurs vérifier (normalisation de la densité) que : R2f(x,y) dx dy=1

On voit tout de suite que les variables d’intégration sont séparées, l’intégration double revenant au produit de deux intégrales identiques, de sorte que : I={+duπ(1+u2)}2=1π2[Atan(u)]+=1

Enfin, la probabilité pour qu’un point donné tombe dans un carré élémentaire [0<x<1,0<y<1] est égale à : J={10duπ(1+u2)}2=1π2(π4)2=116

8. Espérances mathématiques de sommes et de produits

Ces calculs d’intégration des espérances mathématiques de sommes et de produits sont élémentaires. Ils conduisent, ce qui peut se concevoir intuitivement, à :

E(X+Y)=E(X)+E(Y)dans tous les casE(XY)=E(X) E(Y)quand les variables sont indépendantes

9. Densité de probabilité d’une somme de variables indépendantes

On considère un couple (X,Y) de variables aléatoires indépendantes et leur somme S=X+Y.

On leur associe les densités de probabilité respectives : (X,Y)  f(x,y);S=X+Y  g(s)

On veut connaître l’expression de g(s) en considérant le domaine D délimité par les deux droites d’équation x+y=s et x+y=s+ds

La probabilité : Pr{M(x,y)D}=Df(x,y) dx dy

s’exprime par : g(s) ds=Pr(s<S<s+ds)=Pr(s<X+Y<s+ds)

On a donc : g(s) ds=+dxsx+dssxf(x,y) dy=ds+f(x,sx) dx

Soit : g(s)=+f(x,sx) dx

Si les variables sont indépendantes : f(x,sx)=f1(x) f2(sx)

On a alors le produit de convolution que l’on recherchait : g(s)=+f1(x) f2(sx) dx=(f1f2)(s)

Serveur miroir elan

sync. 2025-04-23 04:21

↑ Haut