1. Définitions
L’expression de la probabilité est classique : Pr{(x,y)∈A}=∫∫Af(x,y) dx dy
2. Probabilités marginales
Par analogie avec le cas des variables discrètes,on peut définir des variables marginales, les probabilités associées ainsi que les espérances mathématiques et les moments.
fx(x)=∫+∞−∞f(x,y) dx dyx fixéfy(y)=∫+∞−∞f(x,y) dx dyy fixé
D’où les valeurs moyennes marginales :
E(X)=∫+∞−∞x fx(x) dx=∫+∞−∞∫+∞−∞x f(x,y) dx dyE(Y)=∫+∞−∞y fy(y) dy=∫+∞−∞∫+∞−∞y f(x,y) dx dy
3. Probabilités conditionnelles
On part de la formule générale : Pr(B/A)=Pr(B∩A)Pr(A)
En se situant toujours sur un intervalle (dx,dy), cela reviendra à écrire : Pr(y<Y<y+dy / x<X<x+dx)=Pr(y<Y<y+dy, x<X<x+dx)Pr(x<X<x+dx)
En faisant tendre dx→0, le premier membre peut s’écrire : Pr(y<Y<y+dy / X=x)=f(y/x) dx
On reconnaît l’expression de la densité de probabilité conditionnelle de y, x étant réalisée.
On peut alors écrire : Pr(y<Y<y+dy, x<X<x+dx)Pr(x<X<x+dx)=f(x,y) dx dyfx(x) dx=f(x,y) dyfx(x)
En définitive, les expressions respectives des densités de probabilité marginales seront : f(y/x)=f(x,y)fx(x);f(x/y)=f(x,y)fy(y)
4. Variables indépendantes
Dans ce cas, la réalisation de X n’a aucune influence sur la réalisation de Y. On obtient un résultat analogue à celui du cas discret : f(y/x)=fy(y) →f(x,y)=fx(x) fy(y)
5. Fonction de répartition
avec le respect des conditions suivantes :
F(X,Y)>0F(+∞,+∞)=1(X,Y) est sûrement quelque partF(−∞,y)=0X ne peut être inférieur à −∞F(x,−∞)=0Y ne peut être inférieur à −∞
6. Relations avec la densité de probabilité
Posons : x2−x1=Δx;y2−y1=Δy
Et adoptons, pour la commodité des calculs, la convention suivante : x1→xety1→y
On a alors : Pr{(X,Y)∈D}=F(x+Δx, y+Δy)−F(x, y+Δy)−F(x+Δx, y)+F(x,y)
Divisons les deux membres de cette relation par Δx et Δy. Faisant Δx→0 et Δy→0, on a, (calcul analogue à celui d’une seule variable) : Pr{(X,Y)∈D}ΔxΔy→f(x,y)densité de probabilité F(x+Δx, y+Δy)−F(x, y+Δy)−F(x+Δx, y)+F(x,y)ΔyΔx→∂2F∂x ∂y
Ce qui revient à dire que : f(x,y)=∂2F∂x ∂y
7. Exemple. Étude complète
On considère le couple de variables aléatoires de densité de probabilité : f(x,y)=1π2(x2+y2+x2y2+1)
On voit immédiatement que l’on peut écrire : f(x,y)=1π(1+x2)⋅1π(1+y2)
Et en déduire que : f(x,y)=fx(x) fy(x)
avec : fx(x)=1π(1+x2);fy(y)=1π(1+y2)
Ce qui signifie que les variables X et Y sont indépendantes.
On peut par ailleurs vérifier (normalisation de la densité) que : ∫∫R2f(x,y) dx dy=1
On voit tout de suite que les variables d’intégration sont séparées, l’intégration double revenant au produit de deux intégrales identiques, de sorte que : I={∫+∞−∞duπ(1+u2)}2=1π2[Atan(u)]+∞−∞=1
Enfin, la probabilité pour qu’un point donné tombe dans un carré élémentaire [0<x<1,0<y<1] est égale à : J={∫10duπ(1+u2)}2=1π2(π4)2=116
8. Espérances mathématiques de sommes et de produits
Ces calculs d’intégration des espérances mathématiques de sommes et de produits sont élémentaires. Ils conduisent, ce qui peut se concevoir intuitivement, à :
E(X+Y)=E(X)+E(Y)dans tous les casE(XY)=E(X) E(Y)quand les variables sont indépendantes
9. Densité de probabilité d’une somme de variables indépendantes
On considère un couple (X,Y) de variables aléatoires indépendantes et leur somme S=X+Y.
On leur associe les densités de probabilité respectives : (X,Y) → f(x,y);S=X+Y → g(s)
On veut connaître l’expression de g(s) en considérant le domaine D délimité par les deux droites d’équation x+y=s et x+y=s+ds
La probabilité : Pr{M(x,y)∈D}=∫∫Df(x,y) dx dy
s’exprime par : g(s) ds=Pr(s<S<s+ds)=Pr(s<X+Y<s+ds)
On a donc : g(s) ds=∫+∞−∞dx∫s−x+dss−xf(x,y) dy=ds∫+∞−∞f(x,s−x) dx
Soit : g(s)=∫+∞−∞f(x,s−x) dx
Si les variables sont indépendantes : f(x,s−x)=f1(x) f2(s−x)
On a alors le produit de convolution que l’on recherchait : g(s)=∫+∞−∞f1(x) f2(s−x) dx=(f1⋆f2)(s)