Variables Aleatorias Bidimensionales Definición. Sean (X,Y) dos variables aleatorias discretas, entonces existe: pX,Y(x,y) = P(X = x , Y = y); (x,y) ∊ Rec (X,Y) llamada Distribución de Probabilidad Conjunta de (X,Y) o función de cuantía conjunta de (X,Y) tal que cumple con: 1.- 0 < p(x,y) < 1 2.p(x,y) 1 Re cX Re cY Definición. Sean (X,Y) dos variables aleatorias continuas , entonces existe: fX,Y(x,y) llamada función de densidad Conjunta de (X,Y) tal que cumple con: 1.- f(x,y) > 0 (x,y) ∊ Rec (X,Y) f(x , y )dydx 2.- 1 Re cX Re cY b d f(x , y )dydx 3.- P(a < X < b ; c < Y < d) = x ay c Definición. Sean (X,Y) dos variables aleatorias discretas, tal que p(x,y) es su función de probabilidad conjunta, entonces: p(x) = p(x, y) ; x ∊ Rec (X) Distribución de probabilidad Marginal de X p(x, y) ; y ∊ Rec (Y) Distribución de probabilidad Marginal de Y Re cY p(y) = Re cX p(x/y) = p(x, y) ; p(y) (x,y) ∊ Rec (X,Y) Distribución de probabilidad de X condicionada por Y p(y/x) = p(x, y) ; p( x ) (x,y) ∊ Rec (X,Y) Distribución de probabilidad de Y condicionada por X E(X / Y = yj) = RecX x p(x/ y j ) Esperanza de X condicionada por Y = yj V(X / Y = yj) = E(X2 / Y=yj) - [E(X / Y=yj) ]2 Varianza de X condicionada por Y = yj Covarianza(X,Y) = E[(X – E(X)(Y-E(Y)] = E(XY) – E(X)E(Y) xy p(x,y) E(XY) = Covarianza de X, Y Esperanza conjunta de (X,Y) Re cX Re cY ( X ,Y ) σ X,Y σXσ Y ; -1 ≤ ρ ≤ 1 Coeficiente de correlación lineal de Pearson (X,Y) σ X,Y =CoV (X,Y) P(X ≤ a / Y = b) = P(X E(X + Y) = E(X) + E(Y) a , Y=b) P(Y=b) Si X e Y son Variables Aleatorias Discretas Si X e Y son Variables Aleatorias Discretas o Continuas COORDINACIÓN Definición. Sean (X,Y) dos variables aleatorias continuas , tal que f(x,y) es su función de densidad conjunta, entonces: f(x) = f(x, y) dy; x Rec X Función de densidad Marginal de X f(x, y) dx; y Rec Y Función de densidad Marginal de Y Re cY f(y) = Re cX f(x/ y) f(x, y) f(y) Y=y j f(y/ x) f(x, y) Función de densidad de Y condicionada por X = xj f(x ) X =x j Función de densidad de X condicionada por Y = yj Por lo tanto: a E(X/ Y = y j ) f(x/ y = b) dx P(X ≤ a / Y = b) = f(x,y) = f(y)∙f(x/y) = f(x)∙f(y/x) x f(x/ Y = y j ) dx Esperanza de X condicionada por Y = yj Re cX V(X / Y = yj) = E(X2 / Y=yj) - [E(X / Y=yj) ]2 x y f(x, y) dydx E(XY) = Varianza de X condicionada por Y = yj Esperanza conjunta de (X,Y) Re cX Re cY Cov(X,Y) = E[(X – E(X)(Y-E(Y))] = E(XY) – E(X)E(Y) Covarianza de X, Y Propiedades de la Covarianza 1.- Cov(X , X) = V(X) ; Cov(Y , Y) = V(Y) 2.- Cov(aX +b , cY +d) = ac∙Cov(XY) a, b ,c, d ∊ ℝ 3.- Cov(aX + bY , cX +dY) = ac∙V(X) + bd∙V(Y) + (ad + bc)∙Cov(X , Y) a, b ,c, d ∊ ℝ Definición: Se dice que (X , Y) son variables aleatorias Independientes si y solo si: (x,y) ∊ Rec (X,Y) P(X = x , Y = y) = P( X =x)P(Y = y) f(x, y) = f(x)f(y) (x,y) ∊ Rec (X,Y) Si X e Y son v.a. discretas. Si X e Y son v.a. continuas. Consecuencias: Si X e Y son variables aleatorias independientes, entonces: E(XY) = E(X)E(Y) Cov(X , Y) = 0 (X, Y) = 0 V(X + Y) = V(X) + V(Y) + 2Cov(X , Y) = V(X) + V(Y) V(X - Y) = V(X) + V(Y) - 2Cov(X , Y) = V(X) + V(Y) p(x /y) = pX(x) ; p(y/x) = p(y); X N( X X+Y ; 2 X ) N( Y y sea X + Y ; 2 X E(X/Y=yj) = E(X); N( 2 Y ) Y ; 2 Y E(Y/X = xj) = E(Y) ) entonces X-Y N( X - Y ; 2 X 2 Y ) COORDINACIÓN