TEMA 2. VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES DE PROBABILIDAD 1. CONCEPTO DE VARIABLE ALEATORIA Dado un espacio de probabilístico (Ω, A, P), se ha definido, en el tema anterior, la probabilidad, como una función P: A → R que asocia a cada suceso (conjunto) contenido en A un número real que, como se ha visto, está comprendido en [0,1]. Se trata pues de una función que asocia a un conjunto un número y, por tanto, es una función definida sobre conjuntos y no sobre números reales, como es lo habitual. Por lo tanto, al no ser una función definida sobre R, no se le pueden aplicar las reglas clásicas del cálculo infinitesimal, lo que constituye una barrera para poder construir un desarrollo basado en el cálculo clásico, en cuanto a la teoría derivada del concepto de probabilidad (función) adoptado. Se hace pues necesario, llegar a trabajar con funciones reales de valores reales y, para ello, se introducen los conceptos que se dan a continuación. Dado un espacio probabilístico (Ω, A, P), una variable aleatoria X, es una función X: Ω → R que asocia a cada elemento de Ω un valor real, y tal que la imagen inversa de X, de cualquier intervalo de la forma (-∞,x+ es un suceso de A. En esta definición hay que considerar varias cuestiones. La primera es que la variable aleatoria tiene como misión asociar a cada resultado (elemental) del experimento un valor numérico. Se puede decir, por tanto, que la variable aleatoria tiene como misión transformar los resultados del experimento en números. Actúa así como una función codificadora, o como un proceso de cuantificación, con lo cual se consigue que, en lugar de trabajar con resultados de cualquier tipo, se pueda trabajar siempre con números reales. En el caso de que se esté realizando un experimento que consiste en lanzar un dado, la variable aleatoria tiene un alcance limitado, dado que los resultados son ya numéricos; pero si se trata de lanzar una moneda, se tendría que Ω=,cara, cruz-, con lo cual se puede definir una variable aleatoria como: X= 0 1 ๐ ๐ ๐๐ ๐๐๐ ๐ข๐๐ก๐๐๐ ๐๐ ๐๐๐๐ ๐ ๐ ๐๐ ๐๐๐ ๐ข๐๐ก๐๐๐ ๐๐ ๐๐๐ข๐ง Se observa así lo dicho anteriormente: la variable aleatoria transforma los resultados del experimento en números y, en consecuencia, a partir de aquí se puede trabajar con los valores {0,1} sin perder información. La cuestión es cómo se mantiene, en la transformación realizada, la información asociada a la probabilidad de un suceso. Y para hay que tener lo dicho sobre la imagen inversa de cualquier intervalo de la forma (-∞,x+, la cual se define como: X-1{(-∞,x+-=,wัΩ / X(w)≤x- 1 Es decir, en la imagen inversa se encuentran todos los resultados del experimento ( y por tanto se trata de un subconjunto de Ω, un suceso), que cumplen la condición de que la variable aleatoria lo ha transformado en un número ≤x. Y al subconjunto de Ω formado por esos resultados del experimento, se le exige que sea uno de los sucesos contenidos en A y se va a indicar por: X-1{(-∞,x+-=,wัΩ / X(w)≤x-= por sencillez=,X(w)≤x-=,X≤xPor lo tanto, en lo sucesivo, y en la práctica, se va a considerar que ,X(w)≤x- o bien ,X≤x- es un suceso y, como tal, tendrá asociada una probabilidad por la función P. Ejemplo Se considera una bolsa con 2 bolas azules, 3 bolas blancas y 5 verdes. Se extrae una bola, al azar, de la bolsa. El espacio de resultados asociado a este experimento es: Ω=,azul, blanca, verdesiendo P(azul)=2/10, P(blanca)=3/10, P(verde)=5/10. Se define una función X como: 0 ๐ ๐ ๐๐ ๐๐๐๐ ๐๐ฅ๐ก๐๐๐๐๐ ๐๐ ๐๐ง๐ข๐ X= 1 ๐ ๐ ๐๐ ๐๐๐๐ ๐๐ฅ๐ก๐๐๐๐๐ ๐๐ ๐๐๐๐๐๐ 2 ๐ ๐ ๐๐ ๐๐๐๐ ๐๐ฅ๐ก๐๐๐๐๐ ๐๐ ๐ฃ๐๐๐๐ A partir de la cual se van a construir las distintas imágenes inversas del intervalo (-∞,x], para diversos valores de xัR. ๏ท ๏ท ๏ท ๏ท Para todo x<0, X-1{(-∞,x]}=,wัΩ / X(w)≤x, con x<0-=,ØPara x<1; X-1{(-∞,x]}=,wัΩ / X(w)≤x, con x<1-=, wัΩ / X(w)=0-=,azulPara x<2; X-1{(-∞,x]}=,wัΩ / X(w)≤x, con x<2}={ wัΩ / X(w)=0 o 1}={azul, blanca} Para x≥2; X-1{(-∞,x]}=,wัΩ / X(w)≤x, con x≥2-=, wัΩ / X(w)=0,1,2-=,azul, blanca, verde-=Ω Por lo tanto se puede poner que: ๏ท ๏ท ๏ท ๏ท Para todo x<0, -=,X≤x, x<0-= {Ø} Para x<1; ,X≤x, x<1-= {azul} Para x<2; ,X≤x, x<2-= {azul, blanca} Para x≥2; ,X≤x, x≥2-=,azul, blanca, verde-=Ω Y, en definitiva, para que la función X definida anteriormente, sea una variable aleatoria (v.a.) tiene que ocurrir que los subconjuntos de Ω: Ø, {azul}, {azul, blanca} y {azul, blanca, verde} sean miembros de la σ-álgebra A. Sin embargo, si se parte que la σ-álgebra elegida es “partes de Ω”, se puede afirmar que en ella están todos los subconjuntos que se pueden formar con los elementos de Ω con lo cual, los subconjuntos encontrados anteriormente serán sucesos, asociados al experimento y, en consecuencia X es una variable aleatoria. A partir de aquí se puede hablar con propiedad de las siguientes probabilidades: ๏ท ๏ท Para todo x<0, -=P,X≤x, x<0-= 0 Para x<1; P,X≤x, x<1-= 2/10 2 ๏ท ๏ท Para x<2; P,X≤x, x<2-= 5/10 Para x≥2; P,X≤x, x≥2-=1 Independientemente de que lo explicado anteriormente sea más o menos prolijo, las ideas principales con las que hay que contar son las siguientes: ๏ท ๏ท ๏ท ๏ท Una variable aleatoria (en adelante v.a.) tiene como misión asignar valores numéricos a los resultados de un experimento aleatorio. A cada número real, mediante la v.a. se le asocia el sucesos {wัΩ / X(w)≤x- que se indicará, habitualmente, por sencillez ,X(w)≤x- o más reducidamente ,X≤x-, el cual, como suceso que es tendrá siempre asociada una probabilidad, la cual “hereda” de los sucesos elementales de los que proviene. Salvo que se diga lo contrario, siempre que se introduzca una función X que transforma los resultados de un experimento en valores numéricos, se considerará que es una variable aleatoria, sin necesidad de probar que la imagen inversa es un suceso, para todo x. Por tanto, en lo sucesivo se hablará de la v.a. X y de probabilidades asociadas a los valores de X o a intervalos asociados a los valores de X, sin entrar, necesariamente en más detalles. No obstante lo anterior, hay que recordar que la v.a. sigue siendo una función definida sobre un conjunto. No se ha resuelto aún el problema inicialmente señalada de la necesidad de trabajar con una función definida sobre números reales. Para ello se introduce el siguiente concepto. 2. FUNCIÓN DE DISTRIBUCIÓN DE UNA VARIABLE ALEATORIA Se define como Función de Distribución, de una v.a. X, a una función F F: R → R+ Que hace corresponder a cada punto xัR la probabilidad del suceso ,X≤x-, es decir, donde F(x)=P(X≤x) Como puede verse, esta función ya es una función definida entre número reales, expresando además la probabilidad de los sucesos indicados. Con esta función se da el paso necesario para trabajar en el campo real y, por tanto, le son de aplicación todas las reglas del cálculo infinitesimal habituales. 2.1. Propiedades de la Función de distribución. La Función de distribución, F, de una v.a. X, cumple las siguientes propiedades: 1.- F +∞ = limx→∞ F(x) = 1 y F −∞ = limx→−∞ F x = 0 En efecto, aplicando la definición de Función de distribución, se puede poner: ๏ท ๏ท F +∞ = P X ≤ +∞ = P w ∈ Ω โX w ≤ +∞ = P Ω = 1 F −∞ = P X ≤ −∞ = P w ∈ Ω โX w ≤ −∞ = P Ø = 0 2.-F es siempre una función no decreciente Es decir, se ha de cumplir que, dados dos valores cualesquiera x,y del dominio de definición de F, tales que x<y, entonces F(x)≤F(y). 3 Para verlo se considera el valor de la función en cada punto x,y: F x = P w ∈ Ω โ X w ≤ x = P(Ax ) F y = P w ∈ Ω โ X w ≤ y = P(Ay ) Por la construcción de ambos sucesos, se tiene que todo w que pertenece a Ax también pertenece a Ay y por lo tanto Ax estará incluido en Ay, con lo que P(Ax)≤P(Ay) y, en consecuencia, F(x)≤F(y). 3.- La función de distribución es continua a la derecha de cada punto Es decir, en cualquier punto x0 del dominio de definición de F(x), se verifica que: lim๐ฅ→๐ฅ 0 ๐น ๐ฅ = ๐น(๐ฅ0 ) siempre que los {xi} que forman la sucesión sean todos mayores que x0 F(x) 1 0,8 0,6 F(xo) 0,4 0,2 0 xo ← xi Hay que recordar, que una función se dice que es continua cuando en todo punto de su dominio de definición, el límite por la derecha y el límite por la izquierda, coinciden, y son iguales al valor de la función en ese punto. Por tanto, la propiedad 3) no permite decir que la Función de distribución de cualquier variable aleatoria es una función continua. Asimismo, hay que señalar que las tres propiedades anteriores constituyen una caracterización de la Función de distribución. Esto quiere decir que toda Función de distribución las cumple, pero también que cualquier función que cumpla esas tres propiedades es la Función de distribución de alguna variable aleatoria. Por lo tanto, cuando se pida, demostrar que una función concreta es una Función de distribución, se deberá comprobar que cumple las tres propiedades anteriores. En caso de no cumplirlas no será una Función de distribución. Ejemplo 1 (continuación) Para construir la Función de distribución, F(x), de este ejemplo, teniendo en cuenta tanto la definición como la existencia de los sucesos asociados a ella, se realiza el siguiente proceso, que consiste en ir tomando valores de x, de izquierda a derecha ๏ท x<0: F(x)=P wฯตΩ โ X w ≤ x = P Ø = 0, dado que no hay ningún w al que se la haga corresponder por F un valor por debajo de 0. ๏ท ๏ท ๏ท 0≤x<1: F(x)=P wฯตΩ โ X w ≤ x = P 0 = 0,2 puesto que solo w = azul cumple la condición. 1≤x<2: F(x)=P wฯตΩ โ X w ≤ x = P 0,1 = 0,5 dado que ahora son los 4 resultados azul y blanco los que cumplen la condición. ๏ท x≥2: F(x)=P wฯตΩ โ X w ≤ x = P 0,1,2 = P Ω = 1 puesto que ahora son todos los resultados los que cumplen la condición Esto supone que la Función de distribución se puede poner como: F(x)=0 para x<0 F(x)=0,2, para 0≤x<1 F(x)=0,5, para 1≤x<2 F(x)=1, para x≥2 1 0,5 0,2 0 1 2 3. TIPOS DE VARIABLES ALEATORIAS Aun cuando existen diversos tipos de variables aleatorias, aquí se van a estudiar dos casos concretos: variables aleatorias discretas y variables aleatorias continuas. 3.1. Variables aleatorias discretas Una variable aleatoria X, definida sobre un espacio probabilístico (Ω, A, P), se dice que es discreta cuando el conjunto de valores que puede tomar es finito o infinito numerable. Un número de valores se dice que es infinito numerable cuando se puede poner en correspondencia con los números naturales. Es decir, cuando ordenados los valores de la variable de menor a mayor, se puede poner como x1, x2,…. En consecuencia, en adelante se dirá que una v.a. X tomará los valores x1, x2,…., en número finito o infinito. En este caso, se tiene que P*X=x+=P*wัΩ โ X(w)=x], que será la probabilidad de que la v.a. tome cada uno de sus valores posibles, de tal modo que, asociado a cada valor xi se tendrá la probabilidad de que la v.a. tome dicho valor, y se expresará por: P[X=xi]=p(xi)=pi i=1,2,….. De este modo se dirá que se conoce el comportamiento de una v.a. X, o dicho más correctamente, se conoce la distribución de una v.a. X discreta, cuando se conocen los valores que puede tomar y la probabilidad con la que puede tomar cada uno de ellos; es decir, cuando se conozca el conjunto de parejas (xi, pi) para i=1,2,…. 5 A la expresión que asigna a cada valor de la v.a. su probabilidad se le denomina función de probabilidad, o también función de masa o de cuantía. Y debe cumplir las siguientes propiedades: 1. P[X=xi]=p(xi)=pi≥0, para todo i=1,2,….. 2. i pi =1 que como puede observarse no son sino las propiedades lógicas y esperables: las probabilidades han de ser valores no negativos, y la suma de todas las probabilidades ha de ser la unidad. Como es natural, la función de probabilidad y la función de distribución han de estar relacionadas, lo cual ocurre en el siguiente modo: ๏ท F(x)=P[X≤x]= x i ≤x p(xi ), es decir la suma de las probabilidades de todos los valores menores o iguales que x. El punto x no necesariamente tiene que coincidir con un valor de la variable, sino que puede ser algún valor comprendido entre dos valores cualesquiera, consecutivos. Lo que no obvia, que la función de distribución en un valor concreto de la v.a. se pueda poner como: ๏ท F(xi)=P[X≤xi]= x j ≤x i p(xj )=p(x1)+p(x2)+…+p(xi) con lo cual queda expresada la función de distribución, en cualquier función de probabilidad. (1) punto, a partir de la Pero la expresión obtenida en (1) permite ahora encontrar la probabilidad en un punto, a partir del conocimiento de la función de distribución, del siguiente modo: ๏ท F(xi)=P[X≤xi]= ๏ท F(xi-1)=P[X≤xi-1]= x j ≤x i p(xj )=p(x1)+p(x2)+…+p(xi) x j ≤x i−1 p(xj )=p(x1)+p(x2)+…+p(xi-1) Y, restando, se tiene que P[X=xi]=p(xi)=F(xi)-F(xi-1), válida para i=1,2… Lo que permite expresar la función de probabilidad a partir del conocimiento de la función de distribución. Vista esta relación, se puede decir ahora que se conoce la distribución que sigue una v.a. discreta, cuando se conocen los valores que puede tomar y sus probabilidades respectivas (función de probabilidad) o bien, cuando se conocen los valores que puede tomar y la función de distribución en cada uno de ellos. 3.2. Variables aleatorias continuas Una variable aleatoria X, definida sobre un espacio probabilístico (Ω, A, P), se dice que es continua cuando existe una función no negativa f(x), denominada función de densidad, tal que para cada número real x, se tiene que: F(x)=P*X≤x+= x −∞ f x dx (2) Es decir, cuando existe una función, llamada función de densidad, que permite expresar la función de distribución a partir de ella, como la integral definida expresada en (2). La función de densidad, es una aplicación de f: R → R, que ha de cumplir dos condiciones: 1. f(x)≥0, en todo punto de su dominio de definición 6 2. +∞ f −∞ x dx = 1 Respecto a la segunda condición, no es más que la expresión de que la función de distribución en ∞ vale uno. Es decir: x +∞ F +∞ = lim x→∞ −∞ f x dx = f x dx = 1 −∞ Esto supone que una función cualquiera, para ser función de densidad, ha de verificar las dos propiedades anteriores. De la expresión (2) se tiene la forma de obtener la función de distribución, a partir del conocimiento de la función de densidad. La situación contraria, es decir, cómo obtener la función de densidad, conocida la función de distribución es el proceso inverso de la integración. Por tanto, se puede decir que, dada la función de distribución F(x), la función de densidad se obtiene como: f x = dF(x) = F ′ (x) dx siempre que se pueda realizar el proceso de derivación; lo que conlleva que F(x) ha de ser derivable en todo punto x del dominio de definición de F(x). Una integral definida, como aparecen ahora en la función de distribución, tiene como interpretación la medida del área comprendida entre el integrando, f(x), el eje X y los límites de integración. Por tanto, se puede afirmar que el valor de la función de distribución en un punto, es el área señalada en el gráfico siguiente: F(x) X x Esto supone que se puede hablar de área, cuando se hable del valor de la función de distribución en un punto y, además, que se pueda razona en términos de áreas, cuando se opere con ella o también cuando se trate de calcular probabilidades concretas. Así, para calcular entre dos puntos, P[a<X≤b], se tendrá: P a<๐ ≤๐ =P X≤b −P X≤a =F b −F a = b = a b f x dx − −∞ f x dx = −∞ f x dx a Esto permite disponer de una expresión general para la probabilidad entre dos puntos, expresada como la diferencia entre los valores que toma la función de distribución entre ambos: ๐ ๐ <๐ ≤๐ =๐น ๐ −๐น ๐ Pero también como b Pa<X≤b = f x dx a 7 (3) O bien gráficamente como: F(b) X b F(a) a F(b)-F(a) X b a X En cuando a la probabilidad sobre un conjunto, por extensión de lo anterior, se obtiene del modo siguiente: P X∈A = f x dx x∈A La expresión (3) es, lógicamente, válida tanto para variables discretas como para variables continuas. Y es una expresión en la que hay que tener especial cuidado con los valores que incluye, al aparecer “<” y “≤”. Este hecho es particularmente importante en variables discretas, sin embargo, cuando se trata de variables continuas, ya no es tan relevante, por la sencilla razón que en el caso de variables aleatorias continuas la probabilidad en un punto vale cero. Y, en consecuencia, es indiferente considerar, en este caso, el signo < o ≤, y también el > o el ≥. En efecto, la probabilidad en un punto, en el caso continuo, se puede expresar, intuitivamente1, como x+ε P X = x = limP x − ε < ๐ ≤ ๐ฅ + ๐ = lim ε→0 ε→0 x−ε x f x dx = f x dx = 0 x Ejemplo 2. Se considera la siguiente distribución de probabilidad discreta: xi 1 2 3 4 5 6 7 8 9 10 p(xi) 0,05 0,1 0,04 0,08 0,12 0,2 0,04 0,15 0,1 0,12 Y se pide calcular las siguientes probabilidades: ๏ท P[X≤4]=p(1)+p(2)+p(3)+p(4)=0,05+0,1+0,04+0,08=0,27 ๏ท P]X>7]=P[X=8,9,10]=0,15+0,1+0,12=0,37 ๏ท P[4<X<7]=P[5,6]=0,12+0,2=0,32 ๏ท P[4<X≤7]=P[5,6,7]= 0,12+0,2+0,04=0,36 ๏ท P[4≤X≤7]=P[4,5,6,7]= 0,08+0,12+0,2+0,04=0,44 Donde como se puede ver la consideración del signo < o ≤ es relevante. 1 La demostración correcta requiere aplicarla fórmula de los incrementos finitos. 8 Ejemplo 3. Se considera una v.a. X, cuya función de densidad viene dada por: f(x)=0,5x cuando 0<x<2 y 0 en el resto de R Esta función es, en efecto, una función de densidad, ya que verifica que: 1. f(x)≥0 en todo punto del intervalo de definición (0,2) 2. +∞ f −∞ x dx = 2 0,5xdx 0 x2 1 = 0,5[ 2 ]20 = 0,5 2 − 0 = 2 2 = 1 Se pide ahora calcular las siguientes probabilidades: ๏ท Función de distribución: F(x)=P*X≤x+= x f −∞ x dx = x 0,5xdx 0 = x2 , 4 con lo cual se tiene que : F x =0 x2 F x = 4 F x =1 ๏ท ๏ท ๏ท ๏ท ๏ท x≤0 0<๐ฅ<2 x≥2 ๐ ๐ < 1 = ๐ ๐ ≤ 1 =0,25 P*0,2<X<1+=P*0,2<X≤1+=P*X≤1+-P*X≤0,2+=F(1)-F(0,2)=0,25-0,01=0,24 P*0,2≤X<1+=P*0,2≤X≤1+=P*X≤1+-P*X≤0,2+=F(1)-F(0,2)=0,25-0,01=0,24 P[X>1]=1-P*X≤1+=0,75 P*X≥1+=1-P[X<1]=1-P*X≤1+=0,75 4. VARIABLES ALEATORIAS BIDIMENSIONALES Cuando en un experimento aleatorio cada uno de sus resultados refleja dos características concretas, se hace necesario introducir una perspectiva bidimensional. Es, por ejemplo, el caso en que el experimento consiste en lanzar un dado en el que, además de los números, cada cara tiene un determinado color. Por lo tanto, cada resultado que se obtiene al lanzar el dado tiene dos características: puntuación y color. Cuando esto ocurre, se hace necesario extender el concepto de variable aleatoria al campo bidimensional, lo que se hace en las mismas condiciones que en el caso unidimensional y en el siguiente modo. Sea un espacio probabilístico (Ω, A, P), donde el espacio de resultados Ω está formado por parejas de elementos; cada uno correspondiente a las dos características observables del experimento. Se define la v.a. bidimensional (X,Y) como un vector aleatorio de dimensión dos, en el que cada una de sus componentes es a su ve una variable aleatoria, definidas ambas sobre (Ω, A, P), siendo X la v.a. asociada a la primera característica correspondiente al experimento, y Y la v.a. asociada a la segunda característica asociada a dicho experimento. Esto supone que se tiene: (X,Y): Ω → R2 9 donde las dos componentes del vector aleatorio de dimensión dos (X,Y) son aplicaciones X: Ω → R Y: Ω → R De una forma más sencilla, se puede decir que una v.a. bidimensional (X,Y), es el vector formado por una pareja de variables aleatorias unidimensionales X, Y asociadas ambas al mismo experimento y donde cada una de ellas corresponde a una de las dos características que se observan en la realización del experimento. De este modo una v.a. bidimensional se puede observar como un vector aleatorio de dimensión o, lo que es lo mismo, como una pareja de vv.aa. unidimensionales que actúan conjuntamente, sobre el mismo espacio de resultados de un experimento. A partir de aquí, el tratamiento que se hace de las vv.aa. bidimensionales es análogo al realizado anteriormente. En primer lugar se introduce la función de distribución y, a continuación, se estudia el caso discreto y el caso continuo. 5. FUNCION DE DISTRIBUCION BIDIMENSIONAL Dada una v.a. bidimensional (X,Y), se define su función de distribución F(x,y), como una función: F: R2 → R en la que F(x,y)=P[X≤x,Y≤y], con el mismo significado que en el caso anterior y, por tanto, en el sentido de que F(x,y)=๐[{๐คั๐บโ๐(๐ค) ≤ ๐ฅ} ∩ {๐คั๐บโ๐(๐ค) ≤ ๐ฆ] entendida como la probabilidad de la intersección de los dos sucesos en ella comprendidos. 5.1.Propiedades de la función de distribución Las propiedades que tiene la función de distribución bidimensional son muy similares al caso unidimensional, con solo algunas variaciones, y son las siguientes. 1. ๐ +∞, +∞ = ๐; ๐ −∞, ๐ฒ = ๐; ๐ ๐ฑ, −∞ = ๐ ๏ท ๐น +∞, +∞ = ๐ ๐ ≤ +∞, ๐ ≤ +∞ = = P w ∈ Ω โX w ≤ +∞ ∩ w ∈ Ω โY w ≤ +∞ = P Ω ∩ Ω = P Ω = 1 ๏ท F −∞, y = P X ≤ −∞, Y ≤ y = = P w ∈ Ω โX w ≤ −∞ ∩ w ∈ Ω โY w ≤ y = P Ø = 0. ๏ท = P Ø ∩ w ∈ Ω โY w ≤ y = F x, −∞ = P X ≤ x, Y ≤ −∞ = = P w ∈ Ω โX w ≤ x ∩ w ∈ Ω โY w ≤ −∞ = P w ∈ Ω โX w ≤ x ∩ Ø = = P Ø = 0. 2. F es monótona no decreciente para cada variable. Esto quiere decir que F(x,y), considerada solo como función de x es una función monótona no decreciente y, también, que considerada solo como función de y es una función monótona no decreciente. Se expresa de la siguiente forma: 10 Dados dos valores cualesquiera x1,x2 de X, tales que x1<x2 entonces F(x1,y)≤F(x2,y) y que dados dos valores cualesquiera y1,y2 de Y, tales que y1<y2 entonces F(x,y1)≤F(x,y2) En efecto, para el primero de los dos casos, es decir, cuando x1<x2 y supuesto que el valor de “y” es fijo, se tiene: F x1 , y = P w ∈ Ω โX w ≤ x1 ∩ w ∈ Ω โY w ≤ y = P[A1 ∩ B] F x2 , y = P w ∈ Ω โX w ≤ x2 ∩ w ∈ Ω โY w ≤ y = P[A1 ∩ B] Ahora bien, como x1<x2 entonces se verificará necesariamente que A1แดA22 y en consecuencia se tendrá que: A1∩Bแด A2∩B con lo cual P[A1∩B+≤ P[A2∩B] y en consecuencia F(x1,y)≤ F(x2,y) Por lo que se refiere al caso en que y1<y2 la demostración es similar. 3. La función de distribución es continua a la derecha en cada variable. Es decir, se verifica que ๏ท lim๐ฅ→๐ฅ 0 ;๐ฆ→๐ฆ0 ๐น ๐ฅ, ๐ฆ = ๐น(๐ฅ0 , ๐ฆ0 ) en todo (x0,yo)ัR2 Con estas tres propiedades se tiene una situación similar a la que ocurre en el caso unidimensional. Sin embargo, en el caso de dimensión dos, no es suficiente que una función cumpla estas tres propiedades, para garantizar que sea la función de distribución de alguna v.a. (X,Y). Se tiene que añadir una cuarta propiedad que, junto con las tres anteriores caracteriza a una función de distribución bidimensional. 4. Esta propiedad consiste en que la función de distribución debe cumplir que la probabilidad asociada a cualquier intervalo de R2 debe ser ≥0. Es decir, dados los valores a,bัR, con a<b, y los valores c,dัR, con c<d, ha de ocurrir que: P[a<X≤b,c<Y≤d]≥0 Lo que expresado a partir de la función de distribución supone que: P[a<X≤b,c<Y≤d]=F(b,d)-F(a,d)-F(b,c)+F(a,c)≥0 Se tiene finalmente, que cualquier función de distribución correspondiente a una v.a. bidimensional (X,Y) cumple las cuatro propiedades indicadas. Y, por otra parte, dada una función cualquiera definida de R2 en R2 que cumpla las cuatro propiedades indicadas, es la función de distribución de alguna v.a. bidimensional. 6.TIPOS DE VARIABLES ALEATORIAS BIDIMENSIONALES Dada una v.a. bidimensional (X,Y), pueden aparecer distintos tipos de vv.aa. en función de cómo sea cada una de las variables componentes. No obstante, aquí se estudiarán dos casos: variables aleatorias bidimensionales discretas y variables aleatorias bidimensionales continuas. 6.1.Variable aleatoria bidimensional discreta Dada una v.a. bidimensional (X,Y) se dirá que es discreta cuando X sea una v.a. discreta, Y sea una v.a. discreta; o dicho de otro modo, cuando sus dos componentes sean variables aleatorias discretas. 2 Podría ocurrir, no solo la inclusión sino que incluso los sucesos fueran iguales. 11 La v.a. discreta (X,Y), como en el caso unidimensional, tendrá un conjunto de valores y unas probabilidades asociadas a cada uno de esos valores. Respecto al conjunto de valores de (X,Y) estará formado por todas las parejas que se puedan formar combinando todos los valores de X con todos los valores de Y: {(xi,yj)} siendo xi los distintos valores de X, x1,x2,…; yj los distintos valores de Y, y1,y2,… Cada una de estas parejas de valores tendrá una probabilidad asociada, siendo la función de probabilidad cuando hace corresponder a cada una de ellas su probabilidad, y será, por tanto: P[X=xi,Y=yj]=p((xi,yj)=pij ๊ฏ(xi,yj) valores de (X,Y) La función de probabilidad, al igual que en el caso unidimensional, cumple las siguientes propiedades: 1. pij ≥0 ๊ฏ(xi,yj) 2. i j pij = 1 que no son más que las lógicas; probabilidades no nulas y suma de probabilidades igual a la unidad. Se dice que la distribución de probabilidad de la v.a. (X,Y) es conocida, cuando se conocen los valores que puede tomar la v.a. y las probabilidades con las que los toma. Es decir, valores y función de probabilidad. Pero esta definición se puede plantear también cuando en lugar de conocer la función de probabilidad se conoce la función de distribución. Así, tanto en un caso como en otro es preciso conocer los valores, pero resulta indistinto, para conocer la distribución de la v.a., el conocer la función de probabilidad, o bien la función de distribución. Y este es así, porque conocida una de ambas funciones se puede conocer la otra. En efecto, si se conoce la función de probabilidad, la función de distribución, en cada punto (x,y) se puede poner como : F x, y = P X ≤ xi , Y ≤ yj = x i <๐ฅ y j <๐ฆ pij Mientras que si se conoce la función de distribución en todo punto, entonces la función de probabilidad, en cualquier punto, se puede obtener como: P[X=xi,Y=yj+=P*X≤xi,Y≤yj]- P*X≤xi,Y≤yj-1]- P*X≤xi-1,Y≤yj]- P*X≤xi-1,Y≤yj-1]=F(xi,yj)-F(xi,yj-1)-F(xi-1,yj)+ F(xi-1,yj-1) Ejemplo 4. Se considera una v.a. (X,Y) cuya distribución viene dada por la siguiente tabla de probabilidades: X/Y 0 1 2 3 4 5 1 0,05 0,02 0,01 0,04 0,02 0,00 3 0,05 0,04 0,04 0,02 0,01 0,01 12 5 0,10 0,02 0,02 0,20 0,03 0,04 7 0,02 0,01 0,01 0,03 0,04 0,01 9 0,03 0,04 0,02 0,01 0,03 0,03 Se pide obtener los siguientes resultados: ๏ท ๏ท ๏ท P(X=3,Y=3)=0,02 P(X=3,Y>5)=P(X=3,Y=7)+P(X=3,Y=9)=0,03+0,01=0,04 P(X≤2,Y≤2)=P(X≤2,Y≤1)=P{(0,1), (1,1),(2,1)}=P(X=0,Y=1)+P(X=1,Y=1)+P(X=1,Y=1)= =0,05 +0,02 +0,01=0,08 ๏ท P(X<2,Y≥7)=P,(0,7),(0,9),(1,7),(1,9)-=0,02+0,03+0,01+0,04=0,10 6.2.Variable aleatoria bidimensional continua Se dice que una v.a. bidimensional (X,Y) es continua, cuando tanto X como Y son variables aleatorias continuas, y esto supone que ha de existir una función f(x,y), definida sobre el campo de variación de (X,Y), a partir de la cual se puede obtener la función de distribución como: F x, y = P x ≤ x, Y ≤ y = x y f −∞ −∞ x, y dxdy (4) La función f(x,y), es una función no negativa, y recibe el nombre de función de densidad conjunta. Sus propiedades son las siguientes: ๏ท ๏ท f(x,y)≥0 ๊ฏ(x,y)ัdominio de definición de (X,Y) +∞ +∞ ๐ −∞ −∞ ๐ฅ, ๐ฆ ๐๐ฅ๐๐ฆ = 1 donde la segunda propiedad con es más que la exigencia de que la función de distribución en el punto (+∞, +∞) ha de valer la unidad. La expresión (4) permite obtener la función de distribución a partir de la función de densidad. El proceso inverso, permite ahora obtener la función de densidad, conocida la función de distribución, de tal modo que si F(x,y) es continua, la función de densidad se obtiene como : f x, y = ∂2 F(x, y) ∂x ∂y Esto conduce a que se puede decir que la distribución de (X,Y) es conocida, cuando se conoce el campo de variación de la v.a. (X,Y) y su función de densidad f(x,y). O, alternativamente, cuando se conoce el campo de variación de la v.a. (X,Y) y su función de distribución F(x,y). Respecto a la forma de obtener probabilidades concretas, se dispone de las siguientes expresiones: b d P a < X ≤ b, c < Y ≤ d = f x, y dxdy a c donde se han de hacer las mismas precisiones que en el campo de la v.a. unidimensional continua, en cuanto a la indiferencia en cuanto a las desigualdades < y ≤, o > y ≥. Asimismo: P x, y ∈ A = f x, y dxdy A 13 Ejemplo 5. Sea una v.a. (X,Y) cuya función de densidad es la siguiente: ๏ฌ xy ๏ฏ f(x, y) ๏ฝ ๏ญ 96 ๏ฏ0 ๏ฎ 0 ๏ผ x ๏ผ 4, 1 ๏ผ y ๏ผ 5 en el resto Se pide, obtener las siguientes probabilidades 2 3 ๏ท P 1 < ๐ < 2,2 < ๐ < 3 < 0] = 1 2 f x, y dxdy = 2 1 ๏ท x { 96 3 2 ydy} = 2 1 P X > 2, ๐ < 3 = 2 3 x y 96 2 4 3 xy dxdy 2 1 96 dx = 2 = 5 2.96 2 2 3 xy dxdy 1 2 96 2 2 xdx = 1 3 4 1 y2 dx 2 96 2 1 = 5 x 2.96 2 4 8 xdx 2.96 2 = = 0,039 1 = 0,125 7.DISTRIBUCIONES MARGINALES Disponer de la distribución de una v.a. bidimensional (X,Y), permite conocer el comportamiento conjunto de dicha variable. Pero también es posible determinar el comportamiento individual de cada una de ellas; es decir, las distribuciones marginales. Así, para determinar la distribución, marginal, de X, hay que conocer su campo de variación, el cual es fácilmente determinable a partir de la distribución conjunta. Pero también hay que determinar la función de distribución y, según se trate de una v.a. discreta o continua, la función de probabilidad o la función de densidad, respectivamente. Y análogamente para la variable Y. 7.1.Funciones de distribución marginales Dada la función de distribución conjunta F(x,y), la función de distribución marginal de cada variable se determina del siguiente modo: ๏ท limy→∞ F x, y = lim P X ≤ x, Y ≤ y = y→∞ = lim P w ∈ Ω โX w ≤ x ∩ w ∈ Ω โY w ≤ y y→∞ = P w ∈ Ω โX w ≤ x ∩ w ∈ Ω โY w ≤ ∞ = = P w ∈ Ω โX w ≤ x ∩ Ω = =P X ≤ x = F1 (x) Con lo cual, las funciones de distribución marginales, se puede obtener como: ๏ท ๏ท F1 x = P X ≤ x = F(x, +∞) F2 y = P Y ≤ y = F(+∞, y) 7.2.Funciones de probabilidad marginales Ahora, en el caso discreto, las funciones de probabilidad marginales se obtienen de un modo similar al anterior. Función de probabilidad marginal de X: ๏ท P[X = xi ]= j P[X = xi , Y = yj ] = j pij = pi. i = 1,… i pij = p.j j = 1,… Función de probabilidad marginal de Y: ๏ท P[Y = yj ]= i P[X = xi , Y = yj ] = 14 Ejemplo 4. (continuación). Cálculo de las distribuciones marginales de X e Y, a partir de la siguiente función de probabilidad conjunta: X/Y 0 1 2 3 4 5 1 0,05 0,02 0,01 0,04 0,02 0,00 3 0,05 0,04 0,04 0,02 0,01 0,01 5 0,10 0,02 0,02 0,20 0,03 0,04 7 0,02 0,01 0,01 0,03 0,04 0,01 9 0,03 0,04 0,02 0,01 0,03 0,03 La determinación de la función de probabilidad marginal de cada variable, hay que realizarla punto a punto, sumando las probabilidades conjuntas de todas las parejas que contenga al punto indicado. Por ejemplo, para obtener la función de probabilidad marginal de X, hay que considerar cada uno de los valores de X, y realizar el siguiente procedimiento. Se toma el primer valor de la variable; en este caso X=0, y se suman las probabilidades de todas las parejas que tienen a 0 como valor de X. En concreto se sumarían todas las probabilidades conjuntas que aparecen en la fila en la que está el valor X=0. E igualmente para cada uno de los valores de X. Esto viene expresado en la columna pi. X/Y 0 1 2 3 4 5 p.j 1 0,05 0,02 0,01 0,04 0,02 0,00 3 0,05 0,04 0,04 0,02 0,01 0,01 5 0,10 0,02 0,02 0,20 0,03 0,04 7 0,02 0,01 0,01 0,03 0,04 0,01 9 0,03 0,04 0,02 0,01 0,03 0,03 0,14 0,17 0,41 0,12 0,16 pi. 0,25 0,13 0,10 0,30 0,13 0,09 En el caso de la v.a. Y, el proceso sería similar, obteniendo la probabilidad marginal de cada valor, sumando las probabilidades conjuntas que aparecen en su columna respectiva. 7.3.Funciones de densidad marginales Se obtienen, a partir de la función de densidad conjunta f(x,y), teniendo en cuenta el resultado ya encontrado para las funciones de distribución marginales. En el caso de la v.a. X se tiene que F1 x = F x, +∞ = x +∞ f −∞ −∞ x, y dxdy = x g −∞ x dx (5) Pero como X es una v.a. continua, por definición, tendrá su propia función de densidad f1(x), a partir de la cual se puede obtener la función de distribución de X como F1 x = x f −∞ 1 x dx (6) 15 Igualando las ecuaciones (5) y (6), se obtiene que sus integrandos han de ser iguales y, por tanto, que la función de densidad marginal de X será: +∞ f1 x = g x = f x, y dy −∞ Y, del mismo modo, se obtiene que la función de densidad marginal de la v.a. Y es +∞ f2 y = f x, y dx −∞ Ejemplo 5. (continuación) . Con los datos del Ejemplo 5, determinar las funciones de densidad marginales de cada variable. +∞ f1 x = 5 f x, y dy = −∞ 1 1 f x, y dy = 96 5 1 1 y2 xydy = 96 2 5 = x 8 = y 12 1 Con lo cual se tiene que la función de densidad marginal de x es: ๐ฅ ๐1 ๐ฅ = 8 0 0<๐ฅ<4 ๐๐ ๐๐ ๐๐๐ ๐ก๐ En el caso de la función de densidad marginal de Y, se tiene que: +∞ f2 y = 4 f x, y dx = −∞ 0 1 f x, y dx = 96 4 0 1 x2 xydx = 96 2 4 0 Y la función de densidad marginal que, finalmente: y 1<๐ฆ<5 f2 y = 12 0 en el resto 8.DISTRIBUCIONES CONDICIONADAS A partir del comportamiento conjunto de la v.a. (X,Y), se puede obtener cuál es la distribución que sigue una de las variables, cuando la otra cumple una determinada condición. A esta distribución se le llama distribución condicionada, y se expresa como (X/YัA), para indicar la distribución, condicionada, que siguen la v.a. X cuando la Y cumple una condición que, en este caso, es que tome valores sobre el conjunto A. Como es natural, la distribución concreta, en cuanto al conocimiento de su función de distribución, va a depender de cúal sea la condición concreta que se imponga. Y, análogamente, ocurrirá con la función de probabilidad condicionada, en el caso discreto; o con la función de densidad condicionada, en el caso continuo. A continuación se van a expresar los desarrollos correspondientes para el caso de la distribución (X/YัA), teniendo en cuenta que iguales desarrollos se pueden hacer para la distribución de (Y/XัB). En todo caso y como para conocer la distribución de una v.a. es preciso conocer los valores que tome la variable, hay que precisar que esto aquí no va a presentar mayor problema, puesto que en la distribución condicionada de (X/YัA), los valores, a priori, los mismos que toma la v.a. X, conocidos ya por la distribución conjunta. 16 8.1.Función de distribución condicionada Dada la v.a. bidimensional (X,Y), la función de distribución condicionada de (X/YัA), viene dara por: F x Y ∈ A = P[X ≤ x Y ∈ A] = P[X ≤ x, Y ∈ A] P(Y ∈ A) que resulta de la aplicación del concepto de probabilidad condicionada, ya conocido. Y, por otra parte, la expresión concreta que resulte, dependerá de cuál sea la condición que se imponga, en este caso, sobre la variable Y. Un caso particular, es aquel en el que la condición que se impone, en el caso de (X/YัA), es que sea Y≤y, con lo cual se trata de la distribución condicionada de (X/Y≤y). Ahora, la función de distribución condicionada queda como: F(X Y ≤ y] = P[X ≤ x Y ≤ y] = P X ≤ x, Y ≤ y F(x, y) = PY≤y F2 (y) Y, análogamente, la función de distribución de la distribución condicionada de (Y/X≤x) es F(Y X ≤ x] = P[Y ≤ x X ≤ x] = P X ≤ x, Y ≤ y F(x, y) = PX≤x F1 (y) 8.2.Función de probabilidad condicionada Dada una v.a. (X,Y) discreta, la función de probabilidad de la distribución condicionada de (X/YัA), viene dada por los valores de X, ya conocidos por el comportamiento conjunto, y la función de probabilidad condicionada, definida como, ๊ฏ xi i=1,2,…: P(X = xi Y ∈ A) = P(xi Y ∈ A) = pi A = P[X = xi , Y ∈ A] P(Y ∈ A) cuya expresión concreta dependerá de cuál sea la condición A, impuesta a la variable Y. Para el caso de la distribución de (Y/XัB), la función de probabilidad condicionada, para todo ๊ฏ yj j=1,2,… será: P(Y = yj X ∈ B) = P( yj X ∈ B) = pj B = P[X ∈ B, Y = yj ] P(X ∈ B) En el caso particular en que la condición sea sobre un punto, la situación se reduce a unas expresiones más sencillas. Así, en el caso de la distribución condicionada de (X/Y=yj), queda como sigue, ๊ฏ xi i=1,2,… P X = xi Y = yi = P xi yj = pi j = P(X = xi , Y = yj ) pij = P(Y = yj ) p.j Y, análogamente, para el caso de la distribución condicionada de (Y/X=xi), la función de probabilidad, para todo yj j=1,2,… será: P X = xi Y = yi = P xi yj = pi j = 17 P(X = xi , Y = yj ) pij = P(Y = yj ) p.j 8.3.Función de densidad condicionada Dada una v.a. (X,Y) continua, la distribución condicionada de (X/YัA), notada por fA(x), será tal que, a partir de ella se podrá obtener la correspondiente función de distribución como: x F(x Y ∈ A) = P[X ≤ x Y ∈ A] = fA (x)dx −∞ Pero, por otra parte, aplicando la definición de función de distribución condicionada, se tiene que x −∞ A P X ≤ x. Y ∈ A F(x Y ∈ A) = = PY∈A A f x, y dxdy f2 y dy x = fA x dx −∞ que permite poner x −∞ A f x, y dy A f2 y dy x dx = fA x dx −∞ Con lo que la expresión final de la función de densidad condicionada de (X/YัA) es fA x = A f x, y dy A f2 y dy Análogamente, la función de densidad de la distribución condicionada de (Y/XัB), será fB y = B f x, y dx B f1 x dx En ambos casos, la expresión concreta de cada problema, se encontrará en función de cuál sea el conjunto A, o el B, respectivamente. Un caso particular de lo anterior, es la distribución condicionada de (X/Y=y); es decir, cuando la condición se estable sobre un valor concreto de la otra variable. Ya se ha visto que, en el caso continuo, la probabilidad de que una v.a. tome un valor puntual es cero, por lo que no se pueden aplicar aquí literalmente los desarrollos anteriores. Se hace preciso utilizar argumentos matemáticos concretos, que permiten llega a encontrar la función de densidad de tal distribución condicionada, al igual que es preciso interpretar el resultado, como una evaluación de lo que ocurre en la distribución de X, para un valor concreto de Y; sin que ello suponga que ese valor esté ocurriendo explícitamente. Se puede decir entonces, que la función de densidad, correspondiente a la distribución condicionada de (X/Y=y) es fx y x = f(x, y) f2 (y) Mientras que la función de densidad de la distribución condicionada de (Y/X=x) es fy x y = 18 f(x, y) f1 (x) 9.INDEPENDENCIA DE VARIABLES ALEATORIAS Dada una v.a. bidimensional (X,Y), se conoce, habitualmente su comportamiento conjunto; a partir del cual se puede obtener el comportamiento aislado de cada variable individualmente, así como los distintos casos de distribuciones condicionadas que se puedan considerar. Pero, adicionalmente a todo ello, surge una cuestión más, como es el caso en que ambas variables se comporten de modo independiente una de la otra. Dicho coloquialmente, esto quiere decir que el funcionamiento de una variable no se ve ni se va a ver influido por el comportamiento de la otra; siendo este un concepto mutuo. Esta situación tiene su reflejo en cada una de las distintas funciones que se han ido viendo, como son la función de distribución conjunta, la función de probabilidad conjunta y la función de densidad conjunta. Así, comenzando por la función de distribución, si las variables son independientes se tendrá: F x, y = P X ≤ x, Y ≤ y = P[ w ∈ Ω X w ≤ x ∩ w ∈ Ω Y w ≤ y = = P[Ax ∩ By ] pero el hecho de que las variables sean independientes tiene como consecuencia, y deriva, de que los sucesos Ax y By son independiente. Y por la independencia de sucesos, la probabilidad anterior es el producto de las probabilidades, con lo que finalmente se tiene que: F x, y = P Ax ∩ By = P Ax P By = P X ≤ x, Y ≤ y = = P X ≤ x]. P[Y ≤ y = F1 x . F2 (y) Lo que permite decir que, dada una v.a. bidimensional (X,Y), con función de distribución conjunta F(x,y), cuando las variables son independientes, se verifica que F x, y = F1 x F2 (y) o lo que es lo mismo, que la función de distribución conjunta se puede expresar como el producto de las funciones de densidad marginales en todo valor (x,y) de la v.a. (X,Y). Pero el concepto de independencia no solo es mutuo, en el sentido de si X es independiente de Y, también es Y independiente de X, sino también en el sentido de que la condición indicada es una condición necesaria y suficiente. Esto lleva a decir que “dos variables aleatorias X,Y serán independientes, si y solo si, la función de distribución conjunta es igual al producto de las funciones de distribución marginales en todo valor (x,y) de la v.a. (X,Y)”. En el caso en que la variable aleatoria (X,Y) sea discreta, la condición de independencia se obtiene, también, en cuanto a la función de probabilidad. Y se dice ahora que las variables X,Y serán independientes si y solo si, la función de probabilidad es igual al producto de las funciones de probabilidad marginales, de cada una de las variables, en cualquier valor (xi,yj) de la v.a. (X,Y): pij = P X = X i , Y = Yj = P X = xi P Y = yj = pi. p.j, en todo i, j = 1,2 … En el caso continuo, se dirá que las variables X,Y son independientes, si y solo si la función de densidad conjunta es igual al producto de las funciones de densidad marginales, en todo valor (x,y) de (X,Y): f x, y = f1 x f2 y en todo punto (x, y) 19 Las condiciones de independencia anteriores, son equivalentes, haciendo la lógica distinción entre el caso discreto y el caso continuo. De este modo se tiene que, si (X,Y) es una v.a. discreta, donde X e Y son independientes, se tiene la siguiente equivalencia en valor (xi,yj) de la v.a. (X,Y). F xi , yj = F1 xi . F2 yj P X = xi , Y = yj = P X = xi . P[Y = xj ] Análogamente, si (X,Y) es una v.a. continua, donde X e Y son independientes, se verifica, en todo punto (x,y) de la v.a. (X,Y) F x, y = F1 x . F2 y f x, y = f1 x . f2 (y) 10.VARIABLES ALEATORIAS n-DIMENSIONALES Se aborda ahora la extensión al caso n-dimensional de los conceptos anteriores, lo que se hará de una forma simple e intuitiva, sin realizar desarrollos concretos. Sea un espacio probabilístico (Ω, A, P), donde cada uno de los resultados Ω está formado por n componentes, cada una de las cuales corresponde a las n características observables del experimento. Se define la v.a. n-dimensional (X1,…,Xn) un vector aleatorio de dimensión n, en el que cada una de sus componentes es a su vez una variable aleatoria unidimensional. O dicho de una forma más sencilla, una v.a. n-dimensional (X1,…,Xn) es el vector formado por n variables aleatorias unidimensionales X1,…,Xn, asociadas ambas al mismo experimento y donde cada una de ellas corresponde a una de las n características que se observan en la realización del experimento. De este modo una v.a. n-dimensional se puede observar como un vector aleatorio de dimensión n o, lo que es lo mismo, como un conjunto de n vv.aa. unidimensionales que actúan conjuntamente. Dada una v.a. n-dimensional (X1,…,Xn) se define su función de distribución F(x1,…,xn), como una función: F: Rn → R en la que F(x1,…,xn)=P[X1≤x1,…,Xn≤xn] Respecto a sus propiedades, quedan como sigue: ๏ท ๏ท ๏ท ๏ท F +∞, +∞, … , +∞ = 1 en tanto que para que la función de distribución tome el valor cero, basta con que una sola de las variables tome el valor -∞. F es monótona no decreciente para cada variable. La función de distribución es continua a la derecha en cada variable La probabilidad asociada a cualquier intervalo de Rn debe ser ≥0. Una v.a. n-dimensional (X1,…,Xn) se dirá que es discreta cuando cada una de sus componentes sea una v.a. discreta. Su función de probabilidad será la expresión que especifique la probabilidad de cada valor de la v.a. n-dimensional: P[X1=xi1,…,Xn=xn] en cada valor (xi1,…,xin) de la v.a. (X1,…,Xn) Como en casos anteriores, la función de probabilidad verificará que en cada valor es mayor e igual que cero y que la suma de todas las probabilidades es uno. 20 Se dice que una v.a. n-dimensional (X1,…,Xn) es continua, cuando todas sus variables componentes son continuas. Y esto supone que ha de existir una función f(x1,…,xn), definida sobre el campo de variación de (X1,…,Xn), a partir de la cual se puede obtener la función de distribución como: F(x1 , … , xn ) = P[X1 ≤ x1 , … , X n ≤ xn ] = x1 x2 xn … −∞ f −∞ −∞ x1 , … , xn dx1… dxn La función f(x1,…,xn) recibe el nombre de función de densidad conjunta, y sus propiedades son las siguientes: ๏ท ๏ท f(x1,…,xn) ≥0 ๊ฏ(x1,…,xn)ั dominio de definición de (X1,…,Xn) +∞ +∞ +∞ … −∞ −∞ −∞ f(x1 , … , xn ) dx1 … dxn = 1 Además, si la función de distribución es continua, entonces función de densidad se obtiene como : f x1 , … , xn ∂n F(x1 , … , xn ) = ∂x 1 … ∂xn En el caso n-dimensional, la obtención de las distribuciones marginales se realiza en modo similar al caso bidimensional. La diferencia radica en que, ahora, se hablará de la distribución marginal de una o varias variables de las que componen la v.a. n-dimensional (X1,…,Xn); es decir, de la distribución marginal de cualquier subconjunto de las n variables que componen la v.a. n-dimensional. Para ilustrar la situación, se va a realizar mediante un ejemplo: Se supone una v.a. de dimensión cinco, (X1,X2,X3,X4,X5) y se desea conocer la distribución marginal del subconjunto formado por las variables (X2,X3,X5). En este caso, la función de distribución se obtendría haciendo que el valor de las variables X1 y X4 se vaya a ∞; es decir: F x2 , x3 , x5 = P X 2 ≤ x2 , X 3 ≤ x3 , X 5 ≤ x5 = F(+∞, x2 , x3 , +∞, x5 ) Este mismo procedimiento se aplicaría para calcular la función de distribución marginal de cualquier subconjunto de r variables de las que componen una v.a. de dimensión n. En el caso de la función de probabilidad marginal, la situación es similar. Ahora, la función de probabilidad marginal de un subconjunto de r variables, será la resultante de sumar la función de probabilidad conjunta, en todas las variables que no formen parte del subconjunto y para todos los valores de cada una de esas variables. Así, en el caso de la v.a. de dimensión cinco, anterior, la función de probabilidad del subconjunto (X2,X3,X5) se obtendrá como: +∞ +∞ P X 2 = x2 , X 3 = x3 , X 5 = x5 = P[X1 = x1i , x2 , x3 , X 4 = x4j , x5 ] x 1 =x 1i x 4 =x 4j Para obtener la función de densidad marginal, se realiza un proceso similar. Ahora, la función de densidad de un subconjunto de r variables, ser obtendrá integrando la función de densidad de conjunta, en todo el campo de variación de cada una de las variables que no forman parte del subconjunto. En el caso del ejemplo, la función de densidad conjunta de (X2,X3,X5) será: +∞ +∞ f x2 , x3 , x5 = f x1 , x2 , x3 , x4 , x5 dx1 dx4 −∞ −∞ 21 El caso de las distribuciones marginales, no se analizará aquí, si bien, hay que remitirse, para su cálculo a los resultados ya obtenidos en el caso bidimensional, siendo aquí en todo similares. La independencia de variables aleatorias, es aquí similar a lo ya visto, siendo por tanto una extensión al caso n-dimensional de los resultados obtenidos para las variables bidimensionales. De este modo se dirá que las n vv.aa. que componen una v.a. (X1,…,Xn) de dimensión n, son independientes entre si, cuando si y solo si se verifique alguna de las siguientes condiciones: ๏ท Para todo tipo de variables, bien sean discretas o continuas: n F(x1 , … , xn ) = Fi (xi ) i=1 ๏ท En el caso discreto: ๐ ๐ ๐ฅ1 , … , ๐ฅ๐ = ๐๐. (๐ฅ๐ ) ๐=1 ๏ท En el caso continuo: n f x1 , … , xn = fi (xi ) i=1 22