Resumen final - Probabilidad y estadística II Contenido Distribuciones de probabilidad discretas............................................................................................1 Distribuciones especiales continuas....................................................................................................6 Distribuciones en el muestreo .......................................................................................................... 14 Estimación puntual y por intervalos..................................................................................................20 Test de hipótesis ............................................................................................................................... 32 Demostraciones extra.......................................................................................................................39 Distribuciones de probabilidad discretas Para recordar: Sean π una variable aleatoria discreta, y π(π₯) una función de masa probabilidad, la media de π es π πΈ π = π₯π π(π₯ π ) π=1 Y la varianza de π es π π π =πΈ π−π 2 2 = π₯π − π π(π₯ π ) π=1 La distribución de probabilidad discreta describe el comportamiento de una variable aleatoria discreta, independientemente de si se representa de forma gráfica o mediante un histograma, en forma tabular o con una fórmula. En general, se necesitan sólo unas cuantas distribuciones de probabilidad importantes para describir muchas de las variables aleatorias discretas que se encuentran en la práctica. Distribución Bernoulli Con frecuencia un experimento consta de pruebas repetidas, cada una con dos resultados posibles que se pueden denominar éxito o fracaso. El proceso se conoce como proceso de Bernoulli y cada ensayo se denomina experimento de Bernoulli. En términos estrictos el proceso de Bernoulli se caracteriza por lo siguiente: 1. El experimento consta de ensayos repetidos. 2. Cada ensayo produce un resultado que se puede clasificar como éxito o fracaso. 3. La probabilidad de un éxito, que se denota con π, permanece constante de un ensayo a otro. 4. Los ensayos repetidos son independientes. 1 Sea π la variale aleatoria cuyos valores pueden ser 1 o 0, es decir un éxito o un fracaso y sea π el valor de la probabilidad de que el resultado sea un éxito, la distribución de probabilidad de π será 1−π₯ π₯ π π π₯ = 0,1 π π₯ = π 1−π 0 ππ ππ‘ππ πππ π Lo que es equivalente a decir que la probabilidad de ocurrencia de π es π cuando π₯ = 1, y será 1 − π en el caso de que π₯ = 0. La media y la varianza están determinadas por: πΈ π = 1π + 0 1 − π = π π π = πΈ π2 − πΈ π 2 = π − π2 = π 1 − π Distribución binomial π(π; π, π) El número π de éxitos en π experimentos de Bernoulli se denomina variable aleatoria binomial. La distribución de probabilidad de esta variable aleatoria discreta se llama distribución binomial y sus valores se denotarán como π(π₯;π,π), ya que dependen del número de ensayos y de la probabilidad de éxito en un ensayo dado. La distribución binomial, por lo tanto, debe satisfacer las mismas condiciones planteadas para un proceso de Bernoulli. La distribución de probabilidad de la variable aleatoria binomial π, el número de éxitos en π ensayos independientes, es π−π₯ π π₯ π π π₯ = 0,1,2,…,π π 1−π π₯ 0 ππ ππ‘ππ πππ π π π₯;π,π = Demostración En los π ensayos se han producido π₯ éxitos y π − π₯ fracasos, por lo tanto siendo ensayos π−π₯ . Pero, en los π ensayos independientes la probabilidad de obtener estos resultados es ππ₯ 1 − π π realizados hay π₯ formas diferentes de obtener los π₯ éxitos y los π − π₯ fracasos. Este número es entonces un factor para el valor de probabilidad anterior. Por lo tanto, la distribución de probabilidad acumulada es π π[π ≤ π] = π₯=0 π π₯ π−π₯ π π π₯ La media y la varianza de esta distribución de probabilidad son: π π πΈ π =πΈ ππ = π=1 π πΈ ππ = π=1 π = ππ π=1 2 π π π π =π π ππ = π=1 π ππ = π=1 π(1 − π) = ππ(1 − π) π=1 Distribución hipergeométrica π(π; π΅, π, π) Los tipos de aplicaciones de la distribución hipergeométrica son muy similares a los de la distribución binomial. Nos interesa el cálculo de probabilidades para el número de observaciones que caen en una categoría específica. La distribución binomial requiere que los ensayos sean independientes, a diferencia de la distribución hipergeométrica, la cual no requiere independencia y se basa en el muestreo que se realiza sin reemplazo. El experimentó hipergeométrico posee las siguientes dos propiedades: 1. De un lote de π artículos se selecciona una muestra aleatoria de tamaño π sin reemplazo. 2. π de los π artículos se pueden clasificar como éxitos y π − π se clasifican como fracasos. La distribución de probabilidad de la variable aleatoria hipergeométrica π, el número de éxitos en una muestra aleatoria de tamaño π que se selecciona de π artículos, en los que π se denomina éxito y π – π fracaso, es π β π₯; π, π, π = π₯ π−π π−π₯ π π πáπ₯ {0, π − (π − π)} ≤ π₯ ≤ πíπ{π, π} Demostración El número total de muestras de tamaño π elegidas de π artículos es muestras tienen la misma probabilidad. Hay π π₯ π π . Se supone que estas formas de seleccionar π₯ éxitos de los π 3 disponibles, y por cada una de estas formas podemos elegir π − π₯ fracasos en formas π − π . De π−π₯ π esta manera, el número total de muestras favorables entre las π muestras posibles, está dado por π π π − π . En consecuencia, se plantea la distribución de probabilidad anterior. π−π₯ La media y la varianza de la distribución hipergeométrica son: πΈ π = ππ π π π = ππ π 1− π π π−π π−π = πππ π−1 π−1 Demostración: Además, como πΈ π = ππ/π, podemos concluir que πππ π₯ = ππ π − 1 π − 1 ππ +1− π π−1 π Tomando π = π/π y usando la identidad 1−π π − 1 ππ − 1 =π− = π−1 π−1 π−1 obtenemos πππ π = ππ π − 1 π − π − 1 1−π + 1 − ππ = ππ 1 − π π−1 π−π π−1 4 Aproximación de la distribución hipergeométrica por medio de una distribución binomial: Si π es pequeña comparada con π, la naturaleza de los π artículos cambia muy poco en cada prueba. De esta forma se puede utilizar una distribución binomial para aproximar la distribución hipergeométrica. De hecho, por regla general la aproximación es buena cuando π/π ≤ 0,05. Por lo tanto, la cantidad π/π desempeña el papel del parámetro binomial π y, como consecuencia, la distribución binomial se podría considerar una versión de población grande de la distribución hipergeométrica. π π₯; π, π ≈ β(π₯; π, π, π) La media y la varianza entonces se obtienen de las fórmulas: π = ππ = π y π 2 = πππ = π 1 − π ππ ππ π Distribución de Poisson π(π; ππ) El proceso de Poisson es una sucesión de fallas o acontecimientos puntuales, que ocupan individualmente una porción despreciable en un medio continuo. Ese medio continuo puede ser un intervalo dado de tiempo o una región específica. Por ejemplo, un experimento de Poisson podría generar observaciones para la variable aleatoria π que representa el número de llamadas telefónicas por hora que recibe una oficina. Un experimento de Poisson se deriva del proceso de Poisson y tiene las siguientes propiedades: 1. El número de resultados que ocurren en un intervalo o región específica es independiente del número que ocurre en cualquier otro intervalo de tiempo o región del espacio disjunto. De esta forma vemos que el proceso de Poisson no tiene memoria. 2. La probabilidad de que ocurra un solo resultado durante un intervalo de tiempo muy corto o en una región pequeña es proporcional a la longitud del intervalo o al tamaño de la región, y no depende del número de resultados que ocurren fuera de este intervalo de tiempo o región. 3. La probabilidad de que ocurra más de un resultado en tal intervalo de tiempo corto o que caiga en tal región pequeña es insignificante. De modo que la probabilidad de que ocurra un número dado π de fallas (acontecimientos) en una extensión π de continuo es independiente de la posición de π dentro del continuo y de la ocurrencia de fallas en otros tramos. El número medio de resultados se calcula a partir de π = ππ‘, donde π‘ es el tiempo o la región de interés; y donde π es el número promedio de resultados por unidad de tiempo, distancia, área o volumen: π= πúππππ ππ ππππππ π’πππππ ππ ππ₯π‘πππ πóπ πππ ππππ‘íππ’π La distribución de probabilidad de la variable aleatoria de Poisson está dada por π(π₯;ππ‘) = π −ππ‘ ππ‘ π₯ π₯! = π −ππ π₯ , π₯ = 0,1,2,3, … π₯! 5 Y por ende, su probabilidad acumulada será π π π ≤ π₯;ππ‘ = π(π₯;ππ‘) π₯=0 Tanto la media como la varianza de la distribución de Poisson son πΈ π = ππ‘ = π π(π) = ππ‘ = π Demostración Al igual que muchas distribuciones discretas y continuas, la forma de la distribución de Poisson se vuelve cada vez más simétrica, incluso con forma de campana, a medida que la media se hace más grande. Aproximación de una distribución binomial por medio de una distribución de Poisson: En el caso de la distribución binomial, si π es bastante grande y π es pequeña, las condiciones comienzan a simular las implicaciones de espacio o tiempo continuos del proceso de Poisson. La independencia entre las pruebas de Bernoulli en el caso binomial es consistente con la segunda propiedad del proceso de Poisson. Permitir que el parámetro π se acerque a cero se relaciona con la tercera propiedad del proceso de Poisson. De hecho, si π es grande y π es cercana a 0, se puede usar la distribución de Poisson, con π = ππ, para aproximar probabilidades binomiales. Sea π una variable aleatoria binomial con distribución de probabilidad π(π₯; π, π). Cuando π → ∞, π → 0, y ππ → π permanece constante, π → ∞ π π₯; π, π → π(π₯; π) Esta aproximación es aceptable para la distribución binomial si π ≥ 20 y π ≤ 0,05. 6 Como la variable aleatoria binomial tiene un valor esperado ππ = π y una varianza ππ 1 − π = π(1 − π) ≈ π (porque π es pequeño), parecería que tanto la esperanza y la varianza de la variable aleatoria de Poisson son iguales al parámetro π. Distribuciones especiales continuas Para recordar: Sean π una variable aleatoria continua, y π(π₯) una función de densidad de probabilidad, la media de π es ∞ π =πΈ π = π₯π π₯ ππ₯ −∞ y la varianza de π es ∞ π2 = π π = πΈ π − π 2 Distribución uniforme π(π ; π¨, π© ) 2 = π₯ − π π π₯ ππ₯ −∞ Una de las distribuciones continuas más simples de la estadística es la distribución uniforme continua. Esta distribución se caracteriza por una función de densidad que es “plana”, por lo cual la probabilidad es uniforme en un intervalo cerrado, digamos [π΄, π΅]. La función de densidad de la variable aleatoria uniforme continua π en el intervalo [π΄, π΅] es 1 , π΄ ≤π₯ ≤π΅ π π₯ ; π΄, π΅ = π΅ − π΄ 0, ππ ππ‘ππ πππ π La distribución de densidad será: π½ π πΌ ≤π ≤π½ = 1 β π₯ πΌπ΅−π΄ La función de densidad forma un rectángulo con base π΅ − π΄ y altura constante π΅−π΄ . La aplicación 1 de esta distribución se basa en el supuesto de que la probabilidad de caer en un intervalo de longitud fija dentro de [π΄, π΅] es constante. A continuación se muestra un ejemplo del gráfico de la función de densidad para una variable aleatoria en el intervalo [1,3]. 7 La media y la varianza de la distribución uniforme son: πΈ(π) = π΄+π΅ 2 π π = π΅−π΄ 12 2 Demostración Para el caso de la esperanza: Ahora, para calcular la varianza es necesario calcular primero πΈ[π 2 ]: Entonces: Distribución normal π(π; π, ππ ) 8 La ecuación matemática para la distribución de probabilidad de la variable normal depende de los dos parámetros π y π 2, su media y su varianza, respectivamente. Por ello, denotamos los valores de la densidad de π por π(π₯; π, π 2 ). La densidad de la variable aleatoria normal π, con media π y varianza π 2, es π π₯;π,π 2 = 1 β π 2π − π₯−π 2π2 2 , −∞ <π₯ <∞ Su esperanza varianza son, por lo tanto πΈ(π) = π πππ(π) = π 2 Demostración Empecemos encontrando la media y la varianza de la variable aleatoria normal estándar π§ = Tenemos: π−π . π Por lo tanto Integrando por partes (con π’ = π₯ y ππ£ = π₯π −π₯ /2) nos da como resultado 2 Y como π = π + ππ, se obtienen los resultados πΈ π = π + ππΈ π = π y πππ π = π 2 πππ π = π 2 9 Una vez que se especifican π y π, la curva normal queda determinada por completo. Su gráfica es de forma de campana, centrada alrededor de π. Como el área total bajo la distribución normal de probabilidad es igual a 1, la simetría implica que el área a la derecha de π es 0,5 y el área a la izquierda de π es también 0,5. La forma de la distribución está determinada por π, la desviación estándar de la población. Como se puede ver en la figura, valores grandes de π reducen la altura de la curva y aumentan la dispersión; valores pequeños de π aumentan la altura de la curva y reducen la dispersión. Observamos el factor de posición, cuando las medias son diferentes, y el factor de dispersión cuando las varianzas son diferentes. Propiedades de la curva normal: 1. La moda, que es el punto sobre el eje horizontal donde la curva tiene su punto máximo, ocurre en π₯ = π. 2. La curva es simétrica alrededor de un eje vertical a través de la media π. 3. La curva tiene sus puntos de inflexión en π₯ = π ± π, es cóncava hacia abajo si π − π < π < π + π, y es cóncava hacia arriba en otro caso. 4. La curva normal se aproxima al eje horizontal de manera asintótica, conforme nos alejamos de la media en cualquier dirección. 5. El área total bajo la curva y sobre el eje horizontal es igual a uno. Área bajo la curva La curva de cualquier distribución continua de probabilidad o función de densidad se construye de manera que el área bajo la curva limitada por las dos ordenadas π₯ = π₯1 y π₯ = π₯2 sea igual a la probabilidad de que la variable aleatoria π tome un valor entre las ordenadas. Por consiguiente, para la curva normal de la figura π₯2 π π₯1 < π < π₯2 = π π₯;π,π ππ₯ = π₯1 1 π 2π π₯2 β − (π₯−π) 2 2π 2 ππ₯ π₯1 es representada por el área de la región sombreada. 10 Distribución normal estándar π~π π,π Sea π una variable aleatoria normal, es decir π~π(π,π 2 ) podemos transformar todas las observaciones de esta variable en un nuevo conjunto de observaciones de una variable aleatoria normal π con media 0 y varianza 1. Esto se puede realizar mediante la transformación: π= π−π π Siempre que π tome un valor π₯, el valor correspondiente de π es dado por π§ = π₯−π . Por lo tanto, si π π cae entre los valores π₯ = π₯1 y π₯ = π₯2 , la variable aleatoria π caerá entre los valores correspondientes π§1 = π₯ 1−π y π§2 π = π₯ 2−π . π La distribución de una variable aleatoria normal con media 0 y varianza 1 se llama distribución normal estándar y se representa como π~π(0,1) Aproximación normal a la binomial La distribución normal a menudo es una buena aproximación a una distribución discreta cuando la última adquiere una forma de campana simétrica. Desde un punto de vista teórico, algunas distribuciones convergen a la normal a medida que sus parámetros se aproximan a ciertos límites. Si π es una variable aleatoria binomial con media π = ππ y varianza π 2 = πππ, entonces la forma limitante de la distribución de π= π − ππ πππ conforme π → ∞, es la distribución normal estándar π(π§;0,1). Para ilustrar la aproximación normal a la distribución binomial primero dibujamos el histograma para π(π₯; 15, 0,4) y después superponemos la curva normal particular con la misma media y varianza. El grado de exactitud, que depende de qué tan bien se ajuste la curva al histograma, se incrementa a medida que aumenta π. 11 Si buscamos el área bajo la curva normal hacia la izquierda de, digamos π₯, es más preciso utilizar π₯ + 0,5, para así abarcar el rectángulo completo correspondiente a la distribución binomial. Esto es una corrección para dar cabida al hecho de que una distribución discreta se aproxima mediante una distribución continua. La corrección + 0,5 se llama corrección de continuidad. La explicación anterior conduce a la siguiente aproximación normal formal a la binomial. Sea π una variable aleatoria binomial con parámetros π y π. Para una π grande, π tiene aproximadamente una distribución normal con π = ππ y π 2 = ππ(1 – π): π₯ π π; π, π ≈ π π ≤ π π ≤ π₯ = π + 0,5 − ππ π=0 πππ y la aproximación será buena si ππ y π(1 – π) son mayores o iguales a 5. Distribución gamma π(π ; πΆ, π·) Se define la función gama como ∞ π¦πΌ−1 π −π₯ ππ₯, πΌ > 0 π€ πΌ = 0 Algunas propiedades de ella son: 1) π€(π) = (π − 1)! para una integral positiva π. 2) π€(1) = 1. 3) π€(1/2) = π. La variable aleatoria continua π tiene una distribución gamma, con parámetros πΌ y π½, si su función de densidad está dada por 1 π₯πΌ−1 ⋅ π −π₯ π½ , π₯ > 0 π π₯; πΌ, π½ = π½ π π€ πΌ 0, ππ ππ‘ππ πππ π donde πΌ > 0 y π½ > 0. En la figura se muestran gráficas de varias distribuciones gamma para ciertos valores específicos de los parámetros πΌ y π½. La distribución gamma especial para la que πΌ = 1 se llama distribución exponencial. 12 La media y la varianza de la distribución gamma son: πΈ(π) = πΌπ½ πππ(π) = πΌπ½ 2 Demostración La distribución gamma generalmente representa la cantidad de tiempo que hay que esperar para que un total de π eventos ocurran. Observe que la media de la distribución exponencial es el parámetro π½, el recíproco del parámetro en la distribución de Poisson. Debemos recordar que con frecuencia se dice que la distribución de Poisson no tiene memoria, lo cual implica que las ocurrencias en periodos sucesivos son independientes. El importante parámetro π½ es el tiempo promedio entre eventos. En la teoría de confiabilidad, donde la falla de equipo con frecuencia se ajusta a este proceso de Poisson, π½ se denomina tiempo medio entre fallas. Distribución chi cuadrada π π;π 13 Un caso especial muy importante de la distribución gamma se obtiene al permitir que πΌ = π£/2 y π½ = 2, donde π£ es un entero positivo. Este resultado se conoce como distribución chi cuadrada. La distribución tiene un solo parámetro, π£, denominado grados de libertad. La variable aleatoria continua π tiene una distribución chi cuadrada, con π£ grados de libertad, si su función de densidad es dada por 1 π π₯;π£ = 2 π£/2 π€ π£/2 0, π₯π£/2−1 ⋅ π −π₯ 2 , π₯ > 0 ππ ππ‘ππ πππ π donde π£ es un entero positivo. La distribución chi cuadrada es un componente importante de la prueba estadística de hipótesis y de la estimación estadística. Los temas en los que se trata con distribuciones de muestreo, análisis de varianza y estadística no paramétrica implican el uso extenso de la distribución chi cuadrada. La media y la varianza de la distribución chi cuadrada son πΈ(π) = π£ π(π) = 2π£ Se puede demostrar fácilmente con el uso de la función generatriz de momentos y de la relación de la chi-cuadrado con la distribución Gamma, la media y varianza de la distribución chi cuadrada. La probabilidad de que una muestra aleatoria produzca un valor π2 mayor que algún valor específico es igual al área bajo la curva a la derecha de este valor. El valor π2 por arriba del cual se encuentra un área de πΌ a la derecha por lo general se representa con π2πΌ . Esto se ilustra mediante la región sombreada de la figura. Exactamente 95% de una distribución chi cuadrada cae entre π20,975 y π20,025. Un valor fuera de este intervalo no tiene probabilidad de ocurrir, a menos que el valor de π 2, lo que probablemente sea un error. Distribuciones en el muestreo Una población consta de la totalidad de las observaciones en las que estamos interesados. El número de observaciones en la población se define como el tamaño de la población. Una muestra es un subconjunto de una población. 14 La inferencia estadística se interesa por sacar conclusiones a partir de la población usando una muestra. Para que las inferencias que hacemos sobre la población sean válidas, debemos obtener muestras que sean representativas de ella. Con mucha frecuencia nos sentimos tentados a elegir una muestra seleccionando a los miembros más convenientes de la población. Tal procedimiento podría conducir a inferencias erróneas respecto a la población. Se dice que cualquier procedimiento de muestreo que produzca inferencias que sobreestimen o subestimen de forma consistente alguna característica de la población está sesgado. Para eliminar cualquier posibilidad de sesgo en el procedimiento de muestreo es deseable elegir una muestra aleatoria, lo cual significa que las observaciones se realicen de forma independiente y al azar. Sean π 1 , π 2 ,…, π π variables aleatorias independientes π, cada una con la misma distribución de probabilidad π(π₯). Definimos π₯1 , π₯2 ,…, π₯π como una muestra aleatoria de tamaño π de la población y escribimos su distribución de probabilidad conjunta como π(π₯ 1 , π₯2 ,…, π₯π ) = π(π₯ 1 ) π(π₯ 2 )···π(π₯ π ) Cualquier función de las variables aleatorias que forman una muestra aleatoria se llama estadístico. Este es una función que, para valores de estas variables, devuelve un número real. En el campo de la inferencia estadística, el estadístico se interesa en llegar a conclusiones respecto a una población, cuando es imposible o poco práctico conocer todo el conjunto de observaciones que la constituyen. Hay muchos estadísticos con diferentes objetivos. Uno de estos es el estimador. Los más utilizados son: a) Media muestral: π= ∑ ππ=1 π π π El término media muestral se aplica tanto al estadístico π como a su valor calculado π₯. b) Mediana muestral: indica el valor central de la muestra. c) Moda muestral: es el valor que ocurre con mayor frecuencia en la muestra. d) Varianza muestral: π 1 π = π−1 2 π π − πΜ 2 π=1 El valor calculado de π 2 para una muestra dada se denota con π 2 . Observe que π 2 se define esencialmente como el promedio de los cuadrados de las desviaciones de las observaciones a partir de su media, dividido por π − 1, y no por π. e) Desviación estándar muestral: f) Rango muestral: π = π2 π = π πáπ₯ − π πíπ 15 La distribución de probabilidad de un estadístico se denomina distribución muestral. Se deberían considerar las distribuciones muestrales de π y π 2 como los mecanismos a partir de los cuales se puede hacer inferencias acerca de los parámetros π y π 2 respectivamente. Distribución muestral de la media Sea una población con media π y varianza π 2, y sea una variable aleatoria π tal que π~ππππππ π,π 2 La distribución de las medias de las muestras aleatorias (con reposición) de tamaño π tiene por media π y varianza π . Escribimos π2 π~ππππππ π, π2 π Esta distribución muestral describe la variabilidad de los promedios muestrales alrededor de la media de la población π. La aproximación normal para π por lo general será buena si π ≥ 30. Si π < 30, la aproximación será buena solo si la población no es muy diferente de una distribución normal. Si se sabe que la población es normal, la distribución muestral de π seguirá siendo una distribución normal exacta, sin importar qué tan pequeño sea el tamaño de las muestras. Teorema del límite central Dada una población, con media π y desviación típica π finitas, y seleccionamos al azar muestras aleatorias de tamaño π con media π, entonces a medida que π crece, la distribución π= π−π π π se aproxima a una distribución normal estándar. Distribución muestral para la diferencia entre dos medias Si se extraen al azar muestras independientes de tamaños π 1 y π 2 de dos poblaciones, discretas o continuas, con medias π1 y π2 y varianzas π21 y π22, respectivamente, entonces la distribución muestral de las diferencias de las medias, π 1 − π 2, tiene una distribución aproximadamente normal, con media y varianza dadas por ππ 1−π 2 = π1 − π2 y π2 π 1−π 2 = π 21 π1 + π 22 π2 De aquí, 16 π= π 1 − π 2 − (π1 − π2 ) (π 21/π 1 ) + (π 22/π 2 ) es aproximadamente una variable normal estándar. Si tanto π 1 como π 2 son mayores o iguales que 30, la aproximación normal para la distribución de π 1 − π 2 es muy buena cuando las distribuciones subyacentes no están tan alejadas de la normal. Distribución muestral de la varianza La distribución muestral de la varianza produce información acerca de la variabilidad de los valores de π 2 alrededor de π 2 en experimentos que se repiten. Si π 2 es la varianza de una muestra aleatoria de tamaño π que se toma de una población normal que tiene la varianza π 2 entonces el estadístico 2 π = (π − 1)π 2 π2 π = π=1 ππ − π 2 π2 tiene una distribución chi cuadrada con π − 1 grados de libertad. hay 1 grado menos de libertad, o se pierde un grado de libertad al estimar π. Demostración Distribución t Sea π una variable aleatoria normal estándar y π una variable aleatoria chi cuadrada con π£ grados de libertad. Si π y π son independientes, entonces la distribución de la variable aleatoria π, donde 17 π= π = (π − π)/(π/ π) π 2 /π 2 π π£ es dada por la función de densidad π£+1 2 π‘ = π£ ππ£ π€ 2 π€ ππ π‘2 1+ π£ − π£+1 2 , −∞ <π‘ <∞ Se conoce como la distribución t con π£ grados de libertad. La media y la varianza de la distribución t son: πΈ(π‘) = 0 πππ(π‘) = π π−2 La distribución de π se parece a la distribución de π en que ambas son simétricas alrededor de una media de cero. Ambas distribuciones tienen forma de campana, pero la distribución t es más variable debido al hecho de que los valores π dependen de las fluctuaciones de dos cantidades, π y π 2; mientras que los valores π dependen sólo de los cambios en π de una muestra a otra. Si el tamaño de la muestra es pequeño, los valores de π 2 fluctúan de forma considerable de una muestra a otra y la distribución de π se desvía de forma apreciable de la de una distribución normal estándar. Sólo cuando el tamaño de la muestra π → ∞ las dos distribuciones serán iguales. En la primera figura se presenta la relación entre una distribución normal estándar (π£ = ∞) y las distribuciones t con 2 y 5 grados de libertad. El valor π‘ por arriba del cual se encuentra un área igual a πΌ por lo general se representa con π‘πΌ. Como la distribución t es simétrica alrededor de una media de cero, tenemos π‘1−πΌ = − π‘πΌ (segunda figura). Exactamente 95% de los valores de una distribución t con π£ = π − 1 grados de libertad caen entre − π‘0,025 y π‘0,025. Si esto no ocurriera, tendríamos que tomar la decisión de que el valor de π que supusimos es erróneo. ¿Para qué se utiliza la distribución t? 18 Si el tamaño de la muestra es suficientemente grande, digamos π ≥ 30, la distribución de π no difiere mucho de la normal estándar. Supongamos que la población es normal con media y varianza desconocidas y que se desea hacer inferencias acerca de π, basada en una muestra pequeña (π < 30) tomada de la población. En este caso la distribución de la media muestral π ya no es normal, sino que sigue la distribución t. Entonces el estadístico π= π−π π/ π se distribuye como una t de Student con π − 1 grados de libertad. Distribución F El estadístico πΉ se define como el cociente de dos variables aleatorias chi cuadradas independientes, dividida cada una entre su número de grados de libertad. En consecuencia, podemos escribir πΉ= π π£1 π π£2 ≡ πΉ(π,π) donde π y π son variables aleatorias independientes que tienen distribuciones chi cuadrada con π£1 y π£2 grados de libertad. La distribución de πΉ es dada por la función de densidad h(π) = π£1 π£2 π£1 2 π£1 + π£2 π£ π£ +π£ 1 −1 − 1 2 2 2 π (π£1 + π£2 ) 2 ,π > 0 π£1 π£2 π€ π€ 2 2 π€ Esta se conoce como la distribución F con π£1 y π£2 grados de libertad. Su media y varianza están determinadas por: πΈ(π) = π£2 π£2 − 2 πππ(π) = 2π£22 (π£1 + π£2 − 2) π£1 (π£2 − 2)2 (π£2 − 4) Sea π πΌ el valor π por arriba del cual encontramos un área igual a πΌ. Esto se ilustra mediante la región sombreada de la figura. 19 Al escribir π πΌ (π£1 , π£2 ) para π πΌ con π£1 y π£2 grados de libertad, obtenemos π 1−πΌ π£1 , π£2 = 1 π πΌ (π£2 , π£1 ) La distribución F con dos varianzas muestrales Si π21 y π22 son las varianzas de muestras aleatorias independientes de tamaño π 1 y π 2 tomadas de poblaciones normales con varianzas π21 y π22, respectivamente, entonces πΉ= π 21/π 21 π 22/π 22 = π 22π 21 π 21π 22 tiene una distribución F con π£1 = π 1 − 1 y π£2 = π 2 − 1 grados de libertad. Aclaraciones ο· ο· ο· ο· Suponga que se quiere utilizar el estadístico π para hacer inferencias acerca de la media de la población π, lo cual se hace utilizando el valor observado π₯ de una sola muestra de tamaño π. Luego, cualquier inferencia deberá hacerse tomando en cuenta no sólo el valor único, sino también la estructura teórica o la distribución de todos los valores π que se podrían observar a partir de las muestras de tamaño π. Como resultado de lo anterior surge el concepto de distribución muestral, que es la base del teorema del límite central. La información muestral que conforma los estadísticos para las distribuciones t, F y π2 es la normal. Por lo tanto, se podría afirmar que donde haya una t, F o ππ la fuente era una muestra de una distribución normal. No se puede usar el teorema del límite central a menos que se conozca π. Para usar el teorema del límite central cuando no se conoce π se debe reemplazar con π , la desviación estándar de la muestra. El estadístico π no es un resultado del teorema del límite central y π₯1 , π₯2 ,…, π₯π deben provenir de una distribución π(π₯; π, π 2 ) para que π₯Μ−π π / π sea una distribución t. 20 Estimación puntual y por intervalos La inferencia estadística comprende los métodos que son usados para obtener conclusiones acerca de la población en base a una muestra tomada de ella. Se puede dividir en dos áreas principales: ο· ο· Problema de estimación: Se busca precisar una característica totalmente desconocida de la población a partir de los datos obtenidos sobre una muestra. Problema de test de hipótesis: Se busca comprobar alguna información sobre la población a partir de los datos obtenidos de una muestra. La estimación de parámetros puede ser puntual y por intervalos. Estimación puntual Se estudian los diversos métodos de encontrar estimadores y las propiedades óptimas que deben tener éstos. Un estimador puntual es simplemente un estadístico (media aritmética, varianza, etc.) que se emplea para estimar parámetros (media poblacional, varianza poblacional, etc.). Sea π una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea Θ un estadístico que utilizamos para estimar el valor de π. El estadístico Θ = π(π₯1 ,π₯2 ,...,π₯π ) es una función que depende de la muestra y lo llamaremos estimador. El valor concreto de Θ, representado por π es la estimación. La estimación puntual de algún parámetro de la población π es un solo valor π de un estadístico Θ. Parámetro Estimación Estimador π π Θ π π₯ π π π π π2 π 2 π2 No se espera que un estimador logre estimar el parámetro de la población sin error, sino que se espera que no esté muy alejado. Entre dos o más estimadores del mismo parámetro, el mejor estimador se obtendrá considerando la ausencia de sesgo, consistencia y eficiencia. El sesgo es la diferencia entre lo que dice el estimador y lo que dice el parámetro real. π(π) = πΈ(Θ) − π se llama sesgo de π© Si la diferencia es muy grande, el estimador está sesgado para ese parámetro. Se dice que un estadístico Θ es un estimador insesgado del parámetro π si la distribución muestral de Θ tiene una media igual al parámetro estimado. Es decir: πΈ Θ =π 21 Podemos destacar que: ο· ο· La media muestral π es un estimador insesgado de la media poblacional π. π 2 es un estimador insesgado de π 2. π, por otro lado, suele ser un estimador sesgado de π, un sesgo que en el caso de muestras grandes se vuelve insignificante. Esta es la razón por la cual dividimos entre π − 1 en vez de entre π cuando estimamos la varianza. Demostración en pág. 289. Si consideramos todos los posibles estimadores insesgados de algún parámetro π, al que tiene la menor varianza lo llamamos estimador más eficaz de π. Menor varianza para una variable aleatoria significa que, en promedio, sus valores fluctúan poco alrededor de la media. Menor varianza implica mayor precisión y entonces el estimador que tenga menor varianza es claramente más deseable porque, en promedio, está más cerca del verdadero valor de π. En la fi gura 9.1 se ilustran las distribuciones muestrales de tres estimadores diferentes Θ1, Θ2y Θ3, todos para π. Es evidente que sólo los primeros dos son insesgados, ya que sus distribuciones están centradas en π. El estimador Θ1 tiene menor varianza que Θ2 y, en consecuencia, el estimador más eficaz es Θ1. Estimación por intervalo Una estimación por intervalo de un parámetro de la población π es un intervalo de la forma ππΏ < π < ππ donde ππΏ y ππ dependen del valor del estadístico Θ para una muestra específica. Estos puntos extremos del intervalo son valores de las variables aleatorias correspondientes Θ L y ΘU. De la distribución muestral de Θ seremos capaces de determinar Θ L y ΘU, de manera que π ΘL < π < ΘU sea igual a cualquier valor positivo de una fracción que queramos especificar. Si, por ejemplo, si calculamos π ΘL < π < ΘU = 1 − πΌ donde 0 < πΌ < 1, tenemos entonces una probabilidad de 1 − πΌ de seleccionar una muestra aleatoria que produzca un intervalo que contenga π. La fracción 1 − πΌ se denomina grado de confianza y los extremos, π©πΏ y π©π, se denominan límites de confianza inferior y superior. πΌ representa la probabilidad de error, así, cuando πΌ = 0,05, tenemos un intervalo de confianza del 22 95%, y cuando πΌ = 0,01 obtenemos un intervalo de confianza más amplio del 99%. Cuanto más amplio sea el intervalo de confianza, más confiaremos en que contiene el parámetro desconocido. Intervalo de confianza para la media poblacional 1. Varianza conocida Si seleccionamos nuestra muestra a partir de una población normal o, a falta de ésta, si π es suficientemente grande, podemos establecer un intervalo de confianza para π considerando la distribución muestral de π . De una población normal con media desconocida π y varianza conocida π 2 se extrae una muestra de tamaño π, entonces de la distribución muestral de la media se obtiene que π= π −π π/ π se distribuye como una normal estándar. Al escribir π§π/2 para el valor π§ por arriba del cual encontramos una área de πΌ/2 bajo la curva normal, podemos ver que π(− π§ π/2 < π < π§π/2 ) = 1 − πΌ Sustituyendo la fórmula de π, se obtiene π π π πΜ − π§πΌ 2 < π < πΜ + π§πΌ 2 π π =1−πΌ Si π₯Μ es la media de una muestra aleatoria de tamaño π de una población de la que se conoce su varianza π 2, el intervalo de confianza de 100(1 − πΌ)% para π de π₯Μ − π§ πΌ 2 π π < π < π₯Μ + π§ πΌ 2 π π donde π§/2 es un valor de π§ tal que el área a la derecha de dicho valor es /2. El inervalo de confianza en la curva normal se ilustra a continuación: 23 Cuanto más grande sea el valor de π§πΌ 2 que elijamos, más anchos haremos todos los intervalos, y podremos tener más confianza en que la muestra particular que seleccionemos producirá un intervalo que contenga el parámetro desconocido π. En el caso de muestras pequeñas que se seleccionan de poblaciones no normales, no podemos esperar que nuestro grado de confianza sea preciso. Sin embargo, para muestras de tamaño π ≥ 30, en las que la forma de las distribuciones no esté muy sesgada, la teoría de muestreo garantiza buenos resultados. Si utilizamos πΜ como una estimación de π, podemos tener 100(1 − πΌ)% de confianza en que el error no excederá π = π§πΌ 2 cuando el tamaño de la muestra sea π= 2. Varianza desconocida π π π§πΌ 2 π π 2 Recordemos que si tenemos una muestra aleatoria a partir de una distribución normal, entonces la variable aleatoria π= πΜ − π π π tiene una distribución t de Student con π–1 grados de libertad. En esta situación, en la que se desconoce π, se puede utilizar π para construir un intervalo de confianza para π. El procedimiento es igual que cuando se conoce π, sólo que en este caso π se reemplaza con π y la distribución normal estándar se reemplaza con la distribución t. Podemos afirmar que π(− π‘π/2 < π < π‘π/2 ) = 1 − πΌ Donde π‘π/2 es el valor de t con π − 1 grados de libertad, tal que el área a la derecha de dicho valor es /2. Al sustituir por T escribimos π π < π < πΜ + π‘πΌ 2 π πΜ − π‘πΌ 2 π π =1−πΌ Si π₯ y s son la media y la desviación estándar de una muestra aleatoria de una población normal de la que se desconoce la varianza π 2, un intervalo de confianza del 100(1 − πΌ)% para π es π₯Μ − π‘πΌ 2 π π < π < π₯Μ + π‘ πΌ 2 π π Donde π‘/2 es un valor de t con π–1 grados de libertad y tal que el área a la derecha de dicho valor es /2. 24 Intervalo de confianza para una muestra grande Con frecuencia los estadísticos recomiendan que incluso cuando no sea posible suponer la normalidad, se desconozca π y π ≥ 30, π se puede reemplazar con π para poder utilizar el intervalo de confianza π₯Μ ± π§ πΌ 2 π π A menudo se hace referencia a esto como un intervalo de confianza para una muestra grande. La justificación para esto reside sólo en la presunción de que, con una muestra tan grande como 30 y una distribución de la población no muy sesgada, π estará muy cerca de la π verdadera y, de esta manera, el teorema del límite central continuará siendo válido. En caso de que la muestra tomada sea chica (π < 30), y se desconozca π sí utilizaremos el inervalo de confianza de la forma π₯Μ ± π‘πΌ 2 π π Estimación de la diferencia entre dos medias poblacionales 1. Varianzas conocidas Si tenemos dos poblaciones con medias π1 y π2, y varianzas π21 y π22, respectivamente, el estadístico que da un estimador puntual de la diferencia entre π1 y π2 es πΜ 1 − πΜ 2. Por lo tanto, para obtener una estimación puntual de π1 y π2, se seleccionan dos muestras aleatorias independientes de tamaño π 1 y π 2 y se calcula π₯1 − π₯2, la diferencia de las medias muestrales. Podemos esperar que la distribución muestral de πΜ 1 − πΜ 2 esté distribuida de forma aproximadamente normal con media π1 − π2 y desviación estándar podemos asegurar, con una probabilidad de 1 – πΌ, que el estadístico π= π 21 π 22 + . Por lo tanto, π1 π2 (πΜ 1 − πΜ 2 ) − (π1 − π2 ) π 21 π 22 π1 + π2 se distribuye como una normal estándar y caerá entre − π§πΌ 2 y π§πΌ 2. Por lo tanto, obtenemos la probabilidad π − π§πΌ 2 < (πΜ 1 − πΜ 2 ) − (π1 − π2 ) < π§πΌ 2 =1−πΌ π 21 π 22 π1 + π2 25 Si π₯Μ 1y π₯Μ 2 son las medias de muestras aleatorias independientes de tamaños π 1 y π 2 , de poblaciones que tienen varianzas conocidas π21 y π22 , respectivamente, un intervalo de confianza del 100(1 – πΌ)% para π 1 − π 2 está dado por π 21 π 22 π 21 π 22 + < π 1 − π 2 < π₯Μ 1 − π₯Μ 2 + π§ πΌ 2 + π1 π2 π1 π2 π₯Μ 1 − π₯Μ 2 − π§ πΌ 2 Donde π§π/2 es el valor de la normal estándar tal que el área a la derecha de dicho valor es πΌ/2. 2. Varianzas desconocidas pero iguales Consideremos el caso donde varianzas de las poblaciones son desconocidas, pero se consideran iguales, es decir π21 = π22 = π 2 Obtenemos una variable normal estándar de la forma π= (πΜ 1 − πΜ 2 ) − (π1 − π2 ) π2 π2 π1 + π2 Que se distribuye como una normal estándar. Las dos variables aleatorias (π 1 − 1)π 21 π2 ~ (π 2 − 1)π 22 π2π −1 1 π2 ~ π2π 2−1 tienen distribuciones chi cuadrada con π 1 − 1y π 2 − 1 grados de libertad, respectivamente. En consecuencia, su suma π2π = (π 1 − 1)π 21 π 2 + (π 2 − 1)π 22 π 2 π 1 − 1 π 21 + π 2 − 1 π 22 = π 2 π1 + π2 − 2 ~ π2π 1+π 2−2 tiene distribución chi cuadrada con π 1 + π 2 − 2 grados de libertad. Así se sigue que el estadístico π= (πΜ 1 − πΜ 2 ) − (π1 − π2 ) 1 1 π2 π + π 1 2 π 1 − 1 π 21 + π 2 − 1 π 22 π2 π1 + π2 − 2 se distribuye como una t de Student con π 1 + π 2 − 2 grados de libertad. Al sustituir π2π en el estadístico π, obtenemos la forma más simple π= (πΜ 1 − πΜ 2 ) − (π1 − π2 ) ππ 1 π1 + 1 π2 Si usamos el estadístico π, tenemos 26 π − π‘πΌ 2 < (πΜ 1 − πΜ 2 ) − (π1 − π2 ) ππ 1 π1 + 1 π2 < π‘πΌ 2 = 1 − πΌ donde π‘πΌ 2 es el valor t con π 1 + π 2 − 2 grados de libertad, que deja un área de πΌ/2. Si π₯Μ 1 y π₯Μ 2 son las medias de muestras aleatorias independientes con tamaños π 1 y π 2 , respectivamente, tomadas de poblaciones más o menos normales con varianzas iguales pero desconocidas, un intervalo de confianza del 100(1 – πΌ)% para π1 − π2 es dado por π₯Μ 1 − π₯Μ 2 ± π‘(πΌ/2,π 1+π 2−2) π π 1 1 1 1 + < π1 − π2 < π₯Μ 1 − π₯Μ 2 + π‘(πΌ/2,π +π −2) π π + 1 2 π1 π2 π1 π2 donde π π es la estimación agrupada de la desviación estándar de la población y π‘(πΌ/2,π valor t con π 1 + π 2 − 2 grados de libertad, que deja un área de πΌ/2 a la derecha. 1+π 2−2) es el 3. Varianzas desconocidas y distintas El estadístico que se utiliza con mayor frecuencia en el caso de varianzas desconocidas para un intervalo de π 1 − π 2 es π' = πΜ 1 − πΜ 2 − (π1 − π2 ) π 21 π 22 π1 + π2 que tiene aproximadamente una distribución t con π£ grados de libertad, donde π£= (π1 + π2 )2 π1 = π 21 π 22 + π1 − 1 π2 − 1 π 21 π2 = π1 π 22 π2 Como π£ rara vez es un entero, lo redondeamos al número entero menor más cercano. Con el estadístico π’, escribimos π − π‘πΌ 2 < πΜ 1 − πΜ 2 < π‘πΌ 2 ≈1−πΌ π 21 π 22 π1 + π2 donde π‘πΌ 2 es el valor de la distribución t con π£ grados de libertad por arriba del cual encontramos un área de πΌ/2. Si π₯Μ 1 y π 21 y π₯Μ 1 y π 22 s son las medias y varianzas de muestras aleatorias independientes de tamaños π 1 y π 2, respectivamente, tomadas de poblaciones aproximadamente normales con varianzas 27 desconocidas y diferentes, un intervalo de confianza aproximado del 100(1 − πΌ)% para π1 − π2 es dado por π₯Μ 1 − π₯Μ 2 − π‘πΌ/2 π 21 π 22 π 21 π 22 + < π 1 − π 2 < π₯Μ 1 − π₯Μ 2 + π‘πΌ/2 + π1 π2 π1 π2 donde π‘πΌ/2 deja un área de πΌ/2 a la derecha, con π 21 π 22 π1 + π2 π£= π 21 π1 2 π1 − 1 2 π 22 π2 + 2 π2 − 1 grados de libertad. Interpretación de los intervalos de confianza Para el caso de un solo parámetro el intervalo de confianza simplemente produce límites de error del parámetro. Los valores contenidos en el intervalo se deberían ver como valores razonables, dados los datos experimentales. En el caso de una diferencia entre dos medias, la interpretación se puede extender a una comparación de las dos medias. Por ejemplo, si tenemos gran confianza en que una diferencia π1 − π2 es positiva, sin duda inferiremos que π1 > π2 con poco riesgo de incurrir en un error. Comparación de medias de dos poblaciones usando muestras pareadas Ahora estudiaremos los procedimientos de estimación para la diferencia de dos medias cuando las muestras no son independientes. A diferencia de la situación que se describió antes, las condiciones de las dos poblaciones no se asignan de forma aleatoria a las unidades experimentales. Más bien, cada unidad experimental homogénea recibe ambas condiciones de la población; como resultado, cada unidad experimental tiene un par de observaciones. Sea π π el valor del tratamiento πΌ y ππ el valor del tratamiento πΌπΌ en el i-ésimo sujeto, puede visualizar la i-ésima diferencia del par como ππ = ππ − ππ Las inferencias que se hacen son acerca del promedio poblacional π de las ππ. Estas diferencias son los valores de una muestra aleatoria π·π de una población de diferencias, que supondremos distribuidas normalmente, con media π π= π=1 ππ π y varianza 28 ∑ (π π − π)Μ 2 π π π = π−1 Un intervalo de confianza del 100(1 − πΌ)% para la diferencia poblacional tamaño π es de la forma π dada una muestra de π π‘πΌ 2 < π < π‘πΌ 2 = 1 − πΌ Donde π‘πΌ/2 es el valor t con π − 1 grados de libertad, que deja un área de πΌ/2 a la derecha. π= π − ππ π π β π Sustituyendo entonces el estadístico π, obtenemos π π − π‘πΌ 2,π−1 π π < ππ < π + π‘πΌ 2,π−1 π π π π =1−πΌ Si ππ = 0, significa que no hay diferencia entre los dos tratamientos. Si π y π π son la media y la desviación estándar, respectivamente, de las diferencias distribuidas normalmente de π pares aleatorios de mediciones, un intervalo de confianza del 100(1 − πΌ)% para ππ = π1 − π2 es π − π‘πΌ/2 π π < ππ < π + π‘πΌ/2 π π π π donde π‘πΌ/2 es el valor t con π − 1 grados de libertad, que deja un área de πΌ/2 a la derecha. Intervalo de confianza de una proporción Estamos interesados en estimar la proporción π (o el porcentaje) de ocurrencia de un evento. El estadístico π = π/π, en donde π representa el número de éxitos en π ensayos, provee un estimador puntual de la proporción π en un experimento binomial. Se puede establecer un intervalo de confianza para π considerando la distribución muestral de π. Se puede mostrar que cuando el tamaño de muestra es grande π está distribuida de forma casi normal con media ππ π = =π π π πΈ π =πΈ y varianza π2π/π = π 2π π 2 = πππ π 2 = ππ π Podemos demostrar que el estadístico 29 π= π−π ππ π se distribuye como una normal estándar; donde π representa la proporción poblacional que se desea estimar y π = π π es la proporción muestral. Al sustituir para π en la fórmula del intervalo de confianza ya conocida obtenemos π − π§πΌ 2 < π−π ππ π < π§πΌ 2 = 1 − πΌ donde π§ πΌ 2 es el valor por arriba del cual encontramos una área de πΌ/2 debajo de la curva normal estándar. Cuando π es grande se introduce un error muy pequeño sustituyendo el estimado puntual π = π₯/π para la π debajo del signo de radical. Por lo que nos queda π π − π§πΌ 2 ππ ππ < π < π + π§πΌ/2 ≈1−πΌ π π Si π es la proporción de éxitos en una muestra aleatoria de tamaño π, y π = 1 − π, un intervalo de confianza aproximado del 100 (1 − πΌ) % para la proporción poblacional π es: π − π§πΌ/2 ππ ππ < π < π + π§πΌ/2 π π donde π§πΌ/2 es el valor z que deja una área de πΌ/2 a la derecha. Cuando π es pequeña y se cree que la proporción desconocida π se acerca a 0 o a 1, el procedimiento del intervalo de confianza que se establece aquí no es confiable y, por lo tanto, no se debería emplear. Para estar seguros se requiere que tanto ππ como ππ sean mayores que o iguales a 5. Si π se utiliza como un estimado de π, podemos tener un 100(1 − πΌ)% de confianza en que el error no excederá π = π§πΌ/2 ππ π y el tamaño de la muestra será π= π§ 2πΌ/2ππ π2 Intervalo de confianza de la diferencia entre dos proporciones Considere el problema en el que se busca estimar la diferencia entre dos parámetros binomiales π1 y π2 . Se puede establecer un intervalo de confianza para π1 − π2 considerando la distribución 30 muestral de π1 − π2. Sabemos que π1 y π2están distribuidos cada uno de forma aproximadamente normal, con medias π1 y π2, y varianzas π1 π 1 /π 1 y π2 π 2 /π 2,respectivamente. Por lo tanto, podemos asegurar que π − π§πΌ 2 < π < π§πΌ 2 = 1 − πΌ Donde π= π1 − π2 − (π1 − π2 ) π1 π1 π2 π2 π1 + π2 y π§ πΌ 2 es un valor por arriba del cual encontramos una área de πΌ/2 debajo de la curva normal estándar. Al sustituir para π escribimos π − π§πΌ 2 < π1 − π2 − (π1 − π2 ) π1 π1 π2 π2 π1 + π2 < π§πΌ 2 = 1 − πΌ Si π1 y π2 son las proporciones de éxitos en muestras aleatorias de tamaños π 1 y π 2, respectivamente, π 1 = 1 − π1 y π 2 = 1 − π2, un intervalo de confianza aproximado del 100(1 − πΌ)% para la diferencia de dos parámetros binomiales π1 − π2 es dado por π1 − π2 − π§πΌ 2 π1 π1 π2 π2 π π π π + < π1 − π2 < π1 − π2 + π§πΌ 2 1 1 + 2 2 π1 π2 π1 π2 donde π§ πΌ 2 es el valor π§ que deja una área de πΌ/2 a la derecha. Intervalo de confianza para la varianza poblacional Si extraemos una muestra de tamaño π de una población normal con varianza π 2 y calculamos la varianza muestral π 2, obtenemos un valor del estadístico π 2. Esta varianza muestral calculada se utiliza como una estimación puntual de π 2. Se puede establecer una estimación por intervalos de π 2 utilizando el estadístico π2 = (π − 1)π 2 π2 Cuando las muestras se toman de una población normal el estadístico π2 tiene una distribución chi cuadrada con π − 1 grados de libertad. Podemos escribir π π21−πΌ/2 < π2 < π2πΌ/2 = 1 − πΌ donde π21−πΌ/2 y π2πΌ/2 son valores de la distribución chi cuadrada con π − 1 grados de libertad, que dejan áreas de 1 − πΌ/2 y πΌ/2, respectivamente, a la derecha, como muestra la figura. 31 Al sustituir para π2 escribimos π π21−πΌ/2 < (π − 1)π 2 π 2 < π2πΌ/2 = 1 − πΌ Si dividimos cada término de la desigualdad entre (π − 1)π 2 obtenemos π (π − 1)π 2 π 2πΌ/2 < π2 < (π − 1)π 2 π 21−πΌ/2 =1−πΌ Si π 2 es la varianza de una muestra aleatoria de tamaño π de una población normal, un intervalo de confianza del 100(1 − πΌ)% para π 2 es (π − 1)π 2 π 2πΌ/2 < π2 < (π − 1)π 2 π 21−πΌ/2 donde π2πΌ/2 y π21−πΌ/2 son valores chi cuadrados con π − 1 grados de libertad, que dejan áreas de πΌ/2 y 1 − πΌ/2, respectivamente, a la derecha. Observaciones ο· Cuando se desconoce π y no se está convencido de que la distribución que se muestrea es normal, se puede calcular un intervalo de confianza para π a partir de π₯Μ ± π§ πΌ 2 π π En la práctica es común que se utilice esta fórmula cuando la muestra es demasiado pequeña, sin embargo, logramos mayor precisión cuando π ≥ 30. ο· El uso de la distribución t requiere que la distribución de donde se toma la muestra sea normal. Sin embargo, la aplicación de la distribución t es robusta a la suposición de normalidad y no es necesario que la población lo sea siempre y cuando no se desvíe mucho. 32 ο· En el caso de la distribución π2, la prueba para esta aplicación no es robusta para la suposición de normalidad. Si la población no se distribuye normalmente, la distribución muestral π − 1 π 2 /π 2 se aparta mucho de π2. Test de hipótesis Una hipótesis estadística es una aseveración o conjetura respecto a una o más poblaciones. La verdad o falsedad de una hipótesis estadística nunca se sabe con absoluta certeza, a menos que se examine toda la población, lo cual, por supuesto, sería poco práctico en la mayoría de las situaciones. En vez de eso se toma una muestra aleatoria de la población de interés y se utilizan los datos contenidos en ella para proporcionar evidencia que respalde o no la hipótesis. La aceptación de una hipótesis implica que los datos no dan suficiente evidencia para rechazarla. El rechazo implica que la evidencia muestral es suficiente para rechazarla. La estructura de la prueba de hipótesis se establece usando el término hipótesis nula, el cual se refiere a cualquier hipótesis que se desea probar y se denota con π»0. Se espera que sea rechazada después de aplicar una prueba estadística. El rechazo de π»0 conduce a la aceptación de una hipótesis alternativa, que se denota con π»1. Cuando se realiza un test de hipótesis se puede llegar a dos conclusiones: rechazar π»0 a favor de π»1 debido a evidencia suficiente en los datos o no rechazar π»0 debido a evidencia insuficiente en los datos. Un conjunto formado de valores que apoyan la hipótesis alternativa y llevan a rechazar π»0, se denomina región de rechazo o región crítica. El otro, formado de valores que apoyan la hipótesis nula, recibe el nombre de región de aceptación. Cuando la región de rechazo está en la cola izquierda de la distribución, la prueba se llama prueba de cola izquierda. Una prueba con su región de rechazo en la cola derecha recibe el nombre de prueba de cola derecha. Si el estadístico de prueba cae en la región de rechazo, entonces se rechaza la hipótesis nula. Si el estadístico de prueba cae en la región de aceptación, entonces la hipótesis nula se acepta o la prueba se juzga como no concluyente Tipos de errores El procedimiento de toma de decisiones recién descrito podría conducir a cualquiera de dos conclusiones erróneas: ο· ο· El rechazo de la hipótesis nula cuando es verdadera se denomina error tipo I (cae en la región crítica). No rechazar la hipótesis nula cuando es falsa se denomina error tipo II. La probabilidad de cometer un error tipo I, también llamada nivel de significancia, se denota con la letra griega πΌ: πΌ = π(π ππβππ§ππ π» 0 /π»0 ππ π) 33 Este valor a representa el máximo riesgo tolerable de rechazar incorrectamente π»0. Una vez fijo este nivel de significancia, la región de rechazo se puede fijar para permitir que el investigador rechace π»0 con un grado fijo de confianza en la decisión. La probabilidad de cometer un error tipo II se denota con π½: π½ = π(ππ πππβππ§ππ π» 0 /π»0 ππ πΉ) Cuyo valor es imposible de calcular a menos que tengamos una hipótesis alternativa específica. Los errores tipo I y tipo II están relacionados. Por lo general una disminución en la probabilidad de cometer uno da como resultado un incremento en la probabilidad de cometer el otro. Por fortuna, la probabilidad de cometer ambos tipos de errores se puede reducir aumentando el tamaño de la muestra. Siempre es posible reducir π½ aumentando el tamaño de la región crítica, es decir, la probabilidad de cometer un error tipo I. Nota: ver ejemplo de cálculo de errores tipo I y II en el libro. Pág. 384. Regla general: ο· ο· El nivel de error tipo II es aproximadamente cuatro veces el nivel de error tipo I. Si el nivel de error tipo I es 5%, un adecuado nivel de error tipo II es 20% (potencia 80%). Potencia de una prueba La potencia de una prueba mide la probabilidad de tomar la acción que deseamos que ocurra, esto es, la probabilidad de rechazar π»0 cuando esta es falsa y π»1 es verdadera. La potencia de una prueba se puede calcular como 1 − π½. A menudo diferentes tipos de pruebas se comparan contrastando propiedades de potencia. Una buena prueba estadística es aquella que tiene una potencia de prueba alta. Para producir una potencia deseable es necesario incrementar πΌ o aumentar el tamaño de la muestra. La única forma de aumentar la potencia para una πΌ fija es aumentar el tamaño muestral π. Pruebas de una y dos colas Una prueba de cualquier hipótesis estadística donde la alternativa es unilateral, como π»0 : π = π0 π»1 :π > π0 o quizás π»0 : π = π0 π»1 :π < π0 se denomina prueba de una sola cola. Por lo general la región crítica para la hipótesis alternativa π > π0 yace en la cola derecha de la distribución del estadístico de prueba, en tanto que la región crítica para la hipótesis alternativa π < π0 yace por completo en la cola izquierda. La prueba de cualquier hipótesis alternativa donde la alternativa es bilateral, como 34 π»0 : π = π0 π»1 :π ≠ π0 se denomina prueba de dos colas, ya que la región crítica se divide en dos partes, a menudo con probabilidades iguales en cada cola de la distribución del estadístico de prueba. La hipótesis alternativa π ≠ π0 establece que π < π0 o que π > π0. Con frecuencia la hipótesis nula π»0 se plantea usando el signo de igualdad. Con este método se observa claramente cómo se controla la probabilidad de cometer un error tipo I. Prueba de hipótesis usando el método del valor P El valor P o nivel de significancia observado de una prueba estadística es el valor más pequeño de πΌ para el cual π»0 se puede rechazar. Es el riesgo real de cometer un error tipo I, si π»0 es rechazada con base en el valor observado del estadístico de prueba. En la prueba de cola derecha con estadística observada de prueba π§ = 2.03, el valor crítico más pequeño que se puede usar y todavía rechazar π»0 es π§ = 2.03. Para este valor crítico, el riesgo de una decisión incorrecta es π π§ ≥ 2.03 = 1 − 0.9788 = .0212. Esta probabilidad es el valor P para la prueba. Observe que es en realidad el área a la derecha del valor calculado del estadístico de prueba. Un valor de P menor o igual a un nivel de significancia πΌ asignado previamente, indicará que se rechaza la hipótesis nula. Valores de P grandes indican que la estadística observada de prueba no está alejada de la media hipotética y no apoya el rechazo de π»0. Fórmulas para calcular el valor P Caso I: π»0 : π = π0 y π»1 : π < π0, entonces π π£πππ’π = π(π < π ππππ ). Caso II: π»0 : π = π0 y π»1 : π > π0, entonces π π£πππ’π = π(π > π ππππ ). y π»1 : π ≠ π0, entonces π π£πππ’π = 2π(π > π ππππ ). Caso III: π»0 : π = π0 Procedimientos de prueba de hipótesis El procedimiento de test de hipótesis para el método clásico es: 1. 2. 3. 4. 5. Establecer la hipótesis nula π»0 y alternativa π»1. Elegir un nivel de significancia πΌ fijo. Seleccionar el estadístico de prueba apropiada y establecer la región crítica en base a πΌ. Calcular el valor del estadístico de prueba a partir de la muestra. Rechazar π»0 si la estadística de prueba tiene un valor en la región crítica. El procedimiento de prueba de hipótesis con el método del valor P es: 1. Establecer la hipótesis nula π»0 y alternativa π»1. 2. Elegir un estadístico de prueba adecuado. 3. Calcular el valor π con base en los valores calculados del estadístico de prueba. 35 4. Sacar conclusiones con base en el valor π. Prueba de hipótesis de una media 1. varianza conocida Es conveniente estandarizar π e incluir de manera formal la variable aleatoria normal estándar π, donde π₯Μ − ππ π§= π π Y por lo tanto la expresión π − π§πΌ < 2 π₯Μ − ππ π π < π§πΌ = 1 − πΌ 2 se puede utilizar para escribir una región de no rechazo adecuada. Así, dado un valor calculado π₯, la prueba formal implica rechazar π»0 si el estadístico de prueba π§ calculado cae en la región crítica anterior. Se pueden presentar tres casos: Caso I: π»0 : π = π0 y Caso II: π»0 : π = π0 Caso III: π»0 : π = π0 y y π»1 : π < π0. π»1 : π > π0. π»1 : π ≠ π0. Si π§ < − π§πΌ se rechaza π»0 . Si π§ > π§πΌ se rechaza π»0 . Si π§ < − π§πΌ/2 o π§ > π§πΌ/2 se rechaza π»0 . 2. Varianza desconocida Ciertamente sospecharíamos que las pruebas sobre una media de la población π con π 2 desconocida, como la estimación del intervalo de confianza, deberían incluir el uso de la distribución t de Student. Usando el estadístico π‘= π₯Μ − ππ π π con π − 1 grados de libertad. Los casos que se pueden presentar son Caso I: π»0 : π = π0 Caso II: π»0 : π = π0 Caso III: π»0 : π = π0 y y y π»1 : π < π0. π»1 : π > π0. π»1 : π ≠ π0. Si π‘ < − π‘πΌ se rechaza π»0 . Si π‘ > π‘πΌ se rechaza π»0 . Si π‘ < − π‘πΌ/2 o π‘ > π‘πΌ/2 se rechaza π»0 . Prueba de hipótesis para la diferencia entre dos medias 1. Varianzas conocidas Se calculan los valores π₯1 y π₯2, y para π1 y π2 conocidas, el estadístico de prueba es dado por 36 π§= π₯1 − π₯2 − π0 π 21 π 22 π1 + π2 El rechazo de la hipótesis nula se da en tres casos: Caso I: π»0 : π − π = π0 1 y 2 Caso II: π»0 : π − π = π0 1 1 y 2 1 y 2 Caso III: π»0 : π − π = π0 π»1 : π − π < π0. 2 Si π§ < − π§πΌ se rechaza π»0 . π»1 : π − π > π0. 1 π»1 : π − π ≠ π0. 1 Si π§ > π§πΌ se rechaza π»0 . 2 Si π§ < − π§πΌ/2 o π§ > π§πΌ/2 se rechaza π»0 . 2 2. Varianzas desconocidas pero iguales Si se supone que ambas distribuciones son normales y que sus varianzas son iguales, utilizamos el estadístico de prueba π‘' = (π₯Μ 1 − π₯Μ 2 ) − π0 1 1 π π π + π 1 2 con π 1 + π 2 − 2 grados de libertad, donde π π = La prueba depende de tres casos: Caso I: π»0 : π − π = π0 1 y 2 Caso II: π»0 : π − π = π0 1 Caso III: π»0 : π − π = π0 1 2 2 y y π 1 − 1 π 21 + π 2 − 1 π 22 π1 + π2 − 2 π»1 : π − π < π0. 1 2 π»1 : π − π > π0. 1 2 π»1 : π − π ≠ π0. 1 2 Si π‘′ < − π‘′πΌ se rechaza π»0 . Si π‘′ > π‘′πΌ se rechaza π»0 . Si π‘′ < − π‘′πΌ/2 o π‘′ > π‘′πΌ/2 se rechaza π»0 . 3. Varianzas desconocidas y distintas Si las poblaciones son normales, y sus varianzas distintas, el estadístico π‘' = (π₯Μ 1 − π₯Μ 2 ) − π0 π 21 π 22 π1 + π2 tiene una distribución t aproximada con grados de libertad aproximados por la siguiente fórmula ππ = (π1 + π2 )2 π 21 π2 + 2 π−1 π−1 37 π1 = π 21 π2 = π Como resultado, los casos posibles son: Caso I: π»0 : π − π = π0 1 y 2 Caso II: π»0 : π − π = π0 1 1 2 y 1 y 2 Caso III: π»0 : π − π = π0 π»1 : π − π < π0. 2 π»1 : π − π > π0. 1 2 π»1 : π − π ≠ π0. 1 2 π 22 π Si π‘′ < − π‘′πΌ se rechaza π»0 . Si π‘′ > π‘′πΌ se rechaza π»0 . Si π‘′ < − π‘′πΌ/2 o π‘′ > π‘′πΌ/2 se rechaza π»0 . Prueba de hipótesis para observaciones pareadas En esta estructura de pareado las condiciones de las dos poblaciones (tratamientos) se asignan de forma aleatoria dentro de unidades homogéneas. El cálculo del intervalo de confianza para π 1 − π 2 en la situación con observaciones pareadas se basa en el estadístico de prueba dado por π‘= π − ππ π π π con π − 1 grados de libertad, y donde π y π π son variables aleatorias que representan la media muestral y la desviación estándar de las diferencias de las observaciones en las unidades experimentales. Como en el caso de la prueba t agrupada, la suposición es que las observaciones de cada población son normales. Caso I: π»0 : ππ = π0 y π»1 : ππ < π0. Caso II: π»0 : ππ = π0 y Caso III: π»0 : ππ = π0 y π»1 : ππ > π0. π»1 : ππ ≠ π0. Si π‘ < − π‘πΌ se rechaza π»0 . Si π‘ > π‘πΌ se rechaza π»0 . Si π‘ < − π‘πΌ/2 o π‘ > π‘πΌ/2 se rechaza π»0 . Prueba de hipótesis para una proporción La variable aleatoria adecuada sobre la que basamos nuestro criterio de decisión es la variable aleatoria binomial π. Los valores de π que están lejos de la media π = ππ0 conducirán al rechazo de la hipótesis nula. Para π grande por lo general se prefiere la aproximación de la curva normal, la cual es muy precisa, siempre y cuando π0 no esté demasiado cerca de 0 o de 1. Si utilizamos la aproximación normal, el valor π§ para probar π = π0 es dado por π§= π − π0 π0 π0 π que es un valor de la variable normal estándar Z. los casos posibles son Caso I: π»0 : π = π0 Caso II: π»0 : π = π0 y π»1 : π < π0. Si π§ < − ππΌ se rechaza π»0 . y π»1 : π > π0. Si π§ > ππΌ se rechaza π»0 . 38 Caso III: π»0 : π = π0 y π»1 : π ≠ π0. Si π§ < − π§πΌ/2 o π§ > π§πΌ/2 se rechaza π»0 . Prueba de hipótesis para dos proporciones En general, deseamos probar la hipótesis nula de que dos proporciones, o parámetros binomiales, son iguales. Es decir, probamos π1 = π2 contra una de las alternativas. Se seleccionan al azar muestras independientes de tamaños π 1 y π 2 de dos poblaciones binomiales y se calcula la proporción de éxitos π1 y π2para las dos muestras. En la construcción de intervalos de confianza para π1 y π2 observamos, para π 1 y π 2 suficientemente grandes, se pueden establecer sus regiones críticas usando la variable normal estándar π1 − π2 π§= 1 1 ππ π + π 1 2 Donde el estimado agrupado de la proporción π es π= π₯1 + π₯2 π1 + π2 Por lo tanto, re rechaza π»0 cuando: Caso I: π»0 :π1 = π2 Caso II: π»0 :π1 = π2 Caso III: π»0 : π1 = π2 y y y π»1 : π1 < π2. π»1 : π1 > π2. π»1 : π1 ≠ π2. Si π§ < − ππΌ se rechaza π»0 . Si π§ > ππΌ se rechaza π»0 . Si π§ < − π§πΌ/2 o π§ > π§πΌ/2 se rechaza π»0 . Prueba de hipótesis para la varianza Empecemos por considerar el problema de probar la hipótesis nula de que la varianza de la población π 2 es igual a un valor específico π20contra una de las alternativas. Si suponemos que la distribución de la población que se muestrea es normal, el estadístico de prueba a utilizar será π2 = π − 1 π 2 π 20 con π − 1 grados de libertad. Para un nivel de significancia πΌ las regiones críticas serán: Caso I: π»0 : π 2 = π20 Caso II: π»0 : π 2 = π20 Caso III: π»0 : π 2 = π20 y y π»1 : π 2 < π20. Si π2ππππ < π21−πΌ se rechaza π»0 . y π»1 : π 2 > π20. Si π2ππππ > π2πΌ se rechaza π»0 . π»1 : π 2 ≠ π20. Si π2ππππ < π21−πΌ/2 o π2ππππ > π2πΌ/2 se rechaza π»0 . Prueba de la bondad de ajuste 39 Hasta ahora nos ocupamos de la prueba de hipótesis estadística acerca de parámetros de una sola población, como π, π 2 y π. Ahora consideraremos una prueba para determinar si una población tiene una distribución teórica específica. La prueba se basa en el nivel de ajuste que existe entre la frecuencia de ocurrencia de las observaciones en una muestra observada y las frecuencias esperadas que se obtienen a partir de la distribución hipotética. Una prueba de la bondad de ajuste entre las frecuencias observadas y esperadas se basa en la cantidad π 2 π = π=1 (ππ − π π )2 ππ donde π2 es un valor de una variable aleatoria cuya distribución muestral se aproxima muy de cerca a la distribución chi cuadrada con π£ = π − 1 grados de libertad, siendo π las posibilidades del experimento (seis en un dado, dos en una moneda). Los símbolos ππ y π π representan las frecuencias observada y esperada para la i-ésima celda, respectivamente. Si las frecuencias observadas se acercan a las frecuencias esperadas correspondientes, el valor π2 será pequeño, lo cual indica un buen ajuste. Un buen ajuste conduce a la aceptación de π»0. Por lo tanto, la región crítica caerá en la cola derecha de la distribución chi cuadrada. Para un nivel de significancia igual a πΌ encontramos el valor crítico π2πΌ en la distribución chi cuadrada, entonces, π2 > π2πΌ constituye la región crítica. El criterio de decisión que aquí se describe no se debería utilizar a menos que cada una de las frecuencias esperadas sea por lo menos igual a 5. Demostraciones extra 40 El signo de la covarianza indica si la relación entre dos variables aleatorias dependientes es positiva o negativa. Cuando π y π son estadísticamente independientes, se puede demostrar que la covarianza es cero. 41