Fundamentos de Estadística Pablo Cazau Prefacio Capítulo 1: Introducción a la estadística 1.1 Definición y utilidad de la estadística 1.2 Clasificaciones de la estadística 1.3 Población y muestra 1.4 Estructura del dato 1.5 La medición Capítulo 2: Estadística descriptiva 2.1 Generalidades 2.2 Ordenamiento y agrupación de los datos: matrices y tablas 2.3 Visualización de los datos: gráficos 2.4 Síntesis de los datos: medidas estadísticas de posición 2.5 Síntesis de los datos: medidas estadísticas de dispersión 2.6 Síntesis de los datos: asimetría y curtosis Notas Capítulo 3: Probabilidad y curva normal 3.1 El concepto de probabilidad 3.2 Definición y características de la curva normal 3.3 Puntajes brutos y puntajes estandarizados 3.4 Aplicaciones de la curva normal Notas Capítulo 4: Correlación y regresión 4.1 Introducción 4.2 El análisis de correlación 4.3 Cálculo gráfico de la correlación 4.4 Cálculo analítico de la correlación 4.5 Un ejemplo: construcción y validación de tests 4.6 El análisis de regresión 4.7 Cálculo analítico de la regresión 4.8 Cálculo gráfico de la correlación Notas Capítulo 5: Estadística inferencial 5.1 Introducción 5.2 Estimación de parámetros 5.3 Prueba de hipótesis 5.4 Ejemplos de pruebas de hipótesis 5.5 El concepto de significación estadística Notas Referencias bibliográficas Otras fuentes consultadas Anexos ANEXO 1: NOMENCLATURA UTILIZADA EN ESTA GUÍA ANEXO 2: TABLA DE ÁREAS BAJO LA CURVA NORMAL ESTANDARIZADA Tabla 1 – Áreas desde z hacia la izquierda Tabla 2 – Áreas desde z = 0 hacia la izquierda o hacia la derecha ANEXO 3: TABLA DE LA DISTRIBUCIÓN t Fundamentos de estadística Pablo Cazau PREFACIO El presente texto fue pensado como un manual de consulta para alumnos de diversas carreras universitarias de grado y posgrado que cursan asignaturas donde se enseña la estadística como herramienta de la metodología de la investigación científica. Se brinda aquí un panorama general e introductorio de los principales temas de una disciplina que opera en dos grandes etapas: la estadística descriptiva y la estadística inferencial. También se desarrollan los conceptos de probabilidad y curva normal, básicos para la comprensión de la estadística inferencial, y los conceptos de correlación y regresión vinculados, respectivamente, con las etapas descriptiva e inferencial. Pablo Cazau. Licenciado en Psicología y Profesor de Enseñanza Media y Superior en Psicología (UBA). Buenos Aires, Enero 2006. Todos los derechos reservados CAPÍTULO 1: INTRODUCCION A LA ESTADISTICA 1.1 DEFINICIÓN Y UTILIDAD DE LA ESTADÍSTICA La Estadística es una disciplina que utiliza recursos matemáticos para organizar y resumir una gran cantidad de datos obtenidos de la realidad, e inferir conclusiones respecto de ellos. Por ejemplo, la estadística interviene cuando se quiere conocer el estado sanitario de un país, a través de ciertos parámetros como la tasa de morbilidad o mortalidad de la población. En este caso la estadística describe la muestra en términos de datos organizados y resumidos, y luego infiere conclusiones respecto de la población. Por ejemplo, aplicada a la investigación científica, hace inferencias cuando emplea medios matemáticos para establecer si una hipótesis debe o no ser rechazada. La estadística puede aplicarse a cualquier ámbito de la realidad, y por ello es utilizada en física, química, biología, medicina, astronomía, psicología, sociología, lingüística, demografía, etc. Cuando en cualquiera de estas disciplinas se trata de establecer si una hipótesis debe o no ser rechazada, no siempre es indispensable la estadística inferencial. Por ejemplo, si sobre 60 veces que se mira un dado, sale un dos 10 veces, no se requiere la estadística para rechazar la hipótesis “el dado está cargado”. Si sale un dos en 58 ocasiones sobre 60, tampoco se necesita la estadística para aceptar la hipótesis “el dado está cargado”. Pero, ¿qué ocurre si el número dos sale 20, 25 o 30 veces? En estos casos de duda, la estadística interviene para determinar hasta qué cantidad de veces se considerará rechazada la hipótesis (o bien desde qué cantidad de veces se la considerará aceptada). En otras palabras, la estadística interviene cuando debe determinarse si los datos obtenidos son debidos al azar o son el resultado de un dado cargado. Otro ejemplo. Si una persona adivina el color (rojo o negro) de las cartas en un 50% de los casos, se puede rechazar la hipótesis “la persona es adivina”. Si, en cambio, acierta en el 99% de los casos el color de las cartas, se puede aceptar la mencionada hipótesis. Los casos de duda corresponden a porcentajes de acierto intermedios, como el 60%, el 70%, etc., en cuyos casos debe intervenir la estadística para despejarlos. La importancia de la estadística en la investigación científica radica en que la gran mayoría de las investigaciones son „casos de duda‟. 1.2 CLASIFICACIONES DE LA ESTADÍSTICA Existen varias formas de clasificar los estudios estadísticos. 1) Según la etapa.- Hay una estadística descriptiva y una estadística inferencial. La primera etapa se ocupa de describir la muestra, y la segunda etapa infiere conclusiones a partir de los datos que describen la muestra (por ejemplo, conclusiones con respecto a la población). Tanto la estadística descriptiva como la estadística inferencial se ocupan de obtener datos nuevos. La diferencia radica en que la estadística descriptiva procede a resumir y organizar esos datos para facilitar su análisis e interpretación, y la estadística inferencial procede a formular estimaciones y probar hipótesis acerca de la población a partir de esos datos resumidos y obtenidos de la muestra. Puesto que estas últimas operaciones llevarán siempre a conclusiones que tienen algún grado de probabilidad, la teoría de la probabilidad constituye una de sus herramientas principales. Téngase presente que en sí misma la teoría de la probabilidad no forma parte de la estadística porque es otra rama diferente de la matemática, pero es utilizada por la estadística como instrumento para lograr sus propios objetivos. La estadística descriptiva también incluye –explícita o implícitamente- consideraciones probabilísticas, aunque no resultan ser tan importantes como en la estadística inferencial. Por ejemplo, la elección de un determinado estadístico para caracterizar una muestra (modo, mediana o media aritmética) se funda sobre ciertas consideraciones implícitas acerca de cuál de ellos tiene más probabilidades de representar significativamente el conjunto de los datos que se intenta resumir. Tanto la estadística descriptiva como la inferencial implican, entonces, el análisis de datos. “Si se realiza un análisis con el fin de describir o caracterizar los datos que han sido reunidos, entonces estamos en el área de la estadística descriptiva… Por otro lado, la estadística inferencial no se refiere a la simple descripción de los datos obtenidos, sino que abarca las técnicas que nos permiten utilizar los datos muestrales para inferir u obtener conclusiones sobre las poblaciones de las cuales fueron extraídos dichos datos” (Pagano, 1998:19). Kohan, por su parte, sintetiza así su visión de las diferencias entre ambos tipos de estadística: “Si estudiamos una característica de un grupo, sea en una población o en una muestra, por ejemplo talla, peso, edad, cociente intelectual, ingreso mensual, etc, y lo describimos sin sacar de ello conclusiones estamos en la etapa de la estadística descriptiva. Si estudiamos en una muestra una característica cualquiera e inferimos, a partir de los resultados obtenidos en la muestra, conclusiones sobre la población correspondiente, estamos haciendo estadística inductiva o inferencial, y como estas inferencias no pueden ser exactamente ciertas, aplicamos el lenguaje probabilístico para sacar las conclusiones” (Kohan, 1994:25). Kohan emplea la palabra inductiva porque las inferencias realizadas en este tipo de estadística son razonamientos inductivos, modernamente definidos como razonamientos cuya conclusión es sólo probable. 2) Según la cantidad de variables estudiada.- Desde este punto de vista hay una estadística univariada (estudia una sola variable, como por ejemplo la inteligencia), una estadística bivariada (estudia la relación entre dos variables, como por ejemplo inteligencia y alimentación), y una estadística multivariada (estudia tres o más variables, como por ejemplo como están relacionados el sexo, la edad y la alimentación con la inteligencia). El siguiente esquema ilustra la relación entre dos clasificaciones de la estadística: descriptiva / inferencial y univariada / bivariada. Parámetros x y POBLACION x y Estadísticos MUESTRA x1 x1 x2 xn Una variable y1 Dos (o más) variables La estadística descriptiva se ocupa de muestras, y la estadística inferencial infiere características de la población a partir de muestras. A su vez, ambas etapas de la estadística pueden estudiar una variable por vez o la relación entre dos o más variables. Por ejemplo, a) en el caso de la estadística univariada, el cálculo de medidas de posición y dispersión en una muestra corresponde a la estadística descriptiva, mientras que la prueba de la media corresponde a la estadística inferencial; b) en el caso de la estadística bivariada, el análisis de correlación de variables en una muestra corresponde estrictamente hablando a la estadística descriptiva, mientras que el análisis de regresión o las pruebas de hipótesis para coeficientes de correlación (Kohan N, 1994:234) corresponden a la estadística inferencial. 3) Según el tiempo considerado.- Si se considera a la estadística descriptiva, se distingue la estadística estática o estructural, que describe la población en un momento dado (por ejemplo la tasa de nacimientos en determinado censo), y la estadística dinámica o evolutiva, que describe como va cambiando la población en el tiempo (por ejemplo el aumento anual en la tasa de nacimientos). 1.3 POBLACIÓN Y MUESTRA Puesto que la estadística se ocupa de una gran cantidad de datos, debe primeramente definir de cuáles datos se va a ocupar. El conjunto de datos de los cuales se ocupa un determinado estudio estadístico se llama población. No debe confundirse la población en sentido demográfico y la población en sentido estadístico. La población en sentido demográfico es un conjunto de individuos (todos los habitantes de un país, todas las ratas de una ciudad), mientras que una población en sentido estadístico es un conjunto de datos referidos a determinada característica o atributo de los individuos (las edades de todos los individuos de un país, el color de todas las ratas de una ciudad). Incluso una población en sentido estadístico no tiene porqué referirse a muchos individuos. Una población estadística puede ser también el conjunto de calificaciones obtenidas por un individuo a lo largo de sus estudios universitarios. En el siguiente esquema pueden apreciarse algunas formas de considerar los datos individuales, según que correspondan a muchas personas o a una sola, y también según que hayan sido recolectados en un instante de tiempo determinado, o bien a lo largo del tiempo. En un instante de tiempo De muchos individuos Notas de todos los alumnos en el primer parcial de tal mes y tal año. De un solo individuo Notas de un solo alumno en el primer parcial de las materias que A lo largo del tiempo Notas de todos los alumnos durante los 6 años de carrera. cursa en ese momento. Notas de un alumno a lo largo de los 6 años de carrera. Los datos de la totalidad de una población pueden obtenerse a través de un censo. Sin embargo, en la mayoría de los casos no es posible hacerlo por razones de esfuerzo, tiempo y dinero, razón por la cual se extrae, de la población, una muestra, mediante un procedimiento llamado muestreo. Se llama muestra a un subconjunto de la población, y que puede o no ser representativa de la misma. Por ejemplo, si la población es el conjunto de todas las edades de los estudiantes de la provincia de Buenos Aires, una muestra podría ser el conjunto de edades de 2000 estudiantes de la provincia de Buenos Aires tomados al azar. 1.4 ESTRUCTURA DEL DATO Los datos son la materia prima con que trabaja la estadística, del mismo modo que la madera es la materia prima con que trabaja el carpintero. Así como este procesa o transforma la madera para obtener un producto útil, así también el estadístico procesa o transforma los datos para obtener información útil. Tanto los datos como la madera no se inventan: se extraen de la realidad; en todo caso el secreto está en recoger la madera o los datos más adecuados a los objetivos del trabajo a realizar. De una manera general, puede definirse técnicamente dato como una categoría asignada a una variable de una unidad de análisis. Por ejemplo, “Luis tiene 1.70 metros de estatura” es un dato, donde „Luis‟ es la unidad de análisis, „estatura‟ es la variable, y „1.70 metros‟ es la categoría asignada. Como puede apreciarse, todo dato tienen al menos tres componentes: una unidad de análisis, una variable y una categoría. La unidad de análisis es el elemento del cual se predica una propiedad y característica. Puede ser una persona, una familia, un animal, una sustancia química, o un objeto como una dentadura o una mesa. La variable es la característica, propiedad o atributo que se predica de la unidad de análisis. Por ejemplo puede ser la edad para una persona, el grado de cohesión para una familia, el nivel de aprendizaje alcanzado para un animal, el peso específico para una sustancia química, el nivel de „salud‟ para una dentadura, y el tamaño para una mesa. Pueden entonces también definirse población estadística (o simplemente población) como el conjunto de datos acerca de unidades de análisis (individuos, objetos) en relación a una misma característica, propiedad o atributo (variable). Sobre una misma población demográfica pueden definirse varias poblaciones de datos, una para cada variable. Por ejemplo, en el conjunto de habitantes de un país (población demográfica), puede definirse una población referida a la variable edad (el conjunto de edades de los habitantes), a la variable ocupación (el conjunto de ocupaciones de los habitantes), a la variable sexo (el conjunto de condiciones de sexo de los habitantes). La categoría es cada una de las posibles variaciones de una variable. Categorías de la variable sexo son masculino y femenino, de la variable ocupación pueden ser arquitecto, médico, etc, y de la variable edad pueden ser 10 años, 11 años, etc. Cuando la variable se mide cuantitativamente, es decir cuando se expresa numéricamente, a la categoría suele llamársela valor. En estos casos, el dato incluye también una unidad de medida, como por ejemplo años, cantidad de hijos, grados de temperatura, cantidad de piezas dentarias, centímetros, etc. El valor es, entonces, cada una de las posibles variaciones de una variable cuantitativa. Datos individuales y datos estadísticos.- Un dato individual es un dato de un solo individuo, mientras que un dato estadístico es un dato de una muestra o de una población en su conjunto. Por ejemplo, la edad de Juan es un dato individual, mientras que el promedio de edades de una muestra o población de personas es un dato estadístico. Desde ya, puede ocurrir que ambos no coincidan: la edad de Juan puede ser 37 años, y el promedio de edades de la muestra donde está incluído Juan es 23 años. Por esta razón un dato estadístico nada dice respecto de los individuos, porque solamente describe la muestra o población. Los datos estadísticos que describen una muestra suelen llamarse estadísticos (por ejemplo, el promedio de ingresos mensuales de las personas de una muestra), mientras que los datos estadísticos descriptores de una población suelen llamarse parámetros (por ejemplo, el promedio de ingresos mensuales de las personas de una población) (Kohan N, 1994:143). 1.5 LA MEDICIÓN Los datos se obtienen a través un proceso llamado medición. Desde este punto de vista, puede definirse medición como el proceso por el cual asignamos una categoría (o un valor) a una variable, para determinada unidad de análisis. Ejemplo: cuando decimos que Martín es varón, estamos haciendo una medición, porque estamos asignando una categoría (varón) a una variable (sexo) para una unidad de análisis (Martín). A veces se ha definido medir como comparar, lo cual puede referirse a diversos tipos de comparación: 1) comparar una cantidad con otra tomada como unidad Sentido clásico de comparación); 2) comparar dos categorías de una misma variable en el mismo sujeto y distinto tiempo; 3) comparar dos categorías de una misma variable en distintos sujetos al mismo tiempo; y 4) categorías de variables distintas (debe usarse puntaje estandarizado), en el mismo sujeto o en sujetos distintos. Se pueden hacer mediciones con mayor o menor grado de precisión. Cuanto más precisa sea la medición, más información nos suministra sobre la variable y, por tanto, sobre la unidad de análisis. No es lo mismo decir que una persona es alta, a decir que mide 1,83 metros. Los diferentes grados de precisión o de contenido informativo de una medición se suelen caracterizar como niveles de medición. Típicamente se definen cuatro niveles de medición, y en cada uno de ellos la obtención del dato o resultado de la medición será diferente: Ejemplos de datos en diferentes niveles de medición Nivel de medición DATO Nivel nominal Nivel ordinal Martín es electricista Elena terminó la secundaria Nivel cuantitativo discreto Juan tiene 32 dientes Unidad de análisis Variable Martín Elena Juan Oficio Electricista Cantidad de piezas dentarias 32 Frecuencia cardíaca Categoría o valor Unidad de medida Nivel de instrucción Secundaria completa ------------ Diente Pulsaciones por minuto ------------- Nivel cuantitativo continuo María tiene 70 pulsaciones por minuto María 70 En el nivel nominal, medir significa simplemente asignar un atributo a una unidad de análisis (Martín es electricista). En el nivel ordinal, medir significa asignar un atributo a una unidad de análisis cuyas categorías pueden ser ordenadas en una serie creciente o decreciente (la categoría „secundaria completa‟ puede ordenarse en una serie, pues está entre „secundaria incompleta‟ y „universitaria incompleta‟). En el nivel cuantitativo, medir significa además asignar un atributo a una unidad de análisis de modo tal que la categoría asignada permita saber „cuánto‟ mayor o menor es respecto de otra categoría, es decir, especifica la distancia o intervalo entre categorías (por ejemplo, la categoría 70 es el doble de la categoría 35). Las variables medibles en el nivel cuantitativo pueden ser discretas o continuas. Una variable discreta es aquella en la cual, dados dos valores consecutivos, no puede adoptar ningún valor intermedio (por ejemplo entre 32 y 33 dientes, no puede hablarse de 32.5 dientes). En cambio, una variable es continua cuando, dados dos valores consecutivos, la variable puede adoptar muchos valores intermedios (por ejemplo entre 1 y 2 metros, puede haber muchas longitudes posibles). Algunas veces una misma variable puede ser considerada como discreta o continua. Por ejemplo, la variable peso es discreta si solamente interesan los pesos sin valores intermedios (50 kg, 51 kg, etc), mientras que será continua si interesan también los valores intermedios (50,3 kg, 50,35 kg, 50,357 kg, etc). Obviamente, al considerar una variable como continua se obtendrá mayor precisión, es decir, mayor información. La precisión es una cualidad importante de la medición. Se pueden hacer mediciones más precisas y menos precisas, o tan precisas como lo permita el instrumento de medición. El primer nivel de medición es el menos preciso, y el último el más preciso. Por ejemplo, una mujer puede estar interesada en „medir‟ el amor de su pareja, para lo cual podrá interrogarla solicitándole diferentes grados de precisión: ¿me querés? (nivel nominal), ¿me querés más que a la otra? (nivel ordinal), ¿Cuánto me querés, del 1 al 10? (nivel cuantitativo). De la misma manera, diferentes grados de precisión para la variable temperatura pueden ser: A es un objeto caliente (nivel nominal), A es más caliente que B (nivel ordinal), A tiene 25 grados Celsius (nivel cuantitativo). Los ejemplos del amor y de la temperatura ilustran también el hecho de que una variable puede en principio medirse en cualquiera de los niveles de medición. Los niveles de medición pueden también ser clasificados de acuerdo a un criterio diferente, que afecta específicamente a los dos últimos. Así, los niveles de medición pueden ser clasificados como nominal, ordinal, de intervalos iguales y de cocientes o razones. Más allá de sus diferentes propiedades matemáticas, el nivel de intervalos iguales incluye un cero relativo o arbitrario, mientras que el nivel de cocientes o razones incluye un cero absoluto o real. Un cero absoluto o real representa la ausencia „real‟ de la variable (cero metros implica ausencia de longitud), mientras que un cero relativo o arbitrario no (cero grado centígrados no implica ausencia de temperatura). Existen ciertas variables a las cuales no puede asignársele un „cero real‟, por cuanto no se considera que esa variable pueda estar ausente en la realidad. Tal es el caso de la ansiedad o la inteligencia: nadie, por menos ansioso o por menos inteligente que sea, puede tener ansiedad o inteligencia nulas. CAPÍTULO 2: ESTADÍSTICA DESCRIPTIVA 2.1 GENERALIDADES El propósito fundamental de la estadística descriptiva es resumir y organizar una gran cantidad de datos referentes a una muestra (lo más habitual) o a una población. Se supone que los datos resumidos y organizados permiten describir adecuadamente la muestra o la población a los efectos de conocerla y, eventualmente, utilizarlos en la estadística inferencial para obtener conclusiones a partir de ellos. Para resumir y organizar los datos se utilizan diferentes procedimientos, llamados técnicas descriptivas: la matriz de datos permite ordenarlos, las tablas de frecuencias (o tablas de distribución de frecuencias) permiten agruparlos, los gráficos permiten visualizarlos, y las medidas estadísticas y las medidas de asimetría y curtosis permiten resumirlos reduciéndolos a un solo dato. Secuencia para organizar y resumir datos individuales A medida que se van utilizando estos procedimientos, los datos van quedando cada vez más resumidos y organizados. El empleo de dichos procedimientos propios de la estadística descriptiva sigue un orden determinado, como puede apreciarse en el siguiente esquema: DATOS ORDENADOS (matriz de datos) DATOS RECOLECTADOS (entrevistas, cuestionarios, tests, etc) DATOS AGRUPADOS POR FRECUENCIA (tabla de frecuencias) DATOS AGRUPADOS POR INTERVALOS (tabla de frecuencias por intervalos) DATOS VISUALIZADOS (gráficos) DATOS SINTETIZADOS (medidas estadísticas y medidas de asimetría y curtosis) Como puede verse: a) Los datos quedan recolectados mediante entrevistas, cuestionarios, tests, etc. b) Los datos quedan ordenados mediante una matriz de datos (lo cual permite resumir la información en unas pocas páginas). c) Los datos quedan agrupados mediante tablas de frecuencias (lo cual permite resumir la información en una sola página). d) Los datos quedan visualizados mediante gráficos. e) Los datos quedan sintetizados mediante las medidas estadísticas y otras (lo cual permite resumir la información en uno o dos renglones). Puede entonces decirse que, mediante una matriz de datos, una tabla de frecuencias (1), un gráfico o con medidas estadísticas, etc, la muestra o la población (conjuntos de datos) puede quedar adecuadamente descrita. Estas sucesivas abstracciones estadísticas implican: a) la reducción del espacio físico donde queda guardada la nueva información, y b) la desaparición de considerable información irrelevante. Debe distinguirse el fin o propósito perseguido (por ejemplo ordenar los datos), del medio utilizado para ello, que e la técnica descriptiva (por ejemplo, la matriz de datos). 2.2 ORDENAMIENTO Y AGRUPACIÓN DE LOS DATOS: MATRICES Y TABLAS Una vez que los datos han sido recolectados, se procede a continuación a ordenarlos en una matriz de datos y luego a agruparlos en una tabla de frecuencias. La forma de ordenarlos y agruparlos dependerá del tipo de variable considerada. Por ejemplo, si son datos relativos a variables cualitativas (niveles de medición nominal y ordinal), no podremos utilizar tablas de frecuencias por intervalos. El siguiente cuadro indica de qué manera se pueden ordenar y agrupar los datos según cada nivel de medición de la variable: Ejemplos de organización de los datos según el nivel de medición Datos ordenados Nivel nominal (Ejemplo: variable religión) Nivel ordinal (Ejemplo: variable clase social) Nivel cuantitativo (Ejemplo: variable edad) Datos agrupados por frecuencia Matriz de datos Sujeto x (religión) Juan Católica Pedro Católica María Judía Antonio Protestante Luis Protestante José Protestante Tabla de frecuencias x (religión) f Católica 2 Judía 1 Protestante 3 n=6 Matriz de datos Sujeto x (clase social) Juan Alta Pedro Media María Media Antonio Media Luis Baja José Baja Tabla de frecuencias x (clase social) Alta Media Baja Matriz de datos Sujeto x (edad) Juan 15 Pedro 15 María 15 Antonio 16 Luis 16 José 16 Ana 16 Gabriela 16 Susana 17 Martín 17 Sergio 17 Pablo 17 Daniel 17 Graciela 17 Daniela 17 Beatriz 17 Oscar 18 Felipe 18 Alberto 18 Mónica 19 Marta 19 Mariana 20 Tabla de frecuencias x (edad) 15 16 17 18 19 20 Datos agrupados por intervalos f = frecuencia n = tamaño de la muestra f 1 3 2 n=6 f = frecuencia n = tamaño de la muestra f 3 5 8 3 2 1 n = 22 Tabla de frecuencias por intervalos x (edad) f 15-16 8 17-18 11 19-20 3 n = 22 f = frecuencia n = tamaño de la muestra f = frecuencia n = tamaño de la muestra Una vez confeccionada la matriz de datos, se procede luego a resumir aún más esta información mediante una tabla de frecuencias o, si cabe, en una tabla de frecuencias por intervalos. Una tabla de este último tipo se justifica cuando la tabla de frecuencias original es demasiado grande y por tanto de difícil manejo para procesar la información. Sea de la forma que fuere, los datos ordenados según sus frecuencias suelen denominarse distribución de frecuencias (13). Las tablas de frecuencias contienen tres elementos importantes: las frecuencias, el tamaño de la muestra y los intervalos (en este último caso sólo para variables cuantitativas). a) Frecuencia.- La frecuencia (f) se define como la cantidad de datos iguales o que se repiten. Por ejemplo: la frecuencia 2 indica que el dato „católico‟ se repite dos veces, la frecuencia 3 que el dato “clase media” se repite tres veces, y la frecuencia 8 que el dato “17 años” se repite ocho veces. A veces resulta necesario expresar las frecuencias de otra manera, como puede apreciarse en la siguiente tabla ilustrativa: Tipos de frecuencias que pueden indicarse en una tabla de frecuencias x (edad) 15 16 17 18 f 3 7 8 2 n = 20 f% 15% 35% 40% 10% n = 100% F 3 10 18 20 ------ F% 15% 50% 90% 100% ------ fr 0.15 0.35 0.40 0.10 n=1 Fr 0.15 0.50 0.90 1 ------ Frecuencia absoluta (f).- Es la cantidad de datos que se repiten. Por ejemplo, la frecuencia 3 indica que hay tres personas de 15 años. La suma de todas las frecuencias absolutas equivale al tamaño de la muestra. Frecuencia porcentual (f%).- Es el porcentaje de datos que se repiten. Por ejemplo, la frecuencia porcentual 15% indica que el 15% de la muestra tiene la edad de 15 años. La suma de todas las frecuencias porcentuales es 100%. Frecuencia acumulada (F).- Es el resultado de haber sumado las frecuencias anteriores. Por ejemplo, la frecuencia acumulada 10 resulta de sumar 7+3, e indica la cantidad de veces que se repiten las edades 16 y 15. La última de todas las frecuencias acumuladas, que en el ejemplo es 20, debe coincidir con el tamaño de la muestra. Frecuencia acumulada porcentual (F%).- Es el porcentaje de las frecuencias acumuladas. Frecuencia relativa (fr).- A veces también llamada proporción, es el cociente entre la frecuencia de un dato x y la frecuencia total o tamaño de la muestra. En la práctica, el tamaño de la muestra se considera como 1, a diferencia del tamaño de la muestra en la frecuencia porcentual, que se considera 100%. Frecuencia relativa acumulada (Fr).- Es el resultado de haber sumado las frecuencias relativas anteriores. Por ejemplo: la frecuencia relativa 0.90 indica que en 0.90 casos sobre 1 las edades están comprendidas entre 15 y 17 años. Frecuencias parciales y frecuencia total.- Tanto las frecuencias absolutas como las porcentuales o las relativas pueden ser frecuencias parciales o una frecuencia total, siendo ésta última la suma de todas frecuencias parciales. Las frecuencias porcentuales y las frecuencias relativas comparan la frecuencia parcial con la frecuencia total, y sirven para establecer comparaciones entre muestras distintas. Por ejemplo, si en una muestra de 1000 hombres, solo votaron 200, y en una muestra de 600 mujeres solo votaron 200 mujeres, en términos de frecuencias absolutas existe la misma cantidad de votantes masculinos y femeninos, es decir 200, pero en „proporción‟, las mujeres votaron más (la tercera parte del total) que los hombres (la quinta parte del total). Esta información se obtiene al convertir las frecuencias absolutas en frecuencias porcentuales o en frecuencias relativas (o proporciones). 2) Tamaño de la muestra.- Otro concepto importante es el tamaño de la muestra (n), que designa la cantidad total de datos. Obviamente, la suma de todas las frecuencias f debe dar como resultado el tamaño n de la muestra, por lo que el tamaño de la muestra coincide con la frecuencia total. 3) Intervalos.- Un intervalo, también llamado intervalo de clase, es cada uno de los grupos de valores ubicados en una fila en una tabla de frecuencias. Por ejemplo el intervalo 15-16 significa que en esa fila se están considerando las edades de 15 a 16 años. La frecuencia correspondiente a un intervalo es igual a la suma de frecuencias de los valores en él incluídos (2). Los intervalos presentan algunas características, que son las siguientes: Tamaño del intervalo (a).- También llamado amplitud o anchura del intervalo, es la cantidad de valores de la variable que se consideran conjuntamente en ese intervalo. Por ejemplo, el intervalo 15-16 años tiene una amplitud de 2, puesto que se consideran dos valores: 15 y 16. En otro ejemplo, el intervalo 2025 años tiene una amplitud de 6, puesto que se consideran seis valores. En general, puede calcularse el tamaño de un intervalo restando el límite superior y el inferior y sumando al resultado el número 1. Por ejemplo, 25 menos 20 da 5, y sumándole 1 da 6. Los ejemplos indicados corresponden a variables discretas, lo que significa que no podrán encontrarse valores intermedios entre dos intervalos. Por ejemplo, entre los intervalos 15-16 y 17-18 no se encontrarán valores intermedios entre 16 y 17 años. Téngase presente que: a) preferiblemente los intervalos deben tener un tamaño constante, de manera tal que no se pueden considerar como intervalos 15-16 y 17-20, porque tienen diferentes tamaños; y b) los intervalos han de ser mutuamente excluyentes, de manera tal que cuando se trata de variables discretas, no pueden definirse los intervalos 15-16 y 16-17, porque el valor 16 años está en ambos intervalos y no se podrá saber con seguridad en qué intervalo ubicar dicho valor. El problema se puede presentar con las variables continuas, donde, por definición, podría aparecer algún valor intermedio entre dos intervalos. Por ejemplo, si se considera la variable continua „ingresos mensuales‟ y se consideran en ella los intervalos 1000-2000 dólares y 3000-4000 dólares, puede ocurrir que un dato obtenido de la realidad sea 2500 dólares, con lo cual no podrá ser registrado en ningún intervalo. En tal caso se deberían reorganizar los intervalos como 1000-2999 dólares y 3000-4999 dólares, con lo cual el problema estaría resuelto. Desde ya, puede ocurrir que aparezca un ingreso mensual de 2999,50 dólares, en cuyo caso en principio deberían reorganizarse nuevamente los intervalos como 1000-2999,50 dólares y 2999,51-4999 dólares. La forma de reorganizar los intervalos dependerá entonces del grado de precisión que pretenda el investigador o del grado de precisión del instrumento de medición disponible. Límites del intervalo.- Todo intervalo debe quedar definido por dos límites: un límite inferior y un límite superior. Estos límites, a su vez, pueden ser aparentes o reales (Pagano, 1998:38-39). Considérese el siguiente ejemplo: Límites aparentes 95-99 90-94 85-89 80-84 75-79 Límites reales 94.5-99.5 89.5-94.5 84.5-89.5 79.5-84.5 74.5-79.5 Si la variable considerada es discreta, carecerá de sentido la distinción entre límites reales o aparentes. Si se conviene que los valores que la variable puede adoptar son números enteros, se considerarán solamente los intervalos 95-99, 90-94, etc. Estos intervalos son en rigor reales, porque expresan los valores „reales‟ que puedan haber, que no son fraccionarios. Sólo en el caso de las variables continuas adquiere sentido la distinción entre límites reales y aparentes. Si la variable es continua, deberían tenerse en cuenta los límites reales. Por ejemplo, si un valor resulta ser 94.52, entonces será ubicado en el intervalo 94.5-99.5. Sin embargo, aún en estos casos, lo usual es omitir los límites reales y presentar sólo los límites aparentes (Pagano, 1998:39). En todo caso, los límites reales se utilizan a veces cuando se intenta transformar la tabla de frecuencias por intervalos en un gráfico. En principio, en ningún caso deberá haber una superposición de valores, como en el caso de los intervalos 20-21 y 21-22, donde el valor 21 está incluído en ambos intervalos, violándose así la regla de la mutua exclusión. Si acaso se presentara esta situación, o bien podrá ser adjudicada a un error del autor de la tabla, o bien deberá traducírsela como 20-20.99 y 21-22.99. Punto medio del intervalo (xm).- Es el valor que resulta de la semisuma de los límites superior e inferior, es decir, el punto medio del intervalo se calcula sumando ambos límites y dividiendo el resultado por dos. Por ejemplo, el punto medio del intervalo 15-20 es 17.5. El punto medio del intervalo sirve para calcular la media aritmética. Intervalos abiertos y cerrados.- Idealmente, todos los intervalos deberían ser cerrados, es decir, deberían estar especificados un límite superior y uno inferior de manera definida. Sin embargo, en algunos casos se establecen también intervalos abiertos, donde uno de los límites queda sin definir. En el siguiente ejemplo, ‟18 o menos‟ y ‟29 o más‟ son intervalos abiertos. Obviamente, en este tipo de distribución los intervalos dejan de ser de tamaño constante. Intervalos 18 o menos 19-23 24-28 29 o más Cantidad de intervalos.- La cantidad de intervalos es inversamente proporcional al tamaño de los mismos: cuanto menor tamaño tienen los intervalos, más numerosos serán. El solo hecho de emplear intervalos supone una cierta pérdida de la información. Por ejemplo, si se considera el intervalo 15-18 años, quedará sin saber cuántas personas de 16 años hay. Para reducir esta incertidumbre, podría establecerse un intervalo menor (15-16 años), pero con ello habrá aumentado la cantidad de intervalos hasta un punto donde la información se procesará de manera más difícil. Consiguientemente, al agrupar los datos hay que resolver el dilema entre perder información y presentar los datos de manera sencilla (Pagano R, 1998:37) (Botella, 1993:54), es decir, encontrar el justo equilibrio entre el tamaño de los intervalos y su cantidad. En la práctica, por lo general (Pagano, 1998:37) se consideran de 10 a 20 intervalos, ya que la experiencia indica que esa cantidad de intervalos funciona bien con la mayor parte de las distribuciones de datos (3). Se pueden sintetizar algunas reglas importantes para la construcción de intervalos de la siguiente manera: a) Los intervalos deben ser mutuamente excluyentes. b) Cada intervalo debe incluir el mismo número de valores (constancia de tamaño). c) La cantidad de intervalos debe ser exhaustiva (todos los valores deben poder ser incluídos en algún intervalo). d) El intervalo superior debe incluir el mayor valor observado (Botella, 1993:54). e) El intervalo inferior debe incluir al menor valor observado (Botella, 1993:54). f) En variables continuas, es aconsejable expresar los límites aparentes de los intervalos, que los límites reales. 2.3 VISUALIZACIÓN DE LOS DATOS: GRÁFICOS Una vez que los datos han sido organizados en tablas de frecuencias, es posible seguir avanzando organizándolos, desde allí, de otras maneras diferentes y con distintos propósitos. Una de estas maneras es la utilización de representaciones gráficas, algunas de las cuales son aptas para representar variables cualitativas (niveles nominal y ordinal) y otras para variables cuantitativas. Al tratarse de esquemas visuales, los gráficos permiten apreciar de un „golpe de vista‟ la información obtenida. Diagrama de tallo y hojas Esta técnica de visualización de datos es aquí mencionada en primer lugar porque puede ser considerada un procedimiento intermedio entre la tabla de frecuencias y el gráfico. Fue creada por Tukey en 1977 (citado por Botella, 1993:59) y presenta, entre otras, las siguientes ventajas: a) permite conocer cada puntuación individual (a diferencia de la tabla de frecuencias por intervalos, donde desaparecen en ellos); y b) puede ser considerada un „gráfico‟ si hacemos girar 90° el listado de puntuaciones o datos. A continuación se describe la forma de construir un diagrama de tallo y hojas, tomando como ejemplo la siguiente distribución de datos ordenados: 32-33-37-42-46-49-51-54-55-57-58-61-63-63-65-68-71-72-73-73-73-75-77-77-78-83-85-85-91-93 Tallo 3 4 5 6 7 8 9 Hojas 237 269 14578 13358 123335778 355 13 Procedimiento para realizar el diagrama de tallo y hojas a) Se construye una tabla como la de la izquierda con dos columnas: tallos y hojas. b) Se identifican cuáles son los valores extremos: 32 y 93. c) Se consideran los primeros dígitos de cada valor: 3 y 9. d) En la columna “tallos” se colocan los números desde el 3 hasta el 9. e) En la columna “hojas” se colocan los segundos dígitos de cada valor que empiece con 3, con 4, con 5, etc. Girando la tabla obtenida 90° hacia la izquierda, se obtendrá algo similar a un gráfico de barras, que muestra por ejemplo que la mayor concentración de valores es la que comienza con 7. Una utilidad adicional del diagrama de tallo y hojas es que permite comparar visualmente dos variables, es decir, dos conjuntos de datos en los análisis de correlación, como puede apreciarse en el siguiente ejemplo: Hojas (Grupo control) 87655 44322110 876655 111000 Tallo 1 2 3 4 5 Hojas (Grupo experimental) 9 124 5667788899 00023344 555 Visualmente es posible darse una idea de los resultados del experimento: los datos del grupo experimental tienden a concentrarse en los valores altos, y los del grupo de control en los valores bajos. Pictograma Es una representación gráfica en la cual se utilizan dibujos. Por ejemplo, en el siguiente pictograma cada cara puede representar 100 personas: Varones Mujeres 100 personas Sector circular Representación gráfica de forma circular donde cada porción de la „torta‟ representa una frecuencia. Para confeccionarlo se parte de una tabla de frecuencias donde están especificadas las frecuencias en grados (f°), las cuales se calculan mediante una sencilla regla de tres simple a partir de las frecuencias absolutas (f). Por ejemplo, si 825 es a 360°, entonces 310 es igual a 360° x 310 dividido por 825, lo cual da un resultado de 135°. Por lo tanto, para representar la frecuencia 310 deberá trazarse un ángulo de 135°. Estos valores pueden verse en el ejemplo siguiente, donde se han representado dos sectores circulares distintos, uno para varones y otro para mujeres: x (patología) Angina Bronquitis Sarampión Otras Total Sexo Varones 310 297 123 95 825 Total Mujeres 287 429 120 80 916 Bronquitis f° (varones) 135° 130° 54° 41° 360° 597 726 243 175 1691 Bronquitis Angina Saram pión Otras Varones f° (mujeres) 113° 169° 47° 31° 360° Saram pión Angina Otras Mujeres Para realizar estos sectores se traza un ángulo de por ejemplo 130° y dentro de coloca la palabra “bronquitis”, y así sucesivamente. El círculo para mujeres es algo mayor que el círculo para hombres, porque en la muestra hay más mujeres que hombres. Para lograr estos tamaños debe calcularse el radio. Por ejemplo, si se ha elegido un radio masculino de 4 cm, el radio femenino puede calcularse mediante la fórmula siguiente: El radio femenino es igual al radio masculino multiplicado por la raíz cuadrada del n femenino, resultado que se dividirá por la raíz cuadrada del n masculino, donde n = tamaño de la muestra de cada sexo. Si el radio masculino es 4 cm, con esta fórmula se obtendrá un radio femenino de 4,22 cm. Diagrama de barras Representación gráfica donde cada barra representa una frecuencia parcial. En el eje de las ordenadas se indican las frecuencias absolutas, y en el eje de absisas se representan los valores de la variable x. De esta manera, las barras „más altas‟ tienen mayor frecuencia. Existen diferentes tipos de diagramas de barras, de los cuales se ilustran tres: las barras simples, las barras superpuestas y las barras adyacentes. Los dos últimos tipos dan información sobre dos variables al mismo tiempo, que son sexo y estado civil en los ejemplos que siguen: Barras simples Barras superpuestas f f 25 25 20 20 15 15 10 10 5 5 Solteros Casados Separados x Solteros Casados Separados x Barras adyacentes f 25 20 15 Adolescentes 10 5 Adultos Solteros Casados Separados x Las barras también pueden disponerse horizontalmente. Mediante el diagrama de barras pueden representarse variables cualitativas y cuantitativas discretas. Histograma de Pearson Utilizado para representar variables cuantitativas continuas agrupadas en intervalos, este gráfico se compone de barras adyacentes cuya altura es proporcional a las respectivas frecuencias parciales. En el ejemplo siguiente, se presenta la tabla de frecuencias por intervalos y su histograma correspondiente: x (longitud) 1-1.99 2-2.99 3-3.99 Total f 3 5 2 10 f 5 4 3 2 1 1 x 2 3 4 Como pude apreciarse, en las absisas se indican los límites inferiores de los intervalos. Cuando los intervalos no son iguales, en lugar de indicar las frecuencias absolutas pueden indicarse las alturas (h). Esta última se obtiene dividiendo la frecuencia parcial por el tamaño del intervalo correspondiente. Polígono de frecuencias Es un gráfico de líneas rectas que unen puntos, siendo cada punto la intersección del punto medio del intervalo (indicado en las absisas) y la frecuencia correspondiente. Tomando el ejemplo anterior, el polígono de frecuencias sería el siguiente: f 5 4 3 2 1 1.5 2.5 3.5 punto medio (xm) Un polígono de frecuencias puede obtenerse también a partir del histograma correspondiente. Para ello basta con indicar los puntos medios de cada línea horizontal superior de cada barra del histograma, y luego unirlos con líneas rectas. Otra alternativa para este tipo de diagrama es el polígono de frecuencias acumuladas, donde se indican las frecuencias acumuladas en lugar de las frecuencias habituales. Ojiva de Galton Gráfico en el cual se consignan en las ordenadas las frecuencias acumuladas y en las absisas los límites superiores de cada intervalo (aunque también pueden indicarse los puntos medios de cada intervalo). Por ejemplo: x (longitud) 1-1.99 2-2.99 3-3.99 Total f 3 5 2 10 F 3 8 10 F 10 9 8 7 6 5 4 3 2 1 1.99 2.99 3.99 lím superior (L s) La ojiva de Galton también puede representar frecuencias acumuladas decrecientes. 2.4 SÍNTESIS DE LOS DATOS: MEDIDAS ESTADÍSTICAS DE POSICIÓN Los datos individuales pueden ser sintetizados mediante medidas de posición, medidas de dispersión (ambas se llaman medidas estadísticas), medidas de asimetría y medidas de curtosis. En este ítem se describen las medidas de posición. Definición Las medidas de posición pueden ser definidas de diversas formas (4). En esta nota proponemos la siguiente definición: Las medidas de posición son datos estadísticos que intentan representar un conjunto de datos individuales respecto de una variable. Esta definición se refiere a tres cuestiones: 1) Son medidas estadísticas, es decir, no son medidas individuales. Una medida de posición representa a todo un conjunto de datos, y no son los datos individuales. Por ejemplo, un promedio de edades representa a todas las edades del grupo, y no es la edad individual de uno de sus miembros, aunque pueda coincidir numéricamente con ella. Así, si el promedio de edades es 20 años y una de las personas del grupo tiene 20 años, el primer dato es una medida estadística y el segundo una medida individual. En otros términos, las medidas estadísticas no describen individuos, sino poblaciones o muestras. Por ejemplo, no tiene sentido explicar que una persona es anciana porque vive en una población cuyo promedio de edad es 70 años. 2) Son medidas representativas, es decir, intentan representar y sintetizar a todas las medidas individuales. El conjunto de todas las medidas individuales puede recibir diversos nombres, tales como muestra y población, con lo cual tiene sentido afirmar proposiciones tales como „una medida de posición representa una muestra o una población‟. Por ejemplo, es posible representar las notas obtenidas por un grupo de alumnos de diversas maneras: a) El promedio de las notas es de 7.35 puntos (en este caso usamos una medida de posición llamada media aritmética). b) La mitad de los alumnos ha obtenido una nota superior a 6,5 puntos (en este caso utilizamos otra medida de posición llamada mediana). c) La nota que más se ha repetido fue 7 puntos (en este caso usamos la medida de posición llamada modo). La pregunta acerca de cuál de las tres medidas de posición representa „mejor‟ al conjunto de datos individuales es el problema de la representatividad de la medida de posición, y la estadística suministra, como se verá, diversos criterios para evaluar la mejor forma de representar un cierto número de datos individuales. 3) Son medidas que miden una variable, es decir, algún atributo o propiedad de los objetos. En el ejemplo anterior la variable medida es el rendimiento académico, pero también pueden obtenerse medidas de posición representativas de un conjunto de edades, de profesiones, de clases sociales, de puntuaciones de un test, de cantidad de dientes, etc. De otra manera: no tiene sentido decir que una medida de posición represente un conjunto de personas, pero sí tiene sentido decir que representan las edades de un conjunto de personas. Características de las principales medidas de posición Las medidas de posición pueden ser de tendencia central y de tendencia no central. Las primeras “se refieren a los valores de la variable que suelen estar en el centro de la distribución” (Kohan, 1994:69). Por ejemplo: la media aritmética, la mediana y el modo son las más conocidas, pero también está la media aritmética ponderada (útil cuando hay valores que se repiten y que requieren atención diferencial), la media geométrica (Kohan, 1994:71-72), la media armónica, la media antiarmónica, la media cuadrática, la media cúbica, etc. Las medidas de posición no centrales son los cuartiles, deciles y percentiles (Kohan, 1994:79), que reciben genéricamente el nombre de cuantiles o fractiles (5). De acuerdo a Botella (1993:99), las medidas de posición no centrales son datos o valores que ocupan una posición especial en la serie de datos. Cuando una medida de posición es un dato que ocupa un lugar central, la llamamos medida de tendencia central. En el siguiente cuadro se especifican las definiciones y características principales de las medidas de posición. Medida MODO Definición Es el dato o valor que más se repite, o sea, el de mayor frecuencia. MEDIANA Es el dato o valor que divide por la mitad la serie de datos ordenados creciente o decrecienteme nte, es decir, es el valor central de la serie. MEDIA ARITMÉTICA Es el promedio aritmético de todos los datos o valores. CUANTIL Es el dato o valor que divide la serie ordenada de Características Resulta útil si hay muchos datos repetidos (altas frecuencias). Puede calcularse cuando hay valores muy extremos. El modo muestral no es un estimador suficiente del modo poblacional porque no incluye todos los datos. En distribuciones multimodales es posible que la muestra no sea homogénea, y que esté constituída por varios estratos. Es posible convertir una distribución multimodal en una modal reorganizando los intervalos. Si una distribución no tiene modo, podría obtenerse reorganizando los datos en intervalos. Es la medida más útil en escalas ordinales siempre que los valores centrales sean iguales. No está influenciada por los valores extremos (por ello por ejemplo puede aplicarse desconociendo estos o sea cuando hay límites superiores o inferiores abiertos). Puede usarse cuando hay intervalos abiertos, siempre que el orden de la mediana no se corresponda con ellos. Es útil cuando unos pocos datos difieren mucho del resto. No es útil si hay muchos datos repetidos (altas frecuencias). La mediana muestral no es un estimador suficiente de la mediana poblacional porque no incluye todos los datos. Es útil es distribuciones muy asimétricas (extremos no compensados). La mediana coincide con el Q2 (cuartil 2), el D5 (decil 5) y el P50 (percentil 50) (8). Está influenciada por los valores extremos (por ejemplo, no puede utilizarse cuando hay valores extremos desconocidos o intervalos abiertos, salvo que estos puedan cerrarse). No conviene cuando los valores extremos son muy altos o muy bajos. Es útil en distribuciones simétricas (con extremos compensados). No puede usarse en escalas nominales ni ordinales. Es siempre superior a la media geométrica y a la media armónica. La media muestral es un estimador suficiente de la media poblacional porque incluye todos los datos. No necesariamente coincide con alguno de los valores. La media aritmética tiene varios otras propiedades (7). Es útil cuando hay gran cantidad de valores. Puede también utilizarse como medida de dispersión. Suelen utilizarse los cuartiles, los deciles y los percentiles. -Cuartiles -Deciles -Percentiles datos en partes iguales. Valores que dividen la serie en cuatro partes iguales. Valores que dividen la serie en diez partes iguales. Valores que dividen la serie en cien partes iguales. Tres cuartiles dividen la serie en cuatro partes iguales. Nueve deciles dividen la serie en diez partes iguales. Noventa y nueve percentiles dividen la serie en cien partes iguales. También se llaman centiles. Relación entre modo, mediana y media aritmética.- a) La experiencia indica que la relación entre estas tres medidas es: Modo = (3 . Mediana) – (2 . Media aritmética). Esta relación es conocida como la fórmula de Pearson. b) Cuanto más simétrica es una distribución (por ejemplo en una curva normal), más tienden a coincidir los valores de las tres medidas. Cálculo analítico de las medidas de posición: fórmulas Para calcular una determinada medida de posición puede haber diversas fórmulas. La elección de la fórmula adecuada dependerá de la forma en que estén organizados los datos individuales. En principio, los datos pueden estar organizados de cuatro maneras: 1) Datos desordenados. Por ejemplo, las edades de un grupo de cuatro personas son 17, 29, 17 y 14. Cuando se recolecta información, generalmente se obtienen datos desordenados, frente a lo cual convendrá ordenarlos. 2) Datos ordenados. Por ejemplo, las edades del mismo grupo de personas son 14, 17, 17 y 29, si hemos decidido ordenarlas en forma creciente, aunque también podemos ordenarlas decrecientemente. 3) Datos agrupados por frecuencia. Por ejemplo, hay dos edades de 17 años, una edad de 14 años y una edad de 29 años. O, lo que es lo mismo, la frecuencia de la edad 17 es 2, y la frecuencia de las restantes edades es 1. 4) Datos agrupados por intervalos. Por ejemplo, hay 3 edades comprendidas en el intervalo 14-17 años, y una edad comprendida en el intervalo 18-29 años. La estadística va agrupando los datos siguiendo el orden anterior. Cuanto más avance en este proceso, más habrá logrado sintetizar y organizar los datos individuales. En el siguiente cuadro se sintetizan las diversas reglas o fórmulas para calcular las medidas de posición, según como estén organizados los datos individuales y según los niveles de medición que admiten. Nótese que en algunos casos no es posible especificar ninguna fórmula, y entonces el cálculo se hará siguiendo la regla indicada para los mismos. Por ejemplo: “para calcular el modo de un conjunto de datos ordenados, debe buscarse el dato o valor que más se repite” (6). Cálculo de medidas de posición según los niveles de medición que admiten y según la forma de organización de los datos individuales. Preparado por: Pablo Cazau Medida de posición Modo Mediana Nivel de medición Nominal Ordinal Cuantitativo Ordinal Cuantitativo Datos ordenados Datos agrupados por frecuencia Valor que más se repite Valor que más se repite Valor que más se repite Valor con la mayor frecuencia Valor con la mayor frecuencia Valor con la mayor frecuencia Valor central de la serie ordenada de valores Valor central de la serie ordenada de valores Valor que corresponde a la frecuencia acumulada n/2 Valor que corresponde a la frecuencia acumulada n/2 Media aritmética Cuantitativo x X = ----n x.f) X = --------n Cuartil Cuantitativo Decil Cuantitativo Percentil Cuantitativo Valores que dividen la serie en cuatro partes iguales. Por tanto, hay 3 cuartiles: Q1, Q2 y Q3 Valores que dividen la serie en diez partes iguales. Por tanto, hay 9 deciles: desde el D1 hasta el D9 Valores que dividen la serie en cien parte iguales. Por tanto, hay 99 percentiles: desde el P1 hasta el P99 Valor que corresponde a la frecuencia acumulada t.n/4, expresión 0 llamada cuartil de orden o Q (1) Donde t puede valer 1, 2 o 3. Por tanto, hay 3 cuartiles: Q1, Q2 y Q3 Valor que corresponde a la frecuencia acumulada t.n/10, expresión 0 llamada decil de orden o D (1) Donde t puede valer entre 1 y 9. Por tanto, hay 9 deciles: desde el D1 hasta el D9 Valor que corresponde a la frecuencia acumulada t.n/100, expresión 0 llamada percentil de orden o P (1) Donde t puede valer entre 1 y 99. Por tanto, hay 99 percentiles: desde el P1 hasta el P99 Datos agrupados por intervalos ----------------------f - fant Mo = Li + ---------------------- . a (f - fant) + (f- fpos) -----------n/2 - Fant Mn = Li + ---------------------- . a f xm.f) X = --------n t.n/4 - Fant Qt = Li + ---------------- . a f t.n/10 - Fant Dt = Li + ---------------- . a f t.n/100 - Fant Pt = Li + ---------------- . a f (1) Si no puede identificarse unívocamente una frecuencia acumulada, y por tanto un valor determinado de x, puede ser calculada por interpolación. En realidad, los cuantiles se utilizan preferentemente cuando los datos están agrupados por intervalos. A continuación, se suministran ejemplos de cómo calcular cada medida de posición teniendo en cuenta las reglas y fórmulas del esquema anterior. a) Cálculo del modo para datos ordenados (niveles nominal, ordinal y cuantitativo) Nivel nominal: perro, perro, gato, gato, gato, gato (por tanto, el modo es gato) Nivel ordinal: grande, grande, mediano, mediano, mediano, chico, chico, chico, chico (por tanto, el modo es chico) Nivel cuantitativo: 6, 6, 7, 7, 7, 7, 8, 9, 10, 10, 11 (por tanto, el modo es 7) b) Cálculo del modo para datos agrupados en frecuencia (niveles nominal, ordinal y cuantitativo) Nivel nominal x (religión) f Católicos 56 Protestantes 78 Judíos 45 Budistas 24 Otros 31 El modo es “Protestantes” Nivel ordinal x (dureza) f Muy duro 18 Duro 8 Intermedio 13 Blando 16 Muy blando 7 El modo es “Muy duro” Nivel cuantitativo x (edad) f 30 años 6 31 años 14 32 años 19 33 años 24 34 años 15 El modo es “33” años Como puede verse, el modo es el valor de la variable x que está más repetido. c) Cálculo del modo para datos agrupados por intervalos (nivel cuantitativo) x (cantidad piezas dentarias) 10-18 19-27 28-36 37-45 f 6 8 24 2 n=40 Una vez confeccionada la tabla de frecuencias por intervalos, se procede en dos pasos: a) Se identifica cuál es el intervalo de mayor frecuencia. En este caso, es 28-36. b) Se aplica la fórmula correspondiente: f - fant Mo = Li + ---------------------- . a (f - fant) + (f- fpos) 24 - 8 Mo = 28 + ---------------------- . 8 = 31.37 piezas dentarias (24 - 8) + (24 - 2) d) Cálculo de la mediana para datos ordenados (niveles ordinal y cuantitativo) Para hallar la mediana de un conjunto de datos, primero hay que organizarlos en orden descendente o ascendente. Si el conjunto de datos contiene un número impar de elementos, el central es la mediana. Si hay un número par, la mediana es el promedio de los dos datos centrales. Ejemplos para el nivel ordinal: Número impar de datos: alto, alto, alto, alto, medio, medio, medio, medio, medio, medio, bajo (por tanto, la mediana es = medio). Número par de datos: En el nivel ordinal no puede calcularse un promedio si los dos valores centrales son distintos. Si los dos valores centrales son iguales, ese es el valor de la mediana. Ejemplos para el nivel cuantitativo: Número impar de datos: 13, 13, 13, 14, 14, 17, 18, 19, 19 (por tanto, la mediana es 14) Número par de datos: 11, 11, 12, 13, 14, 15, 16, 18, 18, 18 (por tanto, la mediana es el promedio entre 14 y 15, o sea 14.5). e) Cálculo de la mediana para datos agrupados por frecuencia (niveles ordinal y cuantitativo) x (días) 1 2 3 4 5 f 7 9 14 10 2 n = 42 F 7 16 30 40 42 La variable es aquí cantidad de días de posoperatorio. El procedimiento es el siguiente: a) Se calcula la mediana de orden: Mn0 = n/2 = 42/2 = 21 b) Se identifica cuál es el valor de x que corresponde a la frecuencia acumulada que contiene el valor 21: Dicha frecuencia acumulada es 30, y, por lo tanto Mn = 3 días f) Cálculo de la mediana para datos agrupados por intervalos (nivel cuantitativo) x 0-3 3-6 6-9 9-12 12-15 15-18 18-21 21-24 f 8 10 11 12 9 7 6 5 n = 68 F 8 18 29 41 50 57 63 68 Nótese que para calcular la mediana se precisa información sobre frecuencias acumuladas, razón por la cual se ha agregado la columna respectiva. Se procede en dos pasos: a) Se identifica cuál es el intervalo que debe ser considerado, para lo cual se calcula la mediana de orden: Mn0 = n/2 = 68/2 = 34 Tomando en cuenta las frecuencias acumuladas, el valor 34 entra en la frecuencia acumulada 41, y, por lo tanto, el intervalo a considerar será 9-12. b) Se aplica la fórmula de mediana: n/2 - Fant Mn = Li + ---------------------- . a f 34 - 29 Mn = 9 + ---------------------- . 3 = 10.25 12 Téngase presente que si la variable fuera discreta y medible sólo en números enteros, sería Mn = 10. Si la variable fuese cantidad de materias aprobadas, el alumno con 10 materias aprobadas está en el lugar central de la serie, es decir, habría un 50% de compañeros con menos materias aprobadas y un 50% con más materias aprobadas. g) Cálculo de la media aritmética para datos ordenados (nivel cuantitativo) Dados los siguientes dados ordenados: 2-2-3-4-4-4-5-5-6-7-8-10 Se puede calcular la media aritmética aplicando la fórmula: x X = ----n X = ---------------------------------------- = --------- = 5 12 12 h) Cálculo de la media aritmética para datos agrupados por frecuencia (nivel cuantitativo) x (edad) 18 19 20 23 25 26 28 f 3 1 2 4 2 2 2 n = 16 f.x 54 19 40 42 50 52 56 363 Nótese que para el cálculo de la media aritmética se ha agregado una columna con los productos de x . f. Se aplica la fórmula de media aritmética: x.f) 54+19+40+42+50+52+56 363 X = --------- = ----------------------------------- = -------- = 22.68 años = 23 años. n 16 16 i) Cálculo de la media aritmética para datos agrupados por intervalos (nivel cuantitativo) x 0-3 3-6 6-9 9-12 12-15 15-18 18-21 21-24 f 8 10 11 12 9 7 6 5 n = 68 xm 1.5 4.5 7.5 10.5 13.5 16.5 19.5 22.5 xm.f 12 45 82.5 126 121.5 115.5 117.6 112.5 732.5 Nótese que para el cálculo de la media aritmética se ha agregado una columna con los puntos medios de los intervalos y otra con los productos de las frecuencias por los puntos medios. Se aplica la fórmula de media aritmética: xm.f) 732.5 X = ------------- = ---------- = 10.77 n 68 El método corto y el método clave son dos métodos alternativos para calcular la media aritmética, siendo el último sólo aplicable cuando el tamaño de los intervalos es constante. De acuerdo al método corto, la media aritmética se calcula sumando al punto medio del intervalo de mayor frecuencia, el cociente entre la sumatoria de los productos entre cada frecuencia y la diferencia entre el punto medio de cada intervalo menos el punto medio del intervalo de mayor frecuencia, y la sumatoria de frecuencias (n). De acuerdo al método clave, la media aritmética se calcula sumando al punto medio del intervalo de mayor frecuencia, el producto entre el tamaño del intervalo y un cociente, donde el numerador es la sumatoria de los productos entre las frecuencias y el llamado intervalo unitario (que resulta de dividir la diferencia entre cada punto medio y el punto medio del intervalo de mayor frecuencia, por el tamaño del intervalo), y donde el denominador es la sumatoria de frecuencias (n). j) Cálculo del cuantil para datos ordenados (nivel cuantitativo) 1-1-1-1-1-2-2-2-3-3-3-3-4-5-6-6-6-6-7-7-8-8-9 Si en la serie anterior resaltamos los tres valores que la dividen en cuatro partes iguales, esos valores serán los cuartiles Q1, Q2 y Q3: 1-1-1-1-1-2-2-2-3-3-3-3-4-5-6-6-6-6-7-7-8-8-9 Q1 = 2 Q2 = 3 Q3 = 6 Sin embargo, es más práctico agrupar los datos por frecuencias o por intervalos, a los efectos del cálculo de los cuantiles (cuartiles, deciles o percentiles). k) Cálculo del cuantil para datos agrupados por frecuencia (nivel cuantitativo) x (edad) 18 19 20 23 25 26 28 f 3 1 2 4 2 2 2 n = 16 F 3 4 6 10 12 14 16 Se pueden calcular, por ejemplo, Q1, Q2 y Q3. El primer paso consiste en averiguar los respectivos cuartiles de orden. Para Q1 es Q = t.n/4 = 1.16/4 = 4 0 Para Q2 es Q = t.n/4 = 2.16/4 = 8 0 Para Q3 es Q = t.n/4 = 3.16/4 = 12 0 El segundo y último paso consiste en identificar el valor de x correspondiente al cuartil de orden respectivo. Q1 = 4 Q2 = Está entre 20 y 23 Q3 = 25 l) Cálculo del cuantil para datos agrupados por intervalos (nivel cuantitativo) x (puntaje) 0-10 10-20 20-30 30-40 40-50 f 1 3 5 6 10 F 1 4 9 15 25 50-60 60-70 70-80 80-90 90-100 12 13 9 4 3 n = 66 37 50 59 63 66 Se pueden calcular, por ejemplo, Q3, D7 y P45. El primer paso consiste en averiguar los cuantiles de orden: Para Q3 es Q = t.n/4 = 3.66/4 = 49.5 0 Para D7 es D = t.n/10 = 7.66/10 = 46.2 0 Para P45 es P = t.n/100 = 45.66/100 = 29,7 0 El segundo paso consiste en identificar el intervalo que corresponde al cuantil de orden en la columna de frecuencias acumuladas: El valor 49.5 corresponde al intervalo 60-70 El valor 46.2 corresponde al intervalo 60-70 El valor 29.7 corresponde al intervalo 50-60 El tercer y último paso consiste en aplicar la fórmula basándose en la información del intervalo identificado. Si la fórmula pide el dato de la frecuencia acumulada anterior y esta no existe, se coloca 0 (cero). En el ejemplo del cálculo del D7, se aplica la siguiente fórmula: t.n/10 - Fant Dt = Li + ------------------- . a f 46.2 - 37 D7 = 60 + ---------------- . 11 = 67.78 13 Cálculo visual de las medidas de posición: gráficos Es posible utilizar un procedimiento gráfico para calcular ciertas medidas de posición, tales como el modo y la mediana. Por ejemplo, el modo se puede calcular a partir de un histograma. La mediana también puede calcularse con un histograma, aunque lo más habitual es hacerlo mediante una ojiva. a) Cálculo del modo mediante un histograma Una vez construido el histograma a partir de una tabla de datos agrupados por intervalos: 1) Se considera el rectángulo de mayor frecuencia (mayor altura). 2) Dentro del mismo se trazan dos rectas como está indicado en el gráfico siguiente. 3) Por la intersección de ambas rectas se traza una recta perpendicular al eje de absisas. 4) El punto del eje de las absisas por donde pasa la recta perpendicular corresponde al modo (en el ejemplo, el modo es 4.80). f 5 4 3 2 1 1 x 4 7 10 b) Cálculo de la mediana mediante una ojiva En este caso pueden utilizarse dos procedimientos: 1) Una vez trazada la ojiva, a) se ubica en el eje de las ordenadas a la mediana de orden 0 (Mn ); b) por la mediana se orden se traza una recta paralela al eje x hasta que intersecte la ojiva; c) por este punto de intersección se traza una recta paralela al eje y hasta que intersecte el eje x. En este punto estará ubicada la mediana. 2) Se trazan en el mismo eje de coordenadas las ojivas creciente y decreciente de la misma distribución de datos. Luego, a) se traza una recta paralela al eje y que pase por la intersección de ambas ojivas y por algún punto del eje x; b) el punto del eje x por donde pasa dicha recta corresponde a la mediana. Criterios de elección de medidas de posición 1) La elección de una medida de posición debe tener en cuenta el nivel de medición de la variable que se mide: Media aritmética NO Nivel ordinal SI SI. Siempre y cuando los dos valores centrales con n = par sean iguales. En caso contrario usar el Modo. NO Cuantiles NO NO Modo Mediana Nivel nominal SI NO Nivel cuantitativo SI SI SI Cuando no haya valores extremos alejados ni valores extremos abiertos. En caso contrario, usar el Modo o la Mediana (*). SI (*) Hay al menos tres situaciones donde se preferirá la mediana a la media (Botella, 1993:115): a) cuando la variable es ordinal, b) cuando haya valores extremos que distorsionen la interpretación de la media, y c) cuando haya intervalos abiertos, como en el caso de variables como ingresos mensuales. 2) La elección de una medida de posición debe tener en cuenta la forma en que están organizados los datos. Por ejemplo: “en ocasiones, el azar hace que un solo elemento no representativo se repita lo suficiente para ser el valor más frecuente del conjunto de datos. Es por esta razón que rara vez utilizamos el modo de un conjunto de datos no agrupados como medida de tendencia central. Por esta razón, debemos calcular el modo en datos agrupados en una distribución de frecuencias” (Levin y Rubin, 1996). 3) La elección de una medida de posición de una muestra debe tener en cuenta el grado de fidelidad con que representa a la medida de posición poblacional. Botella (1993:114) afirma, en este sentido, que si no hay ningún argumento en contra, siempre se preferirá la media, no sólo porque permite la utilización de otras medidas estadísticas (por ejemplo el desvío estándar), sino porque es más representativa de la media poblacional que el modo o la mediana con respecto al modo o la mediana poblacional. 2.5 SÍNTESIS DE LOS DATOS: MEDIDAS ESTADÍSTICAS DE DISPERSIÓN Definición Las medidas de dispersión, llamadas también medidas de variabilidad o de variación, son datos estadísticos que informan acerca del grado de dispersión o variabilidad de los datos individuales de una muestra o una población, respecto de una variable. En otras palabras, indican el grado de homogeneidad o de heterogeneidad del conjunto de los datos. Por ejemplo, indican cuán alejados o cuán cercanos se encuentran los datos de algún valor central como la media aritmética: una muestra cuyos datos son 3-4-5 es menos dispersa que una muestra cuyos datos son 1-4-7. Algunos autores (Botella, 1993:325) han relacionado la dispersión de los datos -para los niveles de medición nominal y ordinal- con los conceptos de entropía y de incertidumbre e incluso han propuesto a la primera como una medida que permite cuantificar la dispersión: a mayor dispersión de los datos, hay mayor entropía y mayor incertidumbre. Por ejemplo, las siguientes dos muestras tienen cada una 40 sujetos que han elegido determinados colores para representar la idea de paz: Muestra A: Muestra B: Blanco 28 8 Verde 3 8 Amarillo 3 8 Celeste 3 8 Rosa 3 8 Si habría que adivinar qué color eligió determinado sujeto de la muestra A, cabría proponer el color blanco porque fue el más elegido. En cambio, la incertidumbre aumenta si habría que elegir lo mismo en la muestra B. En esta muestra hay más entropía, es decir, más desorden, mientras que en la muestra A los datos están más ordenados alrededor de un valor muy repetido, como el blanco. La muestra B es más dispersa, es decir, más heterogénea, mientras que la muestra A es menos dispersa, es decir, más homogénea. La homogeneidad no debe relacionarse con la repetición de frecuencias (3-3-3-3) sino con la repetición de valores iguales o muy cercanos entre sí (28 sujetos eligieron blanco). Una medida de posición no alcanza para describir adecuadamente una muestra. Se obtiene una información más precisa y completa de ella cuando además se utiliza una medida de dispersión. Por ejemplo, la muestra 1 de datos 3-4-5 y la muestra 2 de datos 1-4-7 tienen la misma medida de posición: la media aritmética en ambos casos es 4. Sin embargo, se trata evidentemente de dos muestras diferentes, por cuanto la segunda es más dispersa que la primera, es decir, sus datos están más alejados de la media aritmética. En la primera muestra el promedio de las desviaciones respecto de la media es 1 (de 3 a 4 hay 1, y de 5 a 4 hay 1), mientras que el promedio de las desviaciones en la segunda muestra es 3 (de 1 a 4 hay 3, y de 7 a 4 hay 3). Por lo tanto, ambas muestras pueden representarse de la siguiente manera: Muestra 1: 4 + 1 (se lee 4 más/menos 1) Muestra 2: 4 + 3 (se lee 4 más/menos 3). Las medidas de dispersión tienen una importancia adicional porque (Levin y Rubin: 1996): a) Proporcionan información adicional que permite juzgar la confiabilidad de la medida de tendencia central. Si los datos se encuentran ampliamente dispersos, la posición central es menos representativa de los datos. b) A veces resulta indispensable conocer la dispersión de una muestra porque muestras demasiado dispersas pueden no ser útiles para poder sacar conclusiones útiles sobre la muestra. Levin y Rubin indican que, “ya que existen problemas característicos para datos ampliamente dispersos, debemos ser capaces de distinguir los que presentan esa dispersión antes de abordar esos problemas”. Características de las principales medidas de dispersión En general, las medidas de dispersión más utilizadas sirven para la medición de variables en el nivel cuantitativo. Seguidamente se examinarán las siguientes medidas de dispersión: rango, desviación media, varianza, desvío estándar, desvío intercuartílico y coeficiente de variación. En el siguiente cuadro se especifican las definiciones y características principales de las medidas de dispersión. Medida RANGO Definición Es la diferencia entre los valores máximo y mínimo de la variable. DESVIACION MEDIA Es el promedio de las desviaciones de todos los valores respecto de la media aritmética. Es el promedio de los cuadrados de las desviaciones con respecto a la media aritmética. VARIANZA DESVIO ESTÁNDAR Es la raíz cuadrada de la varianza (11) DESVIO INTER CUARTILICO COEFICIENTE DE VARIACION Es la diferencia entre el Q3 y el Q1. Es el cociente entre el desvío estándar y la media aritmética. Características De uso limitado, no es una buena medida de dispersión. Es muy sensible a los valores extremos e insensible a los valores intermedios. Está muy vinculada al tamaño de la muestra: es probable que la muestra de mayor tamaño presente mayor rango aunque las poblaciones de referencia tengan igual dispersión (Botella, 1993). Se llama también amplitud. Considera desviaciones absolutas, es decir, no las considera con valores negativos (de otro modo, el promedio de las desviaciones, por un teorem de la media aritmética, daría cero). Esto representa una dificultad de cálculo, por lo que se utiliza la varianza. Es un valor esencialmente no negativo (10). Matemáticamente es buena medida de dispersión, pero da valores muy altos, por lo cual en estadística descriptiva se utiliza el desvío estándar (9). Se apoya en una propiedad de la media aritmética según la cual la suma de los cuadrados de las desviaciones respecto a la media es un valor mínimo. La varianza permite comparar la dispersión de dos o más muestras si sus medias aritméticas son similares (Botella, 1993). Si se suma una constante a un conjunto de valores, la varianza no se modifica (Botella, 1993). Si se multiplica por una constante a un conjunto de valores, la varianza d los nuevos valores el igual al producto de la varianza de las originales po el cuadrado de la constante (Botella, 1993). Es un valor esencialmente no negativo (10). Es la medida de dispersión más utilizada. Se la emplea conjuntamente con la media aritmética como medida de posición. La raíz cuadrada permite compensar el cuadrado de la varianza. Si se suma una constante a un conjunto de valores, el desvío estándar no se modifica (Botella, 1993). Si se multiplica por una constante a un conjunto de valores, el desvío estándar de los nuevos valores el igual al producto del desvío estándar de las originales por el cuadrado de la constante (Botella, 1993). Se llama también desviación típica, o también desviación estándar (Pagano, 1998:71). Expresa el rango del 50% central de la serie de valores. Se llama también amplitud intercuartil. Permite comparar la dispersión de dos o más muestras con diferentes medias aritméticas: a mayor coeficiente de variación, mayor dispersión. No se expresa en unidades como la variable en estudio (por ejemplo, par edad, no se expresa en años). Puede considerarse como un índice de la representatividad de la media aritmética: cuanto mayor es el coeficiente de variación, menos representativa es la media (Botella, 1993). Cálculo analítico de las medidas de dispersión: fórmulas En este ítem se indican las fórmulas para calcular medidas de dispersión, y se suministran ejemplos de cada caso. Cálculo de las medidas de dispersión según la forma de organización de los datos individuales Preparado por: Pablo Cazau Medida de dispersión Rango Desviación media Datos ordenados Datos agrupados por frecuencia Datos agrupados por intervalos R = xmay - xmen R = xmay - xmen No |x–X| Dm = --------------n ( x – X )2 S = ---------------n |x–X|.f Dm = -----------------n ( x – X )2 . f S = ------------------n | xm – X | . f Dm = -------------------n ( xm – X )2 . f S = ---------------------n El segundo miembro es a la raíz cuadrada El segundo miembro es a la raíz cuadrada El segundo miembro es a la raíz cuadrada Varianza Es el cuadrado del 2 desvío estándar (S ) Es el cuadrado del desvío 2 estándar (S ) Es el cuadrado del desvío 2 estándar (S ) Desvío intercuartílico Coeficiente de variación DQ = Q3 – Q1 DQ = Q3 – Q1 DQ = Q3 – Q1 S CV = ----X S CV = ----X S CV = ----X Desvío estándar Cuando hay que calcular varianza o desvío estándar poblacionales, se utiliza „n‟ en el denominador, pero cuando se calculan las correspondientes medidas muestrales (o cuando la muestra es muy pequeña), se utilizará „n–1‟ (12). a) Cálculo del rango para datos ordenados y para datos agrupados por frecuencia Se puede aplicar a estas muestras la fórmula del Rango R = xmay - xmen Muestra 1: 80, 100, 100, 110, 120. Aquí el rango R es = 120 – 80 = 40. Muestra 2: 30, 50, 70, 120, 180. Aquí el rango R es = 180 – 30 = 150 Como se ve, la muestra 2 es más dispersa porque tiene mayor rango. No se puede calcular el rango para datos agrupados por intervalos porque se desconocen cuáles son los valores máximo y mínimo. b) Cálculo de la desviación media para datos ordenados La serie ordenada de datos puede ser la siguiente: 2, 3, 5, 6, 7, 9, 10 Como primer paso se calcula la media aritmética: X 2+3+5+6+7+9+10 = --------------------------- = 6 7 Como segundo y último paso, se calcula la desviación media: |x–X| |2-6| + |3-6| + |5-6| + |6-6| + |7-6| + |9-6| + |10-6| Dm = --------------- = --------------------------------------------------------------------- = 2.29 N 7 c) Cálculo de la desviación media para datos agrupados por frecuencia A la siguiente tabla de frecuencias (f) deberá agregarse una columna (f.x) para calcular la media aritmética, y luego otras dos columnas (x-X) y (| x-X | . f) para calcular la desviación media: x 70 f 45 f.x 3150 |x-X| 35 |x-X|.f 1575 80 90 100 110 120 130 140 63 78 106 118 92 75 23 n = 600 5040 7020 10600 12980 11040 9750 3220 62800 25 15 5 5 15 25 35 160 1575 1170 530 590 1380 1875 115 8810 Primero se calcula la media aritmética: x.f) 62800 X = --------- = ------------ = 104.66 = 105 n 600 Finalmente se calcula la desviación media: |x–X|.f 8810 Dm = ------------------ = ------------ = 14.68 n 600 d) Cálculo de la desviación media para datos agrupados por intervalos Se procede de la misma manera que en el caso anterior, con la diferencia que en lugar de considerar los valores x, se consideran los puntos medios de los intervalos (xm). e) Cálculo del desvío estándar para datos ordenados Para la serie de valores 5, 6, 10, su media aritmética es 7. Una vez conocido este valor, puede obtenerse el desvío estándar de la siguiente forma: 2 S = (x–X) ------------------- = n 2 2 2 (5-7) + (6-7) + (10-7) ------------------------------------ = 3 4.66 = 2.2 f) Cálculo del desvío estándar para datos agrupados por frecuencia x (edad) 18 19 20 23 25 26 28 f 3 1 2 4 2 2 2 n = 16 f.x 54 19 40 42 50 52 56 363 x–X -5 -4 -3 0 +2 +3 +5 ( x – X )2 25 16 9 0 4 9 25 ( x – X )2 . f 75 16 18 0 8 18 50 185 Primero se calcula la media aritmética, que arroja un valor de X = 23. Finalmente, se aplica la fórmula de desvío estándar: 2 S = (x–X) .f ---------------------- = n 185 ------------ = 16 11.56 = 3.2 Puede también utilizarse una fórmula más sencilla a los efectos del cálculo (Bancroft, 1960:80): 2 x .f 2 S = ----------- - (X) n Donde el primer término del segundo miembro es a la raíz cuadrada. g) Cálculo del desvío estándar para datos agrupados por intervalos Se procede del mismo modo que en el caso anterior, con la diferencia que se calcula el punto medio xm de los intervalos en lugar del valor x. h) Cálculo de la varianza El procedimiento es el mismo que en el caso del desvío estándar. Sólo debe tenerse presente que la varianza es el cuadrado del desvío estándar. i) Cálculo del desvío intercuartílico Dada la siguiente serie, obtener el desvío intercuartílico: x 0-20 20-40 40-60 60-80 80-100 f 2 4 5 8 1 n = 20 Primero se calculan los Q3 y Q1 aplicando la fórmula explicada en medidas de posición. Finalmente, se aplica la fórmula del desvío intercuartílico: DQ = Q3 – Q1 = 70 – 35 = 35 Una variante es el empleo del desvío semi-intercuartílico, es decir, el desvío intercuartílico dividido dos. Se trata de una medida de dispersión propuesta por Galton en 1889, y que resulta recomendable cuando hay algún valor extremo que pudiera distorsionar la representatividad de la media aritmética (Botella, 1993). j) Cálculo del coeficiente de variación Si una muestra tiene una media aritmética 111 y el desvío estándar 18, entonces su coeficiente de variación es: S 111 CV = ----- = ---------- = 0.16 X 18 Cuanto mayor es el CV, mayor es la dispersión. También puede calcularse un coeficiente de variación porcentual, multiplicando CV por 100. En el ejemplo: CV% = 0.16 . 100 = 16%. Cálculo visual de las medidas de dispersión: gráficos Botella (1993:143) menciona dos procedimientos para expresar gráficamente medidas de dispersión: el diagrama de caja y bigotes (Tukey, 1977) y el diagrama de bigotes verticales. Diagrama de caja y bigotes 75 80 85 90 Xmín 95 100 Q1 105 110 Q3 115 120 125 130 Xmáx A B Xmín Q1 Q3 Xmáx Puede apreciarse a simple vista que la distribución de valores B es más dispersa que A no sólo porque la diferencia entre los valores máximo y mínimo (rango) es mayor, sino también porque lo es la diferencia entre los cuartiles primero y tercero. Diagrama de bigotes verticales Nivel de ansiedad 4° Curso 5° 6° 7° 8° El gráfico representa las medias aritméticas de nivel de ansiedad de diversos cursos de alumnos. En cada media aritmética se han trazado bigotes verticales que representan los respectivos desvíos estándar. Puede entonces apreciarse, por ejemplo, que a medida que aumenta la media aritmética, tiende también a aumentar el desvío estándar. 2.6 SÍNTESIS DE LOS DATOS: ASIMETRÍA Y CURTOSIS Un conjunto de datos o distribución de datos queda exhaustivamente descrito cuando pueden especificarse una medida de posición, una medida de dispersión, un índice de asimetría y un índice de curtosis. Las medidas de asimetría y curtosis se refieren a la „forma‟ de la distribución y, aunque no son tan importantes como las medidas de posición y dispersión y son muy poco utilizadas, aportan también información sobre la distribución de los valores de una muestra o población. Asimetría La asimetría hace referencia al grado en que los datos se reparten equilibradamente por encima y por debajo de la tendencia central (Botella, 1993:169). Por ejemplo, en la siguiente tabla se puede apreciar que en el curso A muchos alumnos obtuvieron buenas notas, en el curso C muchos alumnos obtuvieron bajas notas, y en el curso B están equilibrados. x (nota) 10 f (curso A) 5 f (curso B) 2 f (curso C) 1 9 8 7 6 5 4 3 2 1 0 10 15 22 16 12 8 6 3 2 1 n = 100 5 8 10 15 20 15 10 8 5 2 n = 100 2 3 6 8 12 16 22 15 10 5 n = 100 Representando las tres distribuciones de datos con curvas en un gráfico con las frecuencias en las ordenadas y los valores de x en las absisas, se obtiene lo siguiente: Curso A Media Curso B Modo Asimetría negativa (curva hacia la derecha) Media Modo Asimetría cero Curso C Modo Media Asimetría positiva (curva hacia la izquierda) Han sido propuestos diversos índices de asimetría para cuantificar el grado de asimetría de una distribución de datos. De entre ellos pueden citarse los siguientes (Botella, 1993:170): Indice de asimetría mediamodo Indice de asimetría media-mediana (Kohan, 1994:93) Indice de asimetría de Pearson Indice de asimetría intercuartílico Es la distancia entre la media y el modo, medido en desvíos estándar: X - Mo As = ------------S Es la distancia entre la media y la mediana multiplicada por tres, medida en desvíos estándar: X - Mn As= ------------S Es el promedio de los valores z elevados al cubo (donde z es el cociente entre la diferencia entre x y la media aritmética, y el desvío estándar). Es el cociente entre la diferencia Q3-Q2 y Q2Q1, y la diferencia Q3Q1 Los tres índices se interpretan de manera similar: si resultan ser números negativos, la curva será asimétrica hacia la derecha, y si dan resultados positivos, la curva será asimétrica a la izquierda. El resultado 0 (cero) indicará asimetría nula (simetría perfecta). Existen otros muchos tipos de curvas: parabólicas, hiperbólicas, bimodales, etc, pero una forma usual es la curva simétrica, llamada también curva normal o campana de Gauss. Curtosis La curtosis hace referencia a la forma de la curva de la distribución de datos en tanto muy aguda (mayor apuntamiento o mayor curtosis: leptocúrtica) o muy aplanada (menor apuntamiento o menor curtosis: platicúrtica). Leptocúrtica Mesocúrtica Platicúrtica Del mismo modo que sucede con la asimetría, también se han propuesto diversos índices de curtosis. Si el índice es positivo, su apuntamiento es mayor que el de una distribución normal y la curva será leptocúrtica, y si es negativo, su apuntamiento es menor y la curva será platicúrtica (Botella, 1993). NOTAS (1) Según Botella (1993:49) la “distribución de frecuencias es un instrumento diseñado para cumplir tres funciones: a) proporcionar una reorganización y ordenación racional de los datos recogidos; b) ofrecer la información necesaria para hacer representaciones gráficas; y c) facilitar los cálculos necesarios para obtener los estadísticos muestrales”. (2) Cuando se confecciona una tabla de frecuencias por intervalos con la intención de elaborar gráficos o medidas estadísticas a partir de ella, deben asumirse ciertos supuestos que implican un margen de error, pero que son imprescindibles. Estos supuestos, llamados supuestos de concentración intraintervalo, son dos. a) El supuesto de concentración en el punto medio del intervalo, según el cual todos los valores de la variable son el mismo, a saber, el punto medio del intervalo. b) El supuesto de distribución homogénea, según el cual “los valores incluidos en un intervalo se reparten con absoluta uniformidad en su interior. Es decir, que si en un intervalo hay cinco observaciones [valores observados en la variable] aceptaremos que sus valores son los que tendríamos si partiéramos al intervalo en cinco subintervalos de igual amplitud y asignáramos a cada individuo el punto medio de un subintervalo” (Botella, 1993:56). (3) Hay quienes recurren a la fórmula de Sturges para calcular la cantidad de intervalos que resulta deseable tomar en función del tamaño de la muestra. Esta fórmula es: Número de intervalos = 1 + (log n / log 2), donde n designa el tamaño de la muestra. Por ejemplo, aplicando la fórmula para n = 40, la cantidad deseable de intervalos es 6.3, con lo cual podrán elegirse entre 6 o 7 intervalos. Una vez determinada la cantidad de intervalos, sólo resta dividir el tamaño de la muestra por 6 o 7, de lo que resultará el tamaño de cada intervalo. (4) Por ejemplo, las medidas de posición son aquellas que “caracterizan la posición de un grupo respecto de una variable” (Kohan, 1994:69). Otras definiciones se refieren a la utilidad de estas medidas, y entonces por ejemplo se definen como “índices diseñados especialmente para revelar la situación de una puntuación con respecto a un grupo, utilizando a éste como marco de referencia” (Botella, 1993:83). (5) Estrictamente hablando, ciertos cuantiles como el cuartil 2, el decil 5 y el percentil 50 resultan ser medidas de tendencia central, ya que coinciden con la mediana. (6) Estrictamente, dato y valor no son sinónimos, aunque aquí se emplearán indistintamente ambas expresiones. El valor es uno de los componentes del dato: los otros dos son la unidad de análisis y la variable. (7) Botella (1993:105-111) describe seis propiedades de la media aritmética: 1) La suma de las diferencias de n puntuaciones de la media aritmética, o puntuaciones diferenciales, es igual a cero. 2) La suma de los cuadrados de las desviaciones de unas puntuaciones con respecto a su media es menor que con respecto a cualquier otro valor. 3) Si sumamos una constante a un conjunto de puntuaciones, la media aritmética quedará aumentada en esa misma constante. 4) Si multiplicamos una constante a un conjunto de puntuaciones, la media aritmética quedará multiplicada por esa misma constante. 5) La media total de un grupo de puntuaciones, cuando se conocen los tamaños y medias de varios subgrupos hechos a partir del grupo total, mutuamente exclusivos y exhaustivos, puede obtenerse ponderando las medias parciales a partir de los tamaños de los subgrupos en que han sido calculadas. 6) Una variable definida como la combinación lineal de otras variables tiene como media la misma combinación lineal de las medias de las variables intervinientes en su definición. (8) Equivalencias entre cuantiles (Botella, 1993:89): Cuartiles Q1 Q2 Q3 Deciles D1 D2 D3 D4 D5 D6 D7 D8 D9 Percentiles P10 P20 P25 P30 P40 P50 P60 P70 P75 P80 P90 (9) “Para la varianza, las unidades son el cuadrado de las unidades de los datos. Estas unidades no son intuitivamente claras o fáciles de interpretar. Por esta razón, tenemos que hacer un cambio significativo en la varianza para calcular una medida útil de la desviación, que sea menos confusa. Esta medida se conoce como la desviación estándar, y es la raíz cuadrada de la varianza. La desviación estándar, entonces, está en las mismas unidades que los datos originales” (Levin y Rubin, 1996). La varianza como tal se utiliza más frecuentemente en estadística inferencial (Pagano, 1998:77). (10) “La raíz cuadrada de un número positivo puede ser tanto positiva como negativa. Cuando tomamos la raíz cuadrada de la varianza para calcular la desviación estándar, los estadísticos solamente consideran la raíz cuadrada positiva” (Levin y Rubin, 1996). (11) La desviación estándar nos permite determinar, con un buen grado de precisión, dónde están localizados los valores de una distribución de frecuencias con relación a la media. El teorema de Chebyshev dice que no importa qué forma tenga la distribución, al menos 75% de los valores caen dentro de + 2 desviaciones estándar a partir de la media de la distribución, y al menos 89% de los valores caen dentro de + 3 desviaciones estándar a partir de la media. Con más precisión: Aproximadamente 68% de los valores de la población cae dentro de + 1 desviación estándar a partir de la media. Aproximadamente 95% de los valores estará dentro de + 2 desviaciones estándar a partir de la media. Aproximadamente 99% de los valores estará en el intervalo que va desde tres desviaciones estándar por debajo de la media hasta tres desviaciones estándar por arriba de la media (Levin y Rubin, 1996). (12) Esto se debe a que “los especialistas en estadística pueden demostrar que si tomamos muchas muestras de una población dada, si encontramos la varianza de la muestra para cada muestra y promediamos los resultados, entonces este promedio no tiende a tomar el valor de la varianza de la población, a menos que tomemos n–1 como denominador de los cálculos” (Levin y Rubin, 1996). (13) El concepto de distribución de frecuencias es uno de los más básicos de la estadística descriptiva, y hace referencia a un conjunto de valores de una variable ordenados de acuerdo con sus frecuencias. Las distribuciones de frecuencias pueden expresarse en forma de tablas, gráficos, medidas de posición, medidas de dispersión, de asimetría y de curtosis. Estas últimas cuatro medidas pueden considerarse propiedades o características básicas de una distribución frecuencial. CAPÍTULO 3: PROBABILIDAD Y CURVA NORMAL La curva normal es uno de los temas fundamentales de la estadística que utiliza la información provista por la estadística descriptiva y permite el paso a la estadística inferencial en el sentido de proveer una herramienta para obtener conclusiones respecto de la población. La comprensión de este tema exige un conocimiento mínimo de la teoría de la probabilidad. 3.1 EL CONCEPTO DE PROBABILIDAD Se entiende por probabilidad el grado de posibilidad de ocurrencia de un determinado acontecimiento. Dicha probabilidad puede calcularse en forma teórica o empírica, a partir de las llamadas probabilidad clásica y frecuencial, respectivamente. El concepto de probabilidad ha demostrado ser de importante utilidad en ciertos enfoques sistémicos, especialmente en los ámbitos de la termodinámica y la teoría de la información. 1. Concepto de probabilidad.- Entendida como medida de la posibilidad de la ocurrencia de un determinado acontecimiento, la probabilidad abarca un espectro que se extiende desde la certeza (el acontecimiento ocurrirá con total seguridad), hasta la imposibilidad (es imposible que el acontecimiento ocurra), pasando por todos los grados intermedios (es muy probable que ocurra, es medianamente probable, es poco probable, etc). Por ejemplo, el suceso 'obtener un número entre 1 y 6 tirando un dado' equivale a la certeza; el suceso 'obtener un 7 arrojando un dado' equivale a la imposibilidad; y el suceso 'obtener un 2 arrojando un dado' equivale a uno de los grados intermedios de probabilidad. Es habitual representar el grado de probabilidad mediante un número que puede variar entre 1 (certeza) y 0 (imposibilidad). La probabilidad puede entonces valer 1, 0, 0.50, 0.80, etc. Por ejemplo, una probabilidad de 0.1 es muy baja, y una probabilidad de 0.98 muy alta. Una probabilidad intermedia es 0.50 o también, si la expresamos en términos de porcentajes corriendo la coma dos lugares hacia la derecha, obtenemos una probabilidad del 50 por ciento. Tal el caso de obtener una cara arrojando una moneda. 2. Probabilidad clásica y probabilidad frecuencial.- Si bien existen diferentes teorías y enfoques acerca de la probabilidad, explicaremos a continuación los dos planteos más habituales, siguiendo un ordenamiento histórico e incluso sistemático: el clásico y el frecuencial. En última instancia, se trata de dos modos diferentes de calcular la probabilidad de la ocurrencia de un fenómeno. a) Probabilidad clásica.- Suele también denominarse probabilidad teórica o a priori, y se define como el cociente entre el número de casos favorables y el número de casos equiprobables posibles. Aclaremos esta aparentemente engorrosa definición. Sabemos que un dado tiene seis caras, numeradas del uno al seis. La probabilidad de obtener la cara tres, por ejemplo, es de un sexto, es decir de un caso favorable (porque hay una sola cara con el tres) sobre seis casos equiprobables y posibles (caras 1-2-3-4-5-6). Aplicando la definición de probabilidad, es: p= Casos favorables 1 ----------------------------------------------------- = 0.1666 Casos equiprobables posibles 6 Para poder calcular esta probabilidad necesitamos, obviamente, conocer todos los casos posibles (requisito de exhaustividad), pero además debemos saber que todos esos casos posibles tienen la misma probabilidad de salir (requisito de equiprobabilidad), vale decir, debemos tener la suficiente seguridad de que ninguna cara tendrá mayor o menor probabilidad de salir que otra cara cualquiera, como puede ocurrir, por ejemplo, con los dados 'cargados'. Una aclaración respecto de la expresión 'casos favorables'. Debemos evitar aqui la connotación subjetiva del término. Un caso favorable es simplemente un caso del cual queremos conocer la probabilidad de su ocurrencia. Puede incluso tratarse de un terremoto o una enfermedad, aunque estos eventos no sean 'favorables' desde otro punto de vista más subjetivo. Respecto de la expresión 'casos equiprobables posibles', esta alude al hecho antes indicado de que para calcular una probabilidad en sentido clásico, deben cumplirse los dos requisitos de exhaustividad y equiprobabilidad. Puede suceder, en efecto, que alguno de estos requisitos no se cumpla. 1) Exhaustividad: Este requisito puede no cumplirse en dos casos. Primero, puede ocurrir que al arrojar un dado, este quede parado en equilibrio sobre alguno de sus vértices o aristas. Como posibilidad existe, pero es remotísima. Debido a que esta posibilidad es muy baja, a los efectos prácticos la consideramos nula y seguimos aplicando la definición clásica de probabilidad, como si todos los casos posibles fueran, como en el caso del dado, solamente seis. Segundo, puede ocurrir que no sepamos cuántas caras tiene el dado (en la situación anterior sí sabíamos esta cantidad, descartando las alternativas remotas), aún cuando sepamos que todas tienen la misma probabilidad de salir. En este caso, al desconocer el número de casos posibles, la definición clásica de probabilidad resulta inaplicable, quedándonos la opción de aplicar la probabilidad frecuencial. 2) Equiprobabilidad: Este requisito puede no cumplirse cuando el dado está 'cargado' lo que hace que, por ejemplo, el tres tenga mayores probabilidades de salir que el cuatro. En este caso, podemos calcular la probabilidad mediante la probabilidad frecuencial. En síntesis hasta aquí: cuando ninguno de estos requisitos, o ambos, no pueden cumplirse, nos queda aún la opción de calcular la probabilidad en forma empírica, lo que nos lleva al tema de la llamada probabilidad frecuencial. b) Probabilidad frecuencial.- Suele también denominarse probabilidad empírica o a posteriori, y es definible como el cociente entre el números de casos favorables y el número de casos observados. En un ejemplo, supongamos que no conocemos cuántas caras tiene un dado (es decir desconocemos la cantidad de casos posibles), y queremos averiguar qué probabilidad tiene de salir el uno. Obviamente no podemos decir 'un sexto' o 'uno sobre seis' porque no sabemos cuántas caras tiene el dado. Para hacer este cálculo decidimos hacer un experimento, y arrojamos un dado común de seis caras (aunque nosotros ignoramos este detalle) por ejemplo diez veces, constatando que el uno salió cinco veces, cosa perfectamente posible. Concluímos entonces que la probabilidad de obtener un uno es de cinco sobre diez, es decir, de 0.5. Si tomamos al pie de la letra este valor, podríamos concluír que el dado tiene... ¡2 caras!, cada una con la misma probabilidad de 0.5. Aplicando la definición de probabilidad frecuencial, resulta: p= Casos favorables 5 -------------------------------- = 0.5 Casos observados 10 Otro ejemplo: supongamos que conocemos perfectamente que el dado tiene seis caras, pero no sabemos si las probabilidades de salir son iguales o no para todas ellas, ya que sospechamos que el dado puede estar 'cargado'. Para determinar la probabilidad de salir del número uno hacemos el mismo experimento, dándonos un valor de 0.7. Este valor, si lo tomamos al pie de la letra, nos haría pensar que el dado está preparado para que tenga tendencia a salir el número uno, ya que su probabilidad de ocurrencia es bastante alta. La probabilidad frecuencial se llama también 'a posteriori' debido a que 'sólo después' de hacer nuestra observación o nuestro experimento podemos saber el valor de la probabilidad, y no 'antes', como en el caso de la probabilidad clásica, donde 'antes' de arrojar el dado ya sabemos que la probabilidad de cada cara es de 0.1666. La denominación 'frecuencial' alude al hecho de el cálculo de probabilidades se realiza en base a la frecuencia con que sale una determinada cara o posibilidad, frecuencia que es relativa porque la comparamos con la cantidad de casos observados. Por ejemplo, en nuestro último ejemplo la frecuencia absoluta es 7, porque de 10 veces que arrojamos el dado, 7 veces salió el número deseado. En cambio la frecuencia relativa es 0.7, y resulta de dividir la frecuencia absoluta por el número de casos observados. c) La ley de los grandes números.- También llamada principio de la estabilidad de la frecuencia relativa, nos permite unificar conceptualmente los dos tipos de probabilidad recién examinados, y puede expresarse de la siguiente manera: a medida que aumenta la cantidad de ensayos, el valor de la probabilidad empírica obtenido se va aproximando cada vez más al valor de la probabilidad teórica. Ley de los Grandes Números Cantidad de ensayos arrojando una moneda una vez 2 veces 3 veces 4 veces 10 veces 100 veces 1000 veces 1000000 veces Probabilidad teórica de salir cara 0.5 0.5 0.5 0.5 0.5 0.5 0.5 0.5 Probabilidad empírica obtenida para cara 0 0.5 0.3333 0.25 0.3 0.4 0.45 0.4999999999999 Siguiendo el esquema adjunto, si arrojamos una moneda por primera vez (primer ensayo), la probabilidad teórica de salir cara es de 0.5, cosa que sabemos más allá de hacer o no esa experiencia. Sin embargo, puede ocurrir que salga ceca, y entonces concluímos que la probabilidad empírica es 0, pues no salió ninguna cara. Al arrojar la moneda por segunda vez, la probabilidad teórica sigue siendo 0.5, ya que el dado no tiene 'memoria': por más que haya salido cien veces cara, la 101° vez sigue teniendo la misma probabilidad de salir cara. La probabilidad empírica, en cambio, nos da por ejemplo también 0.5, porque la primera vez no salió cara pero la segunda sí, con lo cual habrá salido cara la mitad de las veces, o sea hay una probabilidad de 0.5. Al tercer tiro vuelve a aparecer ceca, con lo cual sobre tres tiros habrá salido sólo una cara (la segunda vez), y entonces la probabilidad empírica es de un tercio (0.333). Lo que dice la ley de los grandes números es que, si seguimos aumentando la cantidad de tiros, el valor de la probabilidad empírica se irá aproximando cada vez más a la probabilidad teórica de 0.5, es decir, se verifica una tendencia de la frecuencia relativa a estabilizarse en dicho resultado, y por ello esta ley se llama también principio de la estabilidad de la frecuencia relativa. La probabilidad (p) varía entre 0 y 1 Imposible 0 0 Probabilidad de extraer un as de espadas de un mazo de cartas francesas Grados intermedios de probabilidad 0.25 0.50 0.75 1/4 1/2 3/4 Probabilidad de Probabilidad de Probabilidad de extraer un naipe obtener cara extraer una de copas de un arrojando una bolilla roja de mazo de cartas moneda una caja donde españolas hay 3 rojas y una blanca Seguro 1 1 Probabilidad de extraer una bolilla roja de un bolillero de bolillas rojas 3. Algunas aplicaciones del concepto de probabilidad.- La teoría de las probabilidades, importante rama de la matemática, ha permitido encarar la investigación de sistemas, tanto cerrados como abiertos, bajo este relativamente nuevo enfoque. Ejemplos particularmente representativos aparecen en la termodinámica y en la teoría de la información. a) Probabilidad en termodinámica.- La evolución de los sistemas cerrados o abiertos puede medirse según varios parámetros, como por ejemplo el grado de entropía o desorden, pero también según el grado de probabilidad que pueden alcanzar cuando evolucionan hacia estados de equilibrio (como en el sistema cerrado) o hacia estados uniformes (como en el sistema abierto). Así, se dice que la tendencia general de los procesos físicos entendidos como sistemas cerrados apunta a la entropía creciente o estados de creciente probabilidad, mientras que los sistemas abiertos, como por ejemplo los sistemas vivos, consiguen mantenerse en un estado de mínima entropía, es decir, en un estado de alta improbabilidad estadística. b) Probabilidad en Teoría de la Información.- En la Teoría de la Información se emplea tanto la probabilidad clásica como la probabilidad frecuencial. Es posible ilustrar esta cuestión con el siguiente ejemplo (Lichtenthal, 1970): Un forastero llega a un pueblo y pregunta: "¿Lloverá esta tarde?", a lo cual un vecino contesta "sí". Esta respuesta ¿provee mucha información o poca información? Todo depende de quien la reciba. a) Si la respuesta la recibe el mismo forastero, el "Sí" implica bastante información, porque desconoce el clima del pueblo. El "Sí" encierra para él tanta información como el "No", porque, al no conocer el clima habitual de la zona, para él ambas respuestas son igualmente probables (equiprobabilidad), y por consiguiente evalúa la probabilidad de que llueva o no en base a una probabilidad teórica o a priori. b) Si la respuesta la escucha otro vecino, el "Sí" tiene un valor informativo prácticamente nulo porque todos en el pueblo saben que casi siempre llueve por las tardes. No es ninguna novedad el "Sí", es decir encierra poquísima información. En cambio si nuestro vecino hubiese escuchado "No" se sorprendería mucho, y la cantidad de información es mucha. El "Sí" y el "No" no son igualmente probables, cosa que el vecino descubrió por experiencia, por haber vivido un tiempo en el pueblo (la probabilidad es, en este caso, frecuencial, y las posibles alternativas no son equiprobables). Los ejemplos vienen a destacar una idea muy importante que vincula información con probabilidad, y que es la siguiente: el contenido informativo de un mensaje está íntimamente ligado a su improbabilidad o 'valor sorpresa'. Por ejemplo, cuando más nos 'sorprende' la respuesta, o cuando más 'improbable' o 'inesperada' la juzgamos, más información encierra. De aquí una importante definición de información, como aquello que hace disminuír la incertidumbre del receptor. Si al vecino le dicen que "sí lloverá en este pueblo esta tarde" esto no es sorpresa para él, no reduce su incertidumbre y, por consiguiente, apenas si contiene información. 4. Vocabulario.- La teoría de la probabilidad utiliza cierta terminología técnica. Algunos de los principales términos son los siguientes: Espacio muestral: es el conjunto S de todos los resultados posibles de un experimento dado. Por ejemplo, los resultados posibles del experimento de arrojar un dado son 1, 2, 3, 4, 5 y 6. Muestra: es un resultado particular, o sea, un elemento de S. Por ejemplo, arrojar un dado y obtener 4. Evento: Un evento A es un conjunto de resultados, o sea, un subconjunto de S. Por ejemplo, un evento puede ser arrojar dos veces un dado obteniéndose por ejemplo un 4 y un 3. Si el evento tiene una sola muestra, se llama evento elemental. El conjunto S o espacio muestral es de por sí un evento (en este caso se lo llama cierto o seguro, pues es seguro que arrojando un dado se obtendrá 1, 2, 3, 4, 5 o 6), mientras que también se considera evento al conjunto vacío (se lo llama imposible: no es posible que no salga ningún número). Se pueden combinar eventos entre sí para formar nuevos eventos, por ejemplo: A unión B es el evento que sucede si y sólo si A o B o ambos suceden. A intersección B es el evento que sucede si y sólo si A y B suceden simultáneamente. A complemento de A‟ es el evento que sucede si y sólo si A no sucede. Dos eventos son mutuamente excluyentes cuando no pueden suceder simultáneamente. Espacio finito de probabilidad: se obtiene al asignar a cada muestra de un espacio muestral finito una determinada probabilidad de ocurrencia en forma de número real. La probabilidad de un evento es igual a la suma de las probabilidades de sus muestras. Si en un espacio finito de probabilidad cada muestra tiene la misma probabilidad de ocurrir, se llamará espacio equiprobable o uniforme. Existen también espacios muestrales infinitos. 3.2 DEFINICIÓN Y CARACTERÍSTICAS DE LA CURVA NORMAL Si se tomaran nueve personas al azar para medir la variable frecuencia cardíaca, podrían obtenerse, por ejemplo, los siguientes resultados: tres personas con 62, cinco personas con 70 y una persona con 84 pulsaciones por minuto. Representando visualmente esta situación mediante un polígono de frecuencias, se obtiene el gráfico 1. Si se registrara la frecuencia cardíaca de 80 personas más, probablemente se obtendría resultados similares al polígono de frecuencias del gráfico 2. Finalmente, si se consideraran infinito número de personas, la representación visual se asemejaría al gráfico 3, denominado curva normal, curva de Gauss o campana de Gauss (por su forma acampanada). Como puede apreciarse, ciertas variables continuas como la frecuencia cardíaca, la glucemia, la estatura, el peso, la agudeza visual, el cociente intelectual, y otras, tiende a adoptar la forma de una curva normal a medida que aumenta la cantidad de casos observados (3). Aunque esta curva es una idealización, porque no pueden medirse infinitos casos, tiene, como se verá, su utilidad, aún cuando las variables que se estudian desde este modelo no siguen estrictamente la distribución de la curva normal. Pruebas como por ejemplo el chi cuadrado permiten determinar si una distribución es lo suficientemente parecida a una distribución normal como para poder aceptar el modelo de la curva normal para estudiarla. De hecho, muchas variables tienen distribuciones lo suficientemente similares a una distribución normal como para tratarlas como tales sin cometer grandes errores. En relación con estas cuestiones, conviene recordar aquí el teorema del límite central, que dice que cualquiera sea la población de donde se tome una muestra, la distribución de los valores de la muestra se aproximan o asemejan cada vez más a una distribución normal a medida que el tamaño n de la muestra aumenta. En la práctica se consideran normales a las muestras cuyo tamaño es igual o superior a 30. f Gráfico 1 Gráfico 2 Gráfico 3 5 3 1 62 70 84 70 La curva normal tiene entonces algunas características que son las siguientes: a) Es la idealización de un polígono de frecuencias con tendencia central para una gran cantidad de casos. Por esta razón tiene la apariencia de una curva y no de una línea quebrada, ya que el polígono de frecuencias tiene infinito número de lados. b) Tiene forma de campana: no tiene otras formas similares como puede ser la forma de herradura o la forma de una campana invertida. x c) Es simétrica respecto de un eje vertical, lo que las diferencia de otras curvas como por ejemplo la hipérbole equilátera. La simetría de la curva normal implica que la media aritmética, la mediana y el modo coinciden en el punto central. Consecuentemente, la curva normal es unimodal (en cambio, una campana invertida podría ser bimodal). También implica que la distancia del cuartil 1 al cuartil 2 es igual a la distancia entre el cuartil 2 y el cuartil 3. d) Es asintótica respecto del eje x. Esto significa que la curva y el eje de las absisas se cortan en el infinito, lo cual implica que cualquier valor de x tiene potencialmente alguna frecuencia, y ninguna frecuencia igual a 0. e) La curva normal puede adoptar diferentes formas: mesocúrtica, platicúrtica o leptocúrtica. f) Los puntos de inflexión (donde la curva cambia de cóncava a convexa y viceversa) se encuentran en los puntos correspondientes a la media aritmética más/menos un desvío estándar. g) Hay muchas posibilidades de curvas normales, dependiendo de cuáles sean los valores de las medias aritméticas y los desvíos estándar. La más importante es aquella que tiene como media aritmética 0 (cero) y como desvío estándar 1 (la unidad). En este caso, la curva normal se designa como distribución o curva normal estándar o estandarizada. h) Está comprobado que en una curva normal, y siempre idealmente, alrededor de un 68% de los casos posibles están comprendidos entre menos un desvío estándar y más un desvío estándar alrededor de un 95% están comprendidos entre menos 2 y más dos desvíos estándar y alrededor de un 99% están comprendidos entre menos tres y más tres desvíos estándar según lo ilustra el siguiente esquema: Esto significa por ejemplo que una persona tiene una probabilidad del 68% de tener una frecuencia cardíaca comprendida entre menos un desvío estándar y más un desvío estándar. Si la media aritmética de esta distribución fuera 80 pulsaciones por minuto y el desvío estándar fuera de 10 pulsaciones por minuto, entonces la frecuencia cardíaca de una persona cualquiera tendría un 68% de probabilidades de valer entre 70 y 90 pulsaciones por minuto. Siguiendo el mismo criterio, también puede calcularse la probabilidad de aparición de un valor comprendido entre menos tres desvíos estándar y la media aritmética (99% dividido 2), la probabilidad de aparición de un valor comprendido entre menos dos desvíos estándar y la media aritmética (95% dividido 2), la probabilidad de aparición de un valor comprendido entre menos un desvío estándar y más dos desvíos estándar (68% dividido 2, más 95% dividido 2), y la probabilidad de obtener cualquier otro valor intermedio (como el comprendido entre -1.27 desvíos y +2.56 desvíos), para lo cual se habrá de consultar una tabla especialmente confeccionada para tal efecto. 3.3 PUNTAJES BRUTOS Y PUNTAJES ESTANDARIZADOS Antes de hacer referencia a las utilidades prácticas de la curva normal, convendrá aclarar algunos conceptos tales como los de puntaje bruto y puntaje estandarizado. Para designar los diferentes valores que asume una variable para una determinada unidad de análisis, en estadística descriptiva suele emplearse la expresión „dato‟. Por ejemplo, un dato puede ser “Juan mide 1.70 metros”. Muchos datos, sin embargo, se distribuyen de acuerdo a una curva normal, y esta clase de datos suelen ser típicamente puntuaciones o puntajes de tests o pruebas de evaluación. Por ejemplo, “Juan obtuvo 90 puntos en el test de inteligencia de Weschler”, o “Pedro obtuvo 7 puntos en el examen de geografía”. Esta es la razón por la cual, en lo que sigue se utilizará la expresión puntaje en lugar de „dato‟, pero debe tenerse presente que todo puntaje es, siempre, un dato. Se llama puntaje bruto, directo u original al puntaje obtenido por un sujeto en una prueba. Por ejemplo, podría resultar de la suma de respuestas correctas, valiendo cada una de ellas un punto (Kohan, 1994:138). Los puntajes brutos presentan sin embargo algunos inconvenientes. Por ejemplo: a) Si una persona obtuvo 4 puntos en una prueba académica, podemos suponer que obtuvo un bajo puntaje porque lo comparamos con el puntaje máximo, que es 10. Sin embargo, no nos sirve para comparar a esa persona con el resto de la población, ya que si los demás alumnos obtuvieron en promedio 2 puntos, la calificación 4 será, entonces, alta. b) Si una persona obtuvo 8 puntos en geografía y 5 puntos en matemáticas, podemos suponer que obtuvo más puntaje en geografía. Sin embargo, esta suposición es errónea si resulta ser que el puntaje máximo en geografía es 20 y el puntaje máximo en matemáticas es 6, en cuyo caso habrá obtenido mayor puntaje en matemáticas. Estas y otras dificultades pueden resolverse transformando los puntajes brutos en otros llamados puntajes estandarizados (o también puntajes transformados, porque resultan de haber transformado los puntajes brutos). Estos puntajes estandarizados permitirán, por ejemplo, comparar el puntaje de un sujeto con toda la población, o bien comparar dos puntajes de pruebas con diferentes sistemas de evaluación (1). Los puntajes estandarizados pueden ser lineales o no lineales, según que resulten de transformaciones lineales o no lineales (Kohan, 1994:138). En el primer caso existe una proporcionalidad entre los puntajes brutos y sus correspondientes puntajes estandarizados, ya que la transformación opera según una ecuación lineal o ecuación de primer grado y, por tanto, no „deforma‟ la distribución de los puntajes brutos. En lo que sigue se describen sucintamente tres ejemplos de puntajes estandarizados de uso frecuente: los puntajes estandarizados z (puntaje reducido), Z (puntaje derivado) y P (puntaje percentil). El puntaje reducido z es “un dato transformado que designa a cuántas unidades de desvíos estándar por arriba o por debajo de la media se encuentra un dato en bruto” (Pagano, 1998:84). Para transformar un dato en bruto x en un puntaje z se utiliza la fórmula: z = (x X) / s. Pueden destacarse tres características de los puntajes z (Pagano, 1998:86-87): a) tienen la misma forma que el conjunto de datos en bruto; b) la media de los puntajes z es siempre igual a cero; y c) el desvío estándar de los puntajes z es siempre igual a 1. El puntaje derivado Z (también llamado a veces puntaje derivado T) tiene la ventaja sobre el puntaje reducido z que no tiene valores negativos y que pueden despreciarse los decimales por ser una cantidad pequeña (Kohan, 1994:141). Para transformar un puntaje reducido z en un puntaje derivado Z se utiliza la fórmula: Z = (z.10) + 50, ya que este puntaje derivado considera la media aritmética como 50 y el desvío estándar como 10. Existen otras modalidades de puntajes derivados (Botella: 1993:161). Uno muy conocido en psicología es el llamado cociente intelectual o CI, que considera como media aritmética a 100 y como desvío estándar a 15. El puntaje percentil P es un puntaje no lineal y es también de uso frecuente por su facilidad de comprensión, aunque tenga el inconveniente de que su distribución toma una forma que no responde a la realidad de las funciones psicológicas. Para transformar un puntaje z en un puntaje percentil hay que recurrir a una tabla especial, que se describe más adelante. Como se puede apreciar en el esquema siguiente, el puntaje percentil P no es proporcional al resto de los puntajes, pero si lo es respecto de las áreas cubiertas bajo la curva normal, áreas que a su vez indican la probabilidad de ocurrencia de un puntaje cualquiera. En efecto, puede verse que los puntajes percentiles P están concentrados en aquellos lugares donde el área bajo la curva es mayor y, además, cuanto mayor es esta área mayor será el percentil correspondiente. Las correspondencias entre los diferentes puntajes pueden visualizarse mediante el siguiente esquema (2): Equivalencias de puntajes brutos y estandarizados X = media aritmética s = desvío estándar x = puntaje bruto z = puntaje reducido Z = puntaje derivado P = percentil f (frecuencia) 50% del área probabilidad = 0.5 50% del área probabilidad = 0.5 x -3s -2s -1s X +1s +2s +3s -2 -1 0 +1 +2 +3 +4 +5 90 100 -5 -4 -3 0 10 20 30 40 50 60 70 80 P0 P2 P16 P50 P84 P98 P100 z Z P Así por ejemplo, puede apreciarse que un puntaje bruto correspondiente a más un desvío estándar corresponde a un puntaje reducido z de +1, a un puntaje derivado Z de 60, y a un percentil de 84. Especialmente cuando se trata de averiguar valores intermedios (por ejemplo el puntaje bruto correspondiente a más 1.62 desvíos estándar) debe recurrirse al empleo de fórmulas y tablas. El siguiente esquema indica la forma de hacerlo: Reglas de transformación de puntajes (de utilidad para resolver aplicaciones prácticas de la curva normal) PUNTAJE BRUTO (x) z = (x - X) / s Tabla: entrar por z PUNTAJE REDUCIDO (z) x = (z.s) + X AREA EXPRESADA COMO PROBABILIDAD (p) Tabla: entrar por p Z = (z.10) + 50 z = (Z-50) / 10 PUNTAJE DERIVADO (Z) Multiplicar por 100 AREA EXPRESADA COMO PORCENTAJE (%) m% m = un número cualquiera entre 0 y 100 Dividir por 100 Pm Pm PERCENTIL (P) En este esquema, las flechas más gruesas indican los procedimientos habituales en las aplicaciones prácticas de la curva normal, mientras que aquellas y las flechas más finas indican mas bien los procedimientos que se piden en ejercitaciones en cursos de estadística. 3.4 APLICACIONES DE LA CURVA NORMAL El modelo matemático de la curva normal tiene varias aplicaciones prácticas, como por ejemplo en psicología y ciencias de la educación. Pagano (1998:81) invoca tres razones principales que explican su importancia en estas disciplinas: 1) Muchas variables psicológicas tienen distribuciones muy semejantes a la curva normal, tales como altura, peso e inteligencia. 2) Muchas pruebas de inferencia empleadas para analizar experimentos tienen distribuciones muestrales que poseen una distribución muestral al aumentar el tamaño de la muestra. 3) Muchas pruebas de inferencia requieren distribuciones muestrales que se asemejen a la curva normal, como la prueba z, la prueba „t‟ de Student o la prueba F. Consiguientemente, gran parte de la importancia de la curva normal aparece conjuntamente con la estadística inferencial. En lo que sigue se suministran algunos ejemplos de aplicaciones prácticas de la curva normal con puntajes estandarizados. En primer lugar se expone un problema típico y la forma de resolverlo teniendo en cuenta las reglas de transformación de puntajes (ver esquema anterior). En segundo lugar, se presentan algunas variantes posibles dentro del problema típico u otros. Problema típico.- La variable „peso‟ en una población de mujeres adultas tiene una distribución aproximadamente normal, con una media aritmética (X) de 60 kg y un desvío estándar (s) de 6 kg. Calcular la probabilidad de que una mujer adulta de esa población tomada al azar tenga un peso mayor a 68 kg. Resolución del problema típico.- Cuando el enunciado del problema afirma que la variable tiene una distribución aproximadamente normal, ello significa que puede ser resuelto recurriendo al modelo de la curva normal. A partir de aquí, los pasos para resolverlo son los siguientes: m% a) Lo primero que debe especificarse son los datos y las incógnitas. Los datos son tres: la media aritmética (60 kg), el desvío estándar (6 kg), y finalmente un valor de la variable a partir del cual debe estimarse su probabilidad (68 kg). En símbolos: X = 60 kg s = 6 kg x = 68 kg En este caso el problema solicita resolver una sola incógnita: la probabilidad de que una persona tomada al azar tenga más de 68 kg (también podría haber solicitado averiguar la probabilidad de que tenga menos de 50 kg, o la probabilidad de que tenga entre 40 y 60 kg). En símbolos: p 68 kg > x b) Antes de seguir adelante, siempre convendrá trazar la curva normal y especificar la información revelante para resolver el problema. En este caso es: Según el esquema de reglas de transformación de puntajes, si a partir de un valor dado de x (68 kg) se quiere calcular su probabilidad p, antes deberá transformarse el valor x a un puntaje reducido z, el cual constituye una incógnita (?) que deberá resolverse. Asimismo se raya el área bajo la curva que se extiende desde 68 hacia la derecha, porque es esa probabilidad (proporcional al área rayada) la que debe averiguarse (es decir, 68 o más). c) Se aplica la fórmula de transformación del puntaje x en puntaje z: z = (x - X) / s z = (68 – 60) / 6 = 1.33 d) Se recurre a la Tabla de áreas bajo la curva normal estandarizada para hallar la probabilidad p a partir de z = 1.33. Para ello, puede utilizarse indistintamente la Tabla 1 o la Tabla 2 (ver Anexo). Se utilizará la Tabla 1, donde puede verse que a un valor z = 1.33 corresponde una probabilidad p = 0.9082. e) Sin embargo, esta tabla indica la probabilidad de z o menos, es decir, la zona rayada hacia la izquierda de z. Por lo tanto, como lo que interesa es la probabilidad de un valor de z o mayor, se restará al valor p = 1 (el total del área bajo la curva) el valor p = 0.9082. En símbolos: Area total 1.0000 Menos área hacia la izquierda 0.9082 Area hacia la derecha 0.0918 Por lo tanto, la probabilidad de que una mujer adulta pese más de 68 kg es de p = 0.0918. Traduciendo la probabilidad a porcentajes, puede decirse que existe un 9.18% de probabilidades de que la mujer pese 68 kg o más. De idéntica manera, puede decirse que el percentil P que ocupa una mujer adulta de 68 kg es, siguiendo las pautas del esquema de reglas de transformación de puntajes: P91 (calculado y redondeado a partir de p = 0.9082), lo cual significa que una mujer que pese 68 kg tiene „por debajo‟ aproximadamente un 91% de personas que pesan menos que ella. Algunas variantes posibles.- Los siguientes ocho casos ilustran algunos ejemplos de problemas que pueden resolverse mediante la curva normal y los puntajes estandarizados. El problema típico examinado precedentemente encuadra en el caso 4. En todos estos casos se trata de calcular la probabilidad de ocurrencia de un valor comprendido bajo el área rayada de la curva ya que la probabilidad de ocurrencia del valor es proporcional al área respectiva. Como se verá, en algunos casos conviene más utilizar la Tabla 1 y en otros las Tabla 2 (ver Anexo). CASO 1 CASO 2 CASO 3 CASO 4 CASO 5 CASO 6 CASO 7 CASO 8 Caso 1.- Aquí se trata de averiguar la probabilidad p de que un valor cualquiera de la población corresponda a z = +1.5. Para este caso convendrá utilizar la tabla 1, donde primero se busca el valor +1.5 en la primera columna, y luego se busca su valor de probabilidad, que es p = 0.9332. Nota: si el valor de z hubiese sido +1.56, se busca primero z = 1.5 y luego se busca, en la primera hilera, el valor 0.06 (ya que 1.5 + 0.06 = 1.56). En el entrecruzamiento de 1.5 y 0.06 encontraremos, finalmente, el valor de la probabilidad p = 0.9406. Caso 2.- En este caso se procede de manera similar que en el caso anterior. Caso 3.- Aquí se trata de averiguar la probabilidad de que un valor z valga -2 o más. Esta situación exige dos pasos. El primer paso es idéntico al caso 1. Sin embargo, este primer paso calcula la probabilidad de z hacia la izquierda, y lo que se necesita saber es la probabilidad de z hacia la derecha (zona rayada). Como se sabe que la totalidad del área bajo la curva vale 1, para averiguar la zona hacia la derecha bastará con restar 1 de la probabilidad de la zona hacia la izquierda. En esto consiste el segundo y último paso. Caso 4.- Aquí debe averiguarse la probabilidad de que un valor z valga 1.5 o más. La opción más sencilla es aquí emplear la Tabla1, con la cual se calcula la probabilidad correspondiente a z = +1.5, que es p = 0.9332. Esta probabilidad corresponde a la zona rayada desde z hacia la izquierda, pero como debe averiguarse la probabilidad de z hacia la derecha, deberá restarse 1 menos 0.9332. Caso 5.- Aquí debe averiguarse la probabilidad de que un valor z esté comprendido entre 2.5 y +1.5. Una forma sencilla de resolver este problema es dividiendo el área rayada en dos: una desde la mitad hacia la izquierda (0 a -2.5) y otra desde la mitad hacia la derecha (0 a +1.5). Se calcula luego la probabilidad de cada área recurriendo a la Tabla 2, y finalmente se suman ambas probabilidades. Nota: para el cálculo de la zona rayada de la mitad hacia la izquierda se buscará en la Tabla 2 el valor z = +2.5, porque es igual al valor z = -2.5 (por ser la curva normal simétrica). Caso 6.- Este caso es tan sencillo que no requiere el uso de tablas. La probabilidad de la zona rayada es p = 0.5 porque corresponde exactamente a la mitad de toda el área bajo la curva, cuya p es igual a 1 (p = 1 equivale a la certeza). Caso 7.- Aquí debe calcularse la probabilidad de que un valor z esté comprendido entre -2 y -1. En este caso, en lugar de sumar áreas como en el caso 5, deberán restarse áreas. Recurriendo a la Tabla 1, se calcula primero la probabilidad correspondiente a z = -1 (que es p = 0.1587) y luego la probabilidad de z = -2 (que es p = 0.0228). La probabilidad resultante será p = 0.1587 – 0.0228 = 0.1359. Caso 8.- Aquí debe calcularse la probabilidad de que un valor z esté comprendido entre +1 y +2. Se puede proceder de la misma forma que en el caso 7, es decir, restando las probabilidades correspondientes a z = +2 y z = +1. NOTAS (1) Botella (1993:153) refiere que los puntajes estandarizados son útiles en los siguientes casos: a) al hacer comparaciones entre unidades de distintos grupos: se pueden comparar, mediante puntuaciones estandarizadas, distintas observaciones de un mismo sujeto o de sujetos diferentes; b) al hacer comparaciones entre variables medidas de distinta forma, debido a que los puntajes estandarizados son adimensionales. Por ejemplo, comparar una altura expresada en centímetros con otra expresada en metros; y c) al comparar observaciones de distintas variables: por ejemplo, comparar la altura y el peso de un sujeto. (2) En el esquema puede apreciarse que z contempla valores que se extienden a -5 o +5.desvíos estándar. En la práctica, sin embargo, se consideran solamente valores entre -3 y +3 por razones prácticas. En efecto, los valores superiores a +3 o menores a -3 cubren áreas muy pequeñas bajo la curva, es decir, la probabilidad de ocurrencia de puntajes mayores que +3 o menores que -3 son muy improbables, estando muy alejados de la media aritmética. (3) Hay muchas formas en que los datos pueden distribuirse, y en todos esos casos existe cierta regularidad en los mismos. Por ejemplo, hay una tendencia a que la mitad de las veces salga cara arrojando una moneda, y también hay una tendencia a que la mitad de las veces se opte por un producto A y no uno B (suponiendo que lo hay ninguna razón para elegir uno u otro). Estos hechos sugieren que los datos de una manera regular, y los estadísticos propusieron diversos modelos de distribución, uno para cada forma regular de distribución de datos, como por ejemplo el modelo Bernouilli o el modelo binomial. La noción de permanencia estadística (Vessereau A, 1962:15) hace referencia a ciertas uniformidades en los datos de la realidad. Por ejemplo: a) la cantidad de varones y la de mujeres tiende a ser aproximadamente igual; b) el tamaño de las galletitas que fabrica una máquina tiende a ser aproximadamente igual; c) la proporción entre granos esféricos de arvejas y granos arrugados de arvejas tiende a ser del 75% y del 25% aproximadamente, o sea, siempre tiende a encontrarse aproximadamente 75 granos esféricos cada 100, y 25 granos arrugados cada 100; d) la estatura de las personas tienden siempre a estar alrededor de un valor medio, siendo frecuente encontrar estaturas de 1.70 metros pero raro encontrar estaturas de 2 metros. Estas uniformidades sugieren la presencia de leyes que rigen la forma en que se distribuyen los datos. Como hay muchas formas en que los datos pueden distribuirse, también habrá muchas leyes que describen dichas distribuciones. Entre las más conocidas (Vessereau A, 1962:16-24) se cuentan la ley binomial, la ley de Laplace-Gauss y la ley de Poisson. Por ejemplo, la ley de Laplace-Gauss describe las distribuciones que siguen una curva normal: “cuando una magnitud recibe la influencia de una gran cantidad de causas de variación, y estas son todas muy pequeñas e independientes unas de otras, se demuestra que los valores individuales de las mediciones se distribuyen respondiendo a la ley de Laplace-Gauss” (Vessereau A, 1962:20). Otros autores consideran fundamentales a las distribuciones normal, binomial y de Student, y hacen referencia a otras, como la distribución „chi cuadrado‟ (x2) que, a diferencia de la primeras, no es paramétrica, es decir, no requiere supuestos tan rigurosos acerca de la población, como por ejemplo de que esta se distribuya normalmente (Kohan N, 1994:191). Hay otras leyes que tienen alcance más general, como por ejemplo la ley de distribución de las medias (Vessereau A, 1962:24) que establece que, cualquiera que sea la distribución (binomial, gaussiana, etc), el desvío estándar de las medias aritméticas de todas las muestras posibles de n elementos disminuye inversamente a la raíz cuadrada de n. Esto significa que cuanto más grandes sean las muestras, menos desviación o dispersión habrá entre sus medias aritméticas. CAPÍTULO 4: CORRELACION Y REGRESION 4.1 INTRODUCCIÓN El análisis de correlación permite averiguar el tipo y el grado de asociación estadística entre dos o más variables, mientras que el análisis de regresión permite hacer predicciones sobre la base de la correlación detectada. Más concretamente, una vez realizado el análisis de correlación, pueden obtenerse dos resultados: que haya correlación o que no la haya. Si hay correlación, entonces se emprende un análisis de regresión, consistente en predecir cómo seguirán variando esas variables según nuevos valores. Por ejemplo, si sobre la base de haber examinado a 40 alumnos se concluye una alta correlación en sus notas en ambos parciales, conociendo la nota del primer parcial de un alumno número 41, podremos predecir con algún margen de seguridad cuánto se sacará este alumno en el segundo parcial. En general el análisis de correlación se realiza conjuntamente con el análisis de regresión. Mientras el análisis de correlación busca asociaciones, el análisis de regresión busca predicciones, es decir, predecir el comportamiento de una variable a partir del comportamiento de la otra. Así, la correlación y la regresión están íntimamente ligadas. En el nivel más sencillo, ambas implican la relación entre dos variables y utilizan el mismo conjunto de datos básicos, pero mientras la correlación tiene que ver con la magnitud y la dirección de la relación, la regresión se centra en el uso de la relación para hacer una predicción. Esta última es sencilla cuando la relación es perfecta, pero la situación es más compleja si la relación es imperfecta (Pagano, 127). La correlación es útil porque permite hacer predicciones, porque permite establecer correlaciones (paso previo para la determinación de una conexión causal), y para realizar pruebas de confiabilidad de instrumentos de medición como los tests (prueba test-retest) (Pagano, 99). Por último, vale la pena aclarar que en el contexto de un estudio científico, no basta con determinar el grado de correlación entre dos variables en una muestra. Es necesario además establecer, mediante una prueba de significación (por ejemplo la prueba „t‟), si la correlación establecida en la muestra puede extenderse a toda la población con un determinado nivel de confianza. Esta tarea corresponderá a la estadística inferencial. Correlación lineal.- Las relaciones entre variables pueden ser de muchos tipos. a) Hay relaciones deterministas que responden a modelos matemáticos teóricos, como por ejemplo la relación entre la intensidad de una corriente y la resistencia del conductor, o bien, la relación entre la factura de consumo de agua y el número de metros cúbicos consumidos. Estas relaciones son habituales en ciencias exactas. b) Otras relaciones no son tan deterministas, pero pueden eventualmente parecerse –sólo parecerse- a algún modelo matemático teórico determinista, en cuyo caso se concluye que ese modelo explica bien la relación, aunque no lo haga perfectamente. Estas relaciones son habituales en las ciencias sociales (Botella, 1993:181). Dentro de los muchos modelos teóricos a los cuales podría ajustarse una relación no determinista se cuentan los modelos lineales, los modelos cuadráticos, los modelos cúbicos, etc. El primero se representa mediante una recta, y los restantes mediante diversos tipos de curva como parábolas e hipérbolas. El presente artículo hará referencia, por razones de simplicidad, a las relaciones lineales y, por tanto, a la correlación lineal. Correlación y causalidad.- El hecho de que dos variables estén correlacionadas, no significa necesariamente que una sea la causa y la otra el efecto: la correlación no siempre significa causalidad. Entre otras cosas, una alta correlación puede deberse a que ambas variables X e Y dependen cada una independientemente de otra variable Z, y entonces, al variar Z hace variar conjuntamente a X e Y, produciendo un efecto de alta correlación que puede dar la apariencia de causalidad. Por dar un ejemplo: entre memoria visual (X) y memoria auditiva (Y) puede haber una alta correlación, pero ello no significa que la memoria visual sea la causa de la memoria auditiva, ya que ambas pueden estar dependiendo de otro factor Z más general, llámese "memoria", o "cantidad de ARN". Si realizar el análisis de correlación es algo relativamente fácil (se trata de recoger datos y aplicar una fórmula), determinar el vínculo causal suele implicar un procedimiento más laborioso, como por ejemplo la ejecución de un diseño experimental que implique la comparación de dos grupos sometidos a condiciones diferentes y donde haya un control sobre la influencia de variables extrañas. El siguiente esquema permite visualizar algunos pasos posibles para llevar a cabo un análisis de correlación seguido de un análisis de regresión. El esquema sintetiza, al mismo tiempo, los temas a tratar en el presente artículo. Si las variables son… CUANTITATIVAS Se calcula la correlación con METODO ANALITICO Coeficiente de correlación de Pearson CUALITATIVAS ORDINALES Se calcula la correlación con METODO GRAFICO Diagrama de dispersión Se calcula la regresión (predicción) con Para interpretar mejor este coeficiente, se calcula el coeficiente de determinación METODO ANALITICO Coeficiente de correlación por rangos de Spearman METODO ANALITICO Método de los cuadrados mínimos METODO GRAFICO Recta de regresión 4.2 EL ANÁLISIS DE CORRELACIÓN “Juan se sacó una buena nota en el primer parcial, y por lo tanto es bastante probable que también saque buena nota en el segundo parcial”. “Esta persona tiene más edad y por lo tanto es más probable que le falte alguna pieza dentaria”. Abundan esta clase de razonamientos en la vida cotidiana, que suelen aceptarse sin demasiada crítica. Sin embargo, en un estudio científico es habitual que estas hipótesis deban ser comprobadas más allá de las certidumbres subjetivas. Para constatar si hay realmente asociación entre dos o más variables cualesquiera, se emplea una herramienta denominada „análisis de correlación‟, que también evalúa el grado o intensidad en que dichas variables están asociadas. Se examina aquí el caso más sencillo (dos variables), que se estudia dentro de la estadística bivariada. En el siguiente ejemplo se exponen tres posibles distribuciones de frecuencias bivariadas (1) referidas a las primeras y segundas notas de exámenes parciales. Alumno A B C D E Tabla X 3 4 6 6 8 1 Y 2 5 5 6 6 Tabla X 3 4 6 6 8 2 Y 3 4 6 6 8 Tabla 3 X Y 3 2 4 3 6 5 6 5 8 7 F G 9 10 9 9 9 10 9 10 9 10 8 9 X = Nota del primer parcial Y = Nota del segundo parcial En la Tabla 1 se han consignado las notas de los parciales de un grupo de 7 alumnos ordenadas en forma creciente. Un somero examen visual de la tabla revela que hay bastante asociación entre las variables X e Y: quienes sacaron buena nota en el primer parcial tienden a sacar buena nota en el segundo, y lo mismo para quienes sacaron bajas notas, con lo cual ambas variables tienden a variar concomitantemente o conjuntamente. Sin embargo, debe tenerse presente que la asociación o correlación entre ambas variables no depende de la similitud entre X y Y, sino de la similitud de sus modos de variación. Así, en la Tabla 2 las notas de los primeros y segundos parciales de cada alumno son iguales, y en la Tabla 3 la nota del segundo parcial es diferente, pero siempre menor en un punto. Sin embargo, en ambas tablas la correlación es la misma. El análisis de correlación busca establecer esencialmente tres cosas: 1) Presencia o ausencia de correlación.- Dadas dos o más variables, si existe o no correlación entre ellas. 2) Tipo de correlación.- En caso de existir correlación, si esta correlación es directa o inversa. En la correlación directa, ambas variables aumentan (o disminuyen) concomitantemente, y en la correlación inversa ambas variables varían inversamente, o también puede decirse "en relación inversamente proporcional", lo que significa que cuando una aumenta la otra disminuye, o viceversa (2). En el siguiente esquema se muestran algunos ejemplos de correlación directa e inversa. Tipos de correlación Tipo Correlación directa o positiva Definición Ambas variables aumentan (o disminuyen) en forma concomitante. Correlación inversa o negativa Una variable aumenta y la otra disminuye (o viceversa) en forma concomitante. Ejemplos en psicología Cociente intelectual/calificación: A mayor CI, mayor calificación obtenida en el examen. Tiempo/retención: A mayor tiempo para memorizar, mayor cantidad de palabras retenidas. Test laboral/rendimiento futuro: A mayor puntaje en un test de aptitud técnica, mayor rendimiento en dicha área dentro de x años (esto es también un modo de estimar la validez predictiva de un test). Edad/memoria: Al aumentar la edad, disminuye la memoria. Numero de ensayos/cantidad de errores: Al aumentar el número de ensayos, disminuye la cantidad de errores. Cansancio/atención: Al aumentar el cansancio disminuye la atención. 3) Grado de correlación.- El grado o „intensidad‟ de la correlación, es decir, „cuánta‟ correlación tienen en términos numéricos. Para hacer todas estas averiguaciones, se puede recurrir a tres procedimientos. a) El método tabular.- Una correlación podría constatarse con la simple visualización de tablas de correlación como las indicadas anteriormente, pero habitualmente las cosas no son tan fáciles, sobre todo porque hay bastante mayor cantidad de datos, y porque estos casi nunca registran los mismos incrementos para ambas variables. Por lo tanto, debe abandonarse la simple visualización de las tablas y utilizar procedimientos más confiables, como los gráficos (diagramas de dispersión o dispersiogramas) y los analíticos (por ejemplo el coeficiente de Pearson). b) El método gráfico.- Consiste en trazar un diagrama de dispersión. c) El método analítico.- Consiste en aplicar una fórmula que permita conocer no sólo el tipo de correlación (directa o inversa) sino también una medida cuantitativa precisa del grado de correlación. La fórmula del coeficiente de Pearson es un ejemplo típico para medir correlación entre variables cuantitativas. 4.3 CÁLCULO GRÁFICO DE LA CORRELACIÓN Un gráfico es mucho mejor que una tabla para apreciar rápidamente si hay o no correlación entre variables. Existen varias maneras de graficar la correlación (3), pero aquí se describirá el procedimiento clásico: el diagrama de dispersión. El diagrama de dispersión es básicamente una „nube‟ de puntos, donde cada punto corresponde al entrecruzamiento de cada par de valores de X e Y. Este diagrama puede realizarse independientemente del cálculo analítico de la correlación. Por ejemplo, el diagrama de dispersión correspondiente a la Tabla 1 se asemeja al diagrama A del esquema de diagramas de dispersión. A este diagrama se ha agregado „a ojo‟ una línea imaginaria, que viene a representar más o menos el ordenamiento lineal de los puntos (que van desde abajo a la izquierda hacia arriba a la derecha). El diagrama se llama 'de dispersión' porque muestra cuán dispersos (próximos o alejados) están los puntos alrededor de dicha recta. Fácil es advertir que cuanto más alineados estén, más correlación habrá. En el ejemplo A del esquema sobre diferentes diagramas de dispersión, los puntos tienden a ubicarse en las proximidades de la recta imaginaria, lo que indica que están poco dispersos. Si los puntos figurasen más alejados habría más dispersión, y por lo tanto menor correlación entre X e Y. El caso B muestra correlación inversa, pues el ordenamiento de los puntos indican que, a medida que aumenta X, va disminuyendo Y. Así entonces, cuando la línea imaginaria va de abajo a la izquierda hacia arriba a la derecha, hay correlación directa, y cuando va desde arriba a la izquierda hacia abajo a la derecha hay correlación inversa. Dicho más técnicamente, en el primer caso la recta tiene una inclinación o pendiente positiva, y en segundo su pendiente es negativa. El caso C revela, por su parte, que a medida que aumenta Y, los valores de X ni aumentan ni disminuyen, permaneciendo fijos en el valor 5. Por lo tanto no hay correlación. En general no la hay cuando una de las variables no varía (en este caso X permanece constante en el valor 5). El caso D es similar al anterior: allí los valores de Y permanecen constantes en el número 4, mientras va variando X. Tampoco hay correlación. El caso E muestra un ejemplo donde varían ambas variables, pero sin embargo no hay correlación. En esa nube es imposible trazar una línea imaginaria representativa de la orientación de los puntos, simplemente porque no hay tal orientación lineal. Los valores que van asumiendo las variables son en principio aleatorios (varían al azar). Tampoco hay correlación. El caso F nos muestra un caso de correlación perfecta o máxima (en este caso directa), pues no hay dispersión de puntos alrededor de la línea imaginaria: todos están sobre ella. Estas regularidades „perfectas‟ no suelen encontrarse fácilmente, ni menos aún en ciencias sociales, porque los fenómenos obedecen siempre a muchas causas que estarán actuando para romper la „armonía natural‟ entre X e Y. También hay casos de correlación no lineal, donde en lugar de una recta imaginaria se traza una curva. En este artículo se presentan solamente los casos más sencillos, es decir, los casos de correlación lineal, representables mediante rectas. Diferentes diagramas de dispersión Y Y Y 10 9 8 7 6 5 4 3 2 1 0 10 9 8 7 6 5 4 3 2 1 0 10 9 8 7 6 5 4 3 2 1 0 0 1 2 3 4 5 6 7 8 9 10 X 0 1 2 3 4 5 6 7 8 9 10 A) Correlación directa X 0 1 2 3 4 5 6 7 8 9 10 B) Correlación inversa C) Sin correlación Y Y Y 10 9 8 7 6 5 4 3 2 1 0 10 9 8 7 6 5 4 3 2 1 0 10 9 8 7 6 5 4 3 2 1 0 0 1 2 3 4 5 6 7 8 9 10 X D) Sin correlación 0 1 2 3 4 5 6 7 8 9 10 E) Sin correlación X 0 1 2 3 4 5 6 7 8 9 10 F) Correlación directa perfecta Si bien una „nube de puntos‟ puede dar una idea de si hay o no correlación, o de si es directa o inversa, todavía no proporciona información sobre „cuanta‟ correlación hay. Esta información se obtiene mediante un cálculo analítico. 4.4 CÁLCULO ANALÍTICO DE LA CORRELACIÓN La correlación se calcula analíticamente mediante ciertos coeficientes, que serán distintos según se trate de correlacionar variables nominales, ordinales o cuantitativas, y según se trate de otras consideraciones varias. Si bien existen muchos coeficientes de correlación (4), en lo que sigue se explicarán algunos de los más utilizados: el coeficiente de correlación lineal de Pearson (para variables cuantitativas), y el coeficiente de correlación por rangos de Spearman (para variables cualitativas ordinales). a) Coeficiente de correlación lineal de Pearson Este coeficiente (que se designa con “r”), fue creado por Karl Pearson (1857-1936) para relacionar variables cuantitativas (es decir, variables que, como “nota de examen”, se miden mediante números). El coeficiente de Pearson es un número comprendido entre -1 y +1, y que posee un determinado signo (positivo o negativo). El valor numérico indica „cuanta‟ correlación hay, mientras que el signo indica qué „tipo‟ de correlación es (directa si el signo es positivo, inversa si es negativo). En el siguiente esquema se muestran algunos posibles valores de “r”. Algunos valores del coeficiente de Pearson X X Correlación inversa máxima (-1) Baja correlación inversa (-0.15) Correlación nula (0) Alta correlación directa (+0.70) Correlación directa máxima (+1) Cuanto más cerca de cero esté el coeficiente de correlación obtenido, tanto menor correlación habrá. Cabría preguntarse: ¿hasta qué valor se considera que hay correlación? ¿desde qué valor no la hay? Esto es una cuestión que depende de varias cosas, y hace a la cuestión de la relatividad del coeficiente de Pearson. En efecto, su interpretación depende de varios factores, como por ejemplo: a) la naturaleza de las variables que se correlacionan; b) la significación del coeficiente; c) la variabilidad del grupo; d) los coeficientes de confiabilidad de los tests; e) el propósito para el cual se calcula r. El valor r = 0,70 puede indicar alta correlación para cierto par de variables, pero baja correlación para otras variables distintas. Otro ejemplo: un r de 0,30 entre estatura e inteligencia o entre tamaño craneal y habilidad mecánica indicaría una correlación mas bien alta, puesto que las correlaciones entre variables físicas y mentales suelen ser mucho más bajas, a menudo iguales a cero. Otro ejemplo: un r de 0,30 entre inteligencia y nota de examen, o entre puntaje en inglés y puntaje en historia es considerada bajísima, ya que los r en estos campos suelen extenderse entre 0,40 y 0,60. Otro ejemplo: semejanzas entre padres e hijos, en cuanto a rasgos físicos y mentales, se expresan por valores entre 0,35 y 0,55, y por lo tanto un r de 0,60 sería alto. Respecto de la fórmula para calcular el coeficiente de correlación de Pearson ("r"), no hay una única manera de presentarla, y la elección de una u otra dependerá de la forma de presentación de los datos. Por ejemplo, si los datos están agrupados en una tabla de frecuencias, se utiliza cierta fórmula (Bancroft, 1960:190), mientras que si los datos no están agrupados en frecuencias, podrán utilizarse cualquiera de las fórmulas indicadas en el siguiente esquema (5): Fórmula 1 Fórmula 2 { ( x – X) (y – Y) } r = ± ------------------------------n x. y { ( x – X) (y – Y) } r = ± ------------------------------2 2 ( x – X) . (y – Y) Se usa esta fórmula cuando dan como datos las medias de X e Y y sus respectivos desvíos estándar. Fórmula 3 (El denominador debe elevarse a la raíz cuadrada). Se usa esta fórmula cuando dan como datos las medias aritméticas de X e Y. Fórmula 4 (Z x . Zy) r = ± --------------------n n (x.y) – x . y r = -----------------------------------------------n x2 – ( x)2 . n y2 – ( y)2 Se usa esta fórmula cuando dan como datos los puntajes estandarizados Z. (Ambos factores del denominador se elevan a la raíz cuadrada) Se utiliza esta fórmula (llamada fórmula del producto momento) cuando no se conocen ni medias aritméticas ni desvíos estándar. A continuación se suministra un ejemplo de cómo calcular el coeficiente "r" utilizando la fórmula 2. Se trata de determinar el coeficiente de Pearson para dos variables X e Y (que podrían ser por ejemplo las notas del primero y segundo parcial). También se pide interpretar el resultado. La tabla 1 son los datos dados, mientras que la tabla 2 es una ampliación que debe hacerse para poder obtener más información y poder así aplicar la fórmula: Tabla 1 Alumno A B C D E N=5 alumnos X 4 5 7 9 10 35 Y 6 7 8 9 10 40 Tabla 2 x–X -3 -2 0 2 3 0 y–Y -2 -1 0 1 2 0 ( x – X) (y – Y) 6 2 0 2 6 16 ( x – X) 9 4 0 4 9 26 2 (y – Y) 1 1 0 1 1 10 2 X=7 Y=8 Con los datos obtenidos se aplica ahora la fórmula 2: { ( x – X) (y – Y) } 16 r = ± ---------------------------------------- = ----------------------- = +0.99 2 2 raíz de ( x – X) . (y – Y) raíz de 26,10 Interpretando el resultado, se puede decir que la correlación obtenida es directa o positiva y es además, muy alta. Coeficientes derivados.- A partir del coeficiente "r" de Pearson (en cualquiera de sus formas) se pueden derivar otros, según la información que se quiera obtener: 1) Coeficiente de determinación (r2): es el coeficiente "r" elevado al cuadrado. El coeficiente de determinación indica qué porcentaje de la variación de Y está determinada por las variaciones de X. Por ejemplo, para un "r" de 0,70, hay un coeficiente de determinación de 0,49, lo que significa que el 49% de la variación de Y está determinada por la variación de X. 2) Coeficiente de alienación (k): llamado también de no correlación, no indica la correlación sino la falta de correlación entre dos variables (o grado de independencia). Para calcularlo se aplica la fórmula siguiente: r2 + k2 = 1 [1] Por ejemplo, si sabemos que "r" es de 0,50, aplicando la fórmula indicada tenemos que "k" vale 0,86, con lo cual el grado en que falta la correlación resulta ser mayor que el grado en que sí hay correlación. Idénticamente, si "r" vale 1 entonces "k" vale 0, y viceversa. Cuanto mayor es el coeficiente de alienación tanto menor es la correlación, y por tanto menos confiables serán las predicciones que -análisis de regresión mediante- se hagan sobre esa base. 3) Coeficiente de indeterminación (k2): es el coeficiente "k" pero elevado al cuadrado. Mide el grado en que la variación de Y no está determinada por la variación de X. La fórmula del coeficiente de indeterminación es deducible de la anterior [1]. 4) Coeficiente de eficiencia predictiva (E): suele utilizarse para, sabiendo "r", estimar rápidamente el poder predictivo de la correlación "r". Su fórmula es: E = 100 . (1 - 1-r2) donde 1-r2 debe elevarse a la raíz cuadrada. Por ejemplo si la correlación "r" es de 0,50, la eficiencia predictiva será del 13%. Pero cuando "r" sube a 0,98, la eficiencia predictiva será del 80%. La correlación debe ser entonces de 0.87 o más para que la eficiencia predictiva sea mayor al 50%. Matriz de correlaciones.- En muchas investigaciones se estudian muchas variables, y se intenta cuantificar mediante el coeficiente „r‟ sus relaciones dos a dos, es decir, las relaciones de cada variable con cada una de las demás (Botella, 1993:202). A los efectos de comparar estos diferentes valores de „r‟ se traza una matriz de correlación, que puede tener la siguiente forma: Variable X Variable Variable Variable Variable X Y W Z Variable Y r = -0.17 Variable W r = -0.11 r = +0.46 Variable Z r = -0.30 r = +0.17 r = +0.10 La matriz permite visualizar inmediatamente, entre otras cosas, cuáles son los coeficientes de correlación más altos (en este caso, entre Y y W). Nótese que no han sido llenados los casilleros donde se cruzan las mismas variables (por ejemplo X con X), porque carece de sentido hacerlo y su correlación es siempre perfecta y positiva (r = +1). b) Coeficiente de correlación por rangos de Spearman Se trata de un coeficiente de correlación utilizado para estudiar la asociación entre dos variables ordinales. Se representa con la letra griega „rho‟, y sus fórmulas son las siguientes: Fórmula 1 Fórmula 2 2 2 6 d = 1 - --------------------------n (n + 1) (n – 1) 2 2 x + y + d = -------------------------------2 2 2. x. y La fórmula para obtener x o y es la misma en ambos 2 2 casos, y es x = y = (n3 – n) / 12 2 2 En el denominador, la raíz cuadrada afecta a x . y 2 2 En ciertos casos conviene utilizar la primera fórmula, y en otros casos la segunda. Por ejemplo (Kohan, 1994:256), si no hay empates en los rangos o son muy pocos, se utilizará la fórmula 1, y si hay empates en los rangos, se utilizará la fórmula 2. Para comprender esto, se suministran a continuación dos ejemplos diferentes: uno sin empates y otro con empates. Ejemplo 1.- En este ejemplo (tomado de Kohan, 1994:256) se utiliza el coeficiente de Spearman para evaluar el grado de asociación entre dos variables ordinales: X (autoritarismo) e Y (búsqueda de status). Por ejemplo, permitirá averiguar si a medida que aumenta el autoritarismo en las personas tiende también a aumentar la búsqueda de status social. Para ello se toma una muestra de 12 sujetos, y se obtienen los siguientes resultados: Sujeto A B C D E F G H I J K L x (rango por autoritarismo) 2° 6° 5° 1° 10° 9° 8° 3° 4° 12° 7° 11° y (rango por búsqueda de status) 3° 4° 2° 1° 8° 11° 10° 6° 7° 12° 5° 9° d d2 -1 2 3 0 2 -2 -2 -3 -3 0 2 2 1 4 9 0 4 4 4 9 9 0 4 4 d = 52 2 n = 12 Esta tabla indica, por ejemplo, que el sujeto A se situó en un segundo lugar en autoritarismo y en un tercer lugar en búsqueda de estatus. Aplicando la fórmula 1, se obtiene un coeficiente de Spearman de 0.82, lo cual sugiere una alta correlación entre autoritarismo y búsqueda de status. Ejemplo 2.- Aquí se trata de obtener el coeficiente de Spearman cuando hay empates en los rangos. Los empates ocurren cuando dos o más sujetos tienen el mismo rango en la misma variable. Por ejemplo (ver tabla siguiente), los sujetos A y B obtuvieron el mismo puntaje en la variable X (o sea, obtuvieron ambos cero). Otro tanto ocurrió con los sujetos C y D y con los sujetos J y K, siempre en relación a la misma variable X. En el caso de la variable Y todos los puntajes fueron diferentes, y por lo tanto no hubo empates. Cuanto mayor es la cantidad de empates, más conveniente resultará utilizar la fórmula 2. Sujeto x (rango por autoritarismo) Puntaje Rango 0 (1°) 1.5° 0 (2°) 1.5° 1 (3°) 3.5° 1 (4°) 3.5° 3 (5°) 5° 4 (6°) 6° 5 (7°) 7° 6 (8°) 8° 7 (9°) 9° 8 (10°) 10.5° 8 (11°) 10.5° 12 (12°) 12° A B C D E F G H I J K L n = 12 y (rango por búsqueda de status) Puntaje Rango 42 3° 46 4° 39 2° 37 1° 65 8° 88 11° 86 10° 56 6° 62 7° 92 12° 54 5° 81 9° d d2 -1.5 -2.5 1.5 2.5 -3.5 -5 -3 2 2 -1.5 -5.5 3.5 2.25 6.25 2.25 6.25 9 25 9 4 4 2.25 30.25 9 2 d = 109.5 Para hallar el coeficiente de Spearman en estos casos, puede procederse se acuerdo a tres pasos: a) Reasignación de rangos.- En la columna de Puntaje de la variable X se ha agregado entre paréntesis el rango u orden que ocuparía el sujeto. Este agregado sirve al único efecto de determinar el rango definitivo que se le asignará, y que aparece en la columna Rango, de la misma variable. La forma de calcular este rango definitivo es simple. Por ejemplo, si se consideran los sujetos A y B, se suman los rangos 1° y 2°, con lo cual se obtiene el valor 3. Este valor se divide por la cantidad de empates, que en este caso es 2, y se obtiene el valor 1.5, que será el rango definitivo de ambos sujetos. b) Corrección de la suma de los cuadrados.- Para poder aplicar la fórmula 2, y puesto que 2 2 hay empates, deben modificarse los valores de x y de y es decir, las sumatorias de los cuadrados de los valores de cada variable. Para modificar dichos valores deben restarse a ellos E, cuyo valor se entiende a partir de la siguiente fórmula donde dicho factor se ha restado: 3 n –n 2 x = --------- 141.5 12 3 E 3 3 3 12 – 12 2 –2 2 –2 2 -2 = ------------ - ( --------- + --------- + --------- ) 12 12 12 = 143 – 1.5 = 12 El valor 2 significa que hay sido dos los valores empatados. En este caso, los empates se han dado en tres oportunidades (sujetos A-B, C-D y J-K), y por ello se suman los tres cocientes. Como en la variable Y no se han verificado empates, el cálculo no incluirá el factor de corrección: 3 n –n 3 12 – 12 y = --------- = -----------12 12 2 = 143 c) Aplicación de la fórmula 2.- Se aplica la fórmula con los valores corregidos del siguiente modo: 2 2 2 x + y + d 141.5 + 143 – 109.5 = -------------------------------- = ------------------------------ = 0.616 2 2 2. x. y 2 141.5 . 143 Si no se hubieran introducido las correcciones indicadas, el valor del coeficiente de Spearman “hubiera sido más elevado, aunque en este caso la diferencia es poco importante y sólo conviene corregir cuando hay gran cantidad de empates” (Kohan, 1994:258). 4.5 UN EJEMPLO: CONSTRUCCIÓN Y VALIDACIÓN DE TESTS El análisis de correlación se aplica en muchos ámbitos de la psicología, como por ejemplo en la teoría factorialista de la inteligencia, en el análisis de actitudes en psicología social, y también en la construcción de pruebas psicodiagnósticas (6). Como ejemplo, a continuación se inventará un test, no sólo para ver como se realiza esta tarea, sino también para ver el modo en que interviene en este proceso el análisis de correlación. La idea de construir un supuesto “Test de personalidad de Pérez” pudo haber comenzado al leer los diversos trastornos de personalidad del DSM-IV. Uno de ellos es el trastorno narcisista, otro el trastorno esquizoide, y así sucesivamente. El DSM-IV propone diversos criterios para identificarlos, pero aquí se ha elegido otro camino: tomar un test creado ad hoc. Pensando en la cuestión, cabe imaginarse que un individuo narcisista podría muy bien estar cómodo con un dibujo como el esquema 6, donde aparece un gran punto rodeado de otros más pequeños que lo admiran, mientras que un esquizoide preferiría el esquema 7, representativo de un patrón de distanciamiento de las relaciones sociales. Esquema 6 Esquema 7 Acto seguido, se eligen mil sujetos con diagnósticos diversos de personalidad y se les pregunta qué dibujo les gusta más. Aquí es donde interviene el análisis de correlación, que permitirá ver el grado de asociación entre el diagnóstico y el dibujo elegido. Una muy alta correlación aparecería, por ejemplo, si gran cantidad de sujetos con trastorno narcisista eligen el esquema 6, con lo cual, en lo sucesivo se podrá tomar este test sin necesidad de explorar sus conductas y ver si cumplen los criterios del DSM-IV, un trámite que suele ser arduo. Desde ya, construir un test exige una gran cantidad de controles y precauciones que no vienen al caso exponer aquí. Por ejemplo, debe determinarse su validez y su confiabilidad. El análisis de correlación permite, precisamente, determinar por ejemplo un tipo especial de validez: la validez predictiva, que pueden verse claramente en las pruebas de orientación vocacional. Así, por ejemplo, una forma de establecer si un test de este tipo evalúa la vocación de un sujeto, es esperar varios años y ver si ese sujeto tuvo éxito en la profesión sugerida por el test. Como puede apreciarse, aquí se recurre nuevamente al análisis de correlación, al compararse la profesión diagnosticada con la profesión elegida exitosamente. Una alta correlación entre ambas variables es indicador de la validez predictiva del test en cuestión. El análisis de correlación permite también determinar otros tipos de validez como la validez inter-test, que compara los resultados de un test vocacional con otro test vocacional. Si ambos arrojan aproximadamente los mismos resultados en un conjunto de sujetos, entonces tienen validez inter-test, comparación que fue posible por un análisis de correlación. 4.6 EL ANÁLISIS DE REGRESIÓN El objetivo del análisis de regresión es establecer una predicción acerca del comportamiento de una variable Y conociendo el correspondiente valor de X (o viceversa) y el grado de correlación existente entre ambas variables. Para ello es preciso conocer la llamada recta de regresión (7), que es la recta imaginaria que mejor representa el conjunto de pares de valores de las variables X e Y. En el siguiente eje de coordenadas, están representados por ejemplo cinco de esos pares de valores, mediante cinco puntos. La recta de regresión dibujada sería la que mejor representa esos puntos, por cuanto la distancia de los puntos a la recta (representada con una línea punteada) es la mínima. Esta distancia recibe el nombre de regresión, de manera tal que cuanto menor es la regresión de los puntos, mayor será la correlación entre ellos. y Recta de regresión x La recta de regresión es, de muchas rectas posibles, la que mejor representa la correlación o, más técnicamente, es la única que hace mínima la suma de los cuadrados de las desviaciones o distancias de cada punto a la recta. Es, además, la mejor manera de poder hacer predicciones. Las desviaciones de los puntos respecto de la recta se adjudican a factores no controlados (que suelen ser particularmente importantes en las ciencias sociales), y se parte del supuesto de que si no hubiera factores extraños que afecten la relación entre X e Y, entonces no habría desviaciones y la correlación sería perfecta. La recta de regresión puede trazarse „a ojo‟, pero este procedimiento no tiene precisión. El análisis de regresión propone un método mucho más preciso, consistente en hallar la recta de regresión por una vía analítica. Este cálculo de la recta de regresión consiste en hallar la ecuación de la recta de regresión, y eventualmente luego dibujándola en un diagrama de coordenadas cartesianas. Una vez en posesión de esta ecuación, podrán hacerse predicciones a partir de la ecuación misma o bien a partir de la recta trazada en el diagrama de coordenadas. Ambos procedimientos serán examinados a continuación con los nombres de cálculo analítico de la regresión y cálculo gráfico de la regresión, respectivamente. 4.7 CÁLCULO ANALÍTICO DE LA REGRESIÓN El cálculo analítico de la regresión consiste en averiguar la ecuación de la recta de regresión. Ello permitirá realizar predicciones en base a dicha ecuación. Una vez que se cuenta con un determinado conjunto de pares de valores obtenidos de la realidad, puede determinarse la ecuación de la recta que los representan por dos métodos: el método de los cuadrados mínimos, y el método de las desviaciones. Antes de examinarlos, debe tenerse presente que la forma general de una ecuación de una recta es y = a + b.x (8). Determinar la ecuación de la recta significa asignarle un valor al parámetro „a‟ y otro valor al parámetro „b‟. Los métodos indicados tienen como fin determinar el valor de ambos parámetros. a) Método de los cuadrados mínimos.La ecuación de la recta que tiene la forma y1 = a + b . x1 se obtiene averiguando los valores a y b. Una vez obtenidos ambos valores, puede realizarse una predicción cualquiera: a partir de x1 como el valor conocido, se puede predecir el valor de y1. Las fórmulas para el cálculo de a y b son las siguientes: n (x.y) – x. y b = -----------------------------n x2 - ( x)2 a = Y - b . X (donde Y y X son las respectivas medias aritméticas) Como puede apreciarse, primero debe calcularse b, ya que para calcular a se requiere conocer b. b) Método de las desviaciones.La ecuación de la recta se obtiene a partir de la siguiente expresión: y = r . (Sy / Sx) . (x - X) + Y En esta ecuación de la recta, la expresión r . (Sy / Sx) se llama coeficiente de regresión. Como puede apreciarse, la aplicación del método de las desviaciones requiere conocer las medias aritméticas y los desvíos estándar de X e Y. También requiere conocer el coeficiente de correlación r, para lo cual resulta aquí recomendable utilizar la fórmula número 1. Ejemplo de predicción en base a la ecuación de la recta.- Si se dispone ya de una ecuación de la recta, será muy sencillo hacer una predicción del valor de y en función del valor de x. En cambio, si debe hacerse esa predicción a partir de una simple lista de pares de valores correlacionados, primero deberá obtenerse la ecuación de la recta, para lo cual, a su vez –si la idea es aplicar el método de las desviaciones- deben conocerse las medias aritméticas de x e y, los desvíos estándar de x e y, y la correlación r entre x e y. Considérese la siguiente lista de pares de valores ordenados: Sujeto A B C D E F X (edad) 2 3 5 6 6 8 Y (puntaje test) 55 60 65 80 85 75 A los efectos de poder obtener información sobre las medias aritméticas, los desvíos estándar y el coeficiente de correlación (necesarios para calcular la ecuación de la recta), se amplía la tabla anterior de la siguiente manera: Sujeto A B C D X (edad) 2 3 5 6 Y (puntaje test) 55 60 65 80 (X-X) -3 -2 0 1 (Y-Y) -15 -10 -5 10 (X-X) (Y-Y) 45 20 0 10 E F Total 6 8 30 85 75 420 1 3 --- 15 5 --- 15 15 105 Aplicando la fórmula correspondiente, se obtienen las medias aritméticas de X e Y (que son 5 y 70). Aplicando la fórmula correspondiente, se obtienen los desvíos estándar de X e Y (que son 2 y 10.8). Aplicando la fórmula 1, se obtiene el coeficiente de correlación (que es r = +0.81). Finalmente, se obtiene la ecuación de la recta utilizando el método de loas desviaciones: y = r . (Sy / Sx) . (x - X) + Y y = 0.81 (10.8 / 2) . (x – 5) + 70 Esta expresión se transforma de manera tal que adopte la forma típica de la ecuación de la recta, con lo cual se obtiene: y = 47.85 – 4.43 . x Una vez que se cuenta con la ecuación de la recta, ahora sí pueden hacerse predicciones. Por ejemplo, si a un niño que 10 años se le toma el test, ¿cuál será el puntaje más probable que obtendrá? y = 47.85 – 4.43 . x y = 47.85 – 4.43 . 10 = 92.15 y = 92.15 4.8 CÁLCULO GRÁFICO DE LA REGRESIÓN El cálculo gráfico de la regresión consiste en trazar la recta de regresión en base a la ecuación de la recta obtenida en el cálculo analítico. Ello permitirá realizar predicciones en base a dicha recta trazada en el diagrama de coordenadas cartesianas. La recta de regresión, como toda recta, puede determinarse por dos puntos. Un punto es la ordenada al origen, y el otro punto es la intersección de las medias aritméticas de x e y. Este último punto se llama baricentro. Tomando el ejemplo anterior, la ordenada al origen es 47.85, mientras que el baricentro queda determinado por las medias aritméticas 5 y 70, con lo cual la recta de regresión será la siguiente: Y 90 80 70 60 50 40 30 20 10 0 0 1 2 3 4 5 6 7 8 9 10 X Ejemplo de predicción en base a la recta del diagrama cartesiano.- Considerando solamente la recta dibujada, puede hacerse una predicción (método gráfico). Por ejemplo, si se sabe que x = 7, puede predecirse que el valor de y será 82 de la siguiente manera: Y 90 80 70 60 50 40 30 20 10 0 0 1 2 3 4 5 6 7 8 9 10 X Error estándar de la predicción.- En el ejemplo anterior la predicción realizada es sólo probable, lo que significa que se está cometiendo algún error en la estimación del valor y. Ello es así porque se ha calculado el coeficiente de correlación r y la ecuación de la recta de regresión en base a una muestra (en este caso de apenas seis sujetos) y con esta información se está intentando predecir un valor nuevo que no está en la muestra, es decir, que pertenece a la población. Además, se está suponiendo (Kohan N, 1994:228) que la muestra ha sido tomada al azar, y que ambas variables se distribuyen normalmente. Es posible estimar el error estándar cometido en base a la siguiente expresión: est y = y 1–r . 2 Esto es, el error estándar es igual al desvío estándar poblacional multiplicado por la raíz cuadrada de la diferencia entre 1 y el cuadrado del coeficiente de correlación. En el ejemplo anterior, el desvío estándar valía 10.8 y el coeficiente de correlación valía 0.82. Reemplazando, se obtiene: est y = . 2 1 – 0.82 = 6.2 Esto significa que el valor de y predicho y = 82, estará en un 68% de los casos entre 82 6.2, es decir entre 88.2 y 75.8. O si se quiere, hay un 68% de probabilidades que el valor de y se encuentre entre 88.2 y 75.8. Desde ya, también puede calcularse este intervalo de confianza en base a un 95% o un 99% de probabilidades, en cuyo caso el intervalo de confianza deberá ser mayor. NOTAS (1) Una distribución de frecuencias bivariada es un conjunto de pares de valores, correspondientes a dos variables observadas conjuntamente, con sus respectivas frecuencias. Cuando la distribución se registra en una tabla de doble entrada se obtiene una tabla de contingencia. En cada celda de esta tabla se indica la frecuencia con que se observó cada par de valores. (2) Algunos autores (por ejemplo Botella, 1993:183), clasifican en tres los casos posibles de relación lineal entre variables. a) Relación lineal directa: se dice que dos variables X e Y mantienen una relación lineal directa cuando los valores altos en Y tienden a emparejarse con valores altos en X, los valores intermedios en Y tienden a emparejarse con valores intermedios en X, y los valores bajos en Y tienden a emparejarse con valores bajos en X. Por ejemplo: la relación entre inteligencia y rendimiento. b) Relación lineal inversa: se dice que dos variables X e Y mantienen una relación lineal inversa cuando los valores altos en Y tienden a emparejarse con valores bajos en X, los valores intermedios en Y tienden a emparejarse con valores intermedios en X, y los valores bajos en Y tienden a emparejarse con valores altos en X. Por ejemplo: la relación entre tiempo y errores. c) Relación lineal nula: se dice que hay relación lineal nula entre dos variables cuando no hay un emparejamiento sistemático entre ellas en función de sus valores. Por ejemplo: la relación entre estatura e inteligencia. (3) Otra forma de apreciar gráficamente la correlación es mediante el ángulo de correlación: dadas las dos rectas y1 = a + b . x1 y x1 = a + b . y1 , el punto donde se intersectan se llama centroide. El ángulo entre ambas rectas se llama ángulo de correlación. Cuanto menor es este ángulo, más correlación hay (Kohan, 1994:224). (4) Además del clásico coeficiente "r" de Pearson, existen otros también destinados a medir el grado de asociación entre variables. En el esquema siguiente se resumen algunos ejemplos. No deben confundirse los coeficientes derivados del coeficiente de Pearson, con estos otros coeficientes de correlación, que en general fueron diseñados de manera diferente o para otros propósitos. Nombre Coeficiente de Condiciones de aplicación Se aplica sobre variables cuantitativas (de intervalos iguales o de cocientes). Pearson Coeficiente Q de Yule Coeficiente de asociación (gamma) de Goodmann y Kruskal Coeficiente (Rho) de Spearman Coeficiente Etha Coeficiente de correlación múltiple Coeficiente Phi Además, las variables deben estar distribuidas normalmente, o al menos tratarse de distribuciones bastante simétricas respecto de la media. Se llama también coeficiente de correlación producto-momento de Pearson. De fácil cálculo e interpretación como el anterior, pero su uso se limita a dos variables nominales, con dos categorías cada una. Se utiliza sobre todo cuando son muchas observaciones y muy pocos valores ordinales alcanzados por ellas. Se busca computando las concordancias e inversiones en las ordenaciones que representan las dos variables y se aplica la fórmula. No es más que el coeficiente de Pearson aplicado a variables ordinales. Utilizado para variables cuantitativas (de intervalos iguales o de cocientes), debe reunir dos requisitos: que la curva de distribuciones sea bastante simétrica y unimodal, y que la asociación de variación sea al menos aproximadamente rectilínea. Para correlacionar simultáneamente más de dos variables. Para variables nominales. Otros coeficientes son: el Coeficiente (Tau) de Kendall (Kohan, 1994:260), el Coeficiente de Wilcoxon, el Coeficiente de Flanagan, el Coeficiente de correlación multiserial de Jaspe, el Coeficiente T de Tschuprow, el Coeficiente de correlación tetracórica (Kohan, 1994:281), etc. Todos los coeficientes de correlación pueden aplicarse en psicología, por ejemplo, en experimentos sobre el aprendizaje, en la teoría factorialista de Spearman, y en psicometría cuando por ejemplo debemos establecer el grado de correlación entre dos tests, o el grado de correlación de un mismo test tomado en dos momentos diferentes. (5) “En algunos textos de estadística se describen fórmulas abreviadas para facilitar los cálculos cuando se dispone de un número grande de pares de valores. La disponibilidad actual de calculadoras de mesa y ordenadores personales hacen innecesarias estas fórmulas” (Botella, 1993:193). (6) La construcción de tests puede llevarse a cabo para realizar una investigación ad hoc para la cual no hay instrumentos de medición conocidos, o bien para crear una prueba que pueda ser utilizada por otros en diferentes circunstancias, aunque esto último es más raro en un mercado sobresaturado de pruebas psicométricas y proyectivas donde es realmente muy difícil posicionar un test que pueda representar una mejora respecto de los anteriores. (7) También puede ser una curva, pero en este artículo se describe solamente la regresión lineal, que se representa mediante una recta. (8) El valor „a‟ es la ordenada al origen, y el valor „b‟ es el coeficiente angular o pendiente de la recta, que equivale a la tangente del ángulo alfa (formado por la recta y otra recta paralela a la absisa). La ecuación de la recta también puede representarse como x = a + b.y, en cuyo caso el parámetro „a‟ significará la absisa al origen. En este artículo no se considerará esta segunda expresión por razones de simplicidad, y por cuanto la idea es poder predecir un valor y en función de un valor x, y no un valor x en función de un valor y. Así, la ecuación y = a + b.x permite predecir cuánto valdrá y en función de x, mientras que la ecuación x = a + b.y permite predecir cuánto valdrá x en función de y. Ambas rectas de regresión se cortan en un punto llamado centroide, y “la correlación entre las dos variables está dada por el ángulo entre las dos rectas: si este ángulo vale 0, la correlación es 1” (Kohan N, 1994:224). CAPÍTULO 5: ESTADISTICA INFERENCIAL 5.1 INTRODUCCIÓN A diferencia de la estadística descriptiva, la estadística inferencial va más allá de la mera descripción de la muestra por cuanto se propone, a partir del examen de ésta última, inferir una conclusión acerca de la población, con un cierto nivel de confianza (o, complementariamente, con un cierto nivel de error). Las muestras de las cuales se ocupa la estadística inferencial son muestras probabilísticas, es decir, aquellas en las cuales es posible calcular el error cometido al estimar una característica poblacional (Kohan N, 1994:144) (1). Clásicamente, la estadística inferencial se ocupa de dos cuestiones: la estimación de parámetros y la prueba de hipótesis, aunque “por lo general, la mayoría de las aplicaciones de la estadística inferencial pertenecen al área de la prueba de hipótesis” (Pagano, 1998:209). De acuerdo al mismo autor (1998:155), en la estimación de parámetros el investigador busca determinar una característica de la población a partir de los datos de la muestra. Por ejemplo, tomando la variable edad, podría concluir que la probabilidad de que el intervalo 40–50 contenga la media de la población es de 0.95. En cambio en la prueba de hipótesis, el investigador reúne datos en una muestra para validar cierta hipótesis relativa a una población. Ejemplos: a) para validar la hipótesis de que la media poblacional no tiene una diferencia significativa con la media muestral, toma ambas medias y las compara estadísticamente mediante la prueba de la media; b) para validar la hipótesis de que en la población el método de enseñanza A es mejor que el B, el investigador toma dos muestras de alumnos y a cada uno le aplica un método de enseñanza diferente. El tipo de conclusión que se busca aquí podría ser que las mayores calificaciones en un grupo que en otro se deben al método de enseñanza aplicado y no al azar, y, además, que dicha conclusión no se aplica sólo a la muestra sino a toda la población. En la estadística inferencial se pueden hacer inferencias espaciales e inferencias temporales. Una inferencia espacial implica suponer, a partir de la muestra, cómo es la población total. Una inferencia temporal es un caso especial donde, a partir de ciertos datos actuales podemos inferir o suponer ciertos otros datos que podamos obtener en el futuro, vale decir una población potencial. 5.2 ESTIMACIÓN DE PARÁMETROS Esta tarea consiste en, partiendo de ciertos valores de la muestra llamados estadísticos o estadígrafos (por ejemplo la media aritmética muestral), inferir ciertos otros valores de la población llamados parámetros (por ejemplo la media aritmética poblacional o esperanza). Ello es así porque en general lo que interesa es la población, no la muestra. Cuando un investigador observa que en una muestra el 80% de las personas lee el diario, le interesará averiguar a partir de allí qué porcentaje o proporción de la población lee el diario, ya que por ejemplo su interés es editar un nuevo periódico. De la misma forma, cuando un investigador observa que la media aritmética muestral de la frecuencia cardíaca es 80 pulsaciones por minuto, le interesará averiguar si ello se cumple también en la población, ya que por ejemplo su interés puede ser comparar la frecuencia cardíaca de sus pacientes con toda la población para decidir sobre su salud en base a un criterio estadístico. Como puede verse, lo más habitual es inferir medias aritméticas (promedios) y proporciones (porcentajes). Así, a partir de la media aritmética muestral se infiere la media aritmética poblacional, y a partir de la proporción observada en la muestra se infiere la proporción en la población. Existen dos tipos de estimación de parámetros: la estimación puntual y la estimación intercalar (Pagano R, 1998:304). La estimación puntual consiste en inferir un determinado valor para el parámetro. Por ejemplo, inferir que la población debe tener puntualmente una media aritmética de 80. La estimación intervalar consiste en inferir dentro de qué intervalo de valores estará el parámetro con un determinado nivel de confianza. Por ejemplo, inferir que la población debe tener una media aritmética entre 75 y 83, con un nivel de confianza de 0.95 (esto es, hay un 95% de probabilidades de que el parámetro poblacional se encuentre entre 75 y 93) o, si se quiere, con un nivel de riesgo (4) de 0.05 (esto es, hay un 5% de probabilidades de que el parámetro no se encuentre entre esos valores). En general, resulta mucho más riesgoso afirmar que el parámetro vale 80 que afirmar que vale entre 75 y 83. Por esta razón, se prefiere bajar este riesgo y establecer un intervalo de confianza, que podrá ser de 0.90, 0.95, 0.99, etc, según elija el investigador. Hay diferentes procedimientos de estimación de parámetros, según se trate de estimar medias o proporciones, o según se trate de estimar parámetros de variables cualitativas (con dos categorías o con más de dos categorías) o cuantitativas. En lo que sigue se dan algunos ejemplos combinados. Estimación de la media poblacional para variables cuantitativas.- Conociendo la media muestral, es posible averiguar con un cierto nivel de confianza (por ejemplo 0.95), entre qué valores de la variable estará la media poblacional. Estos valores se llaman límite superior del intervalo (Ls) y límite inferior del intervalo (Li). Para obtener ambos valores se utilizan las siguientes fórmulas: Ls = X + z . (S / n) Li = X - z . (S/ n) Donde: Ls = Límite superior del intervalo de confianza. Li = Límite inferior del intervalo de confianza. X = Media aritmética muestral. S = Desvío estándar muestral. n = Tamaño de la muestra. Si se trata de una muestra chica (menor a 30) se considera n-1. (S / n) = Desvío estándar poblacional. Cuando no tenemos el desvío estándar de la población (hecho muy frecuente) se utiliza el desvío muestral (Rodríguez Feijóo N, 2003). z . (S/ n) = Error muestral o estándar (error que puede cometerse al inferir la media poblacional) (3). z = Puntaje estandarizado que define el nivel de confianza. Si se desea un nivel de confianza de 0.90, debe consignarse z = 1.64. Si se desea un nivel de confianza de 0.95, debe consignarse z = 1.96. Si se desea un nivel de confianza de 0.99, debe consignarse z = 2.58. Para valores intermedios de nivel de confianza, pueden consultarse las tablas de áreas de z (ver capítulo sobre probabilidad y curva normal). Ejemplo (Rodríguez Feijóo N, 2003).- En una muestra probabilística de 600 niños de 10 años de Capital Federal el cociente intelectual promedio obtenido fue de 105 con una desviación estándar de 16. Con un intervalo de confianza del 95%, ¿entre qué límites oscilará el CI promedio de los niños de 10 años de Capital Federal? Ls = X + z . (S / n) = 105 + 1.96 (16 / 600) = 106.27 Li = X - z . (S/ n) = 105 - 1.96 (16 / 600) = 103.73 Respuesta: con un riesgo de 5% de equivocarse en la estimación, el CI promedio de los niños de 10 años de Capital Federal oscila entre 103.73 y 106.27 puntos. Estimación de proporciones para variables cualitativas de dos categorías (Kohan N, 1994:166).- Conociendo la proporción muestral, es posible averiguar con cierto nivel de confianza (por ejemplo 0.99) entre qué proporciones estará la proporción poblacional. Téngase presente que una variable con dos categorías es una variable que tiene solamente dos posibilidades de variación (por ejemplo: el sexo). Para obtener los límites superior e inferior del intervalo de confianza, se utilizan las siguientes fórmulas: Ls = p + z . ( p . q / n) Li = p - z . ( p . q / n) Nota: La raíz cuadrada afecta a p, q y n. Donde: Ls = Límite superior del intervalo de confianza. Li = Límite inferior del intervalo de confianza. p = Proporción muestral z = Puntaje estandarizado que define el nivel de confianza. Si se desea un nivel de confianza de 0.90, debe consignarse z = 1.64. Si se desea un nivel de confianza de 0.95, debe consignarse z = 1.96. Si se desea un nivel de confianza de 0.99, debe consignarse z = 2.58. Para valores intermedios de nivel de confianza, pueden consultarse las tablas de áreas de z (ver capítulo sobre probabilidad y curva normal). q = Proporción que falta para llegar al 100%. Por ejemplo: si p es 65%, entonces q = 35%). n = Tamaño de la muestra. Si se trata de una muestra chica (menor a 30) se considera n-1. Ejemplo.- En una muestra probabilística de 100 personas, el 20% son masculinos. Con un intervalo de confianza del 99%, ¿entre qué proporciones oscilará el porcentaje de masculinos en la población? Ls = 20% + 2.58 . ( 20 . 80 / 100) = 30.3% Li = 20% – 2.58 . ( 20 . 80 / 100) = 9.7% Respuesta: con un riesgo de 1% de equivocarse en la estimación, la proporción de masculinos en la población oscila entre el 9.7% y el 30.3%. 5.3 PRUEBA DE HIPÓTESIS Las pruebas de hipótesis se utilizan para probar alguna hipótesis en investigación científica (10). Cuando el investigador propone una hipótesis, su deseo será poder confirmarla (porque él mismo la propuso o porque cree intuitivamente en ella). Si decide hacer una prueba estadística para salir de dudas, entonces realizará una prueba de hipótesis y establecerá dos hipótesis estadísticas: su propia hipótesis, a la que convertirá en hipótesis alternativa, y la opuesta, que llamará hipótesis nula, y la tarea consistirá en intentar probar esta última. Si la rechaza, aceptará la alternativa, y si la acepta, rechazará la alternativa (7). Existe una gran variedad de pruebas de hipótesis, pero todas ellas tienen en común una determinada secuencia de operaciones, que son las siguientes: 1) Formulación de la hipótesis de investigación y obtención de los datos.- El investigador comienza formulando la hipótesis que pretende probar. Por ejemplo, que una determinada droga cura una enfermedad. Luego, diseña un experimento y lo ejecuta para obtener datos que permitan aceptar o no la hipótesis. Por ejemplo, administra la droga a un grupo y al otro no, para comparar los resultados. Estrictamente, este primer paso no forma parte de la prueba estadística de la hipótesis pero es una condición necesaria para realizarla, y ello por tres motivos: a) si no hay datos empíricos, no puede realizarse ningún estudio estadístico, del mismo modo que si no hay combustible, el motor no funcionará; b) si los datos obtenidos en el experimento o en la observación son lo suficientemente convincentes como para aceptar o rechazar la hipótesis de investigación, no será necesario emplear una prueba estadística de hipótesis, con lo cual, este primer paso permite decidir si cabe o no aplicarla, aún cuando se sepa que en la inmensa mayoría de los casos sí cabe hacerlo. Por ejemplo, si el 100% de los pacientes tratados con una droga se cura, mientras que el 100% de los pacientes no tratados sigue enfermo, es posible concluir, sin la ayuda de la estadística, que cabe aceptar la hipótesis de investigación según la cual la droga cura. Sin embargo, en la realidad no suelen obtenerse datos tan auspiciosos, por lo que se requiere una prueba estadística; y c) para obtener datos se utiliza un determinado diseño de investigación, y la elección de la prueba estadística de hipótesis más adecuada dependerá del tipo de diseño de investigación utilizado. En suma, “es importante saber qué diseño está usando el investigador, cuáles son las variables que puede controlar y en función de esto buscar la prueba estadística adecuada” (Kohan, 1994:357). 2) Formulación de la hipótesis alternativa y la hipótesis nula.- Si la prueba estadística resulta necesaria, la hipótesis de investigación es reformulada en términos estadísticos, obteniéndose la hipótesis alternativa (Ha). A continuación, se formula, en los mismos términos, la hipótesis nula (Ho), que es la opuesta de la alternativa. Ambas reformulaciones incluyen consideraciones del tipo “hay o no hay una diferencia significativa entre…”. Por ejemplo, si la hipótesis de investigación sostiene que la droga cura, la hipótesis alternativa dirá que hay una diferencia significativa entre los resultados del grupo de pacientes tratado y el grupo de pacientes no tratado. Por lo tanto, la hipótesis nula sostendrá que no hay una diferencia significativa entre ambos grupos. En este caso, además, la Ha plantea un cambio (la droga cura), mientras que la Ho plantea la permanencia de un estado (la droga no cura). Lo que siempre se intentará probar es la hipótesis nula para un determinado nivel de significación o de riesgo. Si rechazamos la hipótesis nula aceptamos la alternativa, y si no rechazamos la hipótesis nula, rechazamos la alternativa, ya que ambas son mutuamente contradictorias (8). Al estimar parámetros o probar hipótesis pueden cometerse errores. Suelen describirse dos tipos de errores (Kohan N, 1994:178): El error Tipo I consiste en rechazar la hipótesis nula cuando en realidad es verdadera. O sea, creer que la muestra NO es representativa de la población, cuando sí lo es. Es el error del desconfiado. El error Tipo II consiste en aceptar la hipótesis nula cuando en realidad es falsa. O sea, creer que la muestra SI es representativa de la población, cuando no lo es. Es el error del ingenuo. La probabilidad de cometer el error I se simboliza con la letra griega alfa ( ), y la probabilidad de cometer el error II se simboliza con la letra griega beta ( ) (Kohan N, 1994:185). Estos errores no son errores que cometan inadvertidamente los investigadores. Como la hipótesis nula se rechaza o se acepta en base a determinado nivel de significación o de riesgo de equivocarse, siempre habrá algún riesgo de error, que podrá ser mayor o menor según el nivel de riesgo elegido, pero que no obliga necesariamente a invalidar los resultados. Debe tenerse presente que siempre que se concluya algo sobre la población a partir de la muestra, el procedimiento estará teñido de algún grado de incertidumbre, es decir, siempre habrá algún grado de probabilidad de cometer alguno de los dos tipos de errores. 3) Selección de la prueba de hipótesis más adecuada.- Quedó dicho que hay una gran cantidad de pruebas de hipótesis y su elección “depende de la hipótesis alternativa que se formule, del número de casos examinados, del nivel de medición utilizado, etc” (Kohan N, 1994:176). Por ejemplo, a) si la hipótesis es direccional (es decir, especifica una relación de „mayor que‟ o bien una relación de „menor que‟), se utilizará una prueba de hipótesis de una cola, mientras que si la hipótesis es no direccional (indica una relación de “diferente a”), se utilizará una prueba de hipótesis de dos colas (11); b) si se conoce el desvío estándar poblacional, puede aplicarse la prueba z, mientras que si solamente se conoce el desvío estándar muestral, se aplicará la prueba t de Student; c) si se opera con variables medidas en un nivel nominal, puede utilizarse la prueba de chi cuadrado; si se trabaja con muestras muy pequeñas (por ejemplo de 5 a 10 datos), la prueba t de Student es útil. Señala Vessereau que se trata de un aporte importante por cuanto “durante mucho tiempo se ha creído que era imposible sacar buen partido de las muestras muy pequeñas” (Vessereau A, 1962:33); d) La prueba ANOVA (análisis de varianza): “así como se pueden comparar las medias de dos muestras, existen pruebas que permiten confrontar su variabilidad (varianza o desviación típica). Estas pruebas sirven, entre otras, para resolver los problemas siguientes: 1) Reconocer si un grupo de muestras es homogéneo; y 2) determinar, en la variabilidad de una población de medidas, la parte que corresponde al azar y la que debe atribuirse a causas de variación sistemáticas, llamadas causas controladas o asignadas” (Vessereau A, 1962:38). 4) Determinación del nivel de significación.- El nivel de significación es la probabilidad de rechazar Ho siendo esta verdadera (error tipo I). Cada investigador elige su nivel de significación, es decir, su probabilidad de equivocarse en el sentido indicado. Por ejemplo, puede elegirse un 5% o un 1% de probabilidad de error (o, lo que es lo mismo, un 95% o un 99% de probabilidad de no equivocarse). Señala Kohan (1994:177) que el nivel de significación elegido dependerá de la importancia práctica de la investigación. Por ejemplo, para un estudio sobre los efectos de una droga en el sistema nervioso se usará un nivel de significación muy bajo, como por ejemplo un 0.01%, lo que minimiza al extremo su probabilidad de producir intoxicación. Lo usual es especificar un nivel de significación (probabilidad de cometer el error tipo I) y no el nivel de significación (probabilidad de cometer el error tipo II). Una aclaración más detallada del concepto de significación estadística puede consultarse más adelante en este mismo capítulo 5) Determinación del tamaño de la muestra.- En principio, el tamaño de la muestra n ya fue determinado en el momento de elegir y ejecutar el diseño de investigación: cuanto mayor haya sido el tamaño de la muestra elegido, menor será el error de (Kohan, 1994:178). Sin embargo, también puede procederse al revés: si se elige un determinar nivel , puede determinarse por medios matemáticos el tamaño de la muestra n adecuado a ese nivel (Kohan N, 1994:181-185). Así, por ejemplo, en general si el investigador desea un menor margen de error, deberá aumentar el tamaño de la muestra. Además del tamaño de la muestra, deberán también determinarse la curva operativa característica (Kohan N, 1994:180) y el poder de eficiencia de la prueba (o también potencia), definido este último como la probabilidad de rechazar la hipótesis nula cuando es realmente falsa. Por consiguiente, el poder de eficiencia se define como 1 - , es decir, 1 menos la probabilidad del error II (no rechazar la hipótesis nula cuando es realmente falsa) (Kohan N, 1994:185). Téngase presente: Nivel de error tipo I 1- Nivel de confianza 1- Nivel de error tipo II Nivel de confianza Es la probabilidad de cometer el error tipo I. Probabilidad de rechazar la Ho cuando es verdadera. Es la probabilidad de NO cometer el error tipo I. Probabilidad de NO rechazar (aceptar) la Ho cuando es verdadera. Es la probabilidad de cometer el error tipo II. Probabilidad de NO rechazar (aceptar) la Ho cuando es falsa. Es la probabilidad de NO cometer el error tipo II. Probabilidad de rechazar la Ho cuando es falsa. Se llama poder de eficiencia o potencia de la prueba. 6) Determinación de la distribución muestral de la prueba estadística para Ho.- Señala Kohan (1994:186-187) que cuando un investigador eligió una prueba estadística, necesita saber cuál es su distribución muestral, que es una distribución teórica que se obtendría si se sacaran al azar todas las muestras posibles del mismo tamaño de una población (12). El conocimiento de esta distribución muestral permite estimar la probabilidad de la ocurrencia de ciertos valores. 7) Definición de la zona de rechazo.- Sobre la base de los puntos 3, 4, 5 y 6 deberá ahora establecerse la zona de rechazo de la Ho. Para una mejor comprensión de este concepto, se puede trazar una línea horizontal sobre la cual se podrán definir las zonas de rechazo y de no rechazo de la Ho. En esa línea horizontal se indicarán valores que van desde -3 hasta +3, pasando por el 0 (cero). Estos valores corresponden a puntajes estandarizados, como por ejemplo z, si la prueba estadística elegida es la prueba z, o t, si la prueba elegida es la prueba t de Student: z -3 -2 -1 0 +1 +2 +3 t -3 -2 -1 0 +1 +2 +3 Las zonas de rechazo se definirán según se trate de pruebas de hipótesis de una cola (hipótesis direccionales) o de dos colas (hipótesis no direccionales), según el siguiente esquema: Zona de rechazo Prueba de una cola a la izquierda z Prueba de una cola a la derecha z Prueba de dos colas Zona de aceptación Zona de aceptación Zona de rechazo z Z de aceptación Zona de rechazo Zona de rechazo Para determinar una zona de rechazo (o también zona crítica) es preciso indicar un determinado valor de z (o de t) que sirva para delimitar la zona de rechazo ( ) de la zona de aceptación (1 - ). Ese valor recibe el nombre de „z teórico’, „z crítico‟ o „punto crítico‟, que se calcula en base a una tabla de z (o de t) y en base al nivel de significación elegido. Existe una relación básica entre , y el tamaño de muestra n. Puesto que es la probabilidad de que la estadística de prueba (por ejemplo el z empírico) caiga en la región de rechazo, un incremento en el tamaño de esta región aumenta , y simultáneamente disminuye , para un tamaño de muestra fijo. El reducir el tamaño de la región de rechazo disminuye y aumenta . Si se aumenta el tamaño de muestra entonces, se tiene más información en la cual basar la decisión y ambas y decrecerán. 8) Decisión final (6).- Si el dato empírico (llamado „z empírico’) obtenido „cae‟ dentro de la zona de rechazo, se rechaza la Ho y por tanto se acepta la Ha. En cambio, si el dato „cae‟ fuera de esta zona de rechazo, no se rechaza (se acepta) la Ho, siempre para un nivel de significación elegido (Kohan N, 1994:189). Por ejemplo: z -1.80 -1.65 Zona de rechazo de la Ho z teórico = -1.65 z empírico = -1.80 Zona de aceptación de la Ho En este ejemplo, se puede apreciar que el z teórico delimita las zonas de rechazo y aceptación de la Ho. Como de los datos del experimento resultó un z empírico ubicado dentro de la zona de rechazo, se decide rechazar la Ho y, por lo tanto, se acepta la Ha. 5.4 EJEMPLOS DE PRUEBAS DE HIPÓTESIS Existe una enorme cantidad de tipos de pruebas de hipótesis, adaptables a diversas necesidades y objetivos. En lo que sigue se suministran ejemplos de algunas de las pruebas más frecuentes. 1) Prueba de la media.- Aquí no hay que estimar un intervalo para la media poblacional (como en la estimación de parámetros), sino probar la hipótesis según la cual no hay diferencia estadísticamente significativa entre la media poblacional y la muestral. Esta prueba, llamada también prueba de la media, se entiende cabalmente a partir de un conocimiento mínimo sobre distribución muestral y teorema central del límite (12). Existe una gran diversidad de pruebas de la media, según que se conozca o no se conozca el desvío estándar poblacional (en cuyo caso se utiliza una prueba z o una prueba t, respectivamente), según que la hipótesis sea direccional (prueba de una cola) o no direccional (prueba de dos colas), y según se aplique a una sola muestra (Pagano R, 1998:293) o a dos muestras (Pagano R, 1998:317). Ejemplo.- Se supone que la estatura media de la población de alumnos de una universidad es menor que 1.68 m, y su desvío estándar poblacional es de 0.10 m. Se cuenta con una muestra de 36 alumnos, con una media muestral de 1.65 m. Probar la hipótesis con un nivel de significación o riesgo del 5%. Resolución.- a) En primer lugar convendrá ordenar los datos que suministra el problema: Tamaño de la muestra (n) = 36. 1.68 m. Media aritmética de la muestra (X) = 1.65 m. 0.10 m. Nivel de significación ( ) = 5% = 0.05. Media aritmética de la población ( ) = Desvío estándar de la población ( ) = b) En segundo lugar, se establecen la hipótesis alternativa y la hipótesis nula. La hipótesis alternativa (Ha) sostiene que la media poblacional es menor que 1.68 m, o sea < 1.68 m. Nótese que, primero, la Ha siempre se refiere a la población, no a la muestra; segundo, es la hipótesis deseable por el investigador y por tanto la que se quiere probar; tercero, en este caso particular la hipótesis se refiere a una permanencia, no a un cambio, ya que sostiene que la estatura media poblacional sigue siendo menor que 1.68 m. a pesar de la muestra, que parece sugerir lo contrario; de esto último se desprende, en cuarto lugar, que la muestra no sería representativa de la población, es decir, la diferencia entre muestra y población sería significativa y en este caso debida al azar. La hipótesis nula (Ho) sostiene que la media poblacional es igual a 1.68 m, o sea = 1.68 m. Estrictamente hablando la Ho, por ser la opuesta a la Ha, debería proponer > 1.68 m, pero en la práctica se utiliza la igualdad. La hipótesis nula (Ho) sostiene que la diferencia entre la media muestral y la media poblacional no es estadísticamente significativa para el nivel de significación del 5%, o sea, la muestra es representativa de la población. 2) Se calcula el z empírico mediante la siguiente fórmula: X 1.65 – 1.68 ze = -------------- = ------------------ = - 1.8 / n 0.10 / 36 3) Se calcula el z teórico mediante la tabla de z para un nivel de significación del 5%. Como se trata de una hipótesis alternativa direccional que especifica una dirección de „menor que‟, se emplea la tabla de áreas de z hacia la izquierda (ver apéndice). Puesto que se pide un nivel de significación del 5%, traduciendo este valor a probabilidades obtenemos 0.05. A continuación, se busca el valor de z que corresponde aproximadamente a esa probabilidad. Hay dos valores que se aproximan idénticamente: 0.0505 y 0.0495. Eligiendo arbitrariamente el primero, se obtiene: zt = -1.64 4) Se define la zona de rechazo mediante zt y se indica el valor de ze: z -1.8 -1.64 Zona de rechazo de la Ho z teórico = -1.64 z empírico = -1.8 Zona de aceptación de la Ho 5) Como ze cae dentro de la región de rechazo o región crítica, entonces se rechaza la Ho, y por lo tanto, se acepta la Ha según la cual la estatura media poblacional es menor que 1.68 m. En este caso se puede estar cometiendo un error tipo I, es decir, rechazar la Ho cuando es verdadera, con una probabilidad de = 0.05 (o si se quiere, existe una probabilidad del 5% de estar rechazando la Ho cuando es verdadera). 2) Prueba de hipótesis de correlación (13).- La prueba de hipótesis que permite estudiar la significación de una correlación entre dos variables intenta probar la hipótesis nula que sostiene que la correlación entre las dos variables será cero en la población origen. Las hipótesis estadísticas de esta prueba son: Ho) = 0 Ha) 0 La significación del coeficiente de correlación se estudia por medio de la distribución t de Student. Para ello se obtiene el valor de: que se sitúa bajo la distribución t (n-2, ). Ejemplo.- Sean, a efectos didácticos, las siguientes seis observaciones obtenidas en dos variables X e Y: X 10 10 12 12 14 16 Y 13 16 12 17 15 15 Resolución.- Aplicando la expresión del coeficiente de correlación lineal de Pearson, se obtiene r = 0.1225. Si se quiere contrastar la hipótesis nula Ho) = 0, se deberá estudiar la significación del valor r obtenido. Para estudiar su significación se debe transformar, en primer lugar, el valor de la correlación en un valor t (t empírico) y, en segundo lugar, comparar dicho valor con el valor de las tablas de la t de Student (t teórico) con n-2 grados de libertad (ver Tabla t en Anexo). El valor proporcionado por las tablas es t (4, 0.05)= 2.776. Así, puesto que el valor obtenido es inferior al de las tablas se concluye que los datos no aportan información para rechazar la hipótesis nula Ho en función de la cual las dos variables no están correlacionadas en la población origen de la muestra. 5.5 EL CONCEPTO DE SIGNIFICACIÓN ESTADÍSTICA En este ítem se ofrecen mayores detalles este importante concepto de la estadística inferencial, con un tercer ejemplo de prueba de hipótesis. Uno de los fines de la estadística inferencial consiste en determinar si la diferencia entre dos conjuntos de datos es o no significativa. En el contexto de la investigación científica, ambos conjuntos de datos pueden consistir en dos muestras (por ejemplo entre el grupo experimental y el grupo de control), o bien entre una muestra y una población de la que fue extraída. 1) Diferencia entre muestras.- Cuando la investigación incluye un diseño experimental, es sabido que las muestras (entonces designadas como grupo experimental y grupo de control), en general exigen un tratamiento estadístico antes y después de la manipulación, es decir, antes y después de su exposición a la influencia de la variable experimental “x”. a) Antes de aplicar “x” lo que se exige es que no haya diferencias significativas entre los grupos experimental y de control, tanto en lo referente a “x” como en las variables de control (es decir a las variables extrañas relevantes que requieren ser controladas). b) Después de aplicar “x”, lo que se espera como deseable (para aceptar la hipótesis de investigación) es que haya diferencias significativas en cuanto a “x” entre ambos grupos. La teoría de las muestras (2) “es útil para poder determinar si las diferencias observadas entre dos muestras son realmente debidas al azar o si son significativas, lo que puede llevar a un proceso de toma de decisiones gracias a las pruebas de „hipótesis‟ y de „significación‟ que se pueden hacer” (Kohan N, 1994:144). 2) Diferencia entre muestra y población.- Queda, no obstante, otra tarea adicional para la estadística inferencial: establecer si las conclusiones obtenidas para la muestra experimental, luego de la exposición a “x”, pueden extenderse lícitamente a toda la población, habida cuenta de que la ciencia busca un conocimiento válido y universal. Esta tarea es lo que Kohan describe como “probar hipótesis válidas para la población correspondiente, conociendo la información de las muestras” (Kohan N, 1994:144). La misma autora indica que para que las conclusiones que se obtienen a partir de las muestras sean válidas, éstas deben ser representativas de la población. El objetivo de este ítem es explicar con un ejemplo de qué manera se puede alcanzar el objetivo 1b, es decir, como se puede probar si hay o no diferencias significativas entre un grupo experimental y un grupo de control. Los resultados de un experimento requieren un tratamiento estadístico que permita orientar al investigador acerca de si la hipótesis de investigación debe ser rechazada o no rechazada, para lo cual deberá establecer convencionalmente un determinado nivel de significación que permita diferenciar resultados estadísticamente significativos de resultados estadísticamente no significativos. Seguidamente se explica en detalle esta aseveración. En los informes de investigación suelen aparecer expresiones del tipo "los resultados del experimento son estadísticamente significativos". Seguidamente se aclarará en forma intuitiva qué quiere decir esto, siguiendo los lineamientos didácticos de León y Montero (1995:105-130). Supóngase un sencillo experimento, donde se trata de probar si un choque emocional altera o no el recuerdo de los sucesos inmediatamente anteriores al mismo. Para ello, se tomaron dos grupos de estudiantes: el grupo experimental presenció una película donde había una escena violenta, y el grupo de control presenció la misma película pero sin la escena violenta. Los resultados fueron los siguientes: el grupo sometido al choque emocional lograba luego recordar un promedio de 10, mientras que el grupo sin choque emocional lograba recordar más sobre las escenas del film: por ejemplo, un promedio de 15. Esquemáticamente: Grupo Grupo I (vieron escena violenta) Grupo II (no vieron escena violenta) Choque emocional SI NO Recuerdo 10 15 Lo que debe ahora establecerse es si esta diferencia en los recuerdos entre 10 y 15 es o no significativa, es decir, si va o no más allá del simple azar. Si se concluye que NO es significativa, entonces las diferencias entre 10 y 15 se deben al azar, pero si se concluye que SI es una diferencia significativa, entonces no debe descartarse la influencia del choque emocional sobre la memoria. La expresión 'significativa' quiere decir una diferencia lo suficientemente grande como para pensar que el choque emocional influye sobre los recuerdos. En principio, para averiguar si la diferencia es o no significativa, puede apelarse a dos procedimientos, que podrían llamarse el procedimiento intuitivo y el procedimiento estadístico. a) El procedimiento intuitivo es muy simple: se advierte que la diferencia entre ambos grupos es 15-10=5, y entonces se piensa: "evidentemente, hay una diferencia significativa". Si ambos grupos hubiesen obtenido 15, se pensaría que no habría diferencia significativa y entonces se concluiría que el choque emocional no influye sobre el recuerdo. Como puede notarse, este procedimiento intuitivo tiene el problema de la subjetividad en la estimación de los resultados. Tal vez para otro investigador no hubiese sido significativa la diferencia de 5 sino una diferencia mayor, como por ejemplo 8. Ambos investigadores polemizarían fundamentando sus argumentaciones sobre la base de simples impresiones o creencias, es decir, jamás llegarían a un acuerdo, y, en el mejor de los casos, acordarían buscar un procedimiento más objetivo. En este caso contratarían a un técnico en estadística para que hiciera una estimación como la que ahora se pasa a explicar. b) El procedimiento estadístico es más complejo que el anterior: en lugar de intentar averiguar si la diferencia entre las promedios 15 y 10 es "intuitivamente significativa", lo que intentará probar es si la diferencia es "estadísticamente significativa". Cabe aquí anticipar algo que señalan León y Montero: "Encontrar una diferencia de valores que no es estadísticamente significativa equivale a decir que esa diferencia la hemos encontrado por casualidad. O lo que es lo mismo, si repitiéramos el proceso, el promedio de diferencias encontradas sería cero". ¿Qué significa esta última expresión? Significa que si se hicieran otros experimentos con otros grupos, puesto que las diferencias que se obtienen obedecen a la casualidad, una vez se podría encontrar una diferencia de 5, otra vez una diferencia de 3, otra vez una diferencia de -4, etc, es decir, saldrían números al azar cuyo promedio tendería a cero, puesto que si dicho promedio tendiese a 5, entonces los resultados ya podrían ser pensados como significativos. A partir del ejemplo, se puede ahora examinar el concepto de significación estadística, central dentro de la teoría de las muestras (5). León y Montero proponen imaginar por un momento una variante del experimento anterior, donde ninguno de los dos grupos fue expuesto al choque emocional, es decir, ambos grupos vieron la misma película sin la escena violenta. Desde ya, este experimento carece de sentido, porque lo que interesa es ver si hay o no diferencias entre dos grupos en lo concerniente a capacidad de recordar, sometidos cada uno a 'diferentes' condiciones experimentales (uno vio la escena violenta y el otro no). Sin embargo, analizar lo que sucedería en este experimento imaginario resultará útil para entender la idea de significación estadística, como enseguida se verá. En este experimento imaginario, puesto que ambos grupos no recibieron el estímulo violento, es esperable que los rendimientos mnémicos sean iguales, o por lo menos aproximadamente iguales, porque siempre cabe la posibilidad de la intervención de pequeñas variables no controladas. Repitiendo varias veces el experimento, una vez podríamos obtener una diferencia de 0, otra vez una diferencia de 0.5, otra vez una diferencia de -1, etc. Si el experimento se repitiese diez mil veces, es razonable pensar que habría muy pocos casos donde la diferencia fuese muy extrema (por ejemplo 7 o -7), y muchos casos próximos a una diferencia de 0. Las diferencias obtenidas en los diez mil experimentos podrían resumirse, según este criterio, en la tabla 1. Tabla 1 Diferencias entre los 2 grupos 7 6 5 4 3 2 1 0 -1 -2 -3 -4 -5 -6 -7 Total Cantidad de experimentos (frecuencias) 5 25 90 280 680 1200 1690 2000 1700 1190 720 290 100 26 4 10.000 Los resultados de la tabla 1 permiten ver, en efecto, que hay muy pocos experimentos donde la diferencia entre grupos es muy grande (en apenas 5 experimentos la diferencia fue 7), mientras que hay muchos experimentos donde la diferencia entre grupos es nula (hay 2000 experimentos donde la diferencia fue 0). La tabla también informa sobre lo siguiente: a) La cantidad de casos que obtuvieron como diferencia entre +1 y -1 fue de 5.390 casos (que resulta de sumar 1690 + 2000 + 1700). Ello representa el 53,9% más próximo a cero del total de casos. b) La cantidad de casos que obtuvieron como diferencia entre +3 y -3 fue de 9180 casos. Esto representa el 91,8% más próximo a cero del total de casos, y se puede graficar mediante una curva normal tal como aparece en el gráfico 1. En este gráfico se puede visualizar fácilmente que el 91,8% de los experimentos obtuvo una diferencia de -3 hasta +3. Gráfico 1 2000 Frecuencias 91,8% z -7 +7 -6 -5 -4 -3 -2 -1 0 +1 +2 +3 +4 +5 +6 Diferencias Una vez hechos estos cálculos, ahora cabe hacerse una pregunta fundamental: ¿dentro de qué intervalo de diferencias cabría admitir que las diferencias responden al simple azar? ¿Dentro del intervalo -1 y +1? ¿Dentro del intervalos -3 y +3? Por las dudas, se considerará convencionalmente este último intervalo. Esto quiere decir, por ejemplo, que si en un experimento se obtuvo una diferencia de 2, entonces se considerará que dicha diferencia se debe al azar (pues 2 está entre -3 y +3), mientras que si en otro experimento se obtuvo una diferencia de 6, entonces se considerará que dicha diferencia no se debe al azar (pues 6 está fuera del intervalo entre -3 y +3), es decir, se considerará que la diferencia es 'estadísticamente significativa'. Supóngase ahora el experimento original, donde un grupo era sometido al estímulo violento y el otro no, es decir, donde los grupos son sometidos a diferentes condiciones experimentales. En uno de dichos experimentos se ha obtenido, por ejemplo, una diferencia de 2.5; por lo tanto, deberá concluirse que esta diferencia no es 'estadísticamente significativa' porque está comprendida dentro del 91,8% de los casos más próximos a cero (o sea, entre -3 y +3), según la convención propuesta. En cambio, si la diferencia encontrada en otro experimento de este tipo hubiese sido de 5, este valor cae fuera del intervalo entre -3 y +3, y por lo tanto es 'estadísticamente significativo' (ver gráfico 2). Desde ya, para decidir esto se ha considerado que el porcentaje que permite discriminar lo que es significativo de lo que no lo es era 91,8%. Si se hubiese elegido el 99%, una diferencia de 5 como resultado hubiese resultado estadísticamente no significativa. Señalan León y Montero: "el investigador [es quien] determina el porcentaje que sirve para discriminar la significación de la no significación. Este tanto por ciento se denomina 'nivel de confianza', y tiene sus valores más frecuentes entre 95% y 99%". Cuanto mayor es el porcentaje elegido, más exigente deberá ser en cuanto a la tipificación de un resultado como estadísticamente significativo. En los informes de investigación, en vez de citarse el nivel de confianza, se suele citar su complementario, que es el 'nivel de significación' o 'nivel de riesgo'. En el caso del ejemplo, si el nivel de confianza era del 91,8%, el nivel de significación o de riesgo será lo que falta para completar 100%, es decir, el 8,2% (ver gráfico 2). Más aún, inclusive, es frecuente expresar este nivel de significación no en términos de porcentajes sino en términos de probabilidad, con lo cual, en vez de afirmarse 8,2%, se afirmará 0.082. Gráfico 2 Nivel de significación (o de riesgo) 4,1% Nivel de confianza 91,8% Nivel de significación (o de riesgo) 4,1% z -7 +7 -6 -5 -4 Resultados estadísticamente significativos -3 -2 -1 0 +1 Resultados estadísticamente NO significativos +2 +3 +4 +5 Resultados estadísticamente significativos Las expresiones 'confianza' y 'riesgo' resultan esclarecedoras para entender estos conceptos: si un experimento cae dentro del nivel de confianza se puede decir con tranquilidad, con 'confianza', que los resultados no son estadísticamente significativos, pero si cae dentro del nivel de riesgo, el investigador se estaría 'arriesgando' a sostener que los resultados son estadísticamente significativos, es decir, a aceptar la hipótesis según la cual un choque emocional efectivamente influye sobre los recuerdos. León y Montero indican que encontrar diferencias estadísticamente significativas no es el propósito final del investigador, ni lo más importante. Lo que el investigador persigue es en realidad determinar la significación teórica, más que la significación estadística que le sirve como medio, es decir, si resulta o no relevante para alguna finalidad. Así por ejemplo, si se ha constatado que un tratamiento para adelgazar produce una pérdida de 2 Kg, esto puede ser estadísticamente significativo, pero mientras que para un investigador nutricionista será además también importante desde el punto de vista teórico, para un vendedor de esa dieta no, porque 2 Kg. no le proporciona un buen argumento de venta. Una última acotación. Podría ocurrir que algunos investigadores que hicieran el experimento del choque emocional hubiesen obtenido diferencias extremas, como por ejemplo -7 o +7, mientras que otros hubiesen obtenido diferencias más próximas a cero, con lo cual los primeros hubiesen aceptado la hipótesis del choque emocional, mientras que los segundos la hubiesen rechazado. Este desacuerdo entre investigaciones puede ocurrir, con lo cual deberá emprenderse lo que se llama un 'meta-análisis', es decir, un procedimiento que permita integrar los resultados acumulados de una serie de investigaciones. NOTAS (1) Las muestras no probabilísticas “solo suelen usarse como primera aproximación en trabajos piloto, pero no puede saberse cuán confiables son sus resultados” (Kohan N, 1994:146). (2) “Toda teoría de las muestras es una estadística „inferencial‟, pues se „infieren‟ a partir de los valores estadísticos hallados en las muestras los valores paramétricos más probables para las poblaciones de las cuales hemos extraído las muestras” (Kohan N, 1994:145). (3) Cuanto mayor es el error estándar, mayor es el intervalo de confianza. El error estándar es mayor cuando z es mayor, o sea, cuanto menor es el riesgo que se quiere correr; cuando n es menor (si se quiere más precisión se necesitará una muestra más grande), y cuando S es mayor. En síntesis: cuanto menor es el riesgo que se quiere correr, cuanto menor es el tamaño de la muestra y cuanto mayor es el S (desvío estándar muestral), mayor será el intervalo de confianza. (4) Este nivel de riesgo es también llamado nivel de significación (Rodríguez Feijóo N, 2003). (5) "La teoría sobre las muestras... es útil [entre otras cosas] para poder determinar si las diferencias observadas entre dos muestras son realmente debidas al azar o si son significativas, lo que puede llevar a un proceso de toma de decisiones gracias a las pruebas de hipótesis y de significación que se pueden hacer" (Kohan N, 1994:144). +6 (6) La prueba de hipótesis tiende a ser denominada en la actualidad teoría de la decisión (Kohan N, 1994:173). Con ello se quiere significar que la prueba de hipótesis se lleva a cabo sobre la base de una teoría llamada teoría de la decisión. (7) Un experimento clásico para probar la hipótesis del investigador es comparar dos muestras: el grupo experimental y el grupo de control. Si hay diferencia significativa entre la muestra experimental y la muestra de control, entonces NO hay diferencia significativa entre la muestra experimental y la población. (8) Puede llamar la atención que el investigador no pruebe directamente su hipótesis alternativa sino que lo haga indirectamente, probando la hipótesis nula. ¿Por qué proceder para apoyar una teoría mostrando que hay poca evidencia para apoyar la teoría contraria? ¿Por qué no apoyar directamente la hipótesis alternativa o de investigación? La respuesta está en los problemas para evaluar las posibilidades de decisiones incorrectas. El argumento que en general puede encontrarse en los textos de estadística es el siguiente: Si la hipótesis de investigación es verdadera (por ejemplo una vacuna cura el resfriado), la prueba de la hipótesis nula (la contraria a la hipótesis de investigación) deberá conducir a su rechazo. En este caso, la probabilidad de tomar una decisión incorrecta corresponde a cuyo valor fue especificado al determinar la región de rechazo. Por lo tanto, si se rechaza la hipótesis nula (que es lo deseable) se conoce inmediatamente la probabilidad de tomar una decisión incorrecta. Esto proporciona una medida de confianza de la conclusión. Supóngase que se utiliza el razonamiento opuesto, probando la hipótesis alternativa (de investigación) de que la vacuna es efectiva. Si la hipótesis de investigación es verdadera, la estadística de prueba probablemente caerá en la región de aceptación (en lugar de la de rechazo). Ahora, para encontrar la probabilidad de una decisión incorrecta de debe evaluar , la probabilidad de aceptar la hipótesis nula cuando esta es falsa. A pesar de que esto no representa un gran esfuerzo para el problema de la vacuna contra el resfriado, es un trabajo adicional que se debe hacer y en algunos casos es muy difícil calcular . Así que, para resumir, es mucho más fácil seguir el camino de la “prueba por contradicción”. Por lo tanto, el estadístico elegirá la hipótesis contraria a la de la investigación como hipótesis nula y su deseo es que la prueba conduzca a su rechazo. Si es así, el estadístico conoce el valor de y tiene una medida inmediata de la confianza que se puede depositar en esta conclusión. (9) Autores como Hernández Sampieri et al (1996:91) nos ofrecen una interesante tipología de hipótesis nulas que contemplan varias posibilidades. Concretamente, hacen referencia a: 1) hipótesis nulas descriptivas de una variable que se va a observar en un contexto (por ejemplo “la expectativa de ingreso mensual de los trabajadores de la corporación T no oscila entre 50.000 y 60.000 pesos colombianos”); 2) hipótesis que niegan o contradicen la correlación entre dos o más variables (por ejemplo “no hay relación entre la autoestima y el temor de logro”); 3) hipótesis que niegan que haya diferencia entre grupos (por ejemplo “no existen diferencias en el contenido de sexo en las telenovelas S, L y M”); y 4) hipótesis que niegan la relación de causalidad entre dos o más variables (por ejemplo “la percepción de la similitud en religión, valores y creencias no provoca mayor atracción física”). A nuestro entender, una visión más completa de las hipótesis nulas debería considerar al menos cuatro sentidos, que podemos designar respectivamente en términos de hipótesis nula de estimación, hipótesis nula de correlación, de causalidad y de validez externa: a) La hipótesis nula de estimación vendría a afirmar que los estadísticos muestrales no son representativos de los parámetros poblacionales. b) La hipótesis nula de correlación vendría a afirmar que no existe una correlación significativa entre dos o más variables. El nivel de significación es en estos casos el que establece a priori el investigador cuando califica ciertos intervalos del coeficiente de correlación como „alto‟, „medio‟, „bajo‟, etc. c) La hipótesis nula de causalidad vendría a afirmar que los cambios en la variable dependiente Y no son adjudicables a los cambios de la variable independiente X. Pagano, por ejemplo, refiere que la hipótesis nula indica que la variable independiente no influye sobre la variable dependiente (Pagano, 1998:212). Este segundo sentido de hipótesis nula es el más frecuentemente mencionado en los tratados sobre el tema. d) La hipótesis nula de validez externa vendría a indicar que las conclusiones obtenidas en la muestra no son extensibles -con el nivel confianza requerido- a toda la población. Este tipo de hipótesis vendría entonces a negar la validez externa de un experimento, entendiendo aquí validez externa como requisitos de los diseños experimentales tal como por aparecen en gran parte de la bibliografía sobre el tema (por ejemplo Campbell D y Stanley J, 1995:16). Autores como Tamayo parecerían considerar este sentido de hipótesis nula cuando la incluyen dentro de las hipótesis estadísticas, definiendo éstas últimas como suposiciones sobre una población que se realizan a partir de los datos observados, es decir, de una muestra (Tamayo M, 1999:120). La hipótesis nula de estimación corresponde a la primera tarea de la estadística inferencial: la estimación de parámetros. Las hipótesis nulas de correlación y de causalidad corresponderían a la prueba de hipótesis donde se busca establecer si „y‟ se debe a „x‟ y no al azar, y la hipótesis nula de validez externa corresponderían a la prueba de hipótesis donde se busca generalizar los resultados a toda la población. (10) Debe diferenciarse la hipótesis de investigación (H), la hipótesis alternativa (Ha) y la hipótesis nula (Ho). La hipótesis de investigación resulta, según Vessereau (1962:28), de consideraciones teóricas o bien está sugerida por los datos mismos. A los efectos de probar la hipótesis de investigación, deberá dársele una „forma‟ estadística, con lo cual se convierte en la hipótesis alternativa (esta „forma‟ estadística significa que incluye por ejemplo alguna afirmación acerca de „si hay o no diferencias significativas‟). A su vez para probar esta hipótesis alternativa deberá probarse la hipótesis nula, que no es otra cosa que la negación de la hipótesis alternativa. Más concretamente, “por lo general, la hipótesis de investigación predice una relación entre dos o más variables (por ejemplo, que los niños que tienen mayor dominio del ojo izquierdo obtendrán puntajes de rendimiento en lectura bastante inferiores a los de los otros alumnos). Para probar esta hipótesis de manera estadística, el investigador debe transformarla en hipótesis alternativa y luego negarla mediante la hipótesis nula. La hipótesis nula no siempre refleja las expectativas del investigador en relación con el resultado del experimento. Por lo general, se opone a la hipótesis de investigación, pero se la utiliza porque resulta más apropiada para la aplicación de los procedimientos estadísticos. La hipótesis nula determina que no existe relación entre las variables consideradas (por ejemplo, en lo que respecta al rendimiento en la lectura, no hay ninguna diferencia entre los niños que poseen mayor dominio del ojo izquierdo y los demás). Por lo general, cuando se formula una hipótesis nula, se espera que sea rechazada. Si esto último ocurre, se acepta la hipótesis de investigación” (Van Dalen: 189-190). (11) Las pruebas de una cola y dos colas también se llaman pruebas de un extremo y dos extremos, o también unilaterales y bilaterales, o también one tailed test o two tailed test. (12) Dada una población de la cual se conoce su media aritmética, por ejemplo 70, su varianza, y su tamaño N, por ejemplo 4, puede llevarse a cabo el siguiente procedimiento: a) primero se sacan todas las muestras posibles del mismo tamaño. La cantidad de muestras posibles se puede calcular mediante un número combinatorio, y así, por ejemplo, de una población de N = 4, se pueden obtener un total de 6 muestras de n = 2. b) A continuación se calculan las medias aritméticas de cada una de las muestras posibles, con lo cual se obtiene una distribución muestral de medias aritméticas. Por ejemplo, las medias aritméticas de las 6 muestras pueden ser: 50, 60, 70, 80 y 90. c) Seguidamente se calcula la media aritmética de todas estas medias aritméticas, y se obtiene un valor de 70. Como puede apreciarse, esta media de todas la medias muestrales coincide con la media poblacional. La estadística ha demostrado que esta distribución de medias de todas las medias muestrales sigue el modelo de la curva normal, y se ha establecido así el teorema central de límite, que dice que si se sacan repetidamente muestras de tamaño n de una población normal de cierta media y cierta varianza, la distribución de las medias muestrales será normal con una media igual a la media poblacional y con una varianza igual a la varianza poblacional dividido n. Desde ya, la precisión de la aproximación mejora al aumentar n. De todo ello se desprende que si se selecciona una muestra cualquiera y ésta tiene una determinada varianza (o sea, un determinado desvío estándar respecto de la media de las medias), se habrá cometido un determinado error, llamado en este caso error estándar, por haber trabajado con una muestra en lugar de haberlo hecho con la población. La fórmula del error estándar no es otra cosa que el desvío estándar de la muestra en cuestión, lo que es igual al desvío estándar poblacional dividido por la raíz cuadrada del tamaño n de la muestra (Rodríguez Feijóo, 2003) (Kohan N, 1994:150-153). (13) Extraído de http://www.bibliopsiquis.com/psicologiacom/vol5num1/2815/. Otro ejemplo de prueba de hipótesis de correlación puede encontrarse en Kohan (1994:234). REFERENCIAS BIBLIOGRÁFICAS Bancroft H (1960) Introducción a la bioestadística. Buenos Aires: Eudeba. Botella R (1993) Análisis de datos en psicología I. Buenos Aires: Paidós. Campbell D y Stanley J (1995), Diseños experimentales y cuasiexperimentales en la investigación social. Buenos Aires: Amorrortu. Hernández Sampieri R, Fernández Collado C y Baptista Lucio P (1996), Metodología de la investigación. México: McGraw-Hill. Kohan N (1994) Diseño estadístico. Buenos Aires, Eudeba. Lichtenthal S, Qué es la teoría de la información. Buenos Aires, Revista Ciencia Nueva, N° 3, 1970. León O y Montero I (1995) Diseño de investigaciones (Introducción a la lógica de la investigación en Psicología y Educación), Madrid, McGraw-Hill. Levin R y Rubin D (1996) Estadística para administradores. Prentice Hall, 6° ed. Pagano R (1998) Estadística en las ciencias del comportamiento. México: Internacional Thomson. 5° edición. Rodríguez Feijóo N (2003) Estadística social. Tamayo M (1999), Diccionario de la investigación científica. México: Limusa. Van Dalen D y Meyer W, Manual de técnica de la investigación educacional. Vessereau A (1962) La estadística. Buenos Aires: Eudeba. OTRAS FUENTES CONSULTADAS Ander-Egg E (1987) Técnicas de Investigación social. Buenos Aires: Hvmanitas, 21 edición. Cuidet C (1969) Nociones básicas para el tratamiento estadístico en los tests mentales. Buenos Aires: Opfyl. Garrett H (1966) Estadística en Psicología y Educación. Buenos Aires: Paidós. ANEXOS ANEXO 1: NOMENCLATURA UTILIZADA EN ESTA GUÍA Muchos de los símbolos que se emplean en estadística no son universales. En la siguiente lista se presentan los símbolos que se utilizan en esta Guía, y también se incluyen los símbolos de las letras del alfabeto griego. Hay ciertas reglas que suelen ser universales, como por ejemplo, las letras griegas siempre se refieren a parámetros de la población y las letras latinas se refieren a estadísticos de la muestra (Levin y Rubin, 1996). Símbolo h CV CV% 0 Q Qt 0 D Dt Dm S f F Fant F% Fpos Fr fant fpos f° f% fr As Li Ls xmay X Y Mn 0 Mn xmen Mo t 0 P Pt p Z z xm R DQ n N a | xn x1 x, y 2 S Concepto Altura Coeficiente de variación Coeficiente de variación porcentual Cuartil de orden Cuartil t (ejemplo: Q3 = Cuartil 3) Decil de orden Decil t (ejemplo: D9 = Decil 9) Desviación media Desvío estándar muestral Desvío estándar poblacional Frecuencia absoluta Frecuencia acumulada Frecuencia acumulada anterior Frecuencia acumulada porcentual Frecuencia acumulada posterior Frecuencia acumulada relativa Frecuencia del intervalo anterior Frecuencia del intervalo posterior Frecuencia expresada en grados Frecuencia porcentual Frecuencia relativa Indice de asimetría Límite inferior del intervalo Límite superior del intervalo Mayor valor de la variable Media aritmética muestral de x Media aritmética muestral de y Media aritmética poblacional (esperanza) Mediana Mediana de orden Menor valor de la variable Modo Número de decil o del percentil Percentil de orden Percentil t (ejemplo P99 = Percentil 99) Probabilidad Puntaje estandarizada derivado Puntaje estandarizado reducido Punto medio del intervalo Rango o amplitud Rango o desvío intercuartílico Sumatoria Tamaño de la muestra Tamaño de la población Tamaño o amplitud del intervalo Valor absoluto Variable (cualquier valor de una…) Variable (determinado valor de una…) Variables (letras que designan…) Variancia muestral Variancia poblacional Ls Li H Ho Ha 11ze zt Límite superior del intervalo de confianza Límite inferior del intervalo de confianza Hipótesis de investigación Hipótesis nula Hipótesis alternativa Probabilidad de cometer un error Tipo I Probabilidad de cometer un error Tipo II Probabilidad de NO cometer el error tipo I Probabilidad de NO cometer el error tipo II z empírico z teórico o crítico Alfabeto griego Nombre alfa beta gamma delta épsilon dseta eta zeta Mayúscula Minúscula Nombre Mayúscula iota kappa lambda mi ni xi ómicron pi Minúscula Nombre Mayúscula Minúscula ro sigma tau ípsilon fi ji psi omega ANEXO 2: TABLA DE ÁREAS BAJO LA CURVA NORMAL ESTANDARIZADA Las siguientes tablas representan dos maneras diferentes de proporcionar una misma información, a saber, la relación entre el puntaje reducido z con la probabilidad p de ocurrencia del valor z. El valor de esta probabilidad es proporcional al área correspondiente bajo la curva. Por ejemplo, dado un valor z, las tablas permite conocer qué probabilidad tiene que darse ese valor o más o ese valor o menos, en un individuo elegido al azar. Desde ya, a la inversa, también permite conocer qué valor z corresponde a una determinada probabilidad. Los valores z figuran en la primera columna, mientras que los diferentes valores de probabilidad figuran en las columnas restantes. Por ejemplo: a) Siguiendo la Tabla 1, un puntaje reducido z = +1.26 o menor tiene una probabilidad de ocurrencia de p = 0.8962 (el área bajo la curva normal corresponde al 89.62% de total del área). b) Siguiendo la Tabla 2, un puntaje reducido z situado entre z = 0 y z = +1.26 tiene una probabilidad de ocurrencia de p = 0.3962 (el área bajo la curva normal corresponde al 39.62% del total del área). Arriba de cada tabla puede observarse un esquema de la curva normal. Las áreas rayadas indican las áreas que cada tabla permite calcular. Por ejemplo, la Tabla 1 permite calcular áreas desde z hacia la izquierda, y la Tabla 2 calcula áreas entre z y el centro de la distribución (z = 0). Nótese que el título asignado a la Tabla 2 es “Áreas desde z = 0 hacia la izquierda o hacia la derecha”. Esto significa que, debido a la perfecta simetría de la curva normal, una distancia entre z = +1.26 y 0 da la misma probabilidad que la distancia z = -1.26 y 0. Tabla 1 – Áreas desde z hacia la izquierda z Probabilidad (p) 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 -3.4 .0003 .0003 .0003 .0003 .0003 .0003 .0003 .0003 .0003 .0002 -3.3 .0005 .0005 .0005 .0004 .0004 .0004 .0004 .0004 .0004 .0003 -3.2 .0007 .0007 .0006 .0006 .0006 .0006 .0006 .0005 .0005 .0005 -3.1 .0010 .0009 .0009 .0009 .0008 .0008 .0008 .0008 .0007 .0007 -3.0 .0013 .0013 .0013 .0012 .0012 .0011 .0011 .0011 .0010 .0010 -2.9 .0019 .0018 .0017 .0017 0016. .0016 .0015 .0015 .0014 .0014 -2.8 .0026 .0025 .0024 .0023 .0023 .0022 .0021 .0021 .0020 .0019 -2.7 .0035 .0034 .0033 .0032 .0031 .0030 .0029 .0028 .0027 .0026 -2.6 .0047 .0045 .0044 .0043 .0041 .0040 .0039 .0038 .0037 .0036 -2.5 .0062 .0060 .0059 .0057 .0055 .0054 .0052 .0051 .0049 .0048 -2.4 .0082 .0080 .0078 .0075 .0073 .0071 .0069 .0068 .0066 .0064 -2.3 .0107 .0104 .0102 .0099 .0096 .0094 .0091 .0089 .0087 .0084 -2.2 .0139 .0136 .0132 .0129 .0125 .0122 .0119 .0116 .0113 .0110 -2.1 .0179 .0174 .0170 .0166 .0162 .0158 .0154 .0150 .0146 .0143 -2.0 .0228 .0222 .0217 .0212 .0207 .0202 .0197 .0192 .0188 .0183 -1.9 .0287 .0281 .0274 .0268 .0262 .0256 .0250 .0244 .0239 .0233 -1.8 .0359 .0352 .0344 .0336 .0329 .0322 .0314 .0307 .0301 .0294 -1.7 .0446 .0436 .0427 .0418 .0409 .0401 .0392 .0384 .0375 .0367 -1.6 .0548 .0537 .0526 .0516 .0505 .0495 .0485 .0475 .0465 .0455 -1.5 .0668 .0655 .0643 .0630 .0618 .0606 .0595 .0582 .0571 .0559 -1.4 .0808 .0793 .0778 .0764 .0749 .0735 .0722 .0708 .0694 .0681 -1.3 .0968 .0951 .0934 .0918 .0901 .0885 .0869 .0853 .0838 .0823 -1.2 .1151 .1131 .1112 .1093 .1075 .1056 .1038 .1020 .1003 .0985 -1.1 .1357 .1335 .1314 .1292 .1271 .1251 .1230 .1210 .1190 .1170 -1.0 .1587 .1562 .1539 .1515 .1492 .1469 .1446 .1423 .1401 .1379 -0.9 .1841 .1814 .1788 .1762 .1736 .1711 .1685 .1660 1635. 1611. -0.8 .2119 .2090 .2061 .2033 .2005 .1977 .1949 .1922 .1894 .1867 -0.7 .2420 .2389 .2358 .2327 .2296 .2266 .2236 .2206 .2177 .2148 -0.6 .2743 .2709 .2676 .2643 .2611 .2578 .2546 .2514 .2483 .2451 -0.5 .3085 .3050 .3015 .2981 .2946 .2912 .2877 .2843 .2810 .2776 -0.4 .3446 .3409 .3372 .3336 .3300 .3264 .3228 .3192 .3156 .3121 -0.3 .3821 .3783 .3745 .3707 .3669 .3632 .3594 .3557 .3520 .3483 -0.2 .4207 .4168 .4129 .4090 .4052 .4013 .3974 .3936 .3897 .3859 -0.1 .4602 .4562 .4522 .4483 .4443 .4404 4364. 4325. 4286. 4247. -0.0 .5000 .4960 .4920 .4880 .4840 .4801 .4761 .4721 .4681 .4641 0.0 .5000 .5040 .5080 .5120 .5160 .5199 .5239 .5279 .5319 .5359 0.1 .5398 .5438 .5478 .5517 .5557 .5596 .5636 .5675 .5714 .5753 0.2 .5793 .5832 .5871 .5910 .5948 .5987 .6026 .6064 .6103 .6141 0.3 .6179 .6217 .6255 .6293 .6331 .6368 .6406 .6443 .6480 .6517 0.4 .6554 .6591 .6628 .6664 .6700 .6736 .6772 .6808 .6844 .6879 0.5 .6915 .6950 .6985 .7019 .7054 .7088 .7123 .7157 .7190 .7224 0.6 .7257 .7291 .7324 .7357 .7389 .7422 .7454 .7486 .7517 .7549 0.7 .7580 .7611 .7642 .7673 .7704 .7734 .7764 .7794 .7823 .7852 0.8 .7881 .7910 .7939 .7967 .7995 .8023 .8051 .8078 .8106 .8133 0.9 .8159 .8186 .8212 .8238 .8264 .8289 .8315 .8340 .8365 .8389 1.0 .8413 .8438 .8461 .8485 .8508 .8531 .8554 .8577 .8599 .8621 1.1 .8643 .8665 .8686 .8708 .8729 .8749 .8770 .8790 .8810 .8830 1.2 .8849 .8869 .8888 .8907 .8925 .8944 .8962 .8980 .8997 .9015 1.3 .9032 .9049 .9066 .9082 .9099 .9115 .9131 .9147 .9162 .9177 1.4 .9192 .9207 .9222 .9236 .9251 .9265 .9279 .9292 .9306 .9319 1.5 .9332 .9345 .9357 .9370 .9382 .9394 .9406 .9418 .9429 .9441 1.6 .9452 .9463 .9474 .9484 .9495 .9505 .9515 .9525 .9535 .9545 1.7 .9554 .9564 .9573 .9582 .9591 .9599 .9608 .9616 .9625 .9633 1.8 .9641 .9649 .9656 .9664 .9671 .9678 .9686 .9693 .9699 .9706 1.9 .9713 .9719 .9726 .9732 .9738 .9744 .9750 .9756 .9761 .9767 2.0 .9772 .9778 .9783 .9788 .9793 .9798 .9803 .9808 .9812 .9817 2.1 .9821 .9826 .9830 .9834 .9838 .9842 .9846 .9850 .9854 .9857 2.2 .9861 .9864 .9868 .9871 .9875 .4878 .9881 .9884 .9887 .9890 2.3 .9893 .9896 .9898 .9901 .9904 .9906 .9909 .9911 .9913 .9916 2.4 .9918 .9920 .9922 .9925 .9927 .9929 .9931 .9932 .9934 .9936 2.5 .9938 .9940 .9941 .9943 .9945 .9946 .9948 .9949 .9951 .9952 2.6 .9953 .9955 .9956 .9957 .9959 .9960 .9961 .9962 .9963 .9964 2.7 .9965 .9966 .9967 .9968 .9969 .9970 .9971 .9972 .9973 .9974 2.8 .9974 .9975 .9976 .9977 .9977 .9978 .9979 .9979 .9980 .9981 2.9 .9981 .9982 .9982 .9983 .9984 .9984 .9985 .9985 .9986 .9986 3.0 .9987 .9987 .9987 .9988 .9988 .9989 .9989 .9989 .9990 .9990 3.1 .9990 .9991 .9991 .9991 .9992 .9992 .9992 .9992 .9993 .9993 3.2 .9993 .9993 .9994 .9994 .9994 .9994 .9994 .9995 .9995 .9995 3.3 .9995 .9995 .9995 .9996 .9996 .9996 .9996 .9996 .9996 .9997 3.4 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9998 Tabla 2 – Áreas desde z = 0 hacia la izquierda o hacia la derecha z Probabilidad (p) 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.0 .0000 .0040 .0080 .0120 .0160 .0199 .0239 .0279 .0319 .0359 0.1 .0398 .0438 .0478 .0517 .0557 .0596 .0636 .0675 .0714 .0754 0.2 .0793 .0832 .0871 .0910 .0948 .0987 .1026 .1064 .1103 .1141 0.3 .1179 .1217 .1255 .1293 .1331 .1368 .1406 .1443 .1480 .1517 0.4 .1554 .1591 .1628 .1664 .1700 .1736 .1772 .1808 .1844 .1879 0.5 .1915 .1950 .1985 .2019 .2054 .2088 .2123 .2157 .2190 .2224 0.6 .2258 .2291 .2324 .2357 .2389 .2422 .2454 .2486 .2518 .2549 0.7 .2580 .2612 .2642 .2673 .2704 .2734 .2764 .2794 .2823 .2852 0.8 .2881 .2910 .2939 .2967 .2996 .3023 .3051 .3078 .3106 .3133 0.9 .3159 .3186 .3212 .3238 .3264 .3289 .3315 .3340 .3365 .3389 1.0 .3413 .3438 .3461 .3485 .3508 .3531 .3554 .3577 .3599 .3621 1.1 .3643 .3665 .3686 .3708 .3729 .3749 .3770 .3790 .3810 .3830 1.2 .3849 .3869 .3888 .3907 .3925 .3944 .3962 .3980 .3997 .4015 1.3 .4032 .4049 .4066 .4082 .4099 .4115 .4131 .4147 .4162 .4177 1.4 .4192 .4207 .4222 .4236 .4251 .4265 .4279 .4292 .4306 .4319 1.5 .4332 .4345 .4357 .4370 .4382 .4394 .4406 .4418 .4429 .4441 1.6 .4452 .4463 .4474 .4484 .4495 .4505 .4515 .4525 .4535 .4545 1.7 .4554 .4564 .4573 .4582 .4591 .4599 .4608 .4616 .4625 .4633 1.8 .4641 .4649 .4656 .4664 .4671 .4599 .4608 .4616 .4625 .4633 1.9 .4713 .4719 .4726 .4732 .4738 .4744 .4750 .4756 .4761 .4767 2.0 .4772 .4778 .4783 .4788 .4793 .4798 .4803 .4808 .4812 .4817 2.1 .4821 .4826 .4830 .4834 .4838 .4842 .4846 .4850 .4854 .4857 2.2 .4961 .4864 .4868 .4871 .4875 .4878 .4881 .4884 .4887 .4890 2.3 .4893 .4896 .4898 .4901 .4904 .4906 .4909 .4911 .4913 .4916 2.4 .4918 .4920 .4922 .4925 .4927 .4929 .4931 .4932 .4934 .4936 2.5 .4938 .4940 .4941 .4943 .4945 .4946 .4948 .4949 .4951 .4952 2.6 .4953 .4955 .4956 .4957 .4959 .4960 .4961 .4962 .4963 .4964 2.7 .4965 .4966 .4967 .4968 .4969 .4970 .4971 .4972 .4973 .4974 2.8 .4974 .4975 .4976 .4977 .4977 .4978 .4979 .4979 .4980 .4981 2.9 .4981 .4982 .4982 .4983 .4984 .4984 .4985 .4985 .4986 .4986 3.0 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990 3.1 .4990 .4991 .4991 .4991 .4992 .4992 .4992 .4992 .4993 .4993 3.2 .4993 .4993 .4994 .4994 .4994 .4994 .4994 .4995 .4995 .4995 3.3 .4995 .4995 .4995 .4996 .4996 .4996 .4996 .4996 4996. .4997 3.4 .4997 .4997 .4997 .4997 .4997 .4997 .4997 .4997 .4997 .4998 ANEXO 3 TABLA DE LA DISTRIBUCION t (Student) Grado de libertad 1 2 3 Nivel de probabilidad para pruebas de una cola 0.10 0.05 0.025 0.01 0.005 0.0005 Nivel de probabilidad para pruebas de dos colas 0.20 0.10 0.05 0.02 0.01 0.001 3.078 6.314 12.706 31.821 63.657 636.619 1.886 2.920 4.303 6.965 9.925 31.598 1.638 2.353 3.182 4.541 5.841 12.941 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 Infinito 1.533 2.132 2.776 3.747 1.476 2.015 2.571 3.365 1.440 1.943 2.447 3.143 1.415 1.895 2.365 2.998 1.397 1.860 2.306 2.896 1.383 1.833 2.262 2.821 1.372 1.812 2.228 2.764 1.363 1.796 2.201 2.718 1.356 1.782 2.179 2.681 1.350 1.771 2.160 2.650 1.345 1.761 2.145 2.624 1.341 1.753 2.131 2.602 1.337 1.746 2.120 2.583 1.333 1.740 2.110 2.567 1.330 1.734 2.101 2.552 1.328 1.729 2.093 2.539 1.325 1.725 2.086 2.528 1.323 1.721 2.080 2.518 1.321 1.717 2.074 2.508 1.319 1.714 2.069 2.500 1.318 1.711 2.064 2.492 1.316 1.708 2.060 2.485 1.315 1.706 2.056 2.479 1.314 1.703 2.052 2.473 1.313 1.701 2.048 2.467 1.311 1.699 2.045 2.462 1.310 1.697 2.042 2.457 1.303 1.684 2.021 2.423 1.296 1.671 2.000 2.390 1.289 1.658 1.980 2.358 1.282 1.645 1.960 2.326 (Fuente: Kohan, 1994:519). 4.604 4.032 3.707 3.499 3.355 3.250 3.169 3.106 3.055 3.012 2.977 2.947 2.921 2.898 2.878 2.861 2.845 2.831 2.819 2.807 2.797 2.787 2.779 2.771 2.763 2.756 2.750 2.704 2.660 2.617 2.576 8.610 6.859 5.959 5.405 5.041 4.781 4.587 4.437 4.318 4.221 4.140 4.073 4.015 3.965 3.922 3.883 3.850 3.819 3.792 3.767 3.745 3.725 3.707 3.690 3.674 3.659 3.646 3.551 3.460 3.373 3.291