Uploaded by Carmen D'Angelo Panizo

09 - Fundamentos de estadistica - Pablo Cazau - Argentina 2006 - 80 pag

advertisement
Fundamentos de Estadística
Pablo Cazau
Prefacio
Capítulo 1: Introducción a la estadística
1.1 Definición y utilidad de la estadística
1.2 Clasificaciones de la estadística
1.3 Población y muestra
1.4 Estructura del dato
1.5 La medición
Capítulo 2: Estadística descriptiva
2.1 Generalidades
2.2 Ordenamiento y agrupación de los datos: matrices y tablas
2.3 Visualización de los datos: gráficos
2.4 Síntesis de los datos: medidas estadísticas de posición
2.5 Síntesis de los datos: medidas estadísticas de dispersión
2.6 Síntesis de los datos: asimetría y curtosis
Notas
Capítulo 3: Probabilidad y curva normal
3.1 El concepto de probabilidad
3.2 Definición y características de la curva normal
3.3 Puntajes brutos y puntajes estandarizados
3.4 Aplicaciones de la curva normal
Notas
Capítulo 4: Correlación y regresión
4.1 Introducción
4.2 El análisis de correlación
4.3 Cálculo gráfico de la correlación
4.4 Cálculo analítico de la correlación
4.5 Un ejemplo: construcción y validación de tests
4.6 El análisis de regresión
4.7 Cálculo analítico de la regresión
4.8 Cálculo gráfico de la correlación
Notas
Capítulo 5: Estadística inferencial
5.1 Introducción
5.2 Estimación de parámetros
5.3 Prueba de hipótesis
5.4 Ejemplos de pruebas de hipótesis
5.5 El concepto de significación estadística
Notas
Referencias bibliográficas
Otras fuentes consultadas
Anexos
ANEXO 1: NOMENCLATURA UTILIZADA EN ESTA GUÍA
ANEXO 2: TABLA DE ÁREAS BAJO LA CURVA NORMAL ESTANDARIZADA
Tabla 1 – Áreas desde z hacia la izquierda
Tabla 2 – Áreas desde z = 0 hacia la izquierda o hacia la derecha
ANEXO 3: TABLA DE LA DISTRIBUCIÓN t
Fundamentos de estadística
Pablo Cazau
PREFACIO
El presente texto fue pensado como un manual de consulta para alumnos de diversas carreras
universitarias de grado y posgrado que cursan asignaturas donde se enseña la estadística como
herramienta de la metodología de la investigación científica.
Se brinda aquí un panorama general e introductorio de los principales temas de una disciplina que opera
en dos grandes etapas: la estadística descriptiva y la estadística inferencial. También se desarrollan los
conceptos de probabilidad y curva normal, básicos para la comprensión de la estadística inferencial, y los
conceptos de correlación y regresión vinculados, respectivamente, con las etapas descriptiva e
inferencial.
Pablo Cazau. Licenciado en Psicología y Profesor de Enseñanza Media y Superior en Psicología (UBA).
Buenos Aires, Enero 2006.
Todos los derechos reservados
CAPÍTULO 1: INTRODUCCION A LA ESTADISTICA
1.1 DEFINICIÓN Y UTILIDAD DE LA ESTADÍSTICA
La Estadística es una disciplina que utiliza recursos matemáticos para organizar y resumir una gran
cantidad de datos obtenidos de la realidad, e inferir conclusiones respecto de ellos.
Por ejemplo, la estadística interviene cuando se quiere conocer el estado sanitario de un país, a través de
ciertos parámetros como la tasa de morbilidad o mortalidad de la población. En este caso la estadística
describe la muestra en términos de datos organizados y resumidos, y luego infiere conclusiones respecto
de la población. Por ejemplo, aplicada a la investigación científica, hace inferencias cuando emplea
medios matemáticos para establecer si una hipótesis debe o no ser rechazada.
La estadística puede aplicarse a cualquier ámbito de la realidad, y por ello es utilizada en física, química,
biología, medicina, astronomía, psicología, sociología, lingüística, demografía, etc.
Cuando en cualquiera de estas disciplinas se trata de establecer si una hipótesis debe o no ser rechazada,
no siempre es indispensable la estadística inferencial.
Por ejemplo, si sobre 60 veces que se mira un dado, sale un dos 10 veces, no se requiere la estadística
para rechazar la hipótesis “el dado está cargado”. Si sale un dos en 58 ocasiones sobre 60, tampoco se
necesita la estadística para aceptar la hipótesis “el dado está cargado”.
Pero, ¿qué ocurre si el número dos sale 20, 25 o 30 veces? En estos casos de duda, la estadística
interviene para determinar hasta qué cantidad de veces se considerará rechazada la hipótesis (o bien
desde qué cantidad de veces se la considerará aceptada). En otras palabras, la estadística interviene
cuando debe determinarse si los datos obtenidos son debidos al azar o son el resultado de un dado
cargado.
Otro ejemplo. Si una persona adivina el color (rojo o negro) de las cartas en un 50% de los casos, se
puede rechazar la hipótesis “la persona es adivina”. Si, en cambio, acierta en el 99% de los casos el color
de las cartas, se puede aceptar la mencionada hipótesis. Los casos de duda corresponden a porcentajes
de acierto intermedios, como el 60%, el 70%, etc., en cuyos casos debe intervenir la estadística para
despejarlos.
La importancia de la estadística en la investigación científica radica en que la gran mayoría de las
investigaciones son „casos de duda‟.
1.2 CLASIFICACIONES DE LA ESTADÍSTICA
Existen varias formas de clasificar los estudios estadísticos.
1) Según la etapa.- Hay una estadística descriptiva y una estadística inferencial. La primera etapa se
ocupa de describir la muestra, y la segunda etapa infiere conclusiones a partir de los datos que describen
la muestra (por ejemplo, conclusiones con respecto a la población).
Tanto la estadística descriptiva como la estadística inferencial se ocupan de obtener datos nuevos. La
diferencia radica en que la estadística descriptiva procede a resumir y organizar esos datos para facilitar
su análisis e interpretación, y la estadística inferencial procede a formular estimaciones y probar hipótesis
acerca de la población a partir de esos datos resumidos y obtenidos de la muestra. Puesto que estas
últimas operaciones llevarán siempre a conclusiones que tienen algún grado de probabilidad, la teoría de
la probabilidad constituye una de sus herramientas principales. Téngase presente que en sí misma la
teoría de la probabilidad no forma parte de la estadística porque es otra rama diferente de la matemática,
pero es utilizada por la estadística como instrumento para lograr sus propios objetivos.
La estadística descriptiva también incluye –explícita o implícitamente- consideraciones probabilísticas,
aunque no resultan ser tan importantes como en la estadística inferencial. Por ejemplo, la elección de un
determinado estadístico para caracterizar una muestra (modo, mediana o media aritmética) se funda
sobre ciertas consideraciones implícitas acerca de cuál de ellos tiene más probabilidades de representar
significativamente el conjunto de los datos que se intenta resumir.
Tanto la estadística descriptiva como la inferencial implican, entonces, el análisis de datos. “Si se realiza
un análisis con el fin de describir o caracterizar los datos que han sido reunidos, entonces estamos en el
área de la estadística descriptiva… Por otro lado, la estadística inferencial no se refiere a la simple
descripción de los datos obtenidos, sino que abarca las técnicas que nos permiten utilizar los datos
muestrales para inferir u obtener conclusiones sobre las poblaciones de las cuales fueron extraídos dichos
datos” (Pagano, 1998:19).
Kohan, por su parte, sintetiza así su visión de las diferencias entre ambos tipos de estadística: “Si
estudiamos una característica de un grupo, sea en una población o en una muestra, por ejemplo talla,
peso, edad, cociente intelectual, ingreso mensual, etc, y lo describimos sin sacar de ello conclusiones
estamos en la etapa de la estadística descriptiva. Si estudiamos en una muestra una característica
cualquiera e inferimos, a partir de los resultados obtenidos en la muestra, conclusiones sobre la población
correspondiente, estamos haciendo estadística inductiva o inferencial, y como estas inferencias no
pueden ser exactamente ciertas, aplicamos el lenguaje probabilístico para sacar las conclusiones”
(Kohan, 1994:25). Kohan emplea la palabra inductiva porque las inferencias realizadas en este tipo de
estadística son razonamientos inductivos, modernamente definidos como razonamientos cuya conclusión
es sólo probable.
2) Según la cantidad de variables estudiada.- Desde este punto de vista hay una estadística univariada
(estudia una sola variable, como por ejemplo la inteligencia), una estadística bivariada (estudia la
relación entre dos variables, como por ejemplo inteligencia y alimentación), y una estadística
multivariada (estudia tres o más variables, como por ejemplo como están relacionados el sexo, la edad y
la alimentación con la inteligencia).
El siguiente esquema ilustra la relación entre dos clasificaciones de la estadística: descriptiva / inferencial
y univariada / bivariada.
Parámetros
x y
POBLACION
x y
Estadísticos
MUESTRA
x1
x1 x2 xn
Una variable
y1
Dos (o más) variables
La estadística descriptiva se ocupa de muestras, y la estadística inferencial infiere características de la
población a partir de muestras.
A su vez, ambas etapas de la estadística pueden estudiar una variable por vez o la relación entre dos o
más variables. Por ejemplo, a) en el caso de la estadística univariada, el cálculo de medidas de posición y
dispersión en una muestra corresponde a la estadística descriptiva, mientras que la prueba de la media
corresponde a la estadística inferencial; b) en el caso de la estadística bivariada, el análisis de correlación
de variables en una muestra corresponde estrictamente hablando a la estadística descriptiva, mientras
que el análisis de regresión o las pruebas de hipótesis para coeficientes de correlación (Kohan N,
1994:234) corresponden a la estadística inferencial.
3) Según el tiempo considerado.- Si se considera a la estadística descriptiva, se distingue la estadística
estática o estructural, que describe la población en un momento dado (por ejemplo la tasa de
nacimientos en determinado censo), y la estadística dinámica o evolutiva, que describe como va
cambiando la población en el tiempo (por ejemplo el aumento anual en la tasa de nacimientos).
1.3 POBLACIÓN Y MUESTRA
Puesto que la estadística se ocupa de una gran cantidad de datos, debe primeramente definir de cuáles
datos se va a ocupar. El conjunto de datos de los cuales se ocupa un determinado estudio estadístico se
llama población.
No debe confundirse la población en sentido demográfico y la población en sentido estadístico.
La población en sentido demográfico es un conjunto de individuos (todos los habitantes de un país, todas
las ratas de una ciudad), mientras que una población en sentido estadístico es un conjunto de datos
referidos a determinada característica o atributo de los individuos (las edades de todos los individuos de
un país, el color de todas las ratas de una ciudad).
Incluso una población en sentido estadístico no tiene porqué referirse a muchos individuos. Una población
estadística puede ser también el conjunto de calificaciones obtenidas por un individuo a lo largo de sus
estudios universitarios.
En el siguiente esquema pueden apreciarse algunas formas de considerar los datos individuales, según
que correspondan a muchas personas o a una sola, y también según que hayan sido recolectados en un
instante de tiempo determinado, o bien a lo largo del tiempo.
En un instante de tiempo
De muchos individuos
Notas de todos los alumnos en el
primer parcial de tal mes y tal año.
De un solo individuo
Notas de un solo alumno en el
primer parcial de las materias que
A lo largo del tiempo
Notas de todos los alumnos durante
los 6 años de carrera.
cursa en ese momento.
Notas de un alumno a lo largo de
los 6 años de carrera.
Los datos de la totalidad de una población pueden obtenerse a través de un censo. Sin embargo, en la
mayoría de los casos no es posible hacerlo por razones de esfuerzo, tiempo y dinero, razón por la cual se
extrae, de la población, una muestra, mediante un procedimiento llamado muestreo. Se llama muestra a
un subconjunto de la población, y que puede o no ser representativa de la misma.
Por ejemplo, si la población es el conjunto de todas las edades de los estudiantes de la provincia de
Buenos Aires, una muestra podría ser el conjunto de edades de 2000 estudiantes de la provincia de
Buenos Aires tomados al azar.
1.4 ESTRUCTURA DEL DATO
Los datos son la materia prima con que trabaja la estadística, del mismo modo que la madera es la
materia prima con que trabaja el carpintero. Así como este procesa o transforma la madera para obtener
un producto útil, así también el estadístico procesa o transforma los datos para obtener información útil.
Tanto los datos como la madera no se inventan: se extraen de la realidad; en todo caso el secreto está
en recoger la madera o los datos más adecuados a los objetivos del trabajo a realizar.
De una manera general, puede definirse técnicamente dato como una categoría asignada a una variable
de una unidad de análisis. Por ejemplo, “Luis tiene 1.70 metros de estatura” es un dato, donde „Luis‟ es
la unidad de análisis, „estatura‟ es la variable, y „1.70 metros‟ es la categoría asignada.
Como puede apreciarse, todo dato tienen al menos tres componentes: una unidad de análisis, una
variable y una categoría.
La unidad de análisis es el elemento del cual se predica una propiedad y característica. Puede ser una
persona, una familia, un animal, una sustancia química, o un objeto como una dentadura o una mesa.
La variable es la característica, propiedad o atributo que se predica de la unidad de análisis. Por ejemplo
puede ser la edad para una persona, el grado de cohesión para una familia, el nivel de aprendizaje
alcanzado para un animal, el peso específico para una sustancia química, el nivel de „salud‟ para una
dentadura, y el tamaño para una mesa.
Pueden entonces también definirse población estadística (o simplemente población) como el conjunto de
datos acerca de unidades de análisis (individuos, objetos) en relación a una misma característica,
propiedad o atributo (variable).
Sobre una misma población demográfica pueden definirse varias poblaciones de datos, una para cada
variable. Por ejemplo, en el conjunto de habitantes de un país (población demográfica), puede definirse
una población referida a la variable edad (el conjunto de edades de los habitantes), a la variable
ocupación (el conjunto de ocupaciones de los habitantes), a la variable sexo (el conjunto de condiciones
de sexo de los habitantes).
La categoría es cada una de las posibles variaciones de una variable. Categorías de la variable sexo son
masculino y femenino, de la variable ocupación pueden ser arquitecto, médico, etc, y de la variable edad
pueden ser 10 años, 11 años, etc. Cuando la variable se mide cuantitativamente, es decir cuando se
expresa numéricamente, a la categoría suele llamársela valor. En estos casos, el dato incluye también
una unidad de medida, como por ejemplo años, cantidad de hijos, grados de temperatura, cantidad de
piezas dentarias, centímetros, etc. El valor es, entonces, cada una de las posibles variaciones de una
variable cuantitativa.
Datos individuales y datos estadísticos.- Un dato individual es un dato de un solo individuo, mientras
que un dato estadístico es un dato de una muestra o de una población en su conjunto. Por ejemplo, la
edad de Juan es un dato individual, mientras que el promedio de edades de una muestra o población de
personas es un dato estadístico. Desde ya, puede ocurrir que ambos no coincidan: la edad de Juan puede
ser 37 años, y el promedio de edades de la muestra donde está incluído Juan es 23 años. Por esta razón
un dato estadístico nada dice respecto de los individuos, porque solamente describe la muestra o
población.
Los datos estadísticos que describen una muestra suelen llamarse estadísticos (por ejemplo, el
promedio de ingresos mensuales de las personas de una muestra), mientras que los datos estadísticos
descriptores de una población suelen llamarse parámetros (por ejemplo, el promedio de ingresos
mensuales de las personas de una población) (Kohan N, 1994:143).
1.5 LA MEDICIÓN
Los datos se obtienen a través un proceso llamado medición. Desde este punto de vista, puede definirse
medición como el proceso por el cual asignamos una categoría (o un valor) a una variable, para
determinada unidad de análisis. Ejemplo: cuando decimos que Martín es varón, estamos haciendo una
medición, porque estamos asignando una categoría (varón) a una variable (sexo) para una unidad de
análisis (Martín).
A veces se ha definido medir como comparar, lo cual puede referirse a diversos tipos de comparación: 1)
comparar una cantidad con otra tomada como unidad Sentido clásico de comparación); 2) comparar dos
categorías de una misma variable en el mismo sujeto y distinto tiempo; 3) comparar dos categorías de una misma
variable en distintos sujetos al mismo tiempo; y 4) categorías de variables distintas (debe usarse puntaje
estandarizado), en el mismo sujeto o en sujetos distintos.
Se pueden hacer mediciones con mayor o menor grado de precisión. Cuanto más precisa sea la medición,
más información nos suministra sobre la variable y, por tanto, sobre la unidad de análisis. No es lo
mismo decir que una persona es alta, a decir que mide 1,83 metros.
Los diferentes grados de precisión o de contenido informativo de una medición se suelen caracterizar
como niveles de medición. Típicamente se definen cuatro niveles de medición, y en cada uno de ellos la
obtención del dato o resultado de la medición será diferente:
Ejemplos de datos en diferentes niveles de medición
Nivel de
medición
DATO
Nivel nominal
Nivel ordinal
Martín es
electricista
Elena terminó la
secundaria
Nivel cuantitativo
discreto
Juan tiene 32
dientes
Unidad de
análisis
Variable
Martín
Elena
Juan
Oficio
Electricista
Cantidad de piezas
dentarias
32
Frecuencia cardíaca
Categoría o
valor
Unidad de
medida
Nivel de
instrucción
Secundaria
completa
------------
Diente
Pulsaciones por
minuto
-------------
Nivel cuantitativo
continuo
María tiene 70
pulsaciones por
minuto
María
70
En el nivel nominal, medir significa simplemente asignar un atributo a una unidad de análisis (Martín es
electricista).
En el nivel ordinal, medir significa asignar un atributo a una unidad de análisis cuyas categorías pueden
ser ordenadas en una serie creciente o decreciente (la categoría „secundaria completa‟ puede ordenarse
en una serie, pues está entre „secundaria incompleta‟ y „universitaria incompleta‟).
En el nivel cuantitativo, medir significa además asignar un atributo a una unidad de análisis de modo tal
que la categoría asignada permita saber „cuánto‟ mayor o menor es respecto de otra categoría, es decir,
especifica la distancia o intervalo entre categorías (por ejemplo, la categoría 70 es el doble de la
categoría 35).
Las variables medibles en el nivel cuantitativo pueden ser discretas o continuas. Una variable discreta es
aquella en la cual, dados dos valores consecutivos, no puede adoptar ningún valor intermedio (por
ejemplo entre 32 y 33 dientes, no puede hablarse de 32.5 dientes). En cambio, una variable es continua
cuando, dados dos valores consecutivos, la variable puede adoptar muchos valores intermedios (por
ejemplo entre 1 y 2 metros, puede haber muchas longitudes posibles).
Algunas veces una misma variable puede ser considerada como discreta o continua. Por ejemplo, la
variable peso es discreta si solamente interesan los pesos sin valores intermedios (50 kg, 51 kg, etc),
mientras que será continua si interesan también los valores intermedios (50,3 kg, 50,35 kg, 50,357 kg,
etc). Obviamente, al considerar una variable como continua se obtendrá mayor precisión, es decir, mayor
información.
La precisión es una cualidad importante de la medición. Se pueden hacer mediciones más precisas y menos
precisas, o tan precisas como lo permita el instrumento de medición. El primer nivel de medición es el menos
preciso, y el último el más preciso. Por ejemplo, una mujer puede estar interesada en „medir‟ el amor de su
pareja, para lo cual podrá interrogarla solicitándole diferentes grados de precisión: ¿me querés? (nivel nominal),
¿me querés más que a la otra? (nivel ordinal), ¿Cuánto me querés, del 1 al 10? (nivel cuantitativo).
De la misma manera, diferentes grados de precisión para la variable temperatura pueden ser: A es un objeto
caliente (nivel nominal), A es más caliente que B (nivel ordinal), A tiene 25 grados Celsius (nivel cuantitativo). Los
ejemplos del amor y de la temperatura ilustran también el hecho de que una variable puede en principio medirse
en cualquiera de los niveles de medición.
Los niveles de medición pueden también ser clasificados de acuerdo a un criterio diferente, que afecta
específicamente a los dos últimos. Así, los niveles de medición pueden ser clasificados como nominal,
ordinal, de intervalos iguales y de cocientes o razones.
Más allá de sus diferentes propiedades matemáticas, el nivel de intervalos iguales incluye un cero relativo
o arbitrario, mientras que el nivel de cocientes o razones incluye un cero absoluto o real. Un cero
absoluto o real representa la ausencia „real‟ de la variable (cero metros implica ausencia de longitud),
mientras que un cero relativo o arbitrario no (cero grado centígrados no implica ausencia de
temperatura).
Existen ciertas variables a las cuales no puede asignársele un „cero real‟, por cuanto no se considera que
esa variable pueda estar ausente en la realidad. Tal es el caso de la ansiedad o la inteligencia: nadie, por
menos ansioso o por menos inteligente que sea, puede tener ansiedad o inteligencia nulas.
CAPÍTULO 2: ESTADÍSTICA DESCRIPTIVA
2.1 GENERALIDADES
El propósito fundamental de la estadística descriptiva es resumir y organizar una gran cantidad de
datos referentes a una muestra (lo más habitual) o a una población. Se supone que los datos resumidos
y organizados permiten describir adecuadamente la muestra o la población a los efectos de conocerla y,
eventualmente, utilizarlos en la estadística inferencial para obtener conclusiones a partir de ellos.
Para resumir y organizar los datos se utilizan diferentes procedimientos, llamados técnicas
descriptivas: la matriz de datos permite ordenarlos, las tablas de frecuencias (o tablas de distribución
de frecuencias) permiten agruparlos, los gráficos permiten visualizarlos, y las medidas estadísticas y las
medidas de asimetría y curtosis permiten resumirlos reduciéndolos a un solo dato.
Secuencia para organizar y resumir datos individuales
A medida que se van utilizando estos procedimientos, los datos van quedando cada vez más resumidos y
organizados. El empleo de dichos procedimientos propios de la estadística descriptiva sigue un orden
determinado, como puede apreciarse en el siguiente esquema:
DATOS ORDENADOS
(matriz de datos)
DATOS RECOLECTADOS
(entrevistas, cuestionarios, tests, etc)
DATOS AGRUPADOS POR
FRECUENCIA
(tabla de frecuencias)
DATOS AGRUPADOS POR
INTERVALOS
(tabla de frecuencias por intervalos)
DATOS VISUALIZADOS
(gráficos)
DATOS SINTETIZADOS
(medidas estadísticas y medidas de asimetría y curtosis)
Como puede verse:
a) Los datos quedan recolectados mediante entrevistas, cuestionarios, tests, etc.
b) Los datos quedan ordenados mediante una matriz de datos (lo cual permite resumir la información en
unas pocas páginas).
c) Los datos quedan agrupados mediante tablas de frecuencias (lo cual permite resumir la información en
una sola página).
d) Los datos quedan visualizados mediante gráficos.
e) Los datos quedan sintetizados mediante las medidas estadísticas y otras (lo cual permite resumir la
información en uno o dos renglones).
Puede entonces decirse que, mediante una matriz de datos, una tabla de frecuencias (1), un gráfico o
con medidas estadísticas, etc, la muestra o la población (conjuntos de datos) puede quedar
adecuadamente descrita.
Estas sucesivas abstracciones estadísticas implican: a) la reducción del espacio físico donde queda
guardada la nueva información, y b) la desaparición de considerable información irrelevante.
Debe distinguirse el fin o propósito perseguido (por ejemplo ordenar los datos), del medio utilizado para
ello, que e la técnica descriptiva (por ejemplo, la matriz de datos).
2.2 ORDENAMIENTO Y AGRUPACIÓN DE LOS DATOS: MATRICES Y TABLAS
Una vez que los datos han sido recolectados, se procede a continuación a ordenarlos en una matriz de
datos y luego a agruparlos en una tabla de frecuencias.
La forma de ordenarlos y agruparlos dependerá del tipo de variable considerada. Por ejemplo, si son
datos relativos a variables cualitativas (niveles de medición nominal y ordinal), no podremos utilizar
tablas de frecuencias por intervalos. El siguiente cuadro indica de qué manera se pueden ordenar y
agrupar los datos según cada nivel de medición de la variable:
Ejemplos de organización de los datos según el nivel de medición
Datos ordenados
Nivel nominal
(Ejemplo:
variable
religión)
Nivel ordinal
(Ejemplo:
variable clase
social)
Nivel
cuantitativo
(Ejemplo:
variable edad)
Datos agrupados por frecuencia
Matriz de datos
Sujeto
x (religión)
Juan
Católica
Pedro
Católica
María
Judía
Antonio
Protestante
Luis
Protestante
José
Protestante
Tabla de frecuencias
x (religión)
f
Católica
2
Judía
1
Protestante
3
n=6
Matriz de datos
Sujeto
x (clase
social)
Juan
Alta
Pedro
Media
María
Media
Antonio
Media
Luis
Baja
José
Baja
Tabla de frecuencias
x (clase social)
Alta
Media
Baja
Matriz de datos
Sujeto
x (edad)
Juan
15
Pedro
15
María
15
Antonio
16
Luis
16
José
16
Ana
16
Gabriela
16
Susana
17
Martín
17
Sergio
17
Pablo
17
Daniel
17
Graciela
17
Daniela
17
Beatriz
17
Oscar
18
Felipe
18
Alberto
18
Mónica
19
Marta
19
Mariana
20
Tabla de frecuencias
x (edad)
15
16
17
18
19
20
Datos agrupados por
intervalos
f = frecuencia
n = tamaño de la muestra
f
1
3
2
n=6
f = frecuencia
n = tamaño de la muestra
f
3
5
8
3
2
1
n = 22
Tabla de frecuencias por
intervalos
x (edad)
f
15-16
8
17-18
11
19-20
3
n = 22
f = frecuencia
n = tamaño de la muestra
f = frecuencia
n = tamaño de la muestra
Una vez confeccionada la matriz de datos, se procede luego a resumir aún más esta información
mediante una tabla de frecuencias o, si cabe, en una tabla de frecuencias por intervalos. Una tabla de
este último tipo se justifica cuando la tabla de frecuencias original es demasiado grande y por tanto de
difícil manejo para procesar la información. Sea de la forma que fuere, los datos ordenados según sus
frecuencias suelen denominarse distribución de frecuencias (13).
Las tablas de frecuencias contienen tres elementos importantes: las frecuencias, el tamaño de la muestra
y los intervalos (en este último caso sólo para variables cuantitativas).
a) Frecuencia.- La frecuencia (f) se define como la cantidad de datos iguales o que se repiten. Por
ejemplo: la frecuencia 2 indica que el dato „católico‟ se repite dos veces, la frecuencia 3 que el dato
“clase media” se repite tres veces, y la frecuencia 8 que el dato “17 años” se repite ocho veces.
A veces resulta necesario expresar las frecuencias de otra manera, como puede apreciarse en la siguiente
tabla ilustrativa:
Tipos de frecuencias que pueden indicarse en una tabla de frecuencias
x (edad)
15
16
17
18
f
3
7
8
2
n = 20
f%
15%
35%
40%
10%
n = 100%
F
3
10
18
20
------
F%
15%
50%
90%
100%
------
fr
0.15
0.35
0.40
0.10
n=1
Fr
0.15
0.50
0.90
1
------
Frecuencia absoluta (f).- Es la cantidad de datos que se repiten. Por ejemplo, la frecuencia 3 indica que
hay tres personas de 15 años. La suma de todas las frecuencias absolutas equivale al tamaño de la
muestra.
Frecuencia porcentual (f%).- Es el porcentaje de datos que se repiten. Por ejemplo, la frecuencia
porcentual 15% indica que el 15% de la muestra tiene la edad de 15 años. La suma de todas las
frecuencias porcentuales es 100%.
Frecuencia acumulada (F).- Es el resultado de haber sumado las frecuencias anteriores. Por ejemplo, la
frecuencia acumulada 10 resulta de sumar 7+3, e indica la cantidad de veces que se repiten las edades
16 y 15. La última de todas las frecuencias acumuladas, que en el ejemplo es 20, debe coincidir con el
tamaño de la muestra.
Frecuencia acumulada porcentual (F%).- Es el porcentaje de las frecuencias acumuladas.
Frecuencia relativa (fr).- A veces también llamada proporción, es el cociente entre la frecuencia de un
dato x y la frecuencia total o tamaño de la muestra. En la práctica, el tamaño de la muestra se considera
como 1, a diferencia del tamaño de la muestra en la frecuencia porcentual, que se considera 100%.
Frecuencia relativa acumulada (Fr).- Es el resultado de haber sumado las frecuencias
relativas
anteriores. Por ejemplo: la frecuencia relativa 0.90 indica que en 0.90 casos sobre 1 las edades están
comprendidas entre 15 y 17 años.
Frecuencias parciales y frecuencia total.- Tanto las frecuencias absolutas como las porcentuales o las
relativas pueden ser frecuencias parciales o una frecuencia total, siendo ésta última la suma de todas
frecuencias parciales.
Las frecuencias porcentuales y las frecuencias relativas comparan la frecuencia parcial con la frecuencia
total, y sirven para establecer comparaciones entre muestras distintas. Por ejemplo, si en una muestra
de 1000 hombres, solo votaron 200, y en una muestra de 600 mujeres solo votaron 200 mujeres, en
términos de frecuencias absolutas existe la misma cantidad de votantes masculinos y femeninos, es decir
200, pero en „proporción‟, las mujeres votaron más (la tercera parte del total) que los hombres (la quinta
parte del total). Esta información se obtiene al convertir las frecuencias absolutas en frecuencias
porcentuales o en frecuencias relativas (o proporciones).
2) Tamaño de la muestra.- Otro concepto importante es el tamaño de la muestra (n), que designa la
cantidad total de datos. Obviamente, la suma de todas las frecuencias f debe dar como resultado el
tamaño n de la muestra, por lo que el tamaño de la muestra coincide con la frecuencia total.
3) Intervalos.- Un intervalo, también llamado intervalo de clase, es cada uno de los grupos de valores
ubicados en una fila en una tabla de frecuencias. Por ejemplo el intervalo 15-16 significa que en esa fila
se están considerando las edades de 15 a 16 años. La frecuencia correspondiente a un intervalo es igual
a la suma de frecuencias de los valores en él incluídos (2). Los intervalos presentan algunas
características, que son las siguientes:
Tamaño del intervalo (a).- También llamado amplitud o anchura del intervalo, es la cantidad de valores
de la variable que se consideran conjuntamente en ese intervalo. Por ejemplo, el intervalo 15-16 años
tiene una amplitud de 2, puesto que se consideran dos valores: 15 y 16. En otro ejemplo, el intervalo 2025 años tiene una amplitud de 6, puesto que se consideran seis valores.
En general, puede calcularse el tamaño de un intervalo restando el límite superior y el inferior y sumando
al resultado el número 1. Por ejemplo, 25 menos 20 da 5, y sumándole 1 da 6.
Los ejemplos indicados corresponden a variables discretas, lo que significa que no podrán encontrarse
valores intermedios entre dos intervalos. Por ejemplo, entre los intervalos 15-16 y 17-18 no se
encontrarán valores intermedios entre 16 y 17 años.
Téngase presente que: a) preferiblemente los intervalos deben tener un tamaño constante, de manera tal
que no se pueden considerar como intervalos 15-16 y 17-20, porque tienen diferentes tamaños; y b) los
intervalos han de ser mutuamente excluyentes, de manera tal que cuando se trata de variables discretas,
no pueden definirse los intervalos 15-16 y 16-17, porque el valor 16 años está en ambos intervalos y no
se podrá saber con seguridad en qué intervalo ubicar dicho valor.
El problema se puede presentar con las variables continuas, donde, por definición, podría aparecer algún
valor intermedio entre dos intervalos. Por ejemplo, si se considera la variable continua „ingresos
mensuales‟ y se consideran en ella los intervalos 1000-2000 dólares y 3000-4000 dólares, puede ocurrir
que un dato obtenido de la realidad sea 2500 dólares, con lo cual no podrá ser registrado en ningún
intervalo. En tal caso se deberían reorganizar los intervalos como 1000-2999 dólares y 3000-4999
dólares, con lo cual el problema estaría resuelto.
Desde ya, puede ocurrir que aparezca un ingreso mensual de 2999,50 dólares, en cuyo caso en principio
deberían reorganizarse nuevamente los intervalos como 1000-2999,50 dólares y 2999,51-4999 dólares.
La forma de reorganizar los intervalos dependerá entonces del grado de precisión que pretenda el
investigador o del grado de precisión del instrumento de medición disponible.
Límites del intervalo.- Todo intervalo debe quedar definido por dos límites: un límite inferior y un límite
superior. Estos límites, a su vez, pueden ser aparentes o reales (Pagano, 1998:38-39). Considérese el
siguiente ejemplo:
Límites aparentes
95-99
90-94
85-89
80-84
75-79
Límites reales
94.5-99.5
89.5-94.5
84.5-89.5
79.5-84.5
74.5-79.5
Si la variable considerada es discreta, carecerá de sentido la distinción entre límites reales o aparentes.
Si se conviene que los valores que la variable puede adoptar son números enteros, se considerarán
solamente los intervalos 95-99, 90-94, etc. Estos intervalos son en rigor reales, porque expresan los
valores „reales‟ que puedan haber, que no son fraccionarios.
Sólo en el caso de las variables continuas adquiere sentido la distinción entre límites reales y aparentes.
Si la variable es continua, deberían tenerse en cuenta los límites reales. Por ejemplo, si un valor resulta
ser 94.52, entonces será ubicado en el intervalo 94.5-99.5. Sin embargo, aún en estos casos, lo usual es
omitir los límites reales y presentar sólo los límites aparentes (Pagano, 1998:39). En todo caso, los
límites reales se utilizan a veces cuando se intenta transformar la tabla de frecuencias por intervalos en
un gráfico.
En principio, en ningún caso deberá haber una superposición de valores, como en el caso de los
intervalos 20-21 y 21-22, donde el valor 21 está incluído en ambos intervalos, violándose así la regla de
la mutua exclusión. Si acaso se presentara esta situación, o bien podrá ser adjudicada a un error del
autor de la tabla, o bien deberá traducírsela como 20-20.99 y 21-22.99.
Punto medio del intervalo (xm).- Es el valor que resulta de la semisuma de los límites superior e inferior,
es decir, el punto medio del intervalo se calcula sumando ambos límites y dividiendo el resultado por dos.
Por ejemplo, el punto medio del intervalo 15-20 es 17.5. El punto medio del intervalo sirve para calcular
la media aritmética.
Intervalos abiertos y cerrados.- Idealmente, todos los intervalos deberían ser cerrados, es decir, deberían
estar especificados un límite superior y uno inferior de manera definida. Sin embargo, en algunos casos
se establecen también intervalos abiertos, donde uno de los límites queda sin definir. En el siguiente
ejemplo, ‟18 o menos‟ y ‟29 o más‟ son intervalos abiertos. Obviamente, en este tipo de distribución los
intervalos dejan de ser de tamaño constante.
Intervalos
18 o menos
19-23
24-28
29 o más
Cantidad de intervalos.- La cantidad de intervalos es inversamente proporcional al tamaño de los
mismos: cuanto menor tamaño tienen los intervalos, más numerosos serán.
El solo hecho de emplear intervalos supone una cierta pérdida de la información. Por ejemplo, si se
considera el intervalo 15-18 años, quedará sin saber cuántas personas de 16 años hay. Para reducir esta
incertidumbre, podría establecerse un intervalo menor (15-16 años), pero con ello habrá aumentado la
cantidad de intervalos hasta un punto donde la información se procesará de manera más difícil.
Consiguientemente, al agrupar los datos hay que resolver el dilema entre perder información y presentar
los datos de manera sencilla (Pagano R, 1998:37) (Botella, 1993:54), es decir, encontrar el justo
equilibrio entre el tamaño de los intervalos y su cantidad.
En la práctica, por lo general (Pagano, 1998:37) se consideran de 10 a 20 intervalos, ya que la
experiencia indica que esa cantidad de intervalos funciona bien con la mayor parte de las distribuciones
de datos (3).
Se pueden sintetizar algunas reglas importantes para la construcción de intervalos de la siguiente
manera:
a) Los intervalos deben ser mutuamente excluyentes.
b) Cada intervalo debe incluir el mismo número de valores (constancia de tamaño).
c) La cantidad de intervalos debe ser exhaustiva (todos los valores deben poder ser incluídos en algún
intervalo).
d) El intervalo superior debe incluir el mayor valor observado (Botella, 1993:54).
e) El intervalo inferior debe incluir al menor valor observado (Botella, 1993:54).
f) En variables continuas, es aconsejable expresar los límites aparentes de los intervalos, que los límites
reales.
2.3 VISUALIZACIÓN DE LOS DATOS: GRÁFICOS
Una vez que los datos han sido organizados en tablas de frecuencias, es posible seguir avanzando
organizándolos, desde allí, de otras maneras diferentes y con distintos propósitos. Una de estas maneras
es la utilización de representaciones gráficas, algunas de las cuales son aptas para representar variables
cualitativas (niveles nominal y ordinal) y otras para variables cuantitativas. Al tratarse de esquemas
visuales, los gráficos permiten apreciar de un „golpe de vista‟ la información obtenida.
Diagrama de tallo y hojas
Esta técnica de visualización de datos es aquí mencionada en primer lugar porque puede ser considerada
un procedimiento intermedio entre la tabla de frecuencias y el gráfico. Fue creada por Tukey en 1977
(citado por Botella, 1993:59) y presenta, entre otras, las siguientes ventajas: a) permite conocer cada
puntuación individual (a diferencia de la tabla de frecuencias por intervalos, donde desaparecen en ellos);
y b) puede ser considerada un „gráfico‟ si hacemos girar 90° el listado de puntuaciones o datos.
A continuación se describe la forma de construir un diagrama de tallo y hojas, tomando como ejemplo la
siguiente distribución de datos ordenados:
32-33-37-42-46-49-51-54-55-57-58-61-63-63-65-68-71-72-73-73-73-75-77-77-78-83-85-85-91-93
Tallo
3
4
5
6
7
8
9
Hojas
237
269
14578
13358
123335778
355
13
Procedimiento para realizar el diagrama de tallo y hojas
a) Se construye una tabla como la de la izquierda con dos columnas: tallos y
hojas.
b) Se identifican cuáles son los valores extremos: 32 y 93.
c) Se consideran los primeros dígitos de cada valor: 3 y 9.
d) En la columna “tallos” se colocan los números desde el 3 hasta el 9.
e) En la columna “hojas” se colocan los segundos dígitos de cada valor que
empiece con 3, con 4, con 5, etc.
Girando la tabla obtenida 90° hacia la izquierda, se obtendrá algo similar a un gráfico de barras, que
muestra por ejemplo que la mayor concentración de valores es la que comienza con 7.
Una utilidad adicional del diagrama de tallo y hojas es que permite comparar visualmente dos variables,
es decir, dos conjuntos de datos en los análisis de correlación, como puede apreciarse en el siguiente
ejemplo:
Hojas (Grupo control)
87655
44322110
876655
111000
Tallo
1
2
3
4
5
Hojas (Grupo experimental)
9
124
5667788899
00023344
555
Visualmente es posible darse una idea de los resultados del experimento: los datos del grupo
experimental tienden a concentrarse en los valores altos, y los del grupo de control en los valores bajos.
Pictograma
Es una representación gráfica en la cual se utilizan dibujos. Por ejemplo, en el siguiente pictograma cada
cara puede representar 100 personas:
Varones
Mujeres
100 personas
Sector circular
Representación gráfica de forma circular donde cada porción de la „torta‟ representa una frecuencia. Para
confeccionarlo se parte de una tabla de frecuencias donde están especificadas las frecuencias en grados
(f°), las cuales se calculan mediante una sencilla regla de tres simple a partir de las frecuencias absolutas
(f).
Por ejemplo, si 825 es a 360°, entonces 310 es igual a 360° x 310 dividido por 825, lo cual da un
resultado de 135°. Por lo tanto, para representar la frecuencia 310 deberá trazarse un ángulo de 135°.
Estos valores pueden verse en el ejemplo siguiente, donde se han representado dos sectores circulares
distintos, uno para varones y otro para mujeres:
x
(patología)
Angina
Bronquitis
Sarampión
Otras
Total
Sexo
Varones
310
297
123
95
825
Total
Mujeres
287
429
120
80
916
Bronquitis
f°
(varones)
135°
130°
54°
41°
360°
597
726
243
175
1691
Bronquitis
Angina
Saram
pión
Otras
Varones
f°
(mujeres)
113°
169°
47°
31°
360°
Saram
pión
Angina
Otras
Mujeres
Para realizar estos sectores se traza un ángulo de por ejemplo 130° y dentro de coloca la palabra
“bronquitis”, y así sucesivamente.
El círculo para mujeres es algo mayor que el círculo para hombres, porque en la muestra hay más
mujeres que hombres. Para lograr estos tamaños debe calcularse el radio. Por ejemplo, si se ha elegido
un radio masculino de 4 cm, el radio femenino puede calcularse mediante la fórmula siguiente:
El radio femenino es igual al radio masculino multiplicado por la raíz cuadrada del n femenino, resultado
que se dividirá por la raíz cuadrada del n masculino, donde n = tamaño de la muestra de cada sexo. Si el
radio masculino es 4 cm, con esta fórmula se obtendrá un radio femenino de 4,22 cm.
Diagrama de barras
Representación gráfica donde cada barra representa una frecuencia parcial. En el eje de las ordenadas se
indican las frecuencias absolutas, y en el eje de absisas se representan los valores de la variable x. De
esta manera, las barras „más altas‟ tienen mayor frecuencia.
Existen diferentes tipos de diagramas de barras, de los cuales se ilustran tres: las barras simples, las
barras superpuestas y las barras adyacentes. Los dos últimos tipos dan información sobre dos variables
al mismo tiempo, que son sexo y estado civil en los ejemplos que siguen:
Barras simples
Barras superpuestas
f
f
25
25
20
20
15
15
10
10
5
5
Solteros Casados Separados
x
Solteros Casados Separados
x
Barras adyacentes
f
25
20
15
Adolescentes
10
5
Adultos
Solteros Casados Separados
x
Las barras también pueden disponerse horizontalmente.
Mediante el diagrama de barras pueden representarse variables cualitativas y cuantitativas discretas.
Histograma de Pearson
Utilizado para representar variables cuantitativas continuas agrupadas en intervalos, este gráfico se
compone de barras adyacentes cuya altura es proporcional a las respectivas frecuencias parciales. En el
ejemplo siguiente, se presenta la tabla de frecuencias por intervalos y su histograma correspondiente:
x (longitud)
1-1.99
2-2.99
3-3.99
Total
f
3
5
2
10
f
5
4
3
2
1
1
x
2
3
4
Como pude apreciarse, en las absisas se indican los límites inferiores de los intervalos.
Cuando los intervalos no son iguales, en lugar de indicar las frecuencias absolutas pueden indicarse las
alturas (h). Esta última se obtiene dividiendo la frecuencia parcial por el tamaño del intervalo
correspondiente.
Polígono de frecuencias
Es un gráfico de líneas rectas que unen puntos, siendo cada punto la intersección del punto medio del
intervalo (indicado en las absisas) y la frecuencia correspondiente. Tomando el ejemplo anterior, el
polígono de frecuencias sería el siguiente:
f
5
4
3
2
1
1.5
2.5
3.5
punto medio (xm)
Un polígono de frecuencias puede obtenerse también a partir del histograma correspondiente. Para ello
basta con indicar los puntos medios de cada línea horizontal superior de cada barra del histograma, y
luego unirlos con líneas rectas.
Otra alternativa para este tipo de diagrama es el polígono de frecuencias acumuladas, donde se indican
las frecuencias acumuladas en lugar de las frecuencias habituales.
Ojiva de Galton
Gráfico en el cual se consignan en las ordenadas las frecuencias acumuladas y en las absisas los límites
superiores de cada intervalo (aunque también pueden indicarse los puntos medios de cada intervalo). Por
ejemplo:
x (longitud)
1-1.99
2-2.99
3-3.99
Total
f
3
5
2
10
F
3
8
10
F
10
9
8
7
6
5
4
3
2
1
1.99
2.99
3.99
lím superior (L s)
La ojiva de Galton también puede representar frecuencias acumuladas decrecientes.
2.4 SÍNTESIS DE LOS DATOS: MEDIDAS ESTADÍSTICAS DE POSICIÓN
Los datos individuales pueden ser sintetizados mediante medidas de posición, medidas de dispersión
(ambas se llaman medidas estadísticas), medidas de asimetría y medidas de curtosis. En este ítem se
describen las medidas de posición.
Definición
Las medidas de posición pueden ser definidas de diversas formas (4). En esta nota proponemos la
siguiente definición: Las medidas de posición son datos estadísticos que intentan representar un conjunto
de datos individuales respecto de una variable.
Esta definición se refiere a tres cuestiones:
1) Son medidas estadísticas, es decir, no son medidas individuales. Una medida de posición representa a
todo un conjunto de datos, y no son los datos individuales. Por ejemplo, un promedio de edades
representa a todas las edades del grupo, y no es la edad individual de uno de sus miembros, aunque
pueda coincidir numéricamente con ella. Así, si el promedio de edades es 20 años y una de las personas
del grupo tiene 20 años, el primer dato es una medida estadística y el segundo una medida individual.
En otros términos, las medidas estadísticas no describen individuos, sino poblaciones o muestras. Por
ejemplo, no tiene sentido explicar que una persona es anciana porque vive en una población cuyo
promedio de edad es 70 años.
2) Son medidas representativas, es decir, intentan representar y sintetizar a todas las medidas
individuales. El conjunto de todas las medidas individuales puede recibir diversos nombres, tales como
muestra y población, con lo cual tiene sentido afirmar proposiciones tales como „una medida de posición
representa una muestra o una población‟.
Por ejemplo, es posible representar las notas obtenidas por un grupo de alumnos de diversas maneras:
a) El promedio de las notas es de 7.35 puntos (en este caso usamos una medida de posición llamada
media aritmética).
b) La mitad de los alumnos ha obtenido una nota superior a 6,5 puntos (en este caso utilizamos otra
medida de posición llamada mediana).
c) La nota que más se ha repetido fue 7 puntos (en este caso usamos la medida de posición llamada
modo).
La pregunta acerca de cuál de las tres medidas de posición representa „mejor‟ al conjunto de datos
individuales es el problema de la representatividad de la medida de posición, y la estadística suministra,
como se verá, diversos criterios para evaluar la mejor forma de representar un cierto número de datos
individuales.
3) Son medidas que miden una variable, es decir, algún atributo o propiedad de los objetos. En el
ejemplo anterior la variable medida es el rendimiento académico, pero también pueden obtenerse
medidas de posición representativas de un conjunto de edades, de profesiones, de clases sociales, de
puntuaciones de un test, de cantidad de dientes, etc.
De otra manera: no tiene sentido decir que una medida de posición represente un conjunto de personas,
pero sí tiene sentido decir que representan las edades de un conjunto de personas.
Características de las principales medidas de posición
Las medidas de posición pueden ser de tendencia central y de tendencia no central. Las primeras “se
refieren a los valores de la variable que suelen estar en el centro de la distribución” (Kohan, 1994:69).
Por ejemplo: la media aritmética, la mediana y el modo son las más conocidas, pero también está la
media aritmética ponderada (útil cuando hay valores que se repiten y que requieren atención diferencial),
la media geométrica (Kohan, 1994:71-72), la media armónica, la media antiarmónica, la media
cuadrática, la media cúbica, etc.
Las medidas de posición no centrales son los cuartiles, deciles y percentiles (Kohan, 1994:79), que
reciben genéricamente el nombre de cuantiles o fractiles (5).
De acuerdo a Botella (1993:99), las medidas de posición no centrales son datos o valores que ocupan
una posición especial en la serie de datos. Cuando una medida de posición es un dato que ocupa un lugar
central, la llamamos medida de tendencia central.
En el siguiente cuadro se especifican las definiciones y características principales de las medidas de
posición.
Medida
MODO
Definición
Es el dato o
valor que más
se repite, o
sea, el de
mayor
frecuencia.
MEDIANA
Es el dato o
valor que
divide por la
mitad la serie
de datos
ordenados
creciente o
decrecienteme
nte, es decir,
es el valor
central de la
serie.
MEDIA
ARITMÉTICA
Es el promedio
aritmético de
todos los
datos o
valores.
CUANTIL
Es el dato o
valor que
divide la serie
ordenada de
Características
Resulta útil si hay muchos datos repetidos (altas frecuencias).
Puede calcularse cuando hay valores muy extremos.
El modo muestral no es un estimador suficiente del modo poblacional
porque no incluye todos los datos.
En distribuciones multimodales es posible que la muestra no sea
homogénea, y que esté constituída por varios estratos.
Es posible convertir una distribución multimodal en una modal
reorganizando los intervalos.
Si una distribución no tiene modo, podría obtenerse reorganizando los
datos en intervalos.
Es la medida más útil en escalas ordinales siempre que los valores
centrales sean iguales.
No está influenciada por los valores extremos (por ello por ejemplo
puede aplicarse desconociendo estos o sea cuando hay límites
superiores o inferiores abiertos).
Puede usarse cuando hay intervalos abiertos, siempre que el orden de
la mediana no se corresponda con ellos.
Es útil cuando unos pocos datos difieren mucho del resto.
No es útil si hay muchos datos repetidos (altas frecuencias).
La mediana muestral no es un estimador suficiente de la mediana
poblacional porque no incluye todos los datos.
Es útil es distribuciones muy asimétricas (extremos no compensados).
La mediana coincide con el Q2 (cuartil 2), el D5 (decil 5) y el P50
(percentil 50) (8).
Está influenciada por los valores extremos (por ejemplo, no puede
utilizarse cuando hay valores extremos desconocidos o intervalos
abiertos, salvo que estos puedan cerrarse).
No conviene cuando los valores extremos son muy altos o muy bajos.
Es útil en distribuciones simétricas (con extremos compensados).
No puede usarse en escalas nominales ni ordinales.
Es siempre superior a la media geométrica y a la media armónica.
La media muestral es un estimador suficiente de la media poblacional
porque incluye todos los datos.
No necesariamente coincide con alguno de los valores.
La media aritmética tiene varios otras propiedades (7).
Es útil cuando hay gran cantidad de valores.
Puede también utilizarse como medida de dispersión.
Suelen utilizarse los cuartiles, los deciles y los percentiles.
-Cuartiles
-Deciles
-Percentiles
datos en
partes iguales.
Valores que
dividen la
serie en
cuatro partes
iguales.
Valores que
dividen la
serie en diez
partes iguales.
Valores que
dividen la
serie en cien
partes iguales.
Tres cuartiles dividen la serie en cuatro partes iguales.
Nueve deciles dividen la serie en diez partes iguales.
Noventa y nueve percentiles dividen la serie en cien partes iguales.
También se llaman centiles.
Relación entre modo, mediana y media aritmética.- a) La experiencia indica que la relación entre estas
tres medidas es:
Modo = (3 . Mediana) – (2 . Media aritmética). Esta relación es conocida como la fórmula de Pearson. b)
Cuanto más simétrica es una distribución (por ejemplo en una curva normal), más tienden a coincidir los
valores de las tres medidas.
Cálculo analítico de las medidas de posición: fórmulas
Para calcular una determinada medida de posición puede haber diversas fórmulas. La elección de la
fórmula adecuada dependerá de la forma en que estén organizados los datos individuales.
En principio, los datos pueden estar organizados de cuatro maneras:
1) Datos desordenados. Por ejemplo, las edades de un grupo de cuatro personas son 17, 29, 17 y 14.
Cuando se recolecta información, generalmente se obtienen datos desordenados, frente a lo cual
convendrá ordenarlos.
2) Datos ordenados. Por ejemplo, las edades del mismo grupo de personas son 14, 17, 17 y 29, si hemos
decidido ordenarlas en forma creciente, aunque también podemos ordenarlas decrecientemente.
3) Datos agrupados por frecuencia. Por ejemplo, hay dos edades de 17 años, una edad de 14 años y una
edad de 29 años. O, lo que es lo mismo, la frecuencia de la edad 17 es 2, y la frecuencia de las restantes
edades es 1.
4) Datos agrupados por intervalos. Por ejemplo, hay 3 edades comprendidas en el intervalo 14-17 años,
y una edad comprendida en el intervalo 18-29 años.
La estadística va agrupando los datos siguiendo el orden anterior. Cuanto más avance en este proceso,
más habrá logrado sintetizar y organizar los datos individuales.
En el siguiente cuadro se sintetizan las diversas reglas o fórmulas para calcular las medidas de posición,
según como estén organizados los datos individuales y según los niveles de medición que admiten.
Nótese que en algunos casos no es posible especificar ninguna fórmula, y entonces el cálculo se hará
siguiendo la regla indicada para los mismos. Por ejemplo: “para calcular el modo de un conjunto de datos
ordenados, debe buscarse el dato o valor que más se repite” (6).
Cálculo de medidas de posición según los niveles de medición que admiten y según la forma de organización de los datos individuales.
Preparado por: Pablo Cazau
Medida de
posición
Modo
Mediana
Nivel de
medición
Nominal
Ordinal
Cuantitativo
Ordinal
Cuantitativo
Datos ordenados
Datos agrupados por frecuencia
Valor que más se repite
Valor que más se repite
Valor que más se repite
Valor con la mayor frecuencia
Valor con la mayor frecuencia
Valor con la mayor frecuencia
Valor central de la serie
ordenada de valores
Valor central de la serie
ordenada de valores
Valor que corresponde a la frecuencia acumulada n/2
Valor que corresponde a la frecuencia acumulada n/2
Media
aritmética
Cuantitativo
x
X = ----n
x.f)
X = --------n
Cuartil
Cuantitativo
Decil
Cuantitativo
Percentil
Cuantitativo
Valores que dividen la serie
en cuatro partes iguales.
Por tanto, hay 3 cuartiles: Q1,
Q2 y Q3
Valores que dividen la serie
en diez partes iguales.
Por tanto, hay 9 deciles:
desde el D1 hasta el D9
Valores que dividen la serie
en cien parte iguales.
Por tanto, hay 99 percentiles:
desde el P1 hasta el P99
Valor que corresponde a la frecuencia acumulada t.n/4, expresión
0
llamada cuartil de orden o Q (1)
Donde t puede valer 1, 2 o 3.
Por tanto, hay 3 cuartiles: Q1, Q2 y Q3
Valor que corresponde a la frecuencia acumulada t.n/10, expresión
0
llamada decil de orden o D (1)
Donde t puede valer entre 1 y 9.
Por tanto, hay 9 deciles: desde el D1 hasta el D9
Valor que corresponde a la frecuencia acumulada t.n/100, expresión
0
llamada percentil de orden o P (1)
Donde t puede valer entre 1 y 99.
Por tanto, hay 99 percentiles: desde el P1 hasta el P99
Datos agrupados por intervalos
----------------------f - fant
Mo = Li + ---------------------- . a
(f - fant) + (f- fpos)
-----------n/2 - Fant
Mn = Li + ---------------------- . a
f
xm.f)
X = --------n
t.n/4 - Fant
Qt = Li + ---------------- . a
f
t.n/10 - Fant
Dt = Li + ---------------- . a
f
t.n/100 - Fant
Pt = Li + ---------------- . a
f
(1) Si no puede identificarse unívocamente una frecuencia acumulada, y por tanto un valor determinado de x, puede ser calculada por interpolación. En realidad, los cuantiles se
utilizan preferentemente cuando los datos están agrupados por intervalos.
A continuación, se suministran ejemplos de cómo calcular cada medida de posición teniendo
en cuenta las reglas y fórmulas del esquema anterior.
a) Cálculo del modo para datos ordenados (niveles nominal, ordinal y cuantitativo)
Nivel nominal: perro, perro, gato, gato, gato, gato (por tanto, el modo es gato)
Nivel ordinal: grande, grande, mediano, mediano, mediano, chico, chico, chico, chico (por
tanto, el modo es chico)
Nivel cuantitativo: 6, 6, 7, 7, 7, 7, 8, 9, 10, 10, 11 (por tanto, el modo es 7)
b) Cálculo del modo para datos agrupados en frecuencia (niveles nominal, ordinal y
cuantitativo)
Nivel nominal
x (religión)
f
Católicos
56
Protestantes
78
Judíos
45
Budistas
24
Otros
31
El modo es “Protestantes”
Nivel ordinal
x (dureza)
f
Muy duro
18
Duro
8
Intermedio
13
Blando
16
Muy blando
7
El modo es “Muy duro”
Nivel cuantitativo
x (edad)
f
30 años
6
31 años
14
32 años
19
33 años
24
34 años
15
El modo es “33” años
Como puede verse, el modo es el valor de la variable x que está más repetido.
c) Cálculo del modo para datos agrupados por intervalos (nivel cuantitativo)
x (cantidad piezas dentarias)
10-18
19-27
28-36
37-45
f
6
8
24
2
n=40
Una vez confeccionada la tabla de frecuencias por intervalos, se procede en dos pasos:
a) Se identifica cuál es el intervalo de mayor frecuencia. En este caso, es 28-36.
b) Se aplica la fórmula correspondiente:
f - fant
Mo = Li + ---------------------- . a
(f - fant) + (f- fpos)
24 - 8
Mo = 28 + ---------------------- . 8 = 31.37 piezas dentarias
(24 - 8) + (24 - 2)
d) Cálculo de la mediana para datos ordenados (niveles ordinal y cuantitativo)
Para hallar la mediana de un conjunto de datos, primero hay que organizarlos en orden
descendente o ascendente. Si el conjunto de datos contiene un número impar de elementos,
el central es la mediana. Si hay un número par, la mediana es el promedio de los dos datos
centrales.
Ejemplos para el nivel ordinal:
Número impar de datos: alto, alto, alto, alto, medio, medio, medio, medio, medio, medio,
bajo (por tanto, la mediana es = medio).
Número par de datos: En el nivel ordinal no puede calcularse un promedio si los dos valores
centrales son distintos. Si los dos valores centrales son iguales, ese es el valor de la
mediana.
Ejemplos para el nivel cuantitativo:
Número impar de datos: 13, 13, 13, 14, 14, 17, 18, 19, 19 (por tanto, la mediana es 14)
Número par de datos: 11, 11, 12, 13, 14, 15, 16, 18, 18, 18 (por tanto, la mediana es el
promedio entre 14 y 15, o sea 14.5).
e) Cálculo de la mediana para datos agrupados por frecuencia (niveles ordinal y
cuantitativo)
x (días)
1
2
3
4
5
f
7
9
14
10
2
n = 42
F
7
16
30
40
42
La variable es aquí cantidad de días de posoperatorio.
El procedimiento es el siguiente:
a) Se calcula la mediana de orden:
Mn0 = n/2 = 42/2 = 21
b) Se identifica cuál es el valor de x que corresponde a la frecuencia acumulada que contiene
el valor 21:
Dicha frecuencia acumulada es 30, y, por lo tanto Mn = 3 días
f) Cálculo de la mediana para datos agrupados por intervalos (nivel cuantitativo)
x
0-3
3-6
6-9
9-12
12-15
15-18
18-21
21-24
f
8
10
11
12
9
7
6
5
n = 68
F
8
18
29
41
50
57
63
68
Nótese que para calcular la mediana se precisa información sobre frecuencias acumuladas,
razón por la cual se ha agregado la columna respectiva.
Se procede en dos pasos:
a) Se identifica cuál es el intervalo que debe ser considerado, para lo cual se calcula la
mediana de orden:
Mn0 = n/2 = 68/2 = 34
Tomando en cuenta las frecuencias acumuladas, el valor 34 entra en la frecuencia
acumulada 41, y, por lo tanto, el intervalo a considerar será 9-12.
b) Se aplica la fórmula de mediana:
n/2 - Fant
Mn = Li + ---------------------- . a
f
34 - 29
Mn = 9 + ---------------------- . 3 = 10.25
12
Téngase presente que si la variable fuera discreta y medible sólo en números enteros, sería
Mn = 10.
Si la variable fuese cantidad de materias aprobadas, el alumno con 10 materias aprobadas
está en el lugar central de la serie, es decir, habría un 50% de compañeros con menos
materias aprobadas y un 50% con más materias aprobadas.
g) Cálculo de la media aritmética para datos ordenados (nivel cuantitativo)
Dados los siguientes dados ordenados: 2-2-3-4-4-4-5-5-6-7-8-10
Se puede calcular la media aritmética aplicando la fórmula:
x
X = ----n
X = ---------------------------------------- = --------- = 5
12
12
h) Cálculo de la media aritmética para datos agrupados por frecuencia (nivel
cuantitativo)
x (edad)
18
19
20
23
25
26
28
f
3
1
2
4
2
2
2
n = 16
f.x
54
19
40
42
50
52
56
363
Nótese que para el cálculo de la media aritmética se ha agregado una columna con los
productos de x . f.
Se aplica la fórmula de media aritmética:
x.f) 54+19+40+42+50+52+56
363
X = --------- = ----------------------------------- = -------- = 22.68 años = 23 años.
n
16
16
i) Cálculo de la media aritmética para datos agrupados por intervalos (nivel
cuantitativo)
x
0-3
3-6
6-9
9-12
12-15
15-18
18-21
21-24
f
8
10
11
12
9
7
6
5
n = 68
xm
1.5
4.5
7.5
10.5
13.5
16.5
19.5
22.5
xm.f
12
45
82.5
126
121.5
115.5
117.6
112.5
732.5
Nótese que para el cálculo de la media aritmética se ha agregado una columna con los
puntos medios de los intervalos y otra con los productos de las frecuencias por los puntos
medios.
Se aplica la fórmula de media aritmética:
xm.f)
732.5
X = ------------- = ---------- = 10.77
n
68
El método corto y el método clave son dos métodos alternativos para calcular la media
aritmética, siendo el último sólo aplicable cuando el tamaño de los intervalos es constante.
De acuerdo al método corto, la media aritmética se calcula sumando al punto medio del
intervalo de mayor frecuencia, el cociente entre la sumatoria de los productos entre cada
frecuencia y la diferencia entre el punto medio de cada intervalo menos el punto medio del
intervalo de mayor frecuencia, y la sumatoria de frecuencias (n).
De acuerdo al método clave, la media aritmética se calcula sumando al punto medio del
intervalo de mayor frecuencia, el producto entre el tamaño del intervalo y un cociente, donde
el numerador es la sumatoria de los productos entre las frecuencias y el llamado intervalo
unitario (que resulta de dividir la diferencia entre cada punto medio y el punto medio del
intervalo de mayor frecuencia, por el tamaño del intervalo), y donde el denominador es la
sumatoria de frecuencias (n).
j) Cálculo del cuantil para datos ordenados (nivel cuantitativo)
1-1-1-1-1-2-2-2-3-3-3-3-4-5-6-6-6-6-7-7-8-8-9
Si en la serie anterior resaltamos los tres valores que la dividen en cuatro partes iguales,
esos valores serán los cuartiles Q1, Q2 y Q3:
1-1-1-1-1-2-2-2-3-3-3-3-4-5-6-6-6-6-7-7-8-8-9
Q1 = 2
Q2 = 3
Q3 = 6
Sin embargo, es más práctico agrupar los datos por frecuencias o por intervalos, a los
efectos del cálculo de los cuantiles (cuartiles, deciles o percentiles).
k) Cálculo del cuantil para datos agrupados por frecuencia (nivel cuantitativo)
x (edad)
18
19
20
23
25
26
28
f
3
1
2
4
2
2
2
n = 16
F
3
4
6
10
12
14
16
Se pueden calcular, por ejemplo, Q1, Q2 y Q3.
El primer paso consiste en averiguar los respectivos cuartiles de orden.
Para Q1 es Q = t.n/4 = 1.16/4 = 4
0
Para Q2 es Q = t.n/4 = 2.16/4 = 8
0
Para Q3 es Q = t.n/4 = 3.16/4 = 12
0
El segundo y último paso consiste en identificar el valor de x correspondiente al cuartil de
orden respectivo.
Q1 = 4
Q2 = Está entre 20 y 23
Q3 = 25
l) Cálculo del cuantil para datos agrupados por intervalos (nivel cuantitativo)
x (puntaje)
0-10
10-20
20-30
30-40
40-50
f
1
3
5
6
10
F
1
4
9
15
25
50-60
60-70
70-80
80-90
90-100
12
13
9
4
3
n = 66
37
50
59
63
66
Se pueden calcular, por ejemplo, Q3, D7 y P45.
El primer paso consiste en averiguar los cuantiles de orden:
Para Q3 es Q = t.n/4 = 3.66/4 = 49.5
0
Para D7 es D = t.n/10 = 7.66/10 = 46.2
0
Para P45 es P = t.n/100 = 45.66/100 = 29,7
0
El segundo paso consiste en identificar el intervalo que corresponde al cuantil de orden en la
columna de frecuencias acumuladas:
El valor 49.5 corresponde al intervalo 60-70
El valor 46.2 corresponde al intervalo 60-70
El valor 29.7 corresponde al intervalo 50-60
El tercer y último paso consiste en aplicar la fórmula basándose en la información del
intervalo identificado. Si la fórmula pide el dato de la frecuencia acumulada anterior y esta
no existe, se coloca 0 (cero).
En el ejemplo del cálculo del D7, se aplica la siguiente fórmula:
t.n/10 - Fant
Dt = Li + ------------------- . a
f
46.2 - 37
D7 = 60 + ---------------- . 11 = 67.78
13
Cálculo visual de las medidas de posición: gráficos
Es posible utilizar un procedimiento gráfico para calcular ciertas medidas de posición, tales
como el modo y la mediana. Por ejemplo, el modo se puede calcular a partir de un
histograma. La mediana también puede calcularse con un histograma, aunque lo más
habitual es hacerlo mediante una ojiva.
a) Cálculo del modo mediante un histograma
Una vez construido el histograma a partir de una tabla de datos agrupados por intervalos:
1) Se considera el rectángulo de mayor frecuencia (mayor altura).
2) Dentro del mismo se trazan dos rectas como está indicado en el gráfico siguiente.
3) Por la intersección de ambas rectas se traza una recta perpendicular al eje de absisas.
4) El punto del eje de las absisas por donde pasa la recta perpendicular corresponde al modo
(en el ejemplo, el modo es 4.80).
f
5
4
3
2
1
1
x
4
7
10
b) Cálculo de la mediana mediante una ojiva
En este caso pueden utilizarse dos procedimientos:
1) Una vez trazada la ojiva, a) se ubica en el eje de las ordenadas a la mediana de orden
0
(Mn ); b) por la mediana se orden se traza una recta paralela al eje x hasta que intersecte
la ojiva; c) por este punto de intersección se traza una recta paralela al eje y hasta que
intersecte el eje x. En este punto estará ubicada la mediana.
2) Se trazan en el mismo eje de coordenadas las ojivas creciente y decreciente de la misma
distribución de datos. Luego, a) se traza una recta paralela al eje y que pase por la
intersección de ambas ojivas y por algún punto del eje x; b) el punto del eje x por donde
pasa dicha recta corresponde a la mediana.
Criterios de elección de medidas de posición
1) La elección de una medida de posición debe tener en cuenta el nivel de medición de la
variable que se mide:
Media
aritmética
NO
Nivel ordinal
SI
SI. Siempre y cuando
los dos valores centrales
con n = par sean
iguales. En caso
contrario usar el Modo.
NO
Cuantiles
NO
NO
Modo
Mediana
Nivel nominal
SI
NO
Nivel cuantitativo
SI
SI
SI Cuando no haya valores
extremos alejados ni valores
extremos abiertos. En caso
contrario, usar el Modo o la
Mediana (*).
SI
(*) Hay al menos tres situaciones donde se preferirá la mediana a la media (Botella, 1993:115): a)
cuando la variable es ordinal, b) cuando haya valores extremos que distorsionen la interpretación de la
media, y c) cuando haya intervalos abiertos, como en el caso de variables como ingresos mensuales.
2) La elección de una medida de posición debe tener en cuenta la forma en que están
organizados los datos. Por ejemplo: “en ocasiones, el azar hace que un solo elemento no
representativo se repita lo suficiente para ser el valor más frecuente del conjunto de datos.
Es por esta razón que rara vez utilizamos el modo de un conjunto de datos no agrupados
como medida de tendencia central. Por esta razón, debemos calcular el modo en datos
agrupados en una distribución de frecuencias” (Levin y Rubin, 1996).
3) La elección de una medida de posición de una muestra debe tener en cuenta el grado de
fidelidad con que representa a la medida de posición poblacional.
Botella (1993:114) afirma, en este sentido, que si no hay ningún argumento en contra,
siempre se preferirá la media, no sólo porque permite la utilización de otras medidas
estadísticas (por ejemplo el desvío estándar), sino porque es más representativa de la media
poblacional que el modo o la mediana con respecto al modo o la mediana poblacional.
2.5 SÍNTESIS DE LOS DATOS: MEDIDAS ESTADÍSTICAS DE DISPERSIÓN
Definición
Las medidas de dispersión, llamadas también medidas de variabilidad o de variación, son
datos estadísticos que informan acerca del grado de dispersión o variabilidad de los datos
individuales de una muestra o una población, respecto de una variable. En otras palabras,
indican el grado de homogeneidad o de heterogeneidad del conjunto de los datos. Por
ejemplo, indican cuán alejados o cuán cercanos se encuentran los datos de algún valor
central como la media aritmética: una muestra cuyos datos son 3-4-5 es menos dispersa que
una muestra cuyos datos son 1-4-7.
Algunos autores (Botella, 1993:325) han relacionado la dispersión de los datos -para los
niveles de medición nominal y ordinal- con los conceptos de entropía y de incertidumbre e
incluso han propuesto a la primera como una medida que permite cuantificar la dispersión: a
mayor dispersión de los datos, hay mayor entropía y mayor incertidumbre.
Por ejemplo, las siguientes dos muestras tienen cada una 40 sujetos que han elegido
determinados colores para representar la idea de paz:
Muestra A:
Muestra B:
Blanco
28
8
Verde
3
8
Amarillo
3
8
Celeste
3
8
Rosa
3
8
Si habría que adivinar qué color eligió determinado sujeto de la muestra A, cabría proponer
el color blanco porque fue el más elegido. En cambio, la incertidumbre aumenta si habría que
elegir lo mismo en la muestra B. En esta muestra hay más entropía, es decir, más desorden,
mientras que en la muestra A los datos están más ordenados alrededor de un valor muy
repetido, como el blanco.
La muestra B es más dispersa, es decir, más heterogénea, mientras que la muestra A es
menos dispersa, es decir, más homogénea. La homogeneidad no debe relacionarse con la
repetición de frecuencias (3-3-3-3) sino con la repetición de valores iguales o muy cercanos
entre sí (28 sujetos eligieron blanco).
Una medida de posición no alcanza para describir adecuadamente una muestra. Se obtiene
una información más precisa y completa de ella cuando además se utiliza una medida de
dispersión.
Por ejemplo, la muestra 1 de datos 3-4-5 y la muestra 2 de datos 1-4-7 tienen la misma
medida de posición: la media aritmética en ambos casos es 4. Sin embargo, se trata
evidentemente de dos muestras diferentes, por cuanto la segunda es más dispersa que la
primera, es decir, sus datos están más alejados de la media aritmética.
En la primera muestra el promedio de las desviaciones respecto de la media es 1 (de 3 a 4
hay 1, y de 5 a 4 hay 1), mientras que el promedio de las desviaciones en la segunda
muestra es 3 (de 1 a 4 hay 3, y de 7 a 4 hay 3). Por lo tanto, ambas muestras pueden
representarse de la siguiente manera:
Muestra 1: 4 + 1 (se lee 4 más/menos 1)
Muestra 2: 4 + 3 (se lee 4 más/menos 3).
Las medidas de dispersión tienen una importancia adicional porque (Levin y Rubin: 1996): a)
Proporcionan información adicional que permite juzgar la confiabilidad de la medida de
tendencia central. Si los datos se encuentran ampliamente dispersos, la posición central es
menos representativa de los datos. b) A veces resulta indispensable conocer la dispersión de
una muestra porque muestras demasiado dispersas pueden no ser útiles para poder sacar
conclusiones útiles sobre la muestra. Levin y Rubin indican que, “ya que existen problemas
característicos para datos ampliamente dispersos, debemos ser capaces de distinguir los que
presentan esa dispersión antes de abordar esos problemas”.
Características de las principales medidas de dispersión
En general, las medidas de dispersión más utilizadas sirven para la medición de variables en
el nivel cuantitativo. Seguidamente se examinarán las siguientes medidas de dispersión:
rango, desviación media, varianza, desvío estándar, desvío intercuartílico y coeficiente de
variación.
En el siguiente cuadro se especifican las definiciones y características principales de las
medidas de dispersión.
Medida
RANGO
Definición
Es la diferencia
entre los valores
máximo y mínimo
de la variable.
DESVIACION
MEDIA
Es el promedio de
las desviaciones de
todos los valores
respecto de la
media aritmética.
Es el promedio de
los cuadrados de
las desviaciones
con respecto a la
media aritmética.
VARIANZA
DESVIO
ESTÁNDAR
Es la raíz cuadrada
de la varianza (11)
DESVIO
INTER
CUARTILICO
COEFICIENTE
DE
VARIACION
Es la diferencia
entre el Q3 y el Q1.
Es el cociente entre
el desvío estándar y
la media aritmética.
Características
De uso limitado, no es una buena medida de dispersión.
Es muy sensible a los valores extremos e insensible a los valores
intermedios.
Está muy vinculada al tamaño de la muestra: es probable que la muestra
de mayor tamaño presente mayor rango aunque las poblaciones de
referencia tengan igual dispersión (Botella, 1993).
Se llama también amplitud.
Considera desviaciones absolutas, es decir, no las considera con valores
negativos (de otro modo, el promedio de las desviaciones, por un teorem
de la media aritmética, daría cero). Esto representa una dificultad de
cálculo, por lo que se utiliza la varianza.
Es un valor esencialmente no negativo (10).
Matemáticamente es buena medida de dispersión, pero da valores muy
altos, por lo cual en estadística descriptiva se utiliza el desvío estándar
(9).
Se apoya en una propiedad de la media aritmética según la cual la suma
de los cuadrados de las desviaciones respecto a la media es un valor
mínimo.
La varianza permite comparar la dispersión de dos o más muestras si sus
medias aritméticas son similares (Botella, 1993).
Si se suma una constante a un conjunto de valores, la varianza no se
modifica (Botella, 1993).
Si se multiplica por una constante a un conjunto de valores, la varianza d
los nuevos valores el igual al producto de la varianza de las originales po
el cuadrado de la constante (Botella, 1993).
Es un valor esencialmente no negativo (10).
Es la medida de dispersión más utilizada.
Se la emplea conjuntamente con la media aritmética como medida de
posición.
La raíz cuadrada permite compensar el cuadrado de la varianza.
Si se suma una constante a un conjunto de valores, el desvío estándar no
se modifica (Botella, 1993).
Si se multiplica por una constante a un conjunto de valores, el desvío
estándar de los nuevos valores el igual al producto del desvío estándar de
las originales por el cuadrado de la constante (Botella, 1993).
Se llama también desviación típica, o también desviación estándar
(Pagano, 1998:71).
Expresa el rango del 50% central de la serie de valores.
Se llama también amplitud intercuartil.
Permite comparar la dispersión de dos o más muestras con diferentes
medias aritméticas: a mayor coeficiente de variación, mayor dispersión.
No se expresa en unidades como la variable en estudio (por ejemplo, par
edad, no se expresa en años).
Puede considerarse como un índice de la representatividad de la media
aritmética: cuanto mayor es el coeficiente de variación, menos
representativa es la media (Botella, 1993).
Cálculo analítico de las medidas de dispersión: fórmulas
En este ítem se indican las fórmulas para calcular medidas de dispersión, y se suministran
ejemplos de cada caso.
Cálculo de las medidas de dispersión según la forma de organización de los datos
individuales
Preparado por: Pablo Cazau
Medida de
dispersión
Rango
Desviación
media
Datos ordenados
Datos agrupados por
frecuencia
Datos agrupados por
intervalos
R = xmay - xmen
R = xmay - xmen
No
|x–X|
Dm = --------------n
( x – X )2
S = ---------------n
|x–X|.f
Dm = -----------------n
( x – X )2 . f
S = ------------------n
| xm – X | . f
Dm = -------------------n
( xm – X )2 . f
S = ---------------------n
El segundo miembro es
a la raíz cuadrada
El segundo miembro es a la raíz
cuadrada
El segundo miembro es a la raíz
cuadrada
Varianza
Es el cuadrado del
2
desvío estándar (S )
Es el cuadrado del desvío
2
estándar (S )
Es el cuadrado del desvío
2
estándar (S )
Desvío
intercuartílico
Coeficiente
de variación
DQ = Q3 – Q1
DQ = Q3 – Q1
DQ = Q3 – Q1
S
CV = ----X
S
CV = ----X
S
CV = ----X
Desvío
estándar
Cuando hay que calcular varianza o desvío estándar poblacionales, se utiliza „n‟ en el
denominador, pero cuando se calculan las correspondientes medidas muestrales (o cuando la
muestra es muy pequeña), se utilizará „n–1‟ (12).
a) Cálculo del rango para datos ordenados y para datos agrupados por frecuencia
Se puede aplicar a estas muestras la fórmula del Rango R = xmay - xmen
Muestra 1: 80, 100, 100, 110, 120. Aquí el rango R es = 120 – 80 = 40.
Muestra 2: 30, 50, 70, 120, 180. Aquí el rango R es = 180 – 30 = 150
Como se ve, la muestra 2 es más dispersa porque tiene mayor rango.
No se puede calcular el rango para datos agrupados por intervalos porque se desconocen
cuáles son los valores máximo y mínimo.
b) Cálculo de la desviación media para datos ordenados
La serie ordenada de datos puede ser la siguiente: 2, 3, 5, 6, 7, 9, 10
Como primer paso se calcula la media aritmética:
X
2+3+5+6+7+9+10
= --------------------------- = 6
7
Como segundo y último paso, se calcula la desviación media:
|x–X|
|2-6| + |3-6| + |5-6| + |6-6| + |7-6| + |9-6| + |10-6|
Dm = --------------- = --------------------------------------------------------------------- = 2.29
N
7
c) Cálculo de la desviación media para datos agrupados por frecuencia
A la siguiente tabla de frecuencias (f) deberá agregarse una columna (f.x) para calcular la
media aritmética, y luego otras dos columnas (x-X) y (| x-X | . f) para calcular la desviación
media:
x
70
f
45
f.x
3150
|x-X|
35
|x-X|.f
1575
80
90
100
110
120
130
140
63
78
106
118
92
75
23
n = 600
5040
7020
10600
12980
11040
9750
3220
62800
25
15
5
5
15
25
35
160
1575
1170
530
590
1380
1875
115
8810
Primero se calcula la media aritmética:
x.f)
62800
X = --------- = ------------ = 104.66 = 105
n
600
Finalmente se calcula la desviación media:
|x–X|.f
8810
Dm = ------------------ = ------------ = 14.68
n
600
d) Cálculo de la desviación media para datos agrupados por intervalos
Se procede de la misma manera que en el caso anterior, con la diferencia que en lugar de
considerar los valores x, se consideran los puntos medios de los intervalos (xm).
e) Cálculo del desvío estándar para datos ordenados
Para la serie de valores 5, 6, 10, su media aritmética es 7. Una vez conocido este valor,
puede obtenerse el desvío estándar de la siguiente forma:
2
S =
(x–X)
------------------- =
n
2
2
2
(5-7) + (6-7) + (10-7)
------------------------------------ =
3
4.66 = 2.2
f) Cálculo del desvío estándar para datos agrupados por frecuencia
x (edad)
18
19
20
23
25
26
28
f
3
1
2
4
2
2
2
n = 16
f.x
54
19
40
42
50
52
56
363
x–X
-5
-4
-3
0
+2
+3
+5
( x – X )2
25
16
9
0
4
9
25
( x – X )2 . f
75
16
18
0
8
18
50
185
Primero se calcula la media aritmética, que arroja un valor de X = 23.
Finalmente, se aplica la fórmula de desvío estándar:
2
S =
(x–X) .f
---------------------- =
n
185
------------ =
16
11.56 = 3.2
Puede también utilizarse una fórmula más sencilla a los efectos del cálculo (Bancroft,
1960:80):
2
x .f
2
S = ----------- - (X)
n
Donde el primer término del segundo miembro es a la raíz cuadrada.
g) Cálculo del desvío estándar para datos agrupados por intervalos
Se procede del mismo modo que en el caso anterior, con la diferencia que se calcula el punto
medio xm de los intervalos en lugar del valor x.
h) Cálculo de la varianza
El procedimiento es el mismo que en el caso del desvío estándar. Sólo debe tenerse presente
que la varianza es el cuadrado del desvío estándar.
i) Cálculo del desvío intercuartílico
Dada la siguiente serie, obtener el desvío intercuartílico:
x
0-20
20-40
40-60
60-80
80-100
f
2
4
5
8
1
n = 20
Primero se calculan los Q3 y Q1 aplicando la fórmula explicada en medidas de posición.
Finalmente, se aplica la fórmula del desvío intercuartílico:
DQ = Q3 – Q1 = 70 – 35 = 35
Una variante es el empleo del desvío semi-intercuartílico, es decir, el desvío intercuartílico
dividido dos. Se trata de una medida de dispersión propuesta por Galton en 1889, y que
resulta recomendable cuando hay algún valor extremo que pudiera distorsionar la
representatividad de la media aritmética (Botella, 1993).
j) Cálculo del coeficiente de variación
Si una muestra tiene una media aritmética 111 y el desvío estándar 18, entonces su
coeficiente de variación es:
S
111
CV = ----- = ---------- = 0.16
X
18
Cuanto mayor es el CV, mayor es la dispersión.
También puede calcularse un coeficiente de variación porcentual, multiplicando CV por
100. En el ejemplo:
CV% = 0.16 . 100 = 16%.
Cálculo visual de las medidas de dispersión: gráficos
Botella (1993:143) menciona dos procedimientos para expresar gráficamente medidas de
dispersión: el diagrama de caja y bigotes (Tukey, 1977) y el diagrama de bigotes verticales.
Diagrama de caja y bigotes
75
80
85
90
Xmín
95
100
Q1
105
110
Q3
115
120
125
130
Xmáx
A
B
Xmín
Q1
Q3
Xmáx
Puede apreciarse a simple vista que la distribución de valores B es más dispersa que A no
sólo porque la diferencia entre los valores máximo y mínimo (rango) es mayor, sino también
porque lo es la diferencia entre los cuartiles primero y tercero.
Diagrama de bigotes verticales
Nivel de
ansiedad
4°
Curso
5°
6°
7°
8°
El gráfico representa las medias aritméticas de nivel de ansiedad de diversos cursos de
alumnos. En cada media aritmética se han trazado bigotes verticales que representan los
respectivos desvíos estándar. Puede entonces apreciarse, por ejemplo, que a medida que
aumenta la media aritmética, tiende también a aumentar el desvío estándar.
2.6 SÍNTESIS DE LOS DATOS: ASIMETRÍA Y CURTOSIS
Un conjunto de datos o distribución de datos queda exhaustivamente descrito cuando
pueden especificarse una medida de posición, una medida de dispersión, un índice de
asimetría y un índice de curtosis. Las medidas de asimetría y curtosis se refieren a la „forma‟
de la distribución y, aunque no son tan importantes como las medidas de posición y
dispersión y son muy poco utilizadas, aportan también información sobre la distribución de
los valores de una muestra o población.
Asimetría
La asimetría hace referencia al grado en que los datos se reparten equilibradamente por
encima y por debajo de la tendencia central (Botella, 1993:169). Por ejemplo, en la siguiente
tabla se puede apreciar que en el curso A muchos alumnos obtuvieron buenas notas, en el
curso C muchos alumnos obtuvieron bajas notas, y en el curso B están equilibrados.
x (nota)
10
f (curso A)
5
f (curso B)
2
f (curso C)
1
9
8
7
6
5
4
3
2
1
0
10
15
22
16
12
8
6
3
2
1
n = 100
5
8
10
15
20
15
10
8
5
2
n = 100
2
3
6
8
12
16
22
15
10
5
n = 100
Representando las tres distribuciones de datos con curvas en un gráfico con las frecuencias
en las ordenadas y los valores de x en las absisas, se obtiene lo siguiente:
Curso A
Media
Curso B
Modo
Asimetría
negativa
(curva hacia
la derecha)
Media
Modo
Asimetría
cero
Curso C
Modo
Media
Asimetría
positiva
(curva hacia
la izquierda)
Han sido propuestos diversos índices de asimetría para cuantificar el grado de asimetría de
una distribución de datos. De entre ellos pueden citarse los siguientes (Botella, 1993:170):
Indice de
asimetría mediamodo
Indice de asimetría
media-mediana
(Kohan, 1994:93)
Indice de asimetría
de Pearson
Indice de asimetría
intercuartílico
Es la distancia
entre la media y el
modo, medido en
desvíos estándar:
X - Mo
As = ------------S
Es la distancia entre
la media y la
mediana multiplicada
por tres, medida en
desvíos estándar:
X - Mn
As= ------------S
Es el promedio de los
valores z elevados al
cubo (donde z es el
cociente entre la
diferencia entre x y
la media aritmética,
y el desvío
estándar).
Es el cociente entre la
diferencia Q3-Q2 y Q2Q1, y la diferencia Q3Q1
Los tres índices se interpretan de manera similar: si resultan ser números negativos, la curva
será asimétrica hacia la derecha, y si dan resultados positivos, la curva será asimétrica a la
izquierda. El resultado 0 (cero) indicará asimetría nula (simetría perfecta).
Existen otros muchos tipos de curvas: parabólicas, hiperbólicas, bimodales, etc, pero una
forma usual es la curva simétrica, llamada también curva normal o campana de Gauss.
Curtosis
La curtosis hace referencia a la forma de la curva de la distribución de datos en tanto muy
aguda (mayor apuntamiento o mayor curtosis: leptocúrtica) o muy aplanada (menor
apuntamiento o menor curtosis: platicúrtica).
Leptocúrtica
Mesocúrtica
Platicúrtica
Del mismo modo que sucede con la asimetría, también se han propuesto diversos índices de
curtosis. Si el índice es positivo, su apuntamiento es mayor que el de una distribución normal
y la curva será leptocúrtica, y si es negativo, su apuntamiento es menor y la curva será
platicúrtica (Botella, 1993).
NOTAS
(1) Según Botella (1993:49) la “distribución de frecuencias es un instrumento diseñado para cumplir
tres funciones: a) proporcionar una reorganización y ordenación racional de los datos recogidos; b)
ofrecer la información necesaria para hacer representaciones gráficas; y c) facilitar los cálculos
necesarios para obtener los estadísticos muestrales”.
(2) Cuando se confecciona una tabla de frecuencias por intervalos con la intención de elaborar gráficos o
medidas estadísticas a partir de ella, deben asumirse ciertos supuestos que implican un margen de
error, pero que son imprescindibles. Estos supuestos, llamados supuestos de concentración
intraintervalo, son dos. a) El supuesto de concentración en el punto medio del intervalo, según el cual
todos los valores de la variable son el mismo, a saber, el punto medio del intervalo. b) El supuesto de
distribución homogénea, según el cual “los valores incluidos en un intervalo se reparten con absoluta
uniformidad en su interior. Es decir, que si en un intervalo hay cinco observaciones [valores observados
en la variable] aceptaremos que sus valores son los que tendríamos si partiéramos al intervalo en cinco
subintervalos de igual amplitud y asignáramos a cada individuo el punto medio de un subintervalo”
(Botella, 1993:56).
(3) Hay quienes recurren a la fórmula de Sturges para calcular la cantidad de intervalos que resulta
deseable tomar en función del tamaño de la muestra. Esta fórmula es: Número de intervalos = 1 + (log
n / log 2), donde n designa el tamaño de la muestra. Por ejemplo, aplicando la fórmula para n = 40, la
cantidad deseable de intervalos es 6.3, con lo cual podrán elegirse entre 6 o 7 intervalos. Una vez
determinada la cantidad de intervalos, sólo resta dividir el tamaño de la muestra por 6 o 7, de lo que
resultará el tamaño de cada intervalo.
(4) Por ejemplo, las medidas de posición son aquellas que “caracterizan la posición de un grupo respecto
de una variable” (Kohan, 1994:69). Otras definiciones se refieren a la utilidad de estas medidas, y
entonces por ejemplo se definen como “índices diseñados especialmente para revelar la situación de una
puntuación con respecto a un grupo, utilizando a éste como marco de referencia” (Botella, 1993:83).
(5) Estrictamente hablando, ciertos cuantiles como el cuartil 2, el decil 5 y el percentil 50 resultan ser
medidas de tendencia central, ya que coinciden con la mediana.
(6) Estrictamente, dato y valor no son sinónimos, aunque aquí se emplearán indistintamente ambas
expresiones. El valor es uno de los componentes del dato: los otros dos son la unidad de análisis y la
variable.
(7) Botella (1993:105-111) describe seis propiedades de la media aritmética: 1) La suma de las
diferencias de n puntuaciones de la media aritmética, o puntuaciones diferenciales, es igual a cero. 2) La
suma de los cuadrados de las desviaciones de unas puntuaciones con respecto a su media es menor que
con respecto a cualquier otro valor. 3) Si sumamos una constante a un conjunto de puntuaciones, la
media aritmética quedará aumentada en esa misma constante. 4) Si multiplicamos una constante a un
conjunto de puntuaciones, la media aritmética quedará multiplicada por esa misma constante. 5) La
media total de un grupo de puntuaciones, cuando se conocen los tamaños y medias de varios subgrupos
hechos a partir del grupo total, mutuamente exclusivos y exhaustivos, puede obtenerse ponderando las
medias parciales a partir de los tamaños de los subgrupos en que han sido calculadas. 6) Una variable
definida como la combinación lineal de otras variables tiene como media la misma combinación lineal de
las medias de las variables intervinientes en su definición.
(8) Equivalencias entre cuantiles (Botella, 1993:89):
Cuartiles
Q1
Q2
Q3
Deciles
D1
D2
D3
D4
D5
D6
D7
D8
D9
Percentiles
P10
P20
P25
P30
P40
P50
P60
P70
P75
P80
P90
(9) “Para la varianza, las unidades son el cuadrado de las unidades de los datos. Estas unidades no son
intuitivamente claras o fáciles de interpretar. Por esta razón, tenemos que hacer un cambio significativo
en la varianza para calcular una medida útil de la desviación, que sea menos confusa. Esta medida se
conoce como la desviación estándar, y es la raíz cuadrada de la varianza. La desviación estándar,
entonces, está en las mismas unidades que los datos originales” (Levin y Rubin, 1996). La varianza
como tal se utiliza más frecuentemente en estadística inferencial (Pagano, 1998:77).
(10) “La raíz cuadrada de un número positivo puede ser tanto positiva como negativa. Cuando tomamos
la raíz cuadrada de la varianza para calcular la desviación estándar, los estadísticos solamente
consideran la raíz cuadrada positiva” (Levin y Rubin, 1996).
(11) La desviación estándar nos permite determinar, con un buen grado de precisión, dónde están
localizados los valores de una distribución de frecuencias con relación a la media. El teorema de
Chebyshev dice que no importa qué forma tenga la distribución, al menos 75% de los valores caen
dentro de + 2 desviaciones estándar a partir de la media de la distribución, y al menos 89% de los
valores caen dentro de + 3 desviaciones estándar a partir de la media.
Con más precisión:
Aproximadamente 68% de los valores de la población cae dentro de + 1 desviación estándar a partir de
la media.
Aproximadamente 95% de los valores estará dentro de + 2 desviaciones estándar a partir de la media.
Aproximadamente 99% de los valores estará en el intervalo que va desde tres desviaciones estándar por
debajo de la media hasta tres desviaciones estándar por arriba de la media (Levin y Rubin, 1996).
(12) Esto se debe a que “los especialistas en estadística pueden demostrar que si tomamos muchas
muestras de una población dada, si encontramos la varianza de la muestra para cada muestra y
promediamos los resultados, entonces este promedio no tiende a tomar el valor de la varianza de la
población, a menos que tomemos n–1 como denominador de los cálculos” (Levin y Rubin, 1996).
(13) El concepto de distribución de frecuencias es uno de los más básicos de la estadística descriptiva, y
hace referencia a un conjunto de valores de una variable ordenados de acuerdo con sus frecuencias. Las
distribuciones de frecuencias pueden expresarse en forma de tablas, gráficos, medidas de posición,
medidas de dispersión, de asimetría y de curtosis. Estas últimas cuatro medidas pueden considerarse
propiedades o características básicas de una distribución frecuencial.
CAPÍTULO 3: PROBABILIDAD Y CURVA NORMAL
La curva normal es uno de los temas fundamentales de la estadística que utiliza la
información provista por la estadística descriptiva y permite el paso a la estadística
inferencial en el sentido de proveer una herramienta para obtener conclusiones respecto de
la población. La comprensión de este tema exige un conocimiento mínimo de la teoría de la
probabilidad.
3.1 EL CONCEPTO DE PROBABILIDAD
Se entiende por probabilidad el grado de posibilidad de ocurrencia de un determinado
acontecimiento. Dicha probabilidad puede calcularse en forma teórica o empírica, a partir de
las llamadas probabilidad clásica y frecuencial, respectivamente. El concepto de probabilidad
ha demostrado ser de importante utilidad en ciertos enfoques sistémicos, especialmente en
los ámbitos de la termodinámica y la teoría de la información.
1. Concepto de probabilidad.- Entendida como medida de la posibilidad de la ocurrencia de
un determinado acontecimiento, la probabilidad abarca un espectro que se extiende desde la
certeza (el acontecimiento ocurrirá con total seguridad), hasta la imposibilidad (es imposible
que el acontecimiento ocurra), pasando por todos los grados intermedios (es muy probable
que ocurra, es medianamente probable, es poco probable, etc).
Por ejemplo, el suceso 'obtener un número entre 1 y 6 tirando un dado' equivale a la
certeza; el suceso 'obtener un 7 arrojando un dado' equivale a la imposibilidad; y el suceso
'obtener un 2 arrojando un dado' equivale a uno de los grados intermedios de probabilidad.
Es habitual representar el grado de probabilidad mediante un número que puede variar entre
1 (certeza) y 0 (imposibilidad). La probabilidad puede entonces valer 1, 0, 0.50, 0.80, etc.
Por ejemplo, una probabilidad de 0.1 es muy baja, y una probabilidad de 0.98 muy alta. Una
probabilidad intermedia es 0.50 o también, si la expresamos en términos de porcentajes
corriendo la coma dos lugares hacia la derecha, obtenemos una probabilidad del 50 por
ciento. Tal el caso de obtener una cara arrojando una moneda.
2. Probabilidad clásica y probabilidad frecuencial.- Si bien existen diferentes teorías y
enfoques acerca de la probabilidad, explicaremos a continuación los dos planteos más
habituales, siguiendo un ordenamiento histórico e incluso sistemático: el clásico y el
frecuencial. En última instancia, se trata de dos modos diferentes de calcular la probabilidad
de la ocurrencia de un fenómeno.
a) Probabilidad clásica.- Suele también denominarse probabilidad teórica o a priori, y se
define como el cociente entre el número de casos favorables y el número de casos
equiprobables posibles. Aclaremos esta aparentemente engorrosa definición.
Sabemos que un dado tiene seis caras, numeradas del uno al seis. La probabilidad de
obtener la cara tres, por ejemplo, es de un sexto, es decir de un caso favorable (porque hay
una sola cara con el tres) sobre seis casos equiprobables y posibles (caras 1-2-3-4-5-6).
Aplicando la definición de probabilidad, es:
p=
Casos favorables
1
----------------------------------------------------- = 0.1666
Casos equiprobables posibles 6
Para poder calcular esta probabilidad necesitamos, obviamente, conocer todos los casos
posibles (requisito de exhaustividad), pero además debemos saber que todos esos casos
posibles tienen la misma probabilidad de salir (requisito de equiprobabilidad), vale decir,
debemos tener la suficiente seguridad de que ninguna cara tendrá mayor o menor
probabilidad de salir que otra cara cualquiera, como puede ocurrir, por ejemplo, con los
dados 'cargados'.
Una aclaración respecto de la expresión 'casos favorables'. Debemos evitar aqui la
connotación subjetiva del término. Un caso favorable es simplemente un caso del cual
queremos conocer la probabilidad de su ocurrencia. Puede incluso tratarse de un terremoto o
una enfermedad, aunque estos eventos no sean 'favorables' desde otro punto de vista más
subjetivo.
Respecto de la expresión 'casos equiprobables posibles', esta alude al hecho antes indicado
de que para calcular una probabilidad en sentido clásico, deben cumplirse los dos requisitos
de exhaustividad y equiprobabilidad.
Puede suceder, en efecto, que alguno de estos requisitos no se cumpla. 1) Exhaustividad:
Este requisito puede no cumplirse en dos casos. Primero, puede ocurrir que al arrojar un
dado, este quede parado en equilibrio sobre alguno de sus vértices o aristas. Como
posibilidad existe, pero es remotísima. Debido a que esta posibilidad es muy baja, a los
efectos prácticos la consideramos nula y seguimos aplicando la definición clásica de
probabilidad, como si todos los casos posibles fueran, como en el caso del dado, solamente
seis. Segundo, puede ocurrir que no sepamos cuántas caras tiene el dado (en la situación
anterior sí sabíamos esta cantidad, descartando las alternativas remotas), aún cuando
sepamos que todas tienen la misma probabilidad de salir. En este caso, al desconocer el
número de casos posibles, la definición clásica de probabilidad resulta inaplicable,
quedándonos la opción de aplicar la probabilidad frecuencial. 2) Equiprobabilidad: Este
requisito puede no cumplirse cuando el dado está 'cargado' lo que hace que, por ejemplo, el
tres tenga mayores probabilidades de salir que el cuatro. En este caso, podemos calcular la
probabilidad mediante la probabilidad frecuencial.
En síntesis hasta aquí: cuando ninguno de estos requisitos, o ambos, no pueden cumplirse,
nos queda aún la opción de calcular la probabilidad en forma empírica, lo que nos lleva al
tema de la llamada probabilidad frecuencial.
b) Probabilidad frecuencial.- Suele también denominarse probabilidad empírica o a posteriori,
y es definible como el cociente entre el números de casos favorables y el número de casos
observados. En un ejemplo, supongamos que no conocemos cuántas caras tiene un dado (es
decir desconocemos la cantidad de casos posibles), y queremos averiguar qué probabilidad
tiene de salir el uno. Obviamente no podemos decir 'un sexto' o 'uno sobre seis' porque no
sabemos cuántas caras tiene el dado. Para hacer este cálculo decidimos hacer un
experimento, y arrojamos un dado común de seis caras (aunque nosotros ignoramos este
detalle) por ejemplo diez veces, constatando que el uno salió cinco veces, cosa
perfectamente posible. Concluímos entonces que la probabilidad de obtener un uno es de
cinco sobre diez, es decir, de 0.5. Si tomamos al pie de la letra este valor, podríamos
concluír que el dado tiene... ¡2 caras!, cada una con la misma probabilidad de 0.5. Aplicando
la definición de probabilidad frecuencial, resulta:
p=
Casos favorables
5
-------------------------------- = 0.5
Casos observados 10
Otro ejemplo: supongamos que conocemos perfectamente que el dado tiene seis caras, pero
no sabemos si las probabilidades de salir son iguales o no para todas ellas, ya que
sospechamos que el dado puede estar 'cargado'. Para determinar la probabilidad de salir del
número uno hacemos el mismo experimento, dándonos un valor de 0.7. Este valor, si lo
tomamos al pie de la letra, nos haría pensar que el dado está preparado para que tenga
tendencia a salir el número uno, ya que su probabilidad de ocurrencia es bastante alta.
La probabilidad frecuencial se llama también 'a posteriori' debido a que 'sólo después' de
hacer nuestra observación o nuestro experimento podemos saber el valor de la probabilidad,
y no 'antes', como en el caso de la probabilidad clásica, donde 'antes' de arrojar el dado ya
sabemos que la probabilidad de cada cara es de 0.1666.
La denominación 'frecuencial' alude al hecho de el cálculo de probabilidades se realiza en
base a la frecuencia con que sale una determinada cara o posibilidad, frecuencia que es
relativa porque la comparamos con la cantidad de casos observados. Por ejemplo, en nuestro
último ejemplo la frecuencia absoluta es 7, porque de 10 veces que arrojamos el dado, 7
veces salió el número deseado. En cambio la frecuencia relativa es 0.7, y resulta de dividir la
frecuencia absoluta por el número de casos observados.
c) La ley de los grandes números.- También llamada principio de la estabilidad de la
frecuencia relativa, nos permite unificar conceptualmente los dos tipos de probabilidad recién
examinados, y puede expresarse de la siguiente manera: a medida que aumenta la cantidad
de ensayos, el valor de la probabilidad empírica obtenido se va aproximando cada vez más al
valor de la probabilidad teórica.
Ley de los Grandes Números
Cantidad de ensayos
arrojando una moneda
una vez
2 veces
3 veces
4 veces
10 veces
100 veces
1000 veces
1000000 veces
Probabilidad teórica de
salir cara
0.5
0.5
0.5
0.5
0.5
0.5
0.5
0.5
Probabilidad empírica obtenida
para cara
0
0.5
0.3333
0.25
0.3
0.4
0.45
0.4999999999999
Siguiendo el esquema adjunto, si arrojamos una moneda por primera vez (primer ensayo), la
probabilidad teórica de salir cara es de 0.5, cosa que sabemos más allá de hacer o no esa
experiencia. Sin embargo, puede ocurrir que salga ceca, y entonces concluímos que la
probabilidad empírica es 0, pues no salió ninguna cara.
Al arrojar la moneda por segunda vez, la probabilidad teórica sigue siendo 0.5, ya que el
dado no tiene 'memoria': por más que haya salido cien veces cara, la 101° vez sigue
teniendo la misma probabilidad de salir cara. La probabilidad empírica, en cambio, nos da
por ejemplo también 0.5, porque la primera vez no salió cara pero la segunda sí, con lo cual
habrá salido cara la mitad de las veces, o sea hay una probabilidad de 0.5. Al tercer tiro
vuelve a aparecer ceca, con lo cual sobre tres tiros habrá salido sólo una cara (la segunda
vez), y entonces la probabilidad empírica es de un tercio (0.333).
Lo que dice la ley de los grandes números es que, si seguimos aumentando la cantidad de
tiros, el valor de la probabilidad empírica se irá aproximando cada vez más a la probabilidad
teórica de 0.5, es decir, se verifica una tendencia de la frecuencia relativa a estabilizarse en
dicho resultado, y por ello esta ley se llama también principio de la estabilidad de la
frecuencia relativa.
La probabilidad (p) varía entre 0 y 1
Imposible
0
0
Probabilidad de
extraer un as de
espadas de un
mazo de cartas
francesas
Grados intermedios de probabilidad
0.25
0.50
0.75
1/4
1/2
3/4
Probabilidad de
Probabilidad de
Probabilidad de
extraer un naipe obtener cara
extraer una
de copas de un
arrojando una
bolilla roja de
mazo de cartas
moneda
una caja donde
españolas
hay 3 rojas y
una blanca
Seguro
1
1
Probabilidad de
extraer una
bolilla roja de un
bolillero de
bolillas rojas
3. Algunas aplicaciones del concepto de probabilidad.- La teoría de las probabilidades,
importante rama de la matemática, ha permitido encarar la investigación de sistemas, tanto
cerrados como abiertos, bajo este relativamente nuevo enfoque. Ejemplos particularmente
representativos aparecen en la termodinámica y en la teoría de la información.
a) Probabilidad en termodinámica.- La evolución de los sistemas cerrados o abiertos puede
medirse según varios parámetros, como por ejemplo el grado de entropía o desorden, pero
también según el grado de probabilidad que pueden alcanzar cuando evolucionan hacia
estados de equilibrio (como en el sistema cerrado) o hacia estados uniformes (como en el
sistema abierto). Así, se dice que la tendencia general de los procesos físicos entendidos
como sistemas cerrados apunta a la entropía creciente o estados de creciente probabilidad,
mientras que los sistemas abiertos, como por ejemplo los sistemas vivos, consiguen
mantenerse en un estado de mínima entropía, es decir, en un estado de alta improbabilidad
estadística.
b) Probabilidad en Teoría de la Información.- En la Teoría de la Información se emplea tanto
la probabilidad clásica como la probabilidad frecuencial. Es posible ilustrar esta cuestión con
el siguiente ejemplo (Lichtenthal, 1970): Un forastero llega a un pueblo y pregunta:
"¿Lloverá esta tarde?", a lo cual un vecino contesta "sí". Esta respuesta ¿provee mucha
información o poca información? Todo depende de quien la reciba.
a) Si la respuesta la recibe el mismo forastero, el "Sí" implica bastante información, porque
desconoce el clima del pueblo. El "Sí" encierra para él tanta información como el "No",
porque, al no conocer el clima habitual de la zona, para él ambas respuestas son igualmente
probables (equiprobabilidad), y por consiguiente evalúa la probabilidad de que llueva o no en
base a una probabilidad teórica o a priori.
b) Si la respuesta la escucha otro vecino, el "Sí" tiene un valor informativo prácticamente
nulo porque todos en el pueblo saben que casi siempre llueve por las tardes. No es ninguna
novedad el "Sí", es decir encierra poquísima información. En cambio si nuestro vecino
hubiese escuchado "No" se sorprendería mucho, y la cantidad de información es mucha. El
"Sí" y el "No" no son igualmente probables, cosa que el vecino descubrió por experiencia, por
haber vivido un tiempo en el pueblo (la probabilidad es, en este caso, frecuencial, y las
posibles alternativas no son equiprobables).
Los ejemplos vienen a destacar una idea muy importante que vincula información con
probabilidad, y que es la siguiente: el contenido informativo de un mensaje está íntimamente
ligado a su improbabilidad o 'valor sorpresa'. Por ejemplo, cuando más nos 'sorprende' la
respuesta, o cuando más 'improbable' o 'inesperada' la juzgamos, más información encierra.
De aquí una importante definición de información, como aquello que hace disminuír la
incertidumbre del receptor. Si al vecino le dicen que "sí lloverá en este pueblo esta tarde"
esto no es sorpresa para él, no reduce su incertidumbre y, por consiguiente, apenas si
contiene información.
4. Vocabulario.- La teoría de la probabilidad utiliza cierta terminología técnica. Algunos de los
principales términos son los siguientes:
Espacio muestral: es el conjunto S de todos los resultados posibles de un experimento dado.
Por ejemplo, los resultados posibles del experimento de arrojar un dado son 1, 2, 3, 4, 5 y 6.
Muestra: es un resultado particular, o sea, un elemento de S. Por ejemplo, arrojar un dado y
obtener 4.
Evento: Un evento A es un conjunto de resultados, o sea, un subconjunto de S. Por ejemplo,
un evento puede ser arrojar dos veces un dado obteniéndose por ejemplo un 4 y un 3. Si el
evento tiene una sola muestra, se llama evento elemental.
El conjunto S o espacio muestral es de por sí un evento (en este caso se lo llama cierto o
seguro, pues es seguro que arrojando un dado se obtendrá 1, 2, 3, 4, 5 o 6), mientras que
también se considera evento al conjunto vacío (se lo llama imposible: no es posible que no
salga ningún número).
Se pueden combinar eventos entre sí para formar nuevos eventos, por ejemplo:
A unión B es el evento que sucede si y sólo si A o B o ambos suceden.
A intersección B es el evento que sucede si y sólo si A y B suceden simultáneamente.
A complemento de A‟ es el evento que sucede si y sólo si A no sucede. Dos eventos son
mutuamente excluyentes cuando no pueden suceder simultáneamente.
Espacio finito de probabilidad: se obtiene al asignar a cada muestra de un espacio muestral
finito una determinada probabilidad de ocurrencia en forma de número real. La probabilidad
de un evento es igual a la suma de las probabilidades de sus muestras. Si en un espacio
finito de probabilidad cada muestra tiene la misma probabilidad de ocurrir, se llamará
espacio equiprobable o uniforme. Existen también espacios muestrales infinitos.
3.2 DEFINICIÓN Y CARACTERÍSTICAS DE LA CURVA NORMAL
Si se tomaran nueve personas al azar para medir la variable frecuencia cardíaca, podrían
obtenerse, por ejemplo, los siguientes resultados: tres personas con 62, cinco personas con
70 y una persona con 84 pulsaciones por minuto. Representando visualmente esta situación
mediante un polígono de frecuencias, se obtiene el gráfico 1.
Si se registrara la frecuencia cardíaca de 80 personas más, probablemente se obtendría
resultados similares al polígono de frecuencias del gráfico 2. Finalmente, si se consideraran
infinito número de personas, la representación visual se asemejaría al gráfico 3, denominado
curva normal, curva de Gauss o campana de Gauss (por su forma acampanada).
Como puede apreciarse, ciertas variables continuas como la frecuencia cardíaca, la glucemia,
la estatura, el peso, la agudeza visual, el cociente intelectual, y otras, tiende a adoptar la
forma de una curva normal a medida que aumenta la cantidad de casos observados (3).
Aunque esta curva es una idealización, porque no pueden medirse infinitos casos, tiene,
como se verá, su utilidad, aún cuando las variables que se estudian desde este modelo no
siguen estrictamente la distribución de la curva normal. Pruebas como por ejemplo el chi
cuadrado permiten determinar si una distribución es lo suficientemente parecida a una
distribución normal como para poder aceptar el modelo de la curva normal para estudiarla.
De hecho, muchas variables tienen distribuciones lo suficientemente similares a una
distribución normal como para tratarlas como tales sin cometer grandes errores.
En relación con estas cuestiones, conviene recordar aquí el teorema del límite central, que
dice que cualquiera sea la población de donde se tome una muestra, la distribución de los
valores de la muestra se aproximan o asemejan cada vez más a una distribución normal a
medida que el tamaño n de la muestra aumenta. En la práctica se consideran normales a las
muestras cuyo tamaño es igual o superior a 30.
f
Gráfico 1
Gráfico 2
Gráfico 3
5
3
1
62
70
84
70
La curva normal tiene entonces algunas características que son las siguientes:
a) Es la idealización de un polígono de frecuencias con tendencia central para una gran
cantidad de casos. Por esta razón tiene la apariencia de una curva y no de una línea
quebrada, ya que el polígono de frecuencias tiene infinito número de lados.
b) Tiene forma de campana: no tiene otras formas similares como puede ser la forma de
herradura o la forma de una campana invertida.
x
c) Es simétrica respecto de un eje vertical, lo que las diferencia de otras curvas como por
ejemplo la hipérbole equilátera. La simetría de la curva normal implica que la media
aritmética, la mediana y el modo coinciden en el punto central. Consecuentemente, la curva
normal es unimodal (en cambio, una campana invertida podría ser bimodal). También
implica que la distancia del cuartil 1 al cuartil 2 es igual a la distancia entre el cuartil 2 y el
cuartil 3.
d) Es asintótica respecto del eje x. Esto significa que la curva y el eje de las absisas se
cortan en el infinito, lo cual implica que cualquier valor de x tiene potencialmente alguna
frecuencia, y ninguna frecuencia igual a 0.
e) La curva normal puede adoptar diferentes formas: mesocúrtica, platicúrtica o leptocúrtica.
f) Los puntos de inflexión (donde la curva cambia de cóncava a convexa y viceversa) se
encuentran en los puntos correspondientes a la media aritmética más/menos un desvío
estándar.
g) Hay muchas posibilidades de curvas normales, dependiendo de cuáles sean los valores de
las medias aritméticas y los desvíos estándar. La más importante es aquella que tiene como
media aritmética 0 (cero) y como desvío estándar 1 (la unidad). En este caso, la curva
normal se designa como distribución o curva normal estándar o estandarizada.
h) Está comprobado que en una curva normal, y siempre idealmente, alrededor de un 68%
de los casos posibles están comprendidos entre menos un desvío estándar y más un desvío
estándar
alrededor de un 95% están comprendidos entre menos 2 y más dos desvíos
estándar
y alrededor de un 99% están comprendidos entre menos tres y más tres
desvíos estándar
según lo ilustra el siguiente esquema:
Esto significa por ejemplo que una persona tiene una probabilidad del 68% de tener una
frecuencia cardíaca comprendida entre menos un desvío estándar y más un desvío estándar.
Si la media aritmética de esta distribución fuera 80 pulsaciones por minuto y el desvío
estándar fuera de 10 pulsaciones por minuto, entonces la frecuencia cardíaca de una persona
cualquiera tendría un 68% de probabilidades de valer entre 70 y 90 pulsaciones por minuto.
Siguiendo el mismo criterio, también puede calcularse la probabilidad de aparición de un
valor comprendido entre menos tres desvíos estándar y la media aritmética (99% dividido
2), la probabilidad de aparición de un valor comprendido entre menos dos desvíos estándar y
la media aritmética (95% dividido 2), la probabilidad de aparición de un valor comprendido
entre menos un desvío estándar y más dos desvíos estándar (68% dividido 2, más 95%
dividido 2), y la probabilidad de obtener cualquier otro valor intermedio (como el
comprendido entre -1.27 desvíos y +2.56 desvíos), para lo cual se habrá de consultar una
tabla especialmente confeccionada para tal efecto.
3.3 PUNTAJES BRUTOS Y PUNTAJES ESTANDARIZADOS
Antes de hacer referencia a las utilidades prácticas de la curva normal, convendrá aclarar
algunos conceptos tales como los de puntaje bruto y puntaje estandarizado.
Para designar los diferentes valores que asume una variable para una determinada unidad de
análisis, en estadística descriptiva suele emplearse la expresión „dato‟. Por ejemplo, un dato
puede ser “Juan mide 1.70 metros”. Muchos datos, sin embargo, se distribuyen de acuerdo a
una curva normal, y esta clase de datos suelen ser típicamente puntuaciones o puntajes de
tests o pruebas de evaluación. Por ejemplo, “Juan obtuvo 90 puntos en el test de inteligencia
de Weschler”, o “Pedro obtuvo 7 puntos en el examen de geografía”. Esta es la razón por la
cual, en lo que sigue se utilizará la expresión puntaje en lugar de „dato‟, pero debe tenerse
presente que todo puntaje es, siempre, un dato.
Se llama puntaje bruto, directo u original al puntaje obtenido por un sujeto en una prueba.
Por ejemplo, podría resultar de la suma de respuestas correctas, valiendo cada una de ellas
un punto (Kohan, 1994:138).
Los puntajes brutos presentan sin embargo algunos inconvenientes. Por ejemplo: a) Si una
persona obtuvo 4 puntos en una prueba académica, podemos suponer que obtuvo un bajo
puntaje porque lo comparamos con el puntaje máximo, que es 10. Sin embargo, no nos sirve
para comparar a esa persona con el resto de la población, ya que si los demás alumnos
obtuvieron en promedio 2 puntos, la calificación 4 será, entonces, alta. b) Si una persona
obtuvo 8 puntos en geografía y 5 puntos en matemáticas, podemos suponer que obtuvo más
puntaje en geografía. Sin embargo, esta suposición es errónea si resulta ser que el puntaje
máximo en geografía es 20 y el puntaje máximo en matemáticas es 6, en cuyo caso habrá
obtenido mayor puntaje en matemáticas.
Estas y otras dificultades pueden resolverse transformando los puntajes brutos en otros
llamados puntajes estandarizados (o también puntajes transformados, porque resultan de
haber transformado los puntajes brutos). Estos puntajes estandarizados permitirán, por
ejemplo, comparar el puntaje de un sujeto con toda la población, o bien comparar dos
puntajes de pruebas con diferentes sistemas de evaluación (1).
Los puntajes estandarizados pueden ser lineales o no lineales, según que resulten de
transformaciones lineales o no lineales (Kohan, 1994:138). En el primer caso existe una
proporcionalidad entre los puntajes brutos y sus correspondientes puntajes estandarizados,
ya que la transformación opera según una ecuación lineal o ecuación de primer grado y, por
tanto, no „deforma‟ la distribución de los puntajes brutos.
En lo que sigue se describen sucintamente tres ejemplos de puntajes estandarizados de uso
frecuente: los puntajes estandarizados z (puntaje reducido), Z (puntaje derivado) y P
(puntaje percentil).
El puntaje reducido z es “un dato transformado que designa a cuántas unidades de desvíos
estándar por arriba o por debajo de la media se encuentra un dato en bruto” (Pagano,
1998:84). Para transformar un dato en bruto x en un puntaje z se utiliza la fórmula: z = (x X) / s.
Pueden destacarse tres características de los puntajes z (Pagano, 1998:86-87): a) tienen la
misma forma que el conjunto de datos en bruto; b) la media de los puntajes z es siempre
igual a cero; y c) el desvío estándar de los puntajes z es siempre igual a 1.
El puntaje derivado Z (también llamado a veces puntaje derivado T) tiene la ventaja sobre
el puntaje reducido z que no tiene valores negativos y que pueden despreciarse los
decimales por ser una cantidad pequeña (Kohan, 1994:141). Para transformar un puntaje
reducido z en un puntaje derivado Z se utiliza la fórmula: Z = (z.10) + 50, ya que este
puntaje derivado considera la media aritmética como 50 y el desvío estándar como 10.
Existen otras modalidades de puntajes derivados (Botella: 1993:161). Uno muy conocido en
psicología es el llamado cociente intelectual o CI, que considera como media aritmética a 100
y como desvío estándar a 15.
El puntaje percentil P es un puntaje no lineal y es también de uso frecuente por su
facilidad de comprensión, aunque tenga el inconveniente de que su distribución toma una
forma que no responde a la realidad de las funciones psicológicas. Para transformar un
puntaje z en un puntaje percentil hay que recurrir a una tabla especial, que se describe más
adelante.
Como se puede apreciar en el esquema siguiente, el puntaje percentil P no es proporcional al
resto de los puntajes, pero si lo es respecto de las áreas cubiertas bajo la curva normal,
áreas que a su vez indican la probabilidad de ocurrencia de un puntaje cualquiera. En efecto,
puede verse que los puntajes percentiles P están concentrados en aquellos lugares donde el
área bajo la curva es mayor y, además, cuanto mayor es esta área mayor será el percentil
correspondiente.
Las correspondencias entre los diferentes puntajes pueden visualizarse mediante el siguiente
esquema (2):
Equivalencias de puntajes brutos y estandarizados
X = media aritmética
s = desvío estándar
x = puntaje bruto
z = puntaje reducido
Z = puntaje derivado
P = percentil
f (frecuencia)
50% del área
probabilidad = 0.5
50% del área
probabilidad = 0.5
x
-3s
-2s
-1s
X
+1s
+2s
+3s
-2
-1
0
+1
+2
+3
+4
+5
90
100
-5
-4
-3
0
10
20
30
40
50
60
70
80
P0
P2
P16
P50
P84
P98
P100
z
Z
P
Así por ejemplo, puede apreciarse que un puntaje bruto correspondiente a más un desvío
estándar corresponde a un puntaje reducido z de +1, a un puntaje derivado Z de 60, y a un
percentil de 84.
Especialmente cuando se trata de averiguar valores intermedios (por ejemplo el puntaje
bruto correspondiente a más 1.62 desvíos estándar) debe recurrirse al empleo de fórmulas y
tablas. El siguiente esquema indica la forma de hacerlo:
Reglas de transformación de puntajes (de utilidad para resolver aplicaciones prácticas de la
curva normal)
PUNTAJE
BRUTO (x)
z = (x - X) / s
Tabla: entrar
por z
PUNTAJE
REDUCIDO (z)
x = (z.s) + X
AREA EXPRESADA
COMO PROBABILIDAD
(p)
Tabla: entrar
por p
Z = (z.10) + 50
z = (Z-50) / 10
PUNTAJE
DERIVADO (Z)
Multiplicar
por 100
AREA EXPRESADA
COMO PORCENTAJE (%)
m%
m = un número cualquiera entre 0 y 100
Dividir
por 100
Pm
Pm
PERCENTIL (P)
En este esquema, las flechas más gruesas indican los procedimientos habituales en las
aplicaciones prácticas de la curva normal, mientras que aquellas y las flechas más finas
indican mas bien los procedimientos que se piden en ejercitaciones en cursos de estadística.
3.4 APLICACIONES DE LA CURVA NORMAL
El modelo matemático de la curva normal tiene varias aplicaciones prácticas, como por
ejemplo en psicología y ciencias de la educación. Pagano (1998:81) invoca tres razones
principales que explican su importancia en estas disciplinas: 1) Muchas variables psicológicas
tienen distribuciones muy semejantes a la curva normal, tales como altura, peso e
inteligencia. 2) Muchas pruebas de inferencia empleadas para analizar experimentos tienen
distribuciones muestrales que poseen una distribución muestral al aumentar el tamaño de la
muestra. 3) Muchas pruebas de inferencia requieren distribuciones muestrales que se
asemejen a la curva normal, como la prueba z, la prueba „t‟ de Student o la prueba F.
Consiguientemente, gran parte de la importancia de la curva normal aparece conjuntamente
con la estadística inferencial.
En lo que sigue se suministran algunos ejemplos de aplicaciones prácticas de la curva normal
con puntajes estandarizados. En primer lugar se expone un problema típico y la forma de
resolverlo teniendo en cuenta las reglas de transformación de puntajes (ver esquema
anterior). En segundo lugar, se presentan algunas variantes posibles dentro del problema
típico u otros.
Problema típico.- La variable „peso‟ en una población de mujeres adultas tiene una
distribución aproximadamente normal, con una media aritmética (X) de 60 kg y un desvío
estándar (s) de 6 kg. Calcular la probabilidad de que una mujer adulta de esa población
tomada al azar tenga un peso mayor a 68 kg.
Resolución del problema típico.- Cuando el enunciado del problema afirma que la variable
tiene una distribución aproximadamente normal, ello significa que puede ser resuelto
recurriendo al modelo de la curva normal. A partir de aquí, los pasos para resolverlo son los
siguientes:
m%
a) Lo primero que debe especificarse son los datos y las incógnitas. Los datos son tres: la
media aritmética (60 kg), el desvío estándar (6 kg), y finalmente un valor de la variable a
partir del cual debe estimarse su probabilidad (68 kg). En símbolos:
X = 60 kg
s = 6 kg
x = 68 kg
En este caso el problema solicita resolver una sola incógnita: la probabilidad de que una
persona tomada al azar tenga más de 68 kg (también podría haber solicitado averiguar la
probabilidad de que tenga menos de 50 kg, o la probabilidad de que tenga entre 40 y 60 kg).
En símbolos:
p
68 kg > x
b) Antes de seguir adelante, siempre convendrá trazar la curva normal y especificar la
información revelante para resolver el problema. En este caso es:
Según el esquema de reglas de transformación de puntajes, si a partir de un valor dado de x
(68 kg) se quiere calcular su probabilidad p, antes deberá transformarse el valor x a un
puntaje reducido z, el cual constituye una incógnita (?) que deberá resolverse.
Asimismo se raya el área bajo la curva que se extiende desde 68 hacia la derecha, porque es
esa probabilidad (proporcional al área rayada) la que debe averiguarse (es decir, 68 o más).
c) Se aplica la fórmula de transformación del puntaje x en puntaje z:
z = (x - X) / s
z = (68 – 60) / 6 = 1.33
d) Se recurre a la Tabla de áreas bajo la curva normal estandarizada para hallar la
probabilidad p a partir de z = 1.33. Para ello, puede utilizarse indistintamente la Tabla 1 o la
Tabla 2 (ver Anexo).
Se utilizará la Tabla 1, donde puede verse que a un valor z = 1.33 corresponde una
probabilidad p = 0.9082.
e) Sin embargo, esta tabla indica la probabilidad de z o menos, es decir, la zona rayada
hacia la izquierda de z.
Por lo tanto, como lo que interesa es la probabilidad de un valor de z o mayor, se restará al
valor p = 1 (el total del área bajo la curva) el valor p = 0.9082. En símbolos:
Area total
1.0000
Menos área hacia la izquierda 0.9082
Area hacia la derecha
0.0918
Por lo tanto, la probabilidad de que una mujer adulta pese más de 68 kg es de p = 0.0918.
Traduciendo la probabilidad a porcentajes, puede decirse que existe un 9.18% de
probabilidades de que la mujer pese 68 kg o más. De idéntica manera, puede decirse que el
percentil P que ocupa una mujer adulta de 68 kg es, siguiendo las pautas del esquema de
reglas de transformación de puntajes: P91 (calculado y redondeado a partir de p = 0.9082),
lo cual significa que una mujer que pese 68 kg tiene „por debajo‟ aproximadamente un 91%
de personas que pesan menos que ella.
Algunas variantes posibles.- Los siguientes ocho casos ilustran algunos ejemplos de
problemas que pueden resolverse mediante la curva normal y los puntajes estandarizados. El
problema típico examinado precedentemente encuadra en el caso 4.
En todos estos casos se trata de calcular la probabilidad de ocurrencia de un valor
comprendido bajo el área rayada de la curva ya que la probabilidad de ocurrencia del valor
es proporcional al área respectiva. Como se verá, en algunos casos conviene más utilizar la
Tabla 1 y en otros las Tabla 2 (ver Anexo).
CASO 1
CASO 2
CASO 3
CASO 4
CASO 5
CASO 6
CASO 7
CASO 8
Caso 1.- Aquí se trata de averiguar la probabilidad p de que un valor cualquiera de la
población corresponda a z = +1.5. Para este caso convendrá utilizar la tabla 1, donde
primero se busca el valor +1.5 en la primera columna, y luego se busca su valor de
probabilidad, que es p = 0.9332. Nota: si el valor de z hubiese sido +1.56, se busca primero
z = 1.5 y luego se busca, en la primera hilera, el valor 0.06 (ya que 1.5 + 0.06 = 1.56). En
el entrecruzamiento de 1.5 y 0.06 encontraremos, finalmente, el valor de la probabilidad p =
0.9406.
Caso 2.- En este caso se procede de manera similar que en el caso anterior.
Caso 3.- Aquí se trata de averiguar la probabilidad de que un valor z valga -2 o más. Esta
situación exige dos pasos. El primer paso es idéntico al caso 1. Sin embargo, este primer
paso calcula la probabilidad de z hacia la izquierda, y lo que se necesita saber es la
probabilidad de z hacia la derecha (zona rayada). Como se sabe que la totalidad del área
bajo la curva vale 1, para averiguar la zona hacia la derecha bastará con restar 1 de la
probabilidad de la zona hacia la izquierda. En esto consiste el segundo y último paso.
Caso 4.- Aquí debe averiguarse la probabilidad de que un valor z valga 1.5 o más. La opción
más sencilla es aquí emplear la Tabla1, con la cual se calcula la probabilidad correspondiente
a z = +1.5, que es p = 0.9332. Esta probabilidad corresponde a la zona rayada desde z
hacia la izquierda, pero como debe averiguarse la probabilidad de z hacia la derecha, deberá
restarse 1 menos 0.9332.
Caso 5.- Aquí debe averiguarse la probabilidad de que un valor z esté comprendido entre 2.5 y +1.5. Una forma sencilla de resolver este problema es dividiendo el área rayada en
dos: una desde la mitad hacia la izquierda (0 a -2.5) y otra desde la mitad hacia la derecha
(0 a +1.5). Se calcula luego la probabilidad de cada área recurriendo a la Tabla 2, y
finalmente se suman ambas probabilidades. Nota: para el cálculo de la zona rayada de la
mitad hacia la izquierda se buscará en la Tabla 2 el valor z = +2.5, porque es igual al valor z
= -2.5 (por ser la curva normal simétrica).
Caso 6.- Este caso es tan sencillo que no requiere el uso de tablas. La probabilidad de la
zona rayada es p = 0.5 porque corresponde exactamente a la mitad de toda el área bajo la
curva, cuya p es igual a 1 (p = 1 equivale a la certeza).
Caso 7.- Aquí debe calcularse la probabilidad de que un valor z esté comprendido entre -2 y
-1. En este caso, en lugar de sumar áreas como en el caso 5, deberán restarse áreas.
Recurriendo a la Tabla 1, se calcula primero la probabilidad correspondiente a z = -1 (que es
p = 0.1587) y luego la probabilidad de z = -2 (que es p = 0.0228). La probabilidad
resultante será p = 0.1587 – 0.0228 = 0.1359.
Caso 8.- Aquí debe calcularse la probabilidad de que un valor z esté comprendido entre +1 y
+2. Se puede proceder de la misma forma que en el caso 7, es decir, restando las
probabilidades correspondientes a z = +2 y z = +1.
NOTAS
(1) Botella (1993:153) refiere que los puntajes estandarizados son útiles en los siguientes casos: a) al
hacer comparaciones entre unidades de distintos grupos: se pueden comparar, mediante puntuaciones
estandarizadas, distintas observaciones de un mismo sujeto o de sujetos diferentes; b) al hacer
comparaciones entre variables medidas de distinta forma, debido a que los puntajes estandarizados son
adimensionales. Por ejemplo, comparar una altura expresada en centímetros con otra expresada en
metros; y c) al comparar observaciones de distintas variables: por ejemplo, comparar la altura y el peso
de un sujeto.
(2) En el esquema puede apreciarse que z contempla valores que se extienden a -5 o +5.desvíos
estándar. En la práctica, sin embargo, se consideran solamente valores entre -3 y +3 por razones
prácticas. En efecto, los valores superiores a +3 o menores a -3 cubren áreas muy pequeñas bajo la
curva, es decir, la probabilidad de ocurrencia de puntajes mayores que +3 o menores que -3 son muy
improbables, estando muy alejados de la media aritmética.
(3) Hay muchas formas en que los datos pueden distribuirse, y en todos esos casos existe cierta
regularidad en los mismos. Por ejemplo, hay una tendencia a que la mitad de las veces salga cara
arrojando una moneda, y también hay una tendencia a que la mitad de las veces se opte por un
producto A y no uno B (suponiendo que lo hay ninguna razón para elegir uno u otro). Estos hechos
sugieren que los datos de una manera regular, y los estadísticos propusieron diversos modelos de
distribución, uno para cada forma regular de distribución de datos, como por ejemplo el modelo
Bernouilli o el modelo binomial.
La noción de permanencia estadística (Vessereau A, 1962:15) hace referencia a ciertas uniformidades en
los datos de la realidad. Por ejemplo: a) la cantidad de varones y la de mujeres tiende a ser
aproximadamente igual; b) el tamaño de las galletitas que fabrica una máquina tiende a ser
aproximadamente igual; c) la proporción entre granos esféricos de arvejas y granos arrugados de
arvejas tiende a ser del 75% y del 25% aproximadamente, o sea, siempre tiende a encontrarse
aproximadamente 75 granos esféricos cada 100, y 25 granos arrugados cada 100; d) la estatura de las
personas tienden siempre a estar alrededor de un valor medio, siendo frecuente encontrar estaturas de
1.70 metros pero raro encontrar estaturas de 2 metros.
Estas uniformidades sugieren la presencia de leyes que rigen la forma en que se distribuyen los datos.
Como hay muchas formas en que los datos pueden distribuirse, también habrá muchas leyes que
describen dichas distribuciones. Entre las más conocidas (Vessereau A, 1962:16-24) se cuentan la ley
binomial, la ley de Laplace-Gauss y la ley de Poisson. Por ejemplo, la ley de Laplace-Gauss describe las
distribuciones que siguen una curva normal: “cuando una magnitud recibe la influencia de una gran
cantidad de causas de variación, y estas son todas muy pequeñas e independientes unas de otras, se
demuestra que los valores individuales de las mediciones se distribuyen respondiendo a la ley de
Laplace-Gauss” (Vessereau A, 1962:20).
Otros autores consideran fundamentales a las distribuciones normal, binomial y de Student, y hacen
referencia a otras, como la distribución „chi cuadrado‟ (x2) que, a diferencia de la primeras, no es
paramétrica, es decir, no requiere supuestos tan rigurosos acerca de la población, como por ejemplo de
que esta se distribuya normalmente (Kohan N, 1994:191).
Hay otras leyes que tienen alcance más general, como por ejemplo la ley de distribución de las medias
(Vessereau A, 1962:24) que establece que, cualquiera que sea la distribución (binomial, gaussiana, etc),
el desvío estándar de las medias aritméticas de todas las muestras posibles de n elementos disminuye
inversamente a la raíz cuadrada de n. Esto significa que cuanto más grandes sean las muestras, menos
desviación o dispersión habrá entre sus medias aritméticas.
CAPÍTULO 4: CORRELACION Y REGRESION
4.1 INTRODUCCIÓN
El análisis de correlación permite averiguar el tipo y el grado de asociación estadística entre
dos o más variables, mientras que el análisis de regresión permite hacer predicciones sobre
la base de la correlación detectada.
Más concretamente, una vez realizado el análisis de correlación, pueden obtenerse dos
resultados: que haya correlación o que no la haya. Si hay correlación, entonces se emprende
un análisis de regresión, consistente en predecir cómo seguirán variando esas variables
según nuevos valores.
Por ejemplo, si sobre la base de haber examinado a 40 alumnos se concluye una alta
correlación en sus notas en ambos parciales, conociendo la nota del primer parcial de un
alumno número 41, podremos predecir con algún margen de seguridad cuánto se sacará
este alumno en el segundo parcial.
En general el análisis de correlación se realiza conjuntamente con el análisis de regresión.
Mientras el análisis de correlación busca asociaciones, el análisis de regresión busca
predicciones, es decir, predecir el comportamiento de una variable a partir del
comportamiento de la otra.
Así, la correlación y la regresión están íntimamente ligadas. En el nivel más sencillo, ambas
implican la relación entre dos variables y utilizan el mismo conjunto de datos básicos, pero
mientras la correlación tiene que ver con la magnitud y la dirección de la relación, la
regresión se centra en el uso de la relación para hacer una predicción. Esta última es sencilla
cuando la relación es perfecta, pero la situación es más compleja si la relación es imperfecta
(Pagano, 127).
La correlación es útil porque permite hacer predicciones, porque permite establecer
correlaciones (paso previo para la determinación de una conexión causal), y para realizar
pruebas de confiabilidad de instrumentos de medición como los tests (prueba test-retest)
(Pagano, 99).
Por último, vale la pena aclarar que en el contexto de un estudio científico, no basta con
determinar el grado de correlación entre dos variables en una muestra. Es necesario además
establecer, mediante una prueba de significación (por ejemplo la prueba „t‟), si la correlación
establecida en la muestra puede extenderse a toda la población con un determinado nivel de
confianza. Esta tarea corresponderá a la estadística inferencial.
Correlación lineal.- Las relaciones entre variables pueden ser de muchos tipos. a) Hay
relaciones deterministas que responden a modelos matemáticos teóricos, como por ejemplo
la relación entre la intensidad de una corriente y la resistencia del conductor, o bien, la
relación entre la factura de consumo de agua y el número de metros cúbicos consumidos.
Estas relaciones son habituales en ciencias exactas. b) Otras relaciones no son tan
deterministas, pero pueden eventualmente parecerse –sólo parecerse- a algún modelo
matemático teórico determinista, en cuyo caso se concluye que ese modelo explica bien la
relación, aunque no lo haga perfectamente. Estas relaciones son habituales en las ciencias
sociales (Botella, 1993:181).
Dentro de los muchos modelos teóricos a los cuales podría ajustarse una relación no
determinista se cuentan los modelos lineales, los modelos cuadráticos, los modelos cúbicos,
etc. El primero se representa mediante una recta, y los restantes mediante diversos tipos de
curva como parábolas e hipérbolas. El presente artículo hará referencia, por razones de
simplicidad, a las relaciones lineales y, por tanto, a la correlación lineal.
Correlación y causalidad.- El hecho de que dos variables estén correlacionadas, no significa
necesariamente que una sea la causa y la otra el efecto: la correlación no siempre significa
causalidad. Entre otras cosas, una alta correlación puede deberse a que ambas variables X e
Y dependen cada una independientemente de otra variable Z, y entonces, al variar Z hace
variar conjuntamente a X e Y, produciendo un efecto de alta correlación que puede dar la
apariencia de causalidad. Por dar un ejemplo: entre memoria visual (X) y memoria auditiva
(Y) puede haber una alta correlación, pero ello no significa que la memoria visual sea la
causa de la memoria auditiva, ya que ambas pueden estar dependiendo de otro factor Z más
general, llámese "memoria", o "cantidad de ARN".
Si realizar el análisis de correlación es algo relativamente fácil (se trata de recoger datos y
aplicar una fórmula), determinar el vínculo causal suele implicar un procedimiento más
laborioso, como por ejemplo la ejecución de un diseño experimental que implique la
comparación de dos grupos sometidos a condiciones diferentes y donde haya un control
sobre la influencia de variables extrañas.
El siguiente esquema permite visualizar algunos pasos posibles para llevar a cabo un análisis
de correlación seguido de un análisis de regresión. El esquema sintetiza, al mismo tiempo,
los temas a tratar en el presente artículo.
Si las variables son…
CUANTITATIVAS
Se calcula la correlación con
METODO ANALITICO
Coeficiente de
correlación de Pearson
CUALITATIVAS ORDINALES
Se calcula la correlación con
METODO GRAFICO
Diagrama de
dispersión
Se calcula la
regresión
(predicción) con
Para interpretar mejor este
coeficiente, se calcula el
coeficiente de determinación
METODO ANALITICO
Coeficiente de correlación por
rangos de Spearman
METODO ANALITICO
Método de los cuadrados
mínimos
METODO GRAFICO
Recta de regresión
4.2 EL ANÁLISIS DE CORRELACIÓN
“Juan se sacó una buena nota en el primer parcial, y por lo tanto es bastante probable que
también saque buena nota en el segundo parcial”. “Esta persona tiene más edad y por lo
tanto es más probable que le falte alguna pieza dentaria”. Abundan esta clase de
razonamientos en la vida cotidiana, que suelen aceptarse sin demasiada crítica.
Sin embargo, en un estudio científico es habitual que estas hipótesis deban ser comprobadas
más allá de las certidumbres subjetivas. Para constatar si hay realmente asociación entre
dos o más variables cualesquiera, se emplea una herramienta denominada „análisis de
correlación‟, que también evalúa el grado o intensidad en que dichas variables están
asociadas. Se examina aquí el caso más sencillo (dos variables), que se estudia dentro de la
estadística bivariada.
En el siguiente ejemplo se exponen tres posibles distribuciones de frecuencias bivariadas (1)
referidas a las primeras y segundas notas de exámenes parciales.
Alumno
A
B
C
D
E
Tabla
X
3
4
6
6
8
1
Y
2
5
5
6
6
Tabla
X
3
4
6
6
8
2
Y
3
4
6
6
8
Tabla 3
X
Y
3
2
4
3
6
5
6
5
8
7
F
G
9
10
9
9
9
10
9
10
9
10
8
9
X = Nota del primer parcial
Y = Nota del segundo parcial
En la Tabla 1 se han consignado las notas de los parciales de un grupo de 7 alumnos
ordenadas en forma creciente.
Un somero examen visual de la tabla revela que hay bastante asociación entre las variables
X e Y: quienes sacaron buena nota en el primer parcial tienden a sacar buena nota en el
segundo, y lo mismo para quienes sacaron bajas notas, con lo cual ambas variables tienden
a variar concomitantemente o conjuntamente.
Sin embargo, debe tenerse presente que la asociación o correlación entre ambas variables
no depende de la similitud entre X y Y, sino de la similitud de sus modos de variación. Así, en
la Tabla 2 las notas de los primeros y segundos parciales de cada alumno son iguales, y en la
Tabla 3 la nota del segundo parcial es diferente, pero siempre menor en un punto. Sin
embargo, en ambas tablas la correlación es la misma.
El análisis de correlación busca establecer esencialmente tres cosas:
1) Presencia o ausencia de correlación.- Dadas dos o más variables, si existe o no correlación
entre ellas.
2) Tipo de correlación.- En caso de existir correlación, si esta correlación es directa o inversa.
En la correlación directa, ambas variables aumentan (o disminuyen) concomitantemente, y
en la correlación inversa ambas variables varían inversamente, o también puede decirse "en
relación inversamente proporcional", lo que significa que cuando una aumenta la otra
disminuye, o viceversa (2). En el siguiente esquema se muestran algunos ejemplos de
correlación directa e inversa.
Tipos de correlación
Tipo
Correlación
directa o
positiva
Definición
Ambas variables
aumentan (o
disminuyen) en
forma concomitante.
Correlación
inversa o
negativa
Una variable
aumenta y la otra
disminuye (o
viceversa) en forma
concomitante.
Ejemplos en psicología
Cociente intelectual/calificación: A mayor CI, mayor
calificación obtenida en el examen.
Tiempo/retención: A mayor tiempo para memorizar,
mayor cantidad de palabras retenidas.
Test laboral/rendimiento futuro: A mayor puntaje en un
test de aptitud técnica, mayor rendimiento en dicha
área dentro de x años (esto es también un modo de
estimar la validez predictiva de un test).
Edad/memoria: Al aumentar la edad, disminuye la
memoria.
Numero de ensayos/cantidad de errores: Al aumentar
el número de ensayos, disminuye la cantidad de
errores.
Cansancio/atención: Al aumentar el cansancio
disminuye la atención.
3) Grado de correlación.- El grado o „intensidad‟ de la correlación, es decir, „cuánta‟
correlación tienen en términos numéricos.
Para hacer todas estas averiguaciones, se puede recurrir a tres procedimientos.
a) El método tabular.- Una correlación podría constatarse con la simple visualización de
tablas de correlación como las indicadas anteriormente, pero habitualmente las cosas no son
tan fáciles, sobre todo porque hay bastante mayor cantidad de datos, y porque estos casi
nunca registran los mismos incrementos para ambas variables. Por lo tanto, debe
abandonarse la simple visualización de las tablas y utilizar procedimientos más confiables,
como los gráficos (diagramas de dispersión o dispersiogramas) y los analíticos (por ejemplo
el coeficiente de Pearson).
b) El método gráfico.- Consiste en trazar un diagrama de dispersión.
c) El método analítico.- Consiste en aplicar una fórmula que permita conocer no sólo el tipo
de correlación (directa o inversa) sino también una medida cuantitativa precisa del grado de
correlación. La fórmula del coeficiente de Pearson es un ejemplo típico para medir correlación
entre variables cuantitativas.
4.3 CÁLCULO GRÁFICO DE LA CORRELACIÓN
Un gráfico es mucho mejor que una tabla para apreciar rápidamente si hay o no correlación
entre variables. Existen varias maneras de graficar la correlación (3), pero aquí se describirá
el procedimiento clásico: el diagrama de dispersión. El diagrama de dispersión es
básicamente una „nube‟ de puntos, donde cada punto corresponde al entrecruzamiento de
cada par de valores de X e Y. Este diagrama puede realizarse independientemente del cálculo
analítico de la correlación.
Por ejemplo, el diagrama de dispersión correspondiente a la Tabla 1 se asemeja al diagrama
A del esquema de diagramas de dispersión.
A este diagrama se ha agregado „a ojo‟ una línea imaginaria, que viene a representar más o
menos el ordenamiento lineal de los puntos (que van desde abajo a la izquierda hacia arriba
a la derecha). El diagrama se llama 'de dispersión' porque muestra cuán dispersos (próximos
o alejados) están los puntos alrededor de dicha recta. Fácil es advertir que cuanto más
alineados estén, más correlación habrá. En el ejemplo A del esquema sobre diferentes
diagramas de dispersión, los puntos tienden a ubicarse en las proximidades de la recta
imaginaria, lo que indica que están poco dispersos. Si los puntos figurasen más alejados
habría más dispersión, y por lo tanto menor correlación entre X e Y.
El caso B muestra correlación inversa, pues el ordenamiento de los puntos indican que, a
medida que aumenta X, va disminuyendo Y. Así entonces, cuando la línea imaginaria va de
abajo a la izquierda hacia arriba a la derecha, hay correlación directa, y cuando va desde
arriba a la izquierda hacia abajo a la derecha hay correlación inversa. Dicho más
técnicamente, en el primer caso la recta tiene una inclinación o pendiente positiva, y en
segundo su pendiente es negativa.
El caso C revela, por su parte, que a medida que aumenta Y, los valores de X ni aumentan ni
disminuyen, permaneciendo fijos en el valor 5. Por lo tanto no hay correlación. En general no
la hay cuando una de las variables no varía (en este caso X permanece constante en el valor
5).
El caso D es similar al anterior: allí los valores de Y permanecen constantes en el número 4,
mientras va variando X. Tampoco hay correlación.
El caso E muestra un ejemplo donde varían ambas variables, pero sin embargo no hay
correlación. En esa nube es imposible trazar una línea imaginaria representativa de la
orientación de los puntos, simplemente porque no hay tal orientación lineal. Los valores que
van asumiendo las variables son en principio aleatorios (varían al azar). Tampoco hay
correlación.
El caso F nos muestra un caso de correlación perfecta o máxima (en este caso directa), pues
no hay dispersión de puntos alrededor de la línea imaginaria: todos están sobre ella. Estas
regularidades „perfectas‟ no suelen encontrarse fácilmente, ni menos aún en ciencias
sociales, porque los fenómenos obedecen siempre a muchas causas que estarán actuando
para romper la „armonía natural‟ entre X e Y.
También hay casos de correlación no lineal, donde en lugar de una recta imaginaria se traza
una curva. En este artículo se presentan solamente los casos más sencillos, es decir, los
casos de correlación lineal, representables mediante rectas.
Diferentes diagramas de dispersión
Y
Y
Y
10
9
8
7
6
5
4
3
2
1
0
10
9
8
7
6
5
4
3
2
1
0
10
9
8
7
6
5
4
3
2
1
0
0 1 2 3 4 5 6 7 8 9 10
X
0 1 2 3 4 5 6 7 8 9 10
A) Correlación directa
X
0 1 2 3 4 5 6 7 8 9 10
B) Correlación inversa
C) Sin correlación
Y
Y
Y
10
9
8
7
6
5
4
3
2
1
0
10
9
8
7
6
5
4
3
2
1
0
10
9
8
7
6
5
4
3
2
1
0
0 1 2 3 4 5 6 7 8 9 10
X
D) Sin correlación
0 1 2 3 4 5 6 7 8 9 10
E) Sin correlación
X
0 1 2 3 4 5 6 7 8 9 10
F) Correlación directa
perfecta
Si bien una „nube de puntos‟ puede dar una idea de si hay o no correlación, o de si es directa
o inversa, todavía no proporciona información sobre „cuanta‟ correlación hay. Esta
información se obtiene mediante un cálculo analítico.
4.4 CÁLCULO ANALÍTICO DE LA CORRELACIÓN
La correlación se calcula analíticamente mediante ciertos coeficientes, que serán distintos
según se trate de correlacionar variables nominales, ordinales o cuantitativas, y según se
trate de otras consideraciones varias.
Si bien existen muchos coeficientes de correlación (4), en lo que sigue se explicarán algunos
de los más utilizados: el coeficiente de correlación lineal de Pearson (para variables
cuantitativas), y el coeficiente de correlación por rangos de Spearman (para variables
cualitativas ordinales).
a) Coeficiente de correlación lineal de Pearson
Este coeficiente (que se designa con “r”), fue creado por Karl Pearson (1857-1936) para
relacionar variables cuantitativas (es decir, variables que, como “nota de examen”, se miden
mediante números).
El coeficiente de Pearson es un número comprendido entre -1 y +1, y que posee un
determinado signo (positivo o negativo). El valor numérico indica „cuanta‟ correlación hay,
mientras que el signo indica qué „tipo‟ de correlación es (directa si el signo es positivo,
inversa si es negativo). En el siguiente esquema se muestran algunos posibles valores de “r”.
Algunos valores del coeficiente de Pearson
X
X
Correlación inversa máxima (-1)
Baja correlación inversa (-0.15)
Correlación nula (0)
Alta correlación directa (+0.70)
Correlación directa máxima (+1)
Cuanto más cerca de cero esté el coeficiente de correlación obtenido, tanto menor
correlación habrá. Cabría preguntarse: ¿hasta qué valor se considera que hay correlación?
¿desde qué valor no la hay? Esto es una cuestión que depende de varias cosas, y hace a la
cuestión de la relatividad del coeficiente de Pearson.
En efecto, su interpretación depende de varios factores, como por ejemplo: a) la naturaleza
de las variables que se correlacionan; b) la significación del coeficiente; c) la variabilidad del
grupo; d) los coeficientes de confiabilidad de los tests; e) el propósito para el cual se calcula
r.
El valor r = 0,70 puede indicar alta correlación para cierto par de variables, pero baja
correlación para otras variables distintas. Otro ejemplo: un r de 0,30 entre estatura e
inteligencia o entre tamaño craneal y habilidad mecánica indicaría una correlación mas bien
alta, puesto que las correlaciones entre variables físicas y mentales suelen ser mucho más
bajas, a menudo iguales a cero. Otro ejemplo: un r de 0,30 entre inteligencia y nota de
examen, o entre puntaje en inglés y puntaje en historia es considerada bajísima, ya que los r
en estos campos suelen extenderse entre 0,40 y 0,60. Otro ejemplo: semejanzas entre
padres e hijos, en cuanto a rasgos físicos y mentales, se expresan por valores entre 0,35 y
0,55, y por lo tanto un r de 0,60 sería alto.
Respecto de la fórmula para calcular el coeficiente de correlación de Pearson ("r"), no hay
una única manera de presentarla, y la elección de una u otra dependerá de la forma de
presentación de los datos. Por ejemplo, si los datos están agrupados en una tabla de
frecuencias, se utiliza cierta fórmula (Bancroft, 1960:190), mientras que si los datos no
están agrupados en frecuencias, podrán utilizarse cualquiera de las fórmulas indicadas en el
siguiente esquema (5):
Fórmula 1
Fórmula 2
{ ( x – X) (y – Y) }
r = ± ------------------------------n x. y
{ ( x – X) (y – Y) }
r = ± ------------------------------2
2
( x – X) . (y – Y)
Se usa esta fórmula cuando dan como
datos las medias de X e Y y sus
respectivos desvíos estándar.
Fórmula 3
(El denominador debe elevarse a la raíz cuadrada).
Se usa esta fórmula cuando dan como datos las medias
aritméticas de X e Y.
Fórmula 4
(Z x . Zy)
r = ± --------------------n
n (x.y) – x . y
r = -----------------------------------------------n x2 – ( x)2 . n y2 – ( y)2
Se usa esta fórmula cuando dan como
datos los puntajes estandarizados Z.
(Ambos factores del denominador se elevan a la raíz cuadrada)
Se utiliza esta fórmula (llamada fórmula del producto momento)
cuando no se conocen ni medias aritméticas ni desvíos
estándar.
A continuación se suministra un ejemplo de cómo calcular el coeficiente "r" utilizando la
fórmula 2. Se trata de determinar el coeficiente de Pearson para dos variables X e Y (que
podrían ser por ejemplo las notas del primero y segundo parcial). También se pide
interpretar el resultado.
La tabla 1 son los datos dados, mientras que la tabla 2 es una ampliación que debe hacerse
para poder obtener más información y poder así aplicar la fórmula:
Tabla 1
Alumno
A
B
C
D
E
N=5 alumnos
X
4
5
7
9
10
35
Y
6
7
8
9
10
40
Tabla 2
x–X
-3
-2
0
2
3
0
y–Y
-2
-1
0
1
2
0
( x – X) (y – Y)
6
2
0
2
6
16
( x – X)
9
4
0
4
9
26
2
(y – Y)
1
1
0
1
1
10
2
X=7
Y=8
Con los datos obtenidos se aplica ahora la fórmula 2:
{ ( x – X) (y – Y) }
16
r = ± ---------------------------------------- = ----------------------- = +0.99
2
2
raíz de ( x – X) . (y – Y)
raíz de 26,10
Interpretando el resultado, se puede decir que la correlación obtenida es directa o positiva y
es además, muy alta.
Coeficientes derivados.- A partir del coeficiente "r" de Pearson (en cualquiera de sus formas)
se pueden derivar otros, según la información que se quiera obtener:
1) Coeficiente de determinación (r2): es el coeficiente "r" elevado al cuadrado. El coeficiente
de determinación indica qué porcentaje de la variación de Y está determinada por las
variaciones de X. Por ejemplo, para un "r" de 0,70, hay un coeficiente de determinación de
0,49, lo que significa que el 49% de la variación de Y está determinada por la variación de X.
2) Coeficiente de alienación (k): llamado también de no correlación, no indica la correlación
sino la falta de correlación entre dos variables (o grado de independencia). Para calcularlo se
aplica la fórmula siguiente:
r2 + k2 = 1 [1]
Por ejemplo, si sabemos que "r" es de 0,50, aplicando la fórmula indicada tenemos que "k"
vale 0,86, con lo cual el grado en que falta la correlación resulta ser mayor que el grado en
que sí hay correlación.
Idénticamente, si "r" vale 1 entonces "k" vale 0, y viceversa. Cuanto mayor es el coeficiente
de alienación tanto menor es la correlación, y por tanto menos confiables serán las
predicciones que -análisis de regresión mediante- se hagan sobre esa base.
3) Coeficiente de indeterminación (k2): es el coeficiente "k" pero elevado al cuadrado. Mide
el grado en que la variación de Y no está determinada por la variación de X. La fórmula del
coeficiente de indeterminación es deducible de la anterior [1].
4) Coeficiente de eficiencia predictiva (E): suele utilizarse para, sabiendo "r", estimar
rápidamente el poder predictivo de la correlación "r". Su fórmula es:
E = 100 . (1 - 1-r2) donde 1-r2 debe elevarse a la raíz cuadrada.
Por ejemplo si la correlación "r" es de 0,50, la eficiencia predictiva será del 13%. Pero
cuando "r" sube a 0,98, la eficiencia predictiva será del 80%. La correlación debe ser
entonces de 0.87 o más para que la eficiencia predictiva sea mayor al 50%.
Matriz de correlaciones.- En muchas investigaciones se estudian muchas variables, y se
intenta cuantificar mediante el coeficiente „r‟ sus relaciones dos a dos, es decir, las relaciones
de cada variable con cada una de las demás (Botella, 1993:202). A los efectos de comparar
estos diferentes valores de „r‟ se traza una matriz de correlación, que puede tener la
siguiente forma:
Variable X
Variable
Variable
Variable
Variable
X
Y
W
Z
Variable Y
r = -0.17
Variable W
r = -0.11
r = +0.46
Variable Z
r = -0.30
r = +0.17
r = +0.10
La matriz permite visualizar inmediatamente, entre otras cosas, cuáles son los coeficientes
de correlación más altos (en este caso, entre Y y W).
Nótese que no han sido llenados los casilleros donde se cruzan las mismas variables (por
ejemplo X con X), porque carece de sentido hacerlo y su correlación es siempre perfecta y
positiva (r = +1).
b) Coeficiente de correlación por rangos de Spearman
Se trata de un coeficiente de correlación utilizado para estudiar la asociación entre dos
variables ordinales. Se representa con la letra griega „rho‟, y sus fórmulas son las siguientes:
Fórmula 1
Fórmula 2
2
2
6 d
= 1 - --------------------------n (n + 1) (n – 1)
2
2
x + y + d
= -------------------------------2
2
2.
x. y
La fórmula para obtener
x o y es la misma en ambos
2
2
casos, y es x = y = (n3 – n) / 12
2
2
En el denominador, la raíz cuadrada afecta a x . y
2
2
En ciertos casos conviene utilizar la primera fórmula, y en otros casos la segunda. Por
ejemplo (Kohan, 1994:256), si no hay empates en los rangos o son muy pocos, se utilizará
la fórmula 1, y si hay empates en los rangos, se utilizará la fórmula 2. Para comprender esto,
se suministran a continuación dos ejemplos diferentes: uno sin empates y otro con empates.
Ejemplo 1.- En este ejemplo (tomado de Kohan, 1994:256) se utiliza el coeficiente de
Spearman para evaluar el grado de asociación entre dos variables ordinales: X
(autoritarismo) e Y (búsqueda de status). Por ejemplo, permitirá averiguar si a medida que
aumenta el autoritarismo en las personas tiende también a aumentar la búsqueda de status
social.
Para ello se toma una muestra de 12 sujetos, y se obtienen los siguientes resultados:
Sujeto
A
B
C
D
E
F
G
H
I
J
K
L
x (rango por
autoritarismo)
2°
6°
5°
1°
10°
9°
8°
3°
4°
12°
7°
11°
y (rango por búsqueda de
status)
3°
4°
2°
1°
8°
11°
10°
6°
7°
12°
5°
9°
d
d2
-1
2
3
0
2
-2
-2
-3
-3
0
2
2
1
4
9
0
4
4
4
9
9
0
4
4
d =
52
2
n = 12
Esta tabla indica, por ejemplo, que el sujeto A se situó en un segundo lugar en autoritarismo
y en un tercer lugar en búsqueda de estatus.
Aplicando la fórmula 1, se obtiene un coeficiente de Spearman de 0.82, lo cual sugiere una
alta correlación entre autoritarismo y búsqueda de status.
Ejemplo 2.- Aquí se trata de obtener el coeficiente de Spearman cuando hay empates en los
rangos. Los empates ocurren cuando dos o más sujetos tienen el mismo rango en la misma
variable. Por ejemplo (ver tabla siguiente), los sujetos A y B obtuvieron el mismo puntaje en
la variable X (o sea, obtuvieron ambos cero). Otro tanto ocurrió con los sujetos C y D y con
los sujetos J y K, siempre en relación a la misma variable X. En el caso de la variable Y todos
los puntajes fueron diferentes, y por lo tanto no hubo empates.
Cuanto mayor es la cantidad de empates, más conveniente resultará utilizar la fórmula 2.
Sujeto
x (rango por
autoritarismo)
Puntaje
Rango
0 (1°)
1.5°
0 (2°)
1.5°
1 (3°)
3.5°
1 (4°)
3.5°
3 (5°)
5°
4 (6°)
6°
5 (7°)
7°
6 (8°)
8°
7 (9°)
9°
8 (10°)
10.5°
8 (11°)
10.5°
12 (12°)
12°
A
B
C
D
E
F
G
H
I
J
K
L
n = 12
y (rango por búsqueda de
status)
Puntaje
Rango
42
3°
46
4°
39
2°
37
1°
65
8°
88
11°
86
10°
56
6°
62
7°
92
12°
54
5°
81
9°
d
d2
-1.5
-2.5
1.5
2.5
-3.5
-5
-3
2
2
-1.5
-5.5
3.5
2.25
6.25
2.25
6.25
9
25
9
4
4
2.25
30.25
9
2
d =
109.5
Para hallar el coeficiente de Spearman en estos casos, puede procederse se acuerdo a tres
pasos:
a) Reasignación de rangos.- En la columna de Puntaje de la variable X se ha agregado entre
paréntesis el rango u orden que ocuparía el sujeto. Este agregado sirve al único efecto de
determinar el rango definitivo que se le asignará, y que aparece en la columna Rango, de la
misma variable.
La forma de calcular este rango definitivo es simple. Por ejemplo, si se consideran los sujetos
A y B, se suman los rangos 1° y 2°, con lo cual se obtiene el valor 3. Este valor se divide por
la cantidad de empates, que en este caso es 2, y se obtiene el valor 1.5, que será el rango
definitivo de ambos sujetos.
b) Corrección de la suma de los cuadrados.- Para poder aplicar la fórmula 2, y puesto que
2
2
hay empates, deben modificarse los valores de x y de y es decir, las sumatorias de los
cuadrados de los valores de cada variable.
Para modificar dichos valores deben restarse a ellos E, cuyo valor se entiende a partir de la
siguiente fórmula donde dicho factor se ha restado:
3
n –n
2
x = --------- 141.5
12
3
E
3
3
3
12 – 12
2 –2
2 –2
2 -2
= ------------ - ( --------- + --------- + --------- )
12
12
12
= 143 – 1.5
=
12
El valor 2 significa que hay sido dos los valores empatados. En este caso, los empates se han
dado en tres oportunidades (sujetos A-B, C-D y J-K), y por ello se suman los tres cocientes.
Como en la variable Y no se han verificado empates, el cálculo no incluirá el factor de
corrección:
3
n –n
3
12 – 12
y = --------- = -----------12
12
2
= 143
c) Aplicación de la fórmula 2.- Se aplica la fórmula con los valores corregidos del siguiente
modo:
2
2
2
x + y + d
141.5 + 143 – 109.5
= -------------------------------- = ------------------------------ = 0.616
2
2
2.
x. y
2 141.5 . 143
Si no se hubieran introducido las correcciones indicadas, el valor del coeficiente de Spearman
“hubiera sido más elevado, aunque en este caso la diferencia es poco importante y sólo
conviene corregir cuando hay gran cantidad de empates” (Kohan, 1994:258).
4.5 UN EJEMPLO: CONSTRUCCIÓN Y VALIDACIÓN DE TESTS
El análisis de correlación se aplica en muchos ámbitos de la psicología, como por ejemplo en
la teoría factorialista de la inteligencia, en el análisis de actitudes en psicología social, y
también en la construcción de pruebas psicodiagnósticas (6).
Como ejemplo, a continuación se inventará un test, no sólo para ver como se realiza esta
tarea, sino también para ver el modo en que interviene en este proceso el análisis de
correlación.
La idea de construir un supuesto “Test de personalidad de Pérez” pudo haber comenzado al
leer los diversos trastornos de personalidad del DSM-IV. Uno de ellos es el trastorno
narcisista, otro el trastorno esquizoide, y así sucesivamente. El DSM-IV propone diversos
criterios para identificarlos, pero aquí se ha elegido otro camino: tomar un test creado ad
hoc.
Pensando en la cuestión, cabe imaginarse que un individuo narcisista podría muy bien estar
cómodo con un dibujo como el esquema 6, donde aparece un gran punto rodeado de otros
más pequeños que lo admiran, mientras que un esquizoide preferiría el esquema 7,
representativo de un patrón de distanciamiento de las relaciones sociales.
Esquema 6
Esquema 7
Acto seguido, se eligen mil sujetos con diagnósticos diversos de personalidad y se les
pregunta qué dibujo les gusta más. Aquí es donde interviene el análisis de correlación, que
permitirá ver el grado de asociación entre el diagnóstico y el dibujo elegido. Una muy alta
correlación aparecería, por ejemplo, si gran cantidad de sujetos con trastorno narcisista
eligen el esquema 6, con lo cual, en lo sucesivo se podrá tomar este test sin necesidad de
explorar sus conductas y ver si cumplen los criterios del DSM-IV, un trámite que suele ser
arduo.
Desde ya, construir un test exige una gran cantidad de controles y precauciones que no
vienen al caso exponer aquí. Por ejemplo, debe determinarse su validez y su confiabilidad. El
análisis de correlación permite, precisamente, determinar por ejemplo un tipo especial de
validez: la validez predictiva, que pueden verse claramente en las pruebas de orientación
vocacional.
Así, por ejemplo, una forma de establecer si un test de este tipo evalúa la vocación de un
sujeto, es esperar varios años y ver si ese sujeto tuvo éxito en la profesión sugerida por el
test. Como puede apreciarse, aquí se recurre nuevamente al análisis de correlación, al
compararse la profesión diagnosticada con la profesión elegida exitosamente. Una alta
correlación entre ambas variables es indicador de la validez predictiva del test en cuestión.
El análisis de correlación permite también determinar otros tipos de validez como la validez
inter-test, que compara los resultados de un test vocacional con otro test vocacional. Si
ambos arrojan aproximadamente los mismos resultados en un conjunto de sujetos, entonces
tienen validez inter-test, comparación que fue posible por un análisis de correlación.
4.6 EL ANÁLISIS DE REGRESIÓN
El objetivo del análisis de regresión es establecer una predicción acerca del comportamiento
de una variable Y conociendo el correspondiente valor de X (o viceversa) y el grado de
correlación existente entre ambas variables.
Para ello es preciso conocer la llamada recta de regresión (7), que es la recta imaginaria que
mejor representa el conjunto de pares de valores de las variables X e Y. En el siguiente eje
de coordenadas, están representados por ejemplo cinco de esos pares de valores, mediante
cinco puntos. La recta de regresión dibujada sería la que mejor representa esos puntos, por
cuanto la distancia de los puntos a la recta (representada con una línea punteada) es la
mínima. Esta distancia recibe el nombre de regresión, de manera tal que cuanto menor es la
regresión de los puntos, mayor será la correlación entre ellos.
y
Recta de regresión
x
La recta de regresión es, de muchas rectas posibles, la que mejor representa la correlación
o, más técnicamente, es la única que hace mínima la suma de los cuadrados de las
desviaciones o distancias de cada punto a la recta. Es, además, la mejor manera de poder
hacer predicciones.
Las desviaciones de los puntos respecto de la recta se adjudican a factores no controlados
(que suelen ser particularmente importantes en las ciencias sociales), y se parte del
supuesto de que si no hubiera factores extraños que afecten la relación entre X e Y, entonces
no habría desviaciones y la correlación sería perfecta.
La recta de regresión puede trazarse „a ojo‟, pero este procedimiento no tiene precisión. El
análisis de regresión propone un método mucho más preciso, consistente en hallar la recta
de regresión por una vía analítica.
Este cálculo de la recta de regresión consiste en hallar la ecuación de la recta de regresión, y
eventualmente luego dibujándola en un diagrama de coordenadas cartesianas. Una vez en
posesión de esta ecuación, podrán hacerse predicciones a partir de la ecuación misma o bien
a partir de la recta trazada en el diagrama de coordenadas.
Ambos procedimientos serán examinados a continuación con los nombres de cálculo analítico
de la regresión y cálculo gráfico de la regresión, respectivamente.
4.7 CÁLCULO ANALÍTICO DE LA REGRESIÓN
El cálculo analítico de la regresión consiste en averiguar la ecuación de la recta de regresión.
Ello permitirá realizar predicciones en base a dicha ecuación.
Una vez que se cuenta con un determinado conjunto de pares de valores obtenidos de la
realidad, puede determinarse la ecuación de la recta que los representan por dos métodos:
el método de los cuadrados mínimos, y el método de las desviaciones.
Antes de examinarlos, debe tenerse presente que la forma general de una ecuación de una
recta es y = a + b.x (8). Determinar la ecuación de la recta significa asignarle un valor al
parámetro „a‟ y otro valor al parámetro „b‟. Los métodos indicados tienen como fin
determinar el valor de ambos parámetros.
a) Método de los cuadrados mínimos.La ecuación de la recta que tiene la forma y1 = a + b . x1 se obtiene averiguando los valores
a y b. Una vez obtenidos ambos valores, puede realizarse una predicción cualquiera: a partir
de x1 como el valor conocido, se puede predecir el valor de y1.
Las fórmulas para el cálculo de a y b son las siguientes:
n
(x.y) –
x. y
b = -----------------------------n
x2 - ( x)2
a = Y - b . X (donde Y y X son las respectivas medias aritméticas)
Como puede apreciarse, primero debe calcularse b, ya que para calcular a se requiere
conocer b.
b) Método de las desviaciones.La ecuación de la recta se obtiene a partir de la siguiente expresión:
y = r . (Sy / Sx) . (x - X) + Y
En esta ecuación de la recta, la expresión r . (Sy / Sx) se llama coeficiente de regresión.
Como puede apreciarse, la aplicación del método de las desviaciones requiere conocer las
medias aritméticas y los desvíos estándar de X e Y. También requiere conocer el coeficiente
de correlación r, para lo cual resulta aquí recomendable utilizar la fórmula número 1.
Ejemplo de predicción en base a la ecuación de la recta.- Si se dispone ya de una ecuación
de la recta, será muy sencillo hacer una predicción del valor de y en función del valor de x.
En cambio, si debe hacerse esa predicción a partir de una simple lista de pares de valores
correlacionados, primero deberá obtenerse la ecuación de la recta, para lo cual, a su vez –si
la idea es aplicar el método de las desviaciones- deben conocerse las medias aritméticas de x
e y, los desvíos estándar de x e y, y la correlación r entre x e y.
Considérese la siguiente lista de pares de valores ordenados:
Sujeto
A
B
C
D
E
F
X (edad)
2
3
5
6
6
8
Y (puntaje test)
55
60
65
80
85
75
A los efectos de poder obtener información sobre las medias aritméticas, los desvíos
estándar y el coeficiente de correlación (necesarios para calcular la ecuación de la recta), se
amplía la tabla anterior de la siguiente manera:
Sujeto
A
B
C
D
X (edad)
2
3
5
6
Y (puntaje test)
55
60
65
80
(X-X)
-3
-2
0
1
(Y-Y)
-15
-10
-5
10
(X-X) (Y-Y)
45
20
0
10
E
F
Total
6
8
30
85
75
420
1
3
---
15
5
---
15
15
105
Aplicando la fórmula correspondiente, se obtienen las medias aritméticas de X e Y (que son 5
y 70).
Aplicando la fórmula correspondiente, se obtienen los desvíos estándar de X e Y (que son 2 y
10.8).
Aplicando la fórmula 1, se obtiene el coeficiente de correlación (que es r = +0.81).
Finalmente, se obtiene la ecuación de la recta utilizando el método de loas desviaciones:
y = r . (Sy / Sx) . (x - X) + Y
y = 0.81 (10.8 / 2) . (x – 5) + 70
Esta expresión se transforma de manera tal que adopte la forma típica de la ecuación de la
recta, con lo cual se obtiene:
y = 47.85 – 4.43 . x
Una vez que se cuenta con la ecuación de la recta, ahora sí pueden hacerse predicciones. Por
ejemplo, si a un niño que 10 años se le toma el test, ¿cuál será el puntaje más probable que
obtendrá?
y = 47.85 – 4.43 . x
y = 47.85 – 4.43 . 10 = 92.15
y = 92.15
4.8 CÁLCULO GRÁFICO DE LA REGRESIÓN
El cálculo gráfico de la regresión consiste en trazar la recta de regresión en base a la
ecuación de la recta obtenida en el cálculo analítico. Ello permitirá realizar predicciones en
base a dicha recta trazada en el diagrama de coordenadas cartesianas.
La recta de regresión, como toda recta, puede determinarse por dos puntos. Un punto es la
ordenada al origen, y el otro punto es la intersección de las medias aritméticas de x e y. Este
último punto se llama baricentro.
Tomando el ejemplo anterior, la ordenada al origen es 47.85, mientras que el baricentro
queda determinado por las medias aritméticas 5 y 70, con lo cual la recta de regresión será
la siguiente:
Y
90
80
70
60
50
40
30
20
10
0
0 1 2 3 4 5 6 7 8 9 10
X
Ejemplo de predicción en base a la recta del diagrama cartesiano.- Considerando solamente
la recta dibujada, puede hacerse una predicción (método gráfico). Por ejemplo, si se sabe
que x = 7, puede predecirse que el valor de y será 82 de la siguiente manera:
Y
90
80
70
60
50
40
30
20
10
0
0 1 2 3 4 5 6 7 8 9 10
X
Error estándar de la predicción.- En el ejemplo anterior la predicción realizada es sólo
probable, lo que significa que se está cometiendo algún error en la estimación del valor y.
Ello es así porque se ha calculado el coeficiente de correlación r y la ecuación de la recta de
regresión en base a una muestra (en este caso de apenas seis sujetos) y con esta
información se está intentando predecir un valor nuevo que no está en la muestra, es decir,
que pertenece a la población. Además, se está suponiendo (Kohan N, 1994:228) que la
muestra ha sido tomada al azar, y que ambas variables se distribuyen normalmente.
Es posible estimar el error estándar cometido en base a la siguiente expresión:
est y
=
y
1–r
.
2
Esto es, el error estándar es igual al desvío estándar poblacional multiplicado por la raíz
cuadrada de la diferencia entre 1 y el cuadrado del coeficiente de correlación.
En el ejemplo anterior, el desvío estándar valía 10.8 y el coeficiente de correlación valía
0.82. Reemplazando, se obtiene:
est y
=
.
2
1 – 0.82 = 6.2
Esto significa que el valor de y predicho y = 82, estará en un 68% de los casos entre 82
6.2, es decir entre 88.2 y 75.8. O si se quiere, hay un 68% de probabilidades que el valor de
y se encuentre entre 88.2 y 75.8. Desde ya, también puede calcularse este intervalo de
confianza en base a un 95% o un 99% de probabilidades, en cuyo caso el intervalo de
confianza deberá ser mayor.
NOTAS
(1) Una distribución de frecuencias bivariada es un conjunto de pares de valores, correspondientes a dos
variables observadas conjuntamente, con sus respectivas frecuencias. Cuando la distribución se registra
en una tabla de doble entrada se obtiene una tabla de contingencia. En cada celda de esta tabla se
indica la frecuencia con que se observó cada par de valores.
(2) Algunos autores (por ejemplo Botella, 1993:183), clasifican en tres los casos posibles de relación
lineal entre variables. a) Relación lineal directa: se dice que dos variables X e Y mantienen una relación
lineal directa cuando los valores altos en Y tienden a emparejarse con valores altos en X, los valores
intermedios en Y tienden a emparejarse con valores intermedios en X, y los valores bajos en Y tienden a
emparejarse con valores bajos en X. Por ejemplo: la relación entre inteligencia y rendimiento. b)
Relación lineal inversa: se dice que dos variables X e Y mantienen una relación lineal inversa cuando los
valores altos en Y tienden a emparejarse con valores bajos en X, los valores intermedios en Y tienden a
emparejarse con valores intermedios en X, y los valores bajos en Y tienden a emparejarse con valores
altos en X. Por ejemplo: la relación entre tiempo y errores. c) Relación lineal nula: se dice que hay
relación lineal nula entre dos variables cuando no hay un emparejamiento sistemático entre ellas en
función de sus valores. Por ejemplo: la relación entre estatura e inteligencia.
(3) Otra forma de apreciar gráficamente la correlación es mediante el ángulo de correlación: dadas las
dos rectas y1 = a + b . x1 y x1 = a + b . y1 , el punto donde se intersectan se llama centroide. El
ángulo entre ambas rectas se llama ángulo de correlación. Cuanto menor es este ángulo, más
correlación hay (Kohan, 1994:224).
(4) Además del clásico coeficiente "r" de Pearson, existen otros también destinados a medir el grado de
asociación entre variables. En el esquema siguiente se resumen algunos ejemplos. No deben confundirse
los coeficientes derivados del coeficiente de Pearson, con estos otros coeficientes de correlación, que en
general fueron diseñados de manera diferente o para otros propósitos.
Nombre
Coeficiente de
Condiciones de aplicación
Se aplica sobre variables cuantitativas (de intervalos iguales o de cocientes).
Pearson
Coeficiente Q de Yule
Coeficiente de
asociación (gamma)
de Goodmann y
Kruskal
Coeficiente (Rho) de
Spearman
Coeficiente Etha
Coeficiente de
correlación múltiple
Coeficiente Phi
Además, las variables deben estar distribuidas normalmente, o al menos
tratarse de distribuciones bastante simétricas respecto de la media.
Se llama también coeficiente de correlación producto-momento de Pearson.
De fácil cálculo e interpretación como el anterior, pero su uso se limita a dos
variables nominales, con dos categorías cada una.
Se utiliza sobre todo cuando son muchas observaciones y muy pocos valores
ordinales alcanzados por ellas. Se busca computando las concordancias e
inversiones en las ordenaciones que representan las dos variables y se aplica la
fórmula.
No es más que el coeficiente de Pearson aplicado a variables ordinales.
Utilizado para variables cuantitativas (de intervalos iguales o de cocientes),
debe reunir dos requisitos: que la curva de distribuciones sea bastante simétrica
y unimodal, y que la asociación de variación sea al menos aproximadamente
rectilínea.
Para correlacionar simultáneamente más de dos variables.
Para variables nominales.
Otros coeficientes son: el Coeficiente (Tau) de Kendall (Kohan, 1994:260), el Coeficiente de Wilcoxon, el
Coeficiente de Flanagan, el Coeficiente de correlación multiserial de Jaspe, el Coeficiente T de
Tschuprow, el Coeficiente de correlación tetracórica (Kohan, 1994:281), etc.
Todos los coeficientes de correlación pueden aplicarse en psicología, por ejemplo, en experimentos sobre
el aprendizaje, en la teoría factorialista de Spearman, y en psicometría cuando por ejemplo debemos
establecer el grado de correlación entre dos tests, o el grado de correlación de un mismo test tomado en
dos momentos diferentes.
(5) “En algunos textos de estadística se describen fórmulas abreviadas para facilitar los cálculos cuando
se dispone de un número grande de pares de valores. La disponibilidad actual de calculadoras de mesa y
ordenadores personales hacen innecesarias estas fórmulas” (Botella, 1993:193).
(6) La construcción de tests puede llevarse a cabo para realizar una investigación ad hoc para la cual no
hay instrumentos de medición conocidos, o bien para crear una prueba que pueda ser utilizada por otros
en diferentes circunstancias, aunque esto último es más raro en un mercado sobresaturado de pruebas
psicométricas y proyectivas donde es realmente muy difícil posicionar un test que pueda representar una
mejora respecto de los anteriores.
(7) También puede ser una curva, pero en este artículo se describe solamente la regresión lineal, que se
representa mediante una recta.
(8) El valor „a‟ es la ordenada al origen, y el valor „b‟ es el coeficiente angular o pendiente de la recta,
que equivale a la tangente del ángulo alfa (formado por la recta y otra recta paralela a la absisa). La
ecuación de la recta también puede representarse como x = a + b.y, en cuyo caso el parámetro „a‟
significará la absisa al origen. En este artículo no se considerará esta segunda expresión por razones de
simplicidad, y por cuanto la idea es poder predecir un valor y en función de un valor x, y no un valor x
en función de un valor y. Así, la ecuación y = a + b.x permite predecir cuánto valdrá y en función de x,
mientras que la ecuación x = a + b.y permite predecir cuánto valdrá x en función de y.
Ambas rectas de regresión se cortan en un punto llamado centroide, y “la correlación entre las dos
variables está dada por el ángulo entre las dos rectas: si este ángulo vale 0, la correlación es 1” (Kohan
N, 1994:224).
CAPÍTULO 5: ESTADISTICA INFERENCIAL
5.1 INTRODUCCIÓN
A diferencia de la estadística descriptiva, la estadística inferencial va más allá de la mera
descripción de la muestra por cuanto se propone, a partir del examen de ésta última, inferir
una conclusión acerca de la población, con un cierto nivel de confianza (o,
complementariamente, con un cierto nivel de error).
Las muestras de las cuales se ocupa la estadística inferencial son muestras probabilísticas, es
decir, aquellas en las cuales es posible calcular el error cometido al estimar una
característica poblacional (Kohan N, 1994:144) (1).
Clásicamente, la estadística inferencial se ocupa de dos cuestiones: la estimación de
parámetros y la prueba de hipótesis, aunque “por lo general, la mayoría de las aplicaciones
de la estadística inferencial pertenecen al área de la prueba de hipótesis” (Pagano,
1998:209).
De acuerdo al mismo autor (1998:155), en la estimación de parámetros el investigador
busca determinar una característica de la población a partir de los datos de la muestra. Por
ejemplo, tomando la variable edad, podría concluir que la probabilidad de que el intervalo
40–50 contenga la media de la población es de 0.95.
En cambio en la prueba de hipótesis, el investigador reúne datos en una muestra para
validar cierta hipótesis relativa a una población. Ejemplos: a) para validar la hipótesis de que
la media poblacional no tiene una diferencia significativa con la media muestral, toma ambas
medias y las compara estadísticamente mediante la prueba de la media; b) para validar la
hipótesis de que en la población el método de enseñanza A es mejor que el B, el investigador
toma dos muestras de alumnos y a cada uno le aplica un método de enseñanza diferente. El
tipo de conclusión que se busca aquí podría ser que las mayores calificaciones en un grupo
que en otro se deben al método de enseñanza aplicado y no al azar, y, además, que dicha
conclusión no se aplica sólo a la muestra sino a toda la población.
En la estadística inferencial se pueden hacer inferencias espaciales e inferencias temporales.
Una inferencia espacial implica suponer, a partir de la muestra, cómo es la población total.
Una inferencia temporal es un caso especial donde, a partir de ciertos datos actuales
podemos inferir o suponer ciertos otros datos que podamos obtener en el futuro, vale decir
una población potencial.
5.2 ESTIMACIÓN DE PARÁMETROS
Esta tarea consiste en, partiendo de ciertos valores de la muestra llamados estadísticos o
estadígrafos (por ejemplo la media aritmética muestral), inferir ciertos otros valores de la
población llamados parámetros (por ejemplo la media aritmética poblacional o esperanza).
Ello es así porque en general lo que interesa es la población, no la muestra. Cuando un
investigador observa que en una muestra el 80% de las personas lee el diario, le interesará
averiguar a partir de allí qué porcentaje o proporción de la población lee el diario, ya que por
ejemplo su interés es editar un nuevo periódico. De la misma forma, cuando un investigador
observa que la media aritmética muestral de la frecuencia cardíaca es 80 pulsaciones por
minuto, le interesará averiguar si ello se cumple también en la población, ya que por ejemplo
su interés puede ser comparar la frecuencia cardíaca de sus pacientes con toda la población
para decidir sobre su salud en base a un criterio estadístico.
Como puede verse, lo más habitual es inferir medias aritméticas (promedios) y proporciones
(porcentajes). Así, a partir de la media aritmética muestral se infiere la media aritmética
poblacional, y a partir de la proporción observada en la muestra se infiere la proporción en la
población.
Existen dos tipos de estimación de parámetros: la estimación puntual y la estimación
intercalar (Pagano R, 1998:304).
La estimación puntual consiste en inferir un determinado valor para el parámetro. Por
ejemplo, inferir que la población debe tener puntualmente una media aritmética de 80.
La estimación intervalar consiste en inferir dentro de qué intervalo de valores estará el
parámetro con un determinado nivel de confianza. Por ejemplo, inferir que la población debe
tener una media aritmética entre 75 y 83, con un nivel de confianza de 0.95 (esto es, hay un
95% de probabilidades de que el parámetro poblacional se encuentre entre 75 y 93) o, si se
quiere, con un nivel de riesgo (4) de 0.05 (esto es, hay un 5% de probabilidades de que el
parámetro no se encuentre entre esos valores).
En general, resulta mucho más riesgoso afirmar que el parámetro vale 80 que afirmar que
vale entre 75 y 83. Por esta razón, se prefiere bajar este riesgo y establecer un intervalo de
confianza, que podrá ser de 0.90, 0.95, 0.99, etc, según elija el investigador.
Hay diferentes procedimientos de estimación de parámetros, según se trate de estimar
medias o proporciones, o según se trate de estimar parámetros de variables cualitativas (con
dos categorías o con más de dos categorías) o cuantitativas. En lo que sigue se dan algunos
ejemplos combinados.
Estimación de la media poblacional para variables cuantitativas.- Conociendo la media
muestral, es posible averiguar con un cierto nivel de confianza (por ejemplo 0.95), entre qué
valores de la variable estará la media poblacional. Estos valores se llaman límite superior del
intervalo (Ls) y límite inferior del intervalo (Li).
Para obtener ambos valores se utilizan las siguientes fórmulas:
Ls = X + z . (S /
n)
Li = X - z . (S/
n)
Donde:
Ls = Límite superior del intervalo de confianza.
Li = Límite inferior del intervalo de confianza.
X = Media aritmética muestral.
S = Desvío estándar muestral.
n = Tamaño de la muestra. Si se trata de una muestra chica (menor a
30) se considera n-1.
(S / n) = Desvío estándar poblacional. Cuando no tenemos el desvío
estándar de la población (hecho muy frecuente) se utiliza el desvío
muestral (Rodríguez Feijóo N, 2003).
z . (S/ n) = Error muestral o estándar (error que puede cometerse al
inferir la media poblacional) (3).
z = Puntaje estandarizado que define el nivel de confianza. Si se desea
un nivel de confianza de 0.90, debe consignarse z = 1.64. Si se desea
un nivel de confianza de 0.95, debe consignarse z = 1.96. Si se desea
un nivel de confianza de 0.99, debe consignarse z = 2.58. Para valores
intermedios de nivel de confianza, pueden consultarse las tablas de
áreas de z (ver capítulo sobre probabilidad y curva normal).
Ejemplo (Rodríguez Feijóo N, 2003).- En una muestra probabilística de 600 niños de 10 años
de Capital Federal el cociente intelectual promedio obtenido fue de 105 con una desviación
estándar de 16. Con un intervalo de confianza del 95%, ¿entre qué límites oscilará el CI
promedio de los niños de 10 años de Capital Federal?
Ls = X + z . (S / n) = 105 + 1.96 (16 / 600) = 106.27
Li = X - z . (S/ n) = 105 - 1.96 (16 / 600) = 103.73
Respuesta: con un riesgo de 5% de equivocarse en la estimación, el CI promedio de los
niños de 10 años de Capital Federal oscila entre 103.73 y 106.27 puntos.
Estimación de proporciones para variables cualitativas de dos categorías (Kohan N,
1994:166).- Conociendo la proporción muestral, es posible averiguar con cierto nivel de
confianza (por ejemplo 0.99) entre qué proporciones estará la proporción poblacional.
Téngase presente que una variable con dos categorías es una variable que tiene solamente
dos posibilidades de variación (por ejemplo: el sexo).
Para obtener los límites superior e inferior del intervalo de confianza, se utilizan las
siguientes fórmulas:
Ls = p + z . ( p . q /
n)
Li = p - z . ( p . q /
n)
Nota: La raíz cuadrada
afecta a p, q y n.
Donde:
Ls = Límite superior del intervalo de confianza.
Li = Límite inferior del intervalo de confianza.
p = Proporción muestral
z = Puntaje estandarizado que define el nivel de confianza. Si se
desea un nivel de confianza de 0.90, debe consignarse z = 1.64. Si
se desea un nivel de confianza de 0.95, debe consignarse z = 1.96.
Si se desea un nivel de confianza de 0.99, debe consignarse z =
2.58. Para valores intermedios de nivel de confianza, pueden
consultarse las tablas de áreas de z (ver capítulo sobre probabilidad
y curva normal).
q = Proporción que falta para llegar al 100%. Por ejemplo: si p es
65%, entonces q = 35%).
n = Tamaño de la muestra. Si se trata de una muestra chica (menor
a 30) se considera n-1.
Ejemplo.- En una muestra probabilística de 100 personas, el 20% son masculinos. Con un
intervalo de confianza del 99%, ¿entre qué proporciones oscilará el porcentaje de masculinos
en la población?
Ls = 20% + 2.58 . ( 20 . 80 / 100) = 30.3%
Li = 20% – 2.58 . ( 20 . 80 / 100) = 9.7%
Respuesta: con un riesgo de 1% de equivocarse en la estimación, la proporción de
masculinos en la población oscila entre el 9.7% y el 30.3%.
5.3 PRUEBA DE HIPÓTESIS
Las pruebas de hipótesis se utilizan para probar alguna hipótesis en investigación científica
(10). Cuando el investigador propone una hipótesis, su deseo será poder confirmarla (porque
él mismo la propuso o porque cree intuitivamente en ella). Si decide hacer una prueba
estadística para salir de dudas, entonces realizará una prueba de hipótesis y establecerá dos
hipótesis estadísticas: su propia hipótesis, a la que convertirá en hipótesis alternativa, y la
opuesta, que llamará hipótesis nula, y la tarea consistirá en intentar probar esta última. Si la
rechaza, aceptará la alternativa, y si la acepta, rechazará la alternativa (7).
Existe una gran variedad de pruebas de hipótesis, pero todas ellas tienen en común una
determinada secuencia de operaciones, que son las siguientes:
1) Formulación de la hipótesis de investigación y obtención de los datos.- El investigador
comienza formulando la hipótesis que pretende probar. Por ejemplo, que una determinada
droga cura una enfermedad. Luego, diseña un experimento y lo ejecuta para obtener datos
que permitan aceptar o no la hipótesis. Por ejemplo, administra la droga a un grupo y al otro
no, para comparar los resultados.
Estrictamente, este primer paso no forma parte de la prueba estadística de la hipótesis pero
es una condición necesaria para realizarla, y ello por tres motivos: a) si no hay datos
empíricos, no puede realizarse ningún estudio estadístico, del mismo modo que si no hay
combustible, el motor no funcionará; b) si los datos obtenidos en el experimento o en la
observación son lo suficientemente convincentes como para aceptar o rechazar la hipótesis
de investigación, no será necesario emplear una prueba estadística de hipótesis, con lo cual,
este primer paso permite decidir si cabe o no aplicarla, aún cuando se sepa que en la
inmensa mayoría de los casos sí cabe hacerlo. Por ejemplo, si el 100% de los pacientes
tratados con una droga se cura, mientras que el 100% de los pacientes no tratados sigue
enfermo, es posible concluir, sin la ayuda de la estadística, que cabe aceptar la hipótesis de
investigación según la cual la droga cura. Sin embargo, en la realidad no suelen obtenerse
datos tan auspiciosos, por lo que se requiere una prueba estadística; y c) para obtener datos
se utiliza un determinado diseño de investigación, y la elección de la prueba estadística de
hipótesis más adecuada dependerá del tipo de diseño de investigación utilizado.
En suma, “es importante saber qué diseño está usando el investigador, cuáles son las
variables que puede controlar y en función de esto buscar la prueba estadística adecuada”
(Kohan, 1994:357).
2) Formulación de la hipótesis alternativa y la hipótesis nula.- Si la prueba estadística resulta
necesaria, la hipótesis de investigación es reformulada en términos estadísticos,
obteniéndose la hipótesis alternativa (Ha). A continuación, se formula, en los mismos
términos, la hipótesis nula (Ho), que es la opuesta de la alternativa. Ambas reformulaciones
incluyen consideraciones del tipo “hay o no hay una diferencia significativa entre…”.
Por ejemplo, si la hipótesis de investigación sostiene que la droga cura, la hipótesis
alternativa dirá que hay una diferencia significativa entre los resultados del grupo de
pacientes tratado y el grupo de pacientes no tratado. Por lo tanto, la hipótesis nula sostendrá
que no hay una diferencia significativa entre ambos grupos. En este caso, además, la Ha
plantea un cambio (la droga cura), mientras que la Ho plantea la permanencia de un estado
(la droga no cura).
Lo que siempre se intentará probar es la hipótesis nula para un determinado nivel de
significación o de riesgo. Si rechazamos la hipótesis nula aceptamos la alternativa, y si no
rechazamos la hipótesis nula, rechazamos la alternativa, ya que ambas son mutuamente
contradictorias (8).
Al estimar parámetros o probar hipótesis pueden cometerse errores. Suelen describirse dos
tipos de errores (Kohan N, 1994:178):
El error Tipo I consiste en rechazar la hipótesis nula cuando en realidad es verdadera. O sea,
creer que la muestra NO es representativa de la población, cuando sí lo es. Es el error del
desconfiado.
El error Tipo II consiste en aceptar la hipótesis nula cuando en realidad es falsa. O sea, creer
que la muestra SI es representativa de la población, cuando no lo es. Es el error del ingenuo.
La probabilidad de cometer el error I se simboliza con la letra griega alfa ( ), y la
probabilidad de cometer el error II se simboliza con la letra griega beta ( ) (Kohan N,
1994:185).
Estos errores no son errores que cometan inadvertidamente los investigadores. Como la
hipótesis nula se rechaza o se acepta en base a determinado nivel de significación o de
riesgo de equivocarse, siempre habrá algún riesgo de error, que podrá ser mayor o menor
según el nivel de riesgo elegido, pero que no obliga necesariamente a invalidar los
resultados. Debe tenerse presente que siempre que se concluya algo sobre la población a
partir de la muestra, el procedimiento estará teñido de algún grado de incertidumbre, es
decir, siempre habrá algún grado de probabilidad de cometer alguno de los dos tipos de
errores.
3) Selección de la prueba de hipótesis más adecuada.- Quedó dicho que hay una gran
cantidad de pruebas de hipótesis y su elección “depende de la hipótesis alternativa que se
formule, del número de casos examinados, del nivel de medición utilizado, etc” (Kohan N,
1994:176). Por ejemplo, a) si la hipótesis es direccional (es decir, especifica una relación de
„mayor que‟ o bien una relación de „menor que‟), se utilizará una prueba de hipótesis de una
cola, mientras que si la hipótesis es no direccional (indica una relación de “diferente a”), se
utilizará una prueba de hipótesis de dos colas (11); b) si se conoce el desvío estándar
poblacional, puede aplicarse la prueba z, mientras que si solamente se conoce el desvío
estándar muestral, se aplicará la prueba t de Student; c) si se opera con variables medidas
en un nivel nominal, puede utilizarse la prueba de chi cuadrado; si se trabaja con muestras
muy pequeñas (por ejemplo de 5 a 10 datos), la prueba t de Student es útil. Señala
Vessereau que se trata de un aporte importante por cuanto “durante mucho tiempo se ha
creído que era imposible sacar buen partido de las muestras muy pequeñas” (Vessereau A,
1962:33); d) La prueba ANOVA (análisis de varianza): “así como se pueden comparar las
medias de dos muestras, existen pruebas que permiten confrontar su variabilidad (varianza
o desviación típica). Estas pruebas sirven, entre otras, para resolver los problemas
siguientes: 1) Reconocer si un grupo de muestras es homogéneo; y 2) determinar, en la
variabilidad de una población de medidas, la parte que corresponde al azar y la que debe
atribuirse a causas de variación sistemáticas, llamadas causas controladas o asignadas”
(Vessereau A, 1962:38).
4) Determinación del nivel de significación.- El nivel de significación
es la probabilidad de
rechazar Ho siendo esta verdadera (error tipo I). Cada investigador elige su nivel de
significación, es decir, su probabilidad de equivocarse en el sentido indicado. Por ejemplo,
puede elegirse un 5% o un 1% de probabilidad de error (o, lo que es lo mismo, un 95% o un
99% de probabilidad de no equivocarse).
Señala Kohan (1994:177) que el nivel de significación elegido dependerá de la importancia
práctica de la investigación. Por ejemplo, para un estudio sobre los efectos de una droga en
el sistema nervioso se usará un nivel de significación muy bajo, como por ejemplo un 0.01%,
lo que minimiza al extremo su probabilidad de producir intoxicación.
Lo usual es especificar un nivel de significación (probabilidad de cometer el error tipo I) y
no el nivel de significación (probabilidad de cometer el error tipo II).
Una aclaración más detallada del concepto de significación estadística puede consultarse más
adelante en este mismo capítulo
5) Determinación del tamaño de la muestra.- En principio, el tamaño de la muestra n ya fue
determinado en el momento de elegir y ejecutar el diseño de investigación: cuanto mayor
haya sido el tamaño de la muestra elegido, menor será el error de (Kohan, 1994:178). Sin
embargo, también puede procederse al revés: si se elige un determinar nivel , puede
determinarse por medios matemáticos el tamaño de la muestra n adecuado a ese nivel
(Kohan N, 1994:181-185). Así, por ejemplo, en general si el investigador desea un menor
margen de error, deberá aumentar el tamaño de la muestra.
Además del tamaño de la muestra, deberán también determinarse la curva operativa
característica (Kohan N, 1994:180) y el poder de eficiencia de la prueba (o también
potencia), definido este último como la probabilidad de rechazar la hipótesis nula cuando es
realmente falsa. Por consiguiente, el poder de eficiencia se define como 1 - , es decir, 1
menos la probabilidad del error II (no rechazar la hipótesis nula cuando es realmente falsa)
(Kohan N, 1994:185). Téngase presente:
Nivel de error tipo I
1-
Nivel de confianza
1-
Nivel de error tipo
II
Nivel de confianza
Es la probabilidad de cometer el error tipo I.
Probabilidad de rechazar la Ho cuando es verdadera.
Es la probabilidad de NO cometer el error tipo I.
Probabilidad de NO rechazar (aceptar) la Ho cuando es
verdadera.
Es la probabilidad de cometer el error tipo II.
Probabilidad de NO rechazar (aceptar) la Ho cuando es falsa.
Es la probabilidad de NO cometer el error tipo II.
Probabilidad de rechazar la Ho cuando es falsa. Se llama poder
de eficiencia o potencia de la prueba.
6) Determinación de la distribución muestral de la prueba estadística para Ho.- Señala Kohan
(1994:186-187) que cuando un investigador eligió una prueba estadística, necesita saber
cuál es su distribución muestral, que es una distribución teórica que se obtendría si se
sacaran al azar todas las muestras posibles del mismo tamaño de una población (12). El
conocimiento de esta distribución muestral permite estimar la probabilidad de la ocurrencia
de ciertos valores.
7) Definición de la zona de rechazo.- Sobre la base de los puntos 3, 4, 5 y 6 deberá ahora
establecerse la zona de rechazo de la Ho. Para una mejor comprensión de este concepto, se
puede trazar una línea horizontal sobre la cual se podrán definir las zonas de rechazo y de no
rechazo de la Ho. En esa línea horizontal se indicarán valores que van desde -3 hasta +3,
pasando por el 0 (cero). Estos valores corresponden a puntajes estandarizados, como por
ejemplo z, si la prueba estadística elegida es la prueba z, o t, si la prueba elegida es la
prueba t de Student:
z
-3
-2
-1
0
+1
+2
+3
t
-3
-2
-1
0
+1
+2
+3
Las zonas de rechazo se definirán según se trate de pruebas de hipótesis de una cola
(hipótesis direccionales) o de dos colas (hipótesis no direccionales), según el siguiente
esquema:
Zona de rechazo
Prueba de una cola a
la izquierda
z
Prueba de una cola a
la derecha
z
Prueba de dos colas
Zona de aceptación
Zona de aceptación
Zona de rechazo
z
Z de aceptación
Zona de rechazo
Zona de rechazo
Para determinar una zona de rechazo (o también zona crítica) es preciso indicar un
determinado valor de z (o de t) que sirva para delimitar la zona de rechazo ( ) de la zona de
aceptación (1 - ). Ese valor recibe el nombre de „z teórico’, „z crítico‟ o „punto crítico‟, que se
calcula en base a una tabla de z (o de t) y en base al nivel de significación elegido.
Existe una relación básica entre ,
y el tamaño de muestra n. Puesto que
es la
probabilidad de que la estadística de prueba (por ejemplo el z empírico) caiga en la región de
rechazo, un incremento en el tamaño de esta región aumenta , y simultáneamente
disminuye , para un tamaño de muestra fijo. El reducir el tamaño de la región de rechazo
disminuye
y aumenta . Si se aumenta el tamaño de muestra entonces, se tiene más
información en la cual basar la decisión y ambas y decrecerán.
8) Decisión final (6).- Si el dato empírico (llamado „z empírico’) obtenido „cae‟ dentro de la
zona de rechazo, se rechaza la Ho y por tanto se acepta la Ha. En cambio, si el dato „cae‟
fuera de esta zona de rechazo, no se rechaza (se acepta) la Ho, siempre para un nivel de
significación elegido (Kohan N, 1994:189). Por ejemplo:
z
-1.80
-1.65
Zona de rechazo
de la Ho
z teórico = -1.65
z empírico = -1.80
Zona de aceptación de la Ho
En este ejemplo, se puede apreciar que el z teórico delimita las zonas de rechazo y
aceptación de la Ho. Como de los datos del experimento resultó un z empírico ubicado dentro
de la zona de rechazo, se decide rechazar la Ho y, por lo tanto, se acepta la Ha.
5.4 EJEMPLOS DE PRUEBAS DE HIPÓTESIS
Existe una enorme cantidad de tipos de pruebas de hipótesis, adaptables a diversas
necesidades y objetivos. En lo que sigue se suministran ejemplos de algunas de las pruebas
más frecuentes.
1) Prueba de la media.- Aquí no hay que estimar un intervalo para la media poblacional
(como en la estimación de parámetros), sino probar la hipótesis según la cual no hay
diferencia estadísticamente significativa entre la media poblacional y la muestral. Esta
prueba, llamada también prueba de la media, se entiende cabalmente a partir de un
conocimiento mínimo sobre distribución muestral y teorema central del límite (12).
Existe una gran diversidad de pruebas de la media, según que se conozca o no se conozca el
desvío estándar poblacional (en cuyo caso se utiliza una prueba z o una prueba t,
respectivamente), según que la hipótesis sea direccional (prueba de una cola) o no
direccional (prueba de dos colas), y según se aplique a una sola muestra (Pagano R,
1998:293) o a dos muestras (Pagano R, 1998:317).
Ejemplo.- Se supone que la estatura media de la población de alumnos de una universidad
es menor que 1.68 m, y su desvío estándar poblacional es de 0.10 m. Se cuenta con una
muestra de 36 alumnos, con una media muestral de 1.65 m. Probar la hipótesis con un nivel
de significación o riesgo del 5%.
Resolución.- a) En primer lugar convendrá ordenar los datos que suministra el problema:
Tamaño de la muestra (n) = 36.
1.68 m.
Media aritmética de la muestra (X) = 1.65 m.
0.10 m.
Nivel de significación ( ) = 5% = 0.05.
Media aritmética de la población ( ) =
Desvío estándar de la población ( ) =
b) En segundo lugar, se establecen la hipótesis alternativa y la hipótesis nula.
La hipótesis alternativa (Ha) sostiene que la media poblacional es menor que 1.68 m, o sea
< 1.68 m.
Nótese que, primero, la Ha siempre se refiere a la población, no a la muestra; segundo, es la
hipótesis deseable por el investigador y por tanto la que se quiere probar; tercero, en este
caso particular la hipótesis se refiere a una permanencia, no a un cambio, ya que sostiene
que la estatura media poblacional sigue siendo menor que 1.68 m. a pesar de la muestra,
que parece sugerir lo contrario; de esto último se desprende, en cuarto lugar, que la muestra
no sería representativa de la población, es decir, la diferencia entre muestra y población
sería significativa y en este caso debida al azar.
La hipótesis nula (Ho) sostiene que la media poblacional es igual a 1.68 m, o sea = 1.68 m.
Estrictamente hablando la Ho, por ser la opuesta a la Ha, debería proponer > 1.68 m, pero
en la práctica se utiliza la igualdad.
La hipótesis nula (Ho) sostiene que la diferencia entre la media muestral y la media
poblacional no es estadísticamente significativa para el nivel de significación del 5%, o sea,
la muestra es representativa de la población.
2) Se calcula el z empírico mediante la siguiente fórmula:
X 1.65 – 1.68
ze = -------------- = ------------------ = - 1.8
/
n
0.10 /
36
3) Se calcula el z teórico mediante la tabla de z para un nivel de significación del 5%. Como
se trata de una hipótesis alternativa direccional que especifica una dirección de „menor que‟,
se emplea la tabla de áreas de z hacia la izquierda (ver apéndice).
Puesto que se pide un nivel de significación del 5%, traduciendo este valor a probabilidades
obtenemos 0.05. A continuación, se busca el valor de z que corresponde aproximadamente a
esa probabilidad. Hay dos valores que se aproximan idénticamente: 0.0505 y 0.0495.
Eligiendo arbitrariamente el primero, se obtiene:
zt = -1.64
4) Se define la zona de rechazo mediante zt y se indica el valor de ze:
z
-1.8
-1.64
Zona de rechazo
de la Ho
z teórico = -1.64
z empírico = -1.8
Zona de aceptación de la Ho
5) Como ze cae dentro de la región de rechazo o región crítica, entonces se rechaza la Ho, y
por lo tanto, se acepta la Ha según la cual la estatura media poblacional es menor que 1.68
m. En este caso se puede estar cometiendo un error tipo I, es decir, rechazar la Ho cuando
es verdadera, con una probabilidad de = 0.05 (o si se quiere, existe una probabilidad del
5% de estar rechazando la Ho cuando es verdadera).
2) Prueba de hipótesis de correlación (13).- La prueba de hipótesis que permite estudiar la
significación de una correlación entre dos variables intenta probar la hipótesis nula que
sostiene que la correlación entre las dos variables será cero en la población origen. Las
hipótesis estadísticas de esta prueba son:
Ho)
=
0
Ha)
0
La significación del coeficiente de correlación se estudia por medio de la distribución t de
Student. Para ello se obtiene el valor de:
que se sitúa bajo la distribución t (n-2, ).
Ejemplo.- Sean, a efectos didácticos, las siguientes seis observaciones obtenidas en dos
variables X e Y:
X
10
10
12
12
14
16
Y
13
16
12
17
15
15
Resolución.- Aplicando la expresión del coeficiente de correlación lineal de Pearson, se
obtiene r = 0.1225.
Si se quiere contrastar la hipótesis nula Ho) = 0, se deberá estudiar la significación del valor
r obtenido.
Para estudiar su significación se debe transformar, en primer lugar, el valor de la correlación
en un valor t (t empírico) y, en segundo lugar, comparar dicho valor con el valor de las
tablas de la t de Student (t teórico) con n-2 grados de libertad (ver Tabla t en Anexo).
El valor proporcionado por las tablas es t (4, 0.05)= 2.776.
Así, puesto que el valor obtenido es inferior al de las tablas se concluye que los datos no
aportan información para rechazar la hipótesis nula Ho en función de la cual las dos variables
no están correlacionadas en la población origen de la muestra.
5.5 EL CONCEPTO DE SIGNIFICACIÓN ESTADÍSTICA
En este ítem se ofrecen mayores detalles este importante concepto de la estadística
inferencial, con un tercer ejemplo de prueba de hipótesis.
Uno de los fines de la estadística inferencial consiste en determinar si la diferencia entre dos
conjuntos de datos es o no significativa. En el contexto de la investigación científica, ambos
conjuntos de datos pueden consistir en dos muestras (por ejemplo entre el grupo
experimental y el grupo de control), o bien entre una muestra y una población de la que fue
extraída.
1) Diferencia entre muestras.- Cuando la investigación incluye un diseño experimental, es
sabido que las muestras (entonces designadas como grupo experimental y grupo de control),
en general exigen un tratamiento estadístico antes y después de la manipulación, es decir,
antes y después de su exposición a la influencia de la variable experimental “x”.
a) Antes de aplicar “x” lo que se exige es que no haya diferencias significativas entre los
grupos experimental y de control, tanto en lo referente a “x” como en las variables de
control (es decir a las variables extrañas relevantes que requieren ser controladas).
b) Después de aplicar “x”, lo que se espera como deseable (para aceptar la hipótesis de
investigación) es que haya diferencias significativas en cuanto a “x” entre ambos grupos.
La teoría de las muestras (2) “es útil para poder determinar si las diferencias observadas
entre dos muestras son realmente debidas al azar o si son significativas, lo que puede
llevar a un proceso de toma de decisiones gracias a las pruebas de „hipótesis‟ y de
„significación‟ que se pueden hacer” (Kohan N, 1994:144).
2) Diferencia entre muestra y población.- Queda, no obstante, otra tarea adicional para la
estadística inferencial: establecer si las conclusiones obtenidas para la muestra experimental,
luego de la exposición a “x”, pueden extenderse lícitamente a toda la población, habida cuenta
de que la ciencia busca un conocimiento válido y universal. Esta tarea es lo que Kohan
describe como “probar hipótesis válidas para la población correspondiente, conociendo la
información de las muestras” (Kohan N, 1994:144). La misma autora indica que para que las
conclusiones que se obtienen a partir de las muestras sean válidas, éstas deben ser
representativas de la población.
El objetivo de este ítem es explicar con un ejemplo de qué manera se puede alcanzar el
objetivo 1b, es decir, como se puede probar si hay o no diferencias significativas entre un
grupo experimental y un grupo de control.
Los resultados de un experimento requieren un tratamiento estadístico que permita orientar
al investigador acerca de si la hipótesis de investigación debe ser rechazada o no rechazada,
para lo cual deberá establecer convencionalmente un determinado nivel de significación que
permita diferenciar resultados estadísticamente significativos de resultados estadísticamente
no significativos. Seguidamente se explica en detalle esta aseveración.
En los informes de investigación suelen aparecer expresiones del tipo "los resultados del
experimento son estadísticamente significativos". Seguidamente se aclarará en forma
intuitiva qué quiere decir esto, siguiendo los lineamientos didácticos de León y Montero
(1995:105-130).
Supóngase un sencillo experimento, donde se trata de probar si un choque emocional altera
o no el recuerdo de los sucesos inmediatamente anteriores al mismo.
Para ello, se tomaron dos grupos de estudiantes: el grupo experimental presenció una
película donde había una escena violenta, y el grupo de control presenció la misma película
pero sin la escena violenta.
Los resultados fueron los siguientes: el grupo sometido al choque emocional lograba luego
recordar un promedio de 10, mientras que el grupo sin choque emocional lograba recordar
más sobre las escenas del film: por ejemplo, un promedio de 15. Esquemáticamente:
Grupo
Grupo I (vieron escena violenta)
Grupo II (no vieron escena violenta)
Choque
emocional
SI
NO
Recuerdo
10
15
Lo que debe ahora establecerse es si esta diferencia en los recuerdos entre 10 y 15 es o no
significativa, es decir, si va o no más allá del simple azar. Si se concluye que NO es
significativa, entonces las diferencias entre 10 y 15 se deben al azar, pero si se concluye que
SI es una diferencia significativa, entonces no debe descartarse la influencia del choque
emocional sobre la memoria. La expresión 'significativa' quiere decir una diferencia lo
suficientemente grande como para pensar que el choque emocional influye sobre los
recuerdos.
En principio, para averiguar si la diferencia es o no significativa, puede apelarse a dos
procedimientos, que podrían llamarse el procedimiento intuitivo y el procedimiento
estadístico.
a) El procedimiento intuitivo es muy simple: se advierte que la diferencia entre ambos
grupos es 15-10=5, y entonces se piensa: "evidentemente, hay una diferencia significativa".
Si ambos grupos hubiesen obtenido 15, se pensaría que no habría diferencia significativa y
entonces se concluiría que el choque emocional no influye sobre el recuerdo.
Como puede notarse, este procedimiento intuitivo tiene el problema de la subjetividad en la
estimación de los resultados. Tal vez para otro investigador no hubiese sido significativa la
diferencia de 5 sino una diferencia mayor, como por ejemplo 8. Ambos investigadores
polemizarían fundamentando sus argumentaciones sobre la base de simples impresiones o
creencias, es decir, jamás llegarían a un acuerdo, y, en el mejor de los casos, acordarían
buscar un procedimiento más objetivo. En este caso contratarían a un técnico en estadística
para que hiciera una estimación como la que ahora se pasa a explicar.
b) El procedimiento estadístico es más complejo que el anterior: en lugar de intentar
averiguar si la diferencia entre las promedios 15 y 10 es "intuitivamente significativa", lo que
intentará probar es si la diferencia es "estadísticamente significativa".
Cabe aquí anticipar algo que señalan León y Montero: "Encontrar una diferencia de valores
que no es estadísticamente significativa equivale a decir que esa diferencia la hemos
encontrado por casualidad. O lo que es lo mismo, si repitiéramos el proceso, el promedio de
diferencias encontradas sería cero".
¿Qué significa esta última expresión? Significa que si se hicieran otros experimentos con
otros grupos, puesto que las diferencias que se obtienen obedecen a la casualidad, una vez
se podría encontrar una diferencia de 5, otra vez una diferencia de 3, otra vez una diferencia
de -4, etc, es decir, saldrían números al azar cuyo promedio tendería a cero, puesto que si
dicho promedio tendiese a 5, entonces los resultados ya podrían ser pensados como
significativos.
A partir del ejemplo, se puede ahora examinar el concepto de significación estadística,
central dentro de la teoría de las muestras (5).
León y Montero proponen imaginar por un momento una variante del experimento anterior,
donde ninguno de los dos grupos fue expuesto al choque emocional, es decir, ambos grupos
vieron la misma película sin la escena violenta.
Desde ya, este experimento carece de sentido, porque lo que interesa es ver si hay o no
diferencias entre dos grupos en lo concerniente a capacidad de recordar, sometidos cada uno
a 'diferentes' condiciones experimentales (uno vio la escena violenta y el otro no). Sin
embargo, analizar lo que sucedería en este experimento imaginario resultará útil para
entender la idea de significación estadística, como enseguida se verá.
En este experimento imaginario, puesto que ambos grupos no recibieron el estímulo violento,
es esperable que los rendimientos mnémicos sean iguales, o por lo menos aproximadamente
iguales, porque siempre cabe la posibilidad de la intervención de pequeñas variables no
controladas.
Repitiendo varias veces el experimento, una vez podríamos obtener una diferencia de 0, otra
vez una diferencia de 0.5, otra vez una diferencia de -1, etc. Si el experimento se repitiese
diez mil veces, es razonable pensar que habría muy pocos casos donde la diferencia fuese
muy extrema (por ejemplo 7 o -7), y muchos casos próximos a una diferencia de 0. Las
diferencias obtenidas en los diez mil experimentos podrían resumirse, según este criterio, en
la tabla 1.
Tabla 1
Diferencias entre los 2
grupos
7
6
5
4
3
2
1
0
-1
-2
-3
-4
-5
-6
-7
Total
Cantidad de experimentos
(frecuencias)
5
25
90
280
680
1200
1690
2000
1700
1190
720
290
100
26
4
10.000
Los resultados de la tabla 1 permiten ver, en efecto, que hay muy pocos experimentos donde
la diferencia entre grupos es muy grande (en apenas 5 experimentos la diferencia fue 7),
mientras que hay muchos experimentos donde la diferencia entre grupos es nula (hay 2000
experimentos donde la diferencia fue 0).
La tabla también informa sobre lo siguiente:
a) La cantidad de casos que obtuvieron como diferencia entre +1 y -1 fue de 5.390 casos
(que resulta de sumar 1690 + 2000 + 1700). Ello representa el 53,9% más próximo a cero
del total de casos.
b) La cantidad de casos que obtuvieron como diferencia entre +3 y -3 fue de 9180 casos.
Esto representa el 91,8% más próximo a cero del total de casos, y se puede graficar
mediante una curva normal tal como aparece en el gráfico 1. En este gráfico se puede
visualizar fácilmente que el 91,8% de los experimentos obtuvo una diferencia de -3 hasta
+3.
Gráfico 1
2000
Frecuencias
91,8%
z
-7
+7
-6
-5
-4
-3
-2
-1
0
+1
+2
+3
+4
+5
+6
Diferencias
Una vez hechos estos cálculos, ahora cabe hacerse una pregunta fundamental: ¿dentro de
qué intervalo de diferencias cabría admitir que las diferencias responden al simple azar?
¿Dentro del intervalo -1 y +1? ¿Dentro del intervalos -3 y +3? Por las dudas, se considerará
convencionalmente este último intervalo. Esto quiere decir, por ejemplo, que si en un
experimento se obtuvo una diferencia de 2, entonces se considerará que dicha diferencia se
debe al azar (pues 2 está entre -3 y +3), mientras que si en otro experimento se obtuvo una
diferencia de 6, entonces se considerará que dicha diferencia no se debe al azar (pues 6 está
fuera del intervalo entre -3 y +3), es decir, se considerará que la diferencia es
'estadísticamente significativa'.
Supóngase ahora el experimento original, donde un grupo era sometido al estímulo violento
y el otro no, es decir, donde los grupos son sometidos a diferentes condiciones
experimentales.
En uno de dichos experimentos se ha obtenido, por ejemplo, una diferencia de 2.5; por lo
tanto, deberá concluirse que esta diferencia no es 'estadísticamente significativa' porque está
comprendida dentro del 91,8% de los casos más próximos a cero (o sea, entre -3 y +3),
según la convención propuesta.
En cambio, si la diferencia encontrada en otro experimento de este tipo hubiese sido de 5,
este valor cae fuera del intervalo entre -3 y +3, y por lo tanto es 'estadísticamente
significativo' (ver gráfico 2). Desde ya, para decidir esto se ha considerado que el porcentaje
que permite discriminar lo que es significativo de lo que no lo es era 91,8%. Si se hubiese
elegido el 99%, una diferencia de 5 como resultado hubiese resultado estadísticamente no
significativa.
Señalan León y Montero: "el investigador [es quien] determina el porcentaje que sirve para
discriminar la significación de la no significación. Este tanto por ciento se denomina 'nivel de
confianza', y tiene sus valores más frecuentes entre 95% y 99%". Cuanto mayor es el
porcentaje elegido, más exigente deberá ser en cuanto a la tipificación de un resultado como
estadísticamente significativo.
En los informes de investigación, en vez de citarse el nivel de confianza, se suele citar su
complementario, que es el 'nivel de significación' o 'nivel de riesgo'. En el caso del ejemplo,
si el nivel de confianza era del 91,8%, el nivel de significación o de riesgo será lo que falta
para completar 100%, es decir, el 8,2% (ver gráfico 2). Más aún, inclusive, es frecuente
expresar este nivel de significación no en términos de porcentajes sino en términos de
probabilidad, con lo cual, en vez de afirmarse 8,2%, se afirmará 0.082.
Gráfico 2
Nivel de
significación
(o de riesgo)
4,1%
Nivel de
confianza
91,8%
Nivel de
significación
(o de riesgo)
4,1%
z
-7
+7
-6
-5
-4
Resultados estadísticamente
significativos
-3
-2
-1
0
+1
Resultados estadísticamente
NO significativos
+2
+3
+4
+5
Resultados estadísticamente
significativos
Las expresiones 'confianza' y 'riesgo' resultan esclarecedoras para entender estos conceptos:
si un experimento cae dentro del nivel de confianza se puede decir con tranquilidad, con
'confianza', que los resultados no son estadísticamente significativos, pero si cae dentro del
nivel de riesgo, el investigador se estaría 'arriesgando' a sostener que los resultados son
estadísticamente significativos, es decir, a aceptar la hipótesis según la cual un choque
emocional efectivamente influye sobre los recuerdos.
León y Montero indican que encontrar diferencias estadísticamente significativas no es el
propósito final del investigador, ni lo más importante. Lo que el investigador persigue es en
realidad determinar la significación teórica, más que la significación estadística que le sirve
como medio, es decir, si resulta o no relevante para alguna finalidad. Así por ejemplo, si se
ha constatado que un tratamiento para adelgazar produce una pérdida de 2 Kg, esto puede
ser estadísticamente significativo, pero mientras que para un investigador nutricionista será
además también importante desde el punto de vista teórico, para un vendedor de esa dieta
no, porque 2 Kg. no le proporciona un buen argumento de venta.
Una última acotación. Podría ocurrir que algunos investigadores que hicieran el experimento
del choque emocional hubiesen obtenido diferencias extremas, como por ejemplo -7 o +7,
mientras que otros hubiesen obtenido diferencias más próximas a cero, con lo cual los
primeros hubiesen aceptado la hipótesis del choque emocional, mientras que los segundos la
hubiesen rechazado. Este desacuerdo entre investigaciones puede ocurrir, con lo cual deberá
emprenderse lo que se llama un 'meta-análisis', es decir, un procedimiento que permita
integrar los resultados acumulados de una serie de investigaciones.
NOTAS
(1) Las muestras no probabilísticas “solo suelen usarse como primera aproximación en trabajos piloto,
pero no puede saberse cuán confiables son sus resultados” (Kohan N, 1994:146).
(2) “Toda teoría de las muestras es una estadística „inferencial‟, pues se „infieren‟ a partir de los valores
estadísticos hallados en las muestras los valores paramétricos más probables para las poblaciones de las
cuales hemos extraído las muestras” (Kohan N, 1994:145).
(3) Cuanto mayor es el error estándar, mayor es el intervalo de confianza. El error estándar es mayor
cuando z es mayor, o sea, cuanto menor es el riesgo que se quiere correr; cuando n es menor (si se
quiere más precisión se necesitará una muestra más grande), y cuando S es mayor. En síntesis: cuanto
menor es el riesgo que se quiere correr, cuanto menor es el tamaño de la muestra y cuanto mayor es el
S (desvío estándar muestral), mayor será el intervalo de confianza.
(4) Este nivel de riesgo es también llamado nivel de significación (Rodríguez Feijóo N, 2003).
(5) "La teoría sobre las muestras... es útil [entre otras cosas] para poder determinar si las diferencias
observadas entre dos muestras son realmente debidas al azar o si son significativas, lo que puede llevar
a un proceso de toma de decisiones gracias a las pruebas de hipótesis y de significación que se pueden
hacer" (Kohan N, 1994:144).
+6
(6) La prueba de hipótesis tiende a ser denominada en la actualidad teoría de la decisión (Kohan N,
1994:173). Con ello se quiere significar que la prueba de hipótesis se lleva a cabo sobre la base de una
teoría llamada teoría de la decisión.
(7) Un experimento clásico para probar la hipótesis del investigador es comparar dos muestras: el grupo
experimental y el grupo de control. Si hay diferencia significativa entre la muestra experimental y la
muestra de control, entonces NO hay diferencia significativa entre la muestra experimental y la
población.
(8) Puede llamar la atención que el investigador no pruebe directamente su hipótesis alternativa sino
que lo haga indirectamente, probando la hipótesis nula. ¿Por qué proceder para apoyar una teoría
mostrando que hay poca evidencia para apoyar la teoría contraria? ¿Por qué no apoyar directamente la
hipótesis alternativa o de investigación? La respuesta está en los problemas para evaluar las
posibilidades de decisiones incorrectas.
El argumento que en general puede encontrarse en los textos de estadística es el siguiente: Si la
hipótesis de investigación es verdadera (por ejemplo una vacuna cura el resfriado), la prueba de la
hipótesis nula (la contraria a la hipótesis de investigación) deberá conducir a su rechazo. En este caso, la
probabilidad de tomar una decisión incorrecta corresponde a cuyo valor fue especificado al determinar
la región de rechazo. Por lo tanto, si se rechaza la hipótesis nula (que es lo deseable) se conoce
inmediatamente la probabilidad de tomar una decisión incorrecta. Esto proporciona una medida de
confianza de la conclusión.
Supóngase que se utiliza el razonamiento opuesto, probando la hipótesis alternativa (de investigación)
de que la vacuna es efectiva. Si la hipótesis de investigación es verdadera, la estadística de prueba
probablemente caerá en la región de aceptación (en lugar de la de rechazo). Ahora, para encontrar la
probabilidad de una decisión incorrecta de debe evaluar , la probabilidad de aceptar la hipótesis nula
cuando esta es falsa. A pesar de que esto no representa un gran esfuerzo para el problema de la vacuna
contra el resfriado, es un trabajo adicional que se debe hacer y en algunos casos es muy difícil calcular
.
Así que, para resumir, es mucho más fácil seguir el camino de la “prueba por contradicción”. Por lo
tanto, el estadístico elegirá la hipótesis contraria a la de la investigación como hipótesis nula y su deseo
es que la prueba conduzca a su rechazo. Si es así, el estadístico conoce el valor de y tiene una medida
inmediata de la confianza que se puede depositar en esta conclusión.
(9) Autores como Hernández Sampieri et al (1996:91) nos ofrecen una interesante tipología de hipótesis
nulas que contemplan varias posibilidades. Concretamente, hacen referencia a: 1) hipótesis nulas
descriptivas de una variable que se va a observar en un contexto (por ejemplo “la expectativa de ingreso
mensual de los trabajadores de la corporación T no oscila entre 50.000 y 60.000 pesos colombianos”);
2) hipótesis que niegan o contradicen la correlación entre dos o más variables (por ejemplo “no hay
relación entre la autoestima y el temor de logro”); 3) hipótesis que niegan que haya diferencia entre
grupos (por ejemplo “no existen diferencias en el contenido de sexo en las telenovelas S, L y M”); y 4)
hipótesis que niegan la relación de causalidad entre dos o más variables (por ejemplo “la percepción de
la similitud en religión, valores y creencias no provoca mayor atracción física”).
A nuestro entender, una visión más completa de las hipótesis nulas debería considerar al menos cuatro
sentidos, que podemos designar respectivamente en términos de hipótesis nula de estimación, hipótesis
nula de correlación, de causalidad y de validez externa:
a) La hipótesis nula de estimación vendría a afirmar que los estadísticos muestrales no son
representativos de los parámetros poblacionales.
b) La hipótesis nula de correlación vendría a afirmar que no existe una correlación significativa entre dos
o más variables. El nivel de significación es en estos casos el que establece a priori el investigador
cuando califica ciertos intervalos del coeficiente de correlación como „alto‟, „medio‟, „bajo‟, etc.
c) La hipótesis nula de causalidad vendría a afirmar que los cambios en la variable dependiente Y no son
adjudicables a los cambios de la variable independiente X. Pagano, por ejemplo, refiere que la hipótesis
nula indica que la variable independiente no influye sobre la variable dependiente (Pagano, 1998:212).
Este segundo sentido de hipótesis nula es el más frecuentemente mencionado en los tratados sobre el
tema.
d) La hipótesis nula de validez externa vendría a indicar que las conclusiones obtenidas en la muestra no
son extensibles -con el nivel confianza requerido- a toda la población. Este tipo de hipótesis vendría
entonces a negar la validez externa de un experimento, entendiendo aquí validez externa como
requisitos de los diseños experimentales tal como por aparecen en gran parte de la bibliografía sobre el
tema (por ejemplo Campbell D y Stanley J, 1995:16). Autores como Tamayo parecerían considerar este
sentido de hipótesis nula cuando la incluyen dentro de las hipótesis estadísticas, definiendo éstas últimas
como suposiciones sobre una población que se realizan a partir de los datos observados, es decir, de una
muestra (Tamayo M, 1999:120).
La hipótesis nula de estimación corresponde a la primera tarea de la estadística inferencial: la estimación
de parámetros. Las hipótesis nulas de correlación y de causalidad corresponderían a la prueba de
hipótesis donde se busca establecer si „y‟ se debe a „x‟ y no al azar, y la hipótesis nula de validez externa
corresponderían a la prueba de hipótesis donde se busca generalizar los resultados a toda la población.
(10) Debe diferenciarse la hipótesis de investigación (H), la hipótesis alternativa (Ha) y la hipótesis nula
(Ho). La hipótesis de investigación resulta, según Vessereau (1962:28), de consideraciones teóricas o
bien está sugerida por los datos mismos. A los efectos de probar la hipótesis de investigación, deberá
dársele una „forma‟ estadística, con lo cual se convierte en la hipótesis alternativa (esta „forma‟
estadística significa que incluye por ejemplo alguna afirmación acerca de „si hay o no diferencias
significativas‟). A su vez para probar esta hipótesis alternativa deberá probarse la hipótesis nula, que no
es otra cosa que la negación de la hipótesis alternativa.
Más concretamente, “por lo general, la hipótesis de investigación predice una relación entre dos o más
variables (por ejemplo, que los niños que tienen mayor dominio del ojo izquierdo obtendrán puntajes de
rendimiento en lectura bastante inferiores a los de los otros alumnos). Para probar esta hipótesis de
manera estadística, el investigador debe transformarla en hipótesis alternativa y luego negarla mediante
la hipótesis nula. La hipótesis nula no siempre refleja las expectativas del investigador en relación con el
resultado del experimento. Por lo general, se opone a la hipótesis de investigación, pero se la utiliza
porque resulta más apropiada para la aplicación de los procedimientos estadísticos. La hipótesis nula
determina que no existe relación entre las variables consideradas (por ejemplo, en lo que respecta al
rendimiento en la lectura, no hay ninguna diferencia entre los niños que poseen mayor dominio del ojo
izquierdo y los demás). Por lo general, cuando se formula una hipótesis nula, se espera que sea
rechazada. Si esto último ocurre, se acepta la hipótesis de investigación” (Van Dalen: 189-190).
(11) Las pruebas de una cola y dos colas también se llaman pruebas de un extremo y dos extremos, o
también unilaterales y bilaterales, o también one tailed test o two tailed test.
(12) Dada una población de la cual se conoce su media aritmética, por ejemplo 70, su varianza, y su
tamaño N, por ejemplo 4, puede llevarse a cabo el siguiente procedimiento: a) primero se sacan todas
las muestras posibles del mismo tamaño. La cantidad de muestras posibles se puede calcular mediante
un número combinatorio, y así, por ejemplo, de una población de N = 4, se pueden obtener un total de
6 muestras de n = 2. b) A continuación se calculan las medias aritméticas de cada una de las muestras
posibles, con lo cual se obtiene una distribución muestral de medias aritméticas. Por ejemplo, las medias
aritméticas de las 6 muestras pueden ser: 50, 60, 70, 80 y 90. c) Seguidamente se calcula la media
aritmética de todas estas medias aritméticas, y se obtiene un valor de 70. Como puede apreciarse, esta
media de todas la medias muestrales coincide con la media poblacional.
La estadística ha demostrado que esta distribución de medias de todas las medias muestrales sigue el
modelo de la curva normal, y se ha establecido así el teorema central de límite, que dice que si se sacan
repetidamente muestras de tamaño n de una población normal de cierta media y cierta varianza, la
distribución de las medias muestrales será normal con una media igual a la media poblacional y con una
varianza igual a la varianza poblacional dividido n. Desde ya, la precisión de la aproximación mejora al
aumentar n.
De todo ello se desprende que si se selecciona una muestra cualquiera y ésta tiene una determinada
varianza (o sea, un determinado desvío estándar respecto de la media de las medias), se habrá
cometido un determinado error, llamado en este caso error estándar, por haber trabajado con una
muestra en lugar de haberlo hecho con la población. La fórmula del error estándar no es otra cosa que el
desvío estándar de la muestra en cuestión, lo que es igual al desvío estándar poblacional dividido por la
raíz cuadrada del tamaño n de la muestra (Rodríguez Feijóo, 2003) (Kohan N, 1994:150-153).
(13) Extraído de http://www.bibliopsiquis.com/psicologiacom/vol5num1/2815/. Otro ejemplo de prueba
de hipótesis de correlación puede encontrarse en Kohan (1994:234).
REFERENCIAS BIBLIOGRÁFICAS
Bancroft H (1960) Introducción a la bioestadística. Buenos Aires: Eudeba.
Botella R (1993) Análisis de datos en psicología I. Buenos Aires: Paidós.
Campbell D y Stanley J (1995), Diseños experimentales y cuasiexperimentales en la investigación social.
Buenos Aires: Amorrortu.
Hernández Sampieri R, Fernández Collado C y Baptista Lucio P (1996), Metodología de la investigación.
México: McGraw-Hill.
Kohan N (1994) Diseño estadístico. Buenos Aires, Eudeba.
Lichtenthal S, Qué es la teoría de la información. Buenos Aires, Revista Ciencia Nueva, N° 3, 1970.
León O y Montero I (1995) Diseño de investigaciones (Introducción a la lógica de la investigación en
Psicología y Educación), Madrid, McGraw-Hill.
Levin R y Rubin D (1996) Estadística para administradores. Prentice Hall, 6° ed.
Pagano R (1998) Estadística en las ciencias del comportamiento. México: Internacional Thomson. 5°
edición.
Rodríguez Feijóo N (2003) Estadística social.
Tamayo M (1999), Diccionario de la investigación científica. México: Limusa.
Van Dalen D y Meyer W, Manual de técnica de la investigación educacional.
Vessereau A (1962) La estadística. Buenos Aires: Eudeba.
OTRAS FUENTES CONSULTADAS
Ander-Egg E (1987) Técnicas de Investigación social. Buenos Aires: Hvmanitas, 21 edición.
Cuidet C (1969) Nociones básicas para el tratamiento estadístico en los tests mentales. Buenos Aires:
Opfyl.
Garrett H (1966) Estadística en Psicología y Educación. Buenos Aires: Paidós.
ANEXOS
ANEXO 1: NOMENCLATURA UTILIZADA EN ESTA GUÍA
Muchos de los símbolos que se emplean en estadística no son universales. En la siguiente
lista se presentan los símbolos que se utilizan en esta Guía, y también se incluyen los
símbolos de las letras del alfabeto griego.
Hay ciertas reglas que suelen ser universales, como por ejemplo, las letras griegas siempre
se refieren a parámetros de la población y las letras latinas se refieren a estadísticos de la
muestra (Levin y Rubin, 1996).
Símbolo
h
CV
CV%
0
Q
Qt
0
D
Dt
Dm
S
f
F
Fant
F%
Fpos
Fr
fant
fpos
f°
f%
fr
As
Li
Ls
xmay
X
Y
Mn
0
Mn
xmen
Mo
t
0
P
Pt
p
Z
z
xm
R
DQ
n
N
a
|
xn
x1
x, y
2
S
Concepto
Altura
Coeficiente de variación
Coeficiente de variación porcentual
Cuartil de orden
Cuartil t (ejemplo: Q3 = Cuartil 3)
Decil de orden
Decil t (ejemplo: D9 = Decil 9)
Desviación media
Desvío estándar muestral
Desvío estándar poblacional
Frecuencia absoluta
Frecuencia acumulada
Frecuencia acumulada anterior
Frecuencia acumulada porcentual
Frecuencia acumulada posterior
Frecuencia acumulada relativa
Frecuencia del intervalo anterior
Frecuencia del intervalo posterior
Frecuencia expresada en grados
Frecuencia porcentual
Frecuencia relativa
Indice de asimetría
Límite inferior del intervalo
Límite superior del intervalo
Mayor valor de la variable
Media aritmética muestral de x
Media aritmética muestral de y
Media aritmética poblacional (esperanza)
Mediana
Mediana de orden
Menor valor de la variable
Modo
Número de decil o del percentil
Percentil de orden
Percentil t (ejemplo P99 = Percentil 99)
Probabilidad
Puntaje estandarizada derivado
Puntaje estandarizado reducido
Punto medio del intervalo
Rango o amplitud
Rango o desvío intercuartílico
Sumatoria
Tamaño de la muestra
Tamaño de la población
Tamaño o amplitud del intervalo
Valor absoluto
Variable (cualquier valor de una…)
Variable (determinado valor de una…)
Variables (letras que designan…)
Variancia muestral
Variancia poblacional
Ls
Li
H
Ho
Ha
11ze
zt
Límite superior del intervalo de confianza
Límite inferior del intervalo de confianza
Hipótesis de investigación
Hipótesis nula
Hipótesis alternativa
Probabilidad de cometer un error Tipo I
Probabilidad de cometer un error Tipo II
Probabilidad de NO cometer el error tipo I
Probabilidad de NO cometer el error tipo II
z empírico
z teórico o crítico
Alfabeto griego
Nombre
alfa
beta
gamma
delta
épsilon
dseta
eta
zeta
Mayúscula
Minúscula
Nombre
Mayúscula
iota
kappa
lambda
mi
ni
xi
ómicron
pi
Minúscula
Nombre
Mayúscula
Minúscula
ro
sigma
tau
ípsilon
fi
ji
psi
omega
ANEXO 2: TABLA DE ÁREAS BAJO LA CURVA NORMAL ESTANDARIZADA
Las siguientes tablas representan dos maneras diferentes de proporcionar una misma
información, a saber, la relación entre el puntaje reducido z con la probabilidad p de
ocurrencia del valor z. El valor de esta probabilidad es proporcional al área correspondiente
bajo la curva.
Por ejemplo, dado un valor z, las tablas permite conocer qué probabilidad tiene que darse
ese valor o más o ese valor o menos, en un individuo elegido al azar. Desde ya, a la inversa,
también permite conocer qué valor z corresponde a una determinada probabilidad. Los
valores z figuran en la primera columna, mientras que los diferentes valores de probabilidad
figuran en las columnas restantes.
Por ejemplo:
a) Siguiendo la Tabla 1, un puntaje reducido z = +1.26 o menor tiene una probabilidad de
ocurrencia de p = 0.8962 (el área bajo la curva normal corresponde al 89.62% de total del
área).
b) Siguiendo la Tabla 2, un puntaje reducido z situado entre z = 0 y z = +1.26 tiene una
probabilidad de ocurrencia de p = 0.3962 (el área bajo la curva normal corresponde al
39.62% del total del área).
Arriba de cada tabla puede observarse un esquema de la curva normal. Las áreas rayadas
indican las áreas que cada tabla permite calcular. Por ejemplo, la Tabla 1 permite calcular
áreas desde z hacia la izquierda, y la Tabla 2 calcula áreas entre z y el centro de la
distribución (z = 0).
Nótese que el título asignado a la Tabla 2 es “Áreas desde z = 0 hacia la izquierda o hacia la
derecha”. Esto significa que, debido a la perfecta simetría de la curva normal, una distancia
entre z = +1.26 y 0 da la misma probabilidad que la distancia z = -1.26 y 0.
Tabla 1 – Áreas desde z hacia la izquierda
z
Probabilidad (p)
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
-3.4
.0003
.0003
.0003
.0003
.0003
.0003
.0003
.0003
.0003
.0002
-3.3
.0005
.0005
.0005
.0004
.0004
.0004
.0004
.0004
.0004
.0003
-3.2
.0007
.0007
.0006
.0006
.0006
.0006
.0006
.0005
.0005
.0005
-3.1
.0010
.0009
.0009
.0009
.0008
.0008
.0008
.0008
.0007
.0007
-3.0
.0013
.0013
.0013
.0012
.0012
.0011
.0011
.0011
.0010
.0010
-2.9
.0019
.0018
.0017
.0017
0016.
.0016
.0015
.0015
.0014
.0014
-2.8
.0026
.0025
.0024
.0023
.0023
.0022
.0021
.0021
.0020
.0019
-2.7
.0035
.0034
.0033
.0032
.0031
.0030
.0029
.0028
.0027
.0026
-2.6
.0047
.0045
.0044
.0043
.0041
.0040
.0039
.0038
.0037
.0036
-2.5
.0062
.0060
.0059
.0057
.0055
.0054
.0052
.0051
.0049
.0048
-2.4
.0082
.0080
.0078
.0075
.0073
.0071
.0069
.0068
.0066
.0064
-2.3
.0107
.0104
.0102
.0099
.0096
.0094
.0091
.0089
.0087
.0084
-2.2
.0139
.0136
.0132
.0129
.0125
.0122
.0119
.0116
.0113
.0110
-2.1
.0179
.0174
.0170
.0166
.0162
.0158
.0154
.0150
.0146
.0143
-2.0
.0228
.0222
.0217
.0212
.0207
.0202
.0197
.0192
.0188
.0183
-1.9
.0287
.0281
.0274
.0268
.0262
.0256
.0250
.0244
.0239
.0233
-1.8
.0359
.0352
.0344
.0336
.0329
.0322
.0314
.0307
.0301
.0294
-1.7
.0446
.0436
.0427
.0418
.0409
.0401
.0392
.0384
.0375
.0367
-1.6
.0548
.0537
.0526
.0516
.0505
.0495
.0485
.0475
.0465
.0455
-1.5
.0668
.0655
.0643
.0630
.0618
.0606
.0595
.0582
.0571
.0559
-1.4
.0808
.0793
.0778
.0764
.0749
.0735
.0722
.0708
.0694
.0681
-1.3
.0968
.0951
.0934
.0918
.0901
.0885
.0869
.0853
.0838
.0823
-1.2
.1151
.1131
.1112
.1093
.1075
.1056
.1038
.1020
.1003
.0985
-1.1
.1357
.1335
.1314
.1292
.1271
.1251
.1230
.1210
.1190
.1170
-1.0
.1587
.1562
.1539
.1515
.1492
.1469
.1446
.1423
.1401
.1379
-0.9
.1841
.1814
.1788
.1762
.1736
.1711
.1685
.1660
1635.
1611.
-0.8
.2119
.2090
.2061
.2033
.2005
.1977
.1949
.1922
.1894
.1867
-0.7
.2420
.2389
.2358
.2327
.2296
.2266
.2236
.2206
.2177
.2148
-0.6
.2743
.2709
.2676
.2643
.2611
.2578
.2546
.2514
.2483
.2451
-0.5
.3085
.3050
.3015
.2981
.2946
.2912
.2877
.2843
.2810
.2776
-0.4
.3446
.3409
.3372
.3336
.3300
.3264
.3228
.3192
.3156
.3121
-0.3
.3821
.3783
.3745
.3707
.3669
.3632
.3594
.3557
.3520
.3483
-0.2
.4207
.4168
.4129
.4090
.4052
.4013
.3974
.3936
.3897
.3859
-0.1
.4602
.4562
.4522
.4483
.4443
.4404
4364.
4325.
4286.
4247.
-0.0
.5000
.4960
.4920
.4880
.4840
.4801
.4761
.4721
.4681
.4641
0.0
.5000
.5040
.5080
.5120
.5160
.5199
.5239
.5279
.5319
.5359
0.1
.5398
.5438
.5478
.5517
.5557
.5596
.5636
.5675
.5714
.5753
0.2
.5793
.5832
.5871
.5910
.5948
.5987
.6026
.6064
.6103
.6141
0.3
.6179
.6217
.6255
.6293
.6331
.6368
.6406
.6443
.6480
.6517
0.4
.6554
.6591
.6628
.6664
.6700
.6736
.6772
.6808
.6844
.6879
0.5
.6915
.6950
.6985
.7019
.7054
.7088
.7123
.7157
.7190
.7224
0.6
.7257
.7291
.7324
.7357
.7389
.7422
.7454
.7486
.7517
.7549
0.7
.7580
.7611
.7642
.7673
.7704
.7734
.7764
.7794
.7823
.7852
0.8
.7881
.7910
.7939
.7967
.7995
.8023
.8051
.8078
.8106
.8133
0.9
.8159
.8186
.8212
.8238
.8264
.8289
.8315
.8340
.8365
.8389
1.0
.8413
.8438
.8461
.8485
.8508
.8531
.8554
.8577
.8599
.8621
1.1
.8643
.8665
.8686
.8708
.8729
.8749
.8770
.8790
.8810
.8830
1.2
.8849
.8869
.8888
.8907
.8925
.8944
.8962
.8980
.8997
.9015
1.3
.9032
.9049
.9066
.9082
.9099
.9115
.9131
.9147
.9162
.9177
1.4
.9192
.9207
.9222
.9236
.9251
.9265
.9279
.9292
.9306
.9319
1.5
.9332
.9345
.9357
.9370
.9382
.9394
.9406
.9418
.9429
.9441
1.6
.9452
.9463
.9474
.9484
.9495
.9505
.9515
.9525
.9535
.9545
1.7
.9554
.9564
.9573
.9582
.9591
.9599
.9608
.9616
.9625
.9633
1.8
.9641
.9649
.9656
.9664
.9671
.9678
.9686
.9693
.9699
.9706
1.9
.9713
.9719
.9726
.9732
.9738
.9744
.9750
.9756
.9761
.9767
2.0
.9772
.9778
.9783
.9788
.9793
.9798
.9803
.9808
.9812
.9817
2.1
.9821
.9826
.9830
.9834
.9838
.9842
.9846
.9850
.9854
.9857
2.2
.9861
.9864
.9868
.9871
.9875
.4878
.9881
.9884
.9887
.9890
2.3
.9893
.9896
.9898
.9901
.9904
.9906
.9909
.9911
.9913
.9916
2.4
.9918
.9920
.9922
.9925
.9927
.9929
.9931
.9932
.9934
.9936
2.5
.9938
.9940
.9941
.9943
.9945
.9946
.9948
.9949
.9951
.9952
2.6
.9953
.9955
.9956
.9957
.9959
.9960
.9961
.9962
.9963
.9964
2.7
.9965
.9966
.9967
.9968
.9969
.9970
.9971
.9972
.9973
.9974
2.8
.9974
.9975
.9976
.9977
.9977
.9978
.9979
.9979
.9980
.9981
2.9
.9981
.9982
.9982
.9983
.9984
.9984
.9985
.9985
.9986
.9986
3.0
.9987
.9987
.9987
.9988
.9988
.9989
.9989
.9989
.9990
.9990
3.1
.9990
.9991
.9991
.9991
.9992
.9992
.9992
.9992
.9993
.9993
3.2
.9993
.9993
.9994
.9994
.9994
.9994
.9994
.9995
.9995
.9995
3.3
.9995
.9995
.9995
.9996
.9996
.9996
.9996
.9996
.9996
.9997
3.4
.9997
.9997
.9997
.9997
.9997
.9997
.9997
.9997
.9997
.9998
Tabla 2 – Áreas desde z = 0 hacia la izquierda o hacia la derecha
z
Probabilidad (p)
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.0 .0000 .0040 .0080 .0120 .0160 .0199 .0239 .0279 .0319 .0359
0.1 .0398 .0438 .0478 .0517 .0557 .0596 .0636 .0675 .0714 .0754
0.2 .0793 .0832 .0871 .0910 .0948 .0987 .1026 .1064 .1103 .1141
0.3 .1179 .1217 .1255 .1293 .1331 .1368 .1406 .1443 .1480 .1517
0.4 .1554 .1591 .1628 .1664 .1700 .1736 .1772 .1808 .1844 .1879
0.5 .1915 .1950 .1985 .2019 .2054 .2088 .2123 .2157 .2190 .2224
0.6 .2258 .2291 .2324 .2357 .2389 .2422 .2454 .2486 .2518 .2549
0.7 .2580 .2612 .2642 .2673 .2704 .2734 .2764 .2794 .2823 .2852
0.8 .2881 .2910 .2939 .2967 .2996 .3023 .3051 .3078 .3106 .3133
0.9 .3159 .3186 .3212 .3238 .3264 .3289 .3315 .3340 .3365 .3389
1.0 .3413 .3438 .3461 .3485 .3508 .3531 .3554 .3577 .3599 .3621
1.1 .3643 .3665 .3686 .3708 .3729 .3749 .3770 .3790 .3810 .3830
1.2 .3849 .3869 .3888 .3907 .3925 .3944 .3962 .3980 .3997 .4015
1.3 .4032 .4049 .4066 .4082 .4099 .4115 .4131 .4147 .4162 .4177
1.4 .4192 .4207 .4222 .4236 .4251 .4265 .4279 .4292 .4306 .4319
1.5 .4332 .4345 .4357 .4370 .4382 .4394 .4406 .4418 .4429 .4441
1.6 .4452 .4463 .4474 .4484 .4495 .4505 .4515 .4525 .4535 .4545
1.7 .4554 .4564 .4573 .4582 .4591 .4599 .4608 .4616 .4625 .4633
1.8 .4641 .4649 .4656 .4664 .4671 .4599 .4608 .4616 .4625 .4633
1.9 .4713 .4719 .4726 .4732 .4738 .4744 .4750 .4756 .4761 .4767
2.0 .4772 .4778 .4783 .4788 .4793 .4798 .4803 .4808 .4812 .4817
2.1 .4821 .4826 .4830 .4834 .4838 .4842 .4846 .4850 .4854 .4857
2.2 .4961 .4864 .4868 .4871 .4875 .4878 .4881 .4884 .4887 .4890
2.3 .4893 .4896 .4898 .4901 .4904 .4906 .4909 .4911 .4913 .4916
2.4 .4918 .4920 .4922 .4925 .4927 .4929 .4931 .4932 .4934 .4936
2.5 .4938 .4940 .4941 .4943 .4945 .4946 .4948 .4949 .4951 .4952
2.6 .4953 .4955 .4956 .4957 .4959 .4960 .4961 .4962 .4963 .4964
2.7 .4965 .4966 .4967 .4968 .4969 .4970 .4971 .4972 .4973 .4974
2.8 .4974 .4975 .4976 .4977 .4977 .4978 .4979 .4979 .4980 .4981
2.9 .4981 .4982 .4982 .4983 .4984 .4984 .4985 .4985 .4986 .4986
3.0 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
3.1 .4990 .4991 .4991 .4991 .4992 .4992 .4992 .4992 .4993 .4993
3.2 .4993 .4993 .4994 .4994 .4994 .4994 .4994 .4995 .4995 .4995
3.3 .4995 .4995 .4995 .4996 .4996 .4996 .4996 .4996 4996. .4997
3.4 .4997 .4997 .4997 .4997 .4997 .4997 .4997 .4997 .4997 .4998
ANEXO 3
TABLA DE LA DISTRIBUCION t (Student)
Grado de libertad
1
2
3
Nivel de probabilidad para pruebas de una cola
0.10
0.05
0.025
0.01
0.005
0.0005
Nivel de probabilidad para pruebas de dos colas
0.20
0.10
0.05
0.02
0.01
0.001
3.078 6.314 12.706 31.821 63.657 636.619
1.886 2.920 4.303
6.965
9.925
31.598
1.638 2.353 3.182
4.541
5.841
12.941
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120
Infinito
1.533 2.132 2.776
3.747
1.476 2.015 2.571
3.365
1.440 1.943 2.447
3.143
1.415 1.895 2.365
2.998
1.397 1.860 2.306
2.896
1.383 1.833 2.262
2.821
1.372 1.812 2.228
2.764
1.363 1.796 2.201
2.718
1.356 1.782 2.179
2.681
1.350 1.771 2.160
2.650
1.345 1.761 2.145
2.624
1.341 1.753 2.131
2.602
1.337 1.746 2.120
2.583
1.333 1.740 2.110
2.567
1.330 1.734 2.101
2.552
1.328 1.729 2.093
2.539
1.325 1.725 2.086
2.528
1.323 1.721 2.080
2.518
1.321 1.717 2.074
2.508
1.319 1.714 2.069
2.500
1.318 1.711 2.064
2.492
1.316 1.708 2.060
2.485
1.315 1.706 2.056
2.479
1.314 1.703 2.052
2.473
1.313 1.701 2.048
2.467
1.311 1.699 2.045
2.462
1.310 1.697 2.042
2.457
1.303 1.684 2.021
2.423
1.296 1.671 2.000
2.390
1.289 1.658 1.980
2.358
1.282 1.645 1.960
2.326
(Fuente: Kohan, 1994:519).
4.604
4.032
3.707
3.499
3.355
3.250
3.169
3.106
3.055
3.012
2.977
2.947
2.921
2.898
2.878
2.861
2.845
2.831
2.819
2.807
2.797
2.787
2.779
2.771
2.763
2.756
2.750
2.704
2.660
2.617
2.576
8.610
6.859
5.959
5.405
5.041
4.781
4.587
4.437
4.318
4.221
4.140
4.073
4.015
3.965
3.922
3.883
3.850
3.819
3.792
3.767
3.745
3.725
3.707
3.690
3.674
3.659
3.646
3.551
3.460
3.373
3.291
Download