1. ASIMETRÍA Esta medida nos permite identificar si los datos se distribuyen de forma uniforme alrededor del punto central central (Media aritmética). aritmética). La asimetría asimetría presenta tres estados estados diferentes [Fig.5-1], [Fig.5-1], cada uno de los cuales define de forma concisa como están distribuidos los datos respecto al eje de asimetría. Se dice que la asimetría es positiva cuando la mayoría de los datos se encuentran por encima del valor de la media aritmética, la curva es Simétrica cuando se distribuyen aproximadamente la misma cantidad de valores en ambos lados de la media y se conoce como asimetría negativa cuando la mayor cantidad de datos se aglomeran en los valores menores que la media.
Figura 5-1
El Coeficiente de asimetría, asimetría, se representa mediante la ecuación matemática,
Ecuación 5-9
Donde Donde (g1) repres represent enta a el coefic coeficien iente te de asimetría asimetría de Fisher, Fisher, (Xi) cada cada uno de los valore valores, s, ( ) la media de la muestra y (ni) la frecuencia de cada valor. Los resultados de esta ecuación se interpretan:
(g1 = 0): Se acepta que la distribución es Simétrica, es decir, existe aproximadamente la misma cantidad de valores a los dos lados de la media. Este valor es difícil de conseguir por lo que se tiende a tomar los valores que son cercanos ya sean positivos o negativos (± 0.5). (g1 > 0): La curva es asimétricamente positiva por lo que los valores se tienden a reunir más en la parte izquierda que en la derecha de la media. (g1 < 0): La curva es asimétricamente negativa por lo que los valores se tienden a reunir más en la parte derecha de la media.
•
•
•
Desde luego entre mayor sea el número (Positivo o Negativo), mayor será la distancia que separa la aglomeración de los valores con respecto a la media.
2. CURTOSIS Esta medida determina el grado de concentración que presentan los valores en la región central de la distri distribuc bución ión.. Por medio medio del Coeficiente Coeficiente de Curtosis Curtosis,, podemos podemos identifi identificar car si existe existe una gran concen concentra tració ción n de valore valores s (Leptocúrtica), Leptocúrtica), una concent concentrac ración ión normal normal (Mesocúrtica) Mesocúrtica) ó una una baja baja concentración (Platicúrtica (Platicúrtica). ).
Figura 5-2
Para calcular el coeficiente de Curtosis se utiliza la ecuación:
Ecuacion 5-10
Donde (g2) representa el coeficiente de Curtosis, (Xi) cada uno de los valores, ( ) la media de la muestra y (ni) la frecuencia de cada valor. Los resultados de esta fórmula se interpretan:
(g2 = 0) la distribución es Mesocúrtica: Al igual que en la asimetría es bastante difícil encontrar un coeficiente de Curtosis de cero (0), por lo que se suelen aceptar los valores cercanos (± 0.5 aprox.). (g2 > 0) la distribución es Leptocúrtica (g2 < 0) la distribución es Platicúrtica •
• •
Cuando la distribución de los datos cuenta con un coeficiente de asimetría (g1 = ±0.5) y un coeficiente de Curtosis de (g2 = ±0.5), se le denomina Curva Normal. Este criterio es de suma importancia ya que para la mayoría de los procedimientos de la estadística de inferencia se requiere que los datos se distribuyan normalmente. La principal ventaja de la distribución normal radica en el supuesto que el 95% de los valores se encuentra dentro de una distancia de dos desviaciones estándar de la media aritmética (Fig.5-3); es decir, si tomamos la media y le sumamos dos veces la desviación y después le restamos a la media dos desviaciones, el 95% de los casos se encontraría dentro del rango que compongan estos valores.
Figura 5-3
Desde luego, los conceptos vistos hasta aquí, son sólo una pequeña introducción a las principales medidas de Estadística Descriptiva; es de gran importancia que los lectores profundicen en estos temas ya que la principal dificultad del paquete SPSS radica en el desconocimiento de los conceptos estadísticos. Las definiciones plasmadas en este capítulo han sido extraídas de los libros Estadística para administradores escrito por Alan Wester de la editorial McGraw-Hill y el libro Estadística y Muestreo escrito por Ciro Martínez editorial Ecoe editores (Octava edición). No necesariamente tienes que guiarte por estos libros ya que en las librerías encontraras una gran variedad de textos que pueden ser de bastante utilidad en la introducción a esta ciencia
Hasta ahora se han estudiado los parámetros de centralización y de dispersión que son las medidas más frecuentes que se calculan en cualquier estudio estadístico. Sin embargo existe también medidas que indican de la simetría o asimetría de la distribución y del achatamiento o no de la misma. Empezando con la simetría, es lógico pensar que si la distribución tiene una única moda y es simétrica, entonces las tres medidas de centralización coinciden. Si no es simétrica, suele suceder que la mediana esté comprendida entre la moda y la media. Medidas de simetría o asimetría. Miden la mayor o menor
simetría de la distribución. Existen dos medidas de este tipo: Índice de simetría de Pearson:
Índice de simetría de Fisher:
Si la distribución es simétrica, ambos índices son iguales a 0; si es asimétrica a la derecha, ambos son positivos; y si es asimétrica a la izquierda, ambos índices son negativos. Medidas de curtosis. Miden la mayor o menor concentración
de datos alrededor de la media. Se suele medir con el coeficiente de curtosis:
Si este coeficiente es nulo, la distribución se dice normal (similar a la distribución normal de Gauss) y recibe el nombre de mesocúrtica. Si el coeficiente es positivo, la distribución se llama leptocúrtica, más puntiaguda que la anterior. Hay una mayor concentración de los
datos en torno a la media. Si el coeficiente es negativo, la distribución se llama platicúrtica y hay una menor concentración de datos en torno a la media. sería más achatada que la primera. asimetría El tercer momento respecto de la media mide la asimetría de la distribución, es decir, si existen o no observaciones muy extremas en algún sentido con frecuencias razonablemente altas. Si la asimetría es negativa, la variable toma valores muy bajos con mayor frecuencia que valores muy altos y se dice que tiene una cola izquierda pesada o que es asimétrica hacia la izquierda. Si la asimetría es positiva, la variable toma valores muy altos con mayor frecuencia que valores muy bajos y se dice que tiene una cola derecha pesada o que es asimétrica hacia la derecha. Si la asimetría es cero, los valores bajos y altos de la variable tienen probabilidades iguales (el ejemplo más típico de variable simétrica es la variable normal) La asimetría tiene el mismo problema que la varianza y la covarianza en cuanto a sus unidades de medida y, por ello, normalmente se utiliza una medida adimensional de la asimetría que es el coeficiente de asimetría, g1, que se calcula como el cociente entre el tercer momento y el cubo de la desviación típica.
k=4
= curtosis
El cuarto momento respecto de la media mide la curtosis de la distribución, es decir, la forma de la distribución de probabilidad. Al
representar gráficamente variables con curtosis pequeña, platicúrticas, se observan curvas o histogramas con colas cortas y aspecto aplanado o en meseta; si la variable tiene curtosis grande, es decir, si es leptocúrtica, su gráfica ser alta y estilizada, con colas largas y pesadas. La curtosis de una variable siempre es positiva y se mide en la unidades de la variable elevadas a potencia 4. Por tanto, nuevamente se nos plantean los problemas relacionados con las unidades de medida y las escalas y necesitamos una medida adimensional de la curtosis. Esta medida adimensional de la curtosis es el coeficiente de curtosis, g2, que se calcula como el cociente entre el cuarto momento y el cuadrado de la varianza, al que se le resta 3 unidades. Esta corrección se debe a que, sin ella, las variables normales tendrían coeficiente de curtosis igual a 3; al restar 3 conseguimos que el coeficiente de curtosis de la variable normal sea 0 y que las variables platicúrticas tengan coeficiente de curtosis negativo y la leptocúrticas positivo, lo cual es más mnemotécnico que la distinción entre curtosis pequeña y grande.
g2 = 0
g2 > 0
g2 < 0
1. Asimetría y curtosis En los dos temas anteriores hemos visto las medidas de tendencia central y las medidas de variabilidad. Si bien la obtención de tales medidas es clave para describir una muestra y efectuar inferencias sobre la población de origen, es también fundamental saber obtener una caracterización adecuada de los datos. 2. Asimetría Si bien es fácil tener una idea de si la distribución es simétrica o no tras ver la representación gráfica (p.e., un histograma o un diagrama de caja y bigotes), es importante cuantificar la posible asimetría de una distribución. Recordemos que cuando la distribución de los datos es simétrica, la media, la mediana y la moda coinciden. (Y la distribución tiene la misma forma a la izquierda y la derecha del centro) Si bien muchas distribuciones psicológicas se asume que tienden a ser simétricas y unimodales, en muchos casos la distribución que encontramos es asimétrica (v.g., las distribuciones de los Tiempos de Reacción en casi cualquier tarea es asimétrica positivo). 3. Asimetría positiva Moda Mediana Media Asimetría negativa Media Mediana Moda Examen difícil Salarios Tiempos de Reacción Examen fácil 4. 5. Índices de asimetría 1. Índice de asimetría de Pearson Muy sencillo de calcular. Está basado en la relación entre la media y la moda en distribuciones simétricas y asimétricas: Si la distribución es simétrica A s será 0 Si la distribución es asimétrica positiva, A s será mayor que 0 Si la distribución es asimétrica negativa, A s será menor que 0 6. Índices de asimetría 2. Índice de asimetría de Fisher Está basado en la diferencia de los datos sobre la media, como la varianza, si bien esta vez se elevan los coeficientes al cubo Si la distribución es simétrica A s será 0 Si la distribución es asimétrica positiva, A s será mayor que 0 Si la distribución es asimétrica negativa, A s será menor que 0 Desventaja: Muy influida por puntuaciones atípicas (ya lo volveremos a comentar en el último punto de este tema). 7. Curtosis o apuntamiento Hace referencia al apuntamiento de la distribución en relación a un estándar, que es la distribución normal. Este estándar es la distribución normal: distribución mesocúrtica. Si la distribución es más apuntada que la distribución normal tenemos una distribución leptocúrtica. Si la distribución es más achatada que la distribución normal tenemos una distribución platicúrtica. 8. 9. Curtosis o apuntamiento IMPORTANTE: Curtosis es independiente de la variabilidad (en el sentido de “varianza”). Es decir, no es que una distribución leptocúrtica tenga menos varianza y por eso es más apuntada. Una distribución leptocúrtica es muy apuntada en el centro (más que la normal), decae muy rápidamente en un primer momento, pero en los extremos es algo más alta que la distribución normal. Eso quiere decir que una distribución leptocúrtica es más probable que ofrezca más valores extremos que la distribución normal. 10. Ejemplo de curtosis (dist. Mesocúrtica) 11. Índice de curtosis (veremos un solo índice) Para una distribución normal (mesocúrtica) sabemos que Y esta va a ser la referencia para el índice de curtosis que vamos a emplear Si la distribución es normal (mesocúrtica), el índice vale 0 Si la distribución es leptocúrtica, el índice es superior a 0 Si la distribución es platicúrtica, el índice es inferior a 0
Definición Las medidas de asimetría son indicadores que permiten establecer el grado de simetría (o asimetría) que presenta una distribución de probabilidad de una variable aleatoria sin tener que hacer su representación gráfica. Como eje de simetría consideramos una recta paralela al eje de ordenadas que pasa por la media de la distribución. Si una distribución es simétrica, existe el mismo número de valores a la derecha que a la izquierda de la media, por tanto, el mismo número de desviaciones con signo positivo que con signo negativo. Decimos que hay asimetría positiva (o a la derecha) si la "cola" a la derecha de la media es más larga que la de la izquierda, es decir, si hay valores más separados de la media a la derecha. Diremos que hay asimetría negativa (o a la izquierda) si la "cola" a la izquierda de la media es más
larga que la de la derecha, es decir, si hay valores más separados de la media a la izquierda.
[editar] Medidas de asimetría [editar] Coeficiente de asimetría de Fisher En teoría de la probabilidad y estadística, la medida de asimetría más utilizada parte del uso del tercer momento estándar . La razón de esto es que nos interesa mantener el signo de las desviaciones con respecto a la media, para obtener si son mayores las que ocurren a la derecha de la media que las de la izquierda. Sin embargo, no es buena idea tomar el momento estándar con respecto a la media de orden 1 (¡Ya que una simple suma de todas las desviaciones siempre es cero!). Por ello, lo más sencillo es tomar las desviaciones al cubo. El coeficiente de asimetría de Fisher , representado por γ 1, se define como:
donde μ3 es el tercer momento en torno a la media y σ es la desviación estándar . Si γ1 = 0, la distribución es simétrica. Si γ1 > 0, la distribución es asimétrica positiva o a la derecha. Si γ1 < 0, la distribución es asimétrica negativa o a la izquierda.
[editar] Coeficiente de asimetría de Pearson Sólo se puede utilizar en distribuciones uniformes, unimodales y moderadamente asimétricas. Se basa en que en distribuciones simétricas la media de la distribución es igual a la moda.
Si la distribución es simétrica, μ = moda y A p = 0. Si la distribución es asimétrica positiva la media se sitúa por encima de la moda y, por tanto, A p > 0.
[editar] Coeficiente de asimetría de Bowley Está basado en la posición de los cuartiles y la mediana, y utiliza la siguiente expresión:
En una distribución simétrica el tercer cuartil estará a la misma distancia de la mediana que el primer cuartil. Por tanto A B = 0. Si la distribución es positiva o a la derecha, A B > 0.
[editar] Utilidad La asimetría resulta útil en muchos campos. Muchos modelos simplistas asumen una distribución normal, esto es, simétrica en torno a la media. La distribución normal tiene una asimetría cero. Pero en realidad, los valores no son nunca perfectamente simétricos y la asimetría de la distribución proporciona una idea sobre si las desviaciones de la media son positivas o negativas. Una asimetría positiva implica que hay más valores distintos a la derecha de la media. Las medidas de asimetría, sobre todo el coeficiente de asimetría de Fisher, junto con las medidas de apuntamiento o curtosis se utilizan para contrastar si se puede aceptar que una distribución estadística sigue la distribución normal. Esto es necesario para realizar numerosos contrastes estadísticos en la teoría de inferencia estadística.
1) ASIMETRÍA Es una medida de forma de una distribución que permite identificar y describir la manera como los datos tiende a reunirse de acuerdo con la frecuencia con que se hallen dentro de la distribución. Permite identificar las características de la distribución de datos sin necesidad de generar el gráfico.
1.1) TIPOS DE ASIMETRÍA La asimetría presenta las siguientes formas:
Asimetría Negativa o a la Izquierda.- Se da cuando en una distribución la minoría de los datos está en la parte izquierda de la media. Este tipo de distribución presenta un alargamiento o sesgo hacia la izquierda, es decir, la distribución de los datos tiene a la izquierda una cola más larga que a la derecha. También se dice que una distribución es simétrica a la izquierda o tiene sesgo negativo cuando el valor de la media aritmética es menor que la mediana y éste valor de la mediana a su vez es menor que la moda, en símbolos
Nota: Sesgo es el grado de asimetría de una distribución, es decir, cuánto se aparta de la simetría. Simétrica.- Se da cuando en una distribución se distribuyen aproximadamente la misma cantidad de los datos a ambos lados de la media aritmética. No tiene alargamiento o sesgo. Se representa por una curva normal en forma de campana llamada campana de Gauss (matemático Alemán 1777-1855) o también conocida como de Laplace (1749-1827).También se dice que una distribución es simétrica cuando su media aritmética, su mediana y su moda son iguales, en símbolos
Md=Mo
Asimetría Positiva o a la Derecha.- Se da cuando en una distribución la minoría de los datos está en la parte derecha de la media aritmética. Este tipo de distribución presenta un alargamiento o sesgo hacia la derecha, es decir, la distribución de los datos tiene a la derecha una cola más larga que a la izquierda. También se dice que una distribución es simétrica a la derecha o tiene sesgo positivo cuando el valor de la media aritmética es mayor que la mediana y éste a valor de la mediana a su vez es mayor que la moda, en símbolos
1.2) MEDIDAS DE ASIMETRÍA Coeficiente de Karl Pearson
Donde: = media aritmética. Md = Mediana. s = desviación típica o estándar.
Nota: El Coeficiente de Pearson varía entre -3 y 3 Si As < 0 ? la distribución será asimétrica negativa. Si As = 0 ? la distribución será simétrica. Si As > 0 ? la distribución será asimétrica positiva.
Medida de Yule Bowley o Medida Cuartílica
Donde: = Cuartil uno;
= Cuartil dos = Mediana;
= Cuartil tres .
Nota: La Medida de Bowley varía entre -1 y 1 Si As < 0 ? la distribución será asimétrica negativa. Si As = 0 ? la distribución será simétrica. Si As > 0 ? la distribución será asimétrica positiva.
Medida de Fisher Para datos sin agrupar se emplea la siguiente fórmula:
Para datos agrupados en tablas de frecuencias se emplea la siguiente fórmula:
Para datos agrupados en intervalos se emplea la siguiente fórmula:
Donde: = cada uno de los valores; n = número de datos; = media aritmética; f = frecuencia absoluta = cubo de la desviación estándar poblacional; xm = marca de clase
Nota: Si As < 0 ?Indica que existe presencia de la minoría de datos en la parte izquierda de la media, aunque en algunos casos no necesariamente indicará que la distribución sea asimétrica negativa Si As = 0 ? la distribución será simétrica Si As > 0 ? Indica que existe presencia de la minoría de datos en la parte derecha de la media, aunque en algunos casos no necesariamente indicará que la distribución sea asimétrica positiva
Ejemplo ilustrativo: Calcular el Coeficiente de Pearson, Medida Cuartílica y la Medida de Fisher dada la siguiente distribución: 6, 9, 9, 12, 12, 12, 15 y 17
Solución: Calculando la media aritmética se obtiene:
Para calcular los cuartiles se ordena los datos de menor a mayor 6
9
9
12
12
12
15
17
Calculando el cuartil uno se obtiene:
Calculando el cuartil dos se obtiene:
Calculando el cuartil tres se obtiene:
Calculando la desviación estándar muestral se obtiene:
Calculando el Coeficiente de Pearson se obtiene:
Calculando la Medida de Bowley se obtiene
Calculando la desviación estándar poblacional se obtiene:
Calculando la Medida de Fisher se obtiene Datos
6
-166,375
9
-15,625
9
-15,625
12
0,125
12
0,125
12
0,125
15
42,875
17
166,375
Total
12
Los cálculos en Excel se muestran en la siguiente figura:
Nota: El COEFICIENTE.ASIMETRIA(A2:A9) es un valor que tiene consideraciones semejantes a la Medida de Fisher
2) CURTOSIS O APUNTAMIENTO La curtosis mide el grado de agudeza o achatamiento de una distribución con relación a la distribución normal, es decir, mide cuán puntiaguda es una distribución.
2.1) TIPOS DE CURTOSIS La curtosis determina el grado de concentración que presentan los valores en la región central de la distribución. Así puede ser:
Leptocúrtica.- Existe una gran concentración. Mesocúrtica.- Existe una concentración normal. Platicúrtica.- Existe una baja concentración.
2.2) MEDIDAS DE CURTOSIS Medida de Fisher Para datos sin agrupar se emplea la siguiente fórmula:
Para datos agrupados en tablas de frecuencias se emplea la siguiente fórmula:
Para datos agrupados en intervalos se emplea la siguiente fórmula:
Donde: = cada uno de los valores; n = número de datos; = media aritmética; desviación estándar poblacional; f = frecuencia absoluta; xm = marca de clase
= Cuádruplo de la
Nota: Si a < 3 ? la distribución es platicútica Si a = 3 ? la distribución es normal o mesocúrtica Si a > 3 ? la distribución es leptocúrtica
Medida basada en Cuartiles y Percentiles
(letra griega minúscula kappa) = Coeficiente percentil de curtosis
Nota: Si < 0,263 ? la distribución es platicúrtica Si = 0,263 ? la distribución es normal o mesocúrtica Si > 0,263 ? la distribución es leptocúrtica Esta medida no es muy utilizada.
Ejemplo ilustrativo: Determinar qué tipo de curtosis tiene la siguiente distribución: 6, 9, 9, 12, 12, 12, 15 y 17. Emplear la medida de Fisher y el coeficiente percentil de curtosis.
Solución: Calculando la media aritmética se obtiene
Calculando la desviación estándar poblacional se obtiene:
Calculando la Medida de Fisher se obtiene: Datos
6
915,0625
9
39,0625
9
39,0625
12
0,0625
12
0,0625
12
0,0625
15
150,0625
17
915,0625
Total
2058,5
Para calcular los cuartiles y percentiles se ordena los datos de menor a mayor: 6
9
9
12
12
12
15
17
Calculando el cuartil uno se obtiene:
Calculando el cuartil tres se obtiene:
Calculando el percentil 90 se tiene:
Calculando el percentil 10 se tiene:
Calculando el coeficiente percentil de curtosis se obtiene:
Como a= 2,23 y
la distribución es platicúrtica
Los cálculos en Excel se muestran en la siguiente figura: