Sunteți pe pagina 1din 3

Asimetría estadística

Ir a la navegaciónIr a la búsqueda

En punteado amarillo: la media, en punteado azul: la moda.

Ejemplo de datos experimentales con una asimetría positiva (respuesta gravitrópica de los coleóptilos
del trigo).

Índice

 1Definición

 2Medidas de asimetría

o 2.1Coeficiente de asimetría de Fisher

o 2.2Coeficiente de asimetría de Pearson

o 2.3Coeficiente de asimetría de Bowley-Yule

 3Utilidad

 4Referencias

 5Enlaces externos
Definición[editar]
Las medidas de asimetría son indicadores que permiten establecer el grado de simetría (o
asimetría) que presenta una distribución de probabilidad de una variable aleatoria sin tener
que hacer su representación gráfica. Como eje de simetría consideramos una recta paralela al
eje de ordenadas que pasa por la media de la distribución. Si una distribución es simétrica,
existe el mismo número de valores a la derecha que a la izquierda de la media, por tanto, el
mismo número de desviaciones con signo positivo que con signo negativo. Decimos que hay
asimetría positiva (o a la derecha) si la "cola" a la derecha de la media es más larga que la de
la izquierda, es decir, si hay valores más separados de la media a la derecha. Diremos que
hay asimetría negativa (o a la izquierda) si la "cola" a la izquierda de la media es más larga
que la de la derecha, es decir, si hay valores más separados de la media a la izquierda.

Medidas de asimetría[editar]
Coeficiente de asimetría de Fisher[editar]
En teoría de la probabilidad y estadística, la medida de asimetría más utilizada parte del uso
del tercer momento estándar. La razón de esto es que nos interesa mantener el signo de las
desviaciones con respecto a la media, para obtener si son mayores las que ocurren a la
derecha de la media que las de la izquierda. Sin embargo, no es buena idea tomar el
momento estándar con respecto a la media de orden 1. Debido a que una simple suma de
todas las desviaciones siempre es cero. En efecto, si por ejemplo, los datos están agrupados
en clases, se tiene que:

en donde representa la marca de la clase -ésima y denota la frecuencia relativa de dicha


clase. Por ello, lo más sencillo es tomar las desviaciones al cubo.
El coeficiente de asimetría de Fisher, representado por , se define como:
donde es el tercer momento en torno a la media y es la desviación estándar.
Si , la distribución es asimétrica positiva o a la derecha.
Si , la distribución es asimétrica negativa o a la izquierda.
Si la distribución es simétrica, entonces sabemos que . El recíproco no es cierto: es un
error común asegurar que si entonces la distribución es simétrica (lo cual es falso).
Coeficiente de asimetría de Pearson[editar]
Sólo se puede utilizar en distribuciones uniformes, unimodales y moderadamente
asimétricas. Se basa en que en distribuciones simétricas la media de la distribución es
igual a la moda.
donde es el momento ordinario de orden 1, que corresponde a la media aritmética de
la variable .
Si la distribución es simétrica, y . Si la distribución es asimétrica positiva la media se
sitúa por encima de la moda y, por tanto, .
Coeficiente de asimetría de Bowley-Yule[editar]
Está basado en la posición de los cuartiles y la mediana, y utiliza la siguiente
expresión:
En una distribución simétrica el tercer cuartil estará a la misma distancia de la
mediana que el primer cuartil. Por tanto .
Si la distribución es positiva o a la derecha, .

Utilidad[editar]
La asimetría resulta útil en muchos campos. Muchos modelos simplistas asumen una
distribución normal, esto es, simétrica en torno a la media. La distribución normal tiene
una asimetría cero. Cuando el tamaño de la muestra aumenta cualquier población
tiende a volverse simétrica. Una asimetría positiva implica que hay más valores
distintos a la derecha de la media.
Las medidas de asimetría, sobre todo el coeficiente de asimetría de Fisher, junto
con las medidas de apuntamiento o curtosis se utilizan para contrastar si se puede
aceptar que una distribución estadística sigue la distribución normal. Esto es
necesario para realizar numerosos contrastes estadísticos en la teoría de inferencia
estadística.

S-ar putea să vă placă și