Sunteți pe pagina 1din 3

Coeficiente phi

http://es.wikipedia.org/wiki/Coeficiente_phi De Wikipedia, la enciclopedia libre Saltar a navegacin, bsqueda En estadstica, el coeficiente phi o r , tambin llamado coeficiente de correlacin de Mathews es una medida de la asociacin entre dos variables binarias. Esta medida es similar al coeficiente de correlacin de Pearson en su interpretacin. De hecho, un coeficiente de correlacin de Pearson estimado para dos variables binarias nos dar el coeficiente phi.[1] El coeficiente phi tambin relacionado con el estadstico de chi-cuadrado para una tabla de contingencia de a 22.[2]

Donde n es el total del nmero de observaciones. Se considera que dos variables binarias estn positivamente asociadas si la mayor parte de los datos caen dentro de las celdas diagonales. Por contra, dos variables binarias se consideran negativamente asociadas si la mayora de los datos se salen de la diagonal. Si tenemos una tabla de 22 para dos variables aleatorias, x e y y = 1 y = 0 total x = 1 n11 x = 0 n01 n10 n00

n total donde n11, n10, n01, n00, son "cuentas no negativas celdad celda" que se suman a n, el nmero total de observaciones. El coeficiente phi que describe la asociacin de x e y es

[editar] Valores mximos Aunque en computacin el coeficiente de correlacin de Pearson se reduce al coeficiente phi en el caso 22, la interpretacin del coeficiente de correlacin de Pearson y el coeficiente phi se deben tomar con precaucin. El coeficiente de correlacin de Pearson va desde 1 a +1, donde 1 concordancia o discordancia perfectas, y el 0 indica ausencia de relacin. El coeficiente phi tiene un valor mximo que est determinado por la distribucin de dos variables. Si ambas tienen un split 50/50, el rango de phi ir de 1 a +1. Ver Davenport El-Sanhury (1991) para una exhaustiva discusin.[3] [editar] Referencias Guilford, J. (1936). Psychometric Methods. New York: McGrawHill Book Company, Inc. 1. 2. Everitt B.S. (2002) The Cambridge Dictionary of Statistics, CUP. ISBN 0-521-81099-X Davenport, E., & El-Sanhury, N. (1991). Phi/Phimax: Review and Synthesis. Educational 3. and Psychological Measurement, 51, 821 828.

http://translate.google.com.pe/translate?hl=es&langpair=en%7Ces&u=http://www.people.vc u.edu/~pdattalo/702SuppRead/MeasAssoc/NominalAssoc.html Phi. Phi es una medida basada chi-cuadrado de asociacin. El chi-cuadrado coeficiente depende de la fuerza de la relacin y tamao de la muestra. Phi elimina tamao de la muestra mediante la divisin de chi-cuadrado por n, el tamao de la muestra, y tomando la raz cuadrada. Desde filosofa tiene una distribucin de muestreo sabido que es posible calcular su error estndar y el significado. SPSS y otros paquetes importantes informe el nivel de significancia del valor de phi computarizada. Computacionalmente, phi es la raz cuadrada de chi-cuadrado dividido por n, el tamao de la muestra: phi = SQRT (X 2 / n). Cuando phi informtica, tenga en cuenta que la correccin de Yates de chi-cuadrado no se utiliza. Phi lo que mide la fuerza de la relacin definida como el nmero de casos en una diagonal menos el nmero en la otra diagonal, el ajuste de la distribucin marginal de las variables. Ejemplo. Para la siguiente tabla phi =. 41.
y

Parte / Votacin Demcrata Votado


y

Republicano 10

15

y y

No Votar 5 20 Interpretacin: En 2-b-2 tablas, phi puede interpretarse en el porcentaje de diferencia simtrica, que mide el porcentaje de concentracin de casos en la diagonal. Tambin en 2 por 2 mesas, phi es idntico al coeficiente de correlacin. En las grandes mesas, donde phi puede ser mayor que 1.0, no existe una interpretacin simple e intuitiva, que es una razn por la filosofa se utiliza a menudo slo para dos-por-2 tablas. Para el ejemplo anterior, phi es 0,41. El porcentaje de diferencia con el partido como independiente (columna) es de 42%, y con el voto como independiente es de 40%. Phi es la diferencia porcentual media entre el partido y votar con cualquiera de considerarse como causa de la otra. Significado de la asociacin: Phi define como asociacin perfecta monotona predictivo (ver la discusin en la seccin de la asociacin ), y define la relacin como nula independencia estadstica. Symmetricalness: Phi es una medida simtrica. No hace ninguna diferencia que es la independiente (columna) variable. Filosofa tiende a subestimar las relaciones asimtricas. Ntese, sin embargo, que algunos paquetes informticos, como Systat, utilizar frmulas especiales para phi en 2 por 2 tablas para que phi vara entre -1 y +1, lo que le permite indicar relaciones negativas cuando se utiliza con dichotmous datos ordinales. Sin embargo, la filosofa sigue siendo una medida simtrica y la seal puede ser ignorado cuando se utilizan datos nominales dicotmicas. nivel de datos: Phi es utilizado con los datos nominales, aunque por 2 por 2 mesas, los datos pueden ser ordinales. Otras caractersticas: Phi es muy sensible a los cambios en las distribuciones marginales. Phi no vara de 0 a 1. Para las tablas de ms de 2 por 2, el valor mximo de la filosofa es la raz cuadrada de (k - 1), donde k es el nmero o filas o el nmero de columnas, lo que sea menor. Esto significa filosofa puede ser mayor que 1.0 para tablas ms grandes, con un mximo terico de lo infinito, y difiere dependiendo del tamao de la tabla.

http://es.wikipedia.org/wiki/Tabla_de_contingencia En estadstica las tablas de contingencia se emplean para registrar y analizar la relacin entre dos o ms variables, habitualmente de naturaleza cualitativa (nominales u ordinales). Supngase que se dispone de dos variables, la primera el sexo (hombre o mujer) y la segunda recoge si el individuo es zurdo o diestro. Se ha observado esta pareja de variables en una muestra aleatoria de 100 individuos. Se puede emplear una tabla de contingencia para expresar la relacin entre estas dos variables, del siguiente modo: Diestro Zurdo TOTAL Hombre 43 9 52 Mujer 44 4 48 TOTAL 87 13 100 Las cifras en la columna de la derecha y en la fila inferior reciben el nombre de frecuencias marginales y la cifra situada en la esquina inferior derecha es el gran total. La tabla nos permite ver de un vistazo que la proporcin de hombres diestros es aproximadamente igual a la proporcin de mujeres diestras. Sin embargo, ambas proporciones no son idnticas y la significacin estadstica de la diferencia entre ellas puede ser evaluada con la prueba de Pearson, supuesto que las cifras de la tabla son una muestra aleatoria de una poblacin. Si la proporcin de individuos en cada columna vara entre las diversas filas y viceversa, se dice que existe asociacin entre las dos variables. Si no existe asociacin se dice que ambas variables son independientes. El grado de asociacin entre dos variables se puede evaluar empleando distintos coeficientes: el ms simple es el coeficiente phi que se define por = ( 2 / N) donde 2 se deriva del test de Pearson, y N es el total de observaciones -el gran total-. puede oscilar entre 0 (que indica que no existe asociacin entre las variables) e infinito. A diferencia de otras medidas de asociacin, el coeficiente de Cramer no est acotado. [editar] Estudio de diferencia de proporciones Hay situaciones en las que tenemos probabilidades de xito cercanas al cero o del uno en donde las proporciones pueden ser poco ilustrativas sobre el comportamiento dentro de los grupos. Por ejemplo: y Si 1 = 0.01 2 = 0.001 d= 1 - 2 = 0.009 y Si 1 = 0.41 2 = 0.401 d= 1 - 2 = 0.009 Vamos a definir el riesgo relativo como r= 1/ 2 Para los ejemplos anteriores: r=0.01/0.001 = 10 r=0.41/0.401 = 1.02 En el primer caso el xito dentro de los grupos es 10 veces mayor que en el otro. Si X e Y independientes -> 1 = 2 con lo que su riesgo relativo es r= 1/ 2 = 1 Ahora bien, cmo estimar r? r' = p1/p2 En el ejemplo de ms arriba: r' = (43/52) / (44/48) = 0.902 --> la proporcin de xito (diestro) dentro de las mujeres es alrededor de un 10% mayor que dentro del grupo de los hombres.

S-ar putea să vă placă și