Sunteți pe pagina 1din 15

CORRELACIÓN Y

REGRESIÓN SIMPLE

FUNDAMENTOS ESTADISTICOS
PROF. FRANKLYN LARACUENTE MARTÍNEZ, PHD.
 Coeficientes o índices de correlación, miden el grado de asociación entre
variables.
 Esas medidas tienden a fluctuar entre cero (0) y positivo uno (+1) y en otros
casos de negativo uno (-1) a positivo uno (+1)
 Correlaciones directas: las variables se mueven a la misma dirección (X
aumenta, Y aumenta).
 Correlaciones inversas: cuando las variables se mueven en direcciones opuestas
(X aumenta, Y se reduce).
 Medidas en cero (0) indican que no existe asociación o dependencia entre las
variables.

CORRELACIONES
 Conforme se acercan a (+1.00 o – 1.00 mas intensa es la relación.
 Según Herrans, las medidas de correlación son medidas de la relación
funcional entre dos o mas variables. Covarianza: no indica relación causal.
 El signo positivo o negativo indica la relación entre al menos dos (2) variables.
El signo positivo indica que el cambio es proporcional o en la misma
dirección. El signo negativo indica que la variación es opuesta.

CORRELACION
 El Coeficiente de Correlación de Producto-Momento de Pearson (r), o coeficiente
de correlación para abreviar, es una medida del grado de relación lineal entre dos
variables, usualmente etiquetada como X - Y.
 En regresión el énfasis está en predecir una variable de la otra, en correlación, el
énfasis está en el grado en que un modelo lineal puede describir la relación entre
dos variables.
 En la regresión, el interés es direccional, una variable se predice y la otra es el
predictor; en correlación, el interés no es direccional, la relación es el aspecto
crítico.
 El cálculo del coeficiente de correlación se realiza más fácilmente con la ayuda de
una calculadora estadística

CORRELACIÓN Y REGRESIÓN
 El coeficiente de correlación de Pearson (r), o coeficiente de correlación es
una medida del grado de relación lineal entre dos variables, usualmente
rotuladas X e y.
 En la regresión el énfasis está en predecir una variable del otro.
 En correlación el énfasis está en el grado a el cual un modelo linear puede
describir la relación entre dos variables.
 En la regresión el interés es direccional, se predice una variable y la otra es el
predictor.
 En correlación el interés es no-direccional, la relación es el aspecto crítico.

CORRELACIÓN Y REGRESIÓN
 Los diagramas de dispersión pueden ilustrar mejor cómo cambia el coeficiente de
correlación a medida que se altera la relación lineal entre las dos variables.
Cuando r = 0.0, los puntos se dispersan ampliamente sobre la trama, la mayoría
cae aproximadamente en forma de círculo.
 A medida que la relación lineal aumenta, el círculo se vuelve más y más elíptico
en su forma hasta que se alcanza el caso límite (r = 1.00 o r = -1.00) y todos los
puntos caen en una línea recta.
 Aquí se presentan una cantidad de diagramas de dispersión y sus coeficientes de
correlación asociados para que pueda estimar mejor el valor del coeficiente de
correlación en función de un diagrama de dispersión en el ejercicio informático
asociado.

DIAGRMAS DE DISPERSIÓN
DIAGRAMAS DISPERSION
 www.psychstat.missouristate.edu

REFERENCIAS
 La relación es mas intensa en la medida que se acerca a – 1.00 o +1.00.
 Un coeficiente de .-80 o +.80 sugiere una fuerte asociación.
 0.00 – 0.25: Ninguna o baja correlacion
 0.26- 0.50: Moderado bajo
 0.51-0.75: Moderada alta
 0.76-1.00 alta o perfecta correlación

CORRELACIONES
 Coeficientes de Correlación:
 Peason (r): Es una medida de la asociación lineal entre dos variables. Los valores del coeficiente
de correlación van de -1 a 1. El signo del coeficiente indica la dirección de la relación y su valor
absoluto indica la fuerza. Los valores mayores indican que la relación es más estrecha. Decimos
que la correlación entre dos variables X e Y es perfecta positiva cuando exactamente en la medida
que aumenta una de ellas aumenta la otra.
 Spearman: Versión no paramétrica del coeficiente de correlación de Pearson, que se basa en los
rangos de los datos en lugar de hacerlo en los valores reales. Resulta apropiada para datos
ordinales, o los de intervalo que no satisfagan el supuesto de normalidad. Los valores del
coeficiente van de -1 a +1. El signo del coeficiente indica la dirección de la relación y el valor
absoluto del coeficiente de correlación indica la fuerza de la relación entre las variables. Los
valores absolutos mayores indican que la relación es mayor.
 Lamda:

COEFICIENTES DE CORRELACIÓN
 Dos variables categóricas que presentan dos alternativas (De acuerdo – en
desacuerdo).
 No mide causalidad (Sampieri).
 Se calcula a partir de las puntuaciones obtenida en una muestra en dos variables.
 Los principales programas estadísticos reportan si en coeficiente es o no
signoficativo de la siguiente forma:
 s= 0.001 significancia
 .07831 valor del coeficiente
 Si s es menor que .05 se dice que el coeficiente es significativo.

PI DE PEARSON
PEARSON
 Es una medida de la correlación (la asociación o interdependencia) entre dos
variables aleatorias continuas. Para calcular ρ, los datos son ordenados y
reemplazados por su respectivo orden.
 La interpretación de coeficiente de Spearman es igual que la del coeficiente de
correlación de Pearson. Oscila entre -1 y +1, indica asociaciones negativas o
positivas respectivamente, 0 cero, significa no correlación pero no
independencia.
 La tau de Kendall es un coeficiente de correlación por rangos, inversiones
entre dos ordenaciones de una distribución normal bivariante

SPEARMAN
 Prueba estadística para evaluar si dos grupos difieren entre si de manera
significativa con respecto a sus medias.
 La comparación se realiza sobre una sola variable. Si hay distintas variables se
realizan varias, una prueba t por cada variable.
 El valor t se obtiene en muestras grandes

PRUEBA T (STUDENT)

S-ar putea să vă placă și