Sunteți pe pagina 1din 8

SEGUROS

Departamento de Ciencias Económicas,


Administrativas y de Comercio.

PORTAFOLIO ESTUDIANTIL

NOMBRE: María Belén Ortiz Coloma

CARRERA: Ing. Comercial

Aula: A 207

NRC: 4706
Correlaciones

Son técnicas bi-variadas que se emplean con propiedades del álgebra lineal, que permiten en el
campo multivariado, en situaciones donde el establecer similaridades o disimilaridades entre las
variables e individuos representados en dimensiones de menor valor, generalmente en planos o
cubos (segunda y tercera dimensión) para esclarecer la variabilidad conjunta expresada en factores
ortogonales que permiten tipificar lo que sucede con los datos.

Coeficiente de correlación de Pearson

Tiene como objetivo medir la fuerza o grado de asociación entre dos variables aleatorias
cuantitativas que poseen una distribución normal bi-variada conjunta. El coeficiente se define por
la siguiente fórmula:

Cuando ρ=+ la relación es directa entre las variables. Si ρ=- la relación es inversa y si ρ= 0 son
independientes. Dicho coeficiente se puede expresar en términos de su estadístico como:

El coeficiente de correlación de Pearson es la media geométrica entre las pendientes de los


modelos de regresión lineal simple Y/X, X/Y así:

y i = β o + β1 Xi + εi

Cabe anotar que el coeficiente de correlación de Pearson puede ser empleado utilizando un
factor de ponderación Wi, el cual efectúa un ajuste a la media aritmética y por ende al coeficiente
de asociación. Esta ponderación se debe aplicar, cuando el investigador quiera darle un peso
específico a cada individuo que interviene en el estudio. “El coeficiente de correlación de Pearson
no se debe extrapolar más allá del rango de los valores observados cuando se efectúa inferencia.
Para construir el intervalo de confianza asociado con Pearson, ambas variables se deben distribuir
en forma normal y para predecir se utiliza la técnica propuesta por Rubens.” (Luis F Restrepo,
2015)

Coeficiente de Spearman

Es un coeficiente no paramétrico alternativo al coeficiente de correlación de Pearson cuando en


este no existe una relación de tipo lineal entre las variables (X, Y), o cuando para cada valor de X,
hay una subpoblación de valores de Y normalmente distribuidas. Un coeficiente de correlación,
mide el grado de relación o asociación existente generalmente entre dos variables aleatorias.

No es conveniente identificar correlación con dependencia causal, ya que, si hay una semejanza
formal entre ambos conceptos, no puede deducirse de esto que sean análogos; en efecto es posible
que haya una alta correlación entre dos acontecimientos y que sin embargo, no exista entre ellos
relación de causa o efecto; por ejemplo cuando dos acontecimientos tienen alguna causa común,
pueden resultar altamente asociados y no son el uno causa del otro. Cabe recordar que el
coeficiente fluctúa entre -1 ≤ ρ ≤ 1. Charles Spearman contribuyó al análisis del factor, a la teoría
de la inteligencia, elaboró una prueba de la teoría mental.

En donde d i = r xi – r yi es la diferencia entre los rangos de X e Y.

Otra variante de la fórmula expresada es:

El coeficiente de correlación de Spearman es exactamente el mismo que el coeficiente de


correlación de Pearson, calculado sobre el rango de observaciones. La correlación estimada entre
X e Y se halla calculando el coeficiente de correlación de Pearson para el conjunto de rangos
apareados. La correlación de Spearman puede ser calculada con la fórmula de Pearson, si antes
hemos transformado las puntuaciones en rangos.

Se recomienda a los investigadores realizar primero una representación gráfica de la


correlación, con dos objetivos fundamentales: 7

 Que visualice el tipo de relación que se establece en las variables.


 Para corroborar el resultado matemático obtenido.

Ventajas del coeficiente de Spearman

1. Al ser Spearman una técnica no paramétrica es libre de distribución probabilística.

2. Los supuestos son menos estrictos. Es robusto a la presencia de outliers (es decir permite
ciertos desvíos del patrón normal).

Indicador de Durbin-Watson

DW es el estadístico de auto correlación de primer orden de Durbin-Watson considerando por


separado los residuos de cada comunidad autónoma, RZ es el coeficiente de determinación, ee es
el error estándar de la regresión. El estadístico Durbin-Watson es una herramienta estadística que
detecta si los residuales de una regresión están auto correlacionados. La auto correlación es un
problema estadístico donde los residuales de una regresión de un período de tiempo no son al azar,
sino que tienen algún tipo de patrón. Este problema significa que si tu regresión tiene problemas
de auto correlación, puede ser que haya resultados que parezcan ser estadísticamente
significativos, pero que no sea así.

Dado el modelo de regresión lineal múltiple Y X X u = β1 + β 2 ⋅ 2 + ... + β k ⋅ k + , el test de


Durbin-Watson permite contrastar si el término de perturbación está auto correlacionado según un
esquema AR(1), i.e., la hipótesis nula indica que si el término de perturbación es de la forma t t t
u = φ ⋅u + ε −1 entonces necesariamente φ = 0 (con lo que no habría auto correlación según
esquema AR(1)):

El estadístico que se utiliza para realizar dicho test es el estadístico Durbin-Watson (el cual
obtendremos con ayuda de Minitab). El estadístico DW es un valor comprendido entre 0 y 4. Como
se observa en el siguiente gráfico, para valores de DW “próximos” a 2 no rechazaremos Ho. Por
el contrario, para valores de DW “alejados” de 2, sí rechazaremos Ho (i.e., aceptaremos la
existencia de autocorrelación de tipo AR(1)):
En el gráfico anterior, dL y dU son valores tabulados [ver web de tablas] que dependen del
número de observaciones (n), del n

úmero de regresores (k),


y del nivel de significación (α).

Añadir, finalmente, que si 0 < DW < 2, el coeficiente φ será positivo (estaremos en el contraste
unilateral (1)), mientras que si 2 < DW < 4, dicho coeficiente φ será negativo (estaremos en el
contraste (2)). Una vez hallado DW, es posible usar su valor para estimar el coeficiente de auto
correlación simple ρ1 mediante la expresión:

Además, sabemos que en un modelo con auto correlación AR(1), los coeficientes de auto
correlación simple vienen dados por: p1 = φ , 2 p2 = φ , ..., s s p = φ , así que una vez estimado el
valor de ρ1 = φ podremos obtener fácilmente estimaciones para los (n-1) coeficientes de auto
correlación simple y representar la correspondiente función de auto correlación simple o ACF.

Coeficiente de Fisher

Esta razón F fue creada por Ronald Fisher (1890-1962). El valor estadístico de prueba resultante
se debe comparar con un valor tabular de F, que indicará el valor máximo del valor estadístico de
prueba que ocurría si H0 fuera verdadera, a un nivel de significación seleccionado. Existe una
distribución F diferente para cada combinación de tamaño de muestra y número de muestras. Por
tanto, existe una distribución F que se aplica cuando se toman cinco muestras de seis observaciones
cada una, al igual que una distribución F diferente para cinco muestras de siete observaciones cada
una.

En Fisher, los valores críticos para los niveles 0,05 y 0,01 generalmente se proporcionan para
determinadas combinaciones de tamaños de muestra y número de muestras. La razón más pequeña
es 0. La razón no puede ser negativa, ya que ambos términos de la razón F están elevados al
cuadrado. Por otra parte, grandes diferencias entre los valores medios de la muestra, acompañadas
de pequeñas variancias muestrales pueden dar como resultado valores extremadamente grandes de
la razón F. Se evalúa con la siguiente fórmula:

Los grados de libertad para el numerador y el denominador de la razón F se basan en los cálculos
necesarios para derivar cada estimación de la variancia de la población. La estimación
intermediante de variancia (numerador) comprende la división de la suma de las diferencias
elevadas al cuadrado entre el número de medias (muestras) menos uno, o bien, k - 1. Así, k - 1 es
el número de grados de libertad para el numerador. En forma semejante, el calcular cada variancia
muestral, la suma de las diferencias elevadas al cuadrado entre el valor medio de la muestra y cada
valor de la misma se divide entre el número de observaciones de la muestra - 1.

Bondad de ajuste r2

Por bondad del ajuste hay que entender el grado de acoplamiento que existe entre los datos
originales y los valores teóricos que se obtienen de la regresión. En cuanto mejor sea el ajuste, más
útil será la regresión a la pretensión de obtener los valores de la variable regresando a partir de la
información sobre la variable regresora. Obtener indicadores de esta bondad de ajuste es
fundamental a la hora de optar por una regresión de un determinado tipo u otro, Puesto que la
media de los residuos se anula, el primer indicador de la bondad del ajuste (no puede ser el error
medio) será el error cuadrático medio, o varianza del residuo, o varianza residual.

Estadísticamente, el R² puede tomar valores entre 0 y 1: en el caso de que el rendimiento total


de una cartera coincidiera exactamente con el del mercado en general o de su índice de referencia,
su R-cuadrado sería igual a uno. Si el rendimiento total de una cartera no tuviera relación alguna
con los retornos del mercado, el R-cuadrado será cero. Se evalúa con l siguiente fórmula:
A la proporción de varianza explicada por la regresión se le llama coeficiente de determinación:
El coeficiente de determinación mide la proporción de variabilidad total de la variable dependiente
(Y) respecto a su media que es explicada por el modelo de regresión. Es usual expresar esta medida
en tanto por ciento, multiplicándola por cien.

Alfa de Cronbach

Se trata de un índice de consistencia interna que toma valores entre 0 y 1 y que sirve para
comprobar si el instrumento que se está evaluando recopila información defectuosa y por tanto nos
llevaría a conclusiones equivocadas o si se trata de un instrumento fiable que hace mediciones
estables y consistentes. Alfa es por tanto un coeficiente de correlación al cuadrado que, a grandes
rasgos, mide la homogeneidad de las preguntas promediando todas las correlaciones entre todos
los ítems para ver que, efectivamente, se parecen. Su interpretación será que, cuanto más se
acerque el índice al extremo 1, mejor es la fiabilidad, considerando una fiabilidad respetable a
partir de 0,80.

“Cuanto más cerca se encuentre el valor del alfa a 1 mayor es la consistencia interna de los
ítems analizados. La fiabilidad de la escala debe obtenerse siempre con los datos de cada muestra
para garantizar la medida fiable del constructo en la muestra concreta de investigación” (George,
2003).

Como criterio general, George y Mallery sugieren las recomendaciones siguientes para evaluar
los coeficientes de alfa de Cronbach:

• Coeficiente alfa >.9 es excelente

• Coeficiente alfa >.8 es bueno

• Coeficiente alfa >.7 es aceptable

• Coeficiente alfa >.6 es cuestionable

• Coeficiente alfa >.5 es pobre

• Coeficiente alfa <.5 es inaceptable

FÓRMULAS
a) Varianza de los Ítemes (Validación Individual de cada Ítem).

Donde:

K = Es el número total de Ítemes

Vi = Es la varianza de cada Ítem (Respuestas correctas en cada Ítem.

Vt = Es la varianza del puntaje total (Sumatoria total de los individuos que respondieron
correctamente a todos los Ítemes).

b) Matriz de correlación de los Ítemes (Validación general de todo el instrumento).

Donde:

N = Es el número de Ítemes

Pr = Es el promedio de las correlaciones entre ítems (Sumativa general de todas las personas
que respondieron correctamente).

Bibliografía
George, M. y. (9 de Octubre de 2003). Scielo . Obtenido de Scielo:
http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2218-36202016000400008

Luis F Restrepo, J. G. (5 de Octubre de 2015). scielo. Obtenido de scielo:


http://www.scielo.org.co/scielo.php?pid=S0120-
06902007000200010&script=sci_arttext&tlng=es

Pérez, Á. A. (13 de Noviembre de 2007). UOC. Obtenido de UOC:


https://www.uoc.edu/in3/emath/docs/Autocorrelacion.pdf

Suárez, M. (2012). INTERAPRENDIZAJE DE PROBABILIDADES Y ESTADÍSTICA


INFERENCIAL.

S-ar putea să vă placă și