Documente Academic
Documente Profesional
Documente Cultură
X/ Y x1 x2 ... xi ... xr x. j
X1,x2xn=valores o modalidades que toma x Y1, y2..Yn=valores o modalidades que toma y Ni1,ni2..nis=frecuencia en que aparece el valor i de la variable x conjuntamente con cada valor 1, 2 de var. Y. N1j, N2j,..=frecuencia con el que aparece el valor j de la variable Y conjuntamente con cada valor 1, 2 r de la variable X. ni: frecuencia total con la que aparece el valor i de la variable x. nj: frecuencia total con la que aparece el valor j de la variable Y. N: frecuencia total de la distribucin.
Distribuciones marginales: cuando se estudian aisladamente cada una de las variables (con independencia de la otra o , s se trata de distribuciones multidimensionales, del resto de las variables) Frecuencia relativa: de un elemento (xi, yj). La suma de todas las frecuencias relativas es igual a 1.
Momentos respecto a la media: Las principales son los de segundo orden (varianzas marginales) Y la covarianza:
La m11 solo se puede calcular para dos distribuciones cuantitativas, ninguna de ellas puede ser cualitativa. El valor que obtenemos, es una relacin que puede ser ms o menos, entre la variable x (salarios) y la variable y (aos anteriores), indicndonos que estadsticamente a medida que aumenta la antigedad, aumenta el salario. Es ms cuando la relacin entre las dos variables es positiva y menos cuando al aumentar una variable la otra disminuye. Al igual que en las unidimensionales, los momentos respecto a la media pueden ponerse en relacin con los momentos respecto al origen. 1.Varianza de x=momento media segundo orden de x = momento origen segundo orden x menos momento origen primer orden de x al cuadrado Estas frmulas son distintas formas de ver lo anterior.
1. 2.
4.
El estudio de las relaciones de dependencia estadstica es realizado por la Teora de la correlacin. Nos permite medir el grado de dependencia o correlacin existente. En relacin de dependencia se puede adoptar 3 resultados: 1. Independencia funcional o correlacin nula: cuando no existe ninguna relacin entre las variables 2. Dependencia funcional o correlacin funcional: cuando existe una funcin tal que todos los valores de la variable la satisfacen (a cada valor X le corresponde un solo Y o la inversa) Ej. Producto vendido=ingreso. Sabemos exactitud, si vendemos 1 ganamos 100 de ingreso 3. Dependencia aleatoria o dependencia estadstica parcial: cuando los puntos del diagrama se ajuntan en alguna medida a una funcin. Es la ms habitual en estadstica, ya que, cuando se comparan dos variables, lo normal es que exista algn grado de relacin entre ellas. Ej. Horas de estudio, probable mejor nota examen, no sabemos exactitud Las relaciones de dependencia estadstica pueden ser positivas (directas) o negativas (inversas)
-1
Regresin lineal perfecta No existe reg. Lineal Reg. Lineal perfecta 1.r de 0 a 0,25: no existe correlacin suficiente entre ambas variables 2. r de 0,25 a 0,50, correlacin baja a moderada 3. r de 0,50 a 0,75: correlacin moderada a buena 4. r de 0,75 o mayor: muy buena a excelente correlacin Este coeficiente tiene carcter cualitativo ( si en caso de obtener r=0,3 y en otro un r=0,6) solo podemos afirmar que en el segundo caso la intensidad de la relacin es mayor que en el primero, pero, No que es el doble.
3.Para calcular los parmetros a y b en la regresin de Y sobre X. (Mediante ecuaciones normales, despejando utilizando siguientes formulas) 2 2 b = Sxy / Sx Sxy= COVARIANZA SX =VARIANZA X a = y bx Las ecuaciones normales de regresin se pueden expresar: Regresin de y sobre x Hay dos formas de hallar a y b:
2. Calculando varianza y
m02 m11 . B
Dado que la media de ei=0; Cuando es alta, los residuos son grandes y la funcin estimada se aleja bastante de los valores originales y es poco representativa. Cuando es baja, ser indicativo de que existe bastante representatividad. 1.2 Coeficiente de determinacin: es la ms utilizada
S2y = S2y* + S2e La varianza total de la variable dependiente y tiene dos componentes:
1. Uno debido a la relacin entre las variable y que est contenida en el trmino S Y (varianza explicada por la regresin) 2 2. Otro es la varianza resiudal S* e que contiene la variabilidad que no capaz de explicar el modelo lineal. 2 1.3 Coeficiente de Determinacin R : grado de participacin de la varianza explicada en la varianza total de la variable observada: Varianza de la y estimada/varianza de la y real
2
En el caso de la regresin lineal la varianza de la variable y* puede calcularse: Obteniendo la siguiente expresin alternativa que coincide con el Coeficiente de Correlacin de Pearson elevado al cuadrado:
Tambin se puede expresar en relacin con los momentos respecto a la media: Este coeficiente es genrico y sirve para cualquier tipo de regresin: 2 El coeficiente de determinacin R , tiene un valor comprendido entre 0 y 1 (indica el porcentaje de la varianza de y que est explicada por x y viceversa) Cuando su valor es 0. Nula representatividad de la ecuacin de regresin Cuando su valor es 1. Ajuste perfecto entre la ecuacin estimada y la nube de puntos. Una vez estimada una ecuacin de regresin podemos emplearla para obtener datos que se encuentren en el mismo rango que los estudiados (interpolacin) o para obtener valores ajenos a los inicialmente disponibles (extrapoblacin)
9. REGRESIN NO LINEAL
Principales modelos no lineales son:
-
, puede tomarse con logaritmos neperianos: In(y) = In(a) + b. In(x) x Funcin exponencial: y = ab , se transforma en In(y) = In(a) + x. In(b)
Funcin logartmica: y = a + b-log(x)
2.Frecuencia esperada. Frecuencia que se dara si los sucesos fueran independientes. Para calcular la frecuencia esperada o terica de cada casilla (Eij), se multiplican los dos totales marginales (fila y columna) y se divide este producto por el nmero total de casos. Este estadstico toma valores mayores o iguales a 0, siendo 0 independencia absoluta. Ejemplo 5.16 Medidas de asociacin Odds ratio: cociente de las siguientes probabilidades: Si OR > 1 probabilidad de a favor es mayor en x que en y Si OR = 1 ambas probabilidades son iguales Si OR < 1 probabilidad de a favor es menor en x que en y El valor de esta medida est comprendido en el intervalo (0, ) Propiedades ms relevantes: 1. Es invariante ante los cambios de escala en filas y columnas. 2. Alcanza sus valores extremos, 0 e , bajo asociacin perfecta. 3. OR y 1/OR indican igual intensidad de la asociacin, pero en direcciones opuestas Para lograr una interpretacin ms fcil: OR= In(OR) (valor entre -, +) Coeficiente de contingencia C medida del grado de asociacin entre dos conjuntos de atributos, ordenados o no, e independiente de la naturaleza de la variable (continua o discreta). Se obtiene:
Los valores ms prximos a 1 mayor grado de interdependencia entre variables. Nunca puede alcanzar el valor 1, aunque haya completa asociacin.
Coeficiente V de Cramer: estadstico que se obtiene a partir de la . Cuando su valor es 0 independencia completa Cuando su valor es 1 completa asociacin.
Q de Yule: medida de asociacin. Se calcula sobre las diferencias entre las frecuencias observadas (Oij) y esperadas (Eij). En una tabla de 2x2 se calcula: Est comprendida entre -1 y 1: Q = 0 independencia Q > 0 asociacin positiva Q < 0 asociacin negativa