Sunteți pe pagina 1din 5

Ejercicio 5.

(Comparación de rectas de regresión) Se tiene los siguientes valores para dos


variables x e y, para dos condiciones de operación distintas (A y B):

Condición A

x: 0.536 0.543 0.377 0.940 0.629 0.826

y: 0.540 0.450 0.279 1.176 0.582 1.098

Condición B

x: 0.614 0.357 0.556 1.411 0.650 0.864 0.885 0.554

y: 0.876 0.399 0.570 2.025 1.035 1.533 1.266 0.795

Se desea saber si las rectas de regresión bajo cada condición son iguales o no.

Los datos se encuentran en el archivo “Regresiones.xls”.

Tenemos dos regresiones, según condiciones experimentales:

Condición A: Y = a + bX

Condición B: Y = a ′ + b ′X

Tratemos de combinar estos dos modelos en uno solo. Introducimos la variable indicador, i, igual
a 1 en la condición A y 0 en la condición B. Por lo tanto, tenemos:

Y = i * (a + bX ) + (1 − i ) * (a ′ + b ′X )

Este modelo es válido en ambas condiciones A y B.

Desarrollamos:

Y = a ′ + b ′X + (a − a ′) i + (b − b ′) ( Xi )
123 123
c d

Hipótesis a testear:

Hipótesis nula H0 (modelo reducido): c = d = 0 (regresiones son iguales en condiciones A y B)

Hipótesis alternativa H1 (modelo expandido): regresiones no son iguales en condiciones A y B


Entramos los datos en Excel y hacemos regresión de Y sobre X (todos los datos)

Se encuentra:

Modelo reducido

Estadísticas de la regresión
Coeficiente de correlación múltiple 0.94507553
Coeficiente de determinación R^2 0.893167758
R^2 ajustado 0.884265071
Error típico 0.166774644
Observaciones 14

ANÁLISIS DE VARIANZA
Grados de libertad Suma de cuadrados Promedio de los cuadrados F Valor crítico de F
Regresión 1 2.790435476 2.790435476 100.325641 3.51896E-07
Residuos 12 0.333765381 0.027813782
Total 13 3.124200857

Coeficientes
Intercepción -0.278288383
X 1.695754195
Asimismo, hacemos la regresión de “Y” sobre “X”, “i”, “Xi”:

Modelo expandido

Estadísticas de la regresión
Coeficiente de correlación múltiple 0.972794721
Coeficiente de determinación R^2 0.946329569
R^2 ajustado 0.93022844
Error típico 0.129490234
Observaciones 14

ANÁLISIS DE VARIANZA
Grados de libertad Suma de cuadrados Promedio de los cuadrados F Valor crítico de F
Regresión 3 2.956523651 0.985507884 58.7741115 1.17823E-06
Residuos 10 0.167677206 0.016767721
Total 13 3.124200857

Coeficientes
Intercepción -0.10882983
X 1.590500533
i -0.312540939
Xi 0.137161012
Con lo anterior, se puede calcular la variable de Fisher para decidir entre hipótesis nula y
alternativa:

Suma de errores cuadráticos en modelo H0: S E ( H 0 ) = 0.333765381 (ver tabla de ANOVA)

Suma de errores cuadráticos en modelo H1: S E ( H 1 ) = 0.167677206 (ver tabla de ANOVA)

Número de condiciones lineales: k = 2 (a saber, c = d = 0)

Número de datos: N = 14 (condiciones A+B)

Número de coeficientes libres en modelo expandido: M = 4 (a saber, a’, b’, c y d)

Variable de Fisher:

S E (H 0 ) − S E (H1 )
F= k = 4.952616348
S E (H1 )
N −M

Valor crítico (unilateral, 5%, 2 y 10 grados de libertad, Tabla 3A) Fcrítico = 4.10

Se rechaza la hipótesis nula: las regresiones no son iguales en condiciones A y B.

Podemos ahora ver si se mantiene la pendiente:

Hipótesis a testear:

Hipótesis nula H0 (modelo reducido): d = 0 (pendientes b = b’)

Hipótesis alternativa H1 (modelo expandido): d ≠0

Se encuentra, para el modelo reducido:

Estadísticas de la regresión
Coeficiente de correlación múltiple 0.972282917
Coeficiente de determinación R^2 0.945334072
R^2 ajustado 0.935394812
Error típico 0.12460386
Observaciones 14
ANÁLISIS DE VARIANZA
Grados de libertad Suma de cuadrados Promedio de los cuadrados F Valor crítico de F
Regresión 2 2.953413517 1.476706758 95.1111149 1.14141E-07
Residuos 11 0.17078734 0.015526122
Total 13 3.124200857

Coeficientes
Intercepción -0.131839898
X 1.621748291
i -0.221552214

Suma de errores cuadráticos en modelo H0: S E ( H 0 ) = 0.17078734 (ver tabla de ANOVA)

Suma de errores cuadráticos en modelo H1: S E ( H 1 ) = 0.167677206 (ver tabla de ANOVA)

Número de condiciones lineales: k = 1 (a saber, d = 0)

Número de datos: N = 14 (condiciones A+B)

Número de coeficientes libres en modelo expandido: M = 4 (a saber, a’, b’, c y d)

Variable de Fisher:

S E (H 0 ) − S E (H1 )
F= k = 0.185483395
S E (H1 )
N −M

Valor crítico (unilateral, 5%, 1 y 10 grados de libertad, Tabla 3A) Fcrítico = 4.96

Se acepta la hipótesis nula: las regresiones tienen igual pendiente. El cambio de condición (de A a
B) sólo provocó un desfase de la recta de regresión.

S-ar putea să vă placă și