Sunteți pe pagina 1din 10

AJUSTE A UNA LINEA RECTA POR EL METODO DE LOS MINIMOS CUADRADOS Para obtener la ecuacin de la lnea recta de los

pares de valores (x, y) en forma analtica, recurrimos al Mtodo de los Mnimos Cuadrados. Consideremos solo el caso de que estos pares de valores se ajustan a una lnea recta y cuando el error de x es pequeo comparado con el error de y: Sea: Y=A+BX Para la ecuacin de la mejor lnea recta que pasa por los n puntos del grfico f (x), se debe cumplir la siguiente condicin: d i2 Sea mnima A partir de esta condicin podemos determinar los valores de los parmetros A y B de la ecuacin para la mejor recta: Definimos di como la discrepancia de las ordenadas, entre los valores experimentales yi, y los valores obtenidos por la ecuacin de la mejor recta yi para cada uno de los valores de xi: d i = y i y i ' = y i ( A + Bxi )
2 Luego para determinar los valores de A y B derivamos la d i respecto de A y B, y obtenemos el siguiente par de ecuaciones:

y=

y i = An + B xi xi y i = A xi + B xi2 Resolvemos este sistema de ecuaciones para A y B obtenemos: y x 2 xy x A= n x 2 ( x) 2 n xy x y B= n x 2 ( x) 2 Tambin definimos a :

= n x 2 ( x) 2

Los errores estimados para A y B estn dados por las ecuaciones:

A =
Donde:

2 x2 2 n y B =

2 =

d i2 n2

La tabla siguiente muestra la forma de ordenar los datos y clculos necesarios para este mtodo. i 1 2 3 . . n x y xy x2 d i2 x y x.y x2 y d
i

di2

En el caso de las relaciones no lineales, se debe previamente linealizar por medio de una transformacin matemtica y luego aplicar el Mtodo de los Mnimos Cuadrados. Por ejemplo si la funcin es del tipo y = a xb linealizando se obtiene la ecuacin: log y = log a + b log x Ya es posible obtener la ecuacin de la recta por el Mtodo de los Mnimos Cuadrados con los pares (log x1, log y1). A partir de los parmetros de la recta se calcula los valores de a y b, y, sus respectivos errores.

Coeficiente De Correlacin .Definicin. En el contexto del anlisis de la regresin lineal simple el coeficiente de correlacin mltiple establece una medida del grado de asociacin lineal entre la variable respuesta y la variable predictora, concretamente entre la variable respuesta y la recta de regresin estimada. Se define, a partir de los n pares de observaciones, mediante R=

(x
i =1

x )( y i y )
n

(x
i =1

x ) 2 ( yi y ) 2
i =1

Verificando que -1R1

Su cuadrado, R2, denominado coeficiente de determinacin mltiple, puede interpretarse como el porcentaje de variabilidad de Y explicada o debida a la recta de regresin, en tanto que puede comprobarse que 1 R2 = SSE

(y
i =1

y) 2

Cuando todos los puntos se encuentran sobre la recta de regresin estimada, es decir, "el ajuste es perfecto", la suma de cuadrados de residuos, SSE, toma el valor cero y , por tanto, R2 = 1. El denominador de la ltima expresin es una medida de la variabilidad total de las n observaciones de la variable respuesta.

Anexo 1
Clculo de los errores de A y B Una vez obtenidos los valores de los parmetros A y B, cmo determinamos sus respectivos errores?. A y B se calculan a partir de ecuaciones matemticas en las cuales existen constantes y variables. Entonces el primer paso es determinar las variables que existen en dichas ecuaciones para despus proceder al clculo de los errores por propagacin. A y B dependen de (x1, x2, x3..xn), (y1, y2, y3..yn) y de n que es el nmero de pares de datos. Ya que x es la variable independiente en nuestro estudio, consideramos que x1, x2, x3..xn no estn afectadas de ningn tipo de error y por tanto no aportan al error de A y B, lo mismo que n. Lo que nos deja como nicas variables y1, y2, y3..yn. Cada variable y tiene un error asociado, para continuar con nuestra tarea supondremos que el error de cada yi es el mismo y est dado por:

y entonces:

2 y

d =

2 i

n2

y1 = y2 = y3 = ... = yn = y .
Ahora podemos proceder al clculo de los errores usando la frmula de propagacin de errores. Error de A
n n n 1 n y i xi2 xi xi y i , i =1 i =1 i =1 i =1 Aplicando la frmula de propagacin de errores, el error de A est dado por:

A=

A =
con : y1 =

( y1 ) 2 + ( y 2 ) 2 + ( y 3 ) 2 + + ( y n ) 2
A A A y1 , y 2 = y2 , , y n = y y1 y 2 y n n

Derivando se tiene:

2 2 2 n n n A 1 n 2 1 n A n = 2 xi2 2 x1 xi xi2 + x12 xi = xi x1 xi y1 i =1 i =1 i =1 i =1 i =1 y1 i =1 2 2 2 n n n n A 1 n 2 1 n A 2 = 2 xi2 2 x 2 xi xi2 + x 2 xi = xi x 2 xi y 2 i =1 i =1 i =1 i =1 i =1 y 2 i =1 2 2 2 n n n n A 1 n 2 1 n A 2 = 2 xi2 2 x3 xi xi2 + x3 xi = xi x3 x i y 3 i =1 i =1 i =1 i =1 i =1 y 3 i =1

2 2

n n n n A 1 n 2 1 n A 2 = 2 xi2 2 x n xi xi2 + x n xi = xi x n xi y y n i =1 i =1 i =1 i =1 i =1 n i =1 ___________________________________________ 2

2 2 2 n 2 n n n A 1 n 2 n x 2 x x 2 + x x 2 = 2 y i =1 i i =1 i i =1 i i =1 i i =1 i i =1 i 2 2 2 n n A 1 n n y = 2 n xi2 xi xi2 i =1 i =1 i =1 i =1 i n

xi2 A 1 y = i =2 i =1 i
n 2

n 2 n 2 n x x i =1 i i =1 i

y
Por tanto:

A = i =1 2 i =1 i
n

2 i

( ) =

x
i =1

2 i

A =

( y1 ) 2 + ( y 2 ) 2 + ( y 3 ) 2 + + ( y n ) 2
2 2 2

A A A A A = y y1 + y y2 + y y3 + + y yn 1 2 3 n como :

y1 = y2 = = yn =

d
i =1

2 i

n2

=y

entonces: A 2 A 2 A 2 A + + + + A = y y1 y 2 y 3 n
2 n n A 2 2 = x 2 y A = i i =1 y i y i =1 n

2 y

y =
2

d
i =1

2 i

n2

Error de B n x i y i y i xi
i =1 i =1 i =1 n n n

B=

n x i
i =1

( x) 2
i =1

B depende de (x1, x2, x3..xn), (y1, y2, y3..yn) y de n.

B =
x1 =

( x1 ) 2 + ( x 2 ) 2 + ( x3 ) 2 + + ( x n ) 2
B B B x1 , x 2 = x2 , , x n = x x1 x 2 x n n
2 2 2

A B B B B = y y1 + y y2 + y y3 + + y yn 1 2 3 n como :

y1 = y2 = = yn =

d
i =1

2 i

n2

=y

Derivando se tiene:
2 2 n n B 1 1 B n = 2 ( nx1 ) 2 2nx1 xi + xi = nx1 xi y1 i =1 i =1 y1 i =1 2 2 n n B 1 1 B n = 2 ( nx 2 ) 2 2nx 2 xi + xi = nx 2 xi y 2 i =1 i =1 y 2 i =1 2 2 n n n B 1 1 B = 2 ( nx3 ) 2 2nx3 xi + xi = nx3 xi y 3 i =1 i =1 y 3 i =1

n n B 1 1 B n = 2 ( nx n ) 2 2nx n xi + xi = nx n xi y n i =1 i =1 y n i =1 ___________________________________________ 2

2 2 n n n B 1 2 n 2 n x 2n x x + n x = 2 y i =1 i i i i i =1 i =1 i =1 i =1 i 2 2 2 n n n n B 1 y = 2 n 2 xi2 2n xi + n xi i =1 i =1 i =1 i =1 i 2 2 n n B 1 n = 2 n 2 xi2 n xi y i =1 i =1 i =1 i 2 2 n n n B n y = 2 n xi2 xi i =1 i =1 i =1 i n

B n n y = 2 () = i =1 i
n

entonces: B 2 B 2 B 2 B + + + + B = y y1 y 2 y 3 n n B 2 n 2 2 B = y y = y i =1 i
2

2 y

y2 =

d
i =1

2 i

n2

Anexo 2
Coeficiente de correlacin lineal Asumamos que hicimos medidas de pares de cantidades Xi y Yi. sabemos como hacer ajustes por mnimos cuadrados para ajustar estos datos a una relacin lineal. Pero tambin tenemos preguntarnos si el procedimiento de ajuste esta justificado si de hecho existe una relacin fsica entre las variables X e Y. lo que estamos preguntando aqu es si las variaciones en los valores observados de una cantidad Y estn correlacionadas con las variaciones en los valores medidos de la otra cantidad X. Por ejemplo si tuviramos que medir la longitud de una barra de metal como funcin de la temperatura encontraramos una correlacin definida y reproducible entre las dos cantidades. Pero si tuviramos que medir o si furamos a medir la longitud de la barra como funcin del tiempo aunque podran haber fluctuaciones en las observaciones, no encontraramos ninguna relacin reproducible a largo plazo entre los dos conjuntos de medidas. Basados en el mtodo de mnimos cuadrados podemos desarrollar una medida cuantitativa del grado de correlacin lineal o de la probabilidad de que exista una relacin lineal entre dos cantidades observadas. Podemos construir un coeficiente de correlacin lineal r que indicara cuantitativamente si se justifica o no la determinacin aun de la mas simple correspondencia lineal entre las dos cantidades. Reciprocidad en el ajuste X vs Y .- nuestros datos consisten de pares de medidas (Xi,Yi). Si consideramos la cantidad Y como variable dependiente entonces queremos saber si los datos corresponden a una lnea recta de la forma Y = A + BX Ya hemos desarrollado la solucin analtica para el coeficiente B que representa la pendiente de la lnea ajustada. n xy x y B= n x 2 ( x) 2 Si no existe correlacin entre las cantidades X e Y entonces no habr una tendencia para los valores de Y de aumentar o disminuir con el aumento de X Y entonces el ajuste por mnimos cuadrados debe dar como resultado una lnea recta horizontal con pendiente B=0. Pero el valor de B por si mismo no puede ser una buena medida del grado de correlacin ya que puede existir una relacin que incluye una pendiente muy pequea. Ya que estamos discutiendo la interrelacin entre las variables X e Y podemos igualmente considerar X en funcin de Y y preguntar si los datos corresponden a una lnea recta de la forma

X = A + BY Los valores de los coeficientes A y B sern diferentes de los coeficientes A y B pero estn relacionados si las variables X e Y estn correlacionadas. Las solucin analtica para la inversa de la pendiente B es similar a la de B y esta dada por: n xy x y n y 2 ( y ) 2 Si no hay correlacin entre las cantidades x e y entonces el ajuste por mnimos cuadrados debe dar como resultado una lnea recta horizontal con una pendiente B = 0 igual que antes para B. Si hay una correlacin completa entre X e Y, entonces existe una relacin entre los coeficientes A y B y los coeficientes Ay B para ver cual es esta relacin volvemos a escribir la ecuacin en que X es la variable dependiente como: B = y= E igualando los coeficientes a 1 + x = a + bx b b

a b 1 b= b Si hay correlacin completa se ve claramente que bb = 1. Si no hay correlacin by b son ambos 0. Entonces definimos el coeficiente de correlacin lineal experimental r bb como una medida del grado de correlacin a=

[n x

( x)

n xy x y
2

] [n y
1 2

( y)

El valor de b varia de 0 cuando no hay correlacin a 1 donde hay correlacin completa. El signo de r es el mismo que el de b y el de b solo la magnitud absoluta es importante. El coeficiente de correlacin r no se puede usar directamente para indicar el grado de correlacin. Una distribucin de probabilidad para r se puede derivar de la distribucin gaussiana bidimensional, pero su evaluacin requiere el conocimiento del coeficiente de correlacin de la poblacin total. Una prueba mas comn para r es comparar su valor con la distribucin de probabilidad para una poblacin total que no esta nada relacionada.