Sunteți pe pagina 1din 5

MINIMOS CUADRADOS

Modelo matemático:

Sea la función en forma implícita

f ( X , C )=0
X=vector de variable o parámetros ajustados

C=vector de observaciones o mediciones ajustadas

Siendo:

X =Xa+∆ X =Xa+ x
Xa: vector de variable aproximada

∆X, x: correcciones a Xa

C=OT +∆ C=OT + R
OT: observables más probables

∆C, R: correcciones a OT o residuos

Sustituyendo tendremos:

f ( X , C )=f ( Xa+ ∆ X , OT +∆ C )=F ( Xa+ x , OT + R )=0


Linealizando:

∂f ∂f
f ( X , C )=F ( Xa , OT ) + x+ R=0
∂X ∂C
Particularizando para:

X =Xa
C=OT
Modelo matemático general linealizado:

Ax + BR−K =0
Donde:

∂f
A=
∂X
∂f
B=
∂C
K=- f (Xa ,OT )

Particularizando para:

X =Xa
C=OT
Modelo matemático general linealizado para ambos métodos:

Ecuaciones de condición:

Ax + BR−K =0
A=0
BR−K=0
Observaciones indirectas:

Ax + BR−K =0
B=−I
Ax−R=K
Otra expresión del modelo matemático:

Pt=Ot +rt=Ct +dCt


T e1,2,3,..,m

Pt: valores compendados

Ot: valores observados

rt: residuos o correcciones de los valores observados

Ct= valores calculados

dCt= correcciones a los valores calculados

para observaciones indirectas:

dCt =Ot−Ct +rt


Ax=k + R
Para ecuaciones de condición:

Pt=Ot + rt
Modelo estadístico:

Un modelo estadístico que universalmente se acepta, según Gauss-Markov, como normal:

R~N(0, S 2 Q ¿

R vector de los residuos

Q matriz cofactor de los pesos observables

s0 estimador a priori de la varianza del observable de peso unidad, cuya desviación típica se
toma igual a la unidad: s0=1

matriz varianza covarianza a priori de los observables:

∑ ¿ s 02 Q
O lo que es lo mismo:

Ot~N(OT, S 2 Q ¿

Ot vector de los observables

Q natriz cofactor de los pesos de los observables

s0 estimador a priori de la varianza del observable de peso unidad, cuya desviación típica se
toma igual a la unidad: s0=1

matriz varianza covarianza a priori de los observables:


2
∑¿S Q
Condicionamiento

Ajuste de los mínimos cuadrados:


2 T
Ω=∑ pi ri =R PR=minimo
pi: peso

ri: residuo

P: matriz de pesos

R: vector de residuos

Pero en el caso más general pueden existir ecuaciones de condición, con lo cual la función a
minimizar será:

Ω=∑ R 2 PR−2 λ 2 (BR−K )=minimo


Siendo λ multiplicadores de Lagrange

Hipotesis estadísticas:

Primera hipotesis:

El estimador de la desviación típica de la observación de peso unidad a priori es la unidad:

s0= 1

El estimador a posteriori de la desviación típica de la observación de peso unidad a priori será


también próximo a la unidad:

σ 0≈1
Segunda hipotesis:

Partimos de que los observadores a priori son independientes por lo que la matriz varianza
covarianza a priori de los observables es diagonal

∑ s 02 Q
La matriz varianza covarianza a posteriori deberá ser también diagonal, con sus covarianzas
próximas a cero