Documente Academic
Documente Profesional
Documente Cultură
Modelo matemático:
f ( X , C )=0
X=vector de variable o parámetros ajustados
Siendo:
X =Xa+∆ X =Xa+ x
Xa: vector de variable aproximada
∆X, x: correcciones a Xa
C=OT +∆ C=OT + R
OT: observables más probables
Sustituyendo tendremos:
∂f ∂f
f ( X , C )=F ( Xa , OT ) + x+ R=0
∂X ∂C
Particularizando para:
X =Xa
C=OT
Modelo matemático general linealizado:
Ax + BR−K =0
Donde:
∂f
A=
∂X
∂f
B=
∂C
K=- f (Xa ,OT )
Particularizando para:
X =Xa
C=OT
Modelo matemático general linealizado para ambos métodos:
Ecuaciones de condición:
Ax + BR−K =0
A=0
BR−K=0
Observaciones indirectas:
Ax + BR−K =0
B=−I
Ax−R=K
Otra expresión del modelo matemático:
Pt=Ot + rt
Modelo estadístico:
R~N(0, S 2 Q ¿
s0 estimador a priori de la varianza del observable de peso unidad, cuya desviación típica se
toma igual a la unidad: s0=1
∑ ¿ s 02 Q
O lo que es lo mismo:
Ot~N(OT, S 2 Q ¿
s0 estimador a priori de la varianza del observable de peso unidad, cuya desviación típica se
toma igual a la unidad: s0=1
ri: residuo
P: matriz de pesos
R: vector de residuos
Pero en el caso más general pueden existir ecuaciones de condición, con lo cual la función a
minimizar será:
Hipotesis estadísticas:
Primera hipotesis:
s0= 1
σ 0≈1
Segunda hipotesis:
Partimos de que los observadores a priori son independientes por lo que la matriz varianza
covarianza a priori de los observables es diagonal
∑ s 02 Q
La matriz varianza covarianza a posteriori deberá ser también diagonal, con sus covarianzas
próximas a cero