Documente Academic
Documente Profesional
Documente Cultură
El Principio de Equivarianza 1
0.1. El Principio de Equivarianza
Las dos secciones anteriores describen los principios de reducción de datos de la
siguiente manera. Se especifica una función T (x) de la muestra y el principio establece
que si x e y son dos puntos muestrales con T (x) = T (y), entonces se debe hacer la
misma inferencia sobre θ si x o y es observado. La función T (x) es una estadı́stica
suficiente cuando se usa el Principio de Suficiencia. El ”valor”de T (x) es el conjunto
de todas las funciones de verosimilitud proporcionales a L(θ|x) si se utiliza el principio
de verosimilitud. El Principio de Equivarianza describe una técnica de reducción de
datos de una manera ligeramente diferente. En cualquier aplicación del Principio
de Equivarianza, se especifica una función T (x), pero si T (x) = T (y), entonces el
Principio de Equivarianza establece que la inferencia hecha si se observa x deberı́a
tener una cierta relación con la inferencia hecho si se observa y, aunque las dos
inferencias pueden no ser las mismas.
Aunque comúnmente se combina en lo que se llama el Principio de Equivarianza,
la técnica de reducción de datos que ahora describiremos en realidad combina dos
consideraciones diferentes de Equivarianza.
El primer tipo de Equivarianza podrı́a llamarse Equivarianza de medición. Pres-
cribe que la inferencia hecha no debe depender de la escala de medición que se utiliza.
Por ejemplo, supongamos que dos forestales van a estimar el diámetro promedio de
arboles en un bosque. El primero usa datos sobre los diámetros de los árboles expre-
sados en pulgadas, y el segundo usa los mismos datos expresados en metros. A ambos
se les pide producir una estimación en pulgadas. (El segundo podrı́a estimar conve-
nientemente el diámetro promedio en metros y luego transformarlo en pulgadas). La
Equivarinza de medición requiere que ambos forestales produzcan las mismas estima-
ciones. Sin duda, casi todos estarı́an de acuerdo en que este tipo de equvarianza es
razonable.
El segundo tipo de Equivarianza, en realidad una invariancia, podrı́a llamarse
invariancia formal. Afirma que si dos problemas de inferencia tienen la misma estruc-
tura formal en términos del modelo matemático utilizado, entonces deberı́a usarse el
mismo procedimiento de inferencia en ambos problemas. Los elementos del modelo
que deben ser iguales son: Θ el espacio de parámetros; {f (x|θ) : θ ∈ Θ}, el conjunto
de pdfs o pmfs para la muestra; y el conjunto de inferencias permisibles y consecuen-
cias de inferencias erróneas. Para esta sección asumiremos que el conjunto de posibles
2 0.1. El Principio de Equivarianza
Ejemplo 0.1.1 (Equivarianza binomial). Sea X una distribución binomial con ta-
maño de muestra n conocida y probabilidad de éxito p desconocida. Sea T (x) la es-
timación de p que se usa cuando se observa X = x. En lugar de usar el número de
éxitos, X, para hacer una inferencia sobre p, podrı́amos usar el número de fracasos,
Y = n − X. Y también tiene una distribución binomial con parámetros (n, q = 1 − p).
Sea T ∗ (y) la estimación de q que se usa cuando se observa Y = y, de modo que
1 − T ∗ (y) es la estimación de p cuando Y = y se observa. Si se observan x éxitos,
entonces la estimación de p es T (x). Pero si hay x éxitos, entonces hay n − x fracasos
y 1 − T ∗ (n − x) también es una estimación de p. La equivarianza de medición requiere
que estas dos estimaciones sean iguales, es decir, T (x) = 1 − T ∗ (n − x), ya que el
cambio de X a Y es solo un cambio en la escala de medición. Además, las estructuras
formales de los problemas de inferencia basados en X e Y son las mismas. Tanto X
como Y tienen distribuciones binomiales (n, θ), O ≤ θ ≤ l. Por lo tanto, la invarian-
cia formal requiere que T (z) = T ∗ (z) para todos z = 0, ..., n. Ası́, la medición y la
invariancia formal requieren que
Si consideramos solo los estimadores que satisfacen (1), entonces hemos reducido
y simplificado en gran medida el conjunto de estimadores que estamos dispuestos
0.1. El Principio de Equivarianza 3
Ejemplo 0.1.2 (Continuación del Ejemplo 0.1.1). Para este problema, solo hay
dos transformaciones involucradas, por lo que podemos establecer G = {g1 , g2 }, con
g1 (x) = n − x y g2 (x) = x. La elección de g 0 = g verifica (i), es decir, cada elemento
4 0.1. El Principio de Equivarianza
g1 (g1 (x)) = g1 (n − x) = n − (n − x) = x.
Ejemplo 0.1.4 (Invarianza de ubicación normal). Sea X1 , ..., Xn iid n(µ, σ 2 ), tanto
µ como σ 2 son desconocidos. Considere el grupo de transformaciones definidas por
G = {ga (x), −∞ < a < ∞}, donde ga (x1 , ..., xn ) = (x1 + a, ..., xn + a). Veamos que
este conjunto de transformaciones es un grupo. Para (i) tener en cuenta que
g−a (ga (x1 , ..., xn )) = g−a (xl + a, ..., xn + a) = (x1 + a − a, ..., xn + a − a) = (x1 , ..., xn ).
Ası́, si g = ga1 y g 0 = ga2 , entonces g 00 = ga1 +a2 satisface (ii), y la definición 0.1.1
es verificada. G es un grupo de transformaciones.
El conjunto F en este problema es el conjunto de todas las densidades conjuntas
f (x1 , ..., xn |µ, σ 2 ) para X1 , X2 , ...Xn definido por “X1 , X2 , ..., Xn son iid n(µ, σ 2 ) para
algunos −∞ < µ < ∞ y σ 2 > 0.”Para cualquier a, −∞ < a < ∞, las variables
aleatorias Y1 , ..., Yn definidas por