Sunteți pe pagina 1din 5

0.1.

El Principio de Equivarianza 1
0.1. El Principio de Equivarianza
Las dos secciones anteriores describen los principios de reducción de datos de la
siguiente manera. Se especifica una función T (x) de la muestra y el principio establece
que si x e y son dos puntos muestrales con T (x) = T (y), entonces se debe hacer la
misma inferencia sobre θ si x o y es observado. La función T (x) es una estadı́stica
suficiente cuando se usa el Principio de Suficiencia. El ”valor”de T (x) es el conjunto
de todas las funciones de verosimilitud proporcionales a L(θ|x) si se utiliza el principio
de verosimilitud. El Principio de Equivarianza describe una técnica de reducción de
datos de una manera ligeramente diferente. En cualquier aplicación del Principio
de Equivarianza, se especifica una función T (x), pero si T (x) = T (y), entonces el
Principio de Equivarianza establece que la inferencia hecha si se observa x deberı́a
tener una cierta relación con la inferencia hecho si se observa y, aunque las dos
inferencias pueden no ser las mismas.
Aunque comúnmente se combina en lo que se llama el Principio de Equivarianza,
la técnica de reducción de datos que ahora describiremos en realidad combina dos
consideraciones diferentes de Equivarianza.
El primer tipo de Equivarianza podrı́a llamarse Equivarianza de medición. Pres-
cribe que la inferencia hecha no debe depender de la escala de medición que se utiliza.
Por ejemplo, supongamos que dos forestales van a estimar el diámetro promedio de
arboles en un bosque. El primero usa datos sobre los diámetros de los árboles expre-
sados en pulgadas, y el segundo usa los mismos datos expresados en metros. A ambos
se les pide producir una estimación en pulgadas. (El segundo podrı́a estimar conve-
nientemente el diámetro promedio en metros y luego transformarlo en pulgadas). La
Equivarinza de medición requiere que ambos forestales produzcan las mismas estima-
ciones. Sin duda, casi todos estarı́an de acuerdo en que este tipo de equvarianza es
razonable.
El segundo tipo de Equivarianza, en realidad una invariancia, podrı́a llamarse
invariancia formal. Afirma que si dos problemas de inferencia tienen la misma estruc-
tura formal en términos del modelo matemático utilizado, entonces deberı́a usarse el
mismo procedimiento de inferencia en ambos problemas. Los elementos del modelo
que deben ser iguales son: Θ el espacio de parámetros; {f (x|θ) : θ ∈ Θ}, el conjunto
de pdfs o pmfs para la muestra; y el conjunto de inferencias permisibles y consecuen-
cias de inferencias erróneas. Para esta sección asumiremos que el conjunto de posibles
2 0.1. El Principio de Equivarianza

inferencias es el mismo Θ; es decir, una inferencia es simplemente la elección de un


elemento de Θ como una estimación o conjetura del verdadero valor de θ. La invarian-
cia formal se refiere solo a las entidades matemáticas involucradas, no a la descripción
fı́sica del experimento. Por ejemplo, Θ puede ser Θ = {θ : θ > O} en dos problemas.
En un problema, θ puede ser el precio promedio de una docena de huevos en los
Estados Unidos (centavos) y en el otro θ puede referirse a la altura promedio de las
jirafas en Kenia (metros). Sin embargo, la invariancia formal iguala estos dos espacios
de parámetros, ya que ambos se refieren al mismo conjunto de números reales.
PRINCIPIO DE EQUIVARIANZA: Si Y = g(X) es un cambio de escala de me-
dición tal que el modelo para Y tiene la misma estructura formal que el modelo para
X, entonces un procedimiento de inferencia debe ser tanto Equivariante de medición
como formalmente equavariante.
Estos dos conceptos de equvarianza pueden trabajar juntos para proporcionar una
reducción de datos útil.

Ejemplo 0.1.1 (Equivarianza binomial). Sea X una distribución binomial con ta-
maño de muestra n conocida y probabilidad de éxito p desconocida. Sea T (x) la es-
timación de p que se usa cuando se observa X = x. En lugar de usar el número de
éxitos, X, para hacer una inferencia sobre p, podrı́amos usar el número de fracasos,
Y = n − X. Y también tiene una distribución binomial con parámetros (n, q = 1 − p).
Sea T ∗ (y) la estimación de q que se usa cuando se observa Y = y, de modo que
1 − T ∗ (y) es la estimación de p cuando Y = y se observa. Si se observan x éxitos,
entonces la estimación de p es T (x). Pero si hay x éxitos, entonces hay n − x fracasos
y 1 − T ∗ (n − x) también es una estimación de p. La equivarianza de medición requiere
que estas dos estimaciones sean iguales, es decir, T (x) = 1 − T ∗ (n − x), ya que el
cambio de X a Y es solo un cambio en la escala de medición. Además, las estructuras
formales de los problemas de inferencia basados en X e Y son las mismas. Tanto X
como Y tienen distribuciones binomiales (n, θ), O ≤ θ ≤ l. Por lo tanto, la invarian-
cia formal requiere que T (z) = T ∗ (z) para todos z = 0, ..., n. Ası́, la medición y la
invariancia formal requieren que

T (x) = 1 − T ∗ (n − x) = 1 − T (n − x). (1)

Si consideramos solo los estimadores que satisfacen (1), entonces hemos reducido
y simplificado en gran medida el conjunto de estimadores que estamos dispuestos
0.1. El Principio de Equivarianza 3

a considerar. Mientras que la especificación de un estimador arbitrario requiere la


especificación de T (0), T (1), ..., T (n), la especificación de un estimador que satisface
(1) requiere la especificación solo de T (0), T (1), ..., T ([n/2]), donde [n/2] es el mayor
entero no mayor que n/2. Los valores restantes de T (x) están determinados por los
ya especificados y (1). Por ejemplo, T (n) = 1 − T (0) y T (n − 1) = 1 − T (1). Este es
el tipo de reducción de datos que siempre se logra con el Principio de Equivarianza.
La inferencia que se realizará para algunos puntos de muestra determina la inferencia
que se realizará para otros puntos de muestra.
Dos estimadores equivariantes para este problema son T1 (x) = x/n y T2 (x) =
.9(x/n) + .1(.5). El estimador T1 (x) usa la proporción muestral de éxitos para estimar
p. T2 (x) reduce”la proporción muestral hacia .5, que podrı́a ser sensato si hay razones
para pensar que p está cerca de .5. La condición (1) se verifica fácilmente para ambos
estimadores, por lo que ambos son equivariantes. Un estimador no equivariante es
T3 (x) = .8(x/n) + .2(1). La condición (1) no se cumple ya que T3 (0) = .2 6= 0 =
1 − T3 (n − 0).

Una clave para el argumento de equarianza en el Ejemplo 0.1.1 y para cualquier


argumento de equivarianza es la elección de las transformaciones. La transformación
de datos utilizada en el Ejemplo 0.1.1 es Y = n − X. Las transformaciones (cam-
bios de la escala de medición) utilizadas en cualquier aplicación de los Principios de
Equivarianza se describen mediante un conjunto de funciones en el espacio muestral
denominado grupo de transformaciones.

Definición 0.1.1. Un conjunto de funciones {g(x) : g ∈ G} del espacio muestral X


en X se denomina grupo de transformaciones de X si
(i) (Inverso) Para cada g ∈ G hay una g 0 ∈ G tal que g 0 (g(x)) = x para todo x ∈ X .
(ii) (Composición) Para cada g ∈ G y g 0 ∈ G existe g 00 ∈ G tal que g 0 (g(x)) = g 00 (x)
para todo x ∈ X .
A veces el tercer requisito,
(iii) (Identidad) La identidad, e(x), definida por e(x) = x es un elemento de G, se
establece como parte de la definición de un grupo.

Ejemplo 0.1.2 (Continuación del Ejemplo 0.1.1). Para este problema, solo hay
dos transformaciones involucradas, por lo que podemos establecer G = {g1 , g2 }, con
g1 (x) = n − x y g2 (x) = x. La elección de g 0 = g verifica (i), es decir, cada elemento
4 0.1. El Principio de Equivarianza

es su propio inverso. Por ejemplo,

g1 (g1 (x)) = g1 (n − x) = n − (n − x) = x.

En (ii), si g 0 = g, entonces g 00 = g2 , mientras que si g 0 6= g, entonces g 00 = g1 satisface


la igualdad. Por ejemplo, tome g 0 6= g = g1 . Entonces

g2 (g1 (x)) = g2 (n − x) = n − x = g1 (x).

Para utilizar el Principio de Equivarianza, debemos ser capaces de aplicar una


invariancia formal al problema transformado. Es decir, después de cambiar la escala
de medición todavı́a debemos tener la misma estructura formal. Como la estructura no
cambia, queremos que el modelo subyacente, o familia de distribuciones, sea invariante.

Definición 0.1.2. Sea F = {f (x|θ) : θ ∈ Θ} un conjunto de pdfs o pmfs para X, y


sea G un grupo de transformaciones del espacio muestral X . Entonces F es invariante
en el grupo G si para cada θ ∈ Θ y g ∈ G existe un único θ0 ∈ Θ tal que Y = g(X)
tiene la distribución f (y|θ0 ) si X tiene la distribución f (x|θ).

Ejemplo 0.1.3 (Conclusión del ejemplo 0.1.1). En el problema binomial, debemos


verificar tanto g1 como g2 . Si X ∼ binomial(n, p), entonces g1 (X) = n − X ∼
binomial(n, 1 − p), entonces p0 = 1 − p, donde p juega el papel de θ en la definicón
0.1.2. También g2 (X) = X ∼ binomial(n, p) ası́ que p0 = p en este caso. Por lo tanto,
el conjunto de pmfs binomial es invariante en el grupo G = {g1 , g2 }.

En el ejemplo 0.1.1, el grupo de transformaciones tenı́a solo dos elementos. En


muchos casos, el grupo de transformaciones es infinito.

Ejemplo 0.1.4 (Invarianza de ubicación normal). Sea X1 , ..., Xn iid n(µ, σ 2 ), tanto
µ como σ 2 son desconocidos. Considere el grupo de transformaciones definidas por
G = {ga (x), −∞ < a < ∞}, donde ga (x1 , ..., xn ) = (x1 + a, ..., xn + a). Veamos que
este conjunto de transformaciones es un grupo. Para (i) tener en cuenta que

g−a (ga (x1 , ..., xn )) = g−a (xl + a, ..., xn + a) = (x1 + a − a, ..., xn + a − a) = (x1 , ..., xn ).

Ası́, si g = ga , entonces g 0 = g−a satisface (i). Para (ii) note que

ga2 (ga1 (xl , ..., xn )) = ga2 (xl + a1 , ..., xn + al ) = (x1 + a1 + a2 , ..., xn + a1 + a2 )

= ga1 +a2 (xl , ..., xn ).


0.1. El Principio de Equivarianza 5

Ası́, si g = ga1 y g 0 = ga2 , entonces g 00 = ga1 +a2 satisface (ii), y la definición 0.1.1
es verificada. G es un grupo de transformaciones.
El conjunto F en este problema es el conjunto de todas las densidades conjuntas
f (x1 , ..., xn |µ, σ 2 ) para X1 , X2 , ...Xn definido por “X1 , X2 , ..., Xn son iid n(µ, σ 2 ) para
algunos −∞ < µ < ∞ y σ 2 > 0.”Para cualquier a, −∞ < a < ∞, las variables
aleatorias Y1 , ..., Yn definidas por

(Y1 , ..., Yn ) = ga (X1 , ..., Xn ) = (X1 + a, ..., Xn + a)

son iid variables aleatorias n(µ + a, σ 2 ). Por lo tanto, la distribución conjunta de


Y = ga (X) está en F y, por lo tanto, F es invariante en G. En términos de la
notación en la Definición 0.1.2, si θ = (µ, σ 2 ), entonces θ0 = (µ + a, σ 2 ).

Recuerde que el Principio de Equivarianza se compone de dos tipos distintos de


equivarianza. La equivarianza de medición, es intuitivamente razonable. Cuando mu-
chas personas piensan en el Principio de Equivarianza, piensan que se refiere solo a la
equivarianza de medición. Si este fuera el caso, el Principio de Equivarianza proba-
blemente serı́a aceptado universalmente. Pero el otro principio, la invariancia formal,
es bastante diferente. Iguala cualquiera de los dos problemas con la misma estructura
matemática, independientemente de la realidad fı́sica que intentan explicar. Dice que
un procedimiento de inferencia es apropiado incluso si las realidades fı́sicas son muy
diferentes, una suposición que a veces es difı́cil de justificar.
Al igual que el Principio de Suficiencia y de verosimilitud, el Principio de Equiva-
rianza es una técnica de reducción de datos que restringe la inferencia al prescribir qué
otras inferencias se deben hacer en puntos de muestra relacionados. Los tres principios
prescriben relaciones entre inferencias en diferentes puntos de muestra, restringiendo
el conjunto de inferencias permitidas y, de esta manera, simplificando el análisis del
problema.

S-ar putea să vă placă și