Sunteți pe pagina 1din 282
INFERENCIA ESTADISTICA PARA ECONOMIA Y ADMINISTRACION Deas sss JOSE M. CASAS SANCHEZ {INDICE PROLOGO oo... cccscccceecececeeeeceeeeseseseteesesususeseseseeeaees CAPITULO 1. MUESTREO Y DISTRIBUCIONES EN EL MUES- TREO iver rornmnnsings wennera axeen ¥UA. Introducci6n......000.. eee %1.2. Muestra aleatoria.. z 1.3. Pardmetros poblacionales y estadisticos muestrales 1.4. Funcién de distribucién empirica.. 1.5. Distribucién muestral de estadisticos 1.6. Media y varianza de algunos estadisticos 1.7._Distribuciones de estadisticos muestrales de poblaciones nor- ¥18. X19. males... 1.74. Distribucidn de la media muestral cuando se conoce la varianza_poblacional. ¥ 1.72. Distribuciones de la media mues noce la varianza poblacional 41.73. Distribucin de la varianza muestral , \ 1.74, Distribuciones de la diferencia de medias muestral cuando se conoce la varianza poblacional & 1.7.5. Distribucién de la diferencia de medi cuando no se conoce la varianza poblacional 1.7.6. Distribucién del cociente de varianzas Distribucién de la proporcién muestral....... Distribucién de la diferencia de proporciones.. ‘al cuando no se c¢ CAPITULO 2. ESTIMACION PUNTUAL........0:cc0:cccseesseeeees KL. 29. Introducci6n a la inferencia estadistica a El problema de la estimacién: estimacién puntual 19 19 19 30 34 37 46 53 53 59 61 68 n2 75 81 83 83 87 10 INDICE (2.3. Propiedades de los estimadores puntualss: a 91 Fstimador insesgado.... 95 Estimador insesgado de varianza minima 102 2.3.2.1. Cota de Frechet-Cramer-Rao 103 2.3.3. Estimador eficiente.. 108 2.3.4. Estimador consistente 118 2.3.5. Suficiencia 123 23.5.1. Estimador suficiente 124 2.3.5.2. Teorema de factorizacién ‘de Fisher- Neyman 127 23.5.3. Estadistico minimal suficiente....... 134 23.5.4. Relacin entre el estimador eficiente y su- ficiente 140 2.3.5.5. El papel de la suficiencia en la obtencién de estimadores insesgado de varianza minima... 143 23.6. Completitud 144 24. La familia exponencial de distribuciones y la suficiencia 147 5. Estimador invariante....... a aeeyere wexeat sag 1150. 2.6. Estimador robusto CAPITULO 3. METODOS DE OBTENCION DE ESTIMADORES. 157 3.1, Introduccién.... : 157 432. Método de los momentos : Be 157 3.2.1. Propiedades de los estimadores obtenido por el méto- do de los momentos. 159 3.3. Método de la maxima verosimilitud . 169 3.3.1. Propiedades de los estimadores de maxima verosimili- Ud... eeeceeceeeereee eee rere eres eeeeeeeeeeenen 186 3.4. Método de la minima 7? 191 3.5. Estimadores lineales insesgados 194 3.5.1. Método de la minima varianza . 195 3.6. Método de los minimos cuadrados... 202 “CAPITULO 4. ESTIMACION POR INTERVALOS DE CON- FIANZA...ccccseececeeseceteeeeeeeeseeeees _ 205 AL, IntroducciOn.......cccccesesteneees rg 205 4.2. Métodos de construccién ‘de intervalos de confianza... 209 4.2.1. Método pivotal....... 210 422. Método general de Neyman. sah 212 4.3. Intervalos de confianza en poblaciones normales.......26+++++ 221 43.1. Intervalo de confianza para la media de una poblacién normal... on 221 ce ian {NDICE ll 4.3.2. Intervalo de confianza para la varianza de una pobla- cién normal.. veer (293 43.3, Intervalo de confianza para la diferencia de medias en poblaciones normales: muestras independientes 238 4.3.4. Intervalo de confianza para la diferencia de medias en poblaciones normales: muestras apareadas...... 246 4.3.5. Intervalo de confianza para el cociente de varianzas en poblaciones normales............. w 250 4.4. Intervalos de confianza en poblaciones no necesariamente nor- MACS rrecaerey as eseweew Meat. « 254 4.4.1. Aplicacién de la desigualdad de Chebychev | para la ob- tencién de intervalos de confianza 254 44.2, Intervalos de confianza para muestras grandes. 258 4.4.2.1. Intervalos de confianza para muestras gran- des a partir de un estimador de maxima vero- similitud seeeene 258 4.4.2.2. Intervalo de confianza para muestras grandes aplicando el Teorema Central del Limite 261 4.5. Intervalo de confianza de una proporcion............00.--. 264 4.5.1. Intervalo de confianza de una proporcién para mues- tras pequefias.......... . .. 264 4.5.2. Intervalo de confianza de una 1a proporcién para mues- tras grandes........... we 268 4.6. Intervalo de confianza para la diferencia de proporciones 272 4.7, Estimacion del tamafio muestral.. w 275 4.7.1. Tamafio de muestra para estimar la media. ude una poblacién normal con « conocida. 276 4.7.2. Tamafio de muestra para estimar la media ji de una poblacién normal con ¢ desconocida........ 217 4.7.3. Tamafio de muestra para estimar la proporcin p de una poblacisn. 280 4.8. Regiones de confianza.. 283 4.8.1. Region de confianza para la media y varianza de una | poblacién normal 283 | 4.9. Cuadro resumen de intervalos de confianza 290 CAPITULO 5. CONTRASTE DE HIPOTESIS 297 . [ Introduccién 297 Tipos de hipotesis 298 5.3.) Region critica y regin de aceptacion......... 301 5.4.| Errores de tipo I, de tipo II y potencia del contraste. . . 303 12 INDICE 5.5. Fases a realizar en un contraste 0 test de hipétesis .. nase 314 5.6. Potencia y funcién de potencia del contraste.......... 327 5.6.1. Determinacién de la potencia y fimeion de potencia en un contraste bilateral a 331 5.6.2. Efecto del nivel de significacién sobre la potencia.... 338 5.6.3. cto del tamafio de la muestra sobre la potencia.... 342 5.6.4. Determinacién de la potencia y funcién de potencia en un contraste unilateral .. 344 5.7. Determinacién del tamaiio de la muestra para a y B dados 350 5.8. Hipétesis simples y el lema de Neyman-Pearson....... 355 5.9. Hipdtesis compuestas y contrastes uniformemente mas poten- onmeee - o 373 Familia de cociente de versomilitud monétono . . 55 Contrastes insesgados. 382 CAPITULO 6. CONTRASTES DE HIPOTESIS PARAMETRICAS. 385 Introducci6n ...... 385 Contrastes de significacién. 385 ‘ 62.1, Contraste de significaci6n para la media de una po- ) blacién N(jt, 0), con ¢ conocida.... 389 622. Constraste de significacién para la media de una po- : blacién N(jt, 0), con « desconocida 391 63. Contraste de razén de verosimilitud. 393 ~ 64, Contrastes sobre la media de una poblacién N(14, 6), con 6 conocida. 412 64.1, Relacién entre los contrastes de hipotesis y los inter- valos de confianza 420 6.5.) Contrastes sobre la media de una poblacién Nw, ¢), con —— desconocida. 423 6.6), Contrastes sobre la varianza de una poblacién Ni, 0), con 1 i ee 436 62. Contrastes sobre la varianza de una poblacién N(j, 0), con wt desconocida. 440 68. Contrastes en poblaciones no necesariamente normales. Muestras grandes.......0.000.00005 451 68.1. Contrastes sobre la proporcién poblacional 452 6.9. Contrastes entre parémetros de las poblaciones normale: 458 6.9.1. Contrastes de diferencias entre medias poblacionales, con a, ¥ 4, conocidas.. . 458 69.2. Contrastes de diferencias entre medias poblacionale: con a, y 6, desconocidas pero iguales.. 466 SS eeeeeeeeeeeeeennneeamS INDICE 13 6.9.3, Contrastes de diferencias entre medias poblacionales, con o, y o, desconocidas. Problema de Behrens- Fisher. 472 69.4. Contrastes de diferencias entre medias poblacionales: muestras apareadas............. 474 69.5. Contrastes de igualdad de varianzas 479 6.10. Contrastes de igualdad de proporciones 482 6.11, Cuadro resumen de los contrastes de hipétes 488 CAPITULO 7. CONTRASTES DE BONDAD DE AJUSTE Y TA- BLAS DE CONTINGENCIA.......0.000.c002- 495 7.1. Introduccién.. veces 495 7.2. Contrastes de bondad de juste... : 496 72.1. Contraste 7? de Pearson de bondad de ajuste 496 | 7.2.2. Contraste de Kolmogorov-Smirnov........ 510 7.2.3. Contraste de normalidad de Lilliefors.... 520 7.2.4. Contraste de normalidad de Shapiro-Wilk. 524 Contraste de Kolmogorov-Smirnov para dos muestras. 527 8.2.2. Contraste del cuadrado medio de diferencia sucesivos. 562 7. | 7.3. Tablas de contingencia.. 532 7.3.1. Contraste de independencia. 533 7.3.2. Contraste de homogeneidad 540 CAPITULO 8. CONTRASTES NO PARAMETRICOB............. 547 | 8.1. Introduccién at 547 | $2; Contrastes de aleatoriedad.. 549 | G2ZE> Contraste de rachas de Wald-Wolfowitz 550 | 83 Contrastes de localizacién.. 567 8.3.1. Contraste de signos.. 568 32> Contraste de signos de la mediana... 571 Contraste de signos para una muestra apareada....... 579 Contraste de rangos-signos de Wilcoxon para una muestra . 582 84. Contrastes de comparacin de dos poblaciones. 590 (84.1, Contraste de la mediana. 594, 42> Contraste de Wilcoxon-Mann.Whitney 602 8.4.2.1. Equivalencia del estadistico W de Wilcoxon y el estadistico de Mann-Whitney 8.4.3. Contraste de Siegel-Tukey...... 622 626 rl 14 INDICE 8.5. Contraste de comparacién de més de dos poblaciones........ 630 1. Contraste de Kruskal-Wallis.........0.00ecceesceee 631 8.5.2. Comparaciones multiples... 640 CAPITULO 9.- ANALISIS DE VARIANZA 643 QA. Introducci6n........ceeeeeeeeeseseeeeeeees ue warms 7a 643 9.2. Disefios estadisticos... 645 93. Andlisis de varianza para una clasificacién simple o de un solo factor... ceeeeeee cose - 647 9.3.1. El modelo en un disefio completamente aleatoriado... 647 9.3.2. Andlisis de varianza para un modelo de efectos fijos... 651 9.3.3. Anidlisis de varianza para un modelo de efectos aleato- rios 662 9.3.4. Comprobacién de las hipétesis iniciales del modelo 666 93.4.1. Contraste de igualdad de varianzas: test de Barlet. 666 9.3.5. Método de Scheffé de comparaciones multiples 669 9.4, Andlisis de varianza para una clasificacién doble o de dos fac- tores 672 .O 10. TEORIA DE LA DECISION: DECISION BAJO RIESGO. 683 10.1, Introduccién 683 102. El modelo de decisién. 685 10.3. Diferentes fases en la toma de decisiones ... 687 10.4. Diferentes tipos de situaciones de decisién. 688 10.4.1. Decisién bajo certidumbre 2 689 10.4.2. Decisién bajo riesgo.. ‘ 691 10.4.3. Decisién bajo incertidumbre...........0ccc00cce. 693 10.4.4. Decisidn bajo conflicto. 694 10.5. Decisién bajo riesgo......... : 694 10.5.1. Criterio del valor monetario esperado..... 695 10.5.2. Criterio de pérdida de oportunidad esperada........ 697 10.5.3. Valor esperado de informaci¢ eevee coxsen 700 10.6. Arboles de decisiones...... 703 10.6.1. Elaboracién de un drbol de decision 704 10.6.2. Elaboracién de un drbol de decision 712 10.7. Valor esperado de la informacion muestral . 718 INDICE 15 CAPITULO 11. DECISION BAJO INCERTIDUMBRE......... . 723 IL.1, Introduccién.. 723 11.2. El problema de decisin bajo incertidumbre. 723 11.3. Criterios de decisién bajo incertidumbre . 725 11.3.1. Criterio mdaximax.. 7126 11.3.2. Criterio maximin o de Wald. 727 11.3.3. Criterio minimax 728 11.3.4. Criterio de Hurwitz. 729 11.3.5. Criterio de Laplace o de equiprobabilidad . 733 11.3.6. Criterio de Savage . 734 11.4. Eleccién de un criterio de decisién bajo incertidumbre 736 ANEXO DE TABLAS .....0.....0c0ccesseseeesees 743 Tabla A.L. Funcién de probabilidad binomial.......... vesevsves “TA4 Tabla A.2. Funcién de distribucién binomial . ve 750 Tabla A.3. Funcidn de probabilidad hipergeométri 756 Tabla A4. — Funcidn de distribucién hipergeométrica . 761 Tabla AS. Funcidn de probabilidad de Poisson. 766 Tabla A.6. Funcién de distribucién de Poisson... 7712 Tabla A.7, Funcién de distribucién N(0, 1) 7 Tabla AS. Funcién gamma incompleta... 719 | Tabla A.9. Funci6n de distribucién y? de Pearson. 781 i Tabla A.10. Funcidn de distribucién t-Student 783 | Tabla A.11. Funcién de distribucién F-Snedecor....... seceee 785 Tabla A.12. Nuimeros_aleatorios 798 | Tabla A.13. Gréfica de intervalos de confianza del parametro p de | una distribucién binomial . : . 798 Tabla A.14, Valores eriticos del test de Kolmogorov-Smirnov para una muestra. 801 Tabla A.1S. Valores erfticos del test. de ‘Lilliefors de normalidad, 802 Tabla A.16. Coeficientes a, del test W de Shapiro-Wilk de norma- TAG. oeniswins enaraienna oxencres oe 803 Tabla A.17. Valores criticos del t test Ww de Shapira Wilk den norma- lidad - 806 Tabla A.18. Valores criticos del test de Kolmogorov- Sminov para dos muestras de distinto tamaiio ‘ 807 Tabla A.19. Valores criticos del test de Kolmogoroy-Smimov para dos muestras del mismo tamaio . 809 Tabla A.20. Distribucién de probabilidades para el t st de rachas de aleatoriedad oa 810 16 {NDICE Tabla A.21. Valores criticos para el test de rangos-signos de Wil- COXOL ss cose Tabla A.22. Funcién de distribucién del estadistico U de Mann- Whitney. Tabla A.23. Valores criticos para el test de Kruskal-Wallis para k Tabla A.24. Valores criticos para el test de Kruskal-Wallis. para diferentes valores de k..........seseeeeeeeeee . BIBLIOGRAFIA.... co cceeeetaeeesseeeses Capitulo 1 MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 1.1. INTRODUCCIO! Anteriormente hemos estudiado conceptos fundamentales, como eran el concepto de variable aleatoria y su distribucién de probabilidades, estudiamos diferentes modclos de distribuciones tanto de tipo discreto como de tipo conti- nuo y analizdbamos sus caracteristicas basicas (media, varianza, etc.). A partir de ahora estaremos interesados en saber qué modelo sigue la poblacién, y para ello nos basaremos en la informacién que se obtenga de un subconjunto o parte de esa-poblacién que llamaremos muestra, Cuando realizamos una introduccién general de la estadfstica decimos que uno de los objetivos fundamentales es el obtener conclusiones basdndonos en los datos que se han observado, proceso que se conoce con el nombre de inferencia estadistica, es decir utilizando la informacién que nos proporciona una muestra de la poblacién se obtienen conclusiones o se infieren valores sobre caracteristicas poblacionales. En este capitulo daremos una serie de conceptos bisicos que sern funda- mentales para el desarrollo posterior de la inferencia estadistica. 1.2. MUESTRA ALEATORIA Sabemos que hay diferentes métodos para investigar u observar una pobla- cién (Observacién exhaustiva 0 censo, subpoblacin, muestra y observacién mixta), aqui nos vamos a referir a la observacién parcial mediante una muestra y diremos que se ha investigado la poblacign a partir de una muestra cuando los elementos que componen la muestra no rednen ninguna caracteristica esen- 20 CASAS-SANCHEZ, J. M. cial que los diferencie de los restantes, representando, por tanto, a toda la poblacién. Las conclusiones sacadas de la muestra se pueden inferir 0 extender a la poblacién total. Asf por ejemplo, supongamos que deseamos conocer el precio medio o valor medio de las viviendas en una zona de Madrid en el afio 1994. Para conocer la caracteristica precio de la vivienda en esa zona, necesi- tarfamos saber el precio de venta de cada una de las viviendas yendidas duran- te ese perfodo de tiempo y el precio por el cual cada propietario venderia la suya. Esta lista completa de viviendas con sus precios, constituye la poblacién en la que estamos interesados, cuya caracteristica, precio medio de la vivienda o media poblacional, deseamos conocer. Pero, en esta y en otras muchas situa- ciones practicas no serd posible o no seré facil, por diversas razones el obtener la poblacin entera en la cual estamos interesados. Sin embargo, si podemos obtener la informaci6n necesaria, precio de la vivienda, para una muestra re- presentativa de la poblacién y a partir de la cual inferir y obtener conclusiones para toda la poblacién total. La muestra debe de ser representativa de toda la poblacién y, por tanto, tendré caracteristicas similares a las que se observarfan en la poblacién entera, de tal manera que si observando los precios de las viviendas que han sido incluidas en la muestra resulta que el precio medio de las viviendas de la muestra, media muestral x, ha resultado ser 8.970.540 ptas. podremos inferir que la media poblacional' precio medio de la vivienda en toda la poblacién o zona que estamos considerando esta en torno a 8.970.540 ptas. La raz6n principal para investigar una muestra en lugar de la poblacién completa es que la recogida de Ia informacién para toda la poblacién daria lugar a un coste muy elevado tanto en recursos econédmicos como en tiempo. Incluso en ciertos casos en que los recursos fueran suficientes para investigar la poblacién completa, puede ser preferible el investigar sdlo una muestra muy representativa, concentrando sobre ella un mayor esfuerzo para obtener medi- das mas precisas de las caracteristicas que nos interesen. De esta forma se puede evitar lo que algunas veces ocurre en las grandes operaciones censales, por ejemplo, en el censo decenal de poblacién de los Estados Unidos, en donde se investig6 toda la poblacidn, se observ6 que ciertas caracteristicas y grupos poblacionales estaban muy poco representados, lo cual era debido a la proble- mdtica que lleva consigo una gran operacién censal, tanto por el volumen de cuestionarios como por la cantidad de informacién. Cuando se selecciona una muestra de una poblacién, un objetivo funda- mental es el poder hacer inferencias sobre caracteristicas poblacionales u obte- ner conclusiones que sean vdlidas para toda la poblacién. Por tanto, es muy importante que la muestra sea representativa de la poblacién; asf pues la cali- dad de la inferencia 0 conclusién obtenida a partir de la muestra, sobre las MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 21 diferentes caracteristicas poblacionales estard directamente relacionada con la representatividad de la muestra. Por ejemplo, supongamos que un director comercial desea conocer la opinién sobre un nuevo producto de limpieza. No seria correcto que limitara la correspondiente encuesta a sus amigos y a las personas que viven en su barrio, pues tales personas no reflejarfan la opinién de toda la poblacién ya que la muestra no seria representativa de toda la poblacién, ni aleatoria. Para evitar estos problemas y poder realizar una infe- rencia correctamente sobre toda la poblacién a partir de una muestra es_ne sario que se verifique la representatividad y la aleatoriedad de la muestra. Un objetivo basico en muestreo es seleccionar una muestra que garantice con un costo razonable una buena representatividad de la poblacién El procedimiento de seleccién de la muestra puede conducir a diferentes tipos de muestreo, como veremos al estudiar el muestreo en poblaciones fini- tas. Aqui nos vaitios a referir a un solo tipo de muestreo, aunque inicialmente consideremos dos: — muestreo con reemplazamiento, y — muestreo sin reemplazamiento. El muestreo con reemplazamiento.consiste en seleccionar, por mercanismos aleatorios, los elementos de la poblacién que entran a formar parte de la mues- tra, pero de tal manera que cuando se observa la caracteristica, que estamos investigando, del primer elemento seleccionado, se devuelve el elemento a la poblacidn, se selecciona el segundo elemento entre todos los elementos de la poblacién, se anota la caracterfstica que se esta investigando y se devuelve a la poblacién, y asf sucesivamente, Este procedimiento permite que un ele- mento de la poblacién pueda ser seleccionado en més-de una ocasién para formar parte de una muestra, pues la selecci6n se realiza con reemplazamiento, es decir, con devolucién del elemento seleccionado a la poblacién. En el muestreo sin reemplazamiento, los elementos de la poblacién que entran a formar parte dela muestra también se scleccionan aleatoriamente, pero después de observar la caracteristica que estamos investigando no se devuelve el elemento de nuevo a la poblacién, con lo cual no pueden volver a ser seleccionados como ocurrfa en el muestreo con reemplazamiento. Asi pues, si tenemos una poblacién de N elementos y queremos seleccionar una muestra de tamaito n resulta que la probabilidad de que un elemento de la poblaci6n sea seleccionado en la primera extraccién para formar parte de la 1 muestra sera a en ambos tipos de muestreo. Sin embargo, en la seleccién del segundo elemento las probabilidades son diferentes, pues en el muestreo con ll 22 CASAS-SANCHEZ, J. M. reemplazamiento continia siendo yy Ya que el ntimero de elementos de la poblacidn sigue siendo N, pero en el muestreo sin reemplazamiento el tamaiio de la poblacién es N — 1, pues el primer elemento seleccionado no se devuelve a la poblacién y entonces la probabilidad de seleccionar un elemento concreto 1 iy lidad de seleccionar uno a uno los n elementos de la muestra permanece cons- tante y en el muestreo sin reemplazamiento no sucede lo mismo ya ge en cada extraccién no se devuelve el elemento a la poblacién y ésta va disminuyendo a medida que se selecciona la muestra, siendo los tamafos poblacionales N, sera —. Vemos pues que en el muestreo con reemplazamiento la probabi- N-1,N-2,..,N —(n—- 1). Luego, la probabilidad de seleccionar una muestra concreta de n elementos sera: a Po ne extracci6n extraccién ++. extraccién 1 1 Muestreo con reemplazamiento — N N Muestreo sin reemplazamiento st 2 = cement N-1 N-nt1 i el tamafio de la poblacién es infinito o muy grande, entonces el tamaiio de la muestra n en comparaci6n con ese tamaio N infinito o muy grande de la poblacién es practicamente despreciable, y entonces no existe diferencia signifi- cativa entre ambos tipos de muestreo. No sucede lo mismo cuando el tamano N de la poblacién es finito, dando lugar a tratamientos diferentes, como vere- mos en el capitulo dedicado al muestreo en poblaciones finitas. Para llegar al concepto de muestra aleatoria simple y poder dar una defini- cidn rigurosa de la misma considéramos una poblacién, cuya funcién de distri- bucién es F(x), constituida por un nuimero infinito de posibles valores de una caracterfstica medible X, esta caracteristica puede ser, por ejemplo, el tiempo de espera para recibir un servicio, o el valor de las ventas de un determinado producto. Entonces para seleccionar una muestra aleatoria de tamaio n de esta poblacién se disefia un experimento, de tal manera que la primera realiza- cidn de ese experimento nos proporciona la observacién X , de la caracteristica medible X, repitiendo sucesivamente el experimento bajo las mismas condicio- nes, para todos los factores controlables, tendremos las n observaciones: X yy Xa oy Xp que constituyen la muestra aleatoria simple. MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 23 Cada observacién X; correspondiente a la repeticin i-ésima del experi mento es una variable aleatoria cuya distribucion de probabilidad es idéntica a la de la poblacién de la caracteristica X, para todo i = 1, 2, ... 1 Si la poblacién consta de un némero finito de elementos, por ejemplo, personas, viviendas, establecimientos comerciales, et., y realizamos un mues- treo aleatorio con reemplazamiento, es decir, se selecciona aleatoriamente un elemento de la poblacion, se observa la caracterfstica medible que estamos investigando y esta observacién seria la X ,. Se devuelve el elemento a la pobla- cidn, después se selecciona un segundo elemento y observando la caracteristica medible tendriamos la observacién X,. Reiterando el proceso n veces tendria- mos las n observaciones: Lo Xnae % de la caracteristica medible X de la poblacin, que constituyen la muestra aleatoria simple. Cada una de estas observaciones, X1, Xz, ... X,. también es una variable aleatoria cuya funcién de probabilidad es idéntica a la de la poblacién, ya que cada seleccién de un elemento que da lugar a una observacién procede de la poblaci6n original Luego las observaciones X, X, ... X, constituyen un conjunto de variables aleatorias independientes ¢ idénticamente distribuidas ya que como la seleccién se ha realizado con reemplazamiento, ninguna observacién se ve afectada por otra, es decir, el hecho de que una observaci6n sea seleccionada no depende en absoluto de las que se han scleccionado anteriormente, pues los elementos se devuelven a la poblacién después de anotar la caracteristica a investigar, y la probabilidad de seleccién permanece constante. Si en la poblacién con un ntimero finito de elementos, se seleccionan andlo- gamente n elementos sin reemplazamiento tendrfamos una muestra aleatoria sin reemplazamiento de observaciones: Hs Sosa Xi, de la caracteristica X que estamos investigando. Estas observaciones, X,, X>, ... X, también son variables aleatorias cuyas funciones de probabilidad son iguales a las de la poblaci6n inicial’, pero las ' Sc puede demostrar que aunque la seleccién de las observaciones muestrales se hace sin reemplazamiento, la funcin de probabilidad no condicionada de las observaciones X,, ¢s idéntica ala funcién de probabilidad de la poblacién, para i= 1, 2, .., n 24 CASAS-SANCHEZ, J. M. observaciones no son independientes como ocurrfa en el caso del muestreo aleatorio con reemplazamiento, y por tanto, no constituyen una muestra alea- toria simple. En consecuencia, a partir de ahora nos vamos.a_referir a_poblaciones de tamajio infinito o muy grandes, de tal manera que no haremos distincién ni referencia alguna_a que el. muestreo sea con reemplazamiento o sin reemplaza- miento pues la diferencia existente entre ambos seré irrelevante para nuestro estudio. No obstante hemos de tener en cuenta que si el tamaiio N de la pobla- cién es finito y realizamos un muestreo con reemplazamiento entonces le dare- mos el mismo tratamiento que si la poblacién fuese de tamafio infinito, pues como hemos visto también dan lugar a un conjunto de variables aleatorias independientes e idénticamente distribuidas, es decir, a muestras aleatorias sim- ples. Una muestra aleatoria simple de tamano n de una poblacidn X esta consti- tuida por un conjunto de n-variables aleatorias X,, .., X, independientes ¢ idén- ticamente distribuidas a la poblacion X, ¢s decir est4 constituida per un conjunto de observaciones muestrales independientes ¢ idénticamente distribuidas. Cuando el experimento se realiza, a cada una de las variables aleatorias se le asignaré un valor numérico. Es decir, tendremos la realizacién de la muestra X= xp eX, y diremos que ha sido seleccionada una muestra. En la prdctica la muestra se suele obtener utilizando una tabla de nimeros aleatorios, Tabla 1.1, la cual constituye un ejemplo de cémo son estas tablas, pues estén constituidas por muchas paginas de nimeros obtenidas aleatoria- mente y colocadas en ese formato. TABLA 1.1. Ntimero aleatorios. Columna Fila 1 2 3 4 6 7 8 9 10 1 2034 5600 2400-7583 1104 8422 9868 7768-2512 9575 2 8849 5451 8504-3811 0132 8635-1732 4345-9047 0199 3 8915 2894 5638 4436 9692 8061 4665 6729 9605 4 6989 0682 0085 5906 8542 6884-5719 87799071 5 5093 8880 3466 0212-9475 «4957-8474 9572 6770 6 7940 3305-1183 8918 4397-3167 7342 6745 4688 7 9808 7499 9925 0695 4721-7597 0922 6821 2259 8 5667 7590 8599 5032 3042-3666 «1160 3413 20501796 9 0644 2848 7347 7161 6813 8276 8175 6534 6107 8350 10 4153 0293 0882 9755 5109 1484 4798 8039-3593 6369 MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 25 TABLA 1.1. (Continuacion) Columna Fila 1 2 3 4 5 6 7 8 9 10 11 4621. 0121 0251-9783 7697 4079-8952 4884 88381587 12 8490 4941 5203-2932 1008 65441137 1018 5123. 0347 13 3160 4107 2194 1314 1310 7060 3075 5273 6592-8875 14 0140 1600 8468 6585 5257 4874 9097 8684 78778881 15 0483 7097 5973 4235 7466 0821 3261-1359 3706 4676 16 2657 1386 6896 3132 2648 ©8947 9518 7472-9285 3067 7 4286 7434 3848 9128 5350 04076215 4059-4546 5170 18 8445 5087 0964-2800 9369 1680 8490 776075481060 19 4943 4327 0966 7861 8381 5865 4447 9063-2085 3635, 20. 9786 8853 0667 9100 2303 4455 0389 6145 2618 S401 21-8784. 7084 «9040-2542 8494 5685 2677-0233 5952 5003 22 3359 «8450 «6832-2107 4014 7988-6136 870906739533, 23 0880 9436 5314 5364 6338 4492-9529 4216-9564 1936 24 6835. 7154-9725 6945 5068 «6102 4967 S868 3672-0240 25 3257 «1159 1117 1878 7482-4219 4079 «12157278 5363, 26 ©5919 6661-9142 8506 2159 7663 4231-9216 01814264 27 «6174-5167 6056 2688 4973-8345 783004838133 9319 28 4341-0850 5955 2510 7506 8247 2714 2732-3351: 0755 29 8108 ©3203-3206 «5417 4958 «8194 1472-7316 S006 4701 30-3917 6944-3774 5552-7344 «(0332-8616 5099 6335 5902 316155 7292 8273 6565 S251 6444 6572 4532-9120 3635 32 3695-8581 6196 7053 0808 «1319 7161 207770511663, 33 70943242 «8861 «2713-0739: 6480-« «8261-3716 «1115-2739 34 2770-1314 9206 6758 «81995785 S115 7492" 83201888 35 1541 9360 9483 1700 2519 4393 5989 2669-4385 5264 36 6714 6622 4753. 7661 4173 0740-2112 1204 5611 6928 37 1538-8256 5467 1631 6954-2451 03881597 0692-2061 38 6185 322990222250 7568 «4105-7858 «4253 3408-9607 39 5861-8254 4408 6331-5158 3646 42131484 47491772. 40 0188 2813-3713 6040-8213. 3180 4207-1758 50293479 41 5984 5650 53340834 «0568 «9593 -7276-«—-2242—-2692 0774 42 7575 1609 0006 4395 6678 0966 7304 4884 6223 5828 43 2378 «3307-7449 7135-9320 52012429 8007 3009 8697 44 3984 0440-9423 3348 «1581 1283 44261156 08757948 45 1588 9349 9377 3424 2191 9673 0955 9909 5854 0890 46 1672 2549 5555 2342 5362-7581 «4545 «1364 8223 3789 47 430310489157 0308-9748 4780-8206 O71. 9129-6210 48 2718 7400 2207 3906 «7271 «5283. 2421 6430 4d 181688 49 3331-4479 «5609 6361-6905 «350774386188 19710925, 50 7593 6059 1417 2254 1813 8232 0652 9408 9972 S511 26 CASAS-SANCHEZ, J. M. Una muestra aleatoria simple de tamafo n de una poblacién de tamatio N puede ser obtenida de la siguiente forma: se enumeran los miembros de la poblacién de I aN, Se elige arbitrariamente un lugar en la tabla de ntimeros aleatorios, por ejemplo, la fila 2, columna 4, y como cada columna consta de cuatro digitos, resulta que nos situariamos en el 3811 y avanzando por filas 0 por columnas, lo haremos por filas, seleccionaremos los n primeros ntimeros distintos que nos encontremos entre 1 y N, que en este caso serfan: 3811, 0132, 8635, 1732, 4345, 9047, 0199, 8915 .. Estos mimeros entran a formar parte de la muestra aleatoria simple. Obser- vemos que es un muestreo sin reemplazamiento. En este caso estamos suponiendo que N es como maximo 9999 pues los nui- meros aleatorios aparecen agrupados en bloques de cuatro digitos, pero se po- dian haber agrupado en bloques de cinco digitos como ocurre en la Tabla A.12 de mimeros aleatorios, que aparece en el anexo A de tablas. Ejemplo 1.1 Consideremos la poblacién formada por los 100 alumnos de una clase de segundo curso de Econémicas cuyas edades aparecen en la Tabla 1.2. TABLA 1.2. Edades de los cien alumnos de una clase de segundo de Econémicas. Alumno Edad Alumno— Edad Alumno— Edad Alumno Edad 1 20 26 20 st 20 16 21 2 19 27 19 52 20 11 19 3 20 28 19 33 20 8 19 4 19 29 20 34 21 19 20 5 20 30 19 55. 20 80 19 6 19 31 19 56 19 81 21 7 19 32 19 S7 21 82 19 8 20 33 19 58 19 83 20 9 19 34 22 59 22 84 19 10 20 Ey 20 60 19 85 21 a 19) 36 20 61 20 86 19 12 19. 37 20 62 20 87 19 13 19 38 20 63 20 88 19 14 19 39 20 64 21 89 19 15 20 40 19 65 20 90 20 16 19 41 19 66 19 m1 19 17 19 42 19 67 20 92 20 18 19 B 20 68 21 93 21 19 20 44 20 69 20 94 21 MUESTREO Y DISTRIBUCIONES EN EL MUESTREO. 27 TABLA 1.2. (Continuacién) Alumno Edad Alumno Edad Alumno Edad Alumno Edad 20 19 45 19 70 19 95 19 21 20 46 20 n 20 96 20 2 20 47 a 72 19 97 20 23 20 48 21 B 19. 98 19 24 20 49 20 4 19 99 19 25 19 50 20 a5: 20 100 19 Utilizando la Tabla 1.1 de ntimeros aleatorios, para la seleccién de una muestra aleatoria de seis estudiantes, tendremos que empezar seleccionando seis ntimero aleatorios, asf pues si entramos en la tabla por el Angulo superior izquierdo y considerando nimeros aleatorios de dos dfgitos*, pues la pobla- cidn es de tamafio 100, tenemos los siguientes nimeros aleatorios: 20, 34, 56, 24, 75, 83 que se corresponden con los seis estudiantes de la muestra seleccionada, cuyas edades son: 19, 22, 19, 20, 20, 20 Fsta situacién aparece en el Grafico 1.1. . . Muestra aleatoria Valores observados Pobiasion d6 000 erhudiaites ide tamatio 6 de las variables aleatorias 3 WK yy oy Xe Xap ons X; gi dee O& % Soy ° on Bepe :squema de seleccidn de la muestra y valores observados de las variables aleatorias. GRrAFICO 1.1. 2 Si nos aparece el 00 entenderemos que corresponde al alumno 100. 28 CASAS-SANCHEZ, J. M. Como en este ejemplo estamos interesados en la edad del estudiante, consi- deramos la variable aleatoria X: edad del estudiante seleccionado Andlogamente se podria hacer para las variables aleatorias estatura, peso, etcétera. La distribucién de probabilidades de la variable aleatoria X, edad del estu- diante, viene dada en la Tabla 1.3, en donde se dan los diferentes valores de la variable X y sus probabilidades. TaBLa 1.3. Distribucién de probabilidades de la variable aleatoria X, edad del estudian- te, correspondiente a la poblacién de 100 estudiantes. Valores de la variable aleatoria X Probabilidades P(X =x) 19 0,46 20 041 21 O11 2 0,02 Si seleccionamos una muestra con reemplazamiento, de seis estudiantes de la poblacién, para observar la edad de cada uno, entonces definiremos seis variables aleatori X,: edad del primer estudiante seleccionado, X,,: edad del segundo estudiante seleccionado. X: edad del sexto estudiante seleccionado. Cada variable aleatoria tendra una distribucién de probabilidad asociada. Asf pues, la distribucién de la variable aleatoria X, serd exactamente la misma que la distribucién de la variable aleatoria X dada en la Tabla 1.4, ya que ambas variables aleatorias se refieren a la edad de un estudiante seleccionado aleatoriamente, es decir, la distribucién de probabilidades de la variable aleato- ria X,, ésta dada en la Tabla 1.4, en donde aparecen los diferentes valores de la variable aleatoria X, y sus probabilidades. fo * MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 29 TABLA 1.4. Distribucién de probabilidades de la variable aleatoria X ,, edad del primer estudiante seleccionado. Valores de la variable aleatoria X, lades P(X,=x,) 19 0,46 20 Ot 2 O11 22 0,02 Pero como el muestreo se ha realizado con reemplazamiento, se puede ver que la variable aleatoria X, tiene la misma distribucion de probabilidades que X o que X, y que X; y Xz son independientes, Andlogamente, las variables aleatorias X, X4, X4 y Xq tienen la misma distribucién que X, y en conse- cuencia la sucesién de variables aleatorias X},, X, .. X.g son independientes idénticamente distribuidas’, Definicién 1.1, Muestra aleatoria simple. Sea X la variable aleatoria correspondiente a una poblacién con fun- cién de distribucién F(x). Si las variables aleatorias X,, X;, .., X, son independientes y tienen la misma funcidn de distribucion, F(x), que la de la distribucién de la poblacién, entonces las variables aleatorias X,, X3, ... X, forman un conjunto de variables aleatorias independientes e idénticamente distribuidas que constituyen una muestra aleatoria sim- ple de tamaiio n de la poblacién F(x)*. Al ser las variables aleatorias X, X;, .., X, independientes, resulta que la funcion de distribucin conjunta ser igual al producto de las funciones de distribucién marginals, es decir: FU, 5 Xp I F(x) 1.4] Si la poblacién de partida es tipo discreto y la funcién de probabilidad de la poblacion es: p=PX=x) 1=1,2, > Observemos que si la muestra se selecciona sin reemplazamiento, la correspondiente sucesién de variables aleatorias no son independientes, aunque tengan la misma distribucién de probabili- dades, * Bn lo sucesivo y si no indicamos lo contrario las muestras que utilizaremos serdn aleatorias simples, aunque a veces por abreviar digamos simplemente muestra aleatoria 30. CASAS-SANCHEZ, J. M, entonces la funcién de probabilidad de la muestra sera: PUL, = yon X=) = TT P=) = TD 12] Si la muestra aleatoria simple procede de una poblacién de tipo continuo con funcién de densidad f(x), entonces la funcién de densidad de la muestra sera: Sy oy %) = fl Sox) (1.3) 1.3. PARAMETROS POBLACIONALES Y ESTADISTICOS MUESTRALES. En general diremos que los pardmetros poblacionales son las caracteristicas numéricas de la poblacidn. En conereto, un parsimetro es una caracterizacion numérica de la distribucién de la poblacién. El conocimiento del parémetro permite describir parcial o totalmente la funcién de probabilidad de la carac- teristica que estamos investigando. Ast por ejemplo, sila caracterfstica a inves- sabemos que sigue una distribucién exponencial de pardmetro a su fun- cién de densidad serd: ae“®™ x>0 re={ 0 x<0 pero esta funcién de densidad no estaré totalmente descrita hasta que no se dé el valor del pardmetro a, y entonces sera cuando podremos formular preguntas coneretas sobre esa distribucién, es decir, podremos calcular las diferentes pro- babilidades. Si la caracteristica a investigar sigue una distribucién normal, N(v., a), cuya Tuncidn de densidad es: 1a fy = e o\/2n observamos que aparecen dos pardmetros 4 y ¢, que no se han especificado, y para describir totalmente la funcién de densidad tendremos que dar valores a los dos pardmetros jy o, pues si damos valor a un solo pardmetro entonces diremos que esta descrita parcialmente. ae MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 31 En la mayorfa de los modelos probabilfsticos nos encontraremos pardme- tros cuyos valores tendremos que fijar para especificar completamente el mo- delo y poder calcular las probabilidades descadas*. De manera més concre- ta podemos decir que uno de los problemas centrales en estadistica se nos presenta cuando deseamos estudiar una poblacién con funcién de distribucién F(x, 8), donde la fo jc la funcion de distribucién es conocida pero depende de un pardmetro @ desconocido, ya que si @ fuese conocido tendriamos total- mente especificada la funcién de distribucién. Si el parametro @ no se conoce entonces se selecciona una muestra aleatoria simple (X,, .... X,) de tamaiio n de la poblacién, y se calcula para las observaciones de la muestra el valor de alguna funcion g(x,. .... x,), que representa o estima el pardmetro desconocido 0. El problema es determinar qué funcion sera la mejor para estimar el pard- metro 0, lo cual serd resuelto en el capitulo dedicado a la estimacién. A continuacién exponemos el concepto de estadistico que es fundamental para estimar los pardmetros poblacionales, pues los estimaremos mediante es- tadisticos definidos a partir de las observaciones de una muestra aleatoria. Definicién 1.2. Estadistico. Un estadistico es cualquier funcién real de las variables aleatorias que integran la muestra, es decir, es una funcién de las observaciones mues- trales, la cual no contiene ningin valor o parametro desconocido. Continuando con la poblacién de funcién de distribucién F(x, ), en donde 6 es un parémetro desconocido, y considerando una muestra aleatoria simple, (X,, .. X,), constituida por n variables aleatorias independientes ¢ idéntica- mente distribuidas, podemos definir algunos estadisticos 0 funciones de esas variables aleatorias, como por ejemplo: Xt +X, G(X oo X,) Xj +--+ X? n GLX, 4 Xy) _ (Xi = XP + + (X, — XP 9X, 7 xX) * En Ja Estadistica clasica un pardmetro se puede considerar como una constante fija cuyo valor se desconoce. 32 CASAS-SANCHEZ, J. M. los cuales se determinan totalmente a partir de las observaciones mues- trales. En general un estadistico T lo representaremos como*: T= GX, Xp) es decir, como una funcidn g de las observaciones muestrales, que a su vez sera también una variable aleatoria, pues para cada muestra el estadistico T tomard un valor diferente, asi pues para una muestra concreta (x, ..., x,) el estadistico tomard el valor: T = G(x, X,) y a medida que vamos tomando muestras diferentes se obtienen distintos valo- res del estadistico, resultando que efectivamente el estadistico T es también una variable aleatoria y por consiguiente tendra su correspondiente distribu- cién, a la que lamaremos distribucién muestral del estadistico, como veremos posteriormente. 7 ae Vemos pues que un pardmetro y un estadistico son conceptos muy diferen- tes, pues el pardmetro es una constante y cuando se conoce determina comple- tamente el modelo probabilistico, sin embargo el estadistico es una variable aleatoria cuyo valor dependerd de las observaciones muestrales. En diferentes ocasiones se han estudiado medidas numéricas correspon- dientes a conjuntos de datos, asf pues estudiamos, entre otras, la media y la desviaci6n tipica. Ahora vamos a distinguir entre medidas numéricas calcu- ladas con conjuntos de datos poblacionales y las calculadas con datos mues- trales. Asi pues, si Ia medida numérica se calcula para el conjunto de datos poblacionales Te Hamaremos valor del pardmetro poblacional y si se calcu- la para_el conjunto de datos muestrales, le llamaremos valor del estadistico muestral._ Seguiremos como norma general el utilizar letras maydisculas para indicar las variables alea- torias, para los estadisticos, estimadores y para representar una muestra aleatoria general, y utili- zaremos letras mintisculas para los valores concretos que puedan tomar las variables aleatorias, las estimaciones y la realizacién de una muestra o muestra concreta. | | | | | | MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 33 Definicién 1.3. Parametros media, varianza y proporcién poblacional. En una poblacién finita de tamafio N los pardmetros poblacionales media, varianza y proporcién poblacional vienen dados por’: Ln wey DM (14) Le Pay a we [13] X _niimero de éxitos en N pruebas PrN ntimero de prucbas [1.6] Definicién 1.4. Estadistico media, varianza y proporcién muestral. Para una muestra aleatoria simple de tamaho n, (X,, ..., X,) los es- tadisticos media, varianza y proporcién muestral se definen como: yx, 7 1 x (xX, - XP [1.8] X _ntimero de éxitos en m pruebas =o eeeerees U9] n ntimero de pruebas El estadistico varianza muestral, S?, se puede formular también mediante las siguientes expresiones algebraicas: nya Gx) i y xe- a) ce 1 v= 24 (§ 1a) ? Si la poblacién es infinita utilizaremos 1a misma notacién para designar estos pardmetros poblacionales, pero estos no pueden ser calculados a partir de estas sumas finitas, sino que tendre- ‘mos que recurrir al célculo de valores esperados de variables aleatorias de tipo continuo, 34 CASAS-SANCHEZ, J. M. En efecto para ver la equivalencia de la expresién [1.8] con la [1.10], consi- deramos el numerador de la [1.8] y tendremos: ¥ (x, - XP = Y (KP 2x, + X) yoxp-2F Yt SP 4 mH ist yy, X? - 2X(nX) + nX? fost = 3 xp-nk? = x7 - Si en lugar de considerar las n variables aleatorias, independientes e idénti- camente distribuidas (X,, ... X,), que constituyen la muestra aleatoria simple, consideramos una muestra concreta (x1, ., X4) entonces los valores de estos estadisticos muestrales son: 1* nly x; [1.12] 1 pein 1.13] x pr [1.14] Lucgo vemos que efectivamente el estadistico es una funcién de las obser- vaciones muestrales, y en estos casos asigna a cada muestra observada Ja me- dia de los valores, la varianza o la proporcién, respectivamente’. 1.4, FUNCION DE DISTRIBUCION EMPIRICA Sabemos que la funcién de distribucién de una variable aleatoria X estaba definida como: F(x) = P(X 0, se verifica: Mim PE sup | Fes) ~ F(x) | 26] = Lo cual significa que si la muestra es suficientemente grande y se verifica el teorema, entonces la muestra puede proporcionar informacién casi exacta sobre la distribucién de la poblacisn. MUESTREO Y DISTRIBUCIONES EN EL MUESTREO. 37 15. DISTRIBUCION MUESTRAL DE ESTAD{STICOS Como veremos posteriormente los estadfsticos muestrales (proporcién, me- dia y varianza_mues' se pueden utilizar para cstimar_los correspondientes pardmetros poblacionales. Asi pues, para estudiar propiedades de estos es- tadisticos, como estimadores de los parametros poblacionales, seré necesatio estudiar caracterfsticas de la distribucion de probabilidad de estos estadis- dad, asf pues los estadisticos muestrales: proporcién, media, varianza, etc., ten- dran-su correspondiente disiribucién de probabilidad. Si tales distribuciones de probabilidad se pueden obtener, entonces serd posible establecer afirmacio- nes probabilisticas sobre esos estadisticos. La distribucién exacta de los estadisticos dependera del tamaito muestral n. Asi, en muchas situaciones, encontrar la distribucién de probabilidad exacta del estadistico media muestral X, incluso para n pequeiio y variables aleatorias discretas, sera bastante pesado, pero sin grandes dificultades teéricas. En mu- chos casos esto serd relativamente sencillo, mientras que en otros lo mejor que se puede hacer es tomar una muestra grande y utilizar la distribucién limite apropiada. El término distribucién muestral se utiliza para poner de manifiesto que hay diferencia entre la distribucidn de la poblacién de la cual se ha extraido la muestra y la distribucién de alguna funcién de esa muestra. Conceptualmente, la distribucién muestral de un estadistico puede ser ob- tenida tomando todas las posibles muestras de un tamaio fijado n, calculando el valor del estadistico para cada muestra y construyendo la distribucién de estos valores. En esta secci6n estamos interesados en determinar las distribuciones de probabilidad de algunos estadisticos muestrales, en concreto, para la media X y varianza S? muestral, que serén de bastante utilidad en diferentes aplicacio- nes estadisticas. Asi, por ejemplo, si el estadistico es la media muestral_X, la distribucién muestral de X puede construirse tomando todas las muestras posibles de ta- mafio n, cal jo el valor det estadistico-X para cada muestra, que’ To nota- remos por x, y formando la distribucién de los valores x. 38 CASAS-SANCHEZ, J. M. Ejemplo 1.3 Supongamos una poblacién formada por las cinco tiendas existentes en un municipio, La caracterfstica a investigar serd el ntimero de horas que diariamente permanecen abiertas esas tiendas y que representaremos por la variable aleatoria X, estando los valores poblacionales expresadas en la Ta- bla 1.6. TABLA 1.6. Valores poblacionales de la variable aleatoria X. eee Tiendas Valores de X es tr, x, =12 T, x2 = 10 T, x3= 14 i x= 9 Ts x= 10 Los valores de los pardmetros media y varianza poblacional serdn: x Xx a 1 sZt 10+ 14+9+4 10) = 1 ¢ 1S x- =N i7 BY = 7102 - 11)? + (10 — 11)? + (14 = 11)? + @ — 11? + (10 ~ upy="8 Las diez posibles muestras aleatorias simples de tamafio 3 que se pueden tomar y el valor del estadistico media muestral aparecen en la Tabla 1.7. La distribucién de probabilidad del estadfstico media muestral X viene dada por la Tabla 1.8. MUESTREO Y DISTRIBUCIONES EN EL MUESTREO. 39 TABLA 1.7, Posibles muestras de tamafio 3 y valores del estadéstico media muestral. Observaciones muestrales Estadistico media muestral X Muestras = (1, T, Ts) (12, 10, 14) 12,0 (1,7, 7.) (12, 10, 9) 103° (7, 7,7) (12, 10, 10) 106 (T, T; T,) (12, 14, 9) 116" (T, Ts Ts) (12, 14, 10) 12,0- (7, Ty Ts) (12,9, 10) 10,3 (1, T, T,) (10, 14, 9) 11,0. (1, Ts Ts) (10, 14, 10) 113 (1, T; Ts) (10, 9, 10) 96 (15 T, Ts) (14, 9, 10) 110+ TaBLA 1.8. Distribuciones muestral del estadtstico media muestral X. Valores del estadistico media muestral X el 96 0,1 10,3 0,2 10,6 0,1 11,0 02 113 01 116 01 12,0. 0.2 La representaci6n grafica de la distribucién muestral del estadistico media muestral X, se tiene en el Gréfico 1.3. Veamos ahora otro ejemplo mas completo para muestras de tamafio dos en el cual obtendremos las distribuciones de probabilidad de los estadfsticos me- dia, X, y varianza, S?, muestral, También obtendremos las medias y varianzas de ambos estadisticos. 40 CASAS-SANCHEZ, J. M. PO) GrAFIco 1.3. Distribucién muestral del estadéstico media muestral X. Ejemplo 1.4 Sea una empresa dedicada al transporte y distribucién de mercancias, la cual tiene una plantilla de 50 trabajadores, Durante el iiltimo afo se ha obser- vado que 25 trabajadores han faltado un solo dia al trabajo, 20 trabajadores han faltado dos dfas y 5 trabajadores han faltado tres dias. Si se toma una muestra aleatoria, con reemplazamiento, de tamaio dos (X,, X,) del total de la plantilla, obtener: 1. La distribucién de probabilidad del ntimero de dias que ha faltado al trabajo un empleado, su media y su varianza. Distribucién de probabilidad del estadistico media muestral X. La distribucién de probabilidad del estadfstico varianza muestral, S$. La media y varianza del estadistico media muestral. La probabilidad de que el estadistico media muestral, X, sea menor yaeN La media y varianza del estadistico varianza muestral. La probabilidad de que el estadistico varianza muestral, S?, sea menor o igual que 0,5. ae Solucién: 1. Empezaremos obteniendo la distribucién de probabilidad de la varia~ ble aleatoria: X: ntimero de dfas que ha faltado al trabajo un empleado elegido aleato- riamente de la plantilla total. MUESTREO Y DISTRIBUCIONES EN EL MUESTREO. 41 La variable aleatoria X, puede tomar los valores 1, 2 6 3, y como la selec- cién se hace de manera aleatoria, todos los trabajadores tendraén la misma probabilidad de ser seleccionados, luego la distribucién de probabilidad de la variable aleatoria X viene dada en la Tabla 1.9, y serd la distribucién de proba- bilidad de la poblacién. TABLA 1.9. Distribucién de probabilidad de la variable aleatoria X. Valores de In variable aleatoria Probabilidades P(X =x) = P(x) 1 (X = 1) = PL a2, 0,5 POX = 1) = Pl) = 30 = 0: 2 x =2)= PQ) = 22 = 04 P(X = 2)= PQ) = 5 = 0 3 (X = 3) = P(3) wat ib 3 POX = 3) = PG) = 5 = 0 A partir de esta distribucién de probabilidad tenemos que la media seré: w= ELX] =¥. x, P(X =x) T 1(0,5) + 2(0,4) + 3(0,1) = 16 y la varianza o? = Var (X) = ELK ~ s)*] = 5 (x ~ W)?- PX = x) = (1 = 1,6°(0,5) + (2 — 1,6)(0,4) + (3 — 1,6)20,1) = 044 Observamos que si sumamos el ntimero total de faltas al trabajo que se han producido en la poblacién de los 50 empleados y dividimos por los 50 emplea- dos tenemos la media. 251+ 20-2+5:3_ 80_ 50 500” Andlogamente sucede con la varianza. 42 CASAS-SANCHEZ, J. M Por esto, en lo sucesivo # y o? serdn consideradas como la media y la varianza poblacional, respectivamente. 2. Seleccionamos una muestra aleatoria, con reemplazamiento, de tamafio dos (X,, X2), siendo: X;: variable aleatoria correspondiente al mimero de dfas que falta el pri- mer trabajador seleccionado. X,: variable aleatoria correspondiente al nimero de dfas que falta el se- gundo trabajador seleccionado. Ambas variables aleatorias X, y X; tienen la misma distribucién de proba- bilidad que la de la variable aleatoria X, correspondiente a la poblacién. Pero como nos interesa obtener la distribucién de probabilidad de es- tad{stico media muestré 1 3 Xi + X2) ésta estard relacionada con la distribucién de probabilidad de las variables aleatorias X, y X>- Para tener las distribuciones de probabilidad de los estadisticos media Xy varianza S? muestral necesitaremos tener los diferentes valores que puede to- mar y sus probabilidades, Para ello empezaremos obteniendo las posibles muesiras, con reemplazamiento, de tamaito dos, sus probabilidades y los valo- res correspondientes de los estadisticos media y varianza muestral, que vienen dados en la Tabla 1.10. TABLA 1.10. Muestras de tamafto dos y valores obtenidos para las distribuciones de probabilidad de X y S* Muestras de _ tamaiio dos £ ‘Ss? P(X,=x,, X,=X2) xD. a) 10 00 0.25 (1,2) 45 05 0,20 (1,3) 2.0 20 0,05 (2,1) 15 0s 0,20 (2,2) 2.0 0.0 0,16 (2,3) 25 0S 0,04 GB, 1) 2.0 20 0,05 (3, 2) 25 0,5 0,04 3, 3) 3,0 00 0,01 MUESTREO Y DISTRIBUCIONES EN EL MUESTREO. 43 Para obtener las probabilidades correspondientes a los diferentes valores muestrales, tendremos en cuenta que las variables X, y X, son independientes, pues el muestreo se ha realizado con reemplazamiento. Luego P(X = 1) = P(X, =1, X, = 1) = P(X, = 1)-P(X, = 1) = (0,5)(0,5) = 0,25 P(X = 1,5) = PI(X, = 1, X. = 2)6 (X, = 2, X= 1) = P(X, = 1, X,=2)+ P(X, =2,¥,=1) = P(X, = 1) P(X, = 2) + P(X, = 2) P(X; = 1) = (0,5(0,4) + (0,4)(0.5) = 0,20 + 0,20 = 0,40 Andlogamente obtendremos las restantes probabilidades. La informacién que nos proporciona la Tabla 1.10 la utilizaremos para obtener la distribucion de probabilidad del estadistico media muestral X, asi pues: P(X = 1) = 0,25 P(X = 1,5) = 0,20 + 0,20 = 0,40 P(X = 2) = 0,05 + 0,16 + 0,05 = 0,26 P(X = 2,5) = 0,04 + 0,04 = 0,08 P(X = 3) = 0,01 Luego la distribucién de probabilidad del estadistico media muestral X la tenemos en la Tabla 1.11. TABLA L11. Distribucin de probabilidad del estadistico media muestral X. 1 0,25 AL: 0,40 2 0,26 25 0,08 3 001 44 CASAS-SANCHEZ, J. M. 3. Andlogamente podemos obtener la distribucién de probabilidad del estadistico varianza muestral S?. Los diferentes valores del estadistico S? apa- recen en la tercera columna de la Tabla 1.10, asi pues, para la primera muestra tenemos: Para la segunda muestra sera: ! fu — 1,5) + (2 — 1,5)7] = 0,5 y de manera andloga tendriamos los restantes valores. Las probabilidades correspondientes a los diferentes valores del estadistico S?, las obtenemos a partir de la Tabla 1.10, asf pues: P(S? = 0,0) = 0,25 + 0,16 + 0,01 = 0,42 P(S? = 0,5) = 0,20 + 0.20 + 0,04 + 0,04 = 0,48 P(S? = 2,0) = 0,05 + 0,05 = 0,10 Y la distribucién de probabilidad del estadistico varianza muestra S? viene dada en la Tabla 1.12. TABLA 1.12. Distribucion de probabilidad del estadistico varianza muestral S?. Valores del estadistico S* Probabilidades 2 P(S*=87)=P(s’) 00 0,42 05 0,48 20 0,10 4. Para el cdlculo de la media y varianza del estadfstico media muestral tendremos en cuenta su distribucién de probabilidad dada en la Tabla 1.11. MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 4S Utilizando la definici6n de valor esperado de una variable aleatoria de tipo discreto tenemos: = ELK] = %- PX =X) = 1(0,25) + 1,5(0,40) + 2(0.26) + 2,5(0,08) + 3(0,01) = 1,60 62 = Var (X) = E[(X ~ E(X))7] = Y (& = 1,60)? P(X = X) = (1 — 1,60)?(0,25) + --- + (3 — 1,60)7(0,01) = 0,09 + + + 0,019 = 0,22 5. Teniendo en cuenta la distribucién de probabilidad del estadistico me- dia muestral X, Tabla 1.11, se tiene: P(X < 2) = P(X = 1) + P(X = 1,5) ),25 + 0,40 = 0,65 6. Teniendo en cuenta la distribucién de probabilidad del estadistico va- rianza muestral, S?, dada en la Tabla 1.12, y procediendo de manera andloga a como lo hemos hecho para el estadistico media muestral, tendremos Hs: = E[S?] = Ys} - P(S? = 5?) 0,0(0,42) + 0,5(0,48) + 2,0(0,10) 0,44 o2, = Var (S?) = E[(S? ~ E[S?])7] = ¥ (s? — 0,44) P(S? i = (0.0 — 0,44)7(0,42) + (0,5 — 0,44)7(0,48) + (2,0 — 0,44)?(0,10) = 0,0813 + 0,0017 + 0.2434 = 0,32 46 CASAS-SANCHEZ, J. M. 7. Basdndonos en la distribucién de probabilidad del estadistico varianza muestral S*, Tabla 1.12, se tiene: P(S? < 0,5) = P(S? = 0.0) + P(S? = 0,5) = 0,42 + 0,48 = 0,90 Con este ejemplo, se pone de manifiesto que incluso para muestras de ta mato pequeio y estadisticos con pocos valores posibles se hace pesado el obtener la distribucién de probabilidad de los estadisticos muestrales. Para evitar esto en los siguientes apartados daremos algunos resultados que simpli- fican estos problemas. 1.6. MEDIA Y VARIANZA DE ALGUNOS ESTADISTICOS En el Ejemplo 1.4 hemos obtenido: — La media, p., y varianza, «?, poblacional. — Los estadisticos media X y varianza S? muestral. — La media y varianza de los estadisticos media muestral, X, y varianza muestral, S?, para una muestra de tamaiio n = 2. Estos resultados se recogen en la Tabla 1.13, en donde se observa: 1° Que E[X]=E[X], es decir, que la media del estadistico media muestral es igual a la media de la poblacién. 2° Que E[S*]=Var (X), es decir, que la media del estadfstico varianza muestral es igual a la varianza de la poblacién. Var (X) 7 3° Que Var (X)= es decir, que la varianza del estadistico media muestral es igual a la varianza de la poblacién dividida por el tamano de la muestra, n. MUESTREO Y DISTRIBUCIONES EN EL MUESTREO. 47 TaBLa 1.13. Media y varianza poblacional y de los estadisticos media y varianza mues- tral del ejemplo 1.4, para n= 2 ‘i Estadistico Estadistico Poblacional media muestral varianza muest x x s Media w= E[X] = 16 by = ELX] = 16 Hg: = E[S?] = 0,44 Varianza Var (X)=0,44 0 = Var (X) = 0, a2, = Var (S?) = 0,32 Estos resultados no sélo se verifican para este ejemplo sino que se verifican en general, como veremos en los siguientes teoremas. Teorema 1.1 Si (X,, ..., X,) es una muestra aleatoria simple de tamafio n proceden- te de una poblacién, descrita por la variable aleatoria X, con media E[X] = y varianza Var (X) = a’, entonces la esperanza de la _me- dia muestral es igual a la media de la poblacién, j, y la varianza de la media muestral cs igual a la varianza poblacional, «”, dividida por n, es decir, 2 ELXJ=n y Var (%) = = [1.16] Demostracion: Teniendo en cuenta la definicién de muestra aleatoria simple, resulta que las variables aleatorias X,, ..., X,, son independientes, todas tienen la misma distribucién de probabilidad que la poblacién X y en consecuencias todas tienen la misma media y la misma varianzat que la poblacién X, es decir: BUX] =~ = ELX,] = LX] =n Var (X,) = --- = Var (X,) = Var (X) = Luego si tenemos en cuenta las propiedades de los valores esperados, re- sulta que la media o esperanza matemiatica del estadistico media muestral sera: 48 CASAS-SANCHEZ, J. M. Xp te tX, n =! ex, + +t X] n E[X] = @| E[X] + -~ + ELX,]) 1 nu = (EE oe A) ES iy n n Andlogamente para la varianza, y dado que las variables aleatorias X,, «» X,, son independientes, resulta: - Xt +X, Var (X) = Var Ga") Var (X, +--+ + X,) (Var (X4) + + Var (X,)) 2 noo (4. +0)= 55 ron Luego vemos que se puede obtener Ja media y la varianza del estadfstico media-muestral_X_sin necesidad de conocer la distribucién probabilidad del estadistico X, y sin importar la distribucién de probabilidad de la poblacién siempre y cuando la varianza tenga un valor finito, A la correspondiente desviac estdndar de Ja media y viene da¢ cién tipica del estadistico X se le llama error error estandar de la media muestral X (1.17) vn Observando los resultados de la expresién [1.16] se pone de manifiesto que el valor central del estadfstico media muestral es la media poblacional 1, y como la dispersi6n del estadfstico media muestral X en torno a su media 1 es: < = a Var (X) = E[(X ~ w?] =—— MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 49° resulta que cuanto mayor sea el tamaiio muestral n menor sera la Var(X), es decir, menor serd la dispersién de X en torno a la media poblacional y, y el valor observado del estadistico X estard mas préximo a j1, lo cual nos permite decir que el estadistico media muestral X puede ser considerado como un buen estimador de la media poblacional yt. En el Grafico 1.4 se indica la distribucién muestral del estadistico media muestral, X, para muestras de tamaitio n = 25 y n= 110 procedentes de una poblacién normal N(100, 6), en donde se observa que cada distribucién mues- tral esta centrada sobre la media poblacional, pero cuando el tamaiio muestral aumenta la distribucién muestral del estadistico media muestral esta mas con- centrada en torno a la media de la poblacién. En consecuencia el error estan- dar de la media muestral es una funcidn decreciente del tamafio n de la mues- tra, y la probabilidad de que la media muestral difiera de la media poblacional en una cantidad fija, disminuye cuando el tamafio de la muestra crece. Luego, si el tamafto de la muestra aumenta, la precisién de la media mues- tral para estimar la media de la poblacién también aumenta. Por ejemplo, si se toma una muestra aleatoria de tamafio n= 16, entonces: o error esténdar de la media muestral = —= Jie BIS 85 9095 = 100105105 GRAFICO 1.4. Representacién gréfica de las funciones de densidad del estadistico media muestral para muestras de tamaio n= 25 y n= 110, de una poblacién N(100, 6). y la media muestral X tiene una precisién ./16 = 4 veces mayor para estimar la media poblacional que la que tendrfa si se hubiera tomado una muestra con una sola observacién, pero el aumento de la muestra tiene un Ifmite, pues llega — 50 CASAS-SANCHEZ, J. M. un momento que aunque el tamafo de la muestra siga aumentando la preci- sién practicamente no aumenta. En efecto, supongamos una poblacién con a = 12 y calculamos la desviacidn esténdar del estadistico X para diferentes valores de n, obteniéndose la Tabla 1.14. TABLA 1.14. Diferentes valores de la desviacién estandar de X cuando ¢ = 12 para n= 5,10, 20, 30, .. Valores de n 5 10 2 30 40 50 60 70 80 90 100 Desviacién estindar 5,38 3,79 2,68 2,19 1,89 1,69 1,55 1,43 1,34 1,26 1,20 vn Observando los valores de la Tabla 1.14 y su correspondiente representa~ cion grafica, Gréfico 1.5, se observa que la desviacin esténdar de X dismi- nuye sustancialmente a medida que n aumenta, pero cuando n pasa de 40 esta disminucién se reduce hasta tal extremo que cuando n sigue creciendo y toma valores superiores a 80 6 90 la desviacion estandar de X practicmente no disminuye. En consecuencia, podemos decir que si utilizamos el estadistico media muestral X¥ para tener conocimiento o hacer inferencias sobre el paré- metro media poblacional 4 no es conveniente tomar muestras de tamafio demasiado grande pues el aumento del coste no compensa con Ia escasa disminucién de la precisién. 12 zz Jn 6 510 20 30 40 SO 60 70 80 90 100 GRAFICO 1.5. Representacién de la evolucién de la desviacién estandar del estadistico X en funcién de n. MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 51 El resultado obtenido en el Teorema 1.1 es vélido cuando el muestreo se hace de una poblacién infinita, 0 bien de una poblacién finita, pero con reemplazamiento, pues las variables aleatorias X,,.., X,. tienen que ser inde- pendientes, Si el muestreo se hace sin reemplazamiento en una poblacion finita de tamaito N, las variables aleatorias Xj, .... X, no son independientes y entonces tendriamos que: - = _@ N-n BUX] =e, Var (X)=— N-1 Al término se le suele llamar factor de correccién de poblacién finita. Teorema 1.2 Si (X44 X,) es una muestra aleatoria simple de tamaito n, proce- dente de una poblacién, descrita por la variable aleatoria X, con va- rianza, Var(X) = 0, entonces la esperanza de la varianza muestral S? es igual a la varianza poblacional 6 y la varianza de la varianza mues- tral es funcin del momento central de orden cuatro, es decir" z= E[S?]=0? y Var(S?)="*+——" of [1.18] n nn—1) SRO Veo to Demostracién: Sabemos que el estadistico varianza muestral viene dado por: 1 Sa o ,- FP is pero otra forma de expresarla es la siguiente: ° Si la poblacién de partida es NY 0) entonces como jeg = 364, tenemos: 30% Var (s?)= + 1 (GBno* — 30% + 30* ~ not) = nn) nin 1) a 52. CASAS-SANCHEZ, J. M, 1 te _ a _ = yx x YX ~ et+ ae XP a 5 1 n-1, ¥ 1% - - - wP 1 2 — - | x (0X; — W? +X = w? ~ 2X, ~ w(K — )) = [ Sore mat wt 20k 9 3 ox, 0] a (X ~ n? [1.19] Tomando valores esperados resulta: ect =e] > So —?- ? n-1 4, n= ; my Slate we CB — I a n MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 53 Luego vemos que la esperanza del estadistico varianza muestral es igual a la varianza poblacional. Resultado que también serd de bastante utilidad cuando estudiemos la estimacién. La segunda parte no la demostraremos, pues aunque no presenta dificul- tad los desarrollos son algo pesados". 1.7, DISTRIBUCIONES DE ESTADISTICOS MUESTRALES DE POBLACIONES NORMALES En este apartado estudiaremos las distribuciones de algunos estadisticos para muestras procedeiites de poblaciones normales, cuyos.pardmettos pue- den, 0 no, ser conocidos. Sabemos que muchos fenémenos que se observan en Ia realidad tienen distribuciones de frecuencias relativas que al representarlas tienen una forma parecida a la distribucién normal, por ello podemos suponer que la mayorfa de las poblaciones con las que nos encontraremos serén normales, y las va- riables aleatorias observadas en una muestra aleatoria (X,, .... X,) seran inde- pendientes y tienen la misma distribucién 1.7.1. DISTRIBUCION DE LA MEDIA MUESTRAL CUANDO SE CONOCE LA VARIANZA POBLACIONAL Al estudiar las propiedades que se deducian de la distribucién normal, la primera que considerébamos era la referente a la distribucién de una com- binacion lineal de variables aleatorias normales. Asi pues, sabemos que si X,, .. X, on variables aleatorias independientes distribuidas segiin una N(uy o), para i= 1, uy MY Si dj, un dy Son ntimeros reales, entonces la variable aleatoria Y=a,X,+--+4,X, sigue una distribucién N(ayty + + dytty, satay + --- + aa?) Este resultado nos serd de bastante utilidad para obtener Ia distribucién de la media muestral, como veremos en el Teorema 1.3. "' Pueden verse en ROHATGI (1976), pag. 305, 34 CASAS-SANCHEZ, J. M. Teorema 1.3 Sea (X,, ... X,) una muestra aleatoria simple de tamaito n, proce- dente de una poblacién N(x, a). Entonces la distribucién del estadistico media muestral tendré una distribucién normal, es decir: £ ) [1.20] 2 f Jn y como consecuencia el estadistico x _ z--—* No.1) alin Demostracién'*: Sabemos que la funcién generatriz de momentos de una variable aleatoria X, N(q, 6) es: Los ts Bat gx(t) = Ele*] = y como las variables X, son independientes y todas tienen la misma distribu- cién N(jt, a), entonces la funcién generatriz de momentos del estadistico me- dia muestral sera: gst) = Ele*™) = Ble (g 2) x, oe _ gfe tet Bs fo ale "2 Ver CASAS y SANTOS (1995). Introduccidn a la Estadtstica para Economia y Administracién de Empresa, cap. 12. La demostraci6n es una consecuencia inmediata de la propiedad T de la 1 -yb=0, n distribuci6n normal, bastard hacer a, MUESTREO Y DISTRIBUCIONES EN EL MUESTREO. 55 que es la funcién generatriz de momentos de una variable aleatoria distribui- o da segtin una N(14 <) Va Luego, teniendo en cuenta la unicidad de la funcién generatriz de momen- to, resulta qu ¥ N(u “) “Jn En muchas situaciones la poblacién de partida de la cual se extrac la muestra no es normal. En tales casos la distribucién muestral del estadistico media muestral X, seguird siendo normal con media jt y desviacién tipica o es decir, ¥ n(n =) (1.21) siempre que el tamafio muestral sea grande, n > 30. Este resultado es una consecuencia inmediata del Teorema Central del Limite". En el Grafico 1.6, de la pagina siguiente, podemos observar la evolucién de la forma de la distribuci6n muestral del estadistico media muestral X cuando el tamaiio de la muestra aumenta. Observamos que cuando la poblacién de partida no es normal, la forma de la distribucién muestral no es exactamente normal, pero cuando el tama- fio muestral n > 30, entonces es aproximadamente normal, siendo la aproxi- macidn tanto mejor cuanto mayor sea n. También observamos que la disper- sidn de la distribucién muestral de X disminuye cuando el tamafio muestral, n, aumenta. De la aproximacién dada por la expresion [1.21], tipificando se tiene: X-u in ol Zz + N(O, 1) [1.22] © En el Teorema Central del Limite no importa la distribucién que siguen las variables aleato- rias, pero si era necesario que las variables X,, ... X, fuesen idénticamente distribuidas, con media y varianza finitas 56 CASAS-SANCHEZ, J. M. 1. Distribucién poblacional (no ¢s nor- mal) ; 2. Distribucién muestral de X para n=5 3. Distribucién muestral de X para : n=15 ! 4. Distribucién muestral de X para n=30 Aproximadamente normal 5. Distribucién muestral de ¥ para =70 Aproximadamente normal GRAFICO 1.6. Distribucidn poblacional y evolucién de la distribucion muestral de X. Cuando la poblacién de la que se ha extrafdo la muestra es normal la distribucién dada por la expresin [1.22] es buena aunque el tamafio de la muestra sea pequeio. Pero si la poblacién de partida no es normal enton- ces la aproximacién [1.22] seré buena para valores de n grandes, es de- cir, n > 30. También es interesante el conocer la distribucién muestral de la suma de los cuadrados de variables aleatorias N(0, 1) e independientes, como se indica en el siguiente teorema MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 57 Teorema 1.4 Sea (X,, ... X,) una muestra aleatoria simple de tamaio n, proce- dente de una poblacioin N(u, 2). Entonces las variables aleatorias xX,- o son N(0, 1) e independientes y tales que A eee b= 3 (=) i= it « sigue una distribucién 7? con n grados de libertad. La demostraci6n no presenta dificultad, pues bastard tener en cuenta la definicién y propiedades dadas de la distribucién 7 Ejemplo 1.5 El mimero de libros encuadernados diariamente por una maquina auto- matica sigue una variable aleatoria cuya distribucién no se conoce, con una desviacién tipica de 16 libros por dia. Si se selecciona una muestra aleatoria de 49 dias, determinar la probabilidad de que el ntimero medio de libros encuadernados durante esos dias (la media muestral) se encuentre a lo sumo a3 libros de la verdadera media poblacional. 44, Solucion: z Aunque la distribucién de la poblacién no es conocida pero como n = 49, mayor que 30, entonces la distribucidn de la media muestral se aproximara a una GC =). es decir, Jn - 6 16 Fon n) = ™( m5) ( Jn 49, O bien, la distribucién de la variable aleatoria Xp X-n Z=-—> = af/n 16/./49 + NO, 1) 58 CASAS-SANCHEZ, J. M. La probabilidad que nos piden, utilizando la Tabla A.7 del anexo A de tablas, sera: PUX — pl <3) = P(—3 <(X — w) <3) 3 = P(-131 30 la distribucién del estadfstico: X-4 Si/n sigue siendo aproximadamente una N(0, 1). Si el tamaiio de la muestra es pequefio, n < 30, los valores de la varianza muestral S? varfan considerablemente de muestra en muestra, pues S? dismi- nuye a medida que n aumenta, y la distribucin del estadistico X-u s/n ya no seré una distribucién normal. Este problema fue resuelto en 1908 por el estadistico Gosset" a partir del siguiente teorema. “ El estadistico W. S, Gosset trabajaba en una empresa cervecera Irlandesa, la cual prohibja que sus empleados difundieran los resultados de sus investigaciones, y para cludir esta prohibicién €l publicaba sus trabajos bajo el seudénimo de Student, y de aqui el nombre de Ia distribucién t-Student. 60. CASAS-SANCHEZ, J. M- Teorema 1.5 Si (X,, ... X,) es una muestra aleatoria simple, de tamafio n, proce- dente de una poblacién N(j1, ) con « desconocida, entonces el estadistico | a T # -, :-Student con n ~ 1 grados de libertad Si/n Demostracion: Sabemos que = @ on(u%) s/n y posteriormente veremos que el estadistico: (n= 1)s? —a 2 a1 y que los estadisticos X y S? son independientes. Tipificando la variable X se tiene: X-p = N(O, 1) al/n pero incluye el pardmetro desconocido que es conveniente climinar. Recordemos que la variable aleatoria t-Student estaba definida'’ como un cociente entre una variable aleatoria N(0, 1) y la raiz cuadrada de una variable aleatoria 7? dividida por sus grados de libertad, ambas independientes. Luego podemos escribir: ' Sean U y V dos variables aleatorias independientes distribuidas segdn una N(O, 1) y una 72 respectivamenie, entonces la variable aleatoria 1, (Student con n grados de libertad) MUESTREO Y DISTRIBUCIONES EN EL MUESTREO. 61 a*-#,, S/n” pues los estadisticos ¥ y S? son independientes como veremos en el Teorema 1.6, y en consecuencia también Io son las variables: X-p (n— 1S? aa) 1.7.3. DISTRIBUCION DE LA VARIANZA MUESTRAL Asi como al estudiar la distribucién del estadistico media muestral decia- mos que era de gran utilidad para realizar inferencias, aqui no podemos decir lo mismo del estadistico varianza muestral, pues, la distribucién muestral del estadistico S? tiene pocas aplicaciones prdcticas en estadistica, sin embargo, si Lj las tiene el estadistico “"” —™ y por ello sera el estadfstico del que nos ocupa- in — 1)S? remos en este apartado. Daremos la distribucidn del estadistico as me- 6 diante el siguiente teorema de Fisher. Teorema 1.6. Teorema de Fisher Sea (X,, ..., X,) una muestra aleatoria simple de tamaito n, procedente de una poblacién N(u, a). Entonces se verifica que: 1. Los estadfsticos X y S? son independientes. 2. Elestadistico S (x, - XP (n— 1S? _ x! el ge ght [1.23] sigue una distribucién 72 con n — 1 grados de libertad. 3. El estadistico - X-p Si/n Sigue una distribucién ¢-Student con n — 1 grados de libertad. Shy 62 CASAS-SANCHEZ, J. M. Demostracion: 1. Para demostrar que los estadisticos media X y varianza muestral S?, son independientes, demostraremos que X es independiente de X,— X para cada i, y procederemos directamente calculando la funcién generatriz de mo- mentos conjunta de X y X; — X, y tendremos' gltys ty) = BLUE He Ry = BpeteM Fy ° a(n <) Va respectivamente, con lo cual hemos demostrado que: I. X y X,—X son independientes, y en consecuencia también son inde- pendientes ¥ y Y (X, — X) y por tanto X y S? son independientes"”. ® Como la muestra es aleatoria simple las observaciones son independientes, y tanto X; como ¥, X, son normales, luego bastard tener presente la funcidn generatriz de momentos de la distribu- cién normal, "" Recordemos que S? = Swe a1 MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 63 = o m. XesMw—=) y vn X,- Xes wa o in — 1)S? 2. Para demostrar que el estadistico ( as sigue una y2_,, partimos del estadistico varianza muestral gat z (x, - XP nota de donde podemos escribir: to ns? = 3 a P= Yt eX = 3 fx. - wp =F = w? 20K, — ae) + - WPT = Sw 20k 9 Fo mt ok = wh H im: (X= WP — AX — wn ~ p) + (X ~ p) I Ms (X, > WP = (X= yo? y de aqui se tiene: 3 (X,—w? =n 198? + mk — py? dividiendo ambos miembros por la varianza problacional, resulta: : Xx, — uw)? ag EO ans ae = 0? F F F 64 CASAS-SANCHEZ, J. M. o bien: ee Hs + C ty [1.24] 6 ain Teniendo en cuenta la definicion de la distribucién 72 y su propiedad re- productiva resulta que = /X,-n\? £(Cat)-2 A\ ¢ pues tenemos una suma de variables aleatorias N(0, 1) independientes y eleva- das al cuadrado, Xx ~ wy? ( *) ou ofjn pues se trata de una variable aleatoria N(0, 1) y clevada al cuadrado. Andlogamente: ajJn independientes, teniendo en cuenta la propiedad reproductiva de la distribu- cién 72, resulta que como: = /X,—p\? 5 (8) 2 mA entonces tendré que verificarse que'*: (a — 1S? oe (n= 1s? (XK ~ nV? Como admitimos que las variables aleatorias ~~ y (“>= ] son (n — 1)S? La funcidn de densidad de este estadistico { —™ sera la correspondien- o 2 n-1 1 te a una 72_, y por tanto a una [(—>— a3 (5 1 5} es decir: 3 )s lecir: y su media sera la de una (n — 1s? E| -|=(n-1 eq. a ) 4 ; (n=)? ™ Para mayor rigor podemos calcular la funcién generatriz de momentos conjunta de nk =)? ss (n= 1)? y= y legariamos a ver que la funcién generatriz de momentos de es la correspon- 2 @ diente a la variable aleatoria 72... MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 65 De aqui, tenemos: @—) ps4)= (0-0 ETS? -11 Andlogamente, la varianza de una (SS >) es: Var (3) = An — 1) 6 de donde deducimos: (n— 1p Var(S?) = 2(n — 1) 2ot Var(S?) = Luego vemos que las propiedades de la distribucién 7? se pueden utilizar para encontrar la varianza de la distribucién de la varianza muestral, siempre y cuando el modelo de la poblacién de partida sea normal. Veamos qué significado tiene el término grados de libertad. Para ello consi- deramos el estadfstico varianza muestra S*; 1 # d (x, xP 3 “1 el cual incluye la suma de cuadrados de las cantidades (X, — X),... (X%, - X) las cuales no son independientes de la informacién, pues la suma de todas ellas debe ser igual a cero ¥ (X%,- X= Y X,- 0 =0 mH a pues segtin la definicién de X 66 CASAS-SANCHEZ, J. M. Luego si conocemos (n — 1) cualesquiera de estas cantidades (X, ~ X), po- demos calcular la restante; asi pues, ya que Y &,- X)=0 os se deduce que not X,— B= =X, — 8) ya X= - YX) im Luego sélo tendremos n — 1 cantidades (X; — X) independientes. La situacién se puede clarificar algo mas, en efecto, supongamos que quere- mos hacer una inferencia sobre la varianza poblacional o desconocida. Si la media poblacional j: fuera conocida, esta inferencia se podria basar en la suma de cuadrados de las cantidades. (X1~ Bh Oy) Estas cantidades son independientes unas de otras, y podriamos decir que tenemos n grados de libertad para estimar la varianza poblacional o?. Sin embargo, como la media de la poblacién, en la préctica no suele ser conocida, tiene que ser sustituida por su estimacién, es decir, por X, utilizando por tanto uno de estos grados de libertad, quedando (n ~ 1) observaciones independien- tes para utilizarlas en la inferencia sobre la varianza poblacional y entonces decimos que tenemos (n — 1) grados de libertad. Supongamos que tenemos una poblacién normal y tomamos una muestra aleatoria de esta poblacin con el fin de hacer alguna inferencia sobre la va- rianza poblacional, entonces utilizando la distribucién 7? veremos que efecti- vamente esto es posible, como lo prueba el ejemplo siguiente. Ejemplo 1.7 En una fibrica conservera se admite que la distribucién de pesos de las latas de conservas es normal. El director comercial esta muy interesado en que el peso neto del producto incluido en el interior de la lata tenga poca variabili- dad, pues en ciertas ocasiones ha observado diferencias entre el peso real y el peso anunciado en Ia etiqueta, Si se selecciona una muestra aleatoria de 25 latas, obtener los valores k, y k, tales que 2 a (5 < = 0,05 y (Se k. ) 0,05 MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 67 Solucién: Multiplicando ambos miembros de la desigualdad por (n ~ 1) tenemos: 2 — pst 0,05 = °(S < w) = (" “8 <(n- i) = Pli3a < 24k,) Utilizando la Tabla A.9 del anexo de tablas resulta: 24k, = 13,848 ky = 0,577 Luego P(S? < 0,57767) = 0,05 Es decir, existe una probabilidad del 0,05 de que la varianza muestral sea inferior o igual al 57,7 % de la varianza poblacional. Andlogamente calculamos el valor ky de manera que: 0,05 = (5: > ts) = (ea >(n- Ds) = PUi34 > 24k) o bien 0.95 = Pd, < 24k,) Luego de la Tabla A.9 se tiene: 24k, = 36,42 ky = 1517 y sustituyendo en la expresin inicial resulta P(S? > 1.5176?) = 0,05 Es decir, la probabilidad de que la varianza muestral sea mayor o igual que el 151,7% de la varianza poblacional, es del 0,05. 68 CASAS-SANCHEZ, J. M. Grdficamente tendrfamos representadas ambas probabilidades en el Grdfi- co 1.7. S(ais) 0 13,848 36,420 tas GRAFICO 1.7. Representacién grdfica de la probabilidad de que la variable aleatoria es menor o igual que 13,848 y también de que sea mayor 0 igual que 36,420. 1.7.4.. DISTRIBUCION DE LA DIFERENCIA DE MEDIAS MUESTRALES CUANDO SE CONOCE LA VARIANZA POBLACIONAL En muchas situaciones surge la necesidad de comparar las medias muestra- les de dos poblaciones distintas. Por ejemplo, supongamos que estamos intere- sados en comparar los tiempos medios de duracién de dos tipos de tubos fluorescentes. La fabricacién de ambos tipos de tubos fluorescentes se realiza por compaiiias distintas y con diferentes procesos de fabricacién. Por tanto, los tubos producidos por cada compaiiia tendrén una distribucién diferente, una de la otra, de los tiempos de duracidn de los tubos. Designamos por X la variable aleatoria que representa el tiempo de dura- cin del primer tipo de tubos y admitimos que sigue una distribucién N(u,. ¢,). Anélogamente la variable aleatoria Y representa el tiempo de duracidn del segundo tipo de tubos que sigue una distribucién N(j.,, ¢,). Se selecciona una muestra aleatoria de tamaiio n, del primer tipo de tubos y una muestra aleato- ria de tamafo n,, del segundo tipo de tubos, ambas.muestras independientes. Entonces si designamos por X e ¥ los estadisticos medias muestrales de ambas muestras, estamos interesados en conocer la distribucién muestral de la dife- rencia X¥ — ¥ para las muestras respectivas de tamafio n, y n,, procedentes de dos poblaciones normales ¢ independientes. De manera andloga el Teorema 1.3 que anuncidbamos para la distribucién muestral de la media, podemos enunciar el siguiente teorema para la diferencia de medias muestrales. MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 69 Teorema 1.7 Sean (Xj. X,.) € (V1, « ¥,) dos muestras aleatorias simples e inde- pendientes de tamaiios n, y n,, procedentes de las poblaciones N(jtz, 0) ¥ M(j4. 6) respectivamente. Entonces la distribucién muestral de la dife- rencia de medias X — ¥, tendrd' una distribucién normal con media y desviaci6n tipica: Hg-y og-7 es decir ss a. a, X- Fon (u- o45) nm, Ny De donde el estadistico X — ¥)—(u.- ( ) Us — 1) NO, 1) Demostracién: Por el Teorema 1.3 sabemos que: ' Si las distribuciones no son normales y los tamafos muestrales n, yn, son grandes, mayores 6 iguales que 30, entonces por el Teorema Central del Limite la aproximacién normal para la distribucidn de X — ¥ es muy buena. Sin embargo si n, y n, son pequefios entonces la forma de la distribucién muestral de X — ¥ dependerd de la naturaieza de la poblacién muestreada. 70. CASAS-SANCHEZ, J. M. y sus respectivas funciones generatrices de momentos son: 1.9% atte t) = EleXJ=e "2% gy 2 gated gi) = Ele"J=e" 2% Luego la funcién generatriz de momentos de X — ¥ sera: ag-A0) = Ble" = Ele*]- Efe") a 1a 58S my t5e =e 2 me 2° n, « pepe (Ee We) +O LO e 20 An Y teniendo en cuenta la unicidad de la funcién generatriz de momentos resulta que: 2 G2 X-¥> M1 = ty f+ F) [1.25] Vn. *n, Si las dos muestras provienen de poblaciones tales que 4, = 1g, entonces: = x-y- w(0 e455) [1.26] Vn. * a, © bien, si o? = 6? = 0”, es decir, tienen la misma varianza, entonces: x = Oy a ivi X-YSN( a - ayo J—+— [1.27] ne Ny, De la expresi6n [1.25], tipificando se tiene: [1.28] MUESTREO Y DISTRIBUCIONES EN EL MUESTREO a Ejemplo 1.8 Analizando los salarios de los trabajadores de dos Comunidades Auténo- mas se deduce que en la Comunidad A el salario medio es de 129.000 ptas. con una varianza de 2.500 ptas.’, y en la Comunidad B el salario medio es de 128.621 ptas. con una varianza de 3.000 ptas.2, Si tomamos una muestra alea- toria de 36 personas en la Comunidad A y de 49 personas en la Comunidad B, determinar la probabilidad de que la muestra procedente de la Comunidad A tenga un salario medio que sea al menos 400 ptas. superior al salario medio de la Comunidad B. | Solucion: | Observamos que no hemos dicho que las poblaciones, de partida son nor- males, pues no es necesario ya que como los tamaios muestrales n, = 36 y n, = 49, son mayores o iguales que 30, la aproximacién a la distribucién nor- mal dada por la expresién [1.26] es muy buena, sin necesidad de que las poblaciones de partida sean normales. La informacién que tenemos es: Poblacién A: 1, = 129.000, 2 = 2.500 n, = 36 Poblacién B: 1, = 128.621, 3 = 3.000 n, = 49 Aplicando el Teorema 1.7, la distribucién muestral de la diferencia de los salarios medias muestrales X ~ ¥ serd: 2. ae .t x-Y> (12900 — 128.621, | X — ¥>.N(379, 11,43) La representacin gréfica de esta distribucién N(379, 11,43), esta dada en el Grafico 1.8. N(379, 11,43) P(X ~ ¥)>400)=0,0366 GrAFIco 1.8, Representacién gréfica de a distribucién muestral de la diferencias de medias correspondiente al ejemplo 1.8. 72. CASAS-SANCHEZ, J. M. La probabilidad de que el salario medio muestral de la Comunidad A sea al menos 400 ptas. superior al salario medio muestral de la Comunidad B corresponde a la zona sombreada y viene dado por: Puy — 7) 2400 = (2ST? <1 3? Om :) 143 1143 = P(Z > 1,83) =1- PZ < 1,83) — F(1,83) 1 — 0,964 0,0336 Este resultado nos dice que la probabilidad, de que la media de una mues- tra aleatoria de 36 salarios de la Comunidad A exceda en 400 0 més pesetas a la media de una muestra aleatoria de 49 salarios de la Comunidad B, es 0,0336. 1.7.5. DISTRIBUCION DE LA DIFERENCIA DE MEDIAS MUESTRALES CUANDO NO SE CONOCE LA VARIANZA POBLACIONAL En general, en situaciones reales las varianzas poblacionales no suelen ser conocidas. Asi pues, ahora queremos obtener la distribucién de la diferencia de medias muestrales X — ¥ cuando el muestro se realiza sobre dos poblaciones normales, independientes y con varianzas desconocidas. Es decir, consideramos dos poblaciones normales ¢ independientes, Nts 6) ¥ Mt, @,) y seleccionamos una muestra aleatoria simple de tamafio n, de la primera poblacién y otra muestra aleatoria simple de tamaiio n,, independiente de la anterior, y procedente de la segunda poblacién, entonces pueden presentarse dos situaciones: a) o,=,=6 (las varianzas poblacionales son iguales). b) 0, #6, (las varianzas poblacionales son distintas). 4) Las varianzas poblacionales son iguales Por los Teoremas 1.3 y 1.6 sabemos que: x »( *) Ms oN(u,) , Sa Y Tag — a (n, YON (1 #) > y MUESTREO Y DISTRIBUCIONES EN EL MUESTREO. 23 Como las muestras son independientes, también seran independientes las varianzas muestrales SZ y S? y por tanto los estadisticos | (n,— 182 (n, = 18? y a son variables aleatorias independientes distribuidas segtin una 7? con n, — 1 y una 7? con n, — 1 grados de libertad, respectivamente. | Teniendo en cuenta la propiedad reproductiva de la distribucién 7? resulta | que la variable aleatoria W (n, = 82, (n, - 1)8? w= ie > hh +nj-2 6 también sigue una distribucién y? con n, + ny — 2 grados de libertad. También sabemos, por el Teorema 1.7, que (X= ¥) ~~ 4) oo ~ eee nny Zz N(O, 1) y como las variables aleatorias Z y W son independientes, teniendo en cuenta la definicion de la variable ¢-Student, resulta que: Z T= TT, hat ' Van,t+n, Luego, sustituyendo en la expresién [1.29] tenemos: (X-Y-(y- 4) 1 o f—+— nn (n, — IS? + (n, — 1)S? In my) ee [1.29] 3 (X-H- yw) : Jin, = DS? + (a, — DS? _ We oben aftia't ag Dignity, [1.30] /in, ~ 1)S2 + (n, = 1)S? Jn, +n, sta? . Vv 74 CASAS-SANCHEZ, J. M. es decir, sigue una distribuci6n t-Student con n, + n, ~ 2 grados de libertad. b) Las varianzas poblacionales son distintas. a, #6, En este caso encontrar una distribucién de la diferencia de medias pobla- cionales que nos pueda ser ttil después para la obtencién de un intervalo de confianza, no es facil, y se le conoce con el nombre de problema de Behrens- Fisher. Bajo condiciones especiales se puede encontrar alguna distribucién, pero el obtener una solucién general no es sencillo, nosotros proporcionare- mos algunas aproximaciones. Si las varianzas poblacionales son distintas y desconocidas utilizamos las varianzas muestrales S? y S? como estimadores de 0% y a5. Cuando los tamafios muestrales son grandes, es decir, n, > 30 y n, > 30, entonces el estadistico (Hy = Hy) pay > NO, 1) pues para n, y n, grandes S? y $2 son muy buenos estimadores de 02 y a5, ya que, como veremos después, la varianza muestral ¢s un estimador insesgado de la varianza poblacional. Si las muestras son pequefias, el estadistico [1.32] es decir, sigue una t-Student con v-grados de libertad, siendo: Sr SV =a 1.33) Sine, Fn? O33) nt nyt Tomaremos por valor de y el valor entero més préximo. MUESTREO Y DISTRIBUCIONES EN EL MUESTREO, 75 1.7.6. DISTRIBUCION DEL COCIENTE DE VARIANZAS. Sean dos poblaciones X e ¥ normales N(jt,, 6,) y N(jtj, ¢,) € independientes, de las cuales seleccionamos dos muestras aleatorias simples e independientes, de tamafios n, yn, (X, « X,,) (X4, . X,,), emtonces pueden presentarse fundamentalmente dos situaciones: . 4) 4 y fs, conocidas, b) Uy ¥ My desconocidas. 4) Las medias poblacionales son conocidas Al ser conocidas las medias poblacionales j1, y j1, las podemos utilizar para el calculo de las varianzas muestrales $2 y S? y como las muestras son indepen- dientes y ademas proceden de distintas poblaciones, entonces los estadisticos: son independientes y podemos expresarlos como: * ng? nSP= YG WP = ay n, ng? ase= > Oj - we = oR 5 2 pues la suma de n variables aleatorias N(0, 1), independientes y elevadas al cuadrado siguen una 72. ¥ recordando que la variable aleatoria F de Snedecor con n, yn, grados de libertad, F,, .,,, se define como un cociente entre dos variables aleatorias 7 inde- pendientes y divididas cada una de ellas por sus grados de libertad, tendriamos: n SP? | Ln a |" st a? nse] se eZ oF, My 2 o FH t | 76 CASAS-SANCHEZ, J. M. b) Las medias poblacionales son desconocidas Al ser desconocidas las medias poblacionales, que serd lo que casi siempre ocurra, y ser las muestras independientes y ademas procedentes de distintas poblaciones, entonces los estadisticos: ym ¥F son independientes y teniendo en cuenta el Teorema 1.6 resulta: on. si= Saxe = M$ (BAY on, Lo ie & 72 @,-pst= Sur = SPS $ (HAV * ye Ei\ 9% " Andlogamente a como ocurrfa en la situacién anterior, legaremos a una F-Snedecor con n, — 1 y ny — 1 grados de libertad, en efecto: (n, — 1S? | =n. —0 go (,— DS] SP DS a, — 1 ae A partir de aqui podremos obtener la distribucién del cociente de varianzas 2 « “>. asf pues la funcién de distribucién sera: « 2 2a a o(ga 30 entonces teniendo en cuenta el Teorema Central del Limite resulta que el estadfstico proporcién muestral sigue una distribucion normal, es decir: [1.34] pues, ® Lo cual nos permite decir, cémo veremos en el capitulo siguiente que el estadistico propor- cidn muestral P es un estimado insesgado de la proporcién poblacional. 78 CASAS-SANCHEZ, J. M, También se verifica, para muestras grandes, que Px? vot [1.35] A Ia desviacién esténdar de la proporcién muestral, que es la raiz cuadrada de la varianza, le llamaremos error estindar de la proporcién y viene dado por: error estindar del estadistico proporcién muestral j= [1.36] n De manera andloga a como ocurrfa con el estad{stico media muestral, aqui resulta que para un pardmetro p fijo, el error estandar de la proporcién mues- tral disminuye cuando el tamafio de la muestra aumenta. Lo cual implica que cuando el tamano de la muestra aumenta la distribucidn del estadistico pro- porcién muestral p esté mas concentrada en torno a su media, es decir, en torno a la proporcién poblacional como se indica en el Gréfico 1.9. S(p) Ol 02 03 O04 05 p=06 07 08 09 GRAFICO L.9. _Representacién grdfica de las funciones de densidad del estadistico propor- cidn muestral para muestras de tamafio n = 81 y n = 361, de una pobla- cién cuya proporcién poblacional es p = 0,6. MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 79 Ejemplo 1.9 Supongamos que el 30% de la poblacién de viviendas de un pafs tienen més de un cuarto de aseo. Con el fin de obtener una informacién mas precisa se toma una muestra aleatoria de tamafio 400 viviendas. Obtener: 1° La probabilidad de que la proporcién de viviendas de la muestra con més de un aseo esté comprendida entre 0,25 y 0,32. 2° La probabilidad de que el porcentaje de viviendas de la muestra con més de un aseo sea superior al 33%. Solucién: Sabemos que el parémetro proporcién poblacional es p = 0,3 y de la expre- sién [1.34] resulta que el estadistico proporcién muestral p = a sigue una distribucion N(o “), xX 1° Si notamos por f = — el estadistico proporcién muestral, desearemos n encontrar: 0,25-p _P-p _032—p P(0,25 < p < 0,32) = P| = P(-2,18 < Z < 0,873) Utilizando la Tabla A.7 del anexo, resulta: P(0.25 < p < 0,32) = P(—2,18 < Z < 0,873) = F(0,873) — F(—2,18) = 0,8078 — 0,0146 = 0,7932 80 CASAS-SANCHEZ, J. M. Luego la proporcién muestral de viviendas que tienen mas de un aseo, caer4 en el interior del intervalo (0,25, 0,32) para aproximadamente el 79,32 % de las muestras de tamafio 400 procedentes de esta poblacién. 2° Andlogamente, tenemos: PP 033—p pq fra i "i 0,33 — 0,3 > P(p > 0,33) = P im = P(Z > 1,31) =1-PZ<1,31) =1-FU31) = 1 ~0,9049 = 0,0951 Ejemplo 1.10 Examinados los incrementos salariales de los altos ejecutivos de un amplio grupo de empresas se observa que se distribuyen segtin una distribucién nor- mal de media 12,1 % y de desviacién tipica 3,5 %. Se toma una muestra aleato- ria de 16 observaciones de la poblacién de incrementos salariales. Determinar la probabilidad de que la media muestral sea igual o inferior al 10%. Solucién: Sabemos que: la media poblacional y= 12.1 la desviacién tipica poblacional ¢ = 3,5 tamafio n = 16 z 3,5 xa M2 =) = N(12,1, 0,875) 16 La media muestral es ¥ y deseamos obtener: MUESTREO Y DISTRIBUCIONES EN EL MUESTREO 81 PX < 10) = (ate 10 *) aifn aj/n 10 - 12,1 =* (2 <0875 ) = PZ < -24) Utilizando la Tabla A.7 del anexo, resulta: P(X < 10) = P(Z < -24) = F(-24) = 0,0082 Luego la probabilidad de que la media de la muestra sea menor o igual que el 10% es de solamente 0,0082. 19. DISTRIBUCION DE LA DIFERENCIA DE PROPORCIONES Otro problema que se suele presentar es el de comparar las proporciones p, y p, de dos poblaciones binomiales, Bl, p,) y B(1, p,), basandose en muestras aleatorias simples de tamafio n, y n,, respectivamente, extraidas de ambas poblaciones. Asi pues, sean dos muestras aleatorias simples e independientes de tamafio ny ¥ n, y procedentes de poblaciones binomiales con pardmetros p, y p, Tespec- tivamente, entonces la distribucién muestral de la diferencia de proporciones muestrales [> ¥ By ~ By = = ly tendr4 aproximadamente (para n, y n, grandes) una distribucién normal con media y desviacién tipica Hi, §, ~ Px ~ Py es decir, [1.37] Capitulo 2 STIMACION PUNTUAL 2.1. INTRODUCCION A LA INFERENCIA ESTADISTICA Sabemos que una poblacién puede ser caracterizada por los valores de algunos parémetros poblacionales, por ello es ldgico que en muchos problemas estadfsticos se centre la atencién sobre esos parémetros poblacionales. Por ejemplo, supongamos la poblacién de tubos fluorescentes, en donde la carac- terfstica que estamos investigando es el tiempo de duracién del tubo y nos interesa conocer la duracién media, es decir el pardémetro poblacional 1. El valor de este parémetro poblacional jr podfa ser calculado utilizando cada tubo fluorescente de la poblacién, anotando su tiempo de duracién y calculan- do la media de todos los tiempos de duracién de todos los tubos de la pobla- cidn. Pero, evidentemente, no seria posible calcular el valor de 1 de esta forma, pues el proceso de observar el tiempo de duracién de cada tubo de la pobla- ci6n es destructivo, y no quedarfan tubos fluorescentes para la venta. Un méto- do alternativo seria, seleccionar una muestra de tubos fluorescentes, observar el tiempo de duracién de cada uno y calcular su media, la cual seria la estima- cidn o valor aproximado de p. En este caso el estadistico media muestral funcién de las observaciones muestrales, o variables aleatorias de la muestra X,, X3, oy X,, €8 el utilizado para la estimacién del parémetro poblacional y. Como después veremos, el estadistico media muestral es el mejor estadistico para estimar la media poblacional ‘Vemos pues que en muchos casos no ser posible determinar el valor de un pardmetro poblacional analizando todos los valores poblacionales, pucs el proceso a seguir para determinar el valor del pardmetro puede ser destructivo, como en el ejemplo anterior, 0 nos puede costar mucho tiempo o mucho dine- 84 CASAS-SANCHEZ, J. M. ro el analizar cada unidad poblacional. En estas situaciones la nica salida que tenemos es utilizar, la inferencia estadistica para obtener informacién sobre los valores de los pardmetros poblacionales, basandonos en la informacién conte- nida en una muestra aleatoria. Pardmetros poblacionales importantes son: la media, la desviacién tipica y la proporcién poblacional!, Asf, por ejemplo, nos puede interesar tener infor- macién sobre: — La renta media de todas las familias de una ciudad. — El tiempo medio de espera en la caja de un supermercado. — La desviacién estandar del error medida de un instrumento electrénico. — La proporeién de familias que poseen televisor en color. — La proporcién de automéviles que se averian durante el primer aho de garantia, ete. El objetivo basico de la inferencia estadistica es hacer inferencias o sacar conclusiones sobre la poblacién a partir de la informacién contenida en una muestra aleatoria de la poblacién. Mas especificamente, podemos decir que la inferencia estadistica consiste en el proceso de seleccién y utilizacién de un estadistico muestral, mediante el cual, utilizando la informacién que nos pro- porciona una muestra aleatoria, nos permite sacar conclusiones sobre carac- teristicas poblacionales. Un esquema de la inferencia estadistica aparece en el grifico 2.1, en donde la poblaci6n se representa por su funcién de distribucién y el parametro pobla- cional se nota por 6, y toma valores dentro del espaio paramétrico Q; el paré- metro puede ser cualquiera, por ejemplo, la media j1, la desviacién tipica , 0 la proporcién poblacional p. Seleccionamos una funcidn de las variables aleato- rias muestrales X,, X,, ..., X,, que la notaremos por 6 = g(Xj, X>, ... X,) y la utilizaremos para obtener la inferencia sobre el valor del parametro 0. La funcién 6 es un estadfstico cuyo valor depende de los valores de las variables aleatorias muestrales X,, X3,..., X, es decir, el estadistico 0 es fun- cidn de las observaciones muestrales, luego para cada muestra determinada (4. X25 om X,) tomard un valor diferente, y por tanto 0, seré una variable aleatoria. » En lo sucesivo continuaremos con la norma de utilizar las letras maytisculas para designar las variables aleatorias, los estadisticos, los estimadores, y la muestra aleatoria en general, y usua- remos letras mindisculas para designar los valores concretos que pueden tomar las variables aleato- rias, los estadisticos, y la muestra aleatoria particular 0 concreta. ESTIMACION PUNTUAL 85 Poblacion Espacio muestral R, Fox; 0) Op Xp XD) Muestreo Parametro 0 , GRAFICO 2.1. Esquema de inferencia estadtstica sobre el pardmetro 0. Por ejemplo, supongamos que estamos interesados en el pardmetro varian- za poblacional 62. El estadistico muestral que utilizaremos para obtener la } inferencia sobre a? es la varianza muestral S*, es decir > (x, — XP at n-1; en donde las observaciones (x1, Xz) «= X,) Corresponden a los valores de una muestra aleatoria determinada por las variables muestrales X 1, X25. Xy Un esquema gréfico aparece en el grafico 2.2, en donde el pardmetro pobla- cional se nota por a’. Poblacién Muestreo Espacio muestral R,, F(x 0°) (Xy, Xa oy Xy) oN Pardmetro oe Estimador GRrAFICO 2.2. Esquema de inferencia estadistica sobre el pardmetro varianza poblacio- nal o*, Cualquier inferencia 0 conclusién obtenida de la poblacién, necesaria- mente, estara basada en un estadistico muestral, es decir, en la informacién 86 CASAS-SANCHEZ, J. M. proporcionada por la muestra’. La elecci6n del estadistico apropiado depende- ra de cual sea el pardametro poblacional que nos interese. El valor verdadero del parametro sera desconocido y un objetivo seria estimar su valor, por lo que tal estadfstico se denomina estimador. Las inferencias sobre el valor de un pardmetro poblacional 0 se pueden obtener bésicamente de dos maneras: a partir de estimacién o bien a partir de la contrastacién de En la estimacién, basta seleccionar un estadistico muestral cuyo valor se nal. utilizaré como estimador del valor del parémetro pobla En la contrastacién de hipétesis, se hace una hipstesis sobre el valor del pardmetro @ y se utiliza Ia informacion proporcionada por la muestra para decidir si la hipstesis se acepta o no. Por ejemplo, supongamos que estamos interesados en el pardmetro proporeién poblacional, es decir la proporcién de personas que no piensan votar en las prdximas Elecciones Generales. Hacemos una hipétesis previa que podria ser: que el valor de la proporcién poblacional p sera 0,40 0 mayor, p > 0,40. Se toma una muestra aleatoria de votantes de la poblacién total, y la proporcion muestral p de aquellos electores que no pien- san votar se utilizan para decidir si la hipétesis formulada era razonable 0 no. Ambos métodos de inferencia estad{stica utilizan las mismas relaciones teé- ricas entre resultados muestrales y valores poblacionales. Asi pues, una mues- tra es sacada de la poblacién y un estadistico muestral es utilizado para hacer inferencias sobre el parémetro poblacional. En estimacién, la informacién muestral es utilizada para estimar el valor del pardmetro 0. En el contraste de hipstesis, primero se formula la hip6tesis sobre el valor de @ y la informacion muestral se utiliza para decidir si la hip6tesis formulada deberfa ser 0 no re- chazada Pero cuando se utiliza la inferencia para estimar un parametro poblacional debemos decir cémo de buena es esa inferencia, osea debemos de dar una medida de su bondad. Para ello sera necesario conocer la diferencia existente entre la estimacién del parametro poblacional, calculada a partir de una mues- tra especifica de tamano n, y el valor verdadero del pardmetro poblacional, En el contraste de hipstesis la bondad de la inferencia se mide por la probabilidad de que la decision de rechazar o no rechazar el valor dado en la hipstesis sobre pardmetro poblacional sea correcta. En este capitulo nos ocuparemos de la estimacién estadistica y mas concre- tamente de la estimacién puntual y dejaremos para capitulos posteriores la estimaci6n por intervalos y la contrastacién de hipétesis. > Formalmente definimos un estadistico como una funcién de las observaciones muestrales. ESTIMACION PUNTUAL. 87 i] 2.2. EL PROBLEMA DE LA ESTIMACION: ESTIMACION PUNTUAL La estimacién estadistica se divide en dos grandes grupos: la estimacién puntual y la estimacién por intervalos. La estimacién puntual consiste en obte- | | | | ner un tinico numero, calculado a partir de las observaciones muestrales, y que es utilizado como estimacién del valor del pardmetro 0. Se le llama estimacién puntual porque a ese ntimero, que se utiliza como estimacién del pardmetro 0, se le puede asignar un punto sobre la recta real. En la estimacién por intervalos s¢ obtienen dos puntos (un extremo inferior y un extremo superior) que definen un intervalo sobre la recta real, el cual contendrdé con cierta seguridad el valor del parametro 0. Por ejemplo, si el pardmetro poblacional es la duraci6n de la poblacién de tubos fluorescentes, basdndonos en la informacién proporciona- da por una muestra podriamos obtener una estimacién puntual del pardmetro 1, que lo notaremos por fi, i = 525 horas, sin embargo, cl intervalo de estima- cién para pr seria de la forma (475, 575), es decir, de 475 a 575 horas, con un cierto margen de seguridad. Un esquema de la estimacién puntual aparece en el grafico 2.3 en donde la poblacién viene representada por su funcidn de distribucién F(x; 6), siendo 0 el parémetro poblacional desconocido que tomar valores en el espacio paramé- trico © y la muestra aleatoria de tamafio n, est4 compuesta por las n variables aleatorias X,, Xp.) Xy- Poblacin Muestreo Espacio muestral R, F(x; 0) (Ne os X Pardmetro 0 NY Inferencia Estimacién puntual Grarico 2.3. Esquema de estimacién puntual del pardmetro 0 compuesta por las m va- riables aleatorias X 4, X3y 0 Xp El estimador del parametro poblacional @ es una funcién de las variables aleatorias u observaciones muestrales y se representa por 0 GX yy X a5 0» Xp) 88 CASAS-SANCHEZ, J. M. Para una realizaci6n particular de la muestra (x,, xp, .. X,) Se obtiene un valor especifico del estimador que recibe el nombre de estimacién del paréme- tro poblacional @ y lo notaremos por B= ep. Xap ony Xp) Vemos pues que existe diferencia entre estimador y estimacién. Utilizare- mos el término estimador cuando nos referimos a la funcién de las variables aleatorias muestrales X,, X, ... XY los valores que toma la funcidn estima- dor para las diferentes realizaciones 0 muestras concretas serdn las estima nes, El estimador es un estadistico y, por tanto, una variable aleatoria y el valor de esta variable aleatoria para una muestra concreta (x, X3, ... X,) serd la estimaci6n puntual. El estimador 0 tendré su distribucién muestral, asf pues para diferentes realizaciones de una muestra de tamaio n se tendrd el grafico 2.4, Potaisn Dita alzaones F(x; Gs 8) de tamafio n Distribucién muestral de - 5) Pardmetro (— oh. S59 6 Sy Pardmetro poblacional GrAFICO 2.4. Representacion grdfica de la distribucién muestral del estimador 6. Para seleccionar el estad{stico que utilizaremos como estimador del pard metro poblacional tendremos en cuenta las propiedades de la distribucién muestral del estadistico. Generalmente nosotros trataremos de obtener un esti- mador cuyos valores para diferentes realizaciones de una muestra, estén con- centrados alrededor del verdadero valor del parémetro 0. Asi, por ejemplo, supongamos que consideramos dos estadisticos muestrales, 0, y 05, cuyas dis- tribuciones muestrales aparecen en el gréfico 2.5, como estimadores del paré- metro 0. ESTIMACION PUNTUAL. 89 Poblacién Espacio muestral R, F(x; 8) (Xqy my Xp) Muestreo Pardmetro a Distribucién muestral de 6, S05) | Distribucion muestral de 6, ! 405 6) I 1 1 ' 1 ! 1 | i E[8,] = 6 6, E[6,] = 6 GrArico 2.5. Distribucién muestral de los estadésticos 0, y 0. Evidentemente seleccionaremos el estadfstico 6, como estimador del pa- rametro 0, pues los valores del estadistico 0, para las diferentes realizaciones estén mas_proximas al pardmetro 0, que los del estadistico 6,, pues el es tadistico 0,, presenta menor varianza que el estadistico 0, como se observa en el grafico 2.5. Para clarificar la diferencia entre estimador y estimacién consideremos el siguiente ejemplo: supongamos que pretendemos estimar la renta media p de todas las familias de una ciudad, para ello parece l6gico utilizar como estimador de la media poblacional ju la media muestral ¥ siendo necesario seleccionar una muestra aleatoria que supondremos de tamafio n = 80, a partir de la cual obtendriamos la renta media de la muestra, por ejemplo, x = 114.380 ptas. Entonces el estimador de la media poblacional j: sera, fi = X, es decir, el es- tadistico media muestral X y la estimacién puntual sera i 114.380 ptas. Observemos que designamos por X la variable aleatoria media muestral de las variables aleatorias muestrales X,, X, ... X, ¥ por ¥ designamos una realiza- cidn para una muestra espeeffica (x1, X2, ... X,), que nos da la correspondiente estimacién puntual del pardmetro y, es decir, ji = x. En la Tabla 2.1 expresamos diferentes parametros poblacionales, sus esti- madores y sus estimaciones. 90. CASAS-SANCHEZ, J. M. TABLA 2.1. Pardmetros poblacionales, estimadores y estimaciones. Pardmetro poulesion! Estimador Estimacién Media Varianza 6? prononds Niimero de éxitos _ ox ane Numero de pruebas” Pn Ejemplo 2.1 Las ventas de una muestra aleatoria de diez grandes establecimientos co- merciales de Espa, el dia 5 de enero de 1996, fueron respectivamente: 16, 10, 8, 12, 4, 6, 5,4, 10, 5 millones de pesetas, respectivamente. Obtener estimacio- nes puntuales de la venta media, de la varianza de las ventas de todos los establecimientos comerciales y de la proporcién de éstos cuyas ventas fueron superiores a 5 millones de pesetas. Solucion: Las expresiones de las tres estimaciones puntuales que nos piden, aparecen en la tltima columna de la Tabla 2.1. Asf pues la estimacién puntual de la media poblacional es la media muestral X, dada por: La estimacién puntual de la varianza poblacional es la varianza muestral s? la cual se obtiene utilizando un desarrollo andlogo al de la expresi6n [1.10]: F 3 = u (3 ~ ni) n-1i% n-1 1 = 5 (782 ~ 10-87) = 158 ESTIMACION PUNTUAL 91 Por ultimo, el estimador de la proporcién poblacional es la proporcién muestral, Para calcular esta proporcién muestral necesitamos saber el ntimero de establecimientos comerciales con ventas superiores a 5 millones, que en este caso son 6. De aqui que la estimacién puntual de la proporcién poblacional es: Para la eleccién de estos estimadores puntuales nos hemos basado, principal- mente en la intuicién y en la posible analogfa de los pardmetros poblacionales con sus correspondientes valores muestrales, pero éste no sera el método més adecuado para la obtencién de estimadores puntuales, aunque en este caso se obtienen estimadores satisfactorios para los parémetros poblacionales. En ge- neral, el problema de obtener estimadores puntuales no seré tan sencillo, por ello tendremos que dar propicdades que serfan deseables que se cumplieran por los diferentes estimadores puntuales obtenidos. Pero no existe un mecanis- mo 0 método tinico que nos permita obtener el mejor estimador puntual en todas las circunstancias. Nuestro objetivo ahora sera doble: En primer lugar, daremos algtin criterio y propiedades deseables de los estimadores puntuales, con el fin de poder conocer la bondad de los mismos, pues cuantas mas propiedades verifiquen los estimadores puntuales mejores serdn. En segundo lugar, daremos varios métodos de obtencidn de estimadores puntuales. 2.3. PROPIEDADES DE LOS ESTIMADORES PUNTUALES Sea una poblacién con funcién de distribucién F(x; 0), en donde 0 es un pardmetro poblacional desconocido, que pretendemos estimar con la ayuda de la muestra aleatoria simple de tamafio n,(X,, X3, ... X,),a partir del estimador O= GX 4, Xx, X,) que como sabemos es un estadistico y, por tanto, una variable aleatoria que tendrd su correspondiente distribucién muestral, su media y su varianza. Pero nos interesa encontrar un estadistico g(X,, ..., X,) que nos proporcione el me- jor estimador del parametro desconocido 0, para lo cual tendremos que utilizar alguna medida que nos permita dar algdn criterio para seleccionar el mejor estimador. Esta medida serd el error cuadrético medio del estimador. 92 CASAS-SANCHEZ, J. M. Definicién 2.1. Error cuadrdtico medio del estimador 6. Definimos el error cuadratico medio del estimador 0, que lo notare- mos por ECM (6), como el valor esperado del cuadrado de la diferencia entre el estimador @ y el pardmetro 0, es decir ECM (0) = EL — 07] = 0-0 (2.17 Desarrollando la expresién [2.1] tendremos: ECM (6) = E[6 — 0}? = E[(0 — 0)?] = EL6? — 206 + 07] = E[6"] — 20E[0] + 0? = (sumando y restando (E[6})) E[6?] — (£6)? + (E[6))? — 20E[6) + 6? = Var(6) + (E[6] — 0)? = Var(0) + (sesgo (6)? [2.2] resultando que el ECM del estimador 6 se puede descomponer en suma de dos cantidades no negativas: e La varianza del estimador: Var (6) = E[6?] — (E(6))? [2.3] e El cuadrado del sesgo del estimador: (Sesgo (0))? = (E[0] ~ 0 Evidentemente, ambas cantidades deberdn de ser tenidas en cuenta para las propiedades deseables de un estimador. Asi pues, ambos sumandos, varianza y sesgo, deben de ser lo mas pequefios posibles, lo cual equivale a que la distribu- cién muestral del estimador @ debe de concentrarse en torno al valor del para- metro #, tanto mas cuanto menor sea la varianza. EI problema aparentemente parece muy sencillo, pues bastarfa seleccionar como mejor estimador del pardmetro 0, aquel estimador @ que tenga el error cuadratico medio, ECM, mds pequeho de entre todos los posibles estimadores de 0. Pero no es nada ficil el obtener entre todos los posibles estimadores del pardmetro 6 el que nos dé un error cuadratico medio minimo para todos los valores posibles del pardmetro 0, es decir, no siempre existiré un estimador 0 que haga minimo su error cuadratico medio para todos los valores posibles de 8, pues un estimador @ puede dar lugar a un ECM _minimo para algunos valores del pardmetro @, mientras que otro estimador @ también dard lugar a un ECM minimo pero para otros valores diferentes de 0. NE ESTIMACION PUNTUAL 93 Resulta, por tanto, que la utilizacion del error cuadratico medio para la eleccion de un buen estimador es insuficiente, siendo necesario dar otros crite- rios, de tal manera que la eleccién de un buen estimador puntual dependerd de otras propiedades que satisfaga ese estimador. Ejemplo 2.2 Sea X,, Xj, Xj una muestra aleatoria simple de tamaiio 3, cuyos valores son siempre positivos y procedentes de una poblacién con media j1 y varianza o? = 25. Consideramos como posibles estimadores de 4 los estadisticos | fiy G(X, + 2K +X) * 1 fig = 5 (%, + 2X, +X) Obtener los errores cuadraticos medios de fi, y fiz y comparar sus valores para diferentes valores del parémetro poblacional j. Solucién: Empezamos calculando la media y varianza de ji,: 4 1 Ely] = [3 (X, + 2X, + xy 1 = (ELK 1] + 2E[X2] + ELX5)) = 1 {tut w=K luego Sesgo (fi,) = BLA] ~ = "— w= 0 1 Var (fi,) = Var li (X, + 2X, + Xy = Levartxy) + 4Var(X,) + Var(X,)) = = gl to? + ot) = 0% _ 308 _ 3.25 16 8 8 94 CASAS-SANCHEZ, J. M. teniendo en cuenta la expresién [2.2], tendremos: ECM (ji,) = Var (iy) + (sesgo (i)? =D, 9-35 8 8 Andlogamente para el estimador fi,: . 1 Elf] 5% +2X, + xo] 1 = 5(ELX i] + 2ELX2] + ELX3)) ai =f Fst et w= 5 luego Var (ji) = var[5 (X, + 2X, + x3] = x (Var(X,) + 4Var(X,) + Var(X,)) 1 og? + do? + 2) 3g (0? + Aa? + 0) 607 6-25 _ 25° 25 y su error cuadratico medio sera: ECM (ji,) = Var(jiz) + (sesgo (ji)? 2 K =pe5 ® me Igualando ECM (fi,) = ECM (ji,) tendremos: 75 we =6+ 8 6 25 275 Fa 6 ESTIMACION PUNTUAL 95 227 Bas; gy =675 luego si 675 4 2 ne a = ECM (jiz) < ECM (ji,) y el estimador fi, seré mejor que el estimador fi,, pero si 675 . . n> [> = BCMGI,) < ECM (A,) resultando que el estimador si, sera mejor que el estimador ji. Este resultado confirma lo indicado anteriormente, siendo por ello necesario dar otros crite- rios 0 propiedades adicionales para la seleccién de un buen estimador pun- tual. Asi pues estudiaremos la insesgadez, eficiencia, consistencia y suficiencia que dardn lugar a los estimadores puntuales: insesgados, eficientes, consisten- tes y suficientes. 2.3.1, ESTIMADOR INSESGADO Hemos definido el sesgo del estimador 6 como: Sesgo (6) = EL6] — 6 [2.4] Veiamos anteriormente, en la expresién [2.2] del ECM, que en el segundo sumando nos aparecfa el cuadrado del sesgo, también deciamos que el ECM (0) deberta ser lo més pequeno posible y para cllo era necesario que la varianza del estimador y el cuadrado del sesgo también fueran lo mas peque- jios posibles. Es decir sera conveniente que el sesgo en valor absoluto sea lo menor posible, siendo descable que sea nulo y en tal caso la media del estima- dor 6 coincidira con el valor del pardmetro 0 que se est estimando, es decir E[0]=0 siendo entonces el estimador @, un estimador insesgado del pardmetro 0 y la distribucién muestral del estimador @ se encontraré centrada alrededor del pardmetro 0. iid 96 CASAS-SANCHEZ, J. M. Definicién 2.2. Estimador insesgado. Diremos que el estadistico @ = g(X, ... X,) €s un estimador insesgado © centrado del parémetro 0 si la esperanza matemdtica del estimador 6 es igual al parametro 0, esto es: E(6]=0 [2.5] para todos los valores de 6, y entonces: Sesgo (0) = E[6] -— 0=0 En caso contrario diremos que el estimador es sesgado 0 descentrado, es decir E[O] = 0 + b6) = 0 + sesgo (6) 2.6] en donde b() = E[0] — 0 = sesgo (6) El sesgo del estimador, sesgo (6), puede ser positivo, negativo ¢ incluso nulo, asi pues si es positive entonces se dice que el estimador sobreestima el valor del pardmetro desconocido y si es negativo lo infraestima, siendo por tanto, deseable que sea nulo para que sea insesgado. El grafico 2.6 muestra la representacidn grafica de las distribuciones mues- trales de dos estimadores del parmetro, uno sesgado 6, y otro insesgado 0). fs; 8) Insesgado fe OF fle 3) 0 6 Parametro poblacional Valor del estimador GRAFICO 2.6. Representacidn gréfica de las funciones de densidad fx; 6,) y fx: ,) de dos estimadores, uno sesgado 6, y otro insesgado 8. Algunos estimadores para pardmetros poblacionales se obtienen intuitiva- mente por analogfa. Por ejemplo, parece légico utilizar el estadistico media : : . : | ; ESTIMACION PUNTUAL 97 muestral X, como estimador del pardémetro media poblacional y, andloga- xX mente la proporcién muestral p = py = 3 como estimador de la proporcién poblacional p y la varianza muestral, $?, como estimador de la varianza pobla- cional o?, La misma intuicin nos vale para seleccionar un estimador puntual de la diferencia de dos pardmetros poblacionales. Asi pues, el estimador pun- tual de la diferencia de los pardmetros medias poblacionales xy ~ py, sera la diferencia de medias muestrales X¥, ~ X, y andlogamente el estimador de la diferencia entre proporciones poblacionales (py — py) sera la diferencia entre las proporciones muestrales (5x — py). Estos cinco estadisticos o estimadores X, p, S?, X — X y py — py son fun- ciones de las observaciones muestrales X’,, X,,..., X,, cuyos respectivos valores esperados y varianzas aparecen en la Tabla 2.2. TABLA 2.2. Algunos pardmetros poblacionales, sus estimadores puntuales insesgados, me dia y varianza’, Pardmetro Estimador Valor ‘Varianza’dl poblacional puntual insesgado esperado de “— 0 5‘, a Media H n Varianza‘ a? o - x Proporcién p P=?Py=— P a n n Diferencia de eg - of medias py — py MX = x-xX Hx > Hy z + a Diferencia de : + + x Y yy proporcin ip -p= pnp Pale g Pal Px ~ Py Ny My nny > ny y ny son los tamatios muestrales, «2 y o? las varianzas poblacionales, X indica el nimero total de éxitos en n pruebas, y andlogamente ¥. + En una distribucién N(j, 0), sabemos que 44 = 30, luego 30% Var (S?) = — n 98 CASAS-SANCHEZ, J. M Los cinco estimadores puntuales que aparecen en la Tabla 2.2 son insesga- dos, pues teniendo en cuenta lo estudiado en el capitulo anterior, se comprue- ba facilmente que: E[ji] = ELX] = cE , Y x] =u E(4?] = E[S?] = 4. aa 42]- LP] = [a |-° Effiy ~ fly] = ELX — X] = py ~ by Ely ~ By] = Ejemplo 2.3 Dado el estadistico Ss 4 n Sw demostrar que es un estimador sesgado de la varianza poblacional’. Solucin: Podemos expresar 8 de otra forma para tomar valores esperados con més facilidad, en efecto: sta DXi wt u- XP Si sie S- ky) ¥ 0k,—w) - F-wP 5 Nosotros definimos, como ka mayorfa de los autores, la varianza muestral como: i £ = ¥ x - #7 nt aunque algunos autores le Ilaman a esta expresiGn cuasivarianza muestral y la representan por $? Estos autores cuando el denominador es n entonces utilizan el término varianza muestral. ESTIMACION PUNTUAL, 99 Me (AX; = w)? +X = w)? = UX, - WX - w] i Ble sie RIS RIE SIE TMs (X, > w)? + o(X — ? — AX — Ww) x (X)- | (X= WP + MX — pi? — AX — wnX — mu) | | | | | Me: See i (X, — w? + WX = po? = 2X - | (X) = W? = (X= WP ‘Ms Tomando valores esperado resulta: 1S ~ E[S?] = a Y &- w= - w| x EUX, — 7] — ELK = 7] Luego vemos que efectivamente se trata de un estimador sesgado, pues E[S?] # 0? La varianza muestral: si que es un estimador insesgado de la varianza poblacional, pues facilmente podemos comprobar que: ns? E[S?] = al, E[S?] n-t 100 CASAS-SANCHEZ, J. M. Sin embargo no es cierto que la desviacién t{pica muestral sea un estimador insesgado de la desviacién tfpica de la poblaci6n, es decir ES] #0 ya que la rafz cuadrada de una suma de ntimeros no es igual a la suma de las rafces cuadradas de los mismos numeros. Para probar esto utilizaremos el cjemplo 2.4. Si consideramos el estadfstico facilmente se comprueba que también es un estimador insesgado de la varianza poblacional, en efecto: Ms: Ese] =" Ah (= “| BUX, = 0991 = 4 no? 1 Ejemplo 2.4 Sea una poblacién formada por los elementos (1, 2, 3). Obtener E[S?] y ELS] Solucién: Para calcular la media de la varianza muestral, E[S*], y la media de la desviaci6n esténdar muestral, E[S], construimos la Tabla 2.3 con todas las posibles muestras con reemplazamiento de tamaiio n = 2. TABLA 2.3, Muestras de tamano n= 2, sus medias y varianzas, eee a a (lene s-v8 a (1, 1) 1 0,00 0,00 0,00 (2) 1s 0,50 0.50 O71 (3) 2 2,00 2.00 141 21) 15 0,50 0.50 o7 2) 2 0,00 0,00 0,00 2,3) 25 0,50 0.50 O71 3,1) 2 2,00 2.00 141 B.2) 25 0,50 0,50 ort GB, 3) 3 0.00 0,00 0.00 Total 18 6,00 6,00 5,66 ESTIMACION PUNTUAL 101 La media de la varianza muestral sera: 62 9 3 E[S*] La varianza de la poblacién o? , y la desviacién estdndar, ¢ = 0,8164, como se puede comprobar. Luego E(S?] es decir, como ya sabfamos, la varianza muestral es un estimador insesgado de la varianza poblacional. La tiltima columna de la Tabla 2.3, nos da las desviaciones tipica de cada muestra y su media seré: 5,66 E[S] = = 0,6288 resultando que: E[S] = 0,6288 4 0,8164 = o de donde se deduce que, efectivamente, la desviacisn tipica muestral no es un estimador insesgado de la desviacién estandar poblacional. Existen factores de correcci6n para la desviacién estandar muestral $ de- pendientes de la forma de la distribucion poblacional, que la convierten en un estimador insesgado de a. Proposicién 2.1. Si 0, y 6, son dos estimadores insesgados del parémetro 0, entonces el estimador 6 definido como 6=26,+ (1-40, , 2€(0,1) [2.7] es también un estimador insesgado del parémetro 0. Demostracién: Bastar4 tomar valores esperados en la expresién [2.7]. E[O] = E[AB, + (1 — 2)0,] = AB[O,] + (L — ETO] =i0+(1-a0=0 102 CASAS-SANCHEZ, J. M. Esto nos permite decir que si tenemos dos estimadores 6, y 6, insesgados del pardmetro @, entonces cualquier combinacién lineal convexa de ambos estimadores insesgados serd también un estimador insesgado del pardmetro 0, y ademis existirdn infinitos de estos estimadores, pues podemos obtener infini- tas combinaciones lineales convexas de ambos estimadores. 2.3.2. ESTIMADOR INSESGADO DE VARIANZA MINIMA. Ya indicdbamos anteriormente que no era posible obtener un estimador 6 que haga mfnimo su error cuadratico medio para todos los valores posibles del pardmetro 0. Sin embargo, si podemos considerar los estimadores que son insesgados y de éstos determinar el que tenga su error cuadrdtico medio, ECM (6), minimo. Es decir, si el estimador 0 es insesgado, entonces: E[0|=0 y ECM [6] = Var(d) por tanto, debemos de intentar obtener un estimador, si es que existe, de entre todos los estimadores insesgados que tenga varianza minima y éste seria el estimador insesgado de varianza minima, Si ademas se verifica que la varianza es minima para todos los valores posibles del parametro entonces el estimador recibe el nombre de estimador insesgado y uniformemente de minima varianza (UMVUE)*. Defini 2.3. Estimador insesgado uniformemente de minima varianza. Diremos que el estimador insesgado 0, es insesgado y uniformemente de minima varianza (UMVUE) para el parémetro 0, si dado cualquier otro estimador insesgado 6, de él y, se verifica que Var (69) < Var (6) para todos los valores posibles de 8. Para legar a obtener el estimador insesgado uniformemente de minima varianza, si es que éste existe, tendrfamos que determinar las varianzas de todos los estimadores insesgados de 0 y scleccionar el estimador que tenga la varianza mas pequefia para todos los valores de 0. Con el fin de facilitar la obtencidn de un estimador insesgado y uniforme- mente de mfnima varianza (UMVUE) daremos la desigualdad 0 cota de Frechet- Cramer-Rao, la cual nos permitiré obtener una cota inferior de la varianza. © Uniformly minimum-variance unbiased estimators ESTIMACION PUNTUAL 103 2.3.2.1. Cota de Frechet-Cramer-Rao Sea (X,, X>,... X,) una muestra aleatoria simple de tamaiio n, obteni- da de una poblacidn cuya funcién de densidad 0 de cuantia es f(x; 0). Designamos la funcién de densidad conjunta de la muestra’ por: Ly oy Xp 0) = AF (4, oy Xi O) = fy45 Xap oy Xi OD verificandose que [ A F(X, X3p oe Xp O) = Se = [ Fay Xap oy %yp OMX ANA, = e y sea 6 = g(X,, X;, .., X,) un estimador insesgado del pardmetro 0. Entones si se verifican las condiciones de regularidad de Wolfowitz* la varianza del estimador est4 acotada inferiormente: 1 7 o bien, si las variables aleatorias son independientes ¢ idénticamente dis- tribuidas con funcién de densidad 0 de cuantia f(x; 0), entonces: 1 Olnf(x; 8)\? (a) | Var (6) > Var (0) > 12.9] © incluso ” También se llama funeién de verosimilitud de la muestra y se representa como: Uy os Sys OY = AE (yoy Xy5 8) = Sy(E49 my Xp En el caso discreto la funcisn de verosimilitud de la muestra sera U5 oy yp O) = PAX, = Xp 5 Xy =) = PUN, = Xo X= HED) * Bxisten otras condiciones de regularidad como, por ejemplo, las dadas por Cramer 0 por Fis7, pero son mas complicadas. 104 CASAS-SANCHEZ, J. M. Las condiciones de regularidad de Wolfowitz son: a) Elcampo de variacién del pardmetro @ es un intervalo abierto D del eje real, que puede ser infinito o semi-infinito pero nunca se reduce a un punto. b) El campo de variacién de la variable aleatoria X que define la pobla- cin no depende del pardmetro 6. c) Para casi todo x y todo 0 € D, existe” Olnd F,(x,, @) Se pueden diferenciar, bajo el signo integral, las expresiones E[1] y E{6]". e) Se verifica que @ind F(x, x2. a? (+72) |>0, para We D Veamos que en efecto se obtiene la expresién [2.8]. Admitimos que el estimador O(x,, .. x,) es insesgado, y por tanto, se verifica: xp A= 0 EO) = f oy, ay Xq) dF y(a5 Xap « ie de donde, escribiendo en lo sucesivo 6 en lugar de O(x,, .... x,) y dF, en lugar de AF AX, oy Xt [ (0 - OF, =0 ne derivando respecto de 0: é o-5f - »o -| ar, + [ (6-6) ade P cqd. 4 60 La otra expresién [2.9] de la cota de Frechet-Cramer-Rao se tiene como consecuencia de que la muestra es aleatoria simple, pues entonces la funcién de densidad 0 de cuantia de la muestra es igual al producto de las funciones de densidad marginales: AP (45 Xap Xp O) = Iya Xap XO = TT AF ixg O) = TT Ses 0) ma ms ™ Desigualdad de Schwarz en un intervalo (a, b) * * . j rovaooaeenn < [ croaratenf Loco Pdr (x) 106 CASAS-SANCHEZ, J. M. y tomando logaritmos neperianos, resulta: S inf; 0 » 8 Y winfles 0 a elevando al cuadrado ambos miembros: aindF? _(& @. 0 \F_ (aan) ~ (wren) - * (é f é é = x (5 In flrs o) +z (5 Inflxs 0) Inflx;, ») ivi ‘Tomando valor esperado: {CTL Gone + x (jm fix 0) (Sng a)| 2 ifs pero teniendo en cuenta que las variables son independientes: Az (Smasco).(S ims) = é a = z 5 Inflxs: | 55 Inflxj a =0 " Sabemos que f dF, = 1, derivando respecto de 0: ote adF, . 20 ap = and ap 2 pf OMAP g ee a0 ola dF," Se 8 mL 8 andlogamente, sabemos que f ‘ls; Oude = 1, derivando respecto de 6: afl afioe . oo _ ff ainfes i, ap kro la besos nas ap Les de = ain fix; 8 20 ESTIMACION PUNTUAL. 107 (ee) ]- 5 4 (Gm oo 4) Luego la cota de Frechet-Crawer-Rao tiene esta forma: Var (6) > © bien esta otra: Var (0) > [2.10] 1 GindF(x; 02 a) | Fisher llam6 al denominador de la cota de F-C-R, cantidad de informacién contenida en la muestra de tamaiio n, es decir, la cantidad de informacién que la muestra proporciona sobre el pardmetro: _ IndF, ain f(x; 0)? = of (ge) =n OO) ] man] Si el estimador 6 hubiera sido sesgado, es decir: E[0] = 0 + b(0) en donde (6) es el sesgo del estimador, entonces la cota de Frechet-Cramer- Rao tiene la forma: Lt b mae E Var (6) > [2.12] siendo b(6) la derivada respecto de 4 del sesgo del estimador. En el supuesto de haber considerado una poblacién de tipo discreto, bas- taria sustituir la funcién de densidad por la Potrespondicate funcién de cuantia, obteniendo resultados andlogos. La cota o desigualdad de Frechet-Cramer-Rao nos da un limite inferior para la varianza del estimador 0, pero esto no implica que la varianza de un estima- dor UMVUE tenga que ser igual al limite inferior de la varianza dado por la cota de F-C-R. Es decir, se puede obtener un estimador insesgado 6 que tenga su varianza mas pequeiia que la de todos los dems estimadores insesgados de 0, Ih 108 CASAS-SANCHEZ, J. M. pero mayor que el limite inferior dado por la cota de F-C-R. Un estimador que verifique lo anterior seguir siendo un estimador UMVUE del pardmetro 6. 2.3.3. ESTIMADOR EFICIENTE Observando la definicidn de estimador insesgado se pone de manifiesto que la insesgadez presenta una debilidad, pues tinicamente requiere que el valor esperado del estimador @ sea igual al parametro poblacional 8, y no requiere que muchos, 0 incluso algunos, de los valores del estimador (es decir, estima- ciones) tomen valores préximos al parémetro poblacional, como seria deseable en un buen estimador. Por eso, la propiedad de eficiencia es importante, ya que exige algiin requisito mas. Asf pues, cuando se quiere estimar un pardmetro poblacional considerando diferentes muestras de tamaito n, es deseable que el estimador tome, para las diferentes muestras, valores préximos unos de otros, de tal manera que resulte una varianza pequeiia para los diferentes valores del estimador, pues cuanto menor sea la varianza mejor seré el estimador, es decir, la propiedad de eficiencia implicara que la varianza del estimador sea pequefia Sin embargo, el hecho de que la varianza del estimador sea pequefia, por sf solo no es suficiente para tener un buen estimador, sino que el estimador tendria que ser también insesgado. Por ejemplo, si para diferentes muestras alcatorias el estimador siempre toma un mismo valor especificado 150, enton- ces la varianza del estimador serd cero, pero el estimador sera sesgado excepto que el verdadero valor del par4metro poblacional sea también 150. Luego sera deseable que la varianza sea minima y que el estimador sea insesgado. La propiedad de eficiencia de un estimador la definiremos comparando su varianza con la varianza de los demds estimadores insesgados. Asi pues: «cl estimador més eficiente entre un grupo de estimadores insesgados sera el que tenga menor varianza>. Supongamos que tenemos una poblacién con funcién de densidad f(x; 0), en donde 0 es el pardmetro desconocido y consideramos tres estimadores 0), 02 y 0, del pardmetro @, basados en muestras aleatorias del mismo tamaiio, sien- do las distribuciones de los tres estimadores las que aparecen en el grafico 2.7, en donde se observa que las distribuciones correspondientes a 0, y 03 tienen como media el parémetro poblacional 0, es decir, ambos estimadores 0, y 03 son insesgados, sin embargo, la distribucién correspondiente a 4, es sesgada, tiene un sesgo positivo pues su media es mayor que el pardmetro poblacional. En cuanto a la varianza de los tres estimadores se observa que la mas pequefia es la correspondiente a 0, y sin embargo este estimador no es més eficiente ya que no es insesgado. ESTIMACION PUNTUAL. 109 Ses 9) Ses 4,) 0 6 GRAFICo 2.7, Representacion gréfica de las funciones de densidad f(x; 0,), fx; 0) y Hx; 63) de tres estimadores 0,, 6; y i. Luego, para que un estimador sea el mas eficiente ser necesario que sea insesgado y que tenga menor varianza que cualquier otro estimador insesgado, asf pues, del grafico 2.7 se deduce que el estimador 6, es el mas eficiente de los tres, pues es insesgado y tiene menor varianza que el estimador 6, Anteriormente ya indicabamos la importancia que tenfa la varianza de un estimador y aqui se pone de manifiesto otra vez que la varianza de un estima- dor insesgado es una medida muy importante para decidir sobre si es 0 no apto para estimar un pardmetro 0. Definicién 2.4. Estimador eficiente. Diremos que un estimador 6 del pardmetro poblacional 0, es eficiente si es insesgado y ademés su varianza alcanza la cota de Frechet-Cramer- Rao. Esto es equivalente a decir que un estimador 6 es eficiente si su varianza coincide con la cota de Frechet-Cramer-Rao™: 1 (ome ob 1 ainf(x; 0)\? (Ce) | "Pues esta cota se obtiene cuando el estimador es insesgado, y posible nos da el valor minimo de la varianza, Var (0) = (2.13] o bien 110 CASAS-SANCHEZ, J. M. Luego un estimador eficiente sera un estimador insesgado y uniformemente de minima de varianza (UMVUE), cuya varianza coincide con el Ifmite inferior de la cota de Frechet-Cramer-Rao; pero un estimador UMVUE puede que no sea eficiente puesto que su varianza, siendo minima, no aleance la cota de F.C.R. Este tipo de estimadores serdn de bastante utilidad en toda la inferencia estadistica, siendo por ello el que se intentara obtener, siempre que exista. Definici6n 2.5. Eficiencia de un estimador. Se define la eficiencia de un estimador insesgado, 6, del parametro @ como: Cota F.C.R. off. = VO) [2.14] verificdindose que eff. (6) < 1. De aqui que si tenemos dos estimadores insesgados 6, y 6 del parémetro 6, diremos que el estimador 6, es mis eficiente que el estimador 0,, si se verifica: eff. (0,) > eff. (0,) [2.15] es decir, si se verifica que: Var (0,) < Var(0,) en donde la desigualdad en sentido estricto se debe cumplir para algtin valor de @. Pero en general nos podemos encontrar con varios estimadores insesgados, no siendo nada facil el probar que uno de esos estimadores insesgados es el mejor de todos ellos, Para resolver esta situacién de manera facil lo que se hace es introducir el concepto e eficiencia relativa de dos estimadores. Definicién 2.6. Eficiencia relativa. Dados dos estimadores insesgados 0, y 0, del parémetro 0, definimos la eficiencia relativa de 0, a 6, como: Var(0,) _ eff. (0,) eff. relativa (6, 6,) = Var(0,) eff. (0,) 1 7 U2 [2.16] Si este cociente es menor, igual 0 mayor que la unidad, diremos que 6, es menos, igual o mds eficiente que 0,"*. '* Algunos autores utilizan, para la eficiencia relativa, la notacién eff. (0,/3) SO —- ESTIMACION PUNTUAL_ lil El grafico 2.8 representa las distribuciones muestrales de dos estimadores insesgados 6, y ,. Observando la representacién gréfica se deduce que la Var (8,) < Var (d,), luego la eficiencia relativa de 0, a 0, sera: Var (0) off. relativa (8, 9,)= y-@) B y diremos que el estimador 6, es mis eficiente que 0,. Ss 6) Sx; 6;) 6 0 GrAFico 2.8. Representacién grdfica de las funciones de densidad de dos estimadores insesgados 6, y 0,, donde 6, es mas eficiente que 0. Ejemplo 2.5 Sea (X,, .. X,) una muestra aleatoria simple procedente de una poblacin N(u, 0). Utilizando la media muestral X y la mediana muestral X,, como estimadores de la media poblacional jt, Estudiar su eficiencia relativa. Solucién: Sabemos que los estadfsticos media muestral y mediana muestral son esti- madores insesgados de la media poblacional, pues la poblacién de partida es normal y, por tanto, simétrica, coincidiendo la media, la mediana y la moda’, 'S Se demuestra que la mediana muestral X,, tiende a distribuirse segtin una distribucién nor- mal de media ey varianza =, es decir, Xq—N( i [o-— 2a 2a 112 CASAS-SANCHEZ, J. M. La varianza de ambos estimadores es: =. a Var(X) = — n ao o Var(Xq) = 57 = LST La eficiencia relativa del estimador mediana muestral X,, al estimador me- dia muestral X serd: Var (X) on 1 off relativa Xe X= Vary) Ltt 7 157 de donde 2 Var(X,,) = 1,57 Var(X) = 1,57 - Lo cual implica que 1a mediana muestral X,, es 1,57 veces menos eficiente que la media muestral X para estimar la media de la poblacion y. Es decir un estimador basado en la mediana de una muestra de 157 observaciones tiene la misma varianza que un estimador basado en la media de una muestra de 100 observaciones, admitiendo que la poblacién es normal. También podriamos decir que la varianza de la mediana muestral es superior a la varianza de la media muestral en un 57% de ésta. Asi pues, para que ambos estimadores tuvieran la misma varianza seria necesario utilizar un 57% mis de observacio- nes en la mediana muestral que en la media’. Podemos concluir que la media muestral es un cstimador mis eficiente de la media poblacional , que la mediana muestral. El gréfico 2.9 ilustra la relacién entre ambas distribuciones muestrales ¢ indica que la distribucién muestral de la media tiene menor varianza que la distribuci6n muestral de la mediana. ‘© Cuando estudidbamos las medidas de posicién central deciamos que una ventaja de la mediana sobre la media es que daba bastante menos importat a los valores u observaciones extremas que la media, sin embargo ahora, en la eficiencia relativa, verios que la mediana present el inconveniente de necesitar mayor numero de observaciones que la media. ESTIMACION PUNTUAL 113 Distribucién muestral de la media > fe X) Distribucion muestral de la mediana I(x Xp) sr H GRAFICO 2.9. Representacién gréfica de las distribuciones muestrales de los estimadores media X y mediana X,, del pardmetro jt, media poblacional. Proposicién 2.2 Dada una poblacién N(u, a) se verifica que la media muestral X es un estimador eficiente de la media poblacional j. Demostraci6n: Sabemos que la funcidn de densidad de una distribucion N(u, @), de para- metro , desconocido, es: e 1 a Jin S15 w= Para que el estadistico, X, media muestral sea un estimador eficiente del pardmetro u, media poblacional, se tiene que verificar la expresién [2.13], es decir, que su varianza coincida con la cota de Frechet-Cramer-Rao: Le 1 . ? Inf(x; ) =In——— + Ine ? © F(x; 1) oJ Var(X) = En efecto: 14 CASAS-SANCHEZ, J. M. éinfox: 1) ou @ of ne) nf n n == Var(X)=5 o o n oa BUX ~ 17] Luego sustituyendo en la expresin [2.13], resultarfa: 1 _@ Var (fi) = x) = —_—— ar) = Var(X) e fee ay] r nE| |——— 66 que coincide con la cota de Frechet-Cramer-Rao, ademas sabemos que la va- i ¢ rianza del estadistico media muestral es “ y que el estadistico media muestral es un estimador insesgado de la media poblacién p. Resultando que, efectivamente, la media muestral es un estimador eficiente de la media poblacional, cuando la poblacién es N(u, 0). Ejemplo 2.6 Dada una poblacién N(j., 7), y los estimadores de la media poblacional p, para muestras aleatorias simples de tamafio n = 3 a _1 Oy = 5h +X. + X5) 1 a 1 9,=5 = X,+ "3 xe, Se pide: 1. Comprobar que los estimadores 6, y 0, son o no insesgados. 2. Calcular la varianza de ambos estimadores. 3. ¢Son ambos estimadores eficientes? ESTIMACION PUNTUAL 115 Solucion: 1. Sabemos que un estimador 0 es insesgado si se verifica que: E{6] = 0 En este ejemplo, se conoce que: E(XJ=u , i= 1,23 1 =5 FIX + ELX2] + ELXs)) Lucgo EO.) = 5 (X, +X, +X 1 azutatwae y por tanto el estimador 0, es un estimador lineal insesgado para pi. Para el estimador 6, se tiene: a 1 1 1 HOA1= EL X45 %2+ 4X 1 4 1 = ELK] + 3 ELX2] +9 FLX] ttt Sget ger ge eee “3g h 13 Luego este estimador lineal es sesgado para jy. 2. Veamos la varianza de ambos estimadores: Se sabe que: Var(X) =49 , i= 1,23 Luego: Var (0,) = ver(§ (X, + X,+ x)) 116 CASAS-SANCHEZ, J. M- = ; (Var(X,) + Var(X,) + Var(X,)) 1 49 =5 6-4-5 7% 1 1 1 Var (@,) = Var(5X, + 5X24 5X5 1 1 1 g Var(X,) + 5 Var(X,) + 75 Var(X,) 1 1 1 mpd aot ga 244 61 2.989 376 8 4a aa 3. Para ver si son eficientes tendremos que tener en cuenta la definicién 2.4, es decir tendran que ser insesgados y su varianza alcance la cota de F.C.R. Ahora bien, en nuestro caso el estimador 6, no es insesgado y por tanto no serd eficiente. Para el estimador 6,, que si que es insesgado, bastard tener en cuenta la proposicién 2.2, pues resulta que el estimador 1 0, 3X +X, +X) coincide exactamente con la media muestral X, y segtin hemos visto el es- tadistico media muestral, X, en una poblacién N(j., «) es un estimador eficiente de la media poblacional y. Luego el estimador 0,, es un estimador eficiente de la media poblacional Teorema 2.1 Si un estimador 6 es insesgado, su varianza alcanza la cota de F.C.R. si se verifica: andF, 0 A(O\0 — 0) Siendo A(0) una expresién que no depende de @ y entonces el estimador 0 seré eficiente. ESTIMACION PUNTUAL. 7 Teorema 2.2 Si @ es un estimador eficiente, entonces se verifica que ~ 1 var = 35 Demostracién: Como el estimador 6 ¢s eficiente, entonces la Var (0) coincide con la cota de Frechet-Cramer-Rao, expresién [2.13] y teniendo en cuenta el teorema 2.1 resulta: 1 _ 1 ind ELA 8 — OP 0 1 ~ BORO — OF 1 Var (6) = ~ 426) Var (6) de donde se deduce que " 1 = (Var (0)) 0) Luego - 1 var) = 35 Definicién 2.7. Estimador asintoticamente eficiente. Diremos que un estimador 6 cs asintéticamente eficiente si se verifica: lim Var(d) = Cota de Frechet-Cramer-Rao"” [2.17] No obstante debemos tener en cuenta que la cota también depende del tamano muestral, lo cual puede ocasionar algtin problema en algin caso aislado (como podrfan ser el caso de los estimadores stiper-eficientes). 118 CASAS-SANCHEZ, J. M 2.3.4. ESTIMADOR CONSISTENTE Hasta ahora hemos considerado propiedades de los estimadores puntuales basados en muestras aleatorias de tamajio n, pero parece Idgico esperar que un estimador serd tanto mejor cuanto mayor sea el tamafio de la muestra. Asi pues cuando el tamafo de la muestra aumenta y por tanto la informacién que nos proporciona esa muestra es més completa, resulta que la varianza del estimador suele ser menor y la distribucién muestral de ese estimador tenderd a encontrarse mds concentrada alrededor del parémetro que pretendemos esti- mar. Ademds teniendo en cuenta el teorema de Glivenko-Cantelli, resulta que cuando el tamafio de la muestra es suficientemente grande entonces la muestra puede legar a proporcionar una informaci6n casi exacta de la poblacién y en consecuencia el valor del estimador tiende a coincidir con el valor del parame- tro. Por esto, en este apartado nos vamos a referir a las propiedades asintéticas de los estimadores, es decir a su comportamiento cuando el tamafio de la muestra se hace muy grande (n > co). La mas importante de estas propiedades asintoticas es la consistencia. Scan 0,, 05... 0, una sucesién de estimadores del pardmetro 0, obtenidos a partir de muestras de tamafio 1, 2, ..., 1, respectivamente, es decir: de manera que el estimador basado en la muestra de tamajio n lo notaremos por 6,, en donde el subindice n lo empleamos para hacer mds evidente la dependencia del tamaio muestral. En general esta sucesin de estimadores se representa por {0,}. Definicién 2.8. Estimador consistente. Diremos que una sucesién de estimadores {6,} es consistente, si la sucesién converge en probabilidad hacia el pardmetro 8, Es decir, si Ye > 0, se verifica: lim P(\6, O<)=1 , ve [2.18] y cada elemento de la sucesidn se dird que es un estimador consistente. ESTIMACION PUNTUAL 119 Esta consistencia que hemos definido es una consistencia simple o consisten- cia en probabilidad ya que se basa en la convergencia en probabilidad, por eso también se suele decir que una sucesién de estimadores {0,} es consistente si converge en probabilidad hacia el valor del pardmetro 0, a medida que el tamafio de la muestra aumenta. Lo cual implica que la distribucién del esti- mador consistente estaré mas concentrada entorno al valor del parametro 0 y, por tanto, la varianza del estimador consistente debe disminuir cuando n aumenta, tendiendo a cero cuando n-> co. Situacién que representamos en el gréfico 2.10. Sox; 8 GRAFICO 2.10. Representacién gréfica ilustrativa de la consistencia de un estimador 6, A medida que crece el tamafto de la muestra la distribucién del estimador estd mas concentrada alrededor del valor del parémetro 0. También se puede definir un estimador consistente basdndose en la conver- gencia en media cuadratica. Defi n 2.9. Consistencia en media cuadratica. Diremos que una sucesién de estimadores {6,} es consistente en media cuadratica para el pardmetro 0 cuando se verifica: lim E[d, — 07? = 0 [2.19] y cada elemento de la sucesién se dira que es un estimador consistente en media cuadritica. | 120 CASAS-SANCHEZ, J. M, Andlogamente a la expresién [2.2], aqui tenemos que el error cuadratico medio del estimador 0, sera: ECM = E{(0, ~ 0)] = Var(4,) + (sesgo (6,))? [2.20] que tenderé a cero si ambos sumandos tienden a cero, pues ambos sumandos son no negativos. Luego para ver si un estimador es consistente en media cuadratica bastard con demostrar que la varianza y el sesgo del estimador tienden a cero cuando n= x. Teorema 2.3 Si un estimador es consistente en media cuadratica también es consis- tente en probabilidad, pero no necesariamente se verifica al revés. Demostracién: Para demostrar este teorema tendremos que demostrar que si: E(6, — 0)? +0, ve entonces PO, 0 1, Ye>0 y ve En efecto, si tenemos en cuenta la desigualdad de Chebychev" escrita en la forma: E(6, — 6) P[\0, — 0| <6) = PEI6, - 0)? <2] >1- , e>0 [2.21] y cuando n+ oo, segtin la hipotesis de partida, el estimador era consistente en media cuadratica: E[6, -— 67 +0 "Ver CASAS Y SANTOS (1995). Capitulo 10. ESTIMACION PUNTUAL 121 y sustituyendo en la expresién [2.21], se tiene: PUO, — 0 Luego el estimador es consistente en probabilidad”. Definicién 2.10. Consistencia casi segura. Diremos que una sucesién de estimadores {6,} es consistente casi segu- ro para @ cuando se verifica: (im 6,= °) =1 [2.22] y cada elemento de la sucesién se dird que es un estimador consistente casi seguro. En consecuencia, si el estimador es consistente casi seguro también lo seré en probabilidad. Ejemplo 2.7 Sea (X,, ... X,) una muestra aleatoria de tamaiio n procedente de una poblacién N(u, «). Demostrar que la media muestral, X, y la varianza muestral, S?, son estimadores consistentes de la media y varianza poblacional, respecti- vamente. Solucion: En efecto, la media muestral X es un estimador consistente de la media poblacional j1, pues es un estimador insesgado BUX] = 4 siendo el sesgo nulo para cualquier tamafo de muestra, y ademés la varianza del estimador media muestral, X, es: 2 Var (X) = . También podiamos haber dicho que la demostracién es inmediata ya que como sabemos la convergencia en media cuadrdtica implica la convergencia en probabilidad. 122 CASAS-SANCHEZ, J. M. Lucgo como el sesgo la varianza del estimador, X, tienden a cero cuando n— &, resulta que se trata de un estimador consistente en media cuadratica y por tanto también en probabilidad. Otra forma de hacerlo seria: Sabemos que Tipificando tenemos: X-p_ nk Zz = ain > N(O, 1) y teniendo en cuenta la expresién [2.18] asociada a la definicién de estimador consistente, tendremos: = nn /n PUX = pl) 2, resulta que el estimador S? es un estimador consistente de la varianza poblacional 4”, ESTIMACION PUNTUAL 123 Definicién 2.10. Estimador 6ptimo asintoticamente normal. Diremos que una sucesién de estimadores {0,} del parémetro 6 da ] lugar a un estimador 6ptimo asintéticamente normal, 0, del parémetro 0, si se verifican las siguientes condiciones: 1. La distribuci6n del estadistico 0, -0 J/Var(4,) tiende a una distribucién N(0, 1), cuando n— 00. /n> NO, 1) 2. La sucesién de estimadores es consistente, es decir, Ve > 0, se verifica: lim P(\G, — 0) <«) vo | lo cual equivale a decir que el estimador @ es consistente para todos los valores de 0. 3. No existe ninguna otra sucesién de estimadores {6} que verifique las dos condiciones anteriores y que ademds: lim Var(6,) < lim Var(,), V0 2.3.5. SUFICIENCIA Hasta ahora, y como indicabamos al final del apartado 2.2, la cleccién de los estimadores la hacemos basdndonos en la intuicién y en la analogia de los pardmetros poblacionales con sus correspondientes valores muestrales. Tam- bién, en algunas ocasiones nos interesa que el estimador tenga alguna propie- dad conereta, por ejemplo, que sea insesgado, o que cumpla cualquier otra propiedad. Pero como el estimador era simplemente un estadfstico y por tanto funcién de las observaciones muestrales, resulta que utilizamos las observacio- nes muestrales para obtener los estimadores de los parémetros poblacionales, de tal manera que se resume la informacion que proporciona la muestra sobre los pardmetros poblacionales en los valores (0 estimaciones) que toman sus estimadores, pudiendo producirse una posible pérdida de la informacion que contiene la muestra cuado se sustituyen las observaciones individuales por el valor del estadistico. Asf pues, sapongamos que queremos estimar los parame- tros media, j, y varianza, 6”, poblacional con la ayuda de una muestra aleato- ria, utilizando para ello los estimadores insesgados media muestral, X, y va- rianza muestral, S?. Las estimaciones correspondientes, de los pardmetros 124 CASAS-SANCHEZ, J. M. poblacionales serdn los valores que toman los estimadores X y S? para las n observaciones de la muestra aleatoria, resultando que la informacién de las n observaciones muestrales se resume 0 se reduce a los dos valores de los estima- dores X y S?, En consecuencia, nos surge la pregunta: gen este proceso de resumen 0 reduccién de la informacién (pues pasamos a tener sélo los valores de X y S*), que nos proporcionan las n-observaciones muestrales sobre los pardmetros poblacionales 4 y o, se mantiene o se ha perdido informacién respecto a los pardmetros p y o? En este apartado daremos algunos métodos para obtener estadisticos 0 estimadores tales que utilicen toda la informacién contenida en la muestra con respecto al pardmetro poblacional a estimar. Tales estadisticos 0 estimadores los llamaremos suficientes, pues contienen toda la informacién relevante conte- nida en la muestra con respecto al pardmetro que nos interesa”’. 2.3.5.1. Estimador suficiente De manera intuitiva, diremos que un estadistico es suficiente para un pardmetro @ cuando utiliza toda la informacion relevante contenida en la muestra aleatoria, con respecto a 0, y ningtin otro estadistico puede propor- cionar més informacién adicional sobre el parametro poblacional 0. Es decir, mediante un estadistico suficiente tenemos una manera de resumir toda la informacién contenida en la muestra acerca del pardmetro 0. Por ejemplo, consideremos una muestra de n repeticiones independientes de un experimento binomial, (X,, ..., X,), con probabilidad de éxito p, y definimos el estadistico T como el ntimero de éxitos en las n repeticiones, es decir en donde x, = fh sila Fésima repeticién es éxito, con probabilidad p ‘10, si la i-ésima repeticién es fracaso con probabilidad 1 — p Como estamos interesados en el pardmetro poblacional p, al tomar la muestra de n-repeticiones del experimento binomial tendremos un valor del estadistico: ¥, X, = niimero de éxitos en las n-pruebas ft T ® Sabemos que el estimador es una funcién de las observaciones muestrales y, por tanto, seré un estadistico, de aqué que algunos autores utilizan de manera indiferente los términos estimador y estadistico. ESTIMACION PUNTUAL 125 y entonces nos surge la duda de si este estadistico contiene toda la informacién sobre el pardmetro p o por el contrario se podrfa obtener més informacién sobre p considerando otros estadisticos o funciones de (Xj, X,). Para resolver esta duda obtenemos la distribucién condicionada de X;, ..., X,, dado el valor del estadistico T = t, es decir: x) PU =X, P=) ps1 = py POT = /Xy (‘pra oy _ (l= nyt Pr =X x) 2s 1 — “! (Pr py a Sx he = (") “ [2.22] 0 si Y xe im Observamos que la distribucién condicionada de X;, ..., X, dado el valor del estadistico T= 1 no depende del pardmetro p, es decir, la distribucién con- dicionada para la muestra de n repeticiones, dado el ntimero de éxitos, no depende de la probabilidad p de obtener un éxito, entonces conociendo el nimero total de éxitos en la muestra tendremos toda la informacién que la muestra puede proporcionar sobre el valor del pardmetro p, siendo por tanto, el estadistico T suficiente para el pardmetro p”. 2 En este ejemplo también son suficientes para el pardmetro p los estadisticos (x zy x) (xx 3 x)» . 126 CASAS-SANCHEZ, J. M. Definicién 2.12. Estimador suficiente. Sea (X}, .., X,) una muestra aleatoria de una poblacién cuya distribu- cin depende de un pardmetro 0 desconocido, Diremos que el estadistico o estimador T= T(X}, ... X,) es suficiente para el pardmetro 0 si la distribucién condicionada de X,, ... X, dado el valor del estadistico T = t, no depende del parémetro 0. Ejemplo 28 Sea una muestra aleatoria (X,, X>, X3) procedente de una distribucién BA, p), y sean los estadisticos: T, =X, +X,+ X, T, = X,+2X,+X,; tales que para la muestra de tamaiio n = 3 toman los valores 7, = 2 y T = 2. Comprobar que T, ¢s suficiente y que T, no es suficiente. Solucién: El estadistico T,=X,+X,+X, es suficiente, pues es un caso particular del ejemplo anterior, asf pues, susti- tuyendo en la expresidn [2.23] tenemos: 1 PUK, = xy, Xp = Xa, X3 = G/T = 2) = () y esta probabilidad no depende del parimetro p, con lo cual es el estadistico 7, es suficiente. Andlogamente, para el estadistico: T,=X,+2X,+X, si obtenemos la probabilidad condicionada, por ejemplo, para la muestra (x1, Xa, X3) = (1, 0, 1) tendremos que: P(X, = xy, Xq = Xp, Xy = X3/T2 = 2) = = P(X, =1, X, =0, X; = 1/X, + 2X, +. X,=2) P(X, = 1, X, =0, X3 = 1) P(X, + 2X, +X, =2) ESTIMACION PUNTUAL. 127 la cual depende del pardmetro p, y por tanto, el estadistico T, = X, + 2X, +X, no es suficiente. Si observamos el estadistico: T,=X,+X,+X; toma los valores 0, 1, 2, 3 sin pérdida de ninguna informacién sobre el pardme- tro p. Sin embargo, el estadistico T,=X,+2X,+X, toma los valores 0, 1, 2, 3, 4 perdiendo informacién sobre el pardmetro p Esta definicin de estadistico suficiente nos permite comprobar si efectiva- mente el estadistico o estimador T es 0 no suficiente pero no nos dice cémo se puede encontrar un estadistico 0 estimador suficiente. Un método que, ademas de decirnos si un estadistico es 0 no suficiente, nos permite también obtener un estadistico suficiente, es el teorema de factoriza- cién de Fisher-Neyman. 2.3.5.2. Teorema de Factorizacién de Fisher-Neyman Sea (X,, ... X,) una muestra aleatoria simple de una poblacién con funcién de distribucién F(x; 6) y sea la funcién de cuantia de la muestra: POX, oa X50) = PAX, = 4, 5 Xq =) 0 la funcién de densidad de la muestra: SUX yy oy Xi O) Entonces el estadistico T= T(X,, .... X,) es suficiente para el paréme- tro 0 si y solamente si podemos descomponer la funcién de probabilidad o la funcién de densidad de la muestra en productos de dos factores no negativos: PAS 5 os Xq) = GT (45 vy X qh: 8) Ay ny Xy) (2.24) (X15 oo Xp 8) = GT (X 5 sony Xp)5 OV A(X 5 sory Xp) [2.25] en donde g(7, 8) es una funcién que depende solamente de 0 y de la mues- tra a través del estadistico T(X,, .. X,), ¥ Mx;, u X,) no depende de 0. | | 128 CASAS-SANCHEZ, J. M. Demostracion: 22, Vamos a realizar la demostracién para el caso discreto. Si admitimos que T es un estadistico suficiente para @, entonces la distribu- ci6n condicionada: ayo X, TX, “ x)=0) PATE, = X)=9 PAX 1 =X yp voy X y= ql T ps os es independiente del pardmetro 0, y podemos escribir PAX = Xpy omy Xq = Ky) = PAK = Xqy oy Xq = Hwy Ty my %y) =O) = PAT (Xp ny Xp) = 1) P(X, = Xp ny Xq = Ny/T (X45 oon Xp) =O) siempre y cuando la probabilidad condicionada PUX = X15 oy Xq = Xy/T X49 os Xp) = 9) esté bien definida. Y haciendo: Wyss %) = PU, = Xp Xp Xq/T (Xp, on Xp) =D) que como vemos no depende de 0, y GAT (15 os My) O) = PAT, 5 %) = 0 se verifica el teorema, pues: PAX = X yy oo Xq = Xp) = GT oes Xs 8) “Hy ony ) Veamos ahora la situacién inversa, es decir, si se verifica el criterio de factori- zacién entonces el estadistico T ser4 suficiente. En efecto: PAX, = Xs oy Xq = G/T, wy Xp) == 0 si T(xy, 4 x) #t PAX Xn TX PAT (X45 oy Xp) = O si TX, oy X) = ® Para una demostracién general ver LEHMANN (1986). ESTIMACION PUNTUAL 129 0 Si T(Xy, uy X,) FE © \ PAX, =X, PAT, Xn) ep Ft Tn NIE Evidentemente si T(x, 5 X,) FE entonces la probabilidad condicionada PAX, = X15 oy Xy = T(E, no depende del parémetro 0, Si T(x;, «. X,) = fentonces teniendo en cuenta que se verifica el criterio de factorizacion podemos escribir: PLT Xm D=N= Yo P(X =x, ~, X,=x,) Tey = 1 = YT (15 any ahs OW, ony 4) Tew ond=t = Gt, OSM, oy Xq) Tecan = Luego PAK 1 = X45 oy Xq = Xq/T(Xq5 oy Ny) =O) _ Ht A-WX,, a5 OY Aix, Tenant = Hey on 8) MX, 5 Xq) Thyon=t que no depende de 0, y por definicién se deduce que el estadistico T=T(Xy, .., X,) es suficiente, como queriamos demostrar. Ejemplo 2.9 Sea una muestra aleatoria (X, ... X,) de una distribucién B(1; p). Compro- bar utilizando el teorema de factorizacién que el estadistico T= J’ X, es i suficiente para el pardmetro p. tions 130 CASAS-SANCHEZ, J. M. Solucién: La funcién de probabilidad conjunta de la muestra serd: PX py oy Xq) = Pp(Xp = X15 ov Xu = Xv) = pl — py pI — py ™ = ph" py = pl — py * -(\a- -(2,Je py ato sak l= (FE Ja ~ ar Haciendo A(x,» X,) = entonces resulta la siguiente factorizacion: Pyles 8) = 6 DMS d= ({2 5) a Por tanto, el ntimero de éxitos es un estadistico suficiente para el paréme- tro p (probabilidad de éxito en una distribucién binomial). Ejemplo 2.10 Sea (X, ... X,) una muestra aleatoria procedente de una distribucién z 11 a cuya funcién de densidad es: x>0 . s1= SQ) = 0 » x<0 Obtener un estadistico suficiente para el parémetro a. ESTIMACION PUNTUAL 131 Solucion: La funcién de densidad conjunta de la muestra es: L(y 00 X ph) =f A) -f(%5 4) Por tanto, si hacemos: t=T(xy, 4%) = YX entonces se tiene: AT (X45 5 Xs OY = WX yy ony Ny) = Luego tendremos la siguiente factorizacién: Sy oy Xn B= GT 5 ny Xs “Ay voy Xp) Y podemos decir que el estadistico T=> Xx, fo ¢s un estadistico suficiente para el pardmetro a. Observemos que el estadistico media muestral X es también un estadistico suficiente para el parametro a. En efecto, haciendo Xx, 1 Mes La T=- YX, = nT= nish £ 132 CASAS-SANCHEZ, J. M. tendriamos la siguiente factorizacién: = GT (py os Nhs BMX ys oy Xn) Lo cual indica que pueden existir varios estadisticos suficientes para un mismo pardmetro. Otro resultado interesante que se ha puesto de manifiesto en el ejemplo anterior, lo recogemos en el siguiente Teorema, que es una consecuencia inme- diata del teorema de factorizacién de Fisher-Neyman. Teorema 2.4 Si el estadistico T, es suficiente y es funcién con inversa tnica del estadistico T,, T, = f(T;), entonces el estadistico 7, es también suficiente. Demostracién: Sea T, = f(T,) donde f es inyectiva. Entonces existe la inversa T, =f '(T;) con lo cual, por ser T;, suficiente, tenemos segiin la expresin [2.25] que: Sls og Xpi = GT 5 WL, oy 4) = Gf(Tz); 0) Wx, 5 Xn) = G(T 3; 8) WX ys oy Xp) lo cual demuestra que el estadistico T, también es suficiente. Intuitivamente también se puede entender, pues si el estadistico 7, puede calcularse a partir del estadistico 7, entonces el conocimiento de 1, debe de ser al menos tan bueno como el de T; Esto es equivalente a decir: que si un estadistico no es suficiente ninguna reduccién suya puede ser suficiente. El recfproco del teorema 2.4, que no demostraremos, también se verifica y lo podemos enumerar mediante el siguiente teorema. ESTIMACION PUNTUAL 133 Teorema 2.5 Si los estadisticos T, y T, son suficientes para el pardmetro @ entonces T, y T; estén relacionados funcionalmente. Cuando la distribucién de la poblacién depende de dos pardmetros, como es el caso de la distribucién normal, es interesante determinar dos estadisticos que sean conjuntamente suficientes para los dos parametros. En estas situacio- nes el teorema de factorizacién se puede enunciar de la siguiente forma. Teorema 2.6 Los estadisticos T, = T,(X,,.., X,) ¥ Ty = TX, -» X,) son conjunta- mente suficientes para los pardmetros 0,, y 0 si y solamente si la funcién de probabilidad o la funcién de densidad de la muestra se puede descom- poner factorialmente de la siguiente forma: SUR 1s os X54, 2) = = GT (15 09 Xaby Tr (Xp5 5 Kuli Ors 2) “Hy oo XJ [2.26] Ejemplo 2.11 Sea una muestra aleatoria (X,, ... X,) de una poblacién N(j1, 0). Obtener dos estadisticos que sean conjuntamente suficientes para los parémetros pobla- cionales py a. Solucion: La funcién de densidad conjunta de la muestra sera: eL 134 CASAS-SANCHI Siguiendo la notacién utilizada en la expresién [2.26], tenemos que: Ty(X15 5%) = De Ti..%) = DF 1 5 GAT lp os ye Ty mn al Bs a) = (0/2ny "ew ) 2M) EP) Wop, oy Xp) = 1 verificandose la factorizacién dada en la expresién [2.26], y por tanto los es- tadisticos: son conjuntamente suficientes para los pardmetros pt y o. 2.3.5.3. Estadistico minimal suficiente Hemos introducido el concepto de suficiencia, y decfamos que el objetivo era mediante el estadistico suficiente condensar o resumir los datos sin que se produzca pérdida de informacién sobre el pardmetro, Ahora lo que pretende- mos es obtener otro estadistico suficiente que reduzca o resuma los datos lo mis posible, pero sin pérdida de informacién sobre el pardmetro, y éste seré el estadistico minimal suficiente. Supongamos que un estadistico 7, es suficiente para el pardmetro pobla- cional 0, y que ademés existe otro estadistico T,, tal que T, = f(T), entonces sabemos, por el teorema 2.4, que el estadistico 7, es también suficiente para el pard4metro 0. Ahora bien, salvo que la funcién f(-) sea biyectiva, el estadistico T, proporcionaraé una mayor reduccién de los datos originales que el es- tadistico T,. En efecto, si volvemos al ejemplo 2.11 vemos que el estadistico: T= UX A es suficiente para el parémetro a. ESTIMACION PUNTUAL 135 Haciendo Xo X= TX vemos que (X,,.., X,) es también un estadistico suficiente para el pardmetro a. Pero es evidente que el estadistico 7, produce una reduccién bastante mayor en los datos que si consideramos simplemente los datos de la muestra original. Debido a esto es deseable determinar, si es posible, el estadistico suficiente que produce la mayor reduccién de datos, siendo éste el estadistico minimal suficiente. El hecho de que 7, = f(T,) nos asegura que el estadistico T, siempre nos dard una reduccién de los datos que al menos es tan buena como la dada por el estadistico T, si es que sigue siendo suficiente. Definici6n 2.13. Estadistico minimal suficiente. Diremos que un estadistico es minimal suficiente, si es suficiente y cualquier reduccién de la informacién definida por él ya no es suficiente, es decir desprecia informacién que esté contenida en la muestra, acerca del pardmetro 0. Método de Lehmann y Scheffé** para obtener un estadistico minimal suficiente Este método parte de la existencia de dos muestras aleatorias simples de tamaiio: (Xion) € Kyo Ky) cuyas respectivas funciones de verosimilitud son: LX, soy Xqi =A, xy 6) = fl fics 8) = TTS 1 Lt, Yui = S015 a) ® Ver LINGREN, B. (1968), pag. 235. 136 CASAS-SANCHEZ, J. M, Se obtiene el cociente de funciones de verosimilitud: Ux) oy Xai 8) LU 15 o Yas O) y si podemos encontrar una funcién g(x, ... ,) tal que la razén de funciones de verosimilitud no dependa de @ si y solamente si G15 oy Xp) = Gar oo Va) entonces decimos que IHX ps oy Xp) ser el estadistico minimal suficiente para el parémetro 0. Si en lugar de existir un solo pardmetro 0, existieran k pardmetros, enton- ces tendriamos que obtener k funciones Gay oy Xals vey uy oy Xn) tales que el cociente de funciones de verosimilitud no depende de 0, ... Oy Si ¥ solamente si IX 1p vy Xn) y entonces decimos que (Vas ao) para E= 1, serdn los estadisticos conjuntamente minimal suficientes para los pardmetros Oy, oo Ope Ejemplo 2.12 Sea una muestra aleatoria (X,, ... X,) procedente de una poblacién bino- mial, B(1, p). Obtener, si existe, un estadistico minimal suficiente para el paré- metro 0. Soluci6n: En el ejemplo 2.9 ya se habfa obtenido un estadistico suficiente para el pardmetro p, y vefamos que, efectivamente, el estadistico T= YX, era sufi- it ciente. ESTIMACION PUNTUAL 137 Ahora vamos a tratar de obtener un estadistico minimal suficiente, para ello consideramos dos muestras de tamaiio n (Xyy my Ky) @ (Vas oy Yad y obtenemos la razén de funciones de verosimilitud: “PAL py “Pe — py LX oy Xs P) _ P(L = py LY, oy Yoi PY P= py “= py p= py “) que como vemos depende del parametro, y tinicamente no dependera del paré- metro p si y sdlo si Ejemplo 2.13 Sea una muestra aleatoria (X,, ... X,) procedente de una distribucién N(u, 1). Obtener un estimador minimal suficiente del parametro . Resultando que efectivamente el estadistico }) X, ser4 minimal suficiente fay para el pardmetro p. Solucion: Considerando dos muestras de tamaiio n Os eaX) © Cee 138 CASAS-SANCHEZ, J. M. podemos obtener la razén de funciones de verosimilitud: 1 joe Ga L(Xqs oy Xp HM) \V/ 2 LOD» Ins WD ( 1 ow oe eer 2. 1 (fm =e dow) dedi) Esta funcin no dependera de j: si y solamente si Ex dy =1 Por tanto, el estadistico es minimal suficiente. Y puesto que X es una funcién inyectiva de Y X,, it resulta que X es también un estadistico minimal suficiente. Ejemplo 2.14 Sea una muestra aleatoria (X,, .., X,) procedente de una poblacién cuya funcin de densidad es: S05 a) = afin Obtener dos estadisticos para los pardmetros fy o que scan conjuntamente mfnimal suficientes. Solucién: En el ejemplo 2.11 ya habfamos obtenido dos estadisticos conjuntamente suficientes para los pardmetros jt y 6. Veamos ahora si existen dos estadisticos que sean conjuntamente minimal suficientes. ESTIMACION PUNTUAL 139 Consideramos dos muestras de tamafio n (X05 XK) & Ky on Yd y obtenemos la raz6n de funciones de verosimilitud. Lx, LU, » Xn Hy @) Vrs HB) Gs) Ga (Bem fom) a =e » aeowlbe bab dy) que como vemos depende de los pardmetros 4 y @, tinicamente no dependerd de estos pardémetros uy si y sdlo si: Me & ~Al(Eaeme—m § n)-(% toet—ae Bo] ~-an eB) a(Es- 32) 140 CASAS-SANCHEZ, J. M. que ya habfamos visto que eran conjuntamente suficientes, resultan ser conjun- tamente minimal suficientes para los pardmetros py o. 2.3.5.4. Relacién entre el estimador eficiente y suficiente Si un estimador 6 es suficiente ha de verificarse por el teorema 2.1 que: dlnd Fylx,, 00 Xn) = A(p\8 — 8) ain gt © bien, sustituyendo A(@)(@ — 8) por D tendremos: 00 Ind F(x, Xp; 0) _ din g(G,0) 60 00 integrando respecto de 0, y expresando la constante de integracién como In h(x, «5 X,) resulta: Ind F,(x,, -5 X30) = Ing, 8) + IM A(X. aus X4) de donde: AF yl p5 oy X50) = G0, 0) “He, oy %y) que por el criterio de factorizacién de Fisher-Neyman resulta que el estimador 0 es suficiente. Luego si el estimador @ es eficiente, también es suficiente. Ejemplo 2.15 Sea (X,,.., X,) una muestra aleatoria simple procedente de una poblacién con distribucién de Poisson de pardmetro 2, en donde el pardmetro / se estima a partir de la media X de la muestra aleatoria del tamafio n. Obtener: 1° Un estimador eficiente. 2° Un estimador suficiente. ESTIMACION PUNTUAL. 141 | Solucion: 1. La funcién de probabilidad de Poisson viene dada por: a a PsA= Fee 5 x= 0,120 x! Segiin la definicién 2.4 para que un estimador / sea eficiente se tiene que verificar que la varianza del estimador coincida con la cota de Frechet-Cra- mer-Rao. 1 @In P(x; A) na | Aplicando esta expresién a la distribucién de Poisson, resulta: Var (4) = In P(x; 4) = xin — In(x!)— 4 AinPixyd)_x_ x= h dn P(X; 4) X-2Pli oo, [a m | - ~ A 7 | =e ay 1 = pavar(X) = ae | 4 | pues en la distribucién de Poisson sabemos que ELX]= 4 Var (X) = Pero sabemos que en la distribucin de Poisson el pardmetro 2 se estima mediante la media X de una muestra aleatoria; siendo la media X muestral un estimador insesgado del pardmetro 2 ELX] = 2 y como: | 142 CASAS-SANCHEZ, J. M. Sustituyendo en la expresién de la Cota de Frechet-Cramer-Rao, resulta: 1 A , fe In Px: ay “a 04 y como ee — + Var (4) = Var(X) = ver(™ Var(X, +--+ X,) resulta que la Var (A) coincide con la cota de Frechet-Cramer-Rao. Luego la media muestral X es un estimador eficiente del parametro 4 de Poisson. 2. Obtengamos ahora un estimador suficiente para el parémetro 2. Apli- cando el criterio de factorizacién de Fisher-Neyman, tendremos que probar: P55 Xq) = GT p59 Ny) 2) A(X) La funcién de probabilidad conjunta de la muestra sera P(X ps ony Xq) = Play voy Xp A) = Ploeg AdanP 3A) | ESTIMACION PUNTUAL 143 - (3 xs ’) Hops) 1 y el estadfstico YX, es un estimador suficiente para el pardmetro 4, Pero a como el estadistico YX, es funcién biyectiva del estadistico X, pues | y X,=nX,y Y X es suficiente, entonces por el teorema 2.4 resulta que el io — ist estadistico X también es suficiente para el parémetro 2. Luego el estadfstico media muestral es un estimador suficiente y eficiente del pardmetro J. 2.3.5.5. EI papel de la suficiencia en la obtencién de estimadores de minima varianza La suficiencia juega un papel importante en la obtencién de estimadores insesgados uniformemente de minima varianza (UMVUE)*§ como se pone de manifiesto a continuacién, Teorema de Rao-Blackwell Sea una poblacién con funcién de densidad o de cuantia representada por f(x; 0) y sea 0 un estimador insesgado para el pardmetro 0 y T un estadistico suficiente del mismo pardmetro 6, Entonces si hacemos: aT) = E(6/T} se verifica: 1. g(T) es un estadistico y es funcién del estadistico suficiente. 2. Elg(TY] = 0. 3. Var(g(T)) < Var (6). Es decir, el estadistico (7) es funcién del estadistico suficiente, es un estimador insesgado de @ y su varianza es menor que la del estimador insesgado 6. 25 Uniformly minimum-variance unbiased estimators (UMVUE). Estimador insesgado unifor- 1| ‘memente de minima varianza. Si existe un estimador UMVUE ésta seré preferible a cualquier otro estimador insesgado de , ya que sus valores presentan menos varianza que la de cualquier otro estimador insesgado. 144 CASAS-SANCHEZ, J. M. Este teorema, que no demostraremos aqui, nos indica que dado un estima- dor insesgado y un estadistico suficiente, este estadistico suficiente lo podemos utilizar para encontrar otro estimador g(T) insesgado y de menor varianza que el primero. Ahora bien, no se puede asegurar que el estimador g(T) sea de minima varianza, es decir, UMVUE. Para ello recurrimos al teorema de Lehmann-Scheffé que veremos posteriormente. Corolario Si existe un estimador 6 UMVUE, entonces debe ser funcién del es- tadistico minimal suficiente para el pardmetro 0, el cual es UMVUE. 23.6. COMPLETITUD En la seccién anterior hemos estudiado la suficiencia y vefamos que me- diante este concepto podiamos resumir la informacién contenida en la muestra sobre un pardmetro desconocido de manera mis eficiente y sin pérdida de informacién sobre el parémetro. Ahora mediante el nuevo concepto de comple- titud, veremos que cuando se verifica para un estadistico suficiente entonces obtenemos mejores estimadores. Defi j6n 2.14. Familia completa. Una familia de distribuciones {F(x;0)} es completa si para cualquier funcién (x) la identidad: E[h(x)] = 0 implica que: P(h(x) = 0) =1 en todos los puntos para los cuales f(x; @) > 0 para algiin 0. Esta definicién nos indica que una familia de distribuciones es completa si el nico estimador insesgado de cero es el mismo cero. Un estadistico T es completo si la correspondiente familia de distribuciones de T es completa. Asi pues se pone de manifiesto que la propiedad de completi- tud es una propiedad de la familia de distribuciones. ESTIMACION PUNTUAL 145 Ejemplo 2.16 Dada la familia de distribuciones binomiales {B(n, p)} comprobar si es com- pleta. Solucién: Teniendo en cuenta la definicién 2.14, vemos que para cualquier real h(x) de una variable aleatoria X + B(n, p) las identidad ELA] = (°) HOP pF* = 0, Ype@.2) implica necesariamente que hixy=0 , Vx=O0,1,..,0 ya que la expresi6n z ("over - py <=0 es un polinomio en p de grado n, y para que tome el valor cero para todo valor del pardmetro p es necesario que todos sus coeficientes, h(x), sean nulos. Luego Pix) =0)=1 , Ype 1) y la familia es completa. Ejemplo 2.17 Supongamos una muestra aleatoria (X,, ..., X,) procedente de una pobla- cién B(1,p), y sea el estadistico Comprobar si el estadistico T es completo. Soluci6n: Sabemos que la distribucin binomial es reproductiva respecto al paréme- tro n, y hemos visto en el ejemplo 2.16 que la familia de distribuciones bino- 146 CASAS-SANCHEZ, J. M. miales {B(n, p)} es completa, luego el estadistico T= YX, es completa pues, 5 sigue una distribucién B(n, p), por la reproductividad de la distribucién B(1, p) Definicién 2.15. Estadistico suficiente completo. Diremos que un estadistico suficiente T es completo, si la familia de distribuciones del estadistico suficiente T es completa. Teorema de Lehmann-Scheffé Si T es un estadistico suficiente y completo para @, y si existe un estimador insesgado 0, del parametro 0, entonces existe un tnico estima- dor UMVUE dado por oT) = ELO/T] Luego el problema de encontrar un estimador UMVUE ha quedado redu- cido a la obtencién de un estimador insesgado @ y a calcular el valor esperado AT) = ELO/T) en donde 7 es un estadfstico suficiente completo. Para finalizar con la completitud daremos el coneepto de estadistico com- plementario y un teorema que pone de manifiesto la independencia del es- tadistico complementario con el estadistico suficiente completo. Defi in 2.16. Estadistico complementario. Diremos que un estadistico U es un estadistico complementario para cl pardmetro 6, si la distribucién de U es independiente de 8. Teorema 2.7 Sea el estadistico T suficiente y completo para el pardmetro 6, y sea U | un estadistico complementario para 0. Entonces los estadfsticos T y U son variables aleatorias independientes”. % Este teorema debido a Basu nos facilita ta demostracién de la independencia de los es- ‘0s media y varianza muestral de una distribucién normal. tadist ESTIMACION PUNTUAL. 147 2.4, LA FAMILIA EXPONENCIAL DE DISTRIBUCIONES Y LA SUFICIENCIA Existe una clase o familia de distribuciones en la que todos los pardémetros de las distribuciones que la integran tienen estadisticos suficientes. Este grupo de distribuciones recibe el nombre de familia exponencial de distribuciones, y como veremos sera bastante facil obtener estadisticos suficientes para conse- guir informacién acerca del pardmetro correspondiente. Definici6n 2.17. Familia exponencial de distribuciones uniparamétrica. buciones es exponencial uniparamé- trica si esta formada por todas aquellas distribuciones cuyas funciones de cuantfa 0 de densidad se expresan de la siguiente forma: BUWhxje2R R27 £050) donde 1. BQ) y Q(0) son funciones reales de 0. 2. h(x) y R(x) son funciones reales de x. En la tabla de la pagina siguiente aparecen algunas distribuciones pertene- cientes a la familia exponencial. Veamos ahora que utilizando el método de Lehmann-Scheffé podemos ob- tener un estadistico minimal suficiente para la familia exponencial de distribu- ciones. En efecto, si consideramos dos muestras aleatorias simples: (X54) @ KK) cuyas respectivas funciones de verosimilitud son: 46) 3 Ring UX py oy Xy5. OY = S(O 15 oy X p50) = BD) Il Axe “ [2.28] 210) Rind LV 45 os Vos 8) = L015 5 Vos 8) = BNO) TT AUde in y podemos obtener la razén de funciones de verosimilitud: Ein vo SiO) fy Had oof, as) Fn) EUs Yas ier UY) 148 CASAS-SANCHEZ, J. M. Distribucién S058) BO) Aq) Binomial (1, p) pil p)* 1-p 1 Binomial (n, p) (Sera — prs (1 py () Geométrica pC — py* P 1 rex—1 rex Binomial nga . ran ra ( ) tna =n) x Poisson ete et Ind x x 1 2 Normal (0, «) 1 “33 —* Normal (jt, 1) H x Gamma Exponencial que sera independiente de @, si y solamente si ¥ Res) = FR) 4 i y por tanto el estadistico Ty, os X) = LY Ree 4 serd un estad{stico minimal suficiente. Veamos ahora que este estadistico minimal suficiente, )) R(x), tiene una con distribucién que pertenece a la familia exponencial. La demostracién la hare- mos sélo para el caso discreto, pues en el caso continuo se tendria que hacer una transformacién de una integral multiple. ESTIMACION PUNTUAL 149 La funcién de probabilidad para el estadistico Ty oon Sq) = 5 Rx) sera: PT, 6) = AL R(x) = ‘) = EP, Oey Ke) : a = SL BOTT xy a9 we UT = bO)H(Hee en donde W)= BI) y HO= ST TEM) ERigp=t it Luego P(T;6) pertenece a la familia exponencial de distribuciones. Andlogamente podemos hacer la extensién al caso de x-parémetros. Definicién 2.18. Familia exponencial de distribuciones «-paramétrica. Diremos que una familia de distribuciones es exponencial x-paramé- trica si esta formada por todas aquellas distribuciones cuyas funciones de cuantia o de densidad, se expresan de la siguiente forma: IU Ops soy I) = BOs oy Opdh(eMeMMHOVE FOAM AIRES 2.287 donde: 1. BOO,, «.. 8,) ¥ O04, 9g) Son funciones reales de 0,...0,. 2. h(x) y R{x) son funciones reales de x. De manera andloga al caso uniparamétrico aqui se tiene que el estadistico k-dimensional (= R(x), + 3 Rs) es minimal suficiente para la familia. ee

S-ar putea să vă placă și