Sunteți pe pagina 1din 18

UNIVERSIDAD NORORIENTAL PRIVADA GRAN MARISCAL DE AYACUCHO ESCUELA DE ADMINISTRACIN SEDE EL TIGRE

TRABAJO DE ESTADSTICA APLICADA.

Profesor: Hamlet Mata Mata Integrantes: Ronald Salazar 15376092 Femayor Romira 13798184 Nilmary Lpez 22860392

Octubre de 2012 INTRODUCCIN La probabilidad y la estadstica son, sin duda, las ramas de las Matemticas que estn en mayor auge en este siglo, y tienen una tremenda aplicabilidad en todos los a spectos y ciencias, especialmente en las Ciencias Sociales, puesto que aquellas variables que influyen en dichas ciencias, econmicas, demogrficas, suelen tener ca rcter aleatorio, es decir, no son deterministas, y se fundamentan en predicciones a partir de datos conocidos. Todo aquello que implique prediccin nos lleva al te rreno de la probabilidad. La probabilidad mide la frecuencia con la que aparece un resultado determinado c uando se realiza un experimento. Ejemplo: tiramos un dado al aire y queremos saber cul es la probabilidad de que s alga un 2, o que salga un nmero par, o que salga un nmero menor que 4. El experimento tiene que ser aleatorio, es decir, que pueden presentarse diverso s resultados, dentro de un conjunto posible de soluciones, y esto an realizando e l experimento en las mismas condiciones. Por lo tanto, a priori no se conoce cul de los resultados se va a presentar: Ejemplos: lanzamos una moneda al aire: el resultado puede ser cara o cruz, pero no sabemos de antemano cul de ellos va a salir. Hay experimentos que no son aleatorios y por lo tanto no se les puede aplicar la s reglas de la probabilidad. Ejemplo: en lugar de tirar la moneda al aire, directamente seleccionamos la cara . Aqu no podemos hablar de probabilidades, sino que ha sido un resultado determin ado por uno mismo. Antes de calcular las probabilidades de un experimento aleatorio hay que definir una serie de conceptos: Suceso elemental: hace referencia a cada una de las posibles soluciones que se p ueden presentar. Ejemplo: al lanzar una moneda al aire, los sucesos elementales son la cara y la cruz. Al lanzar un dado, los sucesos elementales son el 1, el 2, .., hasta el 6.

Suceso compuesto: es un subconjunto de sucesos elementales. Ejemplo: lanzamos un dado y queremos que salga un nmero par. El suceso "numero pa r" es un suceso compuesto, integrado por 3 sucesos elementales: el 2, el 4 y el 6 O, por ejemplo, jugamos a la ruleta y queremos que salga "menor o igual que 18". Este es un suceso compuesto formado por 18 sucesos elementales (todos los nmeros que van del 1 al 18). Al conjunto de todos los posibles sucesos elementales lo denominamos espacio mue stral. Cada experimento aleatorio tiene definido su espacio muestral (es decir, un conjunto con todas las soluciones posibles). Ejemplo: si tiramos una moneda al are una sola vez, el espacio muestral ser cara o cruz. Si el experimento consiste en lanzar una moneda al aire dos veces, entonces el e spacio muestral estara formado por (cara-cara), (cara-cruz), (cruz-cara) y (cruzcruz) Probabilidad: Relacin entre sucesos Entre los sucesos compuestos se pueden establecer distintas relaciones: a) Un suceso puede estar contenido en otro: las posibles soluciones del primer s uceso tambin lo son del segundo, pero este segundo suceso tiene adems otras soluci ones suyas propias. Ejemplo: lanzamos un dado y analizamos dos sucesos: a) que salga el nmero 6, y b) que salga un nmero par. Vemos que el suceso a) est contenido en el suceso b). Siempre que se da el suceso a) se da el suceso b), pero no al contrario. Por eje mplo, si el resultado fuera el 2, se cumplira el suceso b), pero no el a). b) Dos sucesos pueden ser iguales: esto ocurre cuando siempre que se cumple uno de ellos se cumple obligatoriamente el otro y viceversa. Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga nmero pa r, y b) que salga mltiplo de 2. Vemos que las soluciones coinciden en ambos casos . c) Unin de dos o ms sucesos: la unin ser otro suceso formado por todos los elementos de los sucesos que se unen. Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga nmero pa r y b) que el resultado sea mayor que 3. El suceso unin estara formado por los sig uientes resultados: el 2, el 4, el 5 y el 6 d) Interseccin de sucesos: es aquel suceso compuesto por los elementos comunes de dos o ms sucesos que se intersectan. Ejemplo: lanzamos un dado al aire, y analizamos dos sucesos: a) que salga nmero p ar, y b) que sea mayor que 4. La interseccin de estos dos sucesos tiene un slo ele mento, el nmero 6 (es el nico resultado comn a ambos sucesos: es mayor que 4 y es nm ero par). e) Sucesos incompatibles: son aquellos que no se pueden dar al mismo tiempo ya q ue no tienen elementos comunes (su intereseccin es el conjunto vacio). Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga un nmero menor que 3, y b) que salga el nmero 6. Es evidente que ambos no se pueden dar a l mismo tiempo. f) Sucesos complementarios: son aquellos que si no se da uno, obligatoriamente s e tiene que dar el otro. Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga un nmero par, y b) que salga un nmero impar. Vemos que si no se da el primero se tiene qu e dar el segundo (y viceversa). TEOREMA DE BAYES En la teora de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 1763 que expresa la probabilidad condicional de un evento aleato rio A dado B en trminos de la distribucin de probabilidad condicional del evento B dado A y la distribucin de probabilidad marginal de slo A. En trminos ms generales y menos matemticos, el teorema de Bayes es de enorme releva ncia puesto que vincula la probabilidad de A dado B con la probabilidad de B dad o A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podra saber -si se tiene algn dato ms-, la probabilidad de tener

gripe si se tiene un dolor de cabeza, muestra este sencillo ejemplo la alta rel evancia del teorema en cuestin para la ciencia en todas sus ramas, puesto que tie ne vinculacin ntima con la comprensin de la probabilidad de aspectos causales dados los efectos observados. La interpretacin ms aceptada del teorema de Bayes, es que su estructura permite el clculo de probabilidades despus de haber sido realizado un experimento (probabili dades aposteriori), basndose en el conocimiento de la ocurrencia de ciertos event os que dependan del evento estudiado, o sea, se parte de probabilidades conocida s antes de efectuar el experimento (probabilidades apriori), las cuales son afec tadas por las probabilidades propias del experimento (las que aparecen durante l a ocurrencia del evento). Continuando nuestro anlisis sobre el teorema de Bayes, la probabilidad condiciona l de Ai dado B, para cualquier i, es: Aplicando en el numerador la Regla de Multiplicacin P(AiB) = P(Ai) P(B|Ai) y en el denominador el Teorema de Probabilidad Total P(B) = P(A1) P(B | A1) + P(A2) P( B | A2) + . . . + P(An) P(B | An), obtenemos la ecuacin que representa al: Teorema de Bayes Ejemplo N1 Referente al problema de la fbrica que produce dos tipos de reguladores A y B visto anteriormente en la aparte corresponde al Teorema de Probabilidad T otal, cabe hacer el siguiente anlisis: si se selecciona un regulador al azar de l a produccin de la fbrica y se ve que funciona bien Cul es la probabilidad de que sea del tipo B? Solucin: En este caso el estudio se restringe a los reguladores que funcionan bien, por l o que ese evento acta como espacio muestral reducido, o sea como evento condicin. Por lo tanto, el planteamiento de la pregunta es P(B | F). Los datos que se tienen son: P(A) = 0.75 P(F | A) = 0.95 P(B) = 0.25 P(F | B) = 0.98 De acuerdo al Teorema de Bayes: Podemos observar que el denominador corresponde al resultado obtenido al aplicar el Teorema de Probabilidad Total, lo cual debe ser as, ya que la probabilidad co ndicional establece que . De esta forma podemos ver que la Probabilidad Total es el denominador de la frmula del Teorema de Bayes. Tambin podemos observar que aplicando los conceptos de la Regla de Multiplicacin y del Teorema de Probab ilidad Total llegamos al planteamiento del teorema de Bayes, Veamos: Ejemplo N2:. Una fbrica que produce material para la construccin tiene 3 mquinas, a las que se les denomina A, B y C. La mquina A produce tabique, la B adoqun y la C losetas. La mquina A produce el 50% de la produccin total de la fbrica, la B el 30% y la C el 20%. Los porcentajes de artculos defectuosos producidos por las mquinas son, respectivamente, 3%, 4% y 5%. Si se selecciona un artculo al azar y se obse rva que es defectuoso, encontrar la probabilidad de que sea un tabique. Solucin Definamos el evento D como sea un artculo defectuoso. De acuerdo a esto tenemos q ue: P(A) = 0.5 P(D | A) = 0.03 P(B) = 0.3 P(D | B) = 0.04 P(C) = 0.2 P(D | C) = 0.05 Si el artculo del que deseamos calcular la probabilidad es un tabique, significa que es producido por la mquina A. Tambin observamos que en la solucin solamente par ticipan los artculos defectuosos, ya que se pone por condicin esta caracterstica. P or lo tanto: Ejemplo N 3:. A un congreso asisten 100 personas, de las cuales 65 son hombres y

35 son mujeres. Se sabe que el 10% de los hombres y el 6% de las mujeres son esp ecialistas en computacin. Si se selecciona al azar a un especialista en computacin Cul es la probabilidad de que sea mujer? Solucin Definamos los eventos: H: Sea un hombre M: Sea una mujer E: La persona sea especialista en computacin Tenemos que: Por lo tanto: Ejemplo N4: El 20% de los empleados de una empresa son ingenieros y otro 20% son economistas. El 75% de los ingenieros ocupan un puesto directivo y el 50% de los economistas tambin, mientras que los no ingenieros y los no economistas solament e el 20% ocupa un puesto directivo. Cul es la probabilidad de que un empleado dire ctivo elegido al azar sea ingeniero? p(ingeniero/directivo)=(0.2*0.75)/(0.2*0.75+0.2*0.5+0.6*0.2)=0.405 La probabilidad de que haya un accidente en una fbrica que dispone de alarma es 0 .1. La probabilidad de que suene esta s se ha producido algn incidente es de 0.97 y la probabilidad de que suene si no ha sucedido ningn incidente es 0.02. En el supuesto de que haya funcionado la alarma, cul es la probabilidad de que no haya habido ningn incidente? Sean los sucesos: I = Producirse incidente. A = Sonar la alarma. p(I/A)=(0.9*0.02)/(0.1*0.97+0.9*0.02)=0.157 PRUEBAS PARAMTRICAS Cuando se analizan datos medidos por una variable cuantitativa continua, las pru ebas estadsticas de estimacin y contraste frecuentemente empleadas se basan en sup oner que se ha obtenido una muestra aleatoria de una distribucin de probabilidad de tipo normal o de Gauss. Pero en muchas ocasiones esta suposicin no resulta vlid a, y en otras la sospecha de que no sea adecuada no resulta fcil de comprobar, po r tratarse de muestras pequeas. En estos casos disponemos de dos posibles mecanis mos: los datos se pueden transformar de tal manera que sigan una distribucin norm al, o bien se puede acudir a pruebas estadsticas que no se basan en ninguna supos icin en cuanto a la distribucin de probabilidad a partir de la que fueron obtenido s los datos, y por ello se denominan pruebas no paramtricas (distribution free), mientras que las pruebas que suponen una distribucin de probabilidad determinada para los datos se denominan pruebas paramtricas. Dentro de las pruebas paramtricas, las ms habituales se basan en la distribucin de probabilidad normal, y al estimar los parmetros del modelo se supone que los dato s constituyen una muestra aleatoria de esa distribucin, por lo que la eleccin del estimador y el clculo de la precisin de la estimacin, elementos bsicos para construi r intervalos de confianza y contrastar hiptesis, dependen del modelo probabilstico supuesto. Cuando un procedimiento estadstico es poco sensible a alteraciones en el modelo p robabilstico supuesto, es decir que los resultados obtenidos son aproximadamente vlidos cuando ste vara, se dice que es un procedimiento robusto. Las inferencias en cuanto a las medias son en general robustas, por lo que si el tamao de muestra es grande, los intervalos de confianza y contrastes basados en la t de Student son aproximadamente vlidos, con independencia de la verdadera dis tribucin de probabilidad de los datos; pero si sta distribucin no es normal, los re sultados de la estimacin sern poco precisos. Procedimientos para verificar el ajuste a una distribucin de probabilidad

Existen diferentes pruebas para verificar el ajuste de nuestros datos a una dist ribucin de probabilidad. Las dos ms utilizadas son el contraste de Pearson, y la prueba de Kolmogorov-Smirnov. Contraste de Pearson La idea del contraste de Pearson es muy sencilla: se agrupan los datos en k clas es (k>5), como si furamos a construir un histograma, cubriendo todo el rango posi ble de valores, siendo deseable disponer, aproximadamente, del mismo nmero de dat os en cada clase y al menos de tres datos en cada una. Llamamos Oi al nmero de datos observado en la clase i. Mediante el modelo de prob abilidad que se desea verificar se calcula la probabilidad Pi asignada a cada cl ase, y por lo tanto, para una muestra de n datos, la frecuencia esperada segn ese modelo de probabilidad es Ei=n.Pi. Se calcula entonces el siguiente ndice de discrepancia entre las frecuencias obse rvadas y las que era previsible encontrar si el modelo fuera el adecuado: que se distribuye aproximadamente como una si el modelo es correcto. Si el modelo se especifica de forma completa con las probabilidades Pi, conocida s antes de tomar los datos, el nmero de grados de libertad es k-1. Pero si se han estimado r parmetros del modelo a partir de los datos, entonces los grados de li bertad son k-r-1. Prueba de Kolmogorov-Smirnov Este contraste, que es vlido nicamente para variables continuas, compara la funcin de distribucin (probabilidad acumulada) terica con la observada, y calcula un valo r de discrepancia, representado habitualmente como D, que corresponde a la discr epancia mxima en valor absoluto entre la distribucin observada y la distribucin teri ca, proporcionando asimismo un valor de probabilidad P, que corresponde, si esta mos verificando un ajuste a la distribucin normal, a la probabilidad de obtener u na distribucin que discrepe tanto como la observada si verdaderamente se hubiera obtenido una muestra aleatoria, de tamao n, de una distribucin normal. Si esa prob abilidad es grande no habr por tanto razones estadsticas para suponer que nuestros datos no proceden de una distribucin, mientras que si es muy pequea, no ser acepta ble suponer ese modelo probabilstico para los datos. Prueba de Shapiro-Wilks Aunque esta prueba es menos conocida es la que se recomienda para contrastar el ajuste de nuestros datos a una distribucin normal, sobre todo cuando la muestra e s pequea (n<30). Mide el ajuste de la muestra a una recta, al dibujarla en papel probabilstico nor mal. Este tipo de representacin tambin lo proporcionan algunos programas de estadst ica, de tal manera que nos permite adems apreciar el ajuste o desajuste de forma visual: En escala probabilstica normal se representa en el eje horizontal, para cada valo r observado en nuestros datos, la funcin de distribucin o probabilidad acumulada o bservada, y en el eje vertical la prevista por el modelo de distribucin normal. S i el ajuste es bueno, los puntos se deben distribuir aproximadamente segn una rec ta a 45. En la imagen vemos que en este ejemplo existe cierta discrepancia. En cualquier caso siempre es adecuado efectuar una representacin grfica de tipo hi stograma de los datos, y comparar el valor de la media y la mediana, as como eval uar el coeficiente de asimetra y apuntamiento, adems de llevar a cabo una represen tacin en escala probabilstica de la distribucin de probabilidad esperada versus obs ervada, como la de la figura. Posibles soluciones cuando se rechaza la hiptesis de normalidad Si rechazamos o dudamos de la normalidad de nuestros datos, existen varias soluc iones posibles: Si la distribucin es ms apuntada que la normal (mayor parte de los valores agrupados en torno de la media y colas ms largas en los extremos), se debe inves tigar la presencia de heterogeneidad en los datos y de posibles valores atpicos o errores en los datos. La solucin puede ser emplear pruebas no paramtricas. Si la distribucin es unimodal y asimtrica, la solucin ms simple y efectiva s uele ser utilizar una transformacin para convertir los datos en normales.

Cuando la distribucin no es unimodal hay que investigar la presencia de h eterogeneidad, ya que en estos casos la utilizacin de transformaciones no es adec uada y los mtodos no paramtricos pueden tambin no serlo. Una alternativa muy interesante a los mtodos paramtricos y a las pruebas n o paramtricas clsicas, la constituye la metodologa de estimacin autosuficiente ya es bozada en otro artculo de esta serie. Transformaciones para conseguir datos normales La utilizacin de transformaciones para lograr que los datos se ajusten a una dist ribucin normal es en muchas ocasiones la solucin ms natural, ya que existen gran ca ntidad de parmetros biolgicos que tienen una distribucin asimtrica como la de la fig ura de la izquierda, y que se convierten en aproximadamente simtricas al transfor marlas mediante el logaritmo. Tenemos problemas con la transformacin logartmica ln(x) si la variable puede tomar el valor 0, por lo que en esos casos, o incluso si existen valores muy pequeos, ser adecuado emplear la transformacin ln(x+1). Cuando la desviacin tpica de los dato s es proporcional a la media o cuando el efecto de los factores es multiplicativ o, en lugar de aditivo, est indicado el uso de la transformacin logartmica. Otra transformacin posible es , que es aplicable cuando las varianzas son proporc ionales a la media, lo que ocurre a menudo cuando los datos provienen de una dis tribucin de Poisson (recuentos). Otra transformacin habitualmente empleada es 1/x, que tambin precisa que sumemos u na cantidad a cada valor si existen ceros. Estas tres transformaciones comprimen los valores altos de los datos y expanden los bajos, en sentido creciente en el siguiente orden: (la que menos), ln x, 1/ x. Si la concentracin de datos est, a diferencia de la figura anterior, en el lado de la derecha y la cola en la izquierda, se puede utilizar la transformacin x, que c omprime la escala para valores pequeos y la expande para valores altos. Cuando los datos son proporciones o porcentajes de una distribucin binomial, las diferencias con una distribucin normal son ms acusadas para valores pequeos o grand es de las proporciones, utilizndose entonces transformaciones basadas en . En todos los casos para los clculos estadsticos basados en la teora normal, se util izarn los valores transformados, pero despus para la presentacin de los resultados se efectuar la transformacin inversa para presentarlos en su escala de medida natu ral. Ms abajo se proporcionan algunos enlaces sobre el tema de las transformaciones, d e fcil lectura. Prueba de hiptesis Una hiptesis estadstica, es una afirmacin conjetura acerca de una ms poblaciones. La aceptacin de una hiptesis implica tan slo que los datos no proporcionan evidenci as suficientes para refutarla. Por otro lado, el rechazo implica que la evidenci a de la muestra la refuta. Hiptesis nula (H0) se refiere a cualquier hiptesis que se desea probar. El rechazo de H0 da como resultado la aceptacin de la hiptesis alterna (Ha). Una H0 referente a un parmetro poblacional, ser establecida en forma tal que espec ifique un valor exacto del parmetro, mientras que la Ha admite la posibilidad de varios valores. Ejemplo: Si H0: p= 0,5 la Ha seria los siguientes valores p> 0,5; p< 0,5 p 0, 5. Rechazar la H0 cuando es verdadera se llama error tipo I. Aceptar la H0 cuando en realidad es falsa se llama error tipo II. La probabilidad de cometer un error tipo I se denomina nivel de significacin y se denota por , es decir, . Y la probabilidad de cometer un error tipo II se denot a por , es decir, . Situaciones posibles al probar una hiptesis. H0 es verdadera H0 es falsa Se acepta H0 Decisin correcta Error tipo II Se rechaza H0 Error tipo I Decisin correcta

Hay que dejar claro que al trabajar con una muestra y no con toda la poblacin, el rechazar no rechazar la hiptesis nula puede llevar a un error. La idea original para realizar el contraste de hiptesis se debe a Fisher y consis te en contrastar la H0 realizar un experimento y calcular la probabilidad en enc ontrar los resultados del experimento u otros ms alejados de la H0, aceptando que la H0 es cierta. Esta probabilidad llamada valor p p valor se puede utilizar como ndice de la fuerza p robatoria de los datos contra H0, cuando menor sea p, mayor ser la carga probator ia en contra de H0. Se llama potencia a la probabilidad de rechazar H0 siendo H0 falsa, es decir, po tencia = 1Pasos necesarios para realizar un contraste relativo a un parmetro de la poblacin. 1.- Establecer la hiptesis nula y la hiptesis alterna. 2.- Elegir un nivel de significacin nivel crtica 3.- Seleccione el estadstico de prueba que se emplear para probar la hiptesis. 4.- Rena los datos mustrales y calcule el valor del estadstico de prueba que selecc iono. 5.- Use el valor del estadstico de prueba para calcular el valor de p. 6.- Rechace H0 si p < Observacin: Si H0: = 0 , Ha se puede expresar de tres maneras Ha: 0 Ha: > < 0 El primer caso, se habla de contraste bilateral o de dos colas, y en los otros d os de lateral (derecho en el segundo caso izquierdo en el tercer caso) de una co la. Casos a estudiar. Prueba unilateral sobre la media de una poblacin. Contraste de hiptesis con muestra grande (n 30), H0: 0 (valor dado) Ha: < 0 Estadstico de prueba: se supone que se conoce Estadstico de prueba: se estima mediante s 30),

Regla de rechazo: Con p valor, rechazar H0 si p < Contraste de hiptesis con muestra grande (n H0: 0 (valor dado) Ha: > 0 Estadstico de prueba: se supone que se conoce Estadstico de prueba: se estima mediante s

Regla de rechazo: Con p valor, rechazar H0 si p < c.- Contraste de hiptesis con muestra pequea (n < 30), H0: 0 (valor dado) Ha: < 0 Estadstico de prueba: se supone que se conoce Estadstico de prueba: se estima mediante s con g.l. n-1 Prueba bilateral sobre la media de una poblacin. Contraste de hiptesis con muestra grande (n 30), H0: = 0 (valor dado) Ha: 0 Estadstico de prueba: se supone que se conoce

Estadstico de prueba: se estima

mediante s

Regla de rechazo: Con p valor, rechazar H0 si p < Contraste sobre la proporcin de una poblacin binomial. Se procede de la misma manera que la prueba de la media. Con el estadstico de prueba: Y se rechaza H0 si p valor es menor que . Otra manera de hacer contraste de hiptesis es la siguiente: Contraste de la media de una poblacin con conocido Contraste bilateral H0: = 0 Ha: 0 Se acepta H0 si Se rechaza H0 si Contraste unilateral H0: 0 Ha: > 0 Se acepta H0 si Se rechaza H0 si Contraste de la media de una poblacin con desconocida Contraste bilateral Muestra grande n 30 H0: = 0 Ha: 0 Se acepta H0 si Se rechaza H0 si Muestra pequea n < 30 H0: = 0 Ha: 0 Se acepta H0 si Se rechaza H0 si Contraste unilateral Muestra grande n 30 H0: 0 Ha: > 0 Se acepta H0 si Se rechaza H0 si Muestra pequea n< 30 H0: 0 Ha: > 0 Se acepta H0 si Se rechaza H0 si Contraste para el parmetro p de una poblacin binomial Contraste bilateral H0: p = p0 Ha: p p0 Se acepta H0 si Se rechaza H0 si Contraste unilateral H0: p p0 Ha: p > p0 Se acepta H0 si Se rechaza H0 si DISTRIBUCIN DE PROBABILIDADES DISCRETAS PROBLEMA

Hay una campaa en un centro mdico del poblado de Ucayali, sobre paternidad respons able a un grupo de mujeres. Una vez finalizada la charla se les entrega un papel ito con una nica pregunta: Deseara usted ser esterilizada? 1. Si 2. No Usted alumna de la maestra en Salud Publica con mencin en Salud Reproductiva, est i nteresada en investigar si las charlas tienen un efecto favorable en el sentido de que las mujeres se decidan a ser sometidas a la esterilizacin. Ante este tipo de situaciones en la cual uno se encuentra todos los das, tenemos que acudir a las Distribuciones de Probabilidades. En nuestro ejemplo, la variab le Deseo ser esterilizada, es una variable cualitativa, discreta. Por lo tanto s e requieren de las Distribuciones de Probabilidades Discretas. Que es la que est udiaremos en este trabajo. VARIABLE ALEATORIA Una variable se dice que es aleatoria, si los posibles valores que puede tomar s on determinados por el azar. En otras palabras se sabe qu valores puede tomar la variable pero no se tiene certeza de su ocurrencia, slo se sabe que puede ocurrir con una cierta probabilidad. Por ejemplo, en una epidemia de clera, se sabe que una persona cualesquiera puede enfermar o no (eventos), pero no se sabe cul de lo s dos eventos va a ocurrir. Solamente se puede decir que existe una probabilidad de que la persona enferme. Las variables aleatorias se clasifican: Discretas: aquellas que resultan de contar el nmero de casos en los que e l evento de inters ocurre, por ejemplo: nmero de hijos de una familia, nmero de vec es que llega una paciente al servicio de emergencia, etc. Continuas: aquellas que resultan producto de una medicin, por ejemplo: el peso, el nivel de hemoglobina, etc. VALOR ESPERADO Se llama tambin esperanza matemtica. Se trata de un operador matemtico que al ser a plicado a la funcin probabilidad permite el clculo de ese valor en el caso discret o, mientras que en el caso continuo se lo aplica a la funcin frecuencia: DISTRIBUCION DE PROBABILIDADES DISCRETAS Sigamos con nuestro ejemplo del centro mdico de departamento de Ucayali. Nuestra variable de inters seria: Deseo ser esterilizada. Supongamos que a la charla asistieron tres mujeres, entonces definimos como vari able aleatoria a: X: Nmero de mujeres que desearan ser esterilizadas. Antes de hacerles la pregunta sobre su deseo de ser esterilizadas, puede conside rar las posibles respuestas: X = 0 Ninguna deseara ser esterilizada X = 1 Slo una de las mujeres deseara X = 2 Dos mujeres desearan X = 3 Las tres mujeres desearan Antes de verificar las respuestas de las 3 mujeres seleccionada; no sabe cuntas e starn de acuerdo en ser esterilizadas, pero si conociera las probabilidades de oc urrencia de cada uno de los posibles valores de la variable podra predecir su ocu rrencia con una cierta probabilidad. El conjunto de las probabilidades de ocurre ncia de los posibles valores de la variable aleatoria se denomina distribucin de probabilidades. En nuestro ejemplo: A esto se le llama distribucin de probabilidades discreta. Discreta porque la var iable X deseo ser esterilizada es discreta. Nosotros estudiaremos dos tipos de distribuciones de probabilidades discretas: l a Binomial y la de Poisson, para su solucin, utilizaremos las matemticas y tambin e l Excel. DISTRIBUCION BINOMIAL Esta distribucin se basa en el proceso de Bernoulli. Se denominan procesos de tip o Bernoulli, a todo experimento consistente en una serie de pruebas repetidas, c

aracterizadas por tener resultados que se pueden clasificar en si verifican o no cierta propiedad o atributo, siendo aleatorios e independientes. Para identificar un proceso Bernoulli en una serie de pruebas repetidas, se debe n verificar tres condiciones: Resultados dicotmicos: Los resultados de cada prueba se pueden clasificar en xito si verifican cierta condicin, o fracaso en el caso contrario. Independencia de las pruebas: El resultado de una prueba cualquiera es i ndependiente del resultado obtenido en la prueba anterior, y no incide en el res ultado de la prueba siguiente. Estabilidad de las pruebas: La probabilidad p de obtener un resultado co nsiderado como un xito se mantiene constante a lo largo de toda la serie de prueb as. Cuando en un proceso del tipo Bernoulli se desea saber la probabilidad de obtene r exactamente r xitos, en una serie de n pruebas, con una probabilidad de xito p, se puede aplicar la frmula de la probabilidad binomial: X = 0, 1, 2, , n. La media o valor esperado es = np La varianza 2 = np(1-p) Veamos el siguiente ejemplo: Sea el caso de una droga X, con una dosis mortal de 1g/100 ml para cobayos exper imentales, en el 25% de los casos. Aplicando esta dosis a cien cobayos se desea saber cunto vale la probabilidad de que mueran veinte de ellos. Primero analizaremos si este caso cumple los supuestos bsicos de una distribucin b inomial: Los cobayos mueren (xito) o sobreviven (fracaso). Que un cobayo muera con la dosis, no significa que lo har el siguiente (i ndependencia) pues no se trata de una epidemia. La probabilidad de que mueran se mantiene constante a lo largo de la ser ie de pruebas (p = 0,25). Entonces, como si cumple los supuestos bsicos, aplicamos la formula: Mucha matemtica. No se preocupen, tenemos al Excel Ingresamos la informacin y listo P(x=20) = 0.0493 Veamos otro ejemplo: En una farmacia se ha calculado la probabilidad de venderle a un cliente con obr a social es del 20%. Se eligen al azar 15 clientes de ese tipo que ingresan al n egocio y se desea calcular la probabilidad de concretar menos de tres ventas. Si se cumple los supuestos bsicos de la distribucin binomial, entonces: P(x<3) = P(x=0) + P(x=1) + P(x=2) Matemticamente esto se resuelve as:

Entonces: P(x<3) = 0.0352 + 0.1319 + 0.2309 = 0.398 Ahora los hacemos con el Excel. Matemticamente P(x<3) = P(x 2) . El Excel calcula siempre o igualdad o menor igual . Cuando queremos menor igual, en la opcin de acumulado ingresamos VERDADERO. Entonces P(x<3) = 0.398 DISTRIBUCION POISSON Se denominan procesos de tipo Poisson, a todo experimento consistente en una ser ie de pruebas repetidas dentro de un continuo, caracterizadas por tener resultad os que se pueden clasificar en si verifican o no, cierta propiedad o atributo, s iendo aleatorios e independientes del lugar que ocurren dentro del continuo. Para identificar un proceso Poisson en una serie de pruebas repetidas, se deben verificar tres condiciones:

Sucesos puntuales: Los sucesos ocurren dentro de un continuo (espacio o tiempo) y ocupan una parte infinitesimal del mismo. Es decir, en el espacio un s uceso es puntual y en el tiempo es instantneo. En trminos prcticos, los sucesos no ocupan una parte apreciable del continuo. Sucesos independientes: La ocurrencia de un suceso en un lugar del conti nuo no condiciona la ocurrencia del anterior (o del siguiente) en otra parte del mismo. Probabilidad constante: La probabilidad de ocurrencia de un suceso en un lugar del continuo es la misma en todo punto del mismo. Son ejemplos de este tipo de proceso: la llegada de pacientes a una cola o lnea de espera, los accidentes en una ruta, etc. Esta probabilidad se aproxima a la binomial cuando la probabilidad de xito es muy pequea, por eso muchos la llaman: la binomial de los sucesos raros. Cuando en un proceso del tipo Bernoulli se desea saber la probabilidad de obtene r exactamente x xitos en un intervalo de tiempo, con un promedio de eventos esper ados , se puede aplicar la frmula de la probabilidad de Poisson: X = 0, 1, 2, ., n e = 2.71828 (es una constante, la base de los logaritmos naturales) Veamos el siguiente ejemplo: Supongamos que estamos investigando la seguridad de una peligrosa inteleccin de c alles, los registros policacos indican una media de 5 accidentes mensuales en est a interseccin. El departamento de seguridad vial desea que calculemos la probabilidad de que en cualquier mes ocurran exactamente 3 accidentes. Analizando el problema, este situacin se ajusta a un proceso de Poisson, hay una secuencia de llegada (por ms que exista un choque mltiple, siempre hay uno que cho ca primero). Tenemos la siguiente informacin: = 5 accidentes por mes x = 3 accidentes por mes Aplicando la formula de la probabilidad de Poisson: Ahora lo hacemos con el Excel: Ingresamos la informacin y listo P(x=3) = 0.14037

Ahora planteamos otra pregunta: Cul sera la probabilidad de que sucedan como mximo 2 accidentes en un mes? En este caso sera: P( x 2) = P(x=0) + P(x=1) + P(x=2) Matemticamente: Resolvindolo con el Excel, tenemos: Ingresamos los datos y listo P(x 2) = 0.12465 DISTRIBUCIN DE BERNOULLI En teora de probabilidad y estadstica, la distribucin de Bernoulli (o distribucin di cotmica), nombrada as por el matemtico y cientfico suizo Jakob Bernoulli, es una dis tribucin de probabilidad discreta, que toma valor 1 para la probabilidad de xito ( ) y valor 0 para la probabilidad de fracaso (q=1-p). Si es una variable aleatoria que mide "nmero de xitos", y se realiza un nico exper imento con dos posibles resultados (xito o fracaso), se dice que la variable alea toria se distribuye como una Bernoulli de parmetro . X~Be(p) La frmula ser: f(x)=p^x (1-p)^(1-x) Su funcin de distribucin viene definida por: f(x;p)={(p si x=1,@q si x=0,@0 en cualquier otro caso) Un experimento al cual se aplica la distribucin de Bernoulli se conoce como Ensay o de Bernoulli o simplemente ensayo, y la serie de esos experimentos como ensayo

s repetidos. Propiedades caractersticas Esperanza matemtica: Varianza: Funcin generatriz de momentos: Funcin caracterstica: Moda: 0 si q > p (hay ms fracasos que xitos) 1 si q < p (hay ms xitos que fracasos) 0 y 1 si q = p (los dos valores, pues hay igual nmero de fracasos que de xitos) Asimetra (Sesgo): Curtosis: La Curtosis tiende a infinito para valores de cercanos a 0 a 1, pero para la d istribucin de Bernoulli tiene un valor de curtosis menor que el de cualquier otra distribucin, igual a -2. Distribuciones Relacionadas Si son variables aleatorias identicamente distribuidas con la distribu cin de Bernoulli con la misma probabilidad de xito en todas, entonces la variable aleatoria presenta una Distribucin Binomial de probabilidad. Ejemplo "Lanzar una moneda, probabilidad de conseguir que salga cruz". Se trata de un solo experimento, con dos resultados posibles: el xito (p) se cons iderar sacar cruz. Valdr 0,5. El fracaso (q) que saliera cara, que vale (1 - p) = 1 - 0,5 = 0,5. La variable aleatoria X medir "nmero de cruces que salen en un lanzamiento", y slo existirn dos resultados posibles: 0 (ninguna cruz, es decir, salir cara) y 1 (una cruz). Por tanto, la v.a. X se distribuir como una Bernoulli, ya que cumple todos los re quisitos.

Ejemplo: "Lanzar un dado y salir un 6". Cuando lanzamos un dado tenemos 6 posibles resultados: Estamos realizando un nico experimento (lanzar el dado una sola vez). Se considera xito sacar un 6, por tanto, la probabilidad segn la principio de indi ferencia de Laplace (casos favorables dividido entre casos posibles) ser 1/6. Se considera fracaso no sacar un 6, por tanto, se considera fracaso sacar cualqu ier otro resultado. La variable aleatoria X medir "nmero de veces que sale un 6", y solo existen dos v alores posibles, 0 (que no salga 6) y 1 (que salga un 6). Por tanto, la variable aleatoria X se distribuye como una Bernoulli de parmetro = 1/6 La probabilidad de que obtengamos un 6 viene definida como la probabilidad de qu e X sea igual a 1. La probabilidad de que NO obtengamos un 6 viene definida como la probabilidad de que X sea igual a 0.

DISTRIBUCIN GEOMTRICA. Esta distribucin es un caso especial de la Binomial, ya que se desea que ocurra u n xito por primera y nica vez en el ltimo ensayo que se realiza del experimento, pa ra obtener la frmula de esta distribucin, haremos uso de un ejemplo. Ejemplo: Se lanza al aire una moneda cargada 8 veces, de tal manera que la probabilidad d e que aparezca guila es de 2/3, mientras que la probabilidad de que aparezca sell o es de 1/3, Determine la probabilidad de que en el ltimo lanzamiento aparezca un a guila. Solucin: Si nosotros trazamos un diagrama de rbol que nos represente los 8 lanzamientos de la moneda, observaremos que la nica rama de ese rbol que nos interesa es aquella en donde aparecen 7 sellos seguidos y por ltimo una guila; como se muestra a conti nuacin: S S S S S S S A S denotamos; x = el nmero de repeticiones del experimento necesarias para que ocurra un xito p or primera y nica vez = 8 lanzamientos p = probabilidad de que aparezca una guila = p( xito) = 2/3 q = probabilidad de que aparezca un sello = p(fracaso) = 1/3 Entonces la probabilidad buscada sera; P (aparezca una guila en el ltimo lanzamiento) = p(S)*p(S)*p(S)*p(S)*p(S)*p(S)*p(S )*p(A) = =q*q*q*q*q*q*q*p = Luego, la frmula a utilizar cuando se desee calcular probabilidades con esta dist ribucin sera; Donde: p(x) = probabilidad de que ocurra un xito en el ensayo x por primera y nica vez p = probabilidad de xito q = probabilidad de fracaso Resolviendo el problema de ejemplo; x = 8 lanzamientos necesarios para que aparezca por primera vez una guila p = 2/3 probabilidad de que aparezca una guila q = 1/3 probabilidad de que aparezca un sello p(x=8) = Ejemplos: S la probabilidad de que un cierto dispositivo de medicin muestre una desv iacin excesiva es de 0.05, cul es la probabilidad de que; a) el sexto de estos dis positivos de medicin sometidos a prueba sea el primero en mostrar una desviacin ex cesiva?, b) el sptimo de estos dispositivos de medicin sometidos a prueba, sea el primero que no muestre una desviacin excesiva?. Solucin: a) x = 6 que el sexto dispositivo de medicin probado sea el primero que mues tre una variacin excesiva p = 0.05 =probabilidad de que un dispositivo de medicin muestre una variacin exces iva q = 0.95 =probabilidad de que un dispositivo de medicin no muestre una variacin ex cesiva p(x = 6) = b) x = 5 que el quinto dispositivo de medicin probado, sea el primero que no muestre una desviacin excesiva p = 0.95 = probabilidad de que un dispositivo de medicin no muestre una variacin e xcesiva q = 0.05 = probabilidad de que un dispositivo de medicin muestre una variacin exce siva p(x = 5) = Los registros de una compaa constructora de pozos, indican que la probabil idad de que uno de sus pozos nuevos, requiera de reparaciones en el trmino de un

ao es de 0.20. Cul es la probabilidad de que el quinto pozo construido por esta com paa en un ao dado sea el primero en requerir reparaciones en un ao?. Solucin: x = 5 que el quinto pozo sea el primero que requiera reparaciones en un ao p = 0.20 = probabilidad de que un pozo requiera reparaciones en el trmino de un ao q = 0.80 = probabilidad de que un pozo no requiera reparaciones en el trmino de u n ao p(x = 5) = DISTRIBUCIN BINOMIAL NEGATIVA. Esta tambin es un caso especial de la distribucin Binomial, ya que en este caso se trata de que al llevar a efecto varias veces un experimento binomial, se desea determinar la probabilidad de que ocurran r xitos, solo que el ltimo de ellos debe ocurrir en el k-simo ensayo o repeticin del experimento que es el ltimo. Para encontrar una frmula que nos permita calcular probabilidades con esta distri bucin, partiremos de un ejemplo. Ejemplo: Se lanza al aire una moneda cargada 8 veces, de tal manera que la probabilidad d e que aparezca guila es de 2/3, mientras que la probabilidad de que aparezca sell o es de 1/3, Determine la probabilidad de que aparezcan tres guilas, y la ltima qu e aparezca sea en el ltimo lanzamiento. Solucin: S trazamos un diagrama de rbol que nos represente los 8 lanzamientos de la moneda, encontraremos que las ramas que nos interesan son aquellas en donde aparecen 3 g uilas y la ltima de ellas aparece en el ltimo lanzamiento; ejemplos de una rama qu e nos interesa sera; SAASSSSA, SSASSSAA, ASSASSSA, etc., etc. Entonces la probabilidad se puede determinar de la siguiente forma: (Probabilidad de que aparezcan Tres guilas, donde la ltima de ellas aparece en el l timo lanzamiento de la moneda)=(# de ramas del rbol en donde la tercera guila que aparece est en el octavo lanzamiento)(probabilidad asociada a cada rama) Luego, definiendo algunos trminos a utilizar; Y = k = nmero de lanzamientos necesarios para que se obtenga una guila por r-sima v ez = 8 lanzamientos r = nmero de veces que aparece un xito = 3 guilas p = probabilidad de xito = p(aparezca guila) = 2/3 q = probabilidad de fracaso = p(aparezca sello) = 1/3 Luego, el nmero de ramas que nos interesan del rbol se podra determinar de la sigui ente forma: # de ramas = Cul es la razn de que se tomen k-1 ensayos y r-1 xitos al momento de calcular el nmer o de ramas que nos interesan? Lo anterior se debe a que en el ltimo ensayo siempre va a haber un xito, por lo qu e como ste no se va a mover como lo hacen los xitos anteriores, entonces no se tom a en cuenta para el clculo de las ramas que nos interesan. Y la probabilidad asociada a cada rama sera; Probabilidad asociada a cada rama = p(S)*p(A)*p(A)*p(S)*p(S)*p(S)*p(S)*p(A) = q*p*p*q*q*q*q*p = Por lo tanto, la frmula a utilizar sera: Donde: P(Y=k) = probabilidad de que ocurran r xitos en k ensayos y que el ltimo de ellos que es el r-simo, ocurra en el k-simo ensayo que es el ltimo. r = nmero de xitos k = nmero de ensayos para obtener r xitos p = p(xito) = p(aparezca guila) q = p(fracaso) = p(aparezca sello) = 1-p Ejemplos: 1. S la probabilidad de que un cierto dispositivo de medicin muestre una desviacin excesiva es de 0.05, cul es la probabilidad de que; a) el sexto de estos disposi tivos de medicin sometidos a prueba sea el tercero en mostrar una desviacin excesi

va?, b) el sptimo de estos dispositivos de medicin sometidos a prueba, sea el cuar to que no muestre una desviacin excesiva?. Solucin: a) k = 6 dispositivos de medicin r = 3 dispositivos que muestran desviacin excesiva p = p(dispositivo muestre una desviacin excesiva) = 0.05 q = p(dispositivo no muestre una desviacin excesiva) = 0.95 p(Y = 6) = b) k = 7 dispositivos de medicin r = 4 dispositivos que no muestran una desviacin excesiva p = p(dispositivo no muestre una desviacin excesiva) = 0.95 q = p(dispositivo muestre una desviacin excesiva) = 0.05 p(Y = 7) = 2. Los registros de una compaa constructora de pozos, indican que la probabilidad de que uno de sus pozos nuevos, requiera de reparaciones en el trmino de un ao es de 0.20. a) Cul es la probabilidad de que el sexto pozo construido por esta com paa en un ao dado sea el segundo en requerir reparaciones en un ao?. b) Cul es la probabilidad de que el octavo pozo construido por esta compaa en un ao dado sea el tercero en requerir reparaciones en un ao?. Solucin: a) k = 6 pozos r = 2 pozos que requieren reparaciones en un ao p = p(pozo requiera reparaciones en un ao) = 0.20 q = p(pozo no requiera reparaciones en un ao) = 0.80 p(Y = 6) = b) k = 8 pozos r = 3 pozos que requieren reparaciones en un ao p = p(pozo requiera reparaciones en un ao) = 0.20 q = p(pozo no requiera reparaciones en un ao) = 0.80 p(Y = 8) = DISTRIBUCIN HIPERGEOMTRICA Por claridad, consideremos el siguiente ejemplo: Tenemos una baraja de cartas es paolas (N=40 naipes), de las cuales nos vamos a interesar en el palo de oros (D=1 0 naipes de un mismo tipo). Supongamos que de esa baraja extraemos n=8 cartas de una vez (sin reemplazamiento) y se nos plantea el problema de calcular la proba bilidad de que hayan k=2 oros (exactamente) en esa extraccin. La respuesta a este problema es En lugar de usar como dato D es posible que tengamos la proporcin existente, p, e ntre el nmero total de oros y el nmero de cartas de la baraja de modo que podemos decir que Este ejemplo sirve para representar el tipo de fenmenos que siguen una ley de dis tribucin hipergeomtrica. Diremos en general que una v.a. X sigue una distribucin hi pergeomtrica de parmetros, N, n y p, lo que representamos del modo , si su funcin de probabilidad es Observacin Cuando el tamao de la poblacin (N) es muy grande, la ley hipergeomtrica tiende a ap roximarse a la binomial: El valor esperado de la hipergeomtrica es el mismo que el de la binomial, sin embargo su varianza no es exactamente la de la binomial, pues est corregida por un factor, , que tie nde a 1 cuando . A este factor se le denomina factor de correccin para poblacin f inita. APROXIMACIN POISSON A LA DISTRIBUCIN BINOMIAL

Si n es grande y p es pequeo tenemos la siguiente aproximacin: Teorema Si n y p 0 en forma tal que np a entonces C(n,k) pkqn k e a ak / k! Demostracin Definimos an = np as que an a. Tenemos que: = Ejemplo Se distribuyen al azar n bolillas entre n cajas. Cual es la probabilidad de enc ontrar k bolillas en una dada caja ? C(n,k) (1/n)k (1 1/n)n k e 1 / k! Ejemplo Durante la segunda guerra mundial cayeron sobre Londres 537 bombas voladoras. El rea afectada fu dividida en 576 sectores iguales. Sea Nk el nmero real de sectores en los cuales cayeron k bombas. Suponiendo que las bombas cayeron al azar, el nmero esperado de bombas por sector es 537/576= 0.932. La probabilidad que caigan k bombas en un sector, segn la aproximacin Poisson , es Pk= e 0.932 (0.932)k / k! L a tabla adjunta muestra la comparacin entre real y terico: k 0 1 2 3 4 5 Nk 229 211 93 35 7 1 576 Pk 226 211 99 31 7 2 Proceso Poisson A lo largo del eje positivo del tiempo (t>0) se presentan aleatoriamente eventos . Por ejemplo, una sustancia radioactiva emite partculas o llegan llamadas a una central telefnica. El modelo ms simple para describir este tipo de proceso es el q ue se describe a continuacin. Para 0 u<t llamemos Ak(u,t] = {en el intervalo (u,t] se emiten k partculas}. Haremos las siguientes hiptesis. I) El proceso es homogneo con respecto al tiempo: P{A(u,t]} = Pk(t u) II) Lo que ocurre en intervalos disjuntos es independiente: Ak(u,t] y Ak(t,v] son independientes. III) La probabilidad que se presenten simultneamente 2 o ms eventos es imposible. Esto se puede expresar imponiendo la condicin de que la probabilidad que se prese nten 2 o mas eventos en el intervalo (0,t] ,dado que se present un evento en dich o intervalo, tiende a 0 con t. Esto es equivalente a la condicin: Demostraremos que I), II) y III) implican que Pk(t)= e t ( t)k / k! (A) Demostracin Realizaremos la demostracin en 4 pasos. 1) De la definicin de Ak(u,t] resulta: Ak(0,t+s] = Ak(0,t] A0(t,t+s] + Ak 1(0,t] A1(t,t+s] + ... + A0(0,t] Ak(t,t+s] De los axiomas I) y II) resulta : Pk(t+s) = Pk(t) P0(s) + Pk 1(t) P1(s) + ... + P0(t) Pk(s) (B) 2) Demostraremos que P0(t)= e t donde >0. (C) De (B) resulta para k=0 que P0(t+s) = P0(t) P(s). Esto muestra que P0(t) es no c reciente. Adems, si r y s son enteros positivos deducimos que: P0(r/s) = [P0(1/s)]r Para el caso particular r=s se deduce P0(1/s) = [P0(1)]1/s . Reemplazando: P0(r/s) = [P0(1)]r/s Como P0(t) es no creciente debemos tener 0 P0(1) 1. P0(1)= 1 implica P0(t) = 1 para t racional lo que contradice III) P0(1)= 0 implica por (B) P1 (t+s)=0 lo que tambien contradice III) Por lo tanto, existe >0 tal que P0(1) = e . Esto demuestra (C) para t racional. Sea t>0 un nmero real y dos sucesiones de numeros racionales tales que rn t y sn t entonces:

exp( rn) P0(t) exp( sn) Tomando el lmite queda demostrado (C). 3) De (C) resulta: [1 P0(t)] / t cuando t 0 Aplicando este resultado en III) resulta: P1(t) / t cuando t 0 (D2) Finalmente observamos que 0 P0(t) + P1(t) + Pk(t) 1. De donde: 0 Pk(t) / t P1(t) / t + [1 P0(t)] / t . De donde: Pk(t)/ t 0 cuando t 0 (k 2) (D3) 4) A partir de (B) obtenemos: Haciendo s 0 y teniendo en cuenta (D1), (D2) y (D3) resulta: Pk(t) = Pk(t) + Pk 1(t) e t [Pk(t) + Pk(t)] = e t Pk 1(t) El primer miembro es la derivada de e t Pk(t). Integrando resulta:

(D1)

Para k=1 se obtiene P1(t) = t e t. Por induccin resulta (A) Interpretacin de Llamemos (t) = nmero de eventos en el intervalo (0,t]. Para cada t, (t) es una va riable aleatoria con distribucin Poisson. Tenemos que E{ t} = t. Por lo tanto, es el nmero esperado de eventos que se presentan en la unidad de tiempo. En el proceso Poisson llamemos n = instante en que ocurre el ensimo evento. Hallar emos la funcin densidad de n computando (1/ x) lim P{x< n x x} cuando x 0. Llamemos: Aj= {j eventos ocurren en (0,x] } Bk= {Por lo menos k eventos ocurren en (x,x x]} Tenemos que P{x< n x x}= P{A0Bn A1Bn 1 ... An 1B1} = P{A0Bn ... + An 2B2} P{An 1B1} Observemos que P{B2} = 1 P0( x) P1 ( x). Por lo tanto, P{B2}/ x 0 cuando x 0. Como A0Bn ... + An 2B2 B2 resulta que P{A0Bn ... + An 2B2}/ x 0. Por otra parte, P{B1An 1}= [1 P0( x )] e x ( x)n 1 / (n 1)! En consecuencia la funcin densidad de n est dada por: La distribucin gamma La funcin gamma se define por:

Observamos que: (1) = 1 Por integracin por partes resulta la ecuacin funcional: (a) = a (a 1) De donde se obtiene para n entero positivo: (n) = (n 1)! De la definicin obtenemos: (1/2) = e x x 1/2 dx . Usando la sustitucin x=y2/2: (1/2) = (1/2) = Adems: (3/2) = (1/2) = Ms generalmente: Para cualquier real a > 0 usaremos la notacin:

exp( y2/2) dx

Ga(x) es una funcion distribucin. Su momento de orden k resulta: (1/ (a)) xk e x xa 1 dx = (a+k) / (a) = a (a+1) ... (a+k 1)

La funcin Ga( x) para x 0, donde es un parmetro positivo, se la denomina funcin distrib ucin gamma . Su correspondiente funcin densidad ga( x) est dada por: (a>0, >0) El caso a=1 es de particular importancia y se llama distribucion exponencial. Advirtamos que si la variable aleatoria tiene una distribucin gamma, es decir, P{ x} = Ga( x) entonces tiene la distribucin Ga(x). De esto se deduce que: E{ }= a y E{ 2 2}= a(a+1) E{ }= a/ y Var{ }= a/ 2. CONCLUSION Con los grandes avances tecnolgicos hemos ahorrado tiempo para el anlisis estadstic o, sin embargo la comprensin de la lgica que se utiliza para llegar a la resolucin del mismo es algo que nos ha llevado a este estudio. Para esta presentacin aprendimos la aplicacin y manejo de las Distribuciones de Pr obabilidades ms comunes, Distribucin de Bernoulli, la Binomial, la geomtrica, La bi nomial Negativa, Multinominal, la de Poisson y finalmente la aproximacin a la bin omial e hipergeometrica ala de poisson. Deseamos compartir esta compilacin de informacin con alguien ms que al igual que no sotros tuvimos la necesidad de investigar y realizar un trabajo de este tipo. Anl isis y estudios que nos han abierto la mente as como nuestras habilidades para de sempearnos con mayor eficiencia en nuestras funciones laborales y personales. BIBLIOGRAFA Estadstica para Administradores. Sexta Edicin. Richard I. Levin & David S. Rubin. Editorial Prentice Hall. Captulo 5 Probabilidad II: Distribuciones, pp.232 - 264 Distribucin de Probabilidades (informacin tomada de www.monografias.com, http://ww w.monografias.com/trabajos29/distribucion-probabilidades/distribucion-probabilid ades.shtml) Distribucin Binomial (informacin tomada de www.wikipedia.com, http://es.wikipedia. org/wiki/Distribuci%C3%B3n_binomial) Distribucin Normal (informacin tomada de www.wikipedia.com, http://es.wikipedia.or g/wiki/Distribuci%C3%B3n_normal Distribucin de Poisson. (http://www.itchihuahua.edu.mx/academic/industrial/sabati corita/_private/05Distr%20Poisson.htm)

S-ar putea să vă placă și