Sunteți pe pagina 1din 12

ESTADISTICA ESPAOLA

Vol. 31, Nm. 120, 1989, pgs. 63 a 74

Algunas generalizaciones de ^as distribuciones de Poisson y gamma


por ^ ALBERTO LUCENO VAZQUEZ
Departamento de Matemtica Aplicada y Ciencias de la Computacin Universidad de Cantabria

Avda. de los Castros s/n. - 39005 SANTANDER

RESUMEN
EI punto de partida de este artculo lo constituye uno de los mtodos de generacin de las distribuciones de Poisson y gamma. En este mtodo se hacen cuatro hiptesis sobre la forma de presentarse los sucesos de inters a lo largo del tiempo y se definen dos variables aleatorias, a saber: el nmero de sucesos que ocurren en un intervalo de tiempo dado y el tiempo necesario para observar un nmero dado de sucesos, cuyas distribuciones respectivas resultan ser de Poisson y gamma. A lo largo del artculo se analizan los modelos que se obtienen al suprimir una o ms de las cuatro hiptesis mencionadas y se deducen las distribuciones de las variables aleatorias de inters bajo los nuevos supuestos, las cuales constituyen generalizaciones de las distribuciones de Poisson y gamma. Conviene resaltar que todo el estudio se realiza dentro de un esquema metodolgico nico, lo que pone al descubierto los matices ms transcendentales de cada una de las hiptesis realizadas. Tambin se proporcionan algunos campos de aplicacin de los modelos considerados. Palabras clave: Proceso puntual, proceso de Poisson, proceso de renovacin, distribuciones, tasa de ocurrencia de sucesos, tiempo entre sucesos.

Clasificacin A MS.^ 6 0 E 0 5, 6 0 G 5 5, 6 2 N 9 9.

E 5 T-^^ [)I^ T li ^[.^F'-^1C)[ >

1. INTRODUCCIoN La distribucin de Poisson se presenta en muchas situaciones prcticas af definir una variable aleatoria com el resultado de contar el nmero de sucesos de un determinado tipo, x, que ocurren en un intervalo de tiempo de longitud dada, t. Para ello, se hacen las siguientes hiptesis: a. - En un intervalo pequeo de tiempo, dt, la probabilidad de que ocurra un suceso es:
P(At;i)=adt +o(t)

donde a as la tas2 ^ de ocurrencia de sucesos y(^ t) es un infinitsimo de orden superior a dt cuando et tiende a 0. b.- ^a tasa de ocurr^encia es constante en el tiempo (o,^).
c.La probabilidad . de que en un intervalo pequeo de tiemp, con longitud et, ocurra m^s de un suceso es prcticamente nula; o ms COnCretament8 o(St).

d.-

EI nmero de sucesvs que ocurren en dos intervalos de tiempo disjuntos, son variables aleatorias independientes.

Bajo estas hiptesis se obtiene la funcin de probabilidad de Posson de parmetro ^., como distribucin del nmero de sucesos que ocurren en un intervalo de tiempo dado, que tiene pr expresin:
x P(t;x)=e-^ ^^ x. , x=0,1,2,... . (1)

donde ^= ac t y P(t ; x} es la probabilidad de ^que ocurran x sucesos en un intervafo de tiempo de longitud t. Si en este contexto se considera la variable aleatoria que mide el tiempo necesario, c, para que ocurra un nmero dado de sucesos, x, aparece la distribucin Gamma de parmetros (x,ac} cuya funcin de densidad es:
f ( x-t , ) = ^(^t}^rl^_^ (X_l^i t>0

Aunque este modeio es til en numerasas aplicaciones, curre a veces que tas hiptesis realizadas son excesivamente restrctvas para describr de forma adecuada la situacin prctica qu^: se desea estudiar. Sin embargo, alguna generalizacin del modelo podra ser adecuada. Ello ha atraido e! inters de muchos investigadores y ha motivado la aparicin de una abundante bibliografa sobre el tema, entre la que, rehuyendo la pretensin de ser exhaustivo, podra citarse la siguiente: respecto a los procesos puntuales, procesos de Poisson homogneos y no homognec^s y procesos de renovacin, los trabajos de CO^ ^ 1 962), COX e ISHAM (1980), COX y LEWIS (1 966), KARR { 1 986), LEWIS ed. (1 ^ 7^), PARZEN (1972) y SNYDER (1975); respecto a las aplicaciones m^ ^ s conocidas, Is de ASCHER y FEINGOLD {1984), BARl..OW y Pf^OSCHAN (197'S), RARTOS,^YNS^ KI, BROWN, Mc BFiIDE y THOMPSON (1981), CROW (1974), GAIL, SANTNER y

^L_(;(.^ti ^S (^^^ti^^R.^^LI1r^^C^l(^tiES ^E [_^^S DlS^^f?!h^ C^lt^^^.f ^ DF FC)ISSOV^ y ( ,a^^1!^1^

BR4WN (1980), HECKMAN y SINGER ( 1985) y TUMA y HANNAN ( 1984) y, en cuanto a publicaciones de caracter general con incidencia en el tema, los de BILLINGSLEY ( 1968), BREMAUD (198^4), CASTILLO (1978), FELLER ( 1968), I-^AIGHT (1967), JOHNSON y KOTZ ( 1969) y(1970) y MOOD , GRAYBILL and BOES (1976}. EI objetivo de este trabajo es analizar las principales lineas en las que puede Ilevarse a cabo la generalizacin del modelo, para lo cual, ser necesario utilizar algunos desarrollos conocidos por la bibliografa con el propsito de mantener la unidad y continuidad del esquema metodolgico usado, En los apartados 2, 3 y 4 se analiza lo que ocurre cuando se suprime la hiptesis b, es decir, cuando la tasa de acurrencia de sucesos no es constante, sino que est dada por una funcin del tiempo que se designar por a(t); en el apartado 3 slamente se suprime la hiptesis b, mientras que en el 4 se suprime adems la hiptesis d. En el apartado 5 se generaliza la distribucin de Poisson mediante composicin con otras distribuciones que pueden ser continuas o discretas; el segundo de estos casos permite estudiar un modelo que resulta de eliminar. la hiptesis c. En el apartado 6 se discute un modelo que resulta al eliminar exclusivarnente la hiptesis d y en el 7 se analiza la posibilidad de combinar los diferentes casos estudiados.

2. TASA DE OCURRENCIA VARIABLE: CONDICIONES DEL EXPERIMENTO


En el caso de que la tasa de ocurrencia sea variable es necesario especificar lo que ocurre en el instante en que se produce cada suceso. En lo que sigue se supondr que se verifica una de las dos condiciones siguientes: 1^. La variacin de la tasa de ocurrencia a lo largo del tiernpo se produce de acuerdo con la funcin a(t), sin verse alterada por la ocurrencia de sucesos. 2^. La ocurrencia de un suceso en el instante t= t' tiene como consecuencia que la tasa de ocurrencia para tiempos posteriores a

' vare segn a(t-t'). Es decir, a(t) comienza de nuevo a partir de a(0) cada vez que se produce un suceso.
Ejemplos de la primera condicin se dan en fiabilidad, cuando los sucesos son fallos de un item dado que se repara inmediatamente. Tambin ocurre esta condicin cuando se observan fenmenos naturales, como la ocurrencia de temporales o de inundaciones a lo largo de un perodo largo de tiempo. Ejemplos de la segunda condicin aparecen en fiabilidad, cuando los sucesos son fallos de un item dado que se sustituye por otro nuevo e idntico cada vez que se produce un fallo del item que se est^ usando.

^[)ItiII ^ ^ t^^ f'-1ti(^1 -1

E1 anlisis condicin vlid2t.

estadistico

es diferente dependiendo de cual sea la

3. CONDICION PRIMERA: LA OCURRENCIA DE LOS SUCESOS NO ALTERA EL DESARROLLO DE a(t} A LO LARGO DE1. TIEMPO 3.1. Distribucin de/ nmero de sucesos que ocurren en un intervalo de tiempo dada Este caso es el ms parecido al de tasa de fallo constante. EI razonamiento se basa en considerar el intervalo {O,t+et] como la unin de los intervalos disjuntos (O,t] y(c,t+dt], y aplicar el teorema de la probabilidad total para determinar la prababilidad de que ocurran x sucesos en dicho intervalo de tiempo. EI teorerna de la probabilidad total junto con la hiptesis d de !a introduccin permite poner:
x P(t+ et;x) _^ P(t;x-- k) P(et;k> k^ Despreciando infinitsimos de orden superior a et y hiptesis c, la expresin anterior se reduce a: P(t+ ^1t;x)=P(t;x)P(at;0)+P(t;x- i)P(dt;l) y debido a la hiptesis a se tiene:
. P(dt;0)=1-a(t}dt P(dt; 1)=a (t) et

usando la

de donde: P(t+dt;x)-P(t;x) = ^(t)[P(t;x-i)-P(c;x)] et


Tomando el lmite cuando ec^0 resulta: dP(t; dt x) _a ( t} [P ( t;x -- i)- P(t; x)] que para x=0,i,2,... constituye un sistema de ecuaciones diferenciales cuyas condiciones iniciales son: P(0 ; 0)=1 y P(0 ; x)=0 para x=1,2,... y, por supuesto, P(t ; - i)^.

La sotucin de este sistema de ecuaciones es:


x

P(t;x)=ci^t^ ^(r) , con 1^(t)= jt oc(t)dt , x=0,1,2,_. x. 0

Es decir, fijado un intervalo de tiempo ( O,t^, la variable aleatoria que resulta al contar el nmero de sucesos que ocurren en dicho intervalo tiene distribucin de Poisson a pesar de ser variable la tasa de ocurrencia de sucesos. Sin embargo, el valor promedio de ^.(t) en el intervalo (O,t]:
x{t)=^(`}=1 j`(t}dt t t p

->I (,[ ti>ti (^[ ti[ [t^I I/^( I()^^[ ti [)E [ ^^, [)ItiTRlt31 ( [c^ti[ ti [)[ ['(^l^ti()^ 1 (,1ti1ti1^

pasa a ser funcin de la variable t, a diferencia del caso de tasa constante en el que se verifica T= a. Este hecho debe ser tenido en cuenta cuando se utilizan datos correspondientes a intervalos de tiempo (o,c] de distinta longitud.
La funcin caracterstica correspondiente a la funcin de probabilidad P(t ; x) eS:

cpi(u)=exp(7^(t ) [exp(iu)- 1]} , con ^.(t)= j^ a(t) dt 0 3.2. Distribucin de/ tiempo necesario para observar un nmero dado de sucesos
Designaremos por T; a la variable aleatoria que mide el tiempo que transcurre desde que ocurre el suceso ( i-1)-simo hasta que ocurre el suceso i-simo y por T(z) el tiempo necesario para observar x sucesos. Es claro que: x
T( )-- ^ Ti i=1 x

La distribucin de T(x) puede hallarse usando el siguiente razonamiento: EI suceso T(x) <_ t( donde t es dado) ocurre, si y solo si, ocurre , el suceso x^ >_ x siendo x^ la variable aleatoria que cuenta el nmero de sucesos que ocurren en el intervalo de tiempo (o,t]. Por tanto, Prob(T^x) S t)_ Prob(X^ _> x), es decir, la funcin de distribucin de T(x) se obtiene a partir de
la de x^ mediante la relacin: FT(^)(t )= 1- FXt(x - 1) (2)

donde:
FX (x _ 1)= ^~1 ^ P(t ,k)= e ^^^^ ^-t ^ ^(t)^ ^ L 1c=0 r=0 k

siendo:
7^(t)= j^ oc(t)dt^--L.n[1-FT (t)] o ^

y suponiendo que la funcin a(t) es tal que la integral dverge cuando c-^^. La distribucin de T(x) definida por FT^^)(t) es una generalizacin de la distribucin Gamma(x,a) y, teniendo en cuenta la relacin existente entre las funciones de distribucin de Poisson y Chi-cuadrado:
Prob [ Poisson ( ^, ) < x -- l ] = 1- Prob [ Chi - cuadrado ( 2 x ) <_ 2 ^, ] puede obtenerse la siguiente expresin alternativa de FT(^)(t):

FT (t)=F 2 2 j^a(t)dt x c2X) ( x) o donde Fx2(2,^)(t) es la funcin de distribucin Chi-cuadrado con 2x grados de libertad en el punto t.

f^x

k ^ ^ ^[}Iti^1 I^ ^ k ^f' ^ ^t ^l ^

tnteresa resaitar que las variables aleatorias T^) y T^+^=Tb+1)-T^) no son independientes en este caso, ya que el valor que tome la primera determina ei trozo de la funcin a(c) sobre el que tendr lugar la realizacin de Tj 1.

La distribucin condicionada de T^ x^ dado que Tu)=s est dada por ia ecuacin (2), con tai de trasladar el origen de tiempos al instante s y cambiar el nmero de sucesos j+x por x. Es decir:
_ ^T

<^+^)

/(T

(^)

=s}(t)

_ -^(c,s> ^-1[^ ( t, s )]^ c ^ k^

k=o

donde:
^(t, S)'^s+c a(t) dt=^{t+ s)-^(s)

4. CONDICIUN SEGUNDA: AL OCURRIR UN SUCES^J, LA FUNCION oc(t) VUEEVE AL 4RIGEN , En este caso conviene realizar el clcuio en el sentido inverso, es decir, determinar la distribuc^n de T(x) en primer lugar y a continuacn usar ia reiacin Prob(T(x) s t)= prob(Xt > x) para determinar la distribucin x^.

La diferencia con el caso de la primera condicin radica en que ahora ias variables aleatorias T1 , T^ ,..., Tx son independientes e igualmente distribuidas, con funcin de distribucin comn dada por ia expresin ( 2) para x=1, es decir:
z F-j- t( t)-. 1- exp -- j 0 oc ( t) dt

Por tanto, la distribucin de T^x) est dada por la convolucin de T^ , Tz ,..., Tx. Esta distribucin es la generalizacin de la distribucin Gamma(x,a) para ei caso de tasa de ocurrencia variable y segunda condic^n de experimentacin.
La correspondiente generalizacin de la distribucin de Poisson est dada por F X( x-- i)= i- F T ( t) para x= i,2,... . (x) t

Por otra parte, ei nmero de sucesos que ocurren en dos intervaios de t ^ empo disjunios, (t$ , cb^ y(t^ , td^ con t^ _>tb, no son dos variables aleatorias independientes en este modelo. Ello es debido a+que el nmero de sucesos que ocurren en el intervalo de tiempo (c^ , td] depende de la funcin a{c) en dicho intervalo, la cual a su vez depende del instante en que se produjo el ltimo suceso anterior a t^ y por tanto de! numero de sucesos que han ocurrido en el intervalo (ta , tb) al menos para valores de ta y tb prximos a t^. Por tanto, este modelo no satis#ace las hiptesis b ni d.

^l c:,l ^ ^^ c^t `E K ^l I/ \( I^)^E ^ (>t L \ti UI^ ( klfil ^. It ^ ^f ti (>k f'^>Ititi^ ^ ^ 1 ^ ^ ^^1^1 \

h ^^

Este es un mtodo general de eliminar la hiptesis d: hacer depender a a(c) del nmero de sucesos previamente ocurridos, o de los instantes en que ocurrieron estos sucesos previos. 5. DISTRIBUCION DE POISSON COMPUESTA

5.1. Composicin con una variab/e aleatoria cua/quiera


Sea x^ el nmero de sucesos de un determinado tipo que se observan en un intervalo de tiempo (O,c) y sea P(c;k) la probabilidad de ocurra que xt=k. Considrese una variable aleatoria Yt cuya distribucin condicionada por el suceso Xt=k es conocida. En tal caso, la distribucin marginal de Y^ puede calcularse usando el teorema de la probabilidad total con lo que se obtiene:
FYc(Y )_ ^^ P (t;k ) FY /{x -^ }( y /k ) -0 c c

donde aparece la funcin de distribucin marginal de Y^ y la funcin de distribucin de Y^ condicionada por el suceso { x^=k ). Esta misma ecuacin es satisfecha tambin por las funciones de densidad o de probabilidad y por las funciones caractersticas de Yc y de Yc /{ Xc=k }. Si xt tiene distribucin de Poisson de parmetro ^., se tiene que P(t;k) est dado por la expresin ( ^) por lo que resulta: ^, r ^ ^ti
FY(Y)= E c k1 FY /(x =k^CY/k) c c k=^ c

que se conoce con el nombre de distribucin de Poisson compuesta o generalizada. 5.2. Composicin con una variab/e aleatoria que es suma de variables aleatorias independientes e ^dnticamente distribuidas (iid) con distribucin independiente de xr Frecuentemente la variable aleatoria Y^ est definida por: x,
Yc= ^ Z; i=1 donde (Z1,Z2,...,Zx^) son variables aleatorias iid, con distribucin independiente de la variable aleatoria x^. En tal caso, la distribucin de Y^ condicionada a x^=k est dada por la convolucin de z l,Z2,...,zk y, por tanto, Ilamando cpZ(u) a la funcin caracterstica de Z;, la funcin caracterstica de Yc ser:
^Yc(u)r ^ p(c'k)^^z(u)^ k- d k

E tiT ^E>ItiT I( ^ E tiE'^ti(>l \

Adems, teniendo en cuenta las propiedades de la esperanza condicionada y Ilamando Z y a Z a la media y a la varianza de z;, respectivamente, se tiene que E(Y^) = E(X^) Z y v^(Y^) = E(Xi) aZ+ Var(X^) Z, habida cuenta de que Y^ condicianada a x^ es la suma de x^ variables aleatorias iid.
Si x^ tiene distribucin de Poisson de parmetro ^. las frmulas pasan a ser cpY(u)=cxP{^,[^PZ(u)- 1)). c EtY^)=^Z Y Var(Y^)=7^[aZ+ 2^, tanto

en el caso de que la tasa da ocurrencia de sucesos sea constante como en el de que sea variable.

5.3. Eliminacin de /a hiptesis c

Cuando la variable aleatoria Yi est dada por: x^


Yt= ^ Z; i-1

donde (Z1,z^,...,ZX^) son variables aleatorias iid, pueden darse dos casos: 1.Las variables aleatorias Z^,^2,...,ZXt son cantinuas.

2.- Las variables aleatorias Z1,Z2,...,zXt son discretas.


Aunque el primer caso tiene gran inters en la practica, no es til en el contexto de este trabajo. lJn ejemplo tpico de su uso se encuentra en las compaias de seguros que durante un cierto perodo de tiempo (O,t^, reciben x^ reclamacivnes de davs, cada uno de los cuales tiene un costo Z;, que bajo ciertas condiciones pueden supvnerse iid e independientes de x^. Sin embargo, el segundo caso permite eliminar la hiptesis c de la introduccin, admitindase, por tanto, que la probabilidad de que coincidan dos o ms sucesos en el mismo instante sea mayor que cero. Bajo este punto de vista, la variable aleatoria Z; cuenta el nmero de sucesos que coinciden en el i-simo instante en el que se produce una ocurrencia de xt.

6. ELIMINACION DE LA HIPO ^ TESIS d. No es dificil construir algn mvdefo en el que se elimine exclusivamente la hiptesis d. Para ello, es necesario tener presente que las hiptesis a, b y c se refieren a la distribucin marginal del nmero de sucesos que ocurren en un intervalo de tiempo dado, rnientras que la hiptesis d se refiere a la distribucin conjunta del nmero de sucesos que ocurren en dos intervalos de tiempo dados y disjuntos.

-^l (^l \ ^^ ( ^ E \1 E2 1l ll 1( It)ti ^ [)t 1 1ti I)Itil Rllil ( I(1`.E ^ ()E I'^ ^ ltitita\ 1 ^ ^ ^,ti1^t ^

EI siguiente modelo satisface las hiptesis a, b y c pero na ta d. Sea: Frob(X^.^= 1/(W=0})=ao(t ) Prob(X^.^= 1/(W- i })=at(t )

con:
, si [ t] cs par , a ( t)` 0 a( t)= 2 a At , si [ t] cs par 2 a At , si [ t] ^s impar 1 0 0 , si [ t] ^s irnpar ' donde X t,et es la variable aleatoria que cuenta el nmero de sucesos que ocurren en el intervalo (c,t+ec] que puede tomar valor o 1 cuando et e s pequeo, W es una variable aleatoria tal que Prob(W=0)=Prob(w=1)=1/2 cuyo valor se sortea en el instante t= 0 y se rnantiene constante para t> 0 y[t^ e s el valor entero de t. Adems se supone que la hiptesis d se satisface condcinada a w=0 y tambin condicionada a w= i.(Es decir, condicionado a W=0 a w=1 se cumplen las hiptesis a, c y d pero no la b) .

En tal caso, el teorema 4e la probabildad total conduce a:


1 Prob(Xt,^= 1)= i Prob^ (X^,^= 1/(W=i }) Prob(W=i)= ,=0

--2a Ot 1 +0= a0t 2

tanto si [t] es par como si es impar, por lo que las hiptesis a, b y c se satisfacen rr^argina/mente a w, es decir cuando es desconocido el valor de W. Sin embargo, no se satisface la hiptesis d marginalmente a W, ya que:
Prob(X^+1,ec^ i/(X^.d[= 1 })= 0

debido a que los sucesos {X t+i ,ot= i} y{X tset= i} son incornpatibles por verificarse la hiptesis d condicionada a w, es decir cuando es conocido el valor de W, ya que:
Prob(X^+l,et= 1,Xt.^= 1} )_ 1 -- ^ Prob(X^+t,et^ 1,Xt.^=1/(W=i})Prob(W=i)= ^=0

_(2a Ot )(0 At ) 1+( OAc )( 2a Ot ) 1- = 4 2 2 tanto si [c] es par como si es impar.

Adems, la probabilidad de que e^ e! i^tervalo de tiempo (O,c] ocurran x sucesos se c.alcula usando los resultados de! apartado 3.1, obtenindose:
1 P(t;x)= ^ P(t;x/{W = i}) Prab(W- i)= i^

i -^t(^) [^1(t)J [^p(t ._._ ){^ 1 -^p(^) - X' _ + 2 ^ -- 2 c

x=0,1,2,__

s^endo :
c ^. ; ( t ) = j^ oc ; ( t ) dt , con i = 0 , 1

Este modelo admite una generalizacin inrnediata si se permite sortear el valor de la variable aleatoria w cada cierto nmero, previamente

>I^ 1 !( ^ E ^F' > `^C)i ^l

dado, de unidades de tiempo. Asimisma, pueden encontrarse otras generalizacianes abandonando ia dieotomia de w.

7. COMBINACION DE LOS MODELOS ANA^IZADOS. En los apartados anteriores se han mastrado modelos que tienen un origen similar al del modelo que conduce a las distribuciones de Poisson y Gamma, per0 en los cuales se han eliminado una o ms de ias hiptesis de ste ltim. COncretamente, en el apartado 3 se analiza un modelo que no satisface ia hiptesis b, en el 4 uno que no satisface b ni d, en el 5 se elimina la hiptesis c y en el 6 la d. Llamamos a estos casos (b), (b,d}, (c) y (+^ ) De una manera similar, es posible combinar las tcnicas de todos estos apartados para encontrar modelos que no satisfagan el conjunto de hiptesis (b,c}, (c,d) {b,c,d). Sn embargo, la hptesis a no puede ser ignorada en ningn caso.

BIB LIt7G 1"iAFIA

ASC H E R, H. y F E I NGOLD, H. (1984} . Repairab/e Systems Reliablity: Modsl/ing, Inference, Misconceptons and Their Causes. Dekker. BARLOW, R.E. y PROSCHAN, F. {1975). Statistical Theory of Reliablity and Life Testing^ . Hoit, Reinhart and Winston. BARTOSZYNSKI, R., BROWN, B.W., Mc BRIDE, C.M. y THOMPSON, J.R. (1981). Some Nonparametric Techniques for Estimating the Intensity Function of a Cancer Related Nonstationary Poisson Process. The Annais of Statistics, 9, 1050-^ 060. BILLINGSLEY, P. (1968). Convergence of Probability Measures. Wiley. BREMAUD, P. (1984}. Introduction aux Probabilifs. Springer Verlag. CASTILLO,E. (1978). lntroduccidn a/a Estadstica Aplicada. E. Castillo.
COX, D.R. (^i 962). Renewal Theory. Wiley. COX, D.R. e ISHAM, V. (1980}. Point Processes. Chapman & Ha11.

COX, D.R. y LEWIS, P.A.W. {1966). Events. Methuen.

The Statistical Ana/ysis of Series of

CROW, L.I-I. (1974). Relability Analysis for Complex, Repairable Systems. Reliability and Biometry, eds. Proschan, F. y Serfling, R.J. SIAM, pags 379-41 (J . FELLER, W. (1968}. An introduction to Probability Theory and Its Applicatins. Wiley.

GAIL, M.H. , SANTNER, T.J. y BROWN, C.C. (1980). An analysis of Comparative Carcinogenesis Experiments Based vn Multiple Times to Tumor. Biometrics, 36, 255-266.

^l.t,l ti^ti (;E^E R^^t II1^( I(^tiE:^ [:)E l.->ti [)I^f R1f31 ( Ic^tiE^ C)f P()I^^(tti 1 t, ^tit*^-^

HAIGHT, F.A. (1967). Handbook of the Poisson Distribution. Wiley. HECKMAN, J.J. y SINGER, B. (1985). Social Science Duration Analysis. Longitudina! Analysis of Labour Market Data, eds. Heckman, J.J. y Singer, B. Cambridge University Press. pags. 39-110. JOHNSON, N. L. y KOTZ, S. (1969) . Distributions in Scatistics: Discrete Distributions. Wiley.

JOHNSON, N.L. y KOTZ, S. (1970). Distributions in Statistics: Continuous Univariate Distributions-l,-2. Wiley.
KARR, A.F. (1986). Point Processes and Their Statistical Inferenc^e. Dekker. LEWIS, P.A.W. ed. (1972). Stochastic Point Processes. Wiley. MOOD, A.M. , GRAYBILL, F.A. and BOES, D.C. (1976). Introduction to the Theory of Statistics. McGraw-Hill. PARZEN, E. (1972). Procesos estocsticos. Paraninfo. SNYDER, D.L. (1975). Random Point Processes. Wiley. TUMA, N.B. y HANNAN, M.T. (1984). Sociat Dynamics: Modals and Methods. Academic Press.

f tiF^ ^^ [)l^TI^ ^ t tiF' ^`l ^ l ^

SOME GENERALIZATIONS OF THE POISSON AND GAMMA DISTRI BUTIC)NS SUMMARY


The starting pornt of the paper is one of the metf^ods used to generate Poisson and yamma distributions. This methd assumes four hypotheses governing the way in which the events of interest happen in time. Tvvo random variables are defined: the number of events counted in a given time intervai and the t^me needed to observe a given number of events. The probability dstributions of these randUm variables are known as Poisson and garr^ma respectively. The paper ^s devoted to analyzing the models found when one or more of the four hypotheses are suppressed and to obtaining the corresponding probability distributions for the two random variables under consideration. These distributions can be considered as generalizations of the Po^sson and gamma distributions. The work proceeds by using a unifying methodological scheme, wh^ch emphasizes the most important aspects o# the hypotheses. In addition, some potential applications are mentio ned.

Key worcls.^ Point processes, Poisson pr-ocesses, renewal processes, distrik^utions, hazard rate, time between failures. A MS Clasifiea tior^.^ 6 0 E 0 5, 6 0 G 5 5, 6 2 N 9 9.

S-ar putea să vă placă și